Bei einer Funktion von \(\mathbb{R} \to \mathbb{R} \) ist ja klar, was eine Ableitung (Differentialquotient) ist: Anschaulich die Änderungsrate des Funktionswerts an einer bestimmten Stelle…
Wenn der Definitionsbereich einer Funktion nicht mehr \(\mathbb{R}\) sondern \(\mathbb{R}^3\) ist, nennt man eine solche Funktion auch ein “Skalarfeld”, weil durch die Funktion jedem Punkt im Raum \(\mathbb{R}^3\) ein skalarer Wert zugeordnet wird (Beispiel: Temperatur). Eine “Änderungsrate” einer solchen Funktion wäre dann ja von der Richtung abhängig, in die ich gehe; also muss so eine “Änderungsrate” ein Vektor werden. So eine “Änderungsrate” eines Skalarfeldes nennt man dann den “Gradienten” s.u.
Sei also \( \Phi \) eine Funktion \(\Phi: \mathbb{R} \to \mathbb{R}^3 \) dann ist der Gradient von \( \Phi \) :
Generell definiert man auf einem Vektorraum dann besondere Abbildungen, sog. Differentialoperatoren. Man benutzt dazu die Koordinatenschreibweise. Wir nehmen hier immer die klassischen Cartesischen Koordinaten. Wenn man andere Koordinatensystem hat, sehen die Formeln dann etwas anders aus.
Wir nehmen als Definitionsbereich für unsere “Felder” den Vektorraum \(\mathbb{R}^3\). dann haben wir partielle Ableitungen nach den drei Koordinaten: x, y und z und man definiert als sog. Nabla-Operator:
Im einfachen Fall, wenn unser Definitionsbereich nur ein Vektorraum der Dimension 1 ist (\(\mathbb{R}^1\)), ist der Gradient einfach die erste Ableitung.
Kraftfeld und Gradient
In einem konservativen Kraftfeld F(r) kann man als Skalar ein Potential V(r) definieren, sodass die Kraft der Gradient den Potentials wird:
Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Vektorräume und Tensoren.
Ein Vektorraum kann axiomatisch wie folgt definiert werden:
Axiom 1: Vektorräume verfügen über eine Operation, die Vektor-Addition (Vektor plus Vektor ergibt einen Vektor) genannt wird und eine kommutative (abelsche) Gruppe bildet.
Axiom 2: Jeder Vektorraum muss einen Körper von sog. Skalaren haben, mit denen die Vektoren mutipliziert (“skaliert“) werden können (Skalar mal Vektor ergibt Vektor).
Man spricht dann von einem Vektorraum “über” einem Körper K seiner Skalaren oder kurz gesagt von einem K-Vektorraum.
Solche Axiome ergeben eine abstrakte Definition von Eigenschaften; die Frage ist allerdings, ob es tatsächlich “Gebilde” gibt, die diese Axiome erfüllen. Tatsächlich gibt es viele “Gebilde”, die die Vektorraum-Axiome erfüllen: d.h. die tatsächlich Vektorräume sind. Beispiele für Vektorräume sind u.a.:
Ein \(\mathbb{R}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{R}\)
Ein \(\mathbb{C}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{C}\)
Die Menge der Funktionen auf \(\mathbb{R}\) kann auch als Vektorraum ausgestattet werden…
Ein abstrakter Vektorraum kann auch veranschaulicht werden:
Physik: Der Physiker stellt sich Vektoren gern als “Pfeile” vor, die also eine Richtung und eine Länge haben, also eher “geometrisch“.
Computer: Der Computer-Mensch stellt sich Vektoren eher als Liste von Komponenten vor (Vektor = Liste) – wozu man aber ersteinmal ein System von Basis-Vektoren (nicht: Koordinatensystem) haben muss.
Mathematik: Der abstrakte Mathematiker sagt, Vektoren sind einfach “etwas”, was man addieren kann (Gruppe) und was man mit “Skalaren” skalieren kann – fertig, einfach ein paar Axiome und das war’s.
Linearkombinationen
Mit einem Satz von Vektoren kann man eine sog. Linearkombination bilden, beispielsweise:
Zu einem Satz Vektoren \( \vec{g_1}, \vec{g_2}, …, \vec{g_n} \) wäre eine Linearkombination etwa:
Wobei wir jeden Vektor \( \vec{g_i} \)mit einem Skalar \( a_i \) multiplizieren und die Summe bilden.
Was ist eine Vektorbasis?
Wenn ich mit einem Satz von Vektoren jeden Vektor des Vektorraums durch eine Linearkombination darstellen kann, sagt man “der Satz von Vektoren spannt den Vektorraum auf”. Ist so ein Satz von Vektoren minimal und die Darstellung eines Vektors durch eine Linearkombination damit eindeutig, so nennt man den Satz von Vektoren eine Vektorbasis.
Soweit ist dies eine axiomatische Definition von Eigenschaften, welche eine Vektorbasis erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich eine solche Vektorbasis exsitiert.
Die Antwort lautet: Jeder Vektorraum hat (mindestens) eine Vektorbasis.
Falls ein Vektorraum mehrere Vektorbasen hat sind alle diese Vektorbasen gleich mächtig. Die Kardinalzahl (Mächtigkeit) heist Dimension des Vektorraums.
Beispiel:
Der euklidische Vektorraum: \(\mathbb{R}^n\)
Dort haben wir z.B. eine Vektorbasis: \( \vec{e}_i = (\delta_{i}^j) \)
Wobei das Kronecker-Delta bekanntlich definiert ist als:
Damit ich mit einem Vektor so schön herumrechnen kann, ist es enorm praktisch, den Vektor durch “seine” Komponenten darzustellen. Solche “Komponenten” beziehen sich immer auf eine sog. Vektorbasis.
Den Satz von Skalaren mit dem ein Vektor bezüglich einer Vektorbasis als Linearkobination eindeutig dargestellt werden kann nennt man auch die Komponenten des Vektors. Man schreibt also:
Dabei sind also die ai die Komponenten des Vektors a bezüglich des gewählten Basisvektorsystems. Der Begriff von Koordinaten in einem Koordinatensystem unterscheidet sich von diesem Begriff der Komponenten bezüglich eines Basisvektorsystems.
Der Physiker möchte die Formeln noch kompakter aufschreiben und führt eine impliziete Summenkonvention ein (nach Einstein). Danach verwenden wir Indizes teilweise unten (klassisch) und auch teilweise oben (neu). Wenn ein gleicher Index oben und unten auftaucht, soll darüber summiert werden (ohne dass man es expliziet schreiben muss). Also in unserem Fall:
\( \vec{a} = a^i \vec{g_i} \)
Man nennt Größen mit einem Index unten “kovariant” und mit einem Index oben “kontravariant” – was man damit eigentlich sagen will werden wir später erfahren.
Komponentenschreibweise
Unsere Rechenregeln für Vektoren kann man nun auch einfach in Komponentenschreibweise ausdrücken:
Geschrieben werden Vektoren meist als eine Liste ihrer Komponenten, aber nicht waagerecht, sondern senkrecht angeordnet (bei waagerechter Anordnung denkt man eher an einen Punkt im Raum).
\( \Large \vec{v} = \left( \begin{array}{c} x \\\ y \\\ z \end{array}\right) \)
oder auch in eckigen Klammern:
\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z \end{array} \right] \)
Wenn ich Vektoren als Liste von Komponenten schreiben will, muss ich ersteinmal ein Basisvektorsystem haben.
Vektoren, und das ist wichtig, exisitieren auch ohne Basisvektorsysteme, also einfach geometrisch im Raum. Unabhängig von einem Basisvektorsystem hat jeder Vektor eine Länge und eine Richtung. Dies sind also sog. “Invarianten”; d.h. bei Änderung des Basisvektorsystems ändern sich diese Eigenschaften nicht.
Also: Vektoren ansich sind invariant gegenüber einem Wechsel des Basisvektorsystems. Aber die Vektorkomponenten verändern sich beim Wechsel des Basisvektorsystems, sind wie man sagt “variant“. Wie Vektorkomponenten bei Wechsel des Basisvektorsystems hin- und hergerechnet werden können, behandeln wir weiter unten. So ein Vektor ist damit der Sonderfall eines Tensors, nämlich ein Tensor vom Rang 1.
Bilinerarform
Hier geht es um zwei Variable (zwei = bi); also eine Abbildung:
\( f: V \times V \to K \\\) (mit V Vektorraum über dem Körper K)
So eine Abbildung heisst “bilinear“, wenn sie “in beiden Variablen” linear ist, was heisst:
Ein Vektorraum verfügt nicht notwendig über ein Skalarprodukt. Auf einem Vektorraum kann ein Skalarprodukt definiert sein (Vektor mal Vektor ergibt einen Skalar) – Dies ist inspiriert aus der Physik durch Arbeit = Kraft mal Weg.
Wir werden sehen, dass so ein Skalarprodukt dann eine “Norm” induziert und damit eine Metrik, wodurch z.B. Grenzwertprozesse möglich werden.
Einen \(\mathbb{R}\)-Vektorraum mit Skalarprodukt nennt man auch einen Euklidischen Raum, einen \(\mathbb{C}\)-Vektorraum mit Skalarprodukt nennt man auch Hilbertraum – genauer Prähilbertraum.
Definition des Skalarprodukts
Das Skalarprodukt zweier Vektoren wird axiomatisch wie folgt definiert.
Axiomatische Definition
Generell ist das Skalarprodukt in einem Vektorraum über dem Körper K eine Abbildung:
\( f: V \times V \to K \)
Man schreibt auch gerne das Skalarprodukt als:
\( \Large f(x,y) = \langle x,y \rangle \)
\( \Large f(x,y) = \vec{x} \cdot \vec{y} \)
Für den Fall eines Vektorraums über dem Körper der reelen Zahlen, müssen für x, y, z ∈ V und λ ∈ \(\mathbb{R} \) folgende Axiome gelten:
Linearität in beiden Argumenten
<x+y,z> = <x,z> + <y,z>
<x,y+z> = <x,y> + <x,z>
<λx,y> = λ <x,y>
<x,λy> = λ <x,y>
Symmetrie: <x,y> = <y,x>
Positiv definit:
<x,x> ≥ 0
<x,x> = 0 genau dann, wenn x=0 ist
Das reelle Skalarprodukt ist also eine positiv definite, symmetrische Bilinearform.
Für den Fall eines Vektorraums über dem Körper der komplexen Zahlen, ist die Sache etwas schwieriger.
Es müssen für x, y, z ∈ V und λ ∈ \(\mathbb{C} \) folgende Axiome gelten:
Semilinear im ersten Argument:
\( <\lambda x, y> = \bar{\lambda} <x,y> \)
Linear im zweiten Argument:
\( <x, \lambda y> = \lambda <x,y> \)
Hermitisch:
\( <x,y> = \overline{<y,x>} \)
Positiv definit:
<x,x> ≥ 0
<x,x> = 0 genau dann, wenn x=0
Das komplexe Skalarprodukt ist also eine positiv definite, hermitische Sesquillinearform.
Existenz eines Skalarprodukts
Soweit ist dies eine axiomatische Definition von Eigenschaften, welche ein Skalarprodukt erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich ein solches Skalarprodukt definiert werden kann.
Aus unserem Vektorraum V über K nehmen wir zwei Vektoren \(\vec{x}\) und \(\vec{y}\) und versuchen deren Skalarprodukt zu definieren. Dazu greifen wir auf die Komponentendarstellung dieser Vektoren zu einer ausgewählten Vektorbasis zurük:
Wir könnten das Skalarprodukt zweier beliebiger Vektoren also definieren, wenn wir nur das Skalaprodukt von je zwei Basisvektoren so definieren, dass dann die Axiome des Skalarprodukts eingehalten würden. MIt anderen Worten: Bei geeigneter Feststetung einer Matrix:
\( g_{ij} = \vec{g}_i \cdot \vec{g}_j \tag{1}\)
Könnten wir das Skalarprodukt einfach definieren als:
Wir bekommen also ein Objekt aus zweifach indizierten Skalaren (genannt Metrik-Koeffizienten). Diese Metrik-Koeffizienten bilden also eine quadratische Matrix, die wir später auch gerne “Metrik-Tensor” nennen werden.
Der Metrik-Tensor besteht also aus den paarweisen Skalarprodukten der verwendeten Basisvektoren.
Beispiel:
Wie nehmen einen euklidischen Vektorraum: \(\mathbb{R}^3\)
mit der Vektorbasis: \( \vec{e}_i = (\delta_{i}^j) \)
Wir nehmen als Metrik-Tensor: \( \eta_i^j = \left( \begin{matrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ \end{matrix} \right) \)
Aus Gleichung (2) mit dem obigen Metrik-Tensor ergibt sich als Skalarprodukt:
Um hier das Skalarprodukt auszurechnen nach Gleichung (2) müssen wir die Komponenten der Vektoren bestimmen. Dazu nehmen wir ersteinmal die Komponenten der einzelnen Vektoren:
Mit diesem Faktor werden die Längenkontraktion und die Zeitdilationen quantitativ beschrieben.
Addition von Geschwindigkeiten
xyz
Impuls / Massen
Der Impulserhaltungssatz ist unantastbar. Also ist
\(\Large p = m \cdot v \tag{2}\\\)
invariant (gleich in allen Inertialsystemen).
In zwei Intertialsystemen messen wir ja unterschiedliche Geschwindigkeiten, also muss sich die Masse entsprechend verändern damit der Impus gleich bleibt.
Diese Formel ist wegen der Linearisierung des Lorenzfaktors eigentlich falsch, soll heissen sie gilt so nur für kleine v (klein gegenüber c). Vollständig richt lautet sie:
Wir versuchen eine kompliziertere Funktion in eine Summe einfacherer zu zerlegen.
Bei der Taylor-Entwicklung (Brook Taylor 1685 -1731) betrachten wir einen Punkt der Funktion und wollen in der Umgebung dieses Punktes die Funktion “vereinfachen”, dadurch dass wir sie als Summe aus einfacheren Funktionen annähern und im Grenzwert sie damit genau darstellen.
Bei der Fourier-Entwicklung (Jean Baptist Joseph Fourier 1768 – 1830) betrachten wir eine periodische Funktion und wollen diese für eine Periode durch eine Summe einfacherer periodischer Funktionen approximieren (im Grenzwert genau darstellen).
Taylor-Entwicklung
Wir wollen hier eine Funktion y=f(x) in der Nähe einer Stelle x0 durch eine Potenzreihe annähern:
Bleibt x in der Nähe von x0, so ist (x-x0) klein und wir können näherungsweise die Tayler-Entwicklung irgendwann abbrechen – wenn es genauer sein soll, müsen wir weitere Terme hinzunehmen.
Der Sinn einer solchen Taylor-Entwicklung ist häufig, dass die entstandene Potenzreihe einfacher zu handhaben ist als die Originalfunktion (z.B. in Formeln, z.B. die Ableitungen,…)
Physiker brechen gern nach dem zweiten Term ab und nennen das eine Linearisierung; also:
\( f(x) = f(x_0) + f^\prime(x_0)(x-x_0) \\\)
Das machten wir – schon in der Schule – beim Fadenpendel.
Und auch Einstein machte das bei seiner berühmten Formel E = mc2 .
In der Tat zeigt die Mathematik, unter bestimmten Voraussetzungen konvergiert diese Taylor-Reihe. Also
Wir betrachten eine etwas kompliziertere Funktion f(t); z.B. ein elektrisches oder akustisches Signal im Zeitverlauf. Die Funktion soll aber periodisch sein; etwa mit der Periode [-π,+π] (das wird gern genommen).
Wir wollen die Funktion durch eine Reihe von Sinus- und Cosinus-Funktionen, also durch Schwingungen, annähern:
Das ist eine Linearkombination von Sinussen und Cosinussen verschiedener Frequenzen (und Amplituden).
Der Sinn so einer Fourier-Entwicklung ist jetzt primär nicht, dass das Ergebnis “einfacher” wäre, sondern man möchte etwas herausbekommen über die Original-Funktion; beipielsweise wenn die Original-Funktion ein akustisches Signal ist (siehe MP3-Format).
Die Ermittlung der Fourier-Koeffizienten ak und bk nennt man auch Fourier-Analyse. Fourier selbst fand als analytische Lösung:
Eine Deutung so einer Fourier-Analyse ist, dass wir eine Funktion f(t) untersuchen und die Anteile verschiedener Frequenzen ermitteln. Man spricht deshalb auch von einem Frequenz-Spektrum…
Wenn wir die Fourier-Entwicklung nach dem n-ten Term abbrechen, schreiben wir:
Das nennen wir “Fourier-Polynom n-ten Grades zu f” (Sprachgebrauch, obwohl das kein Polynom im üblichen Sinne ist).
Statt Fourier-Analyse wird auch gern die Bezeichnung Harmonische Analyse verwendet.
Komplexe Zahlen
Gerne wird die Fourier-Analyse auch mit Komplexen Zahlen erklärt. So hilft die Eulerschen Formel dabei statt Sinus und Cosinus “einfach” eine Exponatialfunktion zu verwenden:
Was dann in der Regel zu komplexen Fourier-Koeffizenten ck führt.
Wir unterscheiden zwischen Fourier-Analyse und Fourier-Transformation…
Diskrete Fourier-Analyse
In der Praxis kennt man die Funktion f(t) meist nicht analytisch (also als Formel), sondern hat “nur” die Funktionswerte an diskreten Stellen. Man kommt dann zu einer sog. Diskreten Fourier-Transformation (DFT).
Wenn man Dateien speichern will (weil man sie vielleicht später weiterbearbeiten will), benötigt man ein Konto bei GeoGebra und dann muss man sich da anmelden.
Dann funktioniert im GeoGebra-Menü “Datei -> Öffnen”
In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\). So einen Vektor
\( \vec{v} \in V \)
scheibt man in der Quantenphysik gern als sog. Ket-Vektor:
\( |v\rangle \)
Dies ist Teil der sog. Bra-Ket-Notation von Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.
Zu jedem Ket-Vektor definieren wir noch einen sog. Bra-Vektor:
\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)
Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.
Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.
Zu dieser Bra-Ket-Notation gibt es enorm viele Youtube-Videos. Ein ganz einfaches ist: https://youtu.be/pBh7Xqbh5JQ
Einig sind sich alle Authoren über die Frage, was ein Ket-Vektor ist: eben ein “normaler” Vektor aus unserem Vektorraum V (also ein “Spaltenvektor”:
“Konjugiert komplex” ist ja zunächst nur für Skalare (komplexe Zahlen) definiert. Kann man auch zu einem Vektor den konjugiert komplexen bilden?
Mit endlichen Dimensionen geht das ja alles so. Aber in der Quantenphysik wird man doch mit Hilberträumen unendlicher Dimension arbeiten. Wie funktionieren diese Konzepte denn da?
Skalarprodukt
MIt HIlfe von Bra-Vektor und Ket-Vektor definieren wir nun ein Skalarprodukt (inneres Produkt):
Das Skalarprodukt der Vektoren v und w schreiben wir als:
\( \langle v | w \rangle \)
Aber wie wird dieses Skalarprodukt berechnet (definiert)?
Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):
\( \langle b_i | b_j \rangle := \delta_{ij} \)
Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.
Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:
\( | v \rangle = \sum{v_i | b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)
definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i} \)
Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:
Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:
Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.
Das so definierte Skalarprodukt ist nicht mehr kommutativ, sondern “hermitisch”; d.h.:
\( \langle v, w \rangle = \langle w, v \rangle ^\ast \)
Das Skalarprodukt eines Vektors mit sich selbst ist immer reelwertig und “positiv definit”.
Hilbertraum
Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.
In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.
Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.
Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.
Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.
So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).
Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.
In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:
De Broglie und Einstein haben ja gezeigt, dass Teilchen (Photonen, Elektronen) auch Wellencharakter haben.
\( \lambda = \frac{h}{p} \) und \( f = \frac{E}{h} \)
Aber: Keine Wellenfunktion ohne Wellengleichung.
Die Wellenfunktion in der Quantenphysik
In der klassischen Mechanik (Newton etc.), wird ein Teilchen durch Ort und Implus beschrieben mit seinem sog. “Zustand”.
In der Quantenphysik macht das die Wellenfunktion Ψ. Sehr allgemein gesagt: Eine Wellenfunktion beschreibt das Zustand eines quantenmechanischen Teilchens. Was genau mit “Zustand” und “Wellenfunktion” gemeint ist, bleibt zunächst offen.
Wir werden später sehen, dass man damit die Aufenthaltswahrscheinlichkeit (und auch andere Größen, sog. Observable) von Teilchen berechnen (vorhersagen) und schließlich auch messen kann. Daher auch der Spruch “Shut up and calculate”, angeblich auf Richard Feynman (1918-1988) zurückgehen soll…
Der Wertebereich einer Wellenfunktion sind die Komplexen Zahlen. Der Definitionsbereich sind Ort und Zeit Ψ(r,t).
Der Wert ist also eine Komplexe Zahl, veranschaulicht in Polar-Koordinaten durch einen Vektor mit einer Länge auch “Amplitude” genannt, und einem Winkel, auch Phase genannt.
Für Komplexe Zahlen benutzt die Quantenmechanik gerne die sog. Exponential-Darstellung:
\(\displaystyle z ={r} \cdot e^{i \cdot \phi} \)
Damit kann man sich die Komplexe Zahl gut als Vektor einer bestimmten Länge (r auch genannt Amplitude) mit einem Drehwinkel (Φ auch genannt Phase) vorstellen.
Da der Wert der Wellenfunktion eine Komplexe Zahl ist, kann man sie nicht “direkt” beobachten; der Betrag der Wellenfunktion zum Quadrat ist aber eine nicht negative reelle Zahl und ist so der Beobachtung zugänglich…
Nach der sog. Kopenhagener Deutung (1927 Niels Bohr und Werner Heisenberg) ergibt sich aus der Wellenfunktion eines Teilchens eine Wahrscheinlichkeitsdichte ρ(x,t) für den Aufenthaltsort und zwar wird dabei der Betrag der Wellenfunktion zum Quadrat genommen:.
\( \rho(x,t) = | \Psi(x,t) |^2 \\\)
Aus dieser Wahrscheinlichkeitsdichte ρ ergibt sich der Erwartungswert für den Ort des Teilchens:
\(\Large \langle x \rangle = \int\limits_{-\infty}^{+\infty} x \, \rho(x) \, dx \\\)
Die Wahrscheinlichkeit dafür, dass das der Ort des Teilchens (x) im Intervall a <= x <= b liegt, wäre dann:
\( \Large \int_a^b | \Psi(x,t) |^2 \, dx \\\)
Da der Betrag einer komplexen Zahl z definiert ist über: \( | z |^2 = z \cdot z^* \) folgt daraus…
\(\Large \langle x \rangle = \int\limits_{-\infty}^{+\infty} \Psi^*(x,t) \, x \, \Psi(x,t) \, dx \\\)
In dieser Form sehen wir schon einen ersten Operator (s.u.), der auf die Wellenfunktion wirkt und uns ein Observable (den Ort) als Erwartungswert bringt.
Operatoren und Observables
Bisher hatten wir den Zustand eines quantenphysikalischen System durch die Wellenfunktion Ψ beschrieben. Um zu beobachtbaren Größen zu kommen, benötigen wir sog. Operatoren, die auf die Wellenfunktion angewendet werden und dann beobachtbare Werte (“observables”) liefern; aber auch nur als Wahrscheinlichtkeitsverteilung (woraus ich Erwartungswerte etc. berechnen kann). Man schreibt solche Operatoren gerne als Buchstabensymbol mit einem Dach “^”. Observable sind z.B.:
Ort
Impuls
Kinetische Engergie
etc.
Solche Observables können natürlich auch “nur” Wahrscheinlichkeitsverteilungen mit Erwartungswert und Varianz sein.
Ein bestimmter Operator liefert dann zusammen mit der Wellenfunktion des quantenphysikalischen Systems die Wahrscheinlichkeitsverteilung dieser Observablen (in reelen Zahlen). Daraus ergibt sich beispielsweise der Erwartungswert einer Observablen:
Von Ernst Schroedinger (1887-1961) stammt die grundlegende Gleichung der Quantenmechanik. Sie beschreibt in Form einer partiellen Differentialgleichung die zeitliche und räumliche Veränderung des quantenmechanischen Zustands eines nichtrelativistischen Systems unter Einfluss eines Potentials. Wobei man sich so ein Potential als Einfluss eines Kraftfeldes vorstellen kann: \( F(r,t) = \frac{\partial \Psi(r,t)}{\partial t}\).
Die Lösungen dieser Wellengleichung heissen Wellenfunktionen.
Gegeben ist dabei eine Potentialfunktion V(r,t) und gesucht wird als Lösung die dazu passende Wellenfunktion \(\Psi(r,t)\):
Mit dem Laplace-Operator: \( \Delta f = div(grad f)) \) der so etwas wie die “zweite Ableitung” darstellt.
Benannt nach Pierre-Simon Laplace (1749-1827).
Gegeben ist dabei ein Potential V(r,t) und eine Masse m, gesucht wird eine Wellenfunktion \(\Psi(r,t) \).
Wenn es sich um ein “freies” Teilchen handelt, ist das Potential Null, d.h. es fällt in der Gleichung weg.
Wenn die Wellenfunktion nicht von der Zeit abhängt, sprechen wir von einer “stationären” Lösung. Die Wellenfunktion ist dann nicht mehr komplexwertig, sondern nimmt nur noch Werte aus den reelen Zahlen an.
Kompakt kann man die allgemeine Schrödiner-Gleichung schreiben als:
\(\hat{H} \Psi(t)= i \cdot \hbar \cdot \frac{\partial}{\partial t} \Psi(t) \).
Der nach William Rown Hamilton (1805-1865) benannte Hamilton-Operator.
Hintergrund dieser Schödinger-Gleichung ist der Satz von der Erhaltung der Energie.
Eine Wellenfunktion ist also die Lösung der oben stehenden Schrödinger-Gleichung (mit einer bestimmten Potentialfunktion V). Da die Schrödinger-Gleichung linear ist, sind auch beliebige Linearkombinationen von Lösungen wiederum Lösungen. So eine Linearkombination würde man Superposition nennen. Wenn beispielsweise die Wellenfunktionen ψ1 und ψ2 Lösungen einer Schrödinger-Gleichung sind, ist auch \( \Psi = a \cdot \Psi_1 + b \cdot \Psi_2 \\\) Lösung dieser Schrödinger-Gleichung.
Das heisst, dass alle Wellenfunktionen \( \Psi: \mathbb{R}^4 \to \mathbb{C} \), die Lösung einer Schrödinger-Gleichung sind, einen Vektorraum bilden. Wenn wir noch ein Skalarprodukt (inneres Produkt) von zwei Wellenfunktionen definieren, wir dieser Vertorraum zum Prä-Hilbertraum und möglicherweise zu einem echten Hilbertraum:
Quantenphysiker verwenden auch gerne eine Bra-Ket-Notation (s.u. Diriac) und schreiben:
\( |\Psi\rangle = a \cdot |\Psi_1\rangle + b \cdot |\Psi_2\rangle \\ \)
Zunächst ist das eine formale mathematische Aussage.
Eine für Physiker interessante Eigenschaft von Wellenfunktionen ist, dass ein Zustand aus mehreren einfachen Zuständen zusammensetzen werden kann. Sind die Zustände mit “exklusiv oder” verbunden (z.B. alternative Wege), werden die Wellenfunktionen addiert (sog. Überlagerung, auch Superposition genannt), Sind die Zustände mit “und” verbunden (z.B. eine Sequenz), werden die Wellenfunktionen multipliziert.
Ein ganz einfaches Beispiel für Wellenfunktionen und Superposition ist die Teil-Reflektion. Die beiden Wellenfunktionen werden addiert, normiert und danach wird das Quadrat des Betrags genommen.
Abbildung 1: Eine schöne Einführung gibt das Youtube-Video von Alexander FufaeV (Youtube: https://youtu.be/SqQbsBOsaA8)
Wenn wir bestimmte Vereinfachungen vornehmen, wird die Schrödinger-Gleichung auch einfacher:
Die Wellenfunktion möge in einfachen Fällen nicht von der Zeit, sondern nur vom Ort abhängen ==> zeitunabhängige Schrödinger-Gleichung
Der Ort wird in einfachen Fällen nicht durch drei Raumkoordinaten (Ortsvektor r), sondern nur durch eine Dimension (x-Achse) beschrieben. ==> Eindimensionale Schrödinger-Gleichung
Als (vereinfachte) eindimensionale, zeitunabhängige Schödinger-Gleichung haben wir:
In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\) die unendliche Dimension haben. So einen Vektor
\( \vec{v} \in V \)
scheibt man in der Quantenphysik gern als sog. Ket-Vektor:
\( |v\rangle \)
Dies ist Betandteil der sog. Bra-Ket-Notation von Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.
Um ein Skalarprodukt (inneres Produkt) zu definieren brauchen wir noch zu jedem Ket-Vektor einen sog. Bra-Vektor.
\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)
Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.
Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.
Damit können wir das Skalarprodukt der Vektoren v und w schreiben als
\( \langle v | w \rangle \)
Aber wie wird dieses Skalarprodukt berechnet (definiert)?
Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):
\( \langle b_i | b_j \rangle := \delta_{ij} \)
Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.
Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:
\( | v \rangle = \sum{v_i | b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)
definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i} \)
Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:
Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:
Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.
===========================
Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.
In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.
Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.
Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.
Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.
So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).
Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.
In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:
\( a |\Psi_1\rangle + b |\Psi_2\rangle \\ \)
schreibt man einfach:
\( a |1\rangle + b |2\rangle \\ \)
Quanten-Verschränkung – Entanglement
Zwei Teilchen (Quanten-Teilchen) können “verschränkt” sein.
Zwei verschränkte Teilchen können entstehen, wenn ein ursprüngliches Teilchen in zwei Teilchen zerfällt. Wenn das ursprüngliche Teilchen eine Erhaltungseigenschaft hatte, muss diese in den entstandenen zwei Teilchen in Summe unverändert auftauchen.
Man sagt auch, dass die zwei Teilchen eine gemeinsame Wellenfunktion haben.
Manchmal hört man auch, dass ein Quanten-System aus zwei Teilchen als Wellenfunktion das Produkt der beiden einzelnen Wellenfunktionen hat.
Unter einer Symmetrie versteht man in der Physik die Eigenschaft eines Systems, nach einer bestimmten Änderung (z.B. Koordinatentransformation) in einem unveränderten Zustand (also unverändert) zu bleiben. Eine solche Transformation (die den Zustand nicht ändert) wird Symmetrietransformation genannt.
Der Zustand eines mechanischen Systems mit den Koordinaten q1, q2,…,qn wird dabei beschrieben durch die Lagrangefunktion:
Alternativ zu den Newtonschen Gleichungen kann man die räumliche und zeitliche Entwicklung eines mechanischen Systems auch durch den sog. Lagrange-Formalismus beschreiben. Dazu benutzt man die physikalischen Größen kinetische Energie und potentielle Energie.
Um mit der Langrange-Funktion etwas zu machen, muss man sie als Funktion von Variablen (also Koordinaten) ausdrücken. Die kinetische Energie hängt klassischerweise von der Geschwindigkeit v ab. Die potentielle Energie hängt klassischerweise vom Ort r ab. Die Variablen (Koordinaten) der obigen Lagrange-Funktion wären dann also \(\mathcal{L}(v,r) \).
Wobei diese Lagrange-Funktion nur eine “Hilfsfunktion” ist und keine intrinsische physikalische Eigenschaft darstellt.
Zu der obigen Lagrange-Funktion erhält man die sog. Langrange-Gleichung (2. Art sagt man) als:
Setzt man in die obige Langrange-Funktion die Ausdrücke für die kinetische und die potentielle Energie ein und bildet dann die für die Lagrange-Gleichung erforderlichen partiellen Ableitungen, so erhält man Bewegungsgleichungen, die man meist ganz einfach lösen kann.
Im Grenzfall ohne potentielle Energie ist:
\( \mathcal{L} = E_{kin} = \frac{1}{2} m \cdot v^2 \)
Es wird gesagt, dass man mit dem Lagrange-Formalismus, kompliziertere Probleme der Kinematik leichter lösen kann als mit den Newtonschen Gleichungen.
Es werden dazu typischerweise sog. generalisierte Koordinaten verwendet, die die Lösung schon mal vereinfachen. Die generalisierten (oder verallgemeinerten) Koordinaten bilden in der theoretischen Mechanik einen minimalen Satz von unabhängigen Koordinaten zur eindeutigen Beschreibung des räumlichen Zustands des betrachteten Systems. Diese werden so gewählt, dass die mathematische Formulierung von Bewegungen, möglichst einfach wird. Die generalisierten Orts-Koordinaten tragen oft das Formelzeichen \(q_i\), dann sind \(\dot{q}_i\) sog. verallgemeinerte Geschwindigkeiten. Durch geschickt gewählte verallgemeinerte Koordinaten kann man z.B. sog. “Zwangsbedingungen” von vorne herein und ohne zusätzliche Gleichungen mit einbauen.
Die minimale Anzahl der verallgemeinerten Orts-Koordinaten ist zugleich auch die Anzahl der sog. Freiheitsgrade des Systems.
Typische einfache Beispiele, an denen man den Lagrange-Formalismus Anfängern erklärt, sind: Freier Fall, Schiefe Ebene, Fadenpendel,…
Verwendung findet der Langrange-Formalismus z.B. in der Himmelsmechanik beim Mehrkörperproblem. Man kennt ja beim vereinfachten Dreikörperproblem die berühmten Lagrange-Punkte L1, L2 etc. wo ja gerne Raumsonden, wie Soho, hingeschickt werden.
Zur Beschreibung dieses ganz einfachen (eindimensionalen) mechanischen Versuchs benutzen wir als vereinfachte Orts-Koordinate s(t) mit s(0)=0 als Höhen-Koordinate in der Vertikalen in Richtung nach unten und dazu die vertikale Fallgeschwindigkeit v(t) mit v(0)=0.
Als potentielle und als kinetische Energie haben wir damit:
\( E_{pot} = – m \cdot s \cdot g \) (wobei g die Erdbeschleunigung ist und s in der gleichen Richtung wie g laufen soll – wie das auch oben der Fall ist)
\( E_{kin} = \frac{1}{2} \cdot m \cdot v^2 \)
und die Lagrange-Funktion dieses mechanischen Systems ist:
\( \mathcal{L}(v,s) = \frac{1}{2} \cdot m \cdot v^2 + m \cdot s \cdot g \\ \)
Wir bilden also ersteinmal die partielle Ableitung der Lagrange-Funktion nach der Geschwindigkeit v:
\( \Large \frac{\partial L}{\partial v} = m \cdot v \\ \)
Dann bilden wir die partielle Ableitung der Lagrange-Funktion nach der Ortskoordinate s:
\( \Large \frac{\partial L}{\partial s} = m \cdot g \\ \)
Die Lagrange-Gleichung lautet damit also:
\(\Large \frac{d}{dt} (m \cdot v) – m \cdot g = 0 \\ \)
Was nichts anderes heisst als:
\( \Large m \cdot \dot{v} – m \cdot g = 0 \\\)
Was genau die gleiche Bewegungsgleichung ist, wie oben mit den klassischen Newton Axiomen. Also ist die Lösung dieser Bewegungsgleichung auch die gleiche wie oben:
Ein “klassisches” Fadenpendel habe die konstante Länge l und unten dran hänge eine Masse m.
Klassisch würde man das in kartesischen Koordinaten x (waagerecht) und y (senkrecht nach oben) mit dem Aufhängepunkt des Pendesl als Koordinatenursprungversuchen zu lösen.
Man hätte dann noch die “Zwangsbedingung”, dass die Masse m sich immer nur im Abstand l vom Koordinatenursprung aufhalten kann.
Wir wählen jetzt generalisierte Koordinaten, mit denen wir das einfacher beschreiben können, nämlich ebene Polarkoordinaten (r,φ) wobei wieder der Aufhängepunkt des Pendels als Koordinatenursprung gewählt wird und wir den Winkel φ von der Senkrechten her messen mit positivem φ auf den rechten Seite und negativem φ auf der linken Seite. Dann ist die oben genannte Zwangsbedingung ganz einfach r = l und wir suchen nur noch nach den Bewegungsgleichungen für φ.
Als Koordinaten-Transformation haben wir:
\(x = l \cdot \sin{\phi} \enspace mit\colon \enspace \dot{x} = l \cdot \cos{\phi} \cdot \dot{\phi}\\\)
Das Besondere der Erkenntnis von Newton ist nicht nur die Formulierung als eine einzige Formel, sondern auch, dass die Gravitationskraft zwischen allen Körpern im Universum wirkt. Beispielsweise kreisen die Jupitermonde gemäß diesem Gesetz um den Jupiter und ebenfalls kreisen Doppelsterne etc. aufgrund der Gravitation umeinander…
Zu den Zeiten Newtons beschäftigte sich die Physik in der Hauptsache und fast ausschließlich mit Mechanik. Newton (und Gottfried Wilhelm Leibniz 1646-1716) entwickelten die Infenitesimalrechung (engl. Calculus) mit der die Bewegung mechanischer Systeme durch die Wirkung von Kräften berechenbar gemacht werden konnte. Siehe dazu mein separater Artikel Newtonsche Mechanik.
Isaac Newton hat auch sehr viel über das Licht geforscht. Stichworte dazu wären: Teilreflektion, Newtonsche Ringe,…
Die Größe der Gravitationskonstante G wurde erst viel später durch das berühmte Experiment “Gravitationswaage” von Henry Cavendish (1731-1810) bestimmt.
Eine ähnliche Formel wie hier für die Gravitationskraft zwischen zwei Massen haben wir in der Elektrostatik für die Elektrische Kraft zwischen zwei elektrischen Ladungen: Das Coulomb-Gesetz.
Die elektrostatische Kaft
Elektrische Ladungen erzeugen ebenfalls ein Kraftfeld. Charles Augustin de Coulomb (1736-1806) fand 1785, dass die Kraft zwischen zwei elektrische Ladungen q1 und q2 (im Vakuum) im Abstand von r sich nach folgender Formel berechnet (Coulombsches Gesetz):
Ein Kraftfeld, wie das Gravitationsfeld aber auch andere (wie z.B. ein Elektrostatisches Feld), beschreibt man auch gerne durch das sog. Potential, womit für jeden Punkt im Raum gemeint ist, welche Arbeit (Kraft mal Weg) erforderlich ist, eine kleine Probemasse aus dem Unendlichen an diesen Punkt im Raum zu bringen. Die Menge Arbeit ist in einem sog. “konservativen” Kraftfeld unabhängig vom Weg. Das Potential ist somit wohldefiniert.
So ein Potentialfeld Φ(r) ist also ein skalares Feld. Aus dem Potentialfeld ergibt sich dann das Kraftfeld F(r), das proportional dem lokalen Gradienten des Potentialfeldes ist.
Bei einem “einfachen” Gravitationsfeld, das nur von einem großen Körper (z.B. der Erde) erzeugt wird, hängt der Wert des Potentials nur vom Abstand vom Massemittelpunkt ab. Gleiche Abstände vom Massemittelpunkt definieren dann sog. Äqui-Potential-Flächen.
Wenn wir das Gravitationsfeld der Erde (Masse = M) nehmen, ist das “Gravitationspotential” im Abstand r vom Massemittelpunkt demnach:
Wenn wir dieses Potential nach r ableiten (das ist im Eindimensionalen der Gradient) erhalten wir ja unser Newtonsches Gravitationsgesetz:
\( \Large F(r) = m \cdot \frac{d \Phi}{dr} = m \cdot \frac{G \cdot M}{r^2} \\ \)
Das “schicke” am Potentialfeld ist:
Der philosophische Gedanke der “Fernwirkung” eines Kraftfeldes wird dadurch gedanklich eher eine lokale Angelegenheit.
Die Potentiale mehrerer Kraftfelder können einfach addiert (“überlagert”) werden.
Ein Beispiel für eine Überlagerung von Potentialen mehrer Kraftfelder sind die Lagrange-Punkte im System Sonne-Erde. Dort haben wir zwei Gravitationsfelder (Sonne und Erde) und ein drittes Potentialfeld durch die Rotation. Letztere wird berücksichtigt durch die Betrachtung in einem rotierenden Bezugssystem, in dem auch die beiden schweren Himmelskörper (Sonne und Erde) ruhen. Man spricht dann von einem “effektiven” Potential, was die Zentrifugalkraft, die ja als sog. Scheinkraft (Trägheitskraft) in so einem rotierenden Bezugssystem auftritt, mit beinhaltet. Dies zeigt sehr schön der Wikipedia-Artikel Lagrange-Punkte. und auch der von mir später verfasste Artikel über die Lagrange-Punkte in diesem Blog.
Auch das elektrostatische Feld ist ein konservatives Kraftfeld.
Bei einem “einfachen” Elektrostatischen Feld, das nur von einer punktförmigen Ladung erzeugt wird, hängt der Wert des Potentials nur vom Abstand von der Punktladung ab. Gleiche Abstände von der Punktladung definieren dann sog. Äqui-Potential-Flächen.
Bei einem elektrostatischen Feld einer Punktladung der Ladung Q ist also das Potential im Abstand r von der Punktladung demnach:
Die Zentrifugalkraft ist eine sog. “Scheinkraft”; d.h. sie ist in Inertialsystemen nicht vorhanden.
Typischerweise hat man so eine Zentrifugalkraft bei der Bewegung eines Massepunkts auf einer kreisförmigen Bahn um ein Zentrum, wenn man als Bezugssystem das mitrotierende System nimmt (welches kein Intertialsystem ist).
Im Falle einer Kreisbahn, richtet sich die Zentrifugalkraft nach aussen (also vom Zentrum weg) und die Größe ist:
\(\Large F_{Zf} = m \cdot \omega^2 \cdot r \)
Dieses Kraftfeld kann man auch durch sein Potential beschreiben: