Physik: Die Bra-Ket-Notation

Gehört zu: Quantenphysik
Siehe auch: Schrödinger, Komplexe Zahlen, Vektorräume

Stand: 02.08.2022

Die Dirac-Notation

In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\). So einen Vektor

\( \vec{v} \in V \)

scheibt man in der Quantenphysik gern als sog. Ket-Vektor:

\( |v\rangle \)

Dies ist Teil der sog. Bra-Ket-Notation von  Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zu jedem Ket-Vektor definieren wir noch einen sog. Bra-Vektor:

\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)

Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.

Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.

Zu dieser Bra-Ket-Notation gibt es enorm viele Youtube-Videos. Ein ganz einfaches ist: https://youtu.be/pBh7Xqbh5JQ

Einig sind sich alle Authoren über die Frage, was ein Ket-Vektor ist: eben ein “normaler” Vektor aus unserem Vektorraum V (also ein “Spaltenvektor”:

\( |v\rangle  = \left( \begin{array}{c} v_1 \\\ v_2 \\\ \vdots \\\ v_n  \end{array}\right) \)

Aber was um Himmelswillen ist der dazugehörige Bra-Vektor?

Einfache Gemüter sagen einfach:

\( \langle v|  = \left( \begin{array}{r} v_1^\ast & v_2^\ast & \cdots & v_n^\ast  \end{array}\right) \)

Der etwas nachdenkliche Mathematiker fragt sich:

  • “Konjugiert komplex” ist ja zunächst nur für Skalare (komplexe Zahlen) definiert. Kann man auch zu einem Vektor den konjugiert komplexen bilden?
  • Mit endlichen Dimensionen geht das ja alles so. Aber in der Quantenphysik wird man doch mit Hilberträumen unendlicher Dimension arbeiten. Wie funktionieren diese Konzepte denn da?

Skalarprodukt

MIt HIlfe von Bra-Vektor und Ket-Vektor definieren wir nun ein Skalarprodukt (inneres Produkt):

Das Skalarprodukt der Vektoren v und w schreiben wir als:
\( \langle v | w \rangle \)

Aber wie wird dieses Skalarprodukt berechnet (definiert)?

Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):

\( \langle b_i | b_j \rangle := \delta_{ij} \)

Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.

Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:

\( | v \rangle  = \sum{v_i |  b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)

definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i}  \)

Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:

Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:

\( \langle b_i |  b_j \rangle = \sum{{\delta_{ij}}^\ast  \delta_{ji} } = \delta_{ij} \)

Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.

Das so definierte Skalarprodukt ist nicht mehr kommutativ, sondern “hermitisch”; d.h.:

\( \langle v, w \rangle  = \langle w, v \rangle ^\ast \)

Das Skalarprodukt eines Vektors mit sich selbst ist immer reelwertig und “positiv definit”.

Hilbertraum

Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.

In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.

Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.

Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.

So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).

Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.

In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:

\( a  |\Psi_1\rangle + b  |\Psi_2\rangle \\ \)

schreibt man einfach:

\( a  |1\rangle + b  |2\rangle \\ \)

Physik: Die Wellenfunktion in der Quantenmechanik

Gehört zu: Quantenphysik
Siehe auch: Schrödinger-Gleichung, Materiewellen, Komplexe Zahlen, Lineare Algebra

Stand: 23.08.2024  (Observable, Zeitabhängigkeit, klassische Welle, Korrespondenzprinzip)

Die “klassische” Welle

Seit alters her beschreiben wir eine Welle durch eine Sinus- bzw. Cosinus-Funktion.

\( \Large y(t) = A \cdot \cos( 2\pi  f \cdot t + \Phi) \\ \)

Dabei ist A die Amplitude und Φ die Phasenverschiebung. Wobei wir die Frequenz f zunächst nicht weiter betrachten.

Das Paar aus Amplitude und Phasenverschiebung kann man sich als eine komplexe Zahl in Polarkoordinaten vorstellen:

\( \Large z = A \cdot e^{i \Phi} \\\)

Wenn die Welle nicht nur von der Zeit abhängt, sondern auch von der Ortskoordinate, kann man ganz allgemein eine Wellenfunktion auch so schreiben:

\( \Large y(x,t) = A \cos{(kx – \omega t)} \\\)

Wobei  \( \Large k = \frac{2 \pi}{\lambda} \) die sog. Wellenzahl ist

und   \( \Large \omega = 2 \pi f \) die  sog. Kreisfrequenz

Link: https://youtu.be/MzRCDLre1b4

Die Wellenfunktionen in der Quantenphysik

Youtube: https://youtu.be/YJjHI7Gxn-s?si=iYv8Kg0MbKDfWvr7

In der klassischen Mechanik (Newton etc.), wird ein Teilchen durch Ort x(t) und Implus p(t) beschrieben mit seinem sog. “Zustand”. Wenn man den Zustand zu einem Zeitpunkt t=0 kennt, also x(0) und p(0), dann kann man alle zuküftigen Zustände berechnen durch Newtons berühmte Gleichung:

\( F = \, – m \ddot x \)   d.h. \( F = \, –  \dot p  \)

In der Quantenphysik macht man das mit der Wellenfunktion Ψ. Sehr allgemein gesagt: Eine Wellenfunktion beschreibt den Zustand eines quantenmechanischen Teilchens.

Der Wertebereich einer Wellenfunktion sind die Komplexen Zahlen. Der Definitionsbereich sind Ort und Zeit Ψ(r,t).
Der Wert ist also eine Komplexe Zahl, veranschaulicht in Polar-Koordinaten durch einen Vektor mit einer Länge auch “Amplitude” genannt, und einem Winkel, auch Phase genannt.

Für die Darstellung Komplexer Zahlen in Polar-Koordinaten benutzt die Quantenmechanik gerne die sog. Exponential-Darstellung:

\(\Large z ={r} \cdot e^{i \cdot \phi} \\\)Damit kann man sich die Komplexe Zahl gut als Vektor einer bestimmten Länge (r auch genannt Amplitude) mit einem Drehwinkel (Φ auch genannt Phase) vorstellen.

Da der Wert der Wellenfunktion eine Komplexe Zahl ist, kann man sie nicht “direkt” beobachten; der Betrag der Wellenfunktion zum Quadrat ist aber eine nicht negative reelle Zahl und ist so der Beobachtung zugänglich.

Wir werden später sehen, dass man mit der Wellenfunktion die Wahrscheinlichkeit für den Aufenthalt eines Teilchens an einem bestimmten Ort (Aufenthaltswahrscheinlichkeit) und auch die Wahrscheinlichkeiten anderer Größen, sog. Observable berechnen (vorhersagen) kann. Daher auch der Spruch “Shut up and calculate”, angeblich auf Richard Feynman (1918-1988) zurückgehen soll…

Woher bekommen wir die Wellenfunktion eines quantenmechanischen Systems? Die Wellenfunktion bekommen wir als Lösung der Schrödinger-Gleichung.

Die Kopenhagener Deutung der Wellenfunktion

Dazu habe ich einen eigenen Blog-Artikel geschieben: Kopenhagener Deutung.

Operatoren und Observable

Was ist ein Operator?

Ein Operator bildet einfach eine Funktion auf eine andere Funktion ab. Traditionell spricht man dann nicht so allgemein von einer “Abbildung”, sondern von einem “Operator”. Folgendes Beispiel für Operatoren habe ich aus einem Youtube-Video von Prof. Patrick Nürnberger entnommen:

Um zu zeigen, was ein Operator macht, nehmen wir für ein Beispiel als Funktion einfach einmal \( \Psi(x) = e^{-x^2} \) und als Operator nehmen wir, ebenfalls als Beispiel, die zweite Ableitung der Funktion nach x und schreiben diesen Operator als \( \Large \hat A = \frac{d^2}{dx^2} \).

Dann ist dieser Operator angewendet auf unsere Funktion (nach der Kettenregel):

\( \hat A \Psi = \frac{d^2}{dx^2} \, e^{-x^2} = \frac{d}{dx}(-2x \, e^{-x^2}) \\\)

Die Produktregel ergibt dann:

\( \hat A \Psi = -2 \cdot e^{-x^2} + (-2x) \cdot (-2x \, e^{-x^2}) = (4x^2 – 2) e^{-x^2}\)

Was sind Observable?

Experimentell beobachtbare Größen eines physikalischen Systems, also Messgrößen.

Observable sind z.B.:

  • Ort
  • Impuls
  • Kinetische Engergie
  • etc.

Operatoren in der Quantenmechanik

Wahrscheinlichkeitsdichte

Den Zustand eines quantenphysikalischen Systems beschreiben wir durch die Wellenfunktion Ψ, die wir aber nicht direkt beobachten können und von der wir im Moment auch noch nicht wissen, wie sie ermitteln könnten. Um zu beobachtbaren Größen zu kommen, benutzen wir die oben eingeführten Operatoren, die auf die Wellenfunktion angewendet werden und dann beobachtbare Werte (“Observable”) liefern; aber auch nur als Wahrscheinlichtkeitsverteilung (woraus ich Erwartungswerte etc. berechnen kann).

In Analogie zur  Kopenhagener Deutung schreiben wir für eine beliebige Observable Q die Wahrscheinlichkeitsdichte als:

\(\Large \rho(Q) = \Psi^* \hat Q \Psi \\\)

Der zur Observablen \( Q \) zugeordnete  Operator \(\hat Q \) liefert dann zusammen mit der Wellenfunktion des quantenphysikalischen Systems die Wahrscheinlichkeitsverteilung dieser Observablen (in reelen Zahlen).

In Analogie zur  Kopenhagener Deutung schreiben wir für eine beliebige Observable Q den Erwartungswert als:

\(\Large \langle \hat{Q} \rangle= \int\limits_{-\infty}^{+\infty} \Psi^* \hat{Q} \Psi dx \)

Das Korrespondenzprinzip

Der Begriff “Korrespondeszprinzip” hat je nach Kontext, verschiedene Bedeutungen.  In der Quantenmechanik hat ihn z.B. Niels Bohr bei seinem Atommodell eingeführt. In der Wellenmechanik versucht das Korrespondenzprinzip eine Korrespondenz zwischen klassischen Messgrößen und Operatoren herzustellen.

Welcher Operator wird in der Quantenmechanik für welche Observable genommen? Dazu haben wir zwei Beispiele:

Beispiel 1: Die Observable “Ort” (eindimensional):

Operator:   \( \Large\hat{x} \Psi(x,t) = x \cdot \Psi(x,t) \normalsize \text{ also Multiplikation}\)

Beispiel 2: Die Observable “Impuls” (eindimensional):

Operator: \( \Large\hat{p} \Psi(x,t) = -i \hbar \frac{\partial \Psi(x,t)}{\partial x} \normalsize \text{ also Ableitung} \)

Weitere Zuordnungen von Operatoren zu Observablen konstruieren wir daraus. Das nennt man Korrespondenzprinzip.

Fragen wir beispielweise nach dem Operator für die Observable eindimensionale “kinetische Energie”, so beginnen wir mit der klassischen Formel:

\( \Large E_{kin} = \frac{p^2}{2m} \\\)

und ersetzen dann die klassiche Größe Impuls p durch den obenstehenden Impuls-Operator:

\( \Large \hat{E}_{kin} = \frac{{\hat p}^2}{2m} = \frac{-\hbar^2}{2m} \frac{d^2}{dx^2}\\\)

Allgemein besagt das Korrespondenzprinzip, dass wir aus einer klassischen Messgröße, die vom Ort und vom Impuls abhängt, also \(f(x,p)\), in der Quantenmechanik einen “korrespondierenden” Operator bekommen: \( \hat{f}(\hat x, \hat p) \)

 

Physik: Symmetrie

Gehört zu: Physik
Siehe auch: Lineare Algebra, Langrange-Formalismus, Quantenmechanik

Stand: 21.12.2023

Der Begriff der Symmetrie in der Physik

Die Wikipedia sagt:

Unter einer Symmetrie versteht man in der Physik die Eigenschaft eines Systems, nach einer bestimmten Änderung (z.B. Koordinatentransformation) in einem unveränderten Zustand (also unverändert) zu bleiben. Eine solche Transformation (die den Zustand nicht ändert) wird Symmetrietransformation oder auch vereinfacht “Symmetrie“,  genannt.

In der Geometrie bedeutet “unveränderter Zustand”, dass ein geometrischer Körper nach einer Symmerietransformation wieder genauso ausssieht wie vorher.
In der Physik bedeutet “unveränderter Zustand”, dass die Lagrangefunktion identisch ist.

Der Zustand eines mechanischen Systems mit den Koordinaten q1, q2,…,qn wird dabei beschrieben durch die Lagrangefunktion:

\( \mathcal{L}(q_1, q_2,..q_n, \dot{q_1}, \dot{q_2},…, \dot{q_n}, t) \\\)

Unterschieden werden:

  • diskrete Symmetrien (z. B. Spiegelsymmetrie), die nur eine endliche Anzahl an Symmetrieoperationen besitzen
  • kontinuierliche Symmetrien (z. B. Rotationssymmetrie), die eine unendliche Anzahl an Symmetrieoperationen besitzen.

Eine Menge bestimmter Symmetrietransformationen bildet eine Gruppe denn: wenn ich zwei Symmetrietransformationen nacheinander ausführe habe ich wieder eine Symmetrietransformation – also ist Axiom der Abgeschlossenheit erfüllt und auch die Assoziativität ist offensichtlich. Ich muss dann noch die Menge so auswählen, dass die Identität dazu gehört und zu jeder Symmetrietransformation auch die inverse…

Die mathematische Beschreibung von Symmetrien erfolgt durch die Gruppentheorie.

Physikalische Anwendung findet die Gruppentheorie in der Quantenphysik und dort speziell bei dem Standardmodell der Elementarteilchen.

 

 

Mechanik: Lagrange-Formalismus

Gehört zu: Mechanik – Kinematik
Siehe auch: Newtonsche Mechanik, Symmetrie, Phasenraum, Variationsrechnung
Benutzt WordPress-Plugin MathJax-Latex

Stand: 29.05.2024

YouTube: https://youtu.be/drZGeAkN4QI?si=4W_yQ9JWiE-vpk4R

Der Lagrange-Formalismus

Alternativ zu den Newtonschen Gleichungen kann man die Bahn, auf der sich eine Teilchen bewegt, auch durch den sog. Lagrange-Formalismus beschreiben. Dazu benutzt man die physikalischen Größen kinetische Energie und potentielle Energie.

Langrange-Funktion: \(\mathcal{L} = E_{kin} – E_{pot} \)

Eine Langrange-Funktion hängt von Variablen ab. Die kinetische Energie hängt klassischerweise von der Geschwindigkeit v ab. Die potentielle Energie hängt klassischerweise vom Ort r ab. Die Variablen der obigen Lagrange-Funktion wären dann also \(\mathcal{L}(v,r) \).

Wobei diese Lagrange-Funktion nur eine “Hilfsfunktion” ist und keine intrinsische physikalische Eigenschaft darstellt.

Ein Teilchen könnte sich nun von einem Anfangspunkt zu einem Endpunkt auf verschiedenen Bahnen bewegen. Jeder solchen möglichen Bahn ordnen wir nun als eine Zahl das Integral über die Lagrange-Funktion entlang der jeweiligen Bahn zu:

\( S(Bahn) = \int\limits_{Bahn} \mathcal{L}(v,r) \, dt \\ \)

Die Zahl S nennen wir “Wirkung”.  Das Lagrange-Prinzip besagt nun, das das Teilchen sich auf derjenigen Bahn bewegen wird, bei der die Wirkung minimal ist.

Mit Hilfer der Eulerschen Variationsrechnung erhalten wir als Lösung dieser Minimums-Aufgabe  die sog. Langrange-Gleichung (2. Art sagt man) als:

\(\Large \frac{d}{dt} \frac{\partial \mathcal{L}}{\partial v} – \frac{\partial \mathcal{L}}{\partial r} = 0 \\ \)

Setzt man in die obige Langrange-Gleichung die Ausdrücke für die kinetische und die potentielle Energie ein und bildet dann die für die Lagrange-Gleichung erforderlichen partiellen Ableitungen, so erhält man Bewegungsgleichungen, die man meist ganz einfach lösen kann.

Im Grenzfall ohne potentielle Energie ist:

\( \mathcal{L} = E_{kin} = \frac{1}{2} m \cdot v^2 \)

Und die Lagrangegleichung wird:

\(  \frac{d}{dt}\frac{\partial \mathcal{L}}{\partial v} = \frac{d}{dt} (m v) = 0 \\ \)

Was genau die Newtonsche Impulserhaltung ist.

Warum Lagrange-Formalismus?

Es wird gesagt, dass man mit dem Lagrange-Formalismus, kompliziertere Probleme der Kinematik leichter lösen kann als mit den Newtonschen Gleichungen.

Bei der Newtonschen Mechanik geht es um die Summe der Kräfte, die auf einen Massepunkt wirken. Daraus ergibt sich dann die Beschleunigung (Σ F = m · a).
D.h. wir haben eine Anfangswert-Aufgabe und müssen mit Vektoren umgehen.

Beim Lagrange-Formalismus geht es um die potentielle und die kinetische Energie, die sich bei einem Bewegungsvorgang ändern, deren Summe aber konstant bleibt. Woraus man auch die Bewegungsgleichungen herleiten kann. Das kann einfacher sein, wenn die Summe der Kräfte schwierig zu ermitteln ist. Die Betrachtung aller Kräfte heißt mit Vektoren zu hantieren; potentielle und kinetische Energie sind Skalare.

Im Langrange-Formalismus werden typischerweise sog. generalisierte Koordinaten verwendet, die die Lösung schon mal vereinfachen. Die generalisierten (oder verallgemeinerten) Koordinaten bilden in der theoretischen Mechanik einen minimalen Satz von unabhängigen Koordinaten zur eindeutigen Beschreibung des räumlichen Zustands des betrachteten Systems. Diese werden so gewählt, dass die mathematische Formulierung von Bewegungen, möglichst einfach wird. Die generalisierten Orts-Koordinaten tragen oft das Formelzeichen \(q_i\), dann sind \(\dot{q}_i\) sog. verallgemeinerte Geschwindigkeiten. Durch geschickt gewählte verallgemeinerte Koordinaten kann man z.B. sog. “Zwangsbedingungen” von vorne herein und ohne zusätzliche Gleichungen mit einbauen.
Die minimale Anzahl der verallgemeinerten Orts-Koordinaten ist zugleich auch die Anzahl der sog. Freiheitsgrade des Systems.

Typische einfache Beispiele, an denen man den Lagrange-Formalismus Anfängern erklärt, sind: Freier Fall, Schiefe Ebene, Fadenpendel,…

Verwendung findet der Langrange-Formalismus z.B. in der Himmelsmechanik beim Mehrkörperproblem. Man kennt ja beim vereinfachten Dreikörperproblem die berühmten Lagrange-Punkte L1, L2 etc. wo ja gerne Raumsonden, wie SOHO, hingeschickt werden.

Beispiel 1: Freier Fall mit dem Lagrange-Formalismus

Siehe dazu auch:

https://www.youtube.com/watch?v=MIHlsj6kan4

Zur Beschreibung dieses ganz einfachen (eindimensionalen) mechanischen Versuchs benutzen wir als vereinfachte Orts-Koordinate s(t) mit s(0)=0 als Höhen-Koordinate in der Vertikalen in Richtung nach unten und dazu die vertikale Fallgeschwindigkeit v(t) mit v(0)=0.

Als potentielle und als kinetische Energie haben wir damit:

\( E_{pot} = – m \cdot s \cdot g \) (wobei g die Erdbeschleunigung ist und s in der gleichen Richtung wie g laufen soll – wie das auch oben der Fall ist)
\( E_{kin} = \frac{1}{2} \cdot m \cdot v^2 \)

und die Lagrange-Funktion dieses mechanischen Systems ist:

\( \mathcal{L}(v,s) = \frac{1}{2} \cdot m \cdot v^2 + m \cdot s \cdot g \\ \)
Wir bilden also ersteinmal die partielle Ableitung der Lagrange-Funktion nach der Geschwindigkeit v:

\( \Large \frac{\partial L}{\partial v} = m \cdot v \\ \)

Dann bilden wir die partielle Ableitung der Lagrange-Funktion nach der Ortskoordinate s:

\( \Large \frac{\partial L}{\partial s} = m \cdot g \\ \)

Die Lagrange-Gleichung lautet damit also:

\(\Large \frac{d}{dt} (m \cdot v) – m \cdot g = 0 \\ \)

Was nichts anderes heisst als:

\( \Large m \cdot \dot{v} – m \cdot g = 0 \\\)

Was genau die gleiche Bewegungsgleichung ist, wie oben mit den klassischen Newton Axiomen. Also ist die Lösung dieser Bewegungsgleichung auch die gleiche wie oben:

\( \vec{v}(t) = \vec{g} \cdot t \)
\( \vec{s}(t) = \frac{1}{2} \vec{g} \cdot t^2 \)

Für diesen sehr einfachen Fall würde man die Lagrange-Methode sicher nicht bemühen; man sieht aber, wie sie im Prinzip abläuft.

Beispiel 2: Fadenpendel mit dem Lagrange-Formalismus

Siehe dazu auch: https://youtu.be/76i4uNsgvvo

Ein “klassisches” Fadenpendel habe die konstante Länge l und unten dran hänge eine Masse m.

Klassisch würde man das in kartesischen Koordinaten x (waagerecht) und y (senkrecht nach oben) mit dem Aufhängepunkt des Pendesl als Koordinatenursprungversuchen zu lösen.

Man hätte dann noch die “Zwangsbedingung”, dass die Masse m sich immer nur im Abstand l vom Koordinatenursprung aufhalten kann.

Wir wählen jetzt generalisierte Koordinaten, mit denen wir das einfacher beschreiben können, nämlich ebene Polarkoordinaten (r,φ) wobei wieder der Aufhängepunkt des Pendels als Koordinatenursprung gewählt wird und wir den Winkel φ von der Senkrechten her messen mit positivem φ auf den rechten Seite und negativem φ auf der linken Seite. Dann ist die oben genannte Zwangsbedingung ganz einfach r = l und wir suchen nur noch nach den Bewegungsgleichungen für φ.

Als Koordinaten-Transformation haben wir:

\(x = l \cdot \sin{\phi} \enspace mit\colon \enspace \dot{x} = l \cdot \cos{\phi} \cdot \dot{\phi}\\\)

und:

\(y = -l \cdot \cos{\phi}  \enspace mit\colon \enspace  \dot{y} = l \cdot \sin{\phi} \cdot \dot{\phi}\\ \)

Für die Langrange-Funktion benötigen wir Ekin und Epot.

\( E_{kin} = \frac{1}{2} m (\dot{x}^2 + \dot{y}^2) = \frac{1}{2} m l^2 (\dot{\phi})^2 \\ \)

und mit dem Gavitationspotential:

\( E_{pot} = – \int F(r) dr = m \cdot g \cdot y = -m \cdot g \cdot l \cdot \cos{\phi} \\\)

damit ergibt sich als Lagrange-Funktion:

\( \mathcal{L} = E_{kin} – E_{pot} =  \frac{1}{2} m l^2 (\dot{\phi})^2   + m \cdot g \cdot l \cdot \cos{\phi}   = 0 \\\)

Und schließlich als Lagrange-Gleichung:

\( \Large \ddot{\phi} = – \frac{g}{l} \sin{\phi} \)

Diese schöne Differentialgleichung können wir leider nicht analytisch lösen. Aber für kleine Winkel \( \phi \) bekommen wir näherungsweise:

\( \Large \ddot{\phi} = – \frac{g}{l} \phi \)

was uns dann wieder auf die klassische (Näherungs-)lösung führt.

Diese Näherungslösung ist ein sog. Harmonischer Oszillator.

Ausserdem gibt es noch Hamilton

In der Quantenphysik wird auch häufig die Hamiltionfunktion verwendet:

\(H = E_{kin} + E_{pot} \)

 

Physik: Kraftfeld und Potential

Gehört zu: Himmelsmechanik
Siehe auch: Newton, Langrange-Punkte, Ebbe und Flut, Gravitation, Differentialoperatoren, Arbeit, Elementarteilchen
Benutzt: WordPress-Plugin MathJax-Latex

Stand: 17.01.2024  (Zentrifugalkraft, Laplace)

Das Gravitationsgesetz

Im Jahre 1668, formulierte Isaac Newton (1642-1727) das berühmte Gravitationsgesetz:

\( \Large F = G \frac{m \cdot M}{r^2}  \)

aus dem sich die Keplerschen Gesetze herleiten lassen…

Das Besondere der Erkenntnis von Newton ist nicht nur die Formulierung als eine einzige Formel, sondern auch, dass die Gravitationskraft zwischen allen Körpern im Universum wirkt. Beispielsweise kreisen die Jupitermonde gemäß diesem Gesetz um den Jupiter und ebenfalls kreisen Doppelsterne etc. aufgrund der Gravitation umeinander…

Zu den Zeiten Newtons beschäftigte sich die Physik in der Hauptsache und fast ausschließlich mit Mechanik. Newton (und Gottfried Wilhelm Leibniz 1646-1716) entwickelten die Infenitesimalrechung (engl. Calculus) mit der die Bewegung mechanischer Systeme durch die Wirkung von Kräften berechenbar gemacht werden konnte. Siehe dazu mein separater Artikel Newtonsche Mechanik.

Isaac Newton hat auch sehr viel über das Licht geforscht. Stichworte dazu wären: Teilreflektion, Newtonsche Ringe,…

Die Größe der Gravitationskonstante G wurde erst viel später durch das berühmte Experiment “Gravitationswaage” von Henry Cavendish (1731-1810) bestimmt.

In der Wikipedia finden wir:

\( \Large G = (6{,}674\,30\pm 0{,}000\,15)\cdot 10^{-11}\,\mathrm {\frac {m^{3}}{kg\cdot s^{2}}} \)

Eine ähnliche Formel wie hier für die Gravitationskraft zwischen zwei Massen haben wir in der Elektrostatik für die Elektrische Kraft zwischen zwei elektrischen Ladungen: Das Coulomb-Gesetz.

Die elektrostatische Kaft

Elektrische Ladungen erzeugen ebenfalls ein Kraftfeld.  Charles Augustin de Coulomb (1736-1806) fand 1785, dass die Kraft zwischen zwei elektrische Ladungen q1 und q2 (im Vakuum) im Abstand von r sich nach folgender Formel berechnet (Coulombsches Gesetz):

\(\Large F_e = \frac{1}{4 \pi \epsilon_0} \frac{q_1 q_2}{r^2}\)

Mit der elektrischen Feldkonstanten:

\( \Large \epsilon_0 = 8{,}854 \cdot 10^{-12} \frac{C^2}{Nm^2} \\\)

Das Potential in einem Kraftfeld

Die Gravitationskraft, die das Newtonsche Gravitationsgesetz beschriebt wirkt ja über Entfernungen zwischen Körpern ohne das wir dazwischen etwas sehen können. Wir haben also eine sog. Fernwirkung (“action at a distance”), was schon Newton großes Kopfzerbrechen machte.
Pierre-Simon Laplace (1749-1827) gelang es, dies durch ein sog. Feld (Potentialfeld) zu beschreiben, dessen Gradient (also soetwas wie die Änderungsrate) dann die Kraft ist. Micheal Faraday (1791-1867) hat die Laplace’sche Idee von Feldern dann im Zusammenhang mit Elektrischen und Magnetischen Feldern populär gamacht.
Heute glaubt man (Quantenfeldtheorie), dass das ganze Universum “nur” aus solchen Feldern besteht und es eigentlich keine Teilchen gibt.
Quelle: https://youtu.be/RwdY7Eqyguo?feature=shared

Ein Kraftfeld, wie das Gravitationsfeld aber auch andere (wie z.B. ein Elektrostatisches Feld), beschreibt man auch gerne durch das sog. Potentialfeld, womit für jeden Punkt im Raum gemeint ist, welche Arbeit (Kraft mal Weg) erforderlich ist, eine kleine Probemasse aus dem Unendlichen an diesen Punkt im Raum zu bringen. Die Menge Arbeit ist in einem sog. “konservativen” Kraftfeld unabhängig vom Weg. Das Potentialfeld ist somit wohldefiniert.

So ein Potentialfeld Φ(r) ist also ein skalares Feld. Aus dem Potentialfeld ergibt sich dann das Kraftfeld F(r), das proportional dem lokalen Gradienten des Potentialfeldes ist.

\( \Large \vec{F(r)} = const \cdot grad( \Phi(r) )\\ \)

Statt “grad” für Gradient, schreiben manche auch gerne ein Nabla, mit dem Symbol: ∇

\( \Large \vec{F(r)} = const \cdot \nabla \Phi(r) \\ \)

Das Potential im Gavitationsfeld

Bei einem “einfachen” Gravitationsfeld, das nur von einem großen Körper (z.B. der Erde) erzeugt wird, hängt der Wert des Potentials nur vom Abstand vom Massemittelpunkt ab. Gleiche Abstände vom Massemittelpunkt definieren dann sog. Äqui-Potential-Flächen.

Wenn wir das Gravitationsfeld der Erde (Masse = M) nehmen, ist das “Gravitationspotential” im Abstand r vom Massemittelpunkt demnach:

\(  \Large \Phi(r) = \space – G \cdot \frac{M}{r}  \\ \)

Wenn wir dieses Potential nach r ableiten (das ist im Eindimensionalen der Gradient) erhalten wir ja unser Newtonsches Gravitationsgesetz:

\( \Large F(r) = m \cdot \frac{d \Phi}{dr} =  m \cdot \frac{G \cdot M}{r^2} \\ \)

Das “schicke” am Potentialfeld ist:

  1. Der philosophische Gedanke der “Fernwirkung” eines Kraftfeldes wird dadurch gedanklich eher eine lokale Angelegenheit.
  2. Die Potentiale mehrerer Kraftfelder können einfach addiert (“überlagert”) werden.

Ein Beispiel für eine Überlagerung von Potentialen mehrer Kraftfelder sind die Lagrange-Punkte im System Sonne-Erde. Dort haben wir zwei Gravitationsfelder (Sonne und Erde) und ein drittes Potentialfeld durch die Rotation. Letztere wird berücksichtigt durch die Betrachtung in einem rotierenden Bezugssystem, in dem auch die beiden schweren Himmelskörper (Sonne und Erde) ruhen. Man spricht dann von einem “effektiven” Potential, was die Zentrifugalkraft, die ja als sog. Scheinkraft (Trägheitskraft) in so einem rotierenden Bezugssystem auftritt, mit beinhaltet. Dies zeigt sehr schön der Wikipedia-Artikel Lagrange-Punkte. und auch der von mir später verfasste Artikel über die Lagrange-Punkte in diesem Blog.

Siehe auch das Youtube-Video von Josef M. Gaßner “Lagrange-Punkte und Potential”:

Das Potential im elektrostatischen Feld

Auch das elektrostatische Feld ist ein konservatives Kraftfeld.

Bei einem “einfachen” Elektrostatischen Feld, das nur von einer punktförmigen Ladung erzeugt wird, hängt der Wert des Potentials nur vom Abstand von der Punktladung ab. Gleiche Abstände von der Punktladung definieren dann sog. Äqui-Potential-Flächen.

Bei einem elektrostatischen Feld einer Punktladung der Ladung Q ist also das Potential im Abstand r von der Punktladung demnach:

\(  \Large \Phi(r) = \space – \frac{1}{4\pi\epsilon_0}\frac{Q}{r}  \\ \)

Auch hier können wir dieses Potential nach r ableiten und bekommen das Coulomb-Gesetz für die Anziehungskraft zweier elektrischen Ladungen q und Q:

\(\Large F_e = q \cdot \frac{d \Phi}{dr} = q \cdot \frac{1}{4 \pi \epsilon_0} \frac{Q}{r^2}\)

Die Zentrifugalkraft

Die Zentrifugalkraft ist eine sog. “Scheinkraft”; d.h. sie ist in Inertialsystemen nicht vorhanden.

Typischerweise hat man so eine Zentrifugalkraft bei der Bewegung eines Massepunkts auf einer kreisförmigen Bahn um ein Zentrum, wenn man als Bezugssystem das mitrotierende System nimmt (welches kein Intertialsystem ist).

Im Falle einer Kreisbahn, richtet sich die Zentrifugalkraft nach aussen (also vom Zentrum weg) und die Größe ist:

\(\Large F_{Zf} = m \cdot \omega^2 \cdot r \)

Dieses Kraftfeld kann man auch durch sein Potential beschreiben:

\( \Large \Phi(r) = \space – \frac{1}{2} \omega^2 \cdot r \)

Physik: Quantenfeldtheorie QFT

Gehört zu: Physik
Siehe auch: Quantenmechanik, Elementarteilchenphysik, Heisenberg, Kommutator

Stand: 23.2.2022

Links zur QFT

Youtube Gaßner (41):

Youtube Gaßner (42):

Grundlagen der Quantenfeldtheorie

Gerne verwendete Begriffe sind auch:

Was diese Begriffe mit der QFT zu tun haben ist mir nicht klar.

In der Quantenfeldtheorie soll die Spezielle Relativitätstheorie voll berücksichtigt werden (also die Lorentz-Invarianz), was ja in der Quantenmechnik (z.B. Schrödinger) noch nicht gegeben war.
Deswegen spricht man auch von der relativistischen Quantenfeldtheorie. Diese relativistische QFT ist damit die Vereinigung von Spezieller Relativitätstheorie und Quantenmechanik.

In der Quantenfeldtheorie haben wir lauter Felder. Für jedes Elementarteilchen haben wir ein im ganzen Universum omnipräsentes skalares Feld. Die Feldstärke ist dabei eine komplexe Zahl.
Beispielsweise haben wir ein Elektronenfeld:

\( \Psi_e (x,t) \\ \)

ein Photonenfeld etc. etc. pp.

Ein einzelnes Elementarteilchen ist dann eine elementare Anregung des zugeordneten Feldes. Was meint man hier mit “Anregung”?

Teilchen sind Anregungen von Feldern.

“Observables” sind beobachtbare physikalische Größen, wobei die von Parametern unterschieden werden.

Klassischerweise ist die Zeit ein Parameter: aber in der relativistischen QFT müssen auch die Raumkoordinaten zu Parametern werden, denn die Raumkoordinaten können ja auch nur indirekt “gemessen” werden. Ausserdem sollten Zeit und Raum gleichartig behandelt werden. Der Definitionsbereich solcher skalaren Felder ist also (x1,x2,x3,t) d.h. ein Vierervektor. (Mit einem Skalarprodukt hätten wir dann bald einen Hilbertraum.)

Das Messen (beobachten) einer “Observablen” geschieht durch Anwenden eines entsprechenden “Operators” auf das Skalarfeld. So ein Operator, soll immer “hermitsch” sein…

To be detailled …

Mathematik: Koordinatensysteme

Gehört zu: Tensoren
Siehe auch: Metrik-Tensor, Astronomische Koordinatensysteme, Raumkrümmung
Benutzt: Latex-Plugin

Stand: 23.10.2024

Medien-Hinweise

Prof. Wagner: https://youtu.be/c07r4pARzHw

Koordinatensysteme

In der Geometrie führt man gerne Koordinatensysteme ein, um die geometrischen Objekte (Punkte, Linien, Geraden, Flächen,…) mithilfe von Zahlen (Koordinaten) zu beschreiben und zu untersuchen. Das führt zur sog. Analytischen Geometrie.

Man spricht gerne von der Eukidischen Geometrie, dem Euklidischen Raum und den Euklidischen Koordinaten.

Kartesische Koordinaten

Nach Rene Decartes (1596-1650) nennt man die Euklidischen Koordinaten auch “Kartesische Koordinaten”.

Im herkömmlichen unserer Anschauung entsprechenden dreidimensionalen Raum \(\mathbb{R}^3 \) haben wir ja die klasssichen Kartesischen Koordinaten mit den Symbolen: x, y, z. Im höherdimensionalen Falle schreibt man dann eher x1, x2, x3, x4,…

Koordinatensysteme und Mannigfaltigkeiten

Man hat eine Menge M (Punktmenge) und ordnet jedem Element (Punkt) aus M ein-ein-deutig ein n-Tupel von Koordinaten zu. Dann kann man statt der Punkte über diese n-Tupel (also die n Koordinaten) sprechen.
So eine Koordinate ist im einfachsten Fall eine reelle Zahl, dann sind die Koodinaten also n-Tupel reeller Zahlen, also Elemente aus dem \( \mathbb{R}^n \). Im allgemeinen Fall nehmen wir für die Koordinaten einen Körper.

Wir hätten also eine ein-ein-deutige (d.h. bijektive) Abbildung zwischen Punkten aus M und n-Tupeln:

\( M \to \mathbb{R}^n \)

So eine Menge zusammen mit einem Koordinatensystem nennen wir (nach Bernhard Riemann 1816-1866) eine Mannigfaltigkeit.

In der Mathematik werden Mannigfaltigkeiten für sich noch sehr detailliert in genauer als hier behandelt. Für uns ist es wichtig zu einem Koordinatensystem zu kommen.

Kartesische Koordinaten

Im herkömmlichen unserer Anschauung entsprechenden dreidimensionalen Raum \(\mathbb{R}^3 \) habe wir ja die klasssichen Kartesischen Koordinaten mit den Symbolen: x, y, z. Im höherdimensionalen Falle schreibt man dann eher x1, x2, x3, x4,…

Krummlinige Koordinaten

Bei nicht-kartesischen Koordinaten, die wir als “allgemeine Koordinaten” bezeichnen, verwenden wir im allgemeinen die Symbole qi (i=1,2,..). Diese “allgemeinen Koordinaten” nennt man, um den Gegensatz zu den Kartesischen Koordinaten deutlich zu machen, auch gerne krummlinige Koordinaten.

Typische Beispiele für krummlinige Koordinaten sind z.B.

  • Ebene Polarkoordinaten
  • Kugel-Koordinaten
  • Zylinder-Koordinaten

Krummlinige Koordinaten gibt es auch in einem “flachen” Raum; z.B. ebene Polarkoordinaten.
Kartesische Koordinaten im “gekrümmten” Raum sind (global) nicht möglich (Raumkrümmung -> Krümmungstensor).

Kurven und Tangenten

Eine Kurve in einer Manigfaltigkeit M wird gegeben durch eine Abbildung von einem reellen Intervall auf Punkte in die Manigfaltigkeit. Man nennt so eine Abbildung auch eine Parameterdarstellung der Kurve.

Den Parameter aus einem reellen Intervall können wir schreiben als: \( t \in [t_a, t_e] \)

Die Abbildung ist dann:

\( [t_a, t_e] \to M \\\)

Wir haben also zu jedem Parameterwert \( t \in [t_a, t_e] \) einen Punkt aus der Manigfaltigkeit M.

Wenn wir den Punkt durch seine Koordinaten \( \left(q^i\right) \) ausdrücken, ist die  Kurve also eine Abbildung:

\( [t_a, t_e] \to \mathbb{R}^n \\\)

Wo also die Koordinaten qi eine Funktion des Parameters t sind: \( q^i = q^i(t) \)

Wenn die Kurve differenzierbar ist (also die Koordinaten der Parameterdarstellung), hat die Kurve auch Tangentenvektoren:

\(\vec{T}(t) = \left(T^i(t)\right) = \Large \left(\frac{dq^i}{dt} \right) \)

Die Kurve selbst liegt in der Manigfaltigkeit; der Tangentenvektor aber nicht, er ist an die Mannigfaltigkeit sozusagen “angeheftet”.

Die Tangentenvektoren liegen in einem eigenen Vektorraum

Koordinatenlinien

Ganz einfache Formen einer Kurve sind die sog. Koordinatenlinien.

Bei einem n-dimensionalen Koordinatensystem erhält man eine Koordinatenlinie indem man n-1 Koordinaten festhält und genau eine Koordinate als Parameter laufen lässt. So eine Koordinatenlinie kann man als (unendliche) Kurve auffassen.

Durch jeden Raumpunkt \( (p^i) = \left( p^1, p^2,\ldots, p^n \right)\) gehen dann n Koordinatenlinien: \( L_j\) mit \( j=1, 2,\ldots, n \).

Die Koordinatenlinie \( L_j\)  hat den Parameter \( t = q^j \) und die Werte:

\( q^i(t) = p^i \enspace (\text{falls } i \neq j)  \)
\( q^i(t) = t \enspace (\text{falls } i = j)  \)

Schöneres Latex:

\( q^i(t) = \left \{  \begin{array}{ll}   p^i & \text{falls } i \neq j \\ t & \text{falls } i = j \\    \end{array} \right. \)

Koordinaten-Hyperflächen

Bei einem n-dimensionalen Koordinatensystem bekommt man Koordinaten-Hyperflächen in dem man genau eine Koordinate festhält und alle anderen laufen lässt.

Durch jeden Raumpunkt \( (p^i) = \left( p^1, p^2,\ldots, p^n \right) \)  gehen dann n Koordinaten-Hyperflächen.

So eine Koordinaten-Hyperfläche kann man als sog. Teil-Mannigfaltigkeit auffassen.

Vektorbasis zu einem Koordinatensystem

Nun kann man an jedem Raumpunkt anhand des Koordinatensystems eine Vektorbasis definieren…

In jedem Raumpunkt kann man nun Basisvektoren so definieren, dass deren Länge 1 sei und sie Tangenten an die Koordinatenlinien durch diesen Punkt sind.

Astronomische Koodinatensysteme

Hierzu habe ich einen eigenen Artikel Astronomische Koordinatensysteme geschrieben.

Physik: Einstein ART Allgemeine Relativitätstheorie

Gehört zu: Physik
Siehe auch: Relativitätstheorie, Kosmologie, Expansion des Universums, Metrik-Tensor, Singularität
Benutzt: Latex-Plugin

Stand: 20.10.2024

Einsteins Allgemeine Relativitätstheorie (ART)

In Einsteins Allgemeiner Relativitätstheorie (ART) geht es um die Gravitation, die ja schon von Newton beschrieben wurde. Die Gravitation bewirkt, dass es keine Inertialsysteme gibt – und damit die SRT nur als vereinfachende Idealisierung verstanden werden kann.

Ein Ausgangspunkt für die ART ist das sog. Äquivalenzprinzip. Es besagt, dass ein gleichmäßig beschleunigtes Bezugssystem nicht von einem Bezugssystem mit einem homogenen Gravitatiosfeld unterschieden werden kann. Formelmäßig ist dann die sog. “träge Masse” identisch mit der “schweren Masse”….

Quelle: Youtube Video https://youtu.be/hU0Mcd2-XH4

Bekannt sind seine berühmten sog. Feldgleichungen:

\( \Large R_{\mu \nu} – \frac{1}{2} R g_{\mu \nu} + \Lambda g_{\mu \nu} = \frac{8 \pi G}{c^4} T_{\mu \nu} \\\)

Die obige Gleichung kann so kompakt hingeschrieben werden, weil sog. Tensoren verwendet werden. Solche Tensoren sind unabhängig vom verwendeten Koordinatensystem (invariant gegen Koordinatentransformationen).

Bei gegebenem Energie-Impuls-Tensor (auf der rechten Seite) beschreibt die linke Seite der Gleichung die dadurch verursachte Geometrie der Raumzeit (d.h. die Krümmung der Raumzeit).

Der Metrik-Tensor ist \( g_{\mu \nu} \). Gemäß Konvention laufen die Indices μ und ν = 0,1, 2, 3 wobei 0 die Zeit-Koordinate bedeutet.

Den Metrik-Tensor habe ich wohl verstanden und im Einzelnen in einem separaten Blog-Post beschrieben.

\( T_{\mu \nu} \\\) ist der sog. Energie-Impuls-Tensor, den man im Vakuum einfach auf Null setzt (sog. Vakuumlösungen).

Energie und Impuls werden gemäß der speziellen Relativitätstheorie mit sog. Vierervektoren beschrieben.  Wenn man noch Druck und Stress hinzunimmt, bekommt man den Energie-Impuls-Tensor.

Der Vierervektor der Raumzeit ist:

\(\vec{R} = \left( \begin{array}{c} c t \\ x \\ y \\ z\\ \end{array} \right) \\ \)

Der Vierervektor von Energie und Impuls ist:

\(\vec{P} = \left( \begin{array}{c} E \\ p_x c\\ p_y c\\ p_z c\\ \end{array} \right) \\ \)

Diese Vierervektoren sind aber noch abhängig vom benutzen Koordinatensystem. Um unabhägig vom Koordinatensystem zu werden, müssen wir Tensoren bemühen. Dazu bilden wir die kovariante Ableitung nach der Eigenzeit.

Der Engergie-Impuls-Tensor soll Massendichte, Energiedichte, Druck, Impuls, und Stress beschreiben. Dieser Tensor ist für die Entwicklung des Universums wichtig; siehe: Expansion des Universums.

Der Energie-Impuls-Tensor schreibt sich also:

\( T_{\mu \nu} =  \left( \begin{array}{rrrr} T_{00} & T_{01} & T_{02} & T_{03} \\ T_{10} & T_{11} & T_{12} & T_{13} \\T_{20} & T_{21} & T_{22}  & T_{23}\\T_{30} & T_{31} & T_{32} & T_{33}\\    \end{array} \right) \)

Λ (großes Lambda) ist die sog. kosmologische Konstante, die ursprünglich (1915) nicht in der Gleichung stand, sondern später von Einstein eingeführt wurde, um dem gravitativen Kollaps des Universums entgegen zu wirken.

\( R_{\mu \nu} \) ist der sog. Ricci-Tensor – keine Ahnung, was das sein soll.

Manchmal sieht mit die Einsteinschen Feldgleichungen auch in einer etwas anderen Form:

\( \Large G_{\mu \nu}  = \frac{8 \pi G}{c^4} T_{\mu \nu} \\\)

Mit dem sog. Einstein-Tensor:

\( \Large G_ {\mu \nu}  = R_{\mu \nu} – \frac{1}{2} R g_{\mu \nu} + \Lambda g_{\mu \nu}  \\\)

Was man immer wieder hört, ist dass nach Einstein große Massen die Raumzeit krümmen. Wobei die Krümmung der vierdimensionalen Raumzeit nicht in eine weitere Dimension (die fünfte) geht, sondern die Raumzeit “in sich” gekrümmt wird, soll wohl heissen, dass nicht mehr die Euklidische Metrik gilt, sondern eine andere Metrik, eine “Nichteuklidische Metrik“.

Lösungen

Unter bestimmten zusätzlichen Annahmen bekommt man Lösungen der obigen Formeln; z.B. bekommt man unter den Annahmen von Homogenität und Isotropie als Lösung die sog. Friedmann Gleichungen.

Eine Lösung der Einsteinschen Feldgleichungen nennt man eine Raumzeit.

Siehe hierzu: Krümmung der Raumzeit

 

Mathematik: Der Metrik-Tensor

Gehört zu: Vektoranalysis
Siehe auch: Allgemeine Relativitätstheorie, Koordinatensysteme, Vektorbasis, Tensoren, Gekrümmter Raum

Der Metrik-Tensor

Stand: 26.10.2021

Youtube-Videos von Prof. Paul Wagner:

Wir betrachten eine Riemansche Manigfaltigkeit; d.h. eine Punktmenge mit einem Koordinatensystem. Zu so einem Koordinatensystem, gehört ein Metrik-Tensor, der uns auch ein Linienelement definiert und damit so etwas wie eine Metrik.

Wir kommen aber nicht in einem Schritt von einem Koordinatensystem zu einem Metrik-Tensor, sondern betrachten zunächst, wie ein Koordinatensystem eine Vektorbasis definiert. Zu so einer Vektorbasis haben wir dann einen Metrik-Tensor.

Schlussendlich wollen wir ja Vektorfelder beschreiben. Dabei handelt es sich ja um eine Abbildung von Raumpunkten auf Vektoren. Dabei wird der Raumpunkt durch seine Koordinaten im Koordinatensystem und der Vektor durch seine Komponenten bezügliche “seiner” Vektorbasis beschieben. Wenn wir dann beispielsweise die Veränderung eines Vektors bei kleinen Veränderungen des Raumpunkts untersuchen, müssen wir nicht nur die Veränderung der Vektorkomponenten, sondern ggf. auch die Veränderung der Basisvektoren berücksichtigen, da die Basisvektoren ja im Allgemeinen (z.B. bei krummlinigen Koodinaten) auch vom Ort im Raum abhängig sein werden.
Das wird uns dann zur sog. Kontravarianten Ableitung führen.

Koordinatensystem und Vektorbasis

Zu einem Koordinatensystem bekommmen wir nämlich zwei möglicherweise verschiedene Vektorbasen:

1) Die Basisvektoren sind tangential zu den Koordinatenlinien: sog. kovariante Basis

2) Die Basisvektoren stehen normal (senkrecht) auf den Koordinatenhyperflächen: sog. kontravariante Basis

Bei Chartesischen Koordinaten sehen wir Besonderheiten:

  1. Kovariante Vektorbasis = Kontravarinate Vektorbasis
  2. Die Vektorbasis ist unabhängig vom betrachteten Raumpunkt, also überall die gleiche.

Bei nicht-chartesischen Koordinatensystemen (sog. krummlinigen) wird das beides anders sein.

Bei solchen nicht-chartesischen Koordinaten, die wir als “allgemeine Koordinaten” bezeichnen, verwenden wir im allgemeinen die Symbole qi (i=1,2,..). Diese “allgemeinen Koordinaten” nennt man, um den Gegensatz zu den Chartesischen Koordinaten deutlich zu machen, auch gerne krummlinige Koordinaten.

Wir betrachten nun einen Raum mit den allgemeinen (krummlinigen) Koordinaten: \( q^\alpha \) mit α =1,2,…,n und einem hilfsweise dahinterliegenden Chartesischen Koordinaten: \( x^i \) mit 1= 1,2,….n.

Als Hilfsmittel ziehen wir anfangs gerne die Chartesischen Koordinaten hinzu, wo wir dann im Fall von beliebig vielen Dimensionen die Symbole xi (i=1,2,…) verwenden, oder bei zwei und oder drei Dimensionen, manchmal auch: x,y,z.

Die kovarianten Basisvektoren nennen wir:

\(\Large {\vec{g}}_\alpha \)    wobei α=1,2,..,n

Diese Basisvektoren sind Tangenten an die Koordinatenlinien. Demnach sind die Komponenten (i=1,2,…n) dieser Basisvektoren im Chartesischen Koordinatensystem:

\(\Large \left( \vec{g}_\alpha \right)^i = \frac{\partial x^i}{\partial q^\alpha} \)

Die kontravarianten Basisvektoren nennen wir:

\(\Large {\vec{g}}^{\,\alpha} \)    wobei α=1,2,..,n

Diese Basisvektoren sind Normalen auf den Koordinatenhyperflächen. Demnach sind die Komponenten (i=1,2,…n) dieser Basisvektoren im Chartesischen Koordinatensystem:

\( \Large \left( {{\vec{g}}^{\,\alpha}} \right)^i = \frac{\partial q^\alpha}{\partial x^i} \)

Vektorbasis und Metrik-Tensor

Wenn wir eine Vektorbasis gefunden haben; z.B.:

Eine Vektorbasis: \( \vec{g}_\alpha \)  (α= 1,2,…,n)

Erhalten wir zu dieser Vektorbasis den dazugehörigen Metrik-Tensor als: \( \left(g_{ij}\right) = \vec{g}_i \cdot \vec{g}_j  \)

Merke: Zu einer Vektorbasis haben wir einen Metrik-Tensor.

Die Riemann-Metrik

Wir können auf einer Riemannschen Mannigfaltigkeit ein Tensor-Feld \( g_{ij} \) definiert haben, mit dem wir einen Abstandsbegriff (d.h. eine Metrik) definieren; genauer gesagt, mit dem wir die Länge einer Kurve in der Mannigfaltigkeit definieren wie folgt:

\(\Large s = \int\limits_{t_a}^{t_b} \sqrt{g_{ij}\frac{dq^i}{dt}\frac{dq^j}{dt}} \, dt  \)

So einen Tensor \( g_{ij} \) nennen wir Metrik-Tensor.

Allgemeine Weisheiten zum Metrik-Tensor

Der Metrik-Tensor ist also ein Tensor-Feld, das auf einer Riemannschen Mannigfaltigkeit definiert ist.

  • Wenn der Metrik-Tensor Elemente konstant sind (also nicht vom Ort abhängen) ist der Raum ein flacher Raum. Es kann dafür auch eine geeignete Koordinaten-Transformation benutzt werden.
  • Wenn die Komponenten des Metrik-Tensors aber vom Ort abhängen (keine Koordinaten-Transformation kann sie konstant machen), ist der Raum ein gekrümmten Raum.
  • So ein gekrümmer Raum kann in einen höherdimensionalen euklidischen (flachen) Raum eingebettet sein (z.B. die zweidimensionale Kugeloberfläche) muss es aber nicht.
  • Ein Euklidischer Raum, ist ein flacher Raum bei dem der Metrik-Tensor die Einheitsmatrix ist bzw. alle Diagonalelemente positiv sind.

Beipiel 1: Chartesische Koordinaten

Das Linienelement ist:

\( ds^2 = d{x_1}^2 + d{x_2}^2 + d{x_3}^2 + … \)

Also:

\( ds^2 = \sum\limits_{i=1}^{n}{{dx_i}^2} \)

Der Metrik-Tensor ist dabei ja ein Tensor vom Rang 2 und ist in diesem chartesischen Falle identisch mit der Einheitsmatrix (beispielsweise mit 3 Dimensionen):

\(\Large (g_{ij}) =  \left[ \begin{array}{rrr} 1 & 0 & 0\\  0 & 1 & 0 \\  0 & 0 & 1 \end{array} \right]  \\\)

Dieser Metrik-Tensor definiert dann unser Linienelement:

\( (ds)^2 = \sum\limits_{i=1}^n{\sum\limits_{j=1}^n{dx_i dx_j g_{ij}}} \)

Oder in der Einsteinschen kompakten Schreibweise (mit der sog. Summenkonvention):

\( (ds)^2 = g_{ij} dx^i dy^j \)

Beispiel 2: Ebene Polarkoordinaten

Im zweidimensionalen Euklidischen Raum (Ebene) haben wir als Chartesische Koordinaten: x1 = x,  x2 = y

Als krummlinigen Koordinaten nehmen wir Polarkoordinaten: q1 = r und q2 = φ

Zum Rechnen verwenden wird als Hilfsmittel gern die Chartesischen Koordinaten. Damit haben wir Koordinaten-Transformationen in beiden Richtungen:

\( x = r \cdot \cos{\phi} \\ \\ y = r \cdot sin{\phi} \)

Und in der anderen Richtung ist:

\( r = \sqrt{x^2 + y^2} \\ \phi =\arctan{\frac{y}{x}} \)

Zu diesen Koordinaten erhalten wir als kovariante Vektorbasis (Basis Vektorsystem):

\( \left( \vec{g}_\alpha \right)^i = \frac{\partial x^i}{\partial q^\alpha} \)

Zu diesen kovarianten Basisvektoren bekommen wir als kovarianten Metrik-Tensor:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rr} 1 & 0 \\  0 & r^2  \end{array} \right]  \\\)

Wobei dieses Beispiel zeigt: (1) Der Metrik-Tensor ist ortsabhängig und (2) Die zugrundeliegende Vektorbasis ist zwar orthogonal, aber nicht orthonormal.

Und entsprechend das kovariante Linienelement:

\( (ds)^2 =  dr^2 + r^2 d\phi^2 \\ \)

Zu diesen Koordinaten erhalten wir als kontravariante Vektorbasis:

\( \left( {{\vec{g}}^{\,\alpha}} \right)^i = \frac{\partial q^\alpha}{\partial x^i} \\\)

Zu diesen kontravarianten Basisvektoren bekommen wir als kontravarianten Metrik-Tensor (wir können die Komponenten des kontravarianten Metrik-Tensors ausrechnen oder nehmen einfach das Inverse des kovarianten Metriktensors):

\( \left(g^{ij}\right) =  \left[ \begin{array}{rr} 1 & 0 \\  0 & \frac{1}{r^2}  \end{array} \right]  \\\)

Und entsprechend das kontravariante Linienelement:

\( (ds)^2 =  dr^2 + \frac{1}{r^2} d\phi^2   \)

Wir sehen auch, dass die beiden Metrik-Tensoren invers zueinander sind.

Beispiel 3: Zylinderkoordinaten

Im dreidimensionalen euklidischen Raum können wir neben den Chartesischen Koordinaten x ,y, z die Zylinderkoordinaten (r, φ, z) betrachten.
Dies sind also allgemeine (krummlinige) Koordinaten mit \( q^1 = r,  \, q^2 = \phi, \, q^3 = z \)

Aufgrund der Koordinaten-Transformationen bekommen wir:

Für den  kovarianten Metrik-Tensor:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rrr} 1 & 0  & 0 \\  0 & r^2 & 0 \\ 0 & 0 & 1  \end{array} \right]  \\\)

Und entsprechend das kovariante Linienelement:

\( (ds)^2 =  dr^2 + r^2 d\phi^2  + dz^2 \\ \)

Und für den  kontravarianten Metrik-Tensor bekommen wir:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rrr} 1 & 0  & 0 \\  0 & \frac{1}{r^2} & 0 \\ 0 & 0 & 1  \end{array} \right]  \\\)

Und entsprechend das kontravariante Linienelement:

\( (ds)^2 =  dr^2 + \frac{1}{r^2} d\phi^2 + dz^2 \)

Wiederum sehen wir auch, dass die beiden Metrik-Tensoren invers zueinander sind.

Beispiel 4: Kugelkoordinaten

Im dreidimensionalen euklidischen Raum können wir neben den Chartesischen Koordinaten x, y, z die Kugelkoordinaten (r, θ, φ) betrachten.
Dies sind also allgemeine (krummlinige) Koordinaten mit \( q^1 = r, \,  q^2 = \theta, \,  q^3 = \phi \)

Als kovariante Vektorbasis bekommen wir wieder die Tangenten an die Koordinatenlinien, also an die “Radialachse” (Zenith/Nadir), die “Meridiane” (Nord/Süd) und die “Breitenkreise” (Ost/West).

Als kovarianten Metrik-Tensor bekommen wir:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rrr} 1 & 0  & 0 \\  0 & r^2 & 0 \\ 0 & 0 & r^2 \sin^2 \theta  \end{array} \right]  \\\)

Und entsprechend das kovariante Linienelement:

\( (ds)^2 =  dr^2 + r^2 d\theta^2  + r^2 \sin^2 \theta \, d\phi^2 \\ \)

Und als kontravarianten Metrik-Tensor bekommen wir:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rrr} 1 & 0  & 0 \\  0 & \frac{1}{r^2} & 0 \\ 0 & 0 & \frac{1}{r^2 \sin^2 \theta}  \end{array} \right]  \\\)

Und entsprechend das kontravariante Linienelement:

\( (ds)^2 =  dr^2 + \frac{1}{r^2}d\theta^2  + \frac{1}{r^2 \sin^2 \theta}d\phi^2 \)

Wiederum sehen wir auch, dass die beiden Metrik-Tensoren invers zueinander sind.

Beispiel 5: Kugeloberfläche

Die Oberfläche einer Kugel mit dem (festen) Radius R ist ein zweidimensionaler Raum, wo wir als Koordinatensystem gut mit dem entsprechenden Teil der Kugelkkordinaten arbeiten können.

Also mit den allgemeinen (krummlinigen) Koordinaten mit \(  q^1 = \theta, \,  q^2 = \phi \), was also auf der Erdoberfläche prinzipiell der geografischen Breite und der geografischen Länge entsprechen würde.

Als kovariante Vektorbasis bekommen wir wieder die Tangenten an die Koordinatenlinien, also an die “Meridiane” (Nord/Süd) und die “Breitenkreise” (Ost/West).

Der Metrik-Tensor ergiebt sich dann ganz analog aus dem Vorigen:

Als kovarianten Metrik-Tensor bekommen wir:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rr}  R^2 & 0 \\  0 & R^2 \sin^2 \theta  \end{array} \right]  \\\)

Und entsprechend das kovariante Linienelement:

\( (ds)^2 =  R^2 d\theta^2  + R^2 \sin^2 \theta \, d\phi^2 \\ \)

Der so definierte Riemansche Raum (Kugeloberfläche mit dem o.g. Koordinatensystem) ist ein Nichteuklidischer Raum, wie wir sehen werden. Zur Geometrie in solchen Nichteuklidischen Räumen haben wir ja noch nichts gesagt; aber die Standard-Weissheit ist ja die Winkelsumme im Dreieck und…