Physik: Tscherenkow-Strahlung

Gehört zu: Physik
Siehe auch: Elementarteilchen, Lichtgeschwindigkeit, Brechungsindex

Stand: 3.8.2023

Tscherenkow-Strahlung

auch: Cherenkov-Strahlung

Tscherenkow-Strahlung ist eine elektromagnetische Strahlung, die durch den Tscherenkow-Effekt entsteht. Benannt nach Pawel Alexejewitsch Tscherenkow (1904-1990), der  zusammen mit Kollegen 1934 diese Strahlung entdeckte. Nobelpreis 1958.

Der Tscherenkow-Effekt entsteht, wenn schnelle elektrisch geladene Teilchen (z.B. Elektronen) in ein Medium eintreten, in dem die Lichtgeschwindigkeit kleiner ist, als die Geschwindigkeit der Teilchen.

Der Tscherenkow-Effekt kann nur in Medien mit Brechungsindex n>1 auftreten, weil im Gegensatz zur Lichtgeschwindigkeit im Vakuum von c = 299 792,458 km/s z. B. die Lichtgeschwindigkeit in Wasser nur etwa c′ ≈ 225 000 km/s beträgt und so Teilchen dort schneller sein können als dort das Licht.

Die ausgesandte Strahlung entlang der Flugbahn beschreibt einen sogenannten Mach-Kegel. Das Tscherenkow-Licht ist somit das optische Analogon zum Überschallkegel, der entsteht, wenn Flugzeuge sich schneller als der Schall fortbewegen.

Wo kann man Tscherenkow-Strahlung beobachten?

Im Abklingbecken von Kernkraftwerken

In der Hochatmoshäre, ausgelöst durch kosmische Strahlung

Astronomie: Synchrotron-Strahlung

Gehört zu: Physik
Siehe auch: Quantenmechanik, Relativitätstheorie, Elementarteilchen

Stand: 02.08.2023

Synchrotron-Strahlung

Wenn sich elektrisch geladene Teilchen (z.B. Elektronen) gleichförmig bewegen, geschieht nichts besonderes.

Wenn sich solche Teilchen (z.B. Elektronen) aber nicht gleichförmig bewegen, also bescheunigt werden, gebremst werden oder ihre Richtung verändern, dann entsteht elektromagnetische Strahlung; d.h. es werden Photonen abgestrahlt, die der Energiedifferenz entsprechen. Allgemein heisst so eine Strahlung “Bremsstrahlung”.

Abbildung 1: Bremsstrahlung (Wikipedia)

Bremsstrahlung

Abbildung 2: Bremsstrahlung (http://microanalyst.mikroanalytik.de/info1.phtml)

Klassische Bremsstrahlung

Ein klassische Anwendung dieses Effekts ist das Erzeugen von Röntgen-Strahlen. Dazu werden Elektronen beschleunigt und dann auf ein Stück Metall geschossen, wo sie durch das Coulomb-Feld der Metallatome abgebremst werden.

Relativistische Bremsstrahlung

Wenn man zu sehr hohen Energien (v > 0,9 c) kommt, kann man  relativistische Effekte nicht mehr vernachlässigen; man spricht dann von “relativistischen” Teilchen (z.B. Elektronen). Diese Art Bremsstrahlung nennt man “Synchrotron-Strahlung”; auch weil solche hohen Energien praktisch nur in Teilchenbescheunigern mit Magnetfeldern erzielt werden können.

Die Richtung dieser Synchrotron-Strahlung ist tangential zur Bahn des bewegten Teilchens – vorrangig nach vorne, aber auch etwas nach hinten.

Der Name Synchrotron-Strahlung

Man nennt das “Synchrotron-Strahlung”, weil diese Strahlung zu erst (1947) in Teilchenbeschleunigern, die man Sychrotron nannte, auftrat und nachgewiesen wurde. In einem solchen Teilchenbeschleuniger werden geladene Teilchen (z.B. Elektronen) durch Magnete so abgelenkt, dass ein Kreisbahn entsteht, was eine Beschleunigung bedeutet.

Stärke der Synchrotron-Strahlung

Je größer die Geschwindigkeitsänderung pro Zeiteinheit (also die Beschleunigung als Vektor) ist, desdo intensiver ist auch die Synchrotron-Strahlung, wobei ein breites Spektrum entsteht: vom Infrarot bis zum Röntgenbereich…

Da viele Elektronen unterschiedlich stark abgelenkt bzw. abgebremst werden, entstehen Photonen mit unterschiedlichen Energien. Die Energieverteilung der Photonen ist deswegen kontinuierlich und breit. Bremsstrahlung hat ein kontinuierliches Spektrum.

Wenn man besonders starke Synchrotron-Strahlung herstellen will, reichen “einfache” Teilchenbescheuniger, wie Synchrotrons den Forschern aber nicht mehr aus. Man muss dann die bewegten geladenen Teilchen durch  Parcours von starken Magneten schicken, sodass sie bei diesen vielen Richtungswechseln tausendmal stärker als in den Kurven eines klassischen Ringbeschleunigers strahlen.

Synchrotron-Strahlung in der Astronomie

Synchrotronstrahlung gibt es nicht erst seit es Teilchenbeschleuniger gibt, sondern auch im Weltall gibt es Quellen.

In der Astronomie beobachtet man Synchrotronstrahlung immer dann, wenn sich ein heißes Plasma in einem Magnetfeld befindet. Beispiele für kosmische Synchrotronquellen sind Pulsare, Radiogalaxien und Quasare.

Bei astronomischen Synchrotronquellen, kann es auch weniger energetische Synchrotronstrahung geben, die dann Frequenzen im Radiobereich hat.

Physik: Tunneleffekt

Gehört zu: Physik
Siehe auch: Kernfusion, Quantenmechanik
Benutzt: Fotos vom Spiegel

Stand: 02.07.2013

Was ist der Tunneleffekt?

Tunneleffekt ist eine anschauliche Bezeichnung dafür, dass ein Teilchen eine Potentialschwelle auch dann überwinden kann, wenn seine Energie geringer als die „Höhe“ der Barriere (Schwelle)  ist. In der klassischen Physik ist das nicht möglich, aber in der Quantenphysik gibt es das mit einer gewissen Wahrscheinlichkeit.

Der Spiegel

Quelle: https://www.spiegel.de/fotostrecke/erwischt-elektronen-beim-tunneln-fotostrecke-20657.html

Beispiel einer Potentialschwelle

Elektrisch gleichnamig geladene Teilchen stoßen sich ab –  wie z.B. zwei Protonen durch ihr elektrisches Feld (das Coulomb-Potential). Diese abstoßende Kraft steigt an, je näher sich die Teilchen kommen (mit r-2).

Eine “Potentialschwelle” kommt hier dadurch zustande, dass die Starke Kernkraft anziehend wirkt und bei kleineren Abständen stärker ansteigt, als die abstoßende elektromagnetische Kraft. Das Überwinden einer solchen Potentialschwelle, auch wenn die Energie dafür eigentlich nicht reicht, ist ein quantenmechanischer Effekt, der mit einer gewissen Wahrscheinlichkeit auftreten kann.

Die Stärke der sog. Starken Kernkraft, die zwei Protonen bei kleinem Abstand anzieht, ist nur durch sehr aufwendige Berechnungen zu ermitteln. Denn diese Starke Kernkraft wirkt primär zwischen den Quarks im Inneren eines Protons. Man spricht dann noch von einer “restlichen” Wirkung. Dazu das Stichwort: Gamow Peak.

Berechnung des Tunneleffekts

Zuerst müssten wir das Potential des betrachteten Teilchens in Abhängigkeit vom Ort  mit einer Funktion V(x) beschreiben.

Diese Potentialfunktion können wir dann in die stationäre Schrödinger-Gleichung einsetzen.

Diese Schrödinger-Gleichung ist damit eine Differentialgleichung, deren Lösung die Wellenfunktion Φ des betrachteten Teilchens ist. Damit haben wir sich die Aufenthaltswahrscheinlichkeit |Φ|² des Teilchens in Abhängigkeit von seinem Ort, welche auch jenseits der Potientialschwelle größer als Null ist.

Beispiel des Tunneleffekts

Bei der Kernfusion in unserer Sonne findet in der Hauptsache der sog. p-p-Prozess statt. Der p-p-Prozess beginnt mit der Verschmelzung zweier Protonen und der anschließenden Umwandlung eines Protons in ein Neutron und eine Positron, sodass ein Deuterium-Kern 2H entsteht.

\( ^1H +  {^1H}  \to  {^2H} + e^+ + \nu_e + 0.42 MeV \\\)

Für diesen ersten Reaktionsschritt muss die Potentialschwelle zwischen den beiden Protonen 1H überwunden werden, was der Tunneleffekt ermöglicht. Die Wahrscheinlichkeit dafür ist aber so klein, dass die durchschnittliche Reaktionszeit  1.4 1010 Jahre (in unserer Sonne) beträgt.

Quelle: https://sternentstehung.de/von-wasserstoff-zu-helium-die-pp-kette

Physik: Phasenraum

Gehört zu: Mechanik, Physik
Siehe auch: Newtonsche Mechanik, Lagrange-Formalismus
Benutzt: SVG-Grafiken aus Github

Stand: 06.04.2023

Quellen

Anregungen hierzu habe ich von Stefan Müllers Youtube-Video

erhalten.

Der Phasenraum

Im Phasenraum (auch Zustandsraum genannt) bezeichnen die Punkte die Zusände eines mechanischen Systems.

Der Zustand eines mechanischen Systems (zu einer Zeit t) kann durch Ort und Geschwindigkeit seiner Massepunkte beschrieben werden.

Dazu dienen sog. “generalisierten Koordinaten” (auch “verallgemeinerte Koordinaten” genannt).

Solche generalisierten Koordinaten werden meist geschreiben als:

  • Ortskoordinaten: \( q_1, q_2,…,q_i,…  \)
  • Geschwindigkeiskoordinaten:  \( \dot{q_1}, \dot{q_2},…, \dot{q_i},… \)

Den Physiker interessiert nun eine Zustandsveränderung mit der Zeit.
Möge ein Zustand 1 (Anfang) beschrieben sein durch \( q_i(t_1), \dot{q_i(t_1} \)
und ein Zustand 2 (Ende) beschrieben sein durch \( q_i(t_1), \dot{q_i(t_1} \).

Diese beiden Punkte im Phasenraum kann man in einem Diagramm des Phasenraums graphisch darstellen.

Es gibt viele Wege auf denen man vom Zustand 1 zum Zustand 2 kommen kann.

Abbildung 1: Wege in einem Phasenraum (Github: Phasenraum.svg)

Wege in einem Phasenraum

Auf jedem dieser Wege kann man das Pfadintegral der Engergie über die Zeit bilden. Diese Größe nennt man “Wirkung“.
Genaugenommen sind hier (infenitesimale) Energie-Unterschiede entlang des Weges gemeint.

Die Natur wählt nun denjenigen Weg, auf dem diese Wirkung minimal ist.
Hinter dem Begriff “minimal” steckt so eine Idee von “einfacher”, “ökonomischer”,  “sparsamer”,….

Um von so einem Integral das Minimum zu finden bedient man sich der mathematischen Methode der Variationsrechnung. Da werden “kleine” Differenzen betrachtet (geschrieben als kleiner Griechischer Buchstabe Delta) und  diese Differenzen werden dann als Taylorentwicklung dargestellt…

Aber welche “Energie” ist das, die wir da integrieren sollen? In der klassischen Sichtweise ist das die Lagrange-Funktion. Aber wo bekommen wir die denn her???

Wir haben da immer irgendein Kraftfeld, was zu Bewegungsgleichungen führt. Ähnlich wie wir statt eines konservativen Kraftfeldes auch das Potenzial als skalares Feld nehmen konnten, wollen wir nun statt des Potenzials die Lagrange-Funktion nehmen….

Warum ist das dann immer noch richtig?

Physik: Einstein Spezielle Relativitätstheorie

Gehört zu: Physik
Siehe auch: Allgemeine Relativitätstheorie, Raum-Zeit-Diagramme
Benutzt: WordPress-Plugin Latex, Grafiken aus Github

Stand: 2.8.2023

Die Spezielle Relativitätstheorie

Albert Einstein (1879-1955) hat 1905 die sog. “Spezielle Relativitätstheorie” (SRT) formuliert. Ausgehend von zwei Postulaten:

  • Die physikalischen Gesetze sind gleich in allen Intertialsystemen
  • Die Lichtgeschwindigkeit im Vakuum ist gleich in allen Intertialsystemen

leitet er daraus erstmals die Lorentz-Transformationen her.

Daraus wiederum ergeben sich die Phänomene:

  • Zeitdilatation
  • Längenkontraktion

Zur quantitativen Beschreibung dient dabei der sog. Lorentz-Faktor:

\( \Large\gamma = \frac{1}{\sqrt{1-\frac{v^2}{c^2}}} \\ \tag{1} \)

Mit diesem Faktor werden die Längenkontraktion und die Zeitdilationen quantitativ beschrieben.

Abbildung 1: Der Lorentzfaktor in Abhängigkeit von v/c (Github: Lorentzfaktor.svc)

Lorentzfaktor

Addition von Geschwindigkeiten

Relativ zu einem Beobachter (Inertialsystem) S0 möge sich ein zweiter Beobachter (Intertialsystem) S1 mit der konstanten Geschwindigkeit u bewegen.

Wenn sich nun ein Objekt im System des Beobachters S0 mit der gleichgerichteten Geschwindigkeit v bewegt, wäre die Frage, welche Geschwindigkeit w ein Beobachter im System S1 misst. Unter Anwendung der Lorenztransformatinen bekommen wir das Ergebnis:

\( w = \Large \frac{u + v}{1 + \Large \frac{u \cdot v}{c^2}} \\ \)

Impuls / Massen

Der Impulserhaltungssatz ist unantastbar. Also ist

\(\Large \vec{p} = m \cdot \vec{v} \tag{2}\\\)

invariant (gleich in allen Inertialsystemen).

In zwei Intertialsystemen messen wir ja unterschiedliche Geschwindigkeiten, also muss sich die Masse entsprechend verändern damit der Impuls gleich bleibt.

\(\Large m = \gamma \cdot m_0 \\ \tag{3}\)

Energie

Bekannt ist ja die berühmte Formel:

\(\Large E = m \cdot c^2 \tag{4}\\  \)

Josef Gassner zeigt in seinem Video https://youtu.be/AJ1prUzQ878k folgende Herleitung:

Wir  linearisieren den Lorenzfaktor (Gleichung 1):

\( \Large\gamma = 1 + \frac{1}{2}\frac{v^2}{c^2} + … \tag{5} \\ \)

Das setzen wir in Gleichung 3 ein und erhalten:

\(\Large m = \gamma \cdot m_0 = m_0 + \frac{1}{2} \frac{v^2}{c^2}  \)

Erweitern wir das mit c2 bekommen wir:

\(\Large m \cdot c^2 = m_0 c^2 + \frac{1}{2} m_0 v^2 \\ \)

Der hintere Term ist offenbar die kinetische Ernergie und dann ist der erste Term die Ruhe-Energie. Die Gesamt-Energie ist dann also::

\( \Large E = m\cdot c^2 = \gamma^2 m_0^2 \cdot c^2 \tag{6}\\\)

Diese Formel ist wegen der Linearisierung des Lorenzfaktors eigentlich falsch, soll heissen sie gilt so nur für kleine v (klein gegenüber c). Vollständig richt lautet sie:

\( \Large E^2 = m_0^2 \cdot c^4 + p^2 \cdot c^2 \tag{7} \)

Ausblick

Später formulierte Einstein die Allgemeine Relativitätstheorie (ART).

Physik: Die Bra-Ket-Notation

Gehört zu: Quantenphysik
Siehe auch: Schrödinger, Komplexe Zahlen, Vektorräume

Stand: 02.08.2022

Die Dirac-Notation

In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\). So einen Vektor

\( \vec{v} \in V \)

scheibt man in der Quantenphysik gern als sog. Ket-Vektor:

\( |v\rangle \)

Dies ist Teil der sog. Bra-Ket-Notation von  Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zu jedem Ket-Vektor definieren wir noch einen sog. Bra-Vektor:

\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)

Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.

Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.

Zu dieser Bra-Ket-Notation gibt es enorm viele Youtube-Videos. Ein ganz einfaches ist: https://youtu.be/pBh7Xqbh5JQ

Einig sind sich alle Authoren über die Frage, was ein Ket-Vektor ist: eben ein “normaler” Vektor aus unserem Vektorraum V (also ein “Spaltenvektor”:

\( |v\rangle  = \left( \begin{array}{c} v_1 \\\ v_2 \\\ \vdots \\\ v_n  \end{array}\right) \)

Aber was um Himmelswillen ist der dazugehörige Bra-Vektor?

Einfache Gemüter sagen einfach:

\( \langle v|  = \left( \begin{array}{r} v_1^\ast & v_2^\ast & \cdots & v_n^\ast  \end{array}\right) \)

Der etwas nachdenkliche Mathematiker fragt sich:

  • “Konjugiert komplex” ist ja zunächst nur für Skalare (komplexe Zahlen) definiert. Kann man auch zu einem Vektor den konjugiert komplexen bilden?
  • Mit endlichen Dimensionen geht das ja alles so. Aber in der Quantenphysik wird man doch mit Hilberträumen unendlicher Dimension arbeiten. Wie funktionieren diese Konzepte denn da?

Skalarprodukt

MIt HIlfe von Bra-Vektor und Ket-Vektor definieren wir nun ein Skalarprodukt (inneres Produkt):

Das Skalarprodukt der Vektoren v und w schreiben wir als:
\( \langle v | w \rangle \)

Aber wie wird dieses Skalarprodukt berechnet (definiert)?

Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):

\( \langle b_i | b_j \rangle := \delta_{ij} \)

Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.

Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:

\( | v \rangle  = \sum{v_i |  b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)

definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i}  \)

Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:

Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:

\( \langle b_i |  b_j \rangle = \sum{{\delta_{ij}}^\ast  \delta_{ji} } = \delta_{ij} \)

Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.

Das so definierte Skalarprodukt ist nicht mehr kommutativ, sondern “hermitisch”; d.h.:

\( \langle v, w \rangle  = \langle w, v \rangle ^\ast \)

Das Skalarprodukt eines Vektors mit sich selbst ist immer reelwertig und “positiv definit”.

Hilbertraum

Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.

In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.

Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.

Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.

So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).

Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.

In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:

\( a  |\Psi_1\rangle + b  |\Psi_2\rangle \\ \)

schreibt man einfach:

\( a  |1\rangle + b  |2\rangle \\ \)

Physik: Wellenfunktion – Schrödinger-Gleichung

Gehört zu: Quantenphysik
Siehe auch: Relativitätstheorie, Materiewellen, Lineare Algebra, Bra-Ket-Notation, Komplexe Zahlen

Stand: 19.02.2023  (Observable, Zeitabhängigkeit, klassische Welle, Materiewellen)

Die “klassische” Welle

Seit alters her beschreiben wir eine Welle durch eine Sinus- bzw. Cosinus-Funktion.

\( y = A \cdot \cos( \omega t + \Phi)  \)

Dabei ist A die Amplitude und Φ die Phasenverschiebung. Wobei wir ω zunächst nicht weiter betrachten.

Das Paar aus Amplitude und Phasenverschiebung kann man sich als eine komplexe Zahl in Polarkoordinaten vorstellen:

\( z = A \cdot e^{i \Phi} \)

Ganz allgemein kann man eine Wellenfunktion auch so schreiben:

\( \Large y(x,t) = A \cos{(kx – \omega t)} \)

 

Wobei  \( k = \frac{2 \pi}{\lambda} \) und \( \omega = 2 \pi f \)

Link: https://youtu.be/MzRCDLre1b4

Materiewellen

De Broglie und Einstein haben ja gezeigt, dass Teilchen (Photonen, Elektronen) auch Wellencharakter haben.

\( \lambda = \frac{h}{p} \) und \( f = \frac{E}{h} \)

Aber: Keine Wellenfunktion ohne Wellengleichung.

Die Wellenfunktion in der Quantenphysik

In der klassischen Mechanik (Newton etc.), wird ein Teilchen durch Ort und Implus beschrieben mit seinem sog. “Zustand”.
In der Quantenphysik macht das die Wellenfunktion Ψ. Sehr allgemein gesagt: Eine Wellenfunktion beschreibt das Zustand eines quantenmechanischen Teilchens. Was genau mit “Zustand” und “Wellenfunktion” gemeint ist, bleibt zunächst offen.

Wir werden später sehen, dass man damit die Aufenthaltswahrscheinlichkeit (und auch andere Größen, sog. Observable) von Teilchen berechnen (vorhersagen) und schließlich auch messen kann. Daher auch der Spruch “Shut up and calculate”, angeblich auf Richard Feynman (1918-1988) zurückgehen soll…

Der Wertebereich einer Wellenfunktion sind die Komplexen Zahlen. Der Definitionsbereich sind Ort und Zeit Ψ(r,t).
Der Wert ist also eine Komplexe Zahl, veranschaulicht in Polar-Koordinaten durch einen Vektor mit einer Länge auch “Amplitude” genannt, und einem Winkel, auch Phase genannt.

Für Komplexe Zahlen benutzt die Quantenmechanik gerne die sog. Exponential-Darstellung:

\(\displaystyle z ={r} \cdot e^{i \cdot \phi} \)

Damit kann man sich die Komplexe Zahl gut als Vektor einer bestimmten Länge (r auch genannt Amplitude) mit einem Drehwinkel (Φ auch genannt Phase) vorstellen.

Da der Wert der Wellenfunktion eine Komplexe Zahl ist, kann man sie nicht “direkt” beobachten; der Betrag der Wellenfunktion zum Quadrat ist aber eine nicht negative reelle Zahl und ist so der Beobachtung zugänglich…

Nach der sog. Kopenhagener Deutung (1927 Niels Bohr und Werner Heisenberg) ergibt sich aus der Wellenfunktion eines Teilchens eine Wahrscheinlichkeitsdichte ρ(x,t) für den Aufenthaltsort und zwar wird dabei der Betrag der Wellenfunktion zum Quadrat genommen:.

\( \rho(x,t) = | \Psi(x,t) |^2 \\\)

Aus dieser Wahrscheinlichkeitsdichte ρ ergibt sich der Erwartungswert für den Ort des Teilchens:

\(\Large \langle x \rangle = \int\limits_{-\infty}^{+\infty} x \, \rho(x) \, dx \\\)

Die Wahrscheinlichkeit dafür, dass das der Ort des Teilchens (x) im Intervall a <= x <= b liegt, wäre dann:

\( \Large \int_a^b | \Psi(x,t) |^2 \, dx \\\)

Da der Betrag einer komplexen Zahl z definiert ist über: \( | z |^2 = z \cdot z^* \) folgt daraus…

\(\Large \langle x \rangle = \int\limits_{-\infty}^{+\infty} \Psi^*(x,t) \, x \, \Psi(x,t)  \, dx \\\)

In dieser Form sehen wir schon einen ersten Operator (s.u.), der auf die Wellenfunktion wirkt und uns ein Observable (den Ort) als Erwartungswert bringt.

Operatoren und Observables

Bisher hatten wir den Zustand eines quantenphysikalischen System durch die Wellenfunktion Ψ beschrieben. Um zu beobachtbaren Größen zu kommen, benötigen wir sog. Operatoren, die auf die Wellenfunktion angewendet werden und dann beobachtbare Werte (“observables”) liefern; aber auch nur als Wahrscheinlichtkeitsverteilung (woraus ich Erwartungswerte etc. berechnen kann). Man schreibt solche Operatoren gerne als Buchstabensymbol mit einem Dach “^”. Observable sind z.B.:

  • Ort
  • Impuls
  • Kinetische Engergie
  • etc.

Solche Observables können natürlich auch “nur” Wahrscheinlichkeitsverteilungen mit Erwartungswert und Varianz sein.

Ein bestimmter Operator liefert dann zusammen mit der Wellenfunktion des quantenphysikalischen Systems die Wahrscheinlichkeitsverteilung dieser Observablen (in reelen Zahlen). Daraus ergibt sich beispielsweise der Erwartungswert einer Observablen:

\(\Large \langle \hat{Q} \rangle= \int\limits_{-\infty}^{+\infty} \Psi^* \hat{Q} \Psi dx \)

Beispiel 1: Die Observable “Ort”:

Operator:   \( \Large\hat{x} \Psi(x,t) = x \cdot \Psi(x,t) \)

Beispiel 2: Die Observable “Impuls”:

Operator: \( \Large\hat{p} \Psi(x,t) = -i \hbar \frac{\partial \Psi(x,t)}{\partial x} \)

Die Wellen-Gleichung (Schrödinger-Gleichung)

Youtube-Video: https://www.youtube.com/watch?v=hY2AdjYcTro&t=905s

Von Ernst Schroedinger (1887-1961) stammt die grundlegende Gleichung der Quantenmechanik. Sie beschreibt in Form einer partiellen Differentialgleichung die zeitliche und räumliche Veränderung des quantenmechanischen Zustands eines nichtrelativistischen Systems unter Einfluss eines Potentials. Wobei man sich so ein Potential als Einfluss eines Kraftfeldes vorstellen kann: \( F(r,t) = \frac{\partial \Psi(r,t)}{\partial t}\).

Die Lösungen dieser Wellengleichung heissen Wellenfunktionen.
Gegeben ist dabei eine Potentialfunktion V(r,t) und gesucht wird als Lösung die dazu passende Wellenfunktion \(\Psi(r,t)\):

\( \Large i \cdot \hbar \cdot \frac{\partial}{\partial t}\Psi(r,t) = – \frac{\hbar}{2m} \Delta \Psi(r,t)+ V(r,t) \Psi(r,t)= (- \frac{\hbar}{2m} \Delta + V(r,t)) \Psi(r,t) \\\)

Mit dem Laplace-Operator: \( \Delta f = div(grad f)) \) der so etwas wie die “zweite Ableitung” darstellt.
Benannt nach Pierre-Simon Laplace (1749-1827).

Gegeben ist dabei ein Potential V(r,t) und eine Masse m, gesucht wird eine Wellenfunktion \(\Psi(r,t) \).

Wenn es sich um ein “freies” Teilchen handelt, ist das Potential Null, d.h. es fällt in der Gleichung weg.
Wenn die Wellenfunktion nicht von der Zeit abhängt, sprechen wir von einer “stationären” Lösung. Die Wellenfunktion ist dann nicht mehr komplexwertig, sondern nimmt nur noch Werte aus den reelen Zahlen an.

Kompakt kann man die allgemeine Schrödiner-Gleichung schreiben als:

\( \Large i \cdot \hbar \cdot \dot{\Psi}(r,t) = \hat{H} \Psi(r,t) \\ \)

Mit dem geheimnisvollen Hamilton-Operator:

\(\hat{H} \Psi(t)= i \cdot \hbar \cdot \frac{\partial}{\partial t} \Psi(t) \).

Der nach William Rown Hamilton (1805-1865) benannte Hamilton-Operator.

Hintergrund dieser Schödinger-Gleichung ist der Satz von der Erhaltung der Energie.

Eine Wellenfunktion ist also die Lösung der oben stehenden Schrödinger-Gleichung (mit einer bestimmten Potentialfunktion V). Da die Schrödinger-Gleichung linear ist, sind auch beliebige Linearkombinationen von Lösungen wiederum Lösungen. So eine Linearkombination würde man Superposition nennen. Wenn beispielsweise die Wellenfunktionen ψ1 und ψ2 Lösungen einer Schrödinger-Gleichung sind, ist auch \( \Psi = a \cdot \Psi_1 + b \cdot \Psi_2 \\\) Lösung dieser Schrödinger-Gleichung.
Das heisst, dass alle Wellenfunktionen \( \Psi: \mathbb{R}^4 \to \mathbb{C} \), die Lösung einer Schrödinger-Gleichung sind, einen Vektorraum bilden. Wenn wir noch ein Skalarprodukt (inneres Produkt) von zwei Wellenfunktionen definieren, wir dieser Vertorraum zum Prä-Hilbertraum und möglicherweise zu einem echten Hilbertraum:

\( \Large \langle \Psi_1 | \Psi_2 \rangle = \int\limits_{-\infty}^{+\infty} \Psi_1^\ast(x) \Psi_2(x) dx \\ \)

Quantenphysiker verwenden auch gerne eine Bra-Ket-Notation (s.u. Diriac) und schreiben:

\( |\Psi\rangle = a \cdot |\Psi_1\rangle + b \cdot |\Psi_2\rangle \\ \)

Zunächst ist das eine formale mathematische Aussage.

Eine für Physiker interessante Eigenschaft von Wellenfunktionen ist, dass ein Zustand aus mehreren einfachen Zuständen zusammensetzen werden kann. Sind die Zustände mit “exklusiv oder” verbunden (z.B. alternative Wege), werden die Wellenfunktionen addiert (sog. Überlagerung, auch Superposition genannt), Sind die Zustände mit “und” verbunden (z.B. eine Sequenz), werden die Wellenfunktionen multipliziert.

Ein ganz einfaches Beispiel für Wellenfunktionen und Superposition ist die Teil-Reflektion. Die beiden Wellenfunktionen werden addiert, normiert und danach wird das Quadrat des Betrags genommen.

Abbildung 1: Eine schöne Einführung gibt das Youtube-Video von Alexander FufaeV (Youtube: https://youtu.be/SqQbsBOsaA8)

 

Vereinfachung: Eindimensionale Schrödinger-Gleichung

Wenn wir bestimmte Vereinfachungen vornehmen, wird die Schrödinger-Gleichung auch einfacher:

  • Die Wellenfunktion möge in einfachen Fällen nicht von der Zeit, sondern nur vom Ort abhängen ==> zeitunabhängige Schrödinger-Gleichung
  • Der Ort wird in einfachen Fällen nicht durch drei Raumkoordinaten (Ortsvektor r), sondern nur durch eine Dimension (x-Achse) beschrieben. ==> Eindimensionale Schrödinger-Gleichung

Als (vereinfachte) eindimensionale, zeitunabhängige Schödinger-Gleichung haben wir:

\( W \Psi = -\frac{\hbar^2}{2 m} \frac{d^2 \Psi}{dx^2} + W_{pot} \Psi\)

Die dreidimensionale Schrödinger-Gleichung

Mit dreidimesionalen Ortskoordinaten ergibt sich:

\( W \Psi = -\frac{\hbar^2}{2 m} \left( \frac{\partial^2 \Psi}{\partial x^2} + \frac{\partial^2 \Psi}{\partial y^2} + \frac{\partial^2 \Psi}{\partial z^2} \right) + W_{pot} \Psi\)

Zur kompakteren Schreibweise wird der Nabla-Operator (\( \nabla^2 \) wird auch Laplace-Operator genannt) eingeführt:

\( W \Psi = -\frac{\hbar^2}{2 m} \nabla^2 \Psi + W_{pot} \Psi\)

Noch kompakter kann man es mit dem sog. Hamilton-Operator schreiben:

\( W \Psi = -\frac{\hbar^2}{2 m} \left( \nabla^2 + W_{pot} \right) \Psi = \hat{H} \Psi \)

mit dem Hamilton-Operator:

\( \hat{H} = \nabla^2 + W_{pot} \)

Die Dirac-Notation und Hilbertraum

In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\) die unendliche Dimension haben. So einen Vektor

\( \vec{v} \in V \)

scheibt man in der Quantenphysik gern als sog. Ket-Vektor:

\( |v\rangle \)

Dies ist Betandteil der sog. Bra-Ket-Notation von  Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Um ein Skalarprodukt (inneres Produkt) zu definieren brauchen wir noch zu jedem Ket-Vektor einen sog. Bra-Vektor.

\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)

Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.

Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.

Damit können wir das Skalarprodukt der Vektoren v und w schreiben als
\( \langle v | w \rangle \)

Aber wie wird dieses Skalarprodukt berechnet (definiert)?

Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):

\( \langle b_i | b_j \rangle := \delta_{ij} \)

Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.

Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:

\( | v \rangle  = \sum{v_i |  b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)

definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i}  \)

Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:

Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:

\( \langle b_i |  b_j \rangle = \sum{{\delta_{ij}}^\ast  \delta_{ji} } = \delta_{ij} \)

Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.

===========================

Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.

In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.

Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.

Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.

So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).

Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.

In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:

\( a  |\Psi_1\rangle + b  |\Psi_2\rangle \\ \)

schreibt man einfach:

\( a  |1\rangle + b  |2\rangle \\ \)

Quanten-Verschränkung – Entanglement

Zwei Teilchen (Quanten-Teilchen) können “verschränkt” sein.

Zwei verschränkte Teilchen können entstehen, wenn ein ursprüngliches Teilchen in zwei Teilchen zerfällt. Wenn das ursprüngliche Teilchen eine Erhaltungseigenschaft hatte, muss diese in den entstandenen zwei Teilchen in Summe unverändert auftauchen.

Man sagt auch, dass die zwei Teilchen eine gemeinsame Wellenfunktion haben.

Manchmal hört man auch, dass ein Quanten-System aus zwei Teilchen als Wellenfunktion das Produkt der beiden einzelnen Wellenfunktionen hat.

 

Physik: Symmetrie

Gehört zu: Physik
Siehe auch: Lineare Algebra, Langrange-Formalismus

Der Begriff der Symmetrie in der Physik

Die Wikipedia sagt:

Unter einer Symmetrie versteht man in der Physik die Eigenschaft eines Systems, nach einer bestimmten Änderung (z.B. Koordinatentransformation) in einem unveränderten Zustand (also unverändert) zu bleiben. Eine solche Transformation (die den Zustand nicht ändert) wird Symmetrietransformation genannt.

Der Zustand eines mechanischen Systems mit den Koordinaten q1, q2,…,qn wird dabei beschrieben durch die Lagrangefunktion:

\( \mathcal{L}(q_1, q_2,..q_n, \dot{q_1}, \dot{q_2},…, \dot{q_n}, t) \\\)

Unterschieden werden:

  • diskrete Symmetrien (z. B. Spiegelsymmetrie), die nur eine endliche Anzahl an Symmetrieoperationen besitzen
  • kontinuierliche Symmetrien (z. B. Rotationssymmetrie), die eine unendliche Anzahl an Symmetrieoperationen besitzen.

Die mathematische Beschreibung von Symmetrien erfolgt durch die Gruppentheorie.

 

 

Mechanik: Lagrange-Formalismus

Gehört zu: Mechanik – Kinematik
Siehe auch: Newtonsche Mechanik, Symmetrie, Phasenraum
Benutzt WordPress-Plugin MathJax-Latex

Der Lagrange-Formalismus

Alternativ zu den Newtonschen Gleichungen kann man die räumliche und zeitliche Entwicklung eines mechanischen Systems auch durch den sog. Lagrange-Formalismus beschreiben. Dazu benutzt man die physikalischen Größen kinetische Energie und potentielle Energie.

Langrange-Funktion: \(\mathcal{L} = E_{kin} – E_{pot} \)

Um mit der Langrange-Funktion etwas zu machen, muss man sie als Funktion von Variablen (also Koordinaten) ausdrücken. Die kinetische Energie hängt klassischerweise von der Geschwindigkeit v ab. Die potentielle Energie hängt klassischerweise vom Ort r ab. Die Variablen (Koordinaten) der obigen Lagrange-Funktion wären dann also \(\mathcal{L}(v,r) \).

Wobei diese Lagrange-Funktion nur eine “Hilfsfunktion” ist und keine intrinsische physikalische Eigenschaft darstellt.

Zu der obigen Lagrange-Funktion erhält man die sog. Langrange-Gleichung (2. Art sagt man) als:

\(\Large \frac{d}{dt} \frac{\partial \mathcal{L}}{\partial v} – \frac{\partial \mathcal{L}}{\partial r} = 0 \\ \)

Setzt man in die obige Langrange-Funktion die Ausdrücke für die kinetische und die potentielle Energie ein und bildet dann die für die Lagrange-Gleichung erforderlichen partiellen Ableitungen, so erhält man Bewegungsgleichungen, die man meist ganz einfach lösen kann.

Im Grenzfall ohne potentielle Energie ist:

\( \mathcal{L} = E_{kin} = \frac{1}{2} m \cdot v^2 \)

Und die Lagrangegleichung wird:

\( \Large \frac{d}{dt}\frac{\partial \mathcal{L}}{\partial v} = \frac{d}{dt} (m v) = 0 \\ \)

Was genau die Newtonsche Impulserhaltung ist.

Warum Lagrange?

Es wird gesagt, dass man mit dem Lagrange-Formalismus, kompliziertere Probleme der Kinematik leichter lösen kann als mit den Newtonschen Gleichungen.

Es werden dazu typischerweise sog. generalisierte Koordinaten verwendet, die die Lösung schon mal vereinfachen. Die generalisierten (oder verallgemeinerten) Koordinaten bilden in der theoretischen Mechanik einen minimalen Satz von unabhängigen Koordinaten zur eindeutigen Beschreibung des räumlichen Zustands des betrachteten Systems. Diese werden so gewählt, dass die mathematische Formulierung von Bewegungen, möglichst einfach wird. Die generalisierten Orts-Koordinaten tragen oft das Formelzeichen \(q_i\), dann sind \(\dot{q}_i\) sog. verallgemeinerte Geschwindigkeiten. Durch geschickt gewählte verallgemeinerte Koordinaten kann man z.B. sog. “Zwangsbedingungen” von vorne herein und ohne zusätzliche Gleichungen mit einbauen.
Die minimale Anzahl der verallgemeinerten Orts-Koordinaten ist zugleich auch die Anzahl der sog. Freiheitsgrade des Systems.

Typische einfache Beispiele, an denen man den Lagrange-Formalismus Anfängern erklärt, sind: Freier Fall, Schiefe Ebene, Fadenpendel,…

Verwendung findet der Langrange-Formalismus z.B. in der Himmelsmechanik beim Mehrkörperproblem. Man kennt ja beim vereinfachten Dreikörperproblem die berühmten Lagrange-Punkte L1, L2 etc. wo ja gerne Raumsonden, wie Soho, hingeschickt werden.

Beispiel 1: Freier Fall mit Lagrange

Siehe dazu auch: https://www.youtube.com/watch?v=MIHlsj6kan4

Zur Beschreibung dieses ganz einfachen (eindimensionalen) mechanischen Versuchs benutzen wir als vereinfachte Orts-Koordinate s(t) mit s(0)=0 als Höhen-Koordinate in der Vertikalen in Richtung nach unten und dazu die vertikale Fallgeschwindigkeit v(t) mit v(0)=0.

Als potentielle und als kinetische Energie haben wir damit:

\( E_{pot} = – m \cdot s \cdot g \) (wobei g die Erdbeschleunigung ist und s in der gleichen Richtung wie g laufen soll – wie das auch oben der Fall ist)
\( E_{kin} = \frac{1}{2} \cdot m \cdot v^2 \)

und die Lagrange-Funktion dieses mechanischen Systems ist:

\( \mathcal{L}(v,s) = \frac{1}{2} \cdot m \cdot v^2 + m \cdot s \cdot g \\ \)
Wir bilden also ersteinmal die partielle Ableitung der Lagrange-Funktion nach der Geschwindigkeit v:

\( \Large \frac{\partial L}{\partial v} = m \cdot v \\ \)

Dann bilden wir die partielle Ableitung der Lagrange-Funktion nach der Ortskoordinate s:

\( \Large \frac{\partial L}{\partial s} = m \cdot g \\ \)

Die Lagrange-Gleichung lautet damit also:

\(\Large \frac{d}{dt} (m \cdot v) – m \cdot g = 0 \\ \)

Was nichts anderes heisst als:

\( \Large m \cdot \dot{v} – m \cdot g = 0 \\\)

Was genau die gleiche Bewegungsgleichung ist, wie oben mit den klassischen Newton Axiomen. Also ist die Lösung dieser Bewegungsgleichung auch die gleiche wie oben:

\( \vec{v}(t) = \vec{g} \cdot t \)
\( \vec{s}(t) = \frac{1}{2} \vec{g} \cdot t^2 \)

Für diesen sehr einfachen Fall würde man die Lagrange-Methode sicher nicht bemühen; man sieht aber, wie sie im Prinzip abläuft.

Beispiel 2: Fadenpendel

Siehe dazu auch: https://youtu.be/76i4uNsgvvo

Ein “klassisches” Fadenpendel habe die konstante Länge l und unten dran hänge eine Masse m.

Klassisch würde man das in kartesischen Koordinaten x (waagerecht) und y (senkrecht nach oben) mit dem Aufhängepunkt des Pendesl als Koordinatenursprungversuchen zu lösen.

Man hätte dann noch die “Zwangsbedingung”, dass die Masse m sich immer nur im Abstand l vom Koordinatenursprung aufhalten kann.

Wir wählen jetzt generalisierte Koordinaten, mit denen wir das einfacher beschreiben können, nämlich ebene Polarkoordinaten (r,φ) wobei wieder der Aufhängepunkt des Pendels als Koordinatenursprung gewählt wird und wir den Winkel φ von der Senkrechten her messen mit positivem φ auf den rechten Seite und negativem φ auf der linken Seite. Dann ist die oben genannte Zwangsbedingung ganz einfach r = l und wir suchen nur noch nach den Bewegungsgleichungen für φ.

Als Koordinaten-Transformation haben wir:

\(x = l \cdot \sin{\phi} \enspace mit\colon \enspace \dot{x} = l \cdot \cos{\phi} \cdot \dot{\phi}\\\)

und:

\(y = -l \cdot \cos{\phi}  \enspace mit\colon \enspace  \dot{y} = l \cdot \sin{\phi} \cdot \dot{\phi}\\ \)

Für die Langrange-Funktion benötigen wir Ekin und Epot.

\( E_{kin} = \frac{1}{2} m (\dot{x}^2 + \dot{y}^2) = \frac{1}{2} m l^2 (\dot{\phi})^2 \\ \)

und mit dem Gavitationspotential:

\( E_{pot} = – \int F(r) dr = m \cdot g \cdot y = -m \cdot g \cdot l \cdot \cos{\phi} \\\)

damit ergibt sich als Lagrange-Funktion:

\( \mathcal{L} = E_{kin} – E_{pot} =  \frac{1}{2} m l^2 (\dot{\phi})^2   + m \cdot g \cdot l \cdot \cos{\phi}   = 0 \\\)

Und schließlich als Lagrange-Gleichung:

\( \Large \ddot{\phi} = – \frac{g}{l} \sin{\phi} \)

Diese schöne Differentialgleichung können wir leider nicht analytisch lösen. Aber für kleine Winkel \( \phi \) bekommen wir näherungsweise:

\( \Large \ddot{\phi} = – \frac{g}{l} \phi \)

was uns dann wieder auf die klassische (Näherungs-)lösung führt.

Diese Näherungslösung ist ein sog. Harmonischer Oszillator.

Ausserdem gibt es noch Hamilton

In der Quantenphysik wird auch häufig die Hamiltionfunktion verwendet:

\(H = E_{kin} + E_{pot} \)

 

Physik: Kraftfeld und Potential

Gehört zu: Himmelsmechanik
Siehe auch: Newton, Langrange-Punkte, Ebbe und Flut, Gravitation, Differentialoperatoren, Arbeit, Elementarteilchen
Benutzt: WordPress-Plugin MathJax-Latex

Stand: 28.4.2022  (Zentrifugalkraft)

Das Gravitationsgesetz

Solche Kraftfelder können wir durch deren Potentiale beschreiben.vitationsgesetz

Im Jahre 1668, formulierte Isaac Newton (1642-1727) das berühmte Gravitationsgesetz:

\( \Large F = G \frac{m \cdot M}{r^2}  \)

aus dem sich die Keplerschen Gesetze herleiten lassen…

Das Besondere der Erkenntnis von Newton ist nicht nur die Formulierung als eine einzige Formel, sondern auch, dass die Gravitationskraft zwischen allen Körpern im Universum wirkt. Beispielsweise kreisen die Jupitermonde gemäß diesem Gesetz um den Jupiter und ebenfalls kreisen Doppelsterne etc. aufgrund der Gravitation umeinander…

Zu den Zeiten Newtons beschäftigte sich die Physik in der Hauptsache und fast ausschließlich mit Mechanik. Newton (und Gottfried Wilhelm Leibniz 1646-1716) entwickelten die Infenitesimalrechung (engl. Calculus) mit der die Bewegung mechanischer Systeme durch die Wirkung von Kräften berechenbar gemacht werden konnte. Siehe dazu mein separater Artikel Newtonsche Mechanik.

Isaac Newton hat auch sehr viel über das Licht geforscht. Stichworte dazu wären: Teilreflektion, Newtonsche Ringe,…

Die Größe der Gravitationskonstante G wurde erst viel später durch das berühmte Experiment “Gravitationswaage” von Henry Cavendish (1731-1810) bestimmt.

In der Wikipedia finden wir:

\( \Large G = (6{,}674\,30\pm 0{,}000\,15)\cdot 10^{-11}\,\mathrm {\frac {m^{3}}{kg\cdot s^{2}}} \)

Eine ähnliche Formel wie hier für die Gravitationskraft zwischen zwei Massen haben wir in der Elektrostatik für die Elektrische Kraft zwischen zwei elektrischen Ladungen: Das Coulomb-Gesetz.

Die elektrostatische Kaft

Elektrische Ladungen erzeugen ebenfalls ein Kraftfeld.  Charles Augustin de Coulomb (1736-1806) fand 1785, dass die Kraft zwischen zwei elektrische Ladungen q1 und q2 (im Vakuum) im Abstand von r sich nach folgender Formel berechnet (Coulombsches Gesetz):

\(\Large F_e = \frac{1}{4 \pi \epsilon_0} \frac{q_1 q_2}{r^2}\)

Mit der elektrischen Feldkonstanten:

\( \Large \epsilon_0 = 8{,}854 \cdot 10^{-12} \frac{C^2}{Nm^2} \\\)

Das Potential in einem Kraftfeld

Ein Kraftfeld, wie das Gravitationsfeld aber auch andere (wie z.B. ein Elektrostatisches Feld), beschreibt man auch gerne durch das sog. Potential, womit für jeden Punkt im Raum gemeint ist, welche Arbeit (Kraft mal Weg) erforderlich ist, eine kleine Probemasse aus dem Unendlichen an diesen Punkt im Raum zu bringen. Die Menge Arbeit ist in einem sog. “konservativen” Kraftfeld unabhängig vom Weg. Das Potential ist somit wohldefiniert.

So ein Potentialfeld Φ(r) ist also ein skalares Feld. Aus dem Potentialfeld ergibt sich dann das Kraftfeld F(r), das proportional dem lokalen Gradienten des Potentialfeldes ist.

\( \Large \vec{F(r)} = const \cdot grad( \Phi(r) )\\ \)

Statt “grad” für Gradient, schreiben manche auch gerne ein Nabla, mit dem Symbol: ∇

\( \Large \vec{F(r)} = const \cdot \nabla \Phi(r) \\ \)

Das Potential im Gavitationsfeld

Bei einem “einfachen” Gravitationsfeld, das nur von einem großen Körper (z.B. der Erde) erzeugt wird, hängt der Wert des Potentials nur vom Abstand vom Massemittelpunkt ab. Gleiche Abstände vom Massemittelpunkt definieren dann sog. Äqui-Potential-Flächen.

Wenn wir das Gravitationsfeld der Erde (Masse = M) nehmen, ist das “Gravitationspotential” im Abstand r vom Massemittelpunkt demnach:

\(  \Large \Phi(r) = \space – G \cdot \frac{M}{r}  \\ \)

Wenn wir dieses Potential nach r ableiten (das ist im Eindimensionalen der Gradient) erhalten wir ja unser Newtonsches Gravitationsgesetz:

\( \Large F(r) = m \cdot \frac{d \Phi}{dr} =  m \cdot \frac{G \cdot M}{r^2} \\ \)

Das “schicke” am Potentialfeld ist:

  1. Der philosophische Gedanke der “Fernwirkung” eines Kraftfeldes wird dadurch gedanklich eher eine lokale Angelegenheit.
  2. Die Potentiale mehrerer Kraftfelder können einfach addiert (“überlagert”) werden.

Ein Beispiel für eine Überlagerung von Potentialen mehrer Kraftfelder sind die Lagrange-Punkte im System Sonne-Erde. Dort haben wir zwei Gravitationsfelder (Sonne und Erde) und ein drittes Potentialfeld durch die Rotation. Letztere wird berücksichtigt durch die Betrachtung in einem rotierenden Bezugssystem, in dem auch die beiden schweren Himmelskörper (Sonne und Erde) ruhen. Man spricht dann von einem “effektiven” Potential, was die Zentrifugalkraft, die ja als sog. Scheinkraft (Trägheitskraft) in so einem rotierenden Bezugssystem auftritt, mit beinhaltet. Dies zeigt sehr schön der Wikipedia-Artikel Lagrange-Punkte. und auch der von mir später verfasste Artikel über die Lagrange-Punkte in diesem Blog.

Siehe auch das Youtube-Video von Josef M. Gaßner “Lagrange-Punkte und Potential”:

Das Potential im elektrostatischen Feld

Auch das elektrostatische Feld ist ein konservatives Kraftfeld.

Bei einem “einfachen” Elektrostatischen Feld, das nur von einer punktförmigen Ladung erzeugt wird, hängt der Wert des Potentials nur vom Abstand von der Punktladung ab. Gleiche Abstände von der Punktladung definieren dann sog. Äqui-Potential-Flächen.

Bei einem elektrostatischen Feld einer Punktladung der Ladung Q ist also das Potential im Abstand r von der Punktladung demnach:

\(  \Large \Phi(r) = \space – \frac{1}{4\pi\epsilon_0}\frac{Q}{r}  \\ \)

Auch hier können wir dieses Potential nach r ableiten und bekommen das Coulomb-Gesetz für die Anziehungskraft zweier elektrischen Ladungen q und Q:

\(\Large F_e = q \cdot \frac{d \Phi}{dr} = q \cdot \frac{1}{4 \pi \epsilon_0} \frac{Q}{r^2}\)

Die Zentrifugalkraft

Die Zentrifugalkraft ist eine sog. “Scheinkraft”; d.h. sie ist in Inertialsystemen nicht vorhanden.

Typischerweise hat man so eine Zentrifugalkraft bei der Bewegung eines Massepunkts auf einer kreisförmigen Bahn um ein Zentrum, wenn man als Bezugssystem das mitrotierende System nimmt (welches kein Intertialsystem ist).

Im Falle einer Kreisbahn, richtet sich die Zentrifugalkraft nach aussen (also vom Zentrum weg) und die Größe ist:

\(\Large F_{Zf} = m \cdot \omega^2 \cdot r \)

Dieses Kraftfeld kann man auch durch sein Potential beschreiben:

\( \Large \Phi(r) = \space – \frac{1}{2} \omega^2 \cdot r \)