Physik: Die Schrödinger-Gleichung

Gehört zu: Quantenmechanik
Siehe auch: Wellenfunktionen

Stand: 23.08.2024

Die Schrödinger-Gleichung

Die Lösungen der Schrödinger-Gleichung mit einer gewissen Potentialfunktion (aka Kraftfeld) sind die gesuchten Wellenfunktionen.

Youtube-Video:

Von Ernst Schroedinger (1887-1961) stammt die grundlegende Gleichung der Quantenmechanik. Sie beschreibt in Form einer partiellen Differentialgleichung die zeitliche und räumliche Veränderung des quantenmechanischen Zustands eines nichtrelativistischen Systems unter Einfluss eines Potentials. Wobei man sich so ein Potential als Einfluss eines Kraftfeldes vorstellen kann: \( F(r,t) = \frac{\partial \Psi(r,t)}{\partial t}\).

Die Lösungen dieser Wellengleichung heissen Wellenfunktionen.
Gegeben ist dabei eine Potentialfunktion V(r,t) und gesucht wird als Lösung die dazu passende Wellenfunktionen \(\Psi(r,t)\):

\( \Large i \cdot \hbar \cdot \frac{\partial}{\partial t}\Psi(r,t) = – \frac{\hbar}{2m} \Delta \Psi(r,t)+ V(r,t) \Psi(r,t)= (- \frac{\hbar}{2m} \Delta + V(r,t)) \Psi(r,t) \\\)

Mit dem Laplace-Operator: \( \Delta f = div(grad f)) \) der so etwas wie die “zweite Ableitung” darstellt.
Benannt nach Pierre-Simon Laplace (1749-1827).

Gegeben ist dabei ein Potential V(r,t) und eine Masse m, gesucht wird eine Wellenfunktion \(\Psi(r,t) \).

Wenn es sich um ein “freies” Teilchen handelt, ist das Potential Null, d.h. es fällt in der Gleichung weg.
Wenn die Wellenfunktion nicht von der Zeit abhängt, sprechen wir von einer “stationären” Lösung. Die Wellenfunktion ist dann nicht mehr komplexwertig, sondern nimmt nur noch Werte aus den reelen Zahlen an.

Kompakt kann man die allgemeine Schrödiner-Gleichung schreiben als:

\( \Large i \cdot \hbar \cdot \dot{\Psi}(r,t) = \hat{H} \Psi(r,t) \\ \)

Mit dem geheimnisvollen Hamilton-Operator:

\(\hat{H} \Psi(t)= i \cdot \hbar \cdot \frac{\partial}{\partial t} \Psi(t) \).

Der nach William Rown Hamilton (1805-1865) benannte Hamilton-Operator.

Hintergrund dieser Schödinger-Gleichung ist der Satz von der Erhaltung der Energie.

Superposition

Eine Wellenfunktion ist also die Lösung der oben stehenden Schrödinger-Gleichung (mit einer bestimmten Potentialfunktion V). Da die Schrödinger-Gleichung linear ist, sind auch beliebige Linearkombinationen von Lösungen wiederum Lösungen. So eine Linearkombination würde man Superposition nennen. Wenn beispielsweise die Wellenfunktionen ψ1 und ψ2 Lösungen einer Schrödinger-Gleichung sind, ist auch \( \Psi = a \cdot \Psi_1 + b \cdot \Psi_2 \\\) Lösung dieser Schrödinger-Gleichung.
Das heisst, dass alle Wellenfunktionen \( \Psi: \mathbb{R}^4 \to \mathbb{C} \), die Lösung einer Schrödinger-Gleichung sind, einen Vektorraum bilden. Wenn wir noch ein Skalarprodukt (inneres Produkt) von zwei Wellenfunktionen definieren, wir dieser Vertorraum zum Prä-Hilbertraum und möglicherweise zu einem echten Hilbertraum:

\( \Large \langle \Psi_1 | \Psi_2 \rangle = \int\limits_{-\infty}^{+\infty} \Psi_1^\ast(x) \Psi_2(x) dx \\ \)

Quantenphysiker verwenden auch gerne eine Bra-Ket-Notation (s.u. Diriac) und schreiben:

\( |\Psi\rangle = a \cdot |\Psi_1\rangle + b \cdot |\Psi_2\rangle \\ \)

Zunächst ist das eine formale mathematische Aussage.

Eine für Physiker interessante Eigenschaft von Wellenfunktionen ist, dass ein Zustand aus mehreren einfachen Zuständen zusammensetzen werden kann. Sind die Zustände mit “exklusiv oder” verbunden (z.B. alternative Wege), werden die Wellenfunktionen addiert (sog. Überlagerung, auch Superposition genannt), Sind die Zustände mit “und” verbunden (z.B. eine Sequenz), werden die Wellenfunktionen multipliziert.

Ein ganz einfaches Beispiel für Wellenfunktionen und Superposition ist die Teil-Reflektion. Die beiden Wellenfunktionen werden addiert, normiert und danach wird das Quadrat des Betrags genommen.

Abbildung 1: Eine schöne Einführung gibt das Youtube-Video von Alexander FufaeV (Youtube: https://youtu.be/SqQbsBOsaA8)

Vereinfachung: Eindimensionale Schrödinger-Gleichung

Wenn wir bestimmte Vereinfachungen vornehmen, wird die Schrödinger-Gleichung auch einfacher:

  • Die Wellenfunktionen möge in einfachen Fällen nicht von der Zeit, sondern nur vom Ort abhängen ==> zeitunabhängige Schrödinger-Gleichung
  • Der Ort wird in einfachen Fällen nicht durch drei Raumkoordinaten (Ortsvektor r), sondern nur durch eine Dimension (x-Achse) beschrieben. ==> Eindimensionale Schrödinger-Gleichung

Als (vereinfachte) eindimensionale, zeitunabhängige Schödinger-Gleichung haben wir:

\( W \Psi = -\frac{\hbar^2}{2 m} \frac{d^2 \Psi}{dx^2} + W_{pot} \Psi\)

Die dreidimensionale Schrödinger-Gleichung

Mit dreidimesionalen Ortskoordinaten ergibt sich:

\( W \Psi = -\frac{\hbar^2}{2 m} \left( \frac{\partial^2 \Psi}{\partial x^2} + \frac{\partial^2 \Psi}{\partial y^2} + \frac{\partial^2 \Psi}{\partial z^2} \right) + W_{pot} \Psi\)

Zur kompakteren Schreibweise wird der Nabla-Operator (\( \nabla^2 \) wird auch Laplace-Operator genannt) eingeführt:

\( W \Psi = -\frac{\hbar^2}{2 m} \nabla^2 \Psi + W_{pot} \Psi\)

Noch kompakter kann man es mit dem sog. Hamilton-Operator schreiben:

\( W \Psi = -\frac{\hbar^2}{2 m} \left( \nabla^2 + W_{pot} \right) \Psi = \hat{H} \Psi \)

mit dem Hamilton-Operator:

\( \hat{H} = \nabla^2 + W_{pot} \)

Die Dirac-Notation und Hilbertraum

In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\) die unendliche Dimension haben. So einen Vektor

\( \vec{v} \in V \)

scheibt man in der Quantenphysik gern als sog. Ket-Vektor:

\( |v\rangle \)

Dies ist Betandteil der sog. Bra-Ket-Notation von  Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Um ein Skalarprodukt (inneres Produkt) zu definieren brauchen wir noch zu jedem Ket-Vektor einen sog. Bra-Vektor.

\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)

Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.

Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.

Damit können wir das Skalarprodukt der Vektoren v und w schreiben als
\( \langle v | w \rangle \)

Aber wie wird dieses Skalarprodukt berechnet (definiert)?

Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):

\( \langle b_i | b_j \rangle := \delta_{ij} \)

Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.

Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:

\( | v \rangle  = \sum{v_i |  b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)

definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i}  \)

Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:

Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:

\( \langle b_i |  b_j \rangle = \sum{{\delta_{ij}}^\ast  \delta_{ji} } = \delta_{ij} \)

Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.

Hilbertraum

Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.

In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.

Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.

Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.

So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).

Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.

In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:

\( a  |\Psi_1\rangle + b  |\Psi_2\rangle \\ \)

schreibt man einfach:

\( a  |1\rangle + b  |2\rangle \\ \)

Quanten-Verschränkung – Entanglement

Zwei Teilchen (Quanten-Teilchen) können “verschränkt” sein.

Zwei verschränkte Teilchen können entstehen, wenn ein ursprüngliches Teilchen in zwei Teilchen zerfällt. Wenn das ursprüngliche Teilchen eine Erhaltungseigenschaft hatte, muss diese in den entstandenen zwei Teilchen in Summe unverändert auftauchen.

Man sagt auch, dass die zwei Teilchen eine gemeinsame Wellenfunktion haben.

Manchmal hört man auch, dass ein Quanten-System aus zwei Teilchen als Wellenfunktion das Produkt der beiden einzelnen Wellenfunktionen hat.

Physik: Plancksches Strahlungsgesetz

Gehört zu: Physik
Siehe auch: Teilchenphysik, Von Pythagoras bis Einstein, Lineare Algebra, Quantenmechanik
Benötigt: WordPress Latex-Plugin, Fotos von Wikipedia

Stand: 14.08.2024

Anfänge der Quantenmechanik

Im Jahr 1900 formulierte Max Planck (1858-1947) sein Strahlungsgesetz und seine Quantenhypothese. Erst um 1925 entwickelte sich daraus eine Quantentheorie/Quantenmechanik, die die physikalische Systeme im Allerkleinsten (z.B. Elementarteilchen, Atome,…). gut beschreibt.

Abbildung 1: Flammarion Holzschnitt (Wikipedia: FlammarionWoodcut.jpg)

Flammarion Holzschnitt (Wikipedia)

Strahlungsgesetze vor Max Planck

Man kannte früher schon die abgestrahlte Gesamt-Energie (Stefan-Boltzmann-Gesetz) und auch die Wellenlänge bei der das Maximum an Energie abgestrahlt wird (Wiensches Verschiebungsgesetz).

Dieses nach Wilhelm Wien (1864-1928) benannte Wiensche Verschiebungsgesetz besagt, dass  ein Schwarzer Körper der absoluten Temperatur T die intensivste Strahlung bei einer Wellenlänge λmax abgibt, die umgekehrt proportional zu seiner Temperatur ist; als Formel:

\( \lambda_{max} = 2897,8 \mu m \cdot \frac{1}{T}\)   (T in Kelvin)

Aus der Farbe eines thermischen Strahlers kann so auf seine Temperatur zurückgeschlossen werden. Zum Beispiel teilt man die Sterne gemäß ihrer Farbe in Spektralklassen ein, denen eine Temperaturskala entspricht.

Wilhelm Wien fand auch schon 1893 eine Formel für die spektrale Verteilung der Energie, die recht gut zu den experimentellen Messungen passte:

\( \rho(\lambda) = \Large \frac{c_1}{\lambda^5} \cdot \frac{1}{e^\frac{c_2}{\lambda T}} \)

Raleigh (John William Strutt, 3. Baron Rayleigh) veröffentlichte im Jahre 1900 sein Gesetz für die Energieverteilung mit einem noch falschen Vorfaktor, das wurde 1905 von James Jeans wie folgt korrigiert:

\( \rho(\lambda) = \Large \frac{2c\pi}{\lambda^4} \normalsize \cdot k_B T \)

Diese früheren Formeln zur Verteilung der Energie über die Wellenlängen waren beide unbefriedigend.

Das Wiensche Strahlungsgesetz von 1893 passte zwar für kleine Wellenlängen ganz gut, aber für größere Wellenlängen wich es durchaus ab von den gemessenen Werten.
Das Strahlungsgesetz von Rayleigh und Jeans von 1905 war gut für größere Wellenlängen, führte aber bei kurzen Wellenlängen zur sog. “Ultraviolettkatastrophe”.

Das Plancksche Strahlungsgesetz

Max Planck (1858-1947) beschäftigte sich mit die Strahlung eines sog. “Schwarzen Strahlers”. Speziell ging es ihm darum, wie sich in Abhängigkeit von der Temperatur die abgestrahlte Energie über die Wellenlängen hin verteilt.

Planck konnte im Jahre 1900 ein Strahlungsgesetz entwickeln, das zeigt welche Strahlungsenergie ein “Schwarzer Strahler” einer bestimmten Temperatur (T) in Anhängigkeit von der Wellenlänge (\(\rho(\lambda)\)) oder der  Frequenz  (\(\rho(\nu)\)) aussendet. Plancks Strahlungsgesetz ist eigentlich nur eine Formel wie viele andere in der Physik auch, die endlich die Verteilung der Strahlungsenergie in Abhängigkeit von der Frequenz bzw. der Wellenlänge der Strahlung “richtig” darstellt.

\(  \rho(\nu) = \Large \frac{8 \cdot \pi  \cdot h \cdot \nu^3}{c^3} \cdot \frac{1}{e^\frac{h \nu}{k T} – 1}\\\)

oder in Abhängigkeit der Wellenlänge:

\(  \rho(\lambda) = \Large \frac{8 \cdot \pi  \cdot h \cdot c}{\lambda^5} \cdot \frac{1}{e^\frac{h \nu}{k T} – 1}\\\)

Wobei die Formel im ersten Fall die Strahlungsleitsung pro infinitesimalem Frequenzintervall  \( d\nu \) und im zweiten Fall pro infinitesimalem Wellenlängenintervall \( d\lambda \) ergibt.

Abbildung 2: Verteilung der Stahlungsenergie

Planksches Strahlungsspektrum (Wikipedia)

Wir sehen, dass je nach Temperatur, das Maxium der Strahlung bei einer anderen Wellenlänge (einer anderen Farbe) liegt.

Im Grenzfall \( h\nu \gg kT\) ergibt sich das Wiensche Strahlungsgesetz; im Grenzfall \( h\nu \ll  kT \) das Rayleigh-Jeanssche Strahlungsgesetz.

In Plancks Formel kommt eine vom ihm so genannte “Hilfskonstante” h vor, die später als das legendäre Plancksche Wirkungsquantum interpretiert wurde. Die physikalische Größe “Wirkung” bezeichnet eine Energie (Joule), die in einer bestimmten Zeit  (Sekunden) etwas “bewirkt”. Die Planck’sch Hilfskonstante ist:

h = 6,626069 ⋅ 10-34 J ⋅ s

h = 6,626 069 10 34 J s

Herleitung des Planckschen Strahlungsgesetzes

Dieses Youtube-Video von Rene Matzdorf  an der Uni Kassel versucht, die Herleitung der Planck’schen Formel (Strahlungsgesetz) über die Strahlung den schwarzen Körpern, sog. Hohlraumstrahlung und darin existierenden stehenden Wellen (Hohlraum-Resonator) herzuleiten:

Der Zusammenhang ist für mich nicht so leicht nachvollziehbar. Aber man muss das Placksche Schrahlungsgesetz ja überhaupt nicht “herleiten” – hat Newton bei seiner Gravitationstheorie ja auch nicht gemacht.

Planck selbst hat die Herleitung seines Strahlungsgesetzes am 14.12.1900 in Berlin vor der Deitschen Physikalischen Gesellschaft gezeigt.

In physikalischen Formeln wird auch häufig ein sog. “Reduziertes Plancksches Wirkungsquantum” mit dem Symbol “h quer” verwendet. Es ist definiert als: \( \hbar = \Large\frac{h}{2\pi} \)

Quelle: http://www.quantenwelt.de/quantenmechanik/historisch/schwarze_korper.html

Plancks Quantenhypothese

Häufig hört man, dass aus Plancks Formel angeblich die Aussendung der Energie in sog. Quanten (ganzzahlige Vielfache  von h mal ν) folgt. Das kann man aber aus der Formel selbst überhaupt nicht ableiten. Vielmehr ist es so, dass Planck (angeblich) auf diese Formel kam indem er elektromagnetische Strahlung (das Licht) als Teilchen modellierte, die sich wie ein Gas verhalten sollten. Die unterschiedlichen Geschwindigkeiten solcher Teilchen modelliert Planck als unterschiedliche Wellenlängen der Strahlung…

Ein solches Teilchen sollte eine von der Frequenz seiner Strahlung abhängige Energie haben. Das ist die zentrale Formel (Quantenhypothese) von Planck:   \(E = h \cdot \nu \)

Die Formeln für das Strahlungsgesetz hat Planck zunächst durch Probieren herausgefunden und dann später eine Herleitung auf Basis seiner Quantenhypothese gefunden. Planck glaubte jedoch damals noch nicht an eine allgemeine Quantelung, diese war nur eine Annahme, um die Theorie in Einklang mit den Messungen bringen zu können.

Später versuchte Planck sein Strahlungsgesetz nicht durch eine “Hohlraumstrahlung” sonden durch Atome als Oszillator zu interpretieen.

Das Plancksche Wirkungsquantum

Das Plancksche Wirkungsquantum als Naturkonstante wird heute zur Definition der SI-Einheit Kilogramm benutzt.

Im Zusammenhang mit dem Wirkungsquantum spricht man auch von einer einer “Planck-Länge”, einer “Planck-Zeit” etc., denn Planck hatte herausgefunden, dass man aus den Naturkonstanten G, c, h eine ganze Schaar von Einheiten ableiten kann (durch Probieren und Beachten der Dimensionen):

Planck-Länge:

\(  \Large l_p = \sqrt{\frac{\hbar \cdot G}{c^3}} = 6.616 10^{-35}m\\ \)

Was diese Planck-Länge bedeutet, ist zunächst völlig offen. Es ist “nur” eine ausprobierte Formel, die als Dimension eine Länge hat.

Im Zusammenhang mit der Heisenbergschen Unschärferelation versucht man, diesen Planck-Größen eine physikalische Bedeutung beizumessen.

 

 

Physik: Zeitmessung

Zeitmessung und Navigation

Kopie aus: web.kr8.de/zeitmessung.htm

Stand: 11.12.2004

Stichworte

Harrison Chronometer H.4, Zeitmessung, Uhr, Navigation, Räderuhr, Pendeluhr, Huygens, Cook, Eisenbahn, Zeitzone, GMT, Zeitzeichen, Sommerzeit, Quarzuhr, Atomuhr, Schaltsekunde, UTC, PTB, GPS, Venusdurchgang, Astrolabe, Oktant, Sextant, Meridian, …

Überblick

  • 750 In der Literatur werden erstmals Sanduhren erwähnt.
  • 1284 Die erste mechanische Turmuhr wird an der Kathedrale von Exeter (England) in Betrieb genommen.
  • 1288 Die Westminster Hall zu London erhält eine mechanische Türmeruhr. Die Tageseinteilung in zweimal zwölf gleich lange Stunden beginnt.
  • 1300 In Florenz wird die erste öffentliche mechanische Stadtuhr aufgestellt,
  • 1336 In Florenz wird eine Turmuhr mit Schlagwerk bekannt
  • 1344 In Padua vollendet Jacopo de Dondi eine öffentliche Schlagwerkuhr.
  • 1345 (spätestens) Die Stunde wird in 60 Minuten zu 60 Sekunden eingeteilt
  • 1348 London erhält seine erste öffentliche Schlagwerkuhr, Big Tom genannt.
  • 1511 Der Nürnberger Schlosser Peter Henlein baut tragbare Uhren – vermutlich gab es tragbare Uhren aber auch schon früher…
  • 1655 Christiaan Huygens (1629-1695) entdeckt in Den Haag mit seinem Fernrohr den ersten Saturnmond (Titan).
  • 1656 Christiaan Huygens entdeckt die Saturnringe und den Orionnebel…
  • 1656 Christiaan Huygens erfindet die Pendeluhr, die er 1657 zum Patent anmeldet. (franz. Patentamt?).
  • 1665 oder 1674 Huygens konstruiert aus Spiralfeder und Unruh ein Schwingungssystem für eine Taschenuhr, wofür er 1675 ein französiches Patent erhält. Prioritätsstreit mit R. Hooke (Elastizitätsgesetz).
  • 1761 Das von John Harrison gebaute Chronometer H.4 wird auf einer Reise nach Jamaica getestet. Auf der zwei Monate langen Reise verliert der “Time Keeper” nur 5 Sekunden.
  • 1768-1771 Kapitän James Cook konnte auf seiner ersten Reise den H.4 noch nicht mitnehmen.
  • 1772-1775 Zweite Reise von James Cook (HMS Resolution) mit Harrisons H.4 Chronometer…
  • 1776-1779 Dritte Reise von James Cook. Tod auf Hawaii.
  • 1825 Eröffnung der ersten Eisenbahnstrecke in England zwischen Stockton und Darlington am 17.09.1827. George Stephenson (1781-1848), der Erbauer der Lokomotive, steuert sie selbst.
  • 1835 Eisenbahn Nürnberg-Fürth
  • 1840-47 Einführung der Railway Time in England.
  • 1880 In Großbritannien wird die Greenwich Mean Time GMT eingeführt
  • 1893 Im Deutschen Reich wird die Mitteleuropäische Zeit MEZ eingeführt
  • 1926 Die GMT wird durch die Universal Time UT abgelöst
  • 1929 wurde die erste Quarzuhr von dem amerikanischen Uhrmacher Warren A. Marrison gebaut.
  • 1946 Am 6. Dezember stellt der amerikanische Physiker Willard F. Libby (1949 Radiocarbon-Methode) seine Atomuhr öffentlich vor. Seine Erfindung, die Atomuhr, die eine sehr genaue Zeitbestimmung möglich macht, weil sie in 300.000 Jahren weniger als eine Sekunde nachgeht, zählt die eigenen Schwingungen des Cäsium Atoms.
  • 1967 Definition der SI-Sekunde anhand der Cäsium-Atomuhr (9 192 631 770 Schwingungen sind eine Sekunde)
  • 1972 Einführung der Universal Time Controlled UTC anstelle der UT von 1926
  • 1978 Start des ersten Satelliten für den Aufbau des GPS Global Positioning System. 24 Satelliten mit Atomuhren an Bord…

Uhren

Die ersten Methoden zur Zeitmessung: Sonnenuhr, Wasseruhr, Sanduhr. Wichtiger Meilenstein: Die Erfindung der Mechanischen Räderuhr. Diese Art von Uhren gab es am Anfang vor allem in Klöstern. Die schweren Gewichte trieben auch die Mechanik des Stundenschlag an…

Wann, wo und von wem die ersten Räderuhren mit mechanischem Hemmwerk gebaut wurden, ist nicht bekannt. Jedenfalls geschah dies im ausgehenden 13. Jahrhundert, möglicherweise in Spanien, aber auch Frankreich kommt als Heimat der Räderuhr in Frage.

Um 1300 werden Räderuhren mit Gewichtantrieb, Spindelhemmung und Waag werden zunehmend hergestellt. Daraufhin beginnt etwa ab 1310 die Ausstattung von Kirchen, Rathäusern, Klöstern und Türmen mit großen Räderuhren und Schlagwerken. Doch man musste immer wieder mit der Sonnenuhr die Zeit überprüfen und die Uhren neu stellen, denn die Ganggenauigkeit betrug so 1 Stunde pro Tag.

Christiaan Huygens erforscht die Pendelbewegungen (unabhängig von Galilei zum zweiten Mal) und erfindet die Pendeluhr, die er 1657 zum Patent anmeldet. (franz. Patentamt?) . Solche Uhren waren, bzw. sind so genau, dass sie nur wenige Minuten pro Tag abweichen! Aber nur unter der Voraussetzung, dass die Uhr an einem Ort stehenblieb.

Huygens konstruiert aus Spiralfeder und Unruh ein Schwingungssystem für eine Taschenuhr, wofür er 1675 ein französiches Patent erhält. Prioritätsstreit mit R. Hooke (Elastizitätsgesetz). Die neuen Uhren mit Spiralfeder und Unruh haben eine deutlich bessere Ganggenauigkeit, als die bisher üblichen Taschenuhren. Deshalb wird jetzt der Minutenzeiger eine ständige Einrichtung bei den moderen Uhren (früher liess man ihn oft weg, u.a. wegen der Ungenauigkeit).

Gegen 1680 Die erreichte Präzision und die Genauigkeit der Pendeluhren führen zum allgemeinen Einsatz des Minutenzeigers im Zentrum des Zifferblattes (“koaxial”). Minutenzeiger waren bis dato eher ein optionales Beiwerk.

Das von John Harrison (1693-1776) gebaute Chronometer H.4 wird 1761 auf einer Reise der HMS Deptfort nach Jamaica getestet. Auf der zwei Monate langen Reise verliert der “Time Keeper” nur 5 Sekunden. Das entspricht einer Abweichung von 1,25′ in der Bestimmung der geographischen Länge; d.h. 2,2 km. Harrison erfüllte damit die Bedingungen des Board of Longitude Acts von 1714, mit dem ein Preisgeld von 20000 Pfund ausgesetzt wurde für eine Abweichung kleiner 30 Meilen.

Navigation

Der Navigator auf See konnte seine geografische Breite sehr gut mit dem Sextanten bestimmen (z.B. Höhe der Mittagssonne). Zur Ermittlung der geografischen Länge muss man z.B. die Zeit des Meridiandurchgangs (etwa der Sonne) bestimmen, wozu man aber die Zeit ersteinmal genau genug kennen musste. Eine Zeitungenauigkeit von 4 Sekunden bedeut eine um 1,8 km (eine Seemeile) verfälschte Positionsbestimmung (am Äquator).

1598 König Philipp II. von Spanien setzte einen Preis für eine Methode zur Bestimmung der geografischen Länge aus (Williams, 1992:78).

1674 Setzte König Charles II von England eine Kommission ein, die das Problem der Längenbestimmung lösen sollte. Mit dieser Aufgabe wurde dann das 1675 gegründete Royal Greenwich Observatory beauftragt.

22.10.1707 Die halbe englische Flotte geht bei den Scilly Inseln (westlich von Cornwall) verloren. Admiral Sir Clowdisley Shovel und seine Navigatoren hatten auf dem Rückweg von siegreichen Schlachten die Position der Flotte (wegen ungenauer Schiffsuhren???) so falsch ermittelt, dass es zur Katastrophe kam, bei der 2000 Seeleute ums Leben kamen. Geschockt von diesem Unglück befasste sich das House of Commons mit der Thematik.

08.07.1714 Aufgrund einer Empfehlung des House of Commons unterschreibt Queen Anne einen Act, der für die Entwicklung genauerer Methoden für die praktische Längenbestimmung auf See einen Preis aussetzte: Auf einer sechswöchigen Reise nach Westindien (Karibik) für eine Längenabweichung bis 60 Meilen: 10000 Pfund, bis 40 Meilen: 15000 Pfund und bis 30 Meilen: 20000 Pfund. Das dafür ins Leben gerufene Board of Longitude sollte eingehende Vorschläge prüfen und über die Vergabe des Preis entscheiden (Quill, 1966:7).

Wesentliche Ursachen für Gangungenauigkeiten der damaligen Uhren mit Feder/Unruh: Zu empfindlich gegenüber äußeren Erschütterungen und Temperaturschwankungen…

1759 Konstruierte John Harrison (1693-1776) das H.4 genannte Schiffs-Chronometer, welches 1761 diese Prüfung erfolgreich bestand: Auf einer zweimonatigen Reise von England nach Jamaica mit der HMS Deptfort ging die H.4 nur 5 Sekunden falsch, was einer Längenabweichung von weniger als 2 Meilen entsprach. Auf der geografischen Breite von Jamaica (18 Grad Nord) entsprechen 5 Sekunden genau 2,2 km. (H.4 Durchmesser: 5 1/4 Zoll, Technologie “Remontoire”). Den Preis erhielt Harrison erst 11 Jahre später auf Grund einer Intervention von König George III nachdem sich dieser von den Erfolgen des Nachfolgemodells H.5 (1772) persönlich überzeugt hatte.

Kapitän James Cook konnte auf seiner ersten Reise (1768-1771 HMS Endeavour, Venusdurchgang Tahiti 3.6.1769) den H.4 noch nicht mitnehmen.

Auf seiner zweiten Reise (1772-1775 HMS Resolution) verwendete Cook den H.4 Chronometer und konnte so die genaue Kartierung des südlichen Indischen Ozeans (der sich zwischen 40 und 60 Grad Süd einfach als leer erwies), Australiens, Neuseelands und fast aller Gebiete des Pazifiks durchführen.

Dritte Reise von Cook (1776-1779) (Namen der Schiffe?? H.4 an Bord??). Tod auf Hawaii.

Das Ergebnis der letzten beiden Reisen von Cook mit dem H.4 war: Umfassende und genaue Kartografierung der Welt. Es gab keine unbekanten Gegenden mehr. Die seit Jahrhunderten erhoffte Terra Australis Incognita gab es nicht. Das Zeitalter der Entdeckungen war beendet. Als letzte Herausforderungen blieben noch die Arktis/Antartis und der Weltraum…

Schiffs-Chronometer waren anfangs ziemlich teuer und fanden deshalb zunächst keine große Verbreitung. Später konnten Zeitsignale der Greenwich Mean Time (GMT) per Radiowellen gesendet werden und so auch die Zeitabweichungen billigerer Uhren korrigiert werden. Die Erfindung der Quarz-Uhr machte dann auch das Radio-Zeitzeichen überflüssig. Schießlich wurde durch die Einführung von GPS und die Verfügbarkeit kleiner und erschwinglicher GPS-Empfänger die Navigation zu einem Kinderspiel…

Zeitmessung und Kalender

Babylonische Zeiteinheiten

Die Babylonier sollen den Tag in 24 Stunden zu ja 60 Minuten eingeteilt haben….

 

Sommerzeit in Deutschland

Erstmals wurde die Sommerzeit in Deuschland am 01.05.1916 eingeführt. Sie galt in Deutschland:

  • 1916 – 1918
  • 1942 – 1949
  • 1980 – heute (Vorgeschieben für die ganze EU)

 

Zeitzonen

Es war üblich, dass jeder Ort die seiner geografischen Länge entsprechende Ortszeit benutzte. Der Uhrmeister der Kirchturmuhr bestimmte die Ortszeit. Bei Reisen von Ort zu Ort musste man am Ankunftsort seine Taschenuhr auf die neue Zeit einstellen. Durch die Verbreitung der Eisenbahn entwickelte sich aus diesem Zeitsystem schnell ein Chaos.

Die Eisenbahngesellschaft Great Western Railway (London-Bristol) führte im November 1840 die Londoner Zeit für alle Fahrplähne und Bahnhöfe ein. Die “railway time” wird damit Vorläufer der Greenwich Mean Time.

Anschläge in Londoner Bahnhöfen: “London Time is kept at all the stations on the Railway, which is four minutes earlier than Reading time; 7 1/2 minutes before Chippenham time; 11 minutes before Bath and Bristol time; and 18 minutes before Exeter time.”

Öffentliche Uhren wurden nun mit zwei Minutenzeigern versehen: “railway time” (in schwarz) und “local time” (in rot). Als Relikt aus dieser Zeit trägt noch heute die grosse Uhr über der Old Corn Exchange in Bristol diese zwei Minutenzeiger.

Für das tägliche Leben im Eisenbahnzeitalter wird nun die Bahnhofsuhr (z.B. Paddington Clock, Foto oben) wichtiger als die Kirchturmuhr.

Beispielsweise galt in Bayern die Münchener Ortszeit und in Berlin die Berliner Ortszeit. Da Berlin knapp 2° östlicher als München liegt, gingen dort die Uhren 7 Minuten vor gegenüber den Uhren in München.

1878 machte der Canadische Eisenbahn-Ingenieur Sandford Fleming (1827-1915) den Vorschlag, statt der bis dahin üblichen vielen verschiedenen Zeiten für Städte und Länder, ein weltweites System mit nur 24 Zeitzonen einzuführen. Alle 15 Grad geografischer Länge sollte eine neue Zeitzone beginnen mit einer um 1 Stunde anderen Uhrzeit (15 Grad = 360 Grad / 24). Die Eisenbahngesellschaften in Amerika führten das Flemingsche System der Zeitzonen am 18.11.1883 ein. Am 1. November 1884 wurde von der Internationalen Meridiankonferenz in Washington D.C. beschlossen, dieses System weltweit einzuführen (World Time Convention). Der Meridian von Greenwich wird als “Nullmeridian” festgelegt. Auf den “gegenüberliegenden” Seite der Erde befindet sich die Datumsgrenze.
Quellen: http://www.crooksville.k12.oh.us/5thgrade/timezone.html http://www.nationmaster.com/encyclopedia/Sandford-Fleming

Seit dem 01.04.1893 gilt für Deutschland, dass genau am 15. Längengrad Ost gelegene Görlitz als Maßstab der Mitteleuropäischen Zeit (MEZ). So beschlossen es die Gesetzgeber am 12. März 1893. Die Eisenbahn benutzte schon ab dem 30.07.1890 die MEZ.

  • Großbritannien: Seit 01.01.1880 GMT
  • Belgien: Seit 01.05.1891 GMT
  • Dänemark: Seit 01.01.1894 MEZ

http://www.themamundi.de/aws/tabel/tbzone.htm http://www.willi-stengel.de/page5.htm http://www.uhrzeit.org/technik.html http://www.surveyor.in-berlin.de/himmel/himmel.04.11.html#gmt

Einführung der Universal Time “UT”

1926 wird die GMT durch die UT abgelöst. Die UT wird vermittels einer festgelegten Formel aus der Sternzeit berechnet. Die Sternzeit wird durch astronomische Beobachtungen ermittelt. Die Sekunde als der 86400. Teil eines Tages ist wegen der Schwankungen der Tageslänge auch eine entsprechend leicht schwankende Zeiteinheit.

 

Atomzeit

Am 06.12.1946 stellt der amerikanische Physiker Willard F. Libby seine Atomuhr öffentlich vor. Seine Erfindung, die eine sehr genaue Zeitbestimmung möglich macht, weil sie in 300.000 Jahren weniger als eine Sekunde nachgeht, zählt die eigenen Schwingungen des Cäsium Atoms.

Zur Weiterentwicklung des Metrischen Systems wurde die Generalkonferenz für Maße und Gewichte (Conférence Générale des Poids et Mésures, CGPM) geschaffen. Die 11. CGPM beschloß 1960, daß das SI (Internationales Einheitensystem, Systéme International d’Unités) als Einheitensystem für die Mitgliedsstaaten der Meterkonvention angenommen werden soll. Das SI ist inzwischen in über 100 Staaten verbindlich eingeführt. In Deutschland wurde das SI mit Wirkung vom 1.1.1978 im amtlichen und geschäftlichen Verkehr obligatorisch.

Im Oktober 1967 erfolgte die Neudefinition der Sekunde durch die 13. Generalkonferenz für Maß und Gewicht (CGPM) in Paris. Die “SI-Sekunde” wird nun durch die Schwingungen des in der Atomuhr (Libby 1946) verwendeten Caesiums definiert:
“Die Sekunde ist das 9 192 631 770fache der Periodendauer der dem Übergang zwischen den beiden Hyperfeinstrukturniveaus des Grundzustandes von Atomen des Nuklids 133Cs entsprechenden Strahlung.”
(Gleichzeitig wurde die Maßeinheit Kelvin für die Temperatur beschlossen.)

Die 14. CGPM beschiesst 1971 parallel zur Universal Time (UT1) von 1926, die Atomzeit (TAI) auf Basis der SI-Sekunde (“Atom-Sekunde”) einzuführen.

Auf der 17. CGPM 1983 wird das Meter neudefiniert auf der Basis der SI-Sekunde und der Lichtgeschwindigkeit…

PTB Physikalisch Technische Bundesanstalt

1969 nimmt die Physikalisch Technische Bundesanstalt “PTB” in Braunschweig die erste Atomuhr CS1 (Caesium-Eins) in Betrieb.

Am 01.01.1972 beschiesst die CCIR, die Universal Time UT durch die Universal Time Controlled UTC abzugelösen. 1975 schiesst sich auch die 15. CGPM dem an (Quelle: Bureau International des Poids et Mesures).

UTC verwendet als Sekundenlänge nicht mehr den 86400. Teil eines Tages (so die UT-Definition von 1926), sondern die SI-Sekundenlänge (“Atomsekunde”). Damit die Abweichung zwischen UT (genauer UT1) und UTC immer kleiner als 0,9 s bleibt, wurde die UTC bereits um 10 Sekunden versetzt gegenüber der Atomzeit (TAI) gestartet. Danach werden bei Bedarf Schaltsekunden in die UTC ein- oder ausgefügt (bisher 22 Sekunden). Damit differieren UTC und Atomzeit (TAI) bis Mitte 2003 bereits um 32 Sekunden.

Zum Ausgleich der gravitativen Zeitdilatation wird an den Gängen der primären Atomuhren, die in der Höhe h über dem Geoid aufgestellt sind, eine Korrektion von -1,09·10-16·(h/m) angebracht. Für die Atomuhren der PTB beispielsweise, die auf einer Höhe von h = 75 m über dem mittleren Meeresspiegel aufgestellt sind, beträgt die entsprechende relative Korrektur -8,2·10-15. Damit wird also berücksichtigt, dass die in der Atomuhrenhalle der PTB realisierten Sekundenintervalle um 8,2·10-15 s kürzer sind als bei einer auf dem Geoid aufgestellten Uhr.

GPS Global Positioning System

Das Global Positioning System GPS besteht aus einem Netz von Erdsatelliten in ca. 12-stündigen Umlaufbahnen. Jeder Satellit hat eine Atomuhr an Bord.

1978 Start des ersten Satelliten für den Aufbau des GPS.

Gerade das GPS-System liefert heute ein Argument dafür, die Schaltsekunden aufzugeben und die reine Atomzeit (TAI) als Weltzeit zu definieren: Bei der notwendigen sorgfältigen Synchronisation der GPS-Satelliten wurden die Schaltsekunden nicht berücksichtigt. Seit Einführung von GPS im Jahr 1980 hat sich die Differenz zwischen der internen GPS-Zeit und der offiziellen Weltzeit UTC auf 13 Sekunden aufsummiert. Eine versehentliche Verwechslung der Zeiten, etwa bei der Navigation von Flugzeugen, könnte zu Katastrophen führen.

Die ersten Eisenbahnlinien

27.09.1825 Stockton – Darlington 9 Meilen. George Stephenson “Locomotion”
15.09.1830 Liverpool – Newton – Manchester 31 Meilen. George Stephenson.
07.12.1835 Nürnberg – Fürth 5 km, Lokomotive Adler, Ingenieur …
1836-1838 London – Deptfort – Greenwich
04.07.1837 Newton Junction – Birmingham 82 Meilen, Grand Junction Railway
17.09.1838 London (Euston St.) – Birmingham
29.10.1838 Berlin – Zehlendorf – Potsdam 26 km, 07.08.1846 bis Magdeburg
07.04.1839 Leipzig – Dresden Johann Andreas Schubert funktionsfähige erste Dampflokomotive Deutschlands
30.03.1840 London (Paddington) – Reading Great Western Rayway (GWR), Chief Engineer Brunel
30.06.1841 London (Paddington) – Reading – Bath – Bristol 118 Meilen, Great Western Rayway (GWR), Chief Engineer Brunel
1849 Saar – Rhein (Ludwigshafen)

Quellen

  • Quill, H. 1966 John Harrison. The Man Who Found Longitude. John Baker Publishers. London.
  • Williams, J.E.D. 1992 From Sails to Satellites. The Origin and Development of Navigational Science. Oxford University Press. Oxford.
  • Jonathan Medwin: The Discovery of Longitude: An Historical Account of Maritime Navigational Practice and the subsequent invention of the Chronometer http://rubens.anu.edu.au/student.projects97/naval/
  • Bureau International des Poids et Mesures: Beschlüsse der CGPM
  • PTB: Die Geschichte der Zeiteinheit – Definition der Sekunde

Weiterführende Links


Stoffsammlung

Erst wurden nur in Klöstern die mechanischen Räderuhren verwendet. Ihre großen Gewichte dienten nicht nur zum Antrieb, sondern sie dienten auch dazu, die Mechanik des Stundenschalges anzutreiben!

Die von den Babyloniern erfundene Wasseruhr wurde von den Ägyptern übernommen und später von den Griechen und den Römern immer mehr verbessert. Die Griechen benutzen ihre verfeinerten Wasseruhren im täglichen Gebrauch. Diese Uhren waren genauer, doch auf Reisen waren sie einfach nicht zu gebrauchen.

Die Babylonier gaben dem Tag seine 24 Stunden zu 60 Minuten. Bei den Ägyptern wie bei den Römern hatte der Tag 12 Stunden, genauso wie die Nacht. Doch im Sommer waren die Tage länger und die Nächte kürzer. Umgekehrt im Winter: Die Tagstunden waren kürzer, während die Nachtstunden länger waren. Stunde war also eine ziemlich variable Einheit.

One of the scientific instruments that the conquering Europeans were eventually to develop as a direct result of their conquests and exposure to new learning was the Sea Astrolabe. Developed about 1470 the Sea Astrolabe was based on the design of the much earlier planispheric astrolabe, which had its origins with the Greek philosophers and astronomers immediately prior to the European conquest which had ended the Dark Ages. The Sea Astrolabe was used to plot the attitude of the sun near the meridian. It came into use on ships – the Spanish Armada (1588) carried it (Turner, 1980:31).

By 1726 James and John Harrison had manufactured two clocks which lost no more than one second a month. This was a remarkable achievement and advanced far beyond any existing technologies of the day (Quill, 1966:8).


Physik: Richard Feynman Pfadintegral

Keyphrase: Richard Feynman

Gehört zu: Quantenphysik
Siehe auch: Schrödinger-Gleichung, Teilchenphysik, Integralrechnung

Stand: 04.09.2024

Richard Feynman (1918-1988) war Professor für Theoretische Physik an den Universitäten Cornell, Caltech u.a.

Photo from CalTech archives

Feynman gilt als einer der großen Physiker des 20. Jahrhunderts, der wesentliche Beiträge zum Verständnis der Quantenfeldtheorien geliefert hat. 1965 erhielt er den Nobelpreis zusammen mit Shin’ichirō Tomonaga und Julian Schwinger.
Besonders bekannt geworden ist Feynman durch:

Photo from CalTech archives

Das Pfadintegral nach Richard Feynman

Das auf Feynman zurückgehende “Pfadintegral” ist nicht ein Integral entlang eines Pfades von A nach B, sondern ein Integral über alle möglichen Pfade von A nach B.

Das Integral entlang eines Pfades heisst “Kurvenintegral”; dabei muss der Pfad (=die Kurve) parametrisiert werden.

Feynman-Diagramme

Der Witz am “Standardmodell der Elementarteilchenphysik” ist, dass neben der Aufzählung und Klassifikation der Elementarteilchen auch die Wechselwirkungen zwischen ihnen beschrieben werden. Um diese Wechselwirkungen zwischen Elementarteilen zu beschreiben, erfand Richard Feynman eine spezielle Art von Diagrammen, die nach ihm benannt wurden.

Richard Feynman: Seine berühmten Vorlesungen

Berühmt geworden sind die Vorlesungen von Richard Feynman, die man heute noch in Youtube findet.

Search Engine Optimization

We need some more text in this blog article. Otherwise this article will be rated as a “not good”  SEO score. The text length should be 300 words. No problem, we can add words with absolutely no meaning ad libidum. Noch mehr Wörter sind gefordert.

We need some more text in this blog article. Otherwise this article will be rated as “not good” SEO score. The text length should be 300 words. No problem, we can add words with absolutely no meaning ad libidum. Noch mehr Wörter sind gefordert.

Noch mehr Blah-Blah-Text kommt sofort:

We need some more text in this blog article. Otherwise this article will be rated as “not good” SEO score. The text length should be 300 words. No problem, we can add words with absolutely no meaning ad libidum. Noch mehr Wörter sind gefordert.

We need some more text in this blog article. Otherwise this article will be rated as “not good” SEO score. The text length should be 300 words. No problem, we can add words with absolutely no meaning ad libidum. Noch mehr Wörter sind gefordert.

Und noch ein bisschen Text, damit wir die 300 Wörter erreichen.

Mathematik: Variationsrechnung – Calculus of Variation

Gehört zu: Mathematik
Siehe auch: Integralrechnung, Metrik, Lagrange-Formalismus, Pfad-Integral

Stand: 05.06.2024

YouTube: Dr. Juan Klopper

Idee der Variationsrechnung

Mit Hilfe der Variationsrechnung versucht man Minima zu finden.

Beispiele:

  • Der kürzeste Weg zwischen zwei Punkten
  • Die kürzeste Zeit einer Bewegung (Fermat’sches Prinzip)
  • Die kleinste Oberfläche eines Volumens
  • Die kleinste “Wirkung” in einem physikalischen System (s.u.)

Im Gegensatz zur Schul-Mathematik suchen wir jetzt nicht einen Punkt, bei dem eine Funktion ein Minimum hat, sondern einen Pfad (also eine Funktion) bei der ein “Funktional” (Funktion von Funktionen) ein Minimum hat.

Die Euler-Lagrange-Gleichung

Wir haben eine Funktion entlang eines Pfades. Wobei so ein Pfad definiert sei durch eine Funktion y = y(x) zwischen den Stellen x1 und x2. Wir können eine Funktion F entlang eines Pfades “aufsummieren” d.h. integrieren. Wir suchen nun zu einer gegebenen Funktion F  denjenigen Pfad, bei dem dieser Integralwert ein Mininimum wird.

\( S = \int\limits_{x_1}^{x_2} F(x, y, y^\prime) \, dx = Minimum \\\)

Um das Minimum dieses Integralwertes über alle Pfade zu finden, “differenziert” man S nach dem Pfad und schreibt δS=0; d.h. eine infinitesimal kleine Änderung im Pfad soll nur eine infinitesimal kleine Änderung in S bewirken. Man nennt einen solchen Pfad auch “stationär”.

Leonard Euler (1707-1783) entwickelte dazu die “Variationsrechnung”. Sein Trick war, “kleine Änderungen” eines Pfades mathematisch zu beschreiben und einen Methode zu finden, danach zu differenzieren.

Nach längerem Rechnen (auch mit Integration by Parts) bekommt man als Lösung der Minimum-Aufgabe die berühmte Euler-Lagrange-Gleichung,

\(\Large \frac{\partial F}{\partial y} – \frac{d}{dx}(\frac{\partial F}{\partial y^\prime}) = 0 \\\)

Beispiel

Mal ein ganz einfaches Beispiel: Der kürzeste Weg zwischen zwei Punkten P1 =(x1, y1) und P2 =(x2,y2):

\( S = \Large\int\limits_{P_1}^{P_2} ds = \int\limits_{x_1}^{x_2} \sqrt{1 + (\frac{dy}{dx})^2 }\, dx  = Minimum\\ \)

Wir haben in diesem Fall also:

\( F(x, y, y^\prime) = \Large\sqrt{1 + {y^\prime}^2 } \\\)

Wir wollen auf diese Funktion F die obenstehende Euler-Lagrage-Gleichung anwenden und bestimmen dazu zunächst die einzelnen Terme:

\( \frac{\partial F}{\partial y} = 0 \\ \)

und:

\( \frac{\partial F}{\partial y^\prime} = \frac{1}{2}  ( 1 +{ y^\prime}^2) ^{-\frac{1}{2}}\cdot 2 y^\prime = \frac{y^\prime}{\sqrt{1 + {y^\prime}^2}}\\ \)

Wenn wir diese beiden Terme in die Euler-Lagrange-Gleichung einsetzen, erhalten wir schließlich:

\( \frac{d}{dx}(\frac{\partial F}{\partial y^\prime}) =  \frac{d}{dx}(\frac{y^\prime}{\sqrt{1 + {y^\prime}^2}}) = 0\\\)

Wann ist eine Ableitung einer Funktion gleich Null? Wenn die Funktion eine Konstante (c)  ist. Also ist:

\( \frac{y^\prime}{\sqrt{1 + {y^\prime}^2}} = c \\\)

Wenn wir dann diese Gleichung quadrieren und ein wenig umstellen erhalten wir:

\( (y^\prime)^2 = const. \\ \)

Damit ist auch y’ konstant und alle Lösungen dieser Differentialgleichung sind:

\( y = a x + b \\ \)

Also haben wir gerade Linien als Minimum des Abstands.

Somit  haben wir für einen ersten sehr simplen Fall die Richtigkeit der Euler-Langrange-Gleichung gezeigt.

Prinzip der kleinsten Wirkung

Wenn F = Ekin – Epot, nennt man das Integral, warum auch immer, “Wirkung” (engl. action) entlang des Pfades.

\( S = \int\limits_{x_1}^{x_2} (E_{kin}(x, y, y^\prime) – E_{pot}(x, y, y^\prime)) \, dx = Minimum \\\)

Daraus ergibt sich die sog. Lagrange Mechanik.

Genaugenommen müsste der Pfad dann noch mit der Zeit t parametrisiert werden…

Mathematik: Integralrechnung

Gehört zu: Mathematik

Siehe auch: Kurven, Metrik, Pfadintegral

Stand: 30.05.2024

Die Integralrechnung bildet zusammen mit der Differentialrechnung, das was die Engländer und Amerikaner “Calculus” nennen. Bei uns sagt man eher “Infinitesimalrechnung”. Erfunden haben sollen das Newton und Leibnitz unabhängig von einander.

Die Grundlagen haben wir in der Schul-Mathematik gelernt.

Allgemeines

Es gibt ein bestimmtes Integral und ein unbestimmtes Integral.

Das unbestimmte Integral einer Funktion ist einfach die Umkehroperation zum Differenzieren. Man sucht eine sog. Stammfunktion, die differenziert die ursprüngliche Funktion ergibt. Zur Stammfunktion kommt dann immer eine beliebige Integrationskonstante dazu.

Das bestimmte Integral geht von einer Untergrenze zu einer Obergrenze. Da hebt sich eine Integrationskonstante immer weg. Man verbildlicht sich das gerne als Fläche unter einer Kurve.

Wichtige Regeln

Das Integrieren einer Funktion ist im allgemeinen schwieriger als Differenzieren, weil man ja eine Stammfunktion sucht, die…

Neben den vielen einfachen Regeln in der Integralrechnung gibt es eine, die ich aus der Schule so nicht wirklich kannte: “Integration by Parts“.

Integration by Parts (Partielle Integration)

Wenn man ein Integral lösen will, was trotz der üblichen Bemühungen (z.B. algebraisch Vereinfachen, Substituieren,…) widerspenstig ist, hilft es manchmal es so umzuschreiben, dass dann die Lösung klappt.

\( \Large \int u \, dv = u \cdot v \, \, – \int v \, du \)

Wir bekommen statt eines “unschönen” Integrals nun ein anderes Integral; das würde Sinn machen, wenn das neue Integral einfacher zu lösen wäre.

Man muss dazu geschickt wählen, was u sein soll und was dv sein soll.

Beispiel:

\( \Large \int x \cdot e^x \, dx = ? \)

Wir versuchen es mit:  \( u = x \). Dann muss  \( dv = e^x \, dx \) sein.

Um die Formel anzuwenden, brauchen wir dazu du und v.

\(du\) bekommen wir durch Differenzieren von \( u \): \( du = dx \)

\(v\) bekommen wir durch Integrieren von \( dv \): \( v = e^x \)

Das setzen wir nun in die Formel ein:

\(\Large \int x \cdot e^x \, dx = x \cdot e^x  – \int e^x \, dx\\\)

Das neue Integral können wir leicht lösen und bekommen also:

\(\Large \int x \cdot e^x \, dx = x \cdot e^x  –  e^x + c\)

Tipps zur “Integration by Parts”

Man kann einen “schwierigen” Integranden ja verschieden in Faktoren (u und dv) aufbrechen.

Wenn ein Versuch nicht zum Ziel führt, kann man einen neuen Versuch machen etc.

Generell sagt man, dass man denjenigen Faktor als “u” wählen sollte, der beim Differenzieren einfacher wird wobei der andere Faktor “dv” dann beim Integrieren keine Schwierigkeiten machen sollte.

Physik: Quantenmechanik nach Susskind

Gehört zu: Physik
Siehe auch: Quantenmechanik, Die Bra-Ket-Notation, Wellenfunktion, Komplexe Zahlen

Stand: 17.03.2024

Quantenmechanik nach Susskind

Bei Youtube bin ich auf die Vorlesungen von Prof. Susskind an der Stanfort University gestossen (“continued education”).

Professor Susskind beschreibt die für die Quantenmechanik erforderliche Mathematik einfach und anschaulich, was nicht immer ganz genau der reinen Mathematik entspricht. Deswegen kann ich es gut verstehen.

Zunächst betrachten wir klassische Physikalische Systeme, danach gehen wir Zug um Zug in die Welt der Quantenphysik. Der Trick dabei ist, schon die klassische Physik “gepixelt” zu sehen, was approximativ möglich sein sollte.

In der Quantenphysik werden wir es immer wieder mit Komplexen Zahlen zu tun haben. Auch der Begriff der komplex konjugierten wird hier eine große praktische Rolle spielen.

Ket-Vektor

Ein physikalisches System kann verschiedene diskrete Zustände annehmen (ggf. approximiert).

Z.B. Das Werfen  einer Münze: Kopf oder Zahl

Z.B. Ein Würfel: Eins, Zwei, Drei, Vier, Fünf oder Sechs

Z.B. Spin eines Elektrons: Up oder Down

So einen Zustand schreiben wir auf als sog. “Label” in sog. Ket-Schreibweise…

z.B.    |Kopf>   oder |Zahl>

z.B.   |Eins> oder |Zwei> oder…

z.B. |Up> oder |Down>

Wir können jeden Zustand (State) durch einen Spalten-Vektor repräsentieren.

\(  |Kopf> \space  —>   \left( \begin{array}{c} 1 \\\ 0   \end{array}\right)   \)

und

\(  |Zahl>  \space —>   \left( \begin{array}{c} 0\\\ 1   \end{array}\right)  \\  \)

Oder beim Würfel:

\(  |Eins> \space  —>   \left( \begin{array}{c} 1 \\\ 0  \\\ 0 \\\ 0 \\\ 0 \\\ 0  \end{array}\right)   \) und     \(  |Zwei> \space  —>   \left( \begin{array}{c} 0 \\\ 1  \\\ 0 \\\ 0 \\\ 0 \\\ 0  \end{array}\right)   \) und …

Man sagt auch |a> sei ein Vektor, obwohl der zugehörige Spaltenvektor “nur” eine Repräsentation von |a> ist. Manchmal identifizieren wir beides (aus Bequemlichkeit).

Die Menge der möglichen Zustände nennt man auch “Zustandsraum“. Beispielsweise:

\( S = \left\{ \left( \begin{array}{c} 1 \\\ 0   \end{array}\right) , \left( \begin{array}{c} 0\\\ 1   \end{array}\right)  \right\} \\ \)

Der Zustand eines physikalischen Systems könnte sich mit der Zeit ändern. Den Zustand zu einem bestimmten Zeitpunkt nennt man auch “Konfiguration“.

Später werden wir sehen, wie dieser Zustandsraum einen zu einem Vektorraum erweitert werden kann (der Vektorraum wird aufspannt).

Bra-Vektor

Zu jedem Ket-Vektor |a>  bilden wir einen sog. Bra-Vektor <a| auf folgende Weise:

Der Ket-Vektor sei:

\(  |a> \space  —>   \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right)  \\ \)

dann bilden wir den zugehörigen Bra-Vektor als Zeilenvektor folgendermaßen:

\(  <a| \space  —>   \left( \begin{array}{r} {a_1}^* &  {a_2}^*  &  {a_3}^* \end{array}\right)  \\ \)

Wir sagen, der Bra-Vektor sei das komplex konjugierte zum Ket-Vektor

Inneres Produkt

Das sog. “Innere Produkt” zweier Vektoren definieren wir nun einfach als:

\( <a|b> = \left( \begin{array}{r} {a_1}^* &  {a_2}^*  &  {a_3}^* \end{array}\right)  \cdot \left( \begin{array}{c} b_1 \\\ b_2  \\\ b_3 \end{array}\right) = {a_1}^*  b_1 + {a_2}^* b_2 + {a_3}^* b_3 \\ \)

Das Innere Produkt eines Vektors mit sich selbst ist dann immer eine reelle Zahl. Wir definieren als “Länge” oder auch “Norm” eines Vektors die positive Wurzel aus diesem Inneren Produkt.

Wenn das Innere Produkt zweier Vektoren Null ist, sagen wir sie seien “orthogonal”.

Observable

Observable nennt man Dinge, die man messen kann.

In einem bestimmten physikalischen Experiment wollen wir eine bestimme Größe messen und bekommen so zu jedem Zustand des Systems einen Messwert.

Eine bestimmte Observable M ordnet also jedem Zustand aus dem Zustandsraum S einen Messwert (reelle Zahl) zu. Mathematisch geschrieben:

\( M: S \to \mathbb{R} \)

Abstrakter Vektorraum

Die Ket-Vektoren |a> bilden einen (abstrakten) Vektorraum; d.h. es gelten bestimmte Regeln:

Regel 1: Jeder Vektor aus dem Vektorraum kann mit einem Skalar (komplexe Zahl) mutipliziert werden, wobei das Ergebnis wieder ein Vektor aus dem Vektorraum ist.

\( \lambda \space | a> = | a^\prime> \)

Regel 2: Zwei Vektoren aus dem Vektorraum kann ich addieren, wobei das Ergebnis wieder ein Vektor aus dem Vektorraum ist.

\(  | a >  +  | b >  =  | c > \)

Beispiele von Vektorräumen

Die Menge der Ket-Vektoren bilden einen Vektorraum, wobei wir als Einträge ganz allgemein Komplexe Zahlen zulassen und die Dimension des Vektorraums gleich der Anzahl verschiedener Zustände ist.

Die oben aufgeführten Regeln für Vektorräume gelten offenbar:

\( \lambda \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right) = \left( \begin{array}{c}\lambda  a_1 \\\ \lambda  a_2  \\\ \lambda a_3 \end{array}\right) \\\) \(   \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right) + \left( \begin{array}{c} b_1 \\\ b_2  \\\ b_3 \end{array}\right) = \left( \begin{array}{c} a_1 + b_1 \\\ a_2 + b_2 \\\ a_3 + b_3\end{array}\right)   \)

Linearkombinationen

Wir können jeden Ket-Vektor | a > als Linearkombination der Zustandsvektoren darstellen:

\( | a > = \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right) = a_1 \left( \begin{array}{c} 1 \\\ 0  \\\ 0 \end{array}\right) +  a_2 \left( \begin{array}{c} 0 \\\ 1  \\\ 0 \end{array}\right)  + a_3 \left( \begin{array}{c} 0 \\\ 0  \\\ 1 \end{array}\right)  \\\)

Damit spannen die Zustandsvektoren einen (abstrakten) Vektorraum auf, aber nicht jeder Vektor aus diesem Vektorraum beschreibt einen physikalischen Zustand – …

Quantenmechanisches Beispiel

Wenn ich den Spin eines quantenmechanischen Elektrons messe, bekomme ich bei jeder Messung einen von zwei Zuständen, die wir | up > und | down > nennen können.

Diese beiden Zustände repräsentieren wir durch zwei Spaltenvektoren im Vektorraum:

\(  | up > \space  —>   \left( \begin{array}{c} 1 \\\ 0   \end{array}\right)  \\ \) und

\(  | down >  \space —>   \left( \begin{array}{c} 0\\\ 1   \end{array}\right)  \\ \)

In der klassischen Physik würde niemand auf die Idee kommen, Linearkombinationen solcher zwei Zustände zu betrachten. In der Quantenpysik machen wir das aber.

Linearkombination dieser beiden Zustände wären also:

\( a_{up} \space | up > + a_{down} \space | down > \\\)

Die Koeffizienten können wir als Spaltenvektor schreiben:

\( a = \left( \begin{array}{c} a_{up} \\\ a_{down}  \end{array}\right) \\\)

Wobei die Beträge der Komponenten (Koeffizienten der Linearkombination)  interpretiert werden als die Wahrscheinlichkeiten der Zustände; also:

\( P_{up} = a_{up} {a_{up}}^* \\\) und

\( P_{down} = a_{down} {a_{down}}^* \\\)

Wobei natürlich die Summe der Wahrscheinlichkeiten 1 ergeben muss: \( P_{up} + P_{down} = 1 \)

Alle Linearkombinationen der Ket-Vektoren  | up > und | down >, die diese Bedingung (Summe der Wahrscheinlichkeiten = 1) erfüllen, werden in der Quantenmechanik als physikalisch mögliche Zustände angesehen. Wir können diese Bedingung auch schreiben als:

\( P_{up} + P_{down} = a_{up} {a_{up}}^* + a_{down} {a_{down}}^* = \left( \begin{array}{r} {a_{up}}^* &  {a_{down}}^*   \end{array}\right)  \cdot \left( \begin{array}{c} a_{up} \\\ a_{down}   \end{array}\right) = <a|a> = 1 \)

Die Bedingung ist also: “Länge = 1”; d.h. die quantenmechanisch möglichen Zustände des Elektronen-Spins liegen auf dem Einheitskreis.

Das Besondere in diesem Fall also, dass der Elektronenspin zwar gequantelt ist, also nur diskrete Werte (+1 und -1) annehmen kann, aber die Wahrscheinlichkeiten beim Messvorgang durchaus gebrochene Zahlen sein können.

Matrizen

Wir werden Matrizen brauchen. Wofür, sehen wir später.
Eine Matrix ist einfach eine quadratische Anordnung von Zahlen, beispielsweise:

\( M = \left( \begin{matrix} m_{11} & m_{12} & m_{13} \\ m_{21} & m_{22} & m_{23} \\ m_{31} & m_{32} & m_{33} \\ \end{matrix} \right) \\ \)

So eine Matrix M können wir anwenden auf einen Spaltenvektor v indem wir im Prinzip die inneren Produkte von Matrix-Zeilen mit dem Spaltenvektor bilden:

\( M v =  \left( \begin{matrix} m_{11} & m_{12} & m_{13} \\ m_{21} & m_{22} & m_{23} \\ m_{31} & m_{32} & m_{33} \\ \end{matrix} \right)  \left( \begin{array}{c} v_1 \\\ v_2  \\\ v_3 \end{array}\right) = \left( \begin{array}{c} m_{11} v_1  + m_{12} v_2  + m_{13} v_3 \\\ m_{21} v_1 + m_{22} v_2 + m_{23} v_3  \\\ m_{31} v_1 + m_{32} v_2 + m_{33} v_3\end{array}\right) \\ \)

Das Ergebnis ist wieder ein Spaltenvektor.

Wenn wir nun einen Zeilenvektor w und eine Matrix M nehmen, sieht das ganz analog aus:

\( w M  =  \left( \begin{array}{c} w_1 & w_2  & w_3 \end{array}\right) \left( \begin{matrix} m_{11} & m_{12} & m_{13} \\ m_{21} & m_{22} & m_{23} \\ m_{31} & m_{32} & m_{33} \\ \end{matrix} \right)  = \left( \begin{array}{c} w_1 m_{11}  + w_2 m_{21} + w_3 m_{31}  & w_1 m_{12}  + w_2 m_{22} + w_3 m_{32}  & w_1 m_{13} + w_2 m_{23} + w_3 m_{33} \end{array}\right) \\ \)

Das Ergebnis ist wieder ein Zeilenvektor.

Matrizen als Operatoren auf einem Vektorraum

Matrizen kann man auch “Operatoren” nennen. Sie können die Vekoren eines Vektorraums transformieren. Das allgemeine KOnzept heißt “Linearer Operator” oder auch “Lineare Transformation”. Wir identifizieren diese zur Vereinfachung.

Wir schauen uns mal ein paar Beispiele aus dem 2-dimensonalen reellen Vektorraum an.

Beispiel 1: Stretchen um einen Faktor 2

\( M v = \left( \begin{matrix} 2 & 0 \\ 0 & 2  \end{matrix} \right)  \left( \begin{array}{c} v_x \\\ v_y  \end{array}\right)  =   \left( \begin{array}{c} 2 v_x \\\  2 v_y  \end{array}\right)  \\ \)

Beispiel 2: Stretchen in Richtung der y-Achse

\( M v = \left( \begin{matrix} 1 & 0 \\ 0 & 2  \end{matrix} \right)  \left( \begin{array}{c} v_x \\\ v_y  \end{array}\right)  =   \left( \begin{array}{c} v_x \\\  2 v_y  \end{array}\right)  \\ \)

Beispiel 3: Rotieren um 90 Grad im Uhrzeigersinn

\( M v = \left( \begin{matrix} 0 & 1 \\ -1 & 0  \end{matrix} \right)  \left( \begin{array}{c} v_x \\\ v_y  \end{array}\right)  =   \left( \begin{array}{c} v_y \\\  -v_x  \end{array}\right)  \\ \)

Wir sehen also: Matrizen transformieren einen Vektorraum; aber nicht alle Transformationen sind Matrizen.

Hermitische Matrizen

Observable in der Quantenphysik werden durch hermitische Operatoren dargestellt. Wir schauen hier deswegen auf hermitische Matrizen.

Eine hermitische Matrix ist definiert durch: \( m_{ij} = {m_{ji}}^*   \)

Eine hermitische Matrix ist vom Konzept her so etwas wie eine reelle Transformation, aber nicht ganz genau: nur die Diagonalelemente der Matrix sind reell, die anderen Elemente werden beim Spiegeln an der Diagonale komplex konjugiert.

Die Namensgebung geht zurück auf den französischen Mathematiker Charles Hermite (1822-1901).

Hintergrund:

Zu einer Matrix \(M = (m_{ij}) \) definieren wir eine “Hermitsch konjugierte” Matrix und schreiben die mit einem “Dagger”;

\( \Large M^\dagger = (m_{ij}^*) \)

Wir nennen eine Matrix M “hermitisch”, wenn sie gleich ihrer hermitisch konjugierten ist, also wenn:

\( \Large M = M^\dagger \\ \)

Diese Eigenschaft ist so ähnlich wie \( z = z^* \) bedeutet, dass z eine reelle Zahl ist.

In der Quantenphysik werden wir es fast ausschließlich mit Hermitischen Matrizen (Hermitischen linearen Operatoren) zu tun haben.

Zusammenfassung Nr. 1 zur Quantenphysik

In der Quantenphysik geht es darum, Wahrscheinlichkeiten zu berechnen. Wahrscheinlichkeiten, dass eine Observable bei einem bestimmten Zustand des Systems einen bestimmten Wert (Messwert) annimmt.

Vektoren repräsentieren die Zustände.
Solche Zustandsvektoren bekommen eine irgendwie geartete Bezeichnung (“Label”); z.B. \( |hinz\rangle  \text{ und } |kunz\rangle \).
Auch die Linearkombinationen solcher Zustandsvektoren werden als Zustände bezeichnet.
Alle solchen Linearkombinationen, im Beispiel:  \( a |hinz\rangle + \enspace b |kunz\rangle \enspace mit\enspace  a, b \in C \), bilden einen Vektorraum, den sog, Zustandsraum

Hermitische Matrizen repräsentieren die Observablen.
Wie ich zu einer Observablen (also einer Messgröße) die Matrix finde, ist noch ein Geheimnis.
Später werden wir sehen, dass die Eigenwerte der Matrix die Werte sind, die die Observable annehmen kann; d.h. die wir messen können.

Erwartungswert einer Observablen

Nun entspricht also eine Hermitische Matrix M einer Observablen.

In einem bestimmten Zustand  | a > ist der Erwartungswert der Observablen M:

\( < a | M | a> = \text{Erwartungswert von M} \\ \)

Vergleiche dazu auch: Schroedinger

Eigenwert und Eigenvektor in der Quantenphysik

Wofür diese Konzepte gut sind, sehen wir hier in der Quantenphysik: Die Eigenwerte einer Hermitischen Matrix werden die möglichen Messwerte der Observablen sein.

Wir betrachten eine hermitische Matix M und fragen uns, ob es dazu einen Vektor |a>  gibt, der durch die Matrix M nicht in der Richtung, sondern nur in der Länge verändert wird. Die Längenveränderung  wäre dann ein Faktor, der vom Vektor |a> abhängt, weswegen wir in λa nennen.

\(  M|a> = \lambda_a | a > \\ \)

Wenn es so etwas zu der Matrix M gibt, nennen wir so ein  λa einen Eigenwert, und den Vektor |a> einen Eigenvektor der Matrix.

Der Witz in der Quantenmechanik ist, dass die Eigenwerte einer hermitische Matrix M die möglichen Messwerte der Observablen sind und der zugehörige Eigenvektor ist der Zusrand in dem die Wahrscheinlichkeit, diesen Wert zu messen 1 ist.

Wie man auf diese Matrizen kommt, die ja Observable repräsentieren sollen, ist noch völlig offen.

Wir schauen uns als Beispiele mal diagonale Matrizen an. Man sieht leicht, dass die Diagonalelemente die Eigenwerte sind und die Eigenvektoren die möglichen Einheitsvektoren aus lauter Nullen und einer Eins.

Beispiel Elektronenspin

Die Observable ist also der Spin eines Elektrons, der +1 oder -1 sein kann.

Als Matrix für diese Observable nehmen wir mal:

\( \sigma_3 = \left( \begin{matrix} 1 & 0  \\ 0 & -1  \\ \end{matrix} \right) \\ \)

Diese Matrix wird auch “Spinoperator” genannt und mit σ3 bezeichnet. Diese Matrix als Repräsentation der Observablen “Spin” fällt hier ersteinmal so vom Himmel. Wir können aber einfach nachweisen, dass es stimmt, den die Eigenwerte sind:
+1 zum Eigenvektor \( \left( \begin{array}{c} 1 \\\ 0   \end{array}\right)  = |up> \) und -1 zum Eigenvetor \( \left( \begin{array}{c} 0 \\\ 1   \end{array}\right)  =|down> \)

Genaugenommen steht σ3 für die Messung des Eletronenspins in z-Richtung (wieso das so ist kommt später).

In y-Richtung gemessen bekommen wir als Observable:

\(  \sigma_2 = \left( \begin{matrix} 0 & -i  \\ i & 0  \\ \end{matrix} \right) \\\)

In x-Richtung gemessen bekommen wir als Observable:

\( \sigma_1 = \left( \begin{matrix} 0 & 1  \\ 1 & 0  \\ \end{matrix} \right) \\ \)

Wir haben also 3 Spinoperatoren…

Wichtiger Satz über Eigenwerte (Lecture 3, t=59m)

Wenn es zu einer Observablen (hermitischen Matrix) M mehrere Eigenvektoren gibt:

\(  M | a > = \lambda_a  | a > \\ \)

und

\(  M | b > = \lambda_b  | b > \\ \)

und die Eigenwerte verschieden sind, dann sind die Eigenvektoren orthogonal; also <a|b> = 0.

Ein Eigenvektor |a> beschreibt ja einen Zustand, in dem die Wahrscheinlichket 1 ist, den Wert λa zu messen.

Wenn ich also zu einer Observablen zwei unterschiedliche Messwerte λa bzw. λb bekomme, gibt es dazu zwei orthogonale Zustandsvektoren |a> und |b>, in denen die Wahrscheinlichkeit 1 ist, die Messwerte λa bzw. λb zubekommen.

Ein Satz zu Wahrscheinlichkeiten (Lecture 3, t= 1h 14:30m)

Wir mögen ein System haben, das im Zustand |b> präpariert ist – z.B. ein Elektron haben mit dem Elektronenspin |b>

Nun betrachten wir eine Observable M mit einem Eigenwert λa zum Eigenvektor |a> .

Wenn wir in dem gegebenen Zustand |b> eine Messung mit M durchführen, können wir uns fragen, mit welcher Wahrscheinlichkeit P unser Messergebnis λa sein wird.
Prof. Susskind sagt:
\( P = \langle a|b \rangle {\langle a|b \rangle}^* \)

Quantenmechanik mit einem Elektronenspin (Lecture 4)

Wir stellen uns vor, wir hätten ein Elektron so präpariert, dass der Elektronenspin in Richtung des (räumlichen) Vektors n = (n1, n2, n3) zeigt.

Nun wollen wir den Elektronenspin dieses Elektrons entlang der Richtung m = (m1, m2, m3) messen. Das Ergebnis ist (natürlich) entweder +1 oder -1 (so merkwürdimg ist die Quantenwelt).

Dieses ganze Experiment (präparieren und dann messen) wiederholen wir sehr oft, um die Wahrscheinlichkeit P+ für das Messergebnis +1 bzw. die Wahrscheinlichkeit P für das Messergebnis -1  zu bestimmen.

Das können wir jetzt ja ganz einfach ausrechnen. Als Ergebnis (ohne Beweis)  erhalten wir, dass die Wahrscheinlichkeit nur vom (räumlichen) Winkel θ zwischen den beiden Vektoren abhängt. Der Cosinus dieses Winkels ist bekanntlich das Innere Produkt der beiden Richtungs-Vektoren:

\( \Large \cos{\theta} = \langle n, m \rangle \\ \)

Und die Wahrscheinlichkeit wird (ohne Beweis):

\( \Large P_+ = \frac{1 + \cos{\theta}}{2} \\ \)

Wichtger Zusatz: Kommutator (Lecture 4, t= 1h 54m)

Wenn wir eine Messung einer Observablen durchführen, verändern wir den Zustand des Quantensystems. (Detail: Es ändert sich der “Eigenzustand” auf einen Eigenvektor, der zu dem gemessenen Eigenwert gehört.)

Wir können also nicht zwei Messungen eines Anfangszustands machen, denn der Anfangzustand hat sich ja durch die erste Messung verändert. Das würde nur gehen, wenn die beiden Matrizen (=Observablen) die gleichen Eigenvektoren hätten.

Prof. Susskind sagt (ohne Beweis), dass zwei Matrizen A und B genau dann die gleichen Eigenvektoren haben (evtl. aber andere Eigenwerte) , wenn sie kommutieren; d.h. wenn AB = BA.
Man nennt AB – BA den Kommutator von A und B und schreibt auch:

\(  [A,B] = AB – BA \\\)

Ein System mit zwei Elektronen: Entanglement (Lecture 4, t= 1h 55m)

Zunächst machen wir mal eine kleine Tabelle, wie das mit einem Elektron war:

\( \begin{array}{l} \sigma_1 | up \rangle = | down \rangle \\ \sigma_1 | down \rangle = | up \rangle \\ \sigma_2 | up \rangle = i | down \rangle \\ \sigma_2 | down \rangle = -i | up \rangle \\ \sigma_3 | up \rangle =  | up \rangle \\ \sigma_3 | down \rangle = – | down \rangle \end{array} \\\)

Wenn wir nun zwei Elektronen betrachten, haben wir die vier möglichen  Zustände der beiden Elektronenspins, die wir als Ket-Vektoren aufschreiben:

| u u >

| u d >

| d u >

| d d >

Diese vier spannen mit ihrern Linearkombinationen einen vierdimensionalen komplexen Vektorraum auf:

\( a | u u > + b | u d > + c | d u > + d | d d > \\ \)

Physik: Elektrodynamik

Gehört zu: Physik

Stand: 16.02.2024

Elektrodynamik

Die klassische Elektrodynamik (auch Elektrizitätslehre) ist das Teilgebiet der Physik, das sich mit bewegten elektrischen Ladungen und mit zeitlich veränderlichen elektrischen und magnetischen Feldern beschäftigt. Die Elektrostatik als Spezialfall der Elektrodynamik beschäftigt sich mit ruhenden elektrischen Ladungen und ihren Feldern.

Die zugrundeliegende Grundkraft der Physik heißt elektromagnetische Wechselwirkung.

Die Theorie der klassischen Elektrodynamik wurde von James Clerk Maxwell (1831-1879) Mitte des 19. Jahrhunderts mithilfe der nach ihm benannten Maxwell-Gleichungen formuliert.

Älterer Blog-Artikel: Elektrisches Feld

Physik: Entropie

Gehört zu: Klassifikation
Siehe auch: Maschine Learning, Thermodynamik, Zustand
Benutzt: Latex-Plugin für WordPress, Fotos von Wikimedia

Stand: 26.01.2024

Was ist Entropie?

Der Begriff “Entropie” wird klassischerweise in der statistischen Thermodynamik verwendet.
Dieser Begriff wurde von Rudolf Clausius (1822-1888) in die Physik eingeführt.

Ludwig Boltzmann (1844-1906)  hat dann 1877 die berühmte Formel aufgestellt, die auch auf seinem Grabstein auf dem Wiener Zentralfriedhof steht:

\(  S = k \log_2{W} \\\)

Zur Beschreibung des Zustands eines physikalischen Systems wird eine physikalische Größe, die Entropie (Formelzeichen S) verwendet.   Wobei k die Boltzmann-Konstante und W eine Art “Wahrscheinlichkeit” für den Zustand sein soll…

Die Entropie wird auch gerne als Ausmaß von Unordnung der Teilchen eines Systems gesehen. Hohe Entropie wäre hohe Unordnung; niedrige Entropie wäre stärkere Ordnung der Teilchen.

Abbildung 1: Boltzmanns Grab (Wikimedia: Grab_von_Ludwig_Boltzmann_auf_dem_Wiener_Zentralfriedhof.JPG)

Klassifikationsalgorithmen

Beim “Machine Learning” ist es die allgemeine Aufgabe Muster in Datensätzen (Data Records) einer Datenmenge (Data Set – gerne falsch übersetzt mit “Datensatz”) zu finden.

Wenn wir ein Modell suchen, das Voraussagen zu einer Zielvariablen, einer Klassifikation, machen kann und wenn wir dazu ein Trainings-Datenmenge haben, sprechen wir von sog. “Supervised Learning“,

Ein Ansatz zur Klassifikation ist die wiederholte Aufteilung (rekursive Partitionierung).
Die “Güte” einer möglichen Aufteilung kann man durch den sog. Informationsgewinn, soll heissen Entropiedifferenz (nach der Aufteilung – vor der Aufteilung) bestimmen. So einen Klassifizierungsalgorithmus nennt man auch C5.

Zur Veranschaulichung nehmen wir mal ein ganz einfaches Beispiel. Eine Datenmenge soll eine binäre Klassifikation bekommen; z.B. Personen sind “kreditwürdig” oder “nicht kreditwürdig”.

Wir haben eine Trainings-Datenmenge in der Personen mit mehreren Attributen (“Features”) beschrieben sind; z.B. Jahreseinkommen, Alter, Name der Wohngemeinde, Einwohnerzahl der Wohngemeinde,…

Auch die Klassifikation auf der Trainings-Datenmenge ist bereits erfolgt. Wir haben da also schon ein Attribut Kreditwürdig Ja/Nein. Deshalb sprechen wir von “Supervised” Learning.

Diese gesamte Trainings-Datenmenge möchten wir anhand eines Entscheidungs-Kriteriums in zwei Teilmengen aufteilen, sodass die Summe der Entropien der Teilmengen kleiner ist als die Entropie der gesamten Trainings-Datenmenge.
So ein “Entscheidungs-Kriterium” wollen wir mithilfe der Datenattribute (den sog. Features) formulieren z.B. “Einwohnerzahl > 500”.

Zunächst haben wir also die Aufgabe, die Entropie (S) von Teilmengen der Trainings-Datenmenge zu bestimmen.

Quelle: https://rpubs.com/cyobero/C50

Die Formel lautet (nach Boltzmann s.o.)

\( S = \sum\limits_{i=1}^n {-p_i \cdot \log_2{p_i}} \\\)

Wobei n die Anzahl der Klassen in unserer Klassifizierung ist und pi die Anteil der Datensätze, die in die Klasse i fallen.

Wenn wir, wie im Beispiel, eine binäre Klassifikation haben, ist n=2 und p2 = 1- p1.

Wir betrachten im Beispiel einmal folgende Trainingsmenge:

Tabelle 1: Trainingsmenge

Feature 1 Feature 2 Klasse
Gehalt Alter Kreditwürdigkeit
48000 ./. ja
30000 ./. nein
52000 ./. ja
31000 ./. nein
53000 ./. ja
32000 ./. nein
54000 ./. ja
55000 ./. ja
49000 ./. ja
33000 ./. nein

Hier haben wir p1 =0.6 und p2=0.4

Woraus sich eine Entropie für die gesamte Trainings-Datenmenge ergibt von:

\( S = -0.6 \cdot \log_2{0.6} – 0.4 \cdot \log_2{0.4} = 0.970951  \)

Wir versuchen jetzt einmal eine Partitionierung anhand von Feature 1 und probieren ein Kriterium Gehalt>50000. Daduch erhalten wir zwei Teilmengen durch Gehalt>50000 und Gehalt≤50000.

Tabelle 2: Teilmenge 1

Feature 1 Feature 2 Klasse
Gehalt Alter Kreditwürdigkeit
52000 ./. ja
53000 ./. ja
54000 ./. ja
55000 ./. ja

Hier haben wir p1 = 1.0 und p2 = 0.0

Das ergibt eine Entropie S1 = 0.0

Tabelle 3: Teilmenge 2

Feature 1 Feature 2 Klasse
Gehalt Alter Kreditwürdigkeit
48000 ./. ja
30000 ./. nein
31000 ./. nein
32000 ./. nein
49000 ./. ja
33000 ./. nein

Hier haben wir p1 =0.3333 und p2 = 0.6667

Das ergibt eine Entropie S2 = 0.918296

Nun müssen wir die beiden “Teil-Entropien” addieren.
Dazu gewichten wir jede Teilmenge i mit dem Anteil der Datensätze, die in diese Teilmenge fallen wi.
Wir bekommen als Gewichte: w1=0.4 und w2= 0.6 und damit die Gesamtentropie nach erster Aufteilung bei Gehalt>50000:

\( S = w_1 \cdot S_1 + w_2 \cdot S_2 = 0.4 \cdot 0.0 + 0.6 \cdot 0.918296 = 0.5509776 \)

Durch die Aufteilung haben wir also Informationsgewinn (Differenz der Entropien) von:  0.970951 – 0.5509776 = 0,419973

Das ist schon einmal ganz gut, wir müssen nun noch prüfen, ob wir bei einer anderen Aufteilung im Feature “Gehalt” noch besser würden und ob eine Aufteilung nach einem andren Feature (z.B. “Alter”) ein noch größeren Informationsgewinn bringen würde.