Ein Phasenübergang findet statt, wenn Eigenschaften einer Materie sich plötzlich an einem kritischen Punkt (z.B. einer kritischen Temperatur) qualitativ ändern.
Das bedeutet normalerweiser ein Wechsel in Ordnung und Symmetrie.
Die bekannteste Beispiele dafür sind der Übergang von Eis (Aggrgatzustand fest) zu Wasser (Aggregatzustand flüssig) bei 0∘C und der Übergang von Wasser zu Dampf (Aggregatzustand Gas) bei 100∘C.
Bei einem Phasenübergang ändert sich die Energie (wird frei bzw. wird investiert); z.B. Verdampfungswärme, …
Wenn ein Potiential in einem Feld die Form einer Parabel z = a x2 + b hat, so haben wir eine klassische Bewegungsgleichung und die Lösung ist ein harmonischer Oszillator. Dieser Zustand ist rotationssymmetrisch um die z-Achse (was man U(1) nennt) und hat seine niedrigste Enegie bei x=0.
Wenn sich das Potentialgebirge dann verändert in Richtung eines sog. “Mexican Hat” (die Amerikaner kennen keinen Sombrero), dann sieht man zwei Gleichgewichtszustände wo sich ein Teilchen aufhalten könnte: Einmal der ursprüngliche Ort bei x=0, der aber nun nicht mehr der niedrigste ist, sondern die tiefer liegende Rinne in der Krempe des “Mexican Hat”. Das Teilchen wird also auf das niedrigere Niveau streben, aber der Zustand wäre dann nicht mehr rotationssymmetrisch (nicht mehr U(1)). Deshalb spricht man von einem Symmetriebruch.
Eine Umfrage zum persönlichen astronomischen Hintergrund: Umfrage.
Was ist ein Quantencomputer?
Ein Quantencomputer hat als Speicher keine “normalen” Bits, die also genau zwei Zustände (Null oder Eins) annehmen können, sondern sog. “Qubits”.
So ein Qubit ist ein quantenmechanisches Element, das durch eine Wellenfunktion Ψ beschrieben wird; wobei ein Qubit eine Superposition zweier Zustände |0> und |1> ist und alle Überlagerungen vorkommen können:
Das Qubit ist ein quantenmechanisches Element, wobei eine Observable ausgelesen werden kann, die genau zwei unterschiedliche Werte anzeigen wird.
Superposition und Verschränkung sind erforderliche Mechanismen; d.h. die Wellenfunktion darf nicht kollabieren.
Der Quantencomputer muss dann Operationen haben, die das Schreiben und Lesen von Qubits erlauben sowie eine Art “Berechnung”, die aus zwei Eingangs-Qubits ein oder mehrere Ergebnis-Qubits erzeugt (Rechenwerk). Dies macht man mit sog. Gattern.
Für das Funktionieren eines Quantencomputers ist wichtig, wie lange der Zustand der Qubits “kohärrent” bleibt. Durch jede Wechselwirkung mit anderen Teilchen kollabieren die Wellenfunktionen; d.h. der Zustand wird “inkohärent”. Diese sog. Kohärenzzeit muss lange genug dauern, um die erwünschte Rechenoperation und das Auslesen der Ergebnisse zu ermöglichen.
Technische Realisierung von Qubits
Ursprünglich hat man solche Qubits realisiert durch supraleitende Schaltkreise. Heutzutage spricht man über folgende prinzipielle Realisierungsmöglichkeiten:
Die die Anfänge der Wahrscheinlichkeitstheorie stammen wohl aus der Spieltheorie z.B. Würfelspiele etc.
In der klassische Definition hat man:
Eine Menge von Elementarereignissen Ω, die alle gleich wahrscheinlich sein sollen
Ein Zufallsexperiment bei dem ein Element x ∈ Ω gezogen wird.
Man definiert eine Teilmenge A ⊂ Ω.
Dann fragt man sich, mit welcher Wahrscheinlichkeit das gezogene Element in der Teilmenge A liegen wird.
Anzahl “günstige” Fälle / Anzahl aller möglichen Fälle
Als Formel:
\( P(A) = \Large\frac{|A|}{|Ω|} \\ \)
Das ist die sog. Laplace-Wahrscheinlichkeit.
Solange die Menge Ω endlich ist funktioniert das ja bestens.
Man nennt diese Sichtweise auch die “frequentistische”. Da geht es also um relative Häufigkeiten und wiederholbare Versuche, die langfristig sich der “wahren” Wahrscheinlichkeit annähern.
Axiomatische Wahrscheinlichkeitstheorie
Andrei Nikolajewitsch Kolmogorow (1903-1987) hat die Wahrscheinlichkeitsrechnung axiomatisch aufgebaut.
Sei Ω eine beliebige nicht leere Menge und P eine Funktion (Abbildung), die Teilmengen von Ω eine reelle Zahl zuordnet.
Eine Teilmenge von A ⊂ Ω nennen wir auch ein “Ereignis” und die zugeordnete Zahl P(A) die “Wahrscheinlichkeit” des Ereignisses A.
Für alle Ereignisse A ist P(A) ≥ 0
Die Wahrscheinlichkeit des sicheren Ereignisses Ω ist P(Ω) = 1
Wenn wir zwei Ereignisse A und B betrachten, die “unvereinbar” sind; soll heissen A ∩ B = Ø, dann gilt:
P(A ∪ B) = P(A) + P(B)
Problematisch wird das, wenn die Grundmenge Ω überabzählbar ist. Dann kann man nicht jeder Teilmenge A ⊂ Ω eine reelle Zahl P(A) zuordnen, so dass die obigen Axiome erfüllt sind. Der Definitionsbereich der Funktion P muss dann etwas “trickreicher” definiert werden, was man mit Hilfe der Maßtheorie hinbekommt (Stichwort: σ-Algebra).
Bedingte Wahrscheinlichkeit
Die Wahrscheinlichkeit für das Eintreten von A unter der Bedingung, dass das Eintreten von B bereits bekannt ist schreibt man als: P(A|B).
Aufgepasst: die Ereignisse A und B können zeitlich in beliebiger Reihenfolge eintreten. Ein Kausalzusammenhang ist erst recht nicht gemeint.
Wahrscheinlichkeit nach Thomas Bayes
Man nennt diese bisherigen Betrachtungen auch die “frequentistisch”. Da geht es also um relative Häufigkeiten und wiederholbare Versuche, die langfristig sich der “wahren” Wahrscheinlichkeit annähern.
Wir beginnen mal mit der “Bedingten Wahrscheinlichkeit” von oben. Man kann die Formel dafür auch anders schreiben:
\( P(A|B) = \Large \frac{P(B|A) P(A)}{P(B)} \)
Dieses wird auch genannt “Satz von Bayes“.
Wenn ein Ereignis nicht wiederholbar ist, versagt die frequentistisch Definition von Wahrscheinlichkeit.
Beispiele:
“Die Inflation wird im nächten Jahr mehr als 2% sein”
“Wie wahrscheinlich ist ein Wahlsieg des ehemaligen Präsidenten?”
“Wie hoch ist morgen die Regenwahrscheinlichkeit?”
Hier wird der Begriff “wahrscheinlich” umgangssprachlich verwendet – so in etwa in dem Sinne:
Wahrscheinlichkeit ist ein Maß für die Sicherheit der (persönlichen) Einschätzung eines Sachverhalts.
Wahrscheinlichkeiten in diesem Sinne werden auch vergleichend (“komperativ”) gebraucht: “Die Wahrscheinlichkeit für Regen morgen ist höher als für Regen übermorgen”.
Insofern könnte man eine so gemeinte Wahrscheinlichkeit auch sinnvoll durch eine Zahl zwischen Null und Eins ausdrücken. Man muss dieses o.g. “Maß” also irgendwie quantifizieren.
Für so eine Quantifizierung der Bayesschen Wahrscheinlichkeit gibt es zwei Ansätze.
Ansatz 1: de Finetti
Die Idee ist, dass man Gewissheit durch eine Art Wette quantifizieren kann.
Zu jedem Ereignis A, dem ich eine Wahrscheinlichkeitszahl zuordnen will mache ist ein Los, für das der Käufer einen “Gewinn” von 1 Euro von mir bekommt, wenn das Ereignis A eintrifft. Die Frage ist, zu welchem Preis ich so ein Los verkaufen würde. Dieser Preis, den ich festlege ist so etwas wie die von mir (subjektiv) eingeschätzte Sicherheit/Wahrscheinlichkeit mit der ich glaube, dass das Ereignis eintreten wird.
Ich muss zu diesem Preis (oder höher) verkaufen, wenn ein Käufer das anbietet; ich muss zu diesem (oder einem niedrigeren) Preis selber (zurück)kaufen, wenn ein Verkäufer das von mir verlangt.
Ansatz 2: Erweiterung der klassische Logik
Nachwievor arbeiten wir mit Aussagen die entweder (ganz) wahr oder (ganz) falsch sind, wir wissen es nur nicht genau. Daher ordnen wir solchen Aussagen Plausibilitäten zu (auf Grund von Tatsachen, die wir kennen).
Im Prinzip betrachten wir nicht allein Aussagen, sondern Kombinationen von Aussagen und Informationsständen und schreiben als Plausibilität von A bei einem Informationsstand I:
(A,I) ∈ [0,1]
Wobei das eine reelle Zahl zwischen o und 1 sein soll und bei gleichem A und gleichem I auch (A,I) immer gleich sein soll (Plausibilitäsroboter – also nicht subjektiv).
Das ganze soll nicht der Aussagenlogik widersprechen, was wir in einfachen Axiomen hinschreiben könnten.
Zwei Teilchen (Quanten-Teilchen) können “verschränkt” sein – engl. “entangled”.
Zwei verschränkte Teilchen können entstehen, wenn ein ursprüngliches Teilchen in zwei Teilchen zerfällt. Wenn das ursprüngliche Teilchen eine Erhaltungseigenschaft hatte, muss diese in den entstandenen zwei Teilchen in Summe unverändert auftauchen.
Man sagt auch, dass die zwei Teilchen eine gemeinsame Wellenfunktion haben.
Manchmal hört man auch, dass ein Quanten-System aus zwei Teilchen als Wellenfunktion das Produkt der beiden einzelnen Wellenfunktionen hat.
Wie enstehen verschränkte Teilchen?
Die Standard-Methode verschränkte Teilchen zu erzeugen ist die sog. “Paarerzeugung”; d.h. ein energiereiches einzelnen Teilchen zerfällt in ein Paar von Teilchen. Typischer Weise ein Teilchen und sein Antiteilchen; beispielsweise:
Elektron und Positron
Ein hochenegetisches Photon zerfällt in zwei Photonen mit halber Energie (halber Frequenz) z.B. beim Durchgang durch einen nichtlinearen Kristall
Die beiden so entstandenen Teilchen haben dann in der Summe die Eigenschaften des ursprünglichen Teilchens. soweit es sich um Erhaltungsgrößen handelt. Z.B. Ladung, Spin, Energie, Impuls etc. In diesem Sinne sind die beiden Teilchen also über diese Erhaltungsgrößen mit einander verbunden.
Die beiden verschränkten Teilchen haben dann eine gemeinsame Wellenfunktion. Wenn man an einem der beiden Teilchen eine Messung einer Observablen vornimmt, kollabiert die ganze Wellenfunktion instantan (s. Kopenhagener Deutung) und der Wert der Observablen für beide Teilchen (auch wenn sie weiter von einander entfernt sind) wird gleichzeitig “scharf”.
Gehört zu: Quantenpysik
Siehe auch: Wellenfunktion, Materiewellen
Stand: 25.9.2024
Nach der sog. Kopenhagener Deutung (1927 Niels Bohr und Werner Heisenberg) ergibt sich aus der Wellenfunktion eines Teilchens eine Wahrscheinlichkeitsdichte ρ(x,t) für den Aufenthaltsort und zwar wird dabei der Betrag der Wellenfunktion zum Quadrat genommen:.
\( \Large \rho(x,t) = | \Psi(x,t) |^2 \\\)
Aus dieser Wahrscheinlichkeitsdichte ρ ergibt sich der Erwartungswert für den Ort des Teilchens zum Zeitpunkt t:
\(\Large \langle x \rangle = \int\limits_{-\infty}^{+\infty} x \, \rho(x,t) \, dx = \int\limits_{-\infty}^{+\infty} x \, | \Psi(x,t) |^2 \, dx \\\)
Da der Betrag einer komplexen Zahl z definiert ist über: \( | z |^2 = z \cdot z^* \) folgt daraus…
\(\Large \langle x \rangle = \int\limits_{-\infty}^{+\infty} \Psi^*(x,t) \, x \, \Psi(x,t) \, dx \\\)
In dieser Form sehen wir schon einen ersten Operator (s.u.), der auf die Wellenfunktion wirkt und uns ein Observable (den Ort) als Erwartungswert bringt. Zum Erwartungswert siehe auch: Susskind.
Im Falle einer Wellenfunktion mit einer ganz dünnen und hohen Spitze und ansonsten Null können wir den Erwartungswert des Ortes <x> gleichsetzen mit dem definitiven Ort des Teilchens und bekommen- nach einigem Rechnen – die Newtonsche Mechanik. So zeigt es im Prinzip Paul Ehrenfest.
Niels Bohr (1885-1962) stellte 1913 das berühmte Bohrsche Atommodell auf. 1922 erhielt er den Nobelpreis für Physik.
Das Atommodell von Niels Bohr stellt eine Verfeinerung des Atommodells von Ernest Rutherford dar.
Rutherford konnte schon zeigen, dass das Atom einen sehr kleinen Kern besitzt in dem praktisch die gesammte Masse des Atoms vereinigt ist und der positiv geladen ist. Um den Kern herum gibt es die praktisch leere Atomhülle in der die negativ geladenen Elektronen herum schwirren.
Das Atommodell von Niels Bohr besagt, dass die Elektronen den Atomkern auf Kreisbahnen bestimmter Energie umrunden. Da man wusste, dass beschleunigte Elektronen (Kreisbahn = Beschleunigung) Energie in Form elektromanetischer Strahlung abstrahlen müssen, stellte Bohr zusäzliche Postulate auf, die zunächst ohne physikalische Begründung blieben:
1. Dem Elektron stehen nicht alle klassisch möglichen Bahnen zur Verfügung, sondern nur bestimmte ausgewählte von ihnen. Auf diesen Bahnen erzeugt es keine elektromagnetische Strahlung, sondern behält seine Energie. Dies sind die stationären Zustände des Atoms.
2. Ein Elektron kann von einem stationären Zustand in einen anderen springen. Bei diesem als Quantensprung bezeichnete Vorgang, wird elektromagnetische Strahlung emittiert oder absorbiert. Dabei ergibt sich die Frequenz ν der Strahlung durch die Energiedifferenz der beiden Zustände zu \(\nu = \Delta E \cdot h \)
3. Die stabilen Elektronenbahnen zeichnen sich dadurch aus, dass der Bahndrehimpuls des Elektrons ein ganzzahliges Vielfaches des reduzierten Planckschen Wirkungsquantums ist:
\( L = n \cdot \hbar \, \, (n=1,2,3,\ldots) \)
Dies bezeichnet man auch als die Quantenbedingungen und n als sog. Hauptquantenzahl.
Diese nicht-klassischen Postulate sollen sich im Grenzfall klassischen Gesetzen anhähern (Korrespondenzprinzip).
Maßeinheiten
Das Wirkungsquantum können wir messen in den SI-Einheiten: \( J\,s = \frac{kg \, m^2}{s^2} s = \frac{kg \, m^2}{s} \)
Einen Drehimpuls (s.u.) messen wir in den SI-Einheiten: \( N \, m\, s = \frac{kg \, m^2}{s} \)
Drehimpuls
Klassischerweise ergibt sich der Drehimpuls L als Trägheitsmoment J mal Winkelgeschwindigkeit ω, also:
\( L = J \cdot \omega \)
Und das Tägheitsmoment einer Kreisbewegung eines Teilchens der Masse m auf einer Bahn mit dem Radius r wäre:
\( J = m \cdot r^2 \)
Die Winkelgeschwindigkeit ω auf einer Kreisbahn ergibt sich aus Radius r und Bahngeschwindigkeit v wie folgt:
\( \omega = \frac{v}{r} \)
und bekommen als Bahndrehimpuls:
\( L = r \cdot m \cdot v \)
Nun können wir v ermitteln, denn Anziehungskraft und Zentripedalkraft müssen sich auf einer Kreisbahn die Waage halten:
\( \Large F = \frac{1}{111.2639 \cdot 10^{-12}} \cdot 0.0914805 \cdot 10^{-16} N \)
Weiter gerechnet:
\( \Large F = \frac{ 0.0914805}{111.2639} \cdot 10^{-4} N = 0.0008221939 \cdot 10^{-4} N = 8.221939 \cdot 10^{-8} N \)
Kreisbahn im Wasserstoffatom
Für eine Kreisbahn ist eine Zentripedalkraft in gleicher Höhe wie die zentrale Anziehungskraft erforderlich. Bei einer Bahngeschwindigkeit von v und einem Bahnradius von r ist die Zentripedalkraft:
\( \Large v =\sqrt{\frac{8.221939 \cdot 5.29 \cdot 10^{-19}}{9.1 \cdot 10^{-31}}} m/s = \sqrt{4.779568 \cdot 10^{12}} m/s = 2.186222 \cdot 10^6 m/s \)
Vergleich zur Lichtgeschwindigkeit
Im Vergleich zur Lichtgeschwindigkeit von 299792 km/s = 2.99792 · 108 m/s sind das ca. 0,73% also noch nicht “relativistisch”.
Das Problem dieses “simplen” Atommodells ist also nicht, dass die (theoretische) Bahngeschwindigkeit des Elektrons zu schnell sein müssste; verglichen zur Lichtgeschwindigkeit, sondern das Problem liegt darin, dass ein bewegtes (und beschleunigtes) Elektron ein Magnetfeld abstrahlen müsste und damit laufend Energie verlieren würde.
Die Gleichung wurde 1926 von Erwin Schrödinger(1887-1961) für die Ausbreitung von Materiewellen (Wellenmechanik) aufgestellt und bei ihrer ersten Anwendung erfolgreich zur Erklärung des Spektrums des Wasserstoffatoms genutzt.
Der Zustand eines Quantensystemens soll durch eine Wellenfunktion beschrieben werden (also Aufenthaltswahrscheinlichkeiten etc.). Die Wellenfunktion erhält man als Lösung der Schrödinger-Gleichung (nicht-relativistisch oder auch relativistisch).
Analog zur Newtonschen Mechanik suchte man nun nach einer Diffentialgleichung, deren Lösungen dann Wellenfunktionen sind.
Generell sind Differentialgleichungen, das was der Physiker braucht: Beschreibung von Veränderung bei gegebenen Anfangsbedingungen.
Da man wusste, das Wellenfuktionen überlagert werden sollen; d.h. eine Linearkombination von Wellenfunktionen sollte wieder eine Wellenfunktion sein (also eine Lösung der Differentialgleichung), sollte diese Differentialgleichung linear sein.
Man spricht von “freien” Teilchen, wenn kein Kraftfeld einwirkt. Wenn ein Kraftfeld einwirkt, will man dieses durch ein Potential (Potenzial) beschreiben, was bei sog. konservativen Kraftfeldern immer geht.
Die Lösungen der Schrödinger-Gleichung mit einer gewissen Potentialfunktion (aka Kraftfeld) sind die gesuchten Wellenfunktionen.
Abbildung 1: Youtube-Video von Josef Gassner (https://www.youtube.com/watch?v=hY2AdjYcTro&t=905s)
Von Erwin Schroedinger stammt die grundlegende Gleichung der Quantenmechanik. Sie beschreibt in Form einer partiellen Differentialgleichung die zeitliche und räumliche Veränderung des quantenmechanischen Zustands eines nichtrelativistischen Systems unter Einfluss eines Potentials. Wobei man sich so ein Potential als Einfluss eines Kraftfeldes vorstellen kann: \( F(r,t) = \frac{\partial \Psi(r,t)}{\partial t}\).
Die Lösungen dieser Wellengleichung heissen Wellenfunktionen.
Gegeben ist dabei eine Potentialfunktion V(r,t) und gesucht wird als Lösung die dazu passende Wellenfunktionen \(\Psi(r,t)\):
Mit dem Laplace-Operator: \( \Delta f = div(grad f)) \) der so etwas wie die “zweite Ableitung” darstellt.
Benannt nach Pierre-Simon Laplace (1749-1827).
Gegeben ist dabei ein Potential V(r,t) und eine Masse m, gesucht wird eine Wellenfunktion \(\Psi(r,t) \).
Wenn es sich um ein “freies” Teilchen handelt, ist das Potential Null, d.h. es fällt in der Gleichung weg.
Wenn die Wellenfunktion nicht von der Zeit abhängt, sprechen wir von einer “stationären” Lösung. Die Wellenfunktion ist dann nicht mehr komplexwertig, sondern nimmt nur noch Werte aus den reelen Zahlen an.
Kompakt kann man die allgemeine Schrödiner-Gleichung schreiben als:
\(\hat{H} \Psi(t)= i \cdot \hbar \cdot \frac{\partial}{\partial t} \Psi(t) \).
Der nach William Rown Hamilton (1805-1865) benannte Hamilton-Operator.
Hintergrund dieser Schödinger-Gleichung ist der Satz von der Erhaltung der Energie.
Superposition
Eine Wellenfunktion ist also die Lösung der oben stehenden Schrödinger-Gleichung (mit einer bestimmten Potentialfunktion V). Da die Schrödinger-Gleichung linear ist, sind auch beliebige Linearkombinationen von Lösungen wiederum Lösungen. So eine Linearkombination würde man Superposition nennen. Wenn beispielsweise die Wellenfunktionen ψ1 und ψ2 Lösungen einer Schrödinger-Gleichung sind, ist auch \( \Psi = a \cdot \Psi_1 + b \cdot \Psi_2 \\\) Lösung dieser Schrödinger-Gleichung.
Das heisst, dass alle Wellenfunktionen \( \Psi: \mathbb{R}^4 \to \mathbb{C} \), die Lösung einer Schrödinger-Gleichung sind, einen Vektorraum bilden. Wenn wir noch ein Skalarprodukt (inneres Produkt) von zwei Wellenfunktionen definieren, wir dieser Vertorraum zum Prä-Hilbertraum und möglicherweise zu einem echten Hilbertraum:
Quantenphysiker verwenden auch gerne eine Bra-Ket-Notation (s.u. Diriac) und schreiben:
\( |\Psi\rangle = a \cdot |\Psi_1\rangle + b \cdot |\Psi_2\rangle \\ \)
Zunächst ist das eine formale mathematische Notation.
Eine für Physiker interessante Eigenschaft von Wellenfunktionen ist, dass ein Zustand aus mehreren einfachen Zuständen zusammensetzen werden kann. Sind die Zustände mit “exklusiv oder” verbunden (z.B. alternative Wege), werden die Wellenfunktionen addiert (sog. Überlagerung, auch Superposition genannt), Sind die Zustände mit “und” verbunden (z.B. eine Sequenz), werden die Wellenfunktionen multipliziert.
Ein ganz einfaches Beispiel für Wellenfunktionen und Superposition ist die Teil-Reflektion. Die beiden Wellenfunktionen werden addiert, normiert und danach wird das Quadrat des Betrags genommen.
Abbildung 2: Eine schöne Einführung gibt das Youtube-Video von Alexander FufaeV (Youtube: https://youtu.be/SqQbsBOsaA8)
Wenn wir bestimmte Vereinfachungen vornehmen, wird die Schrödinger-Gleichung auch einfacher:
Die Wellenfunktionen möge in einfachen Fällen nicht von der Zeit, sondern nur vom Ort abhängen ==> zeitunabhängige Schrödinger-Gleichung
Der Ort wird in einfachen Fällen nicht durch drei Raumkoordinaten (Ortsvektor r), sondern nur durch eine Dimension (x-Achse) beschrieben. ==> Eindimensionale Schrödinger-Gleichung
Als (vereinfachte) eindimensionale, zeitunabhängige Schödinger-Gleichung haben wir:
Hierzu habe ich einen separaten Blog-Artikel geschrieben: Verschränkung.
Die Dirac-Notation und Hilbertraum
In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\) die unendliche Dimension haben. So einen Vektor
\( \vec{v} \in V \)
scheibt man in der Quantenphysik gern als sog. Ket-Vektor:
\( |v\rangle \)
Dies ist Betandteil der sog. Bra-Ket-Notation von Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.
Um ein Skalarprodukt (inneres Produkt) zu definieren brauchen wir noch zu jedem Ket-Vektor einen sog. Bra-Vektor.
\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)
Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.
Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.
Damit können wir das Skalarprodukt der Vektoren v und w schreiben als
\( \langle v | w \rangle \)
Aber wie wird dieses Skalarprodukt berechnet (definiert)?
Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):
\( \langle b_i | b_j \rangle := \delta_{ij} \)
Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.
Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:
\( | v \rangle = \sum{v_i | b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)
definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i} \)
Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:
Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:
Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.
Hilbertraum
Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.
In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.
Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.
Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.
Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.
So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).
Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.
In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:
Im Jahr 1900 formulierte Max Planck (1858-1947) sein Strahlungsgesetz und seine Quantenhypothese. Erst um 1925 entwickelte sich daraus eine Quantentheorie/Quantenmechanik, die die physikalische Systeme im Allerkleinsten (z.B. Elementarteilchen, Atome,…). gut beschreibt.
Man kannte früher schon die abgestrahlte Gesamt-Energie (Stefan-Boltzmann-Gesetz) und auch die Wellenlänge bei der das Maximum an Energie abgestrahlt wird (Wiensches Verschiebungsgesetz).
Dieses nach Wilhelm Wien (1864-1928) benannte Wiensche Verschiebungsgesetz besagt, dass ein Schwarzer Körper der absoluten Temperatur T die intensivste Strahlung bei einer Wellenlänge λmax abgibt, die umgekehrt proportional zu seiner Temperatur ist; als Formel:
\( \lambda_{max} = 2897,8 \mu m \cdot \frac{1}{T}\) (T in Kelvin)
Aus der Farbe eines thermischen Strahlers kann so auf seine Temperatur zurückgeschlossen werden. Zum Beispiel teilt man die Sterne gemäß ihrer Farbe in Spektralklassen ein, denen eine Temperaturskala entspricht.
Wilhelm Wien fand auch schon 1893 eine Formel für die spektrale Verteilung der Energie, die recht gut zu den experimentellen Messungen passte:
Raleigh (John William Strutt, 3. Baron Rayleigh) veröffentlichte im Jahre 1900 sein Gesetz für die Energieverteilung mit einem noch falschen Vorfaktor, das wurde 1905 von James Jeans wie folgt korrigiert:
\( \rho(\lambda) = \Large \frac{2c\pi}{\lambda^4} \normalsize \cdot k_B T \)
Diese früheren Formeln zur Verteilung der Energie über die Wellenlängen waren beide unbefriedigend.
Das Wiensche Strahlungsgesetz von 1893 passte zwar für kleine Wellenlängen ganz gut, aber für größere Wellenlängen wich es durchaus ab von den gemessenen Werten.
Das Strahlungsgesetz von Rayleigh und Jeans von 1905 war gut für größere Wellenlängen, führte aber bei kurzen Wellenlängen zur sog. “Ultraviolettkatastrophe”.
Das Plancksche Strahlungsgesetz
Max Planck (1858-1947) beschäftigte sich mit die Strahlung eines sog. “Schwarzen Strahlers”. Speziell ging es ihm darum, wie sich in Abhängigkeit von der Temperatur die abgestrahlte Energie über die Wellenlängen hin verteilt.
Planck konnte im Jahre 1900 ein Strahlungsgesetz entwickeln, das zeigt welche Strahlungsenergie ein “Schwarzer Strahler” einer bestimmten Temperatur (T) in Anhängigkeit von der Wellenlänge (\(\rho(\lambda)\)) oder der Frequenz (\(\rho(\nu)\)) aussendet. Plancks Strahlungsgesetz ist eigentlich nur eine Formel wie viele andere in der Physik auch, die endlich die Verteilung der Strahlungsenergie in Abhängigkeit von der Frequenz bzw. der Wellenlänge der Strahlung “richtig” darstellt.
Wobei die Formel im ersten Fall die Strahlungsleitsung pro infinitesimalem Frequenzintervall \( d\nu \) und im zweiten Fall pro infinitesimalem Wellenlängenintervall \( d\lambda \) ergibt.
Abbildung 2: Verteilung der Stahlungsenergie
Wir sehen, dass je nach Temperatur, das Maxium der Strahlung bei einer anderen Wellenlänge (einer anderen Farbe) liegt.
Im Grenzfall \( h\nu \gg kT\) ergibt sich das Wiensche Strahlungsgesetz; im Grenzfall \( h\nu \ll kT \) das Rayleigh-Jeanssche Strahlungsgesetz.
In Plancks Formel kommt eine vom ihm so genannte “Hilfskonstante” h vor, die später als das legendäre Plancksche Wirkungsquantum interpretiert wurde. Die physikalische Größe “Wirkung” bezeichnet eine Energie (Joule), die in einer bestimmten Zeit (Sekunden) etwas “bewirkt”. Die Planck’sch Hilfskonstante ist:
h = 6,626069 ⋅ 10-34 J ⋅ s
Herleitung des Planckschen Strahlungsgesetzes
Dieses Youtube-Video von Rene Matzdorf an der Uni Kassel versucht, die Herleitung der Planck’schen Formel (Strahlungsgesetz) über die Strahlung den schwarzen Körpern, sog. Hohlraumstrahlung und darin existierenden stehenden Wellen (Hohlraum-Resonator) herzuleiten:
Der Zusammenhang ist für mich nicht so leicht nachvollziehbar. Aber man muss das Placksche Schrahlungsgesetz ja überhaupt nicht “herleiten” – hat Newton bei seiner Gravitationstheorie ja auch nicht gemacht.
Planck selbst hat die Herleitung seines Strahlungsgesetzes am 14.12.1900 in Berlin vor der Deitschen Physikalischen Gesellschaft gezeigt.
In physikalischen Formeln wird auch häufig ein sog. “Reduziertes Plancksches Wirkungsquantum” mit dem Symbol “h quer” verwendet. Es ist definiert als: \( \hbar = \Large\frac{h}{2\pi} \)
Häufig hört man, dass aus Plancks Formel angeblich die Aussendung der Energie in sog. Quanten (ganzzahlige Vielfache von h mal ν) folgt. Das kann man aber aus der Formel selbst überhaupt nicht ableiten. Vielmehr ist es so, dass Planck (angeblich) auf diese Formel kam indem er elektromagnetische Strahlung (das Licht) als Teilchen modellierte, die sich wie ein Gas verhalten sollten. Die unterschiedlichen Geschwindigkeiten solcher Teilchen modelliert Planck als unterschiedliche Wellenlängen der Strahlung…
Ein solches Teilchen sollte eine von der Frequenz seiner Strahlung abhängige Energie haben. Das ist die zentrale Formel (Quantenhypothese) von Planck: \(E = h \cdot \nu \)
Die Formeln für das Strahlungsgesetz hat Planck zunächst durch Probieren herausgefunden und dann später eine Herleitung auf Basis seiner Quantenhypothese gefunden. Planck glaubte jedoch damals noch nicht an eine allgemeine Quantelung, diese war nur eine Annahme, um die Theorie in Einklang mit den Messungen bringen zu können.
Später versuchte Planck sein Strahlungsgesetz nicht durch eine “Hohlraumstrahlung” sonden durch Atome als Oszillator zu interpretieen.
Das Plancksche Wirkungsquantum
Das Plancksche Wirkungsquantum als Naturkonstante wird heute zur Definition der SI-Einheit Kilogramm benutzt.
Im Zusammenhang mit dem Wirkungsquantum spricht man auch von einer einer “Planck-Länge”, einer “Planck-Zeit” etc., denn Planck hatte herausgefunden, dass man aus den Naturkonstanten G, c, h eine ganze Schaar von Einheiten ableiten kann (durch Probieren und Beachten der Dimensionen):