Physik: Quantenmechanik nach Susskind

Gehört zu: Physik
Siehe auch: Quantenmechanik, Die Bra-Ket-Notation, Wellenfunktion, Komplexe Zahlen

Stand: 17.03.2024

Quantenmechanik nach Susskind

Bei Youtube bin ich auf die Vorlesungen von Prof. Susskind an der Stanfort University gestossen (“continued education”).

Professor Susskind beschreibt die für die Quantenmechanik erforderliche Mathematik einfach und anschaulich, was nicht immer ganz genau der reinen Mathematik entspricht. Deswegen kann ich es gut verstehen.

Zunächst betrachten wir klassische Physikalische Systeme, danach gehen wir Zug um Zug in die Welt der Quantenphysik. Der Trick dabei ist, schon die klassische Physik “gepixelt” zu sehen, was approximativ möglich sein sollte.

In der Quantenphysik werden wir es immer wieder mit Komplexen Zahlen zu tun haben. Auch der Begriff der komplex konjugierten wird hier eine große praktische Rolle spielen.

Ket-Vektor

Ein physikalisches System kann verschiedene diskrete Zustände annehmen (ggf. approximiert).

Z.B. Das Werfen  einer Münze: Kopf oder Zahl

Z.B. Ein Würfel: Eins, Zwei, Drei, Vier, Fünf oder Sechs

Z.B. Spin eines Elektrons: Up oder Down

So einen Zustand schreiben wir auf als sog. “Label” in sog. Ket-Schreibweise…

z.B.    |Kopf>   oder |Zahl>

z.B.   |Eins> oder |Zwei> oder…

z.B. |Up> oder |Down>

Wir können jeden Zustand (State) durch einen Spalten-Vektor repräsentieren.

\(  |Kopf> \space  —>   \left( \begin{array}{c} 1 \\\ 0   \end{array}\right)   \)

und

\(  |Zahl>  \space —>   \left( \begin{array}{c} 0\\\ 1   \end{array}\right)  \\  \)

Oder beim Würfel:

\(  |Eins> \space  —>   \left( \begin{array}{c} 1 \\\ 0  \\\ 0 \\\ 0 \\\ 0 \\\ 0  \end{array}\right)   \) und     \(  |Zwei> \space  —>   \left( \begin{array}{c} 0 \\\ 1  \\\ 0 \\\ 0 \\\ 0 \\\ 0  \end{array}\right)   \) und …

Man sagt auch |a> sei ein Vektor, obwohl der zugehörige Spaltenvektor “nur” eine Repräsentation von |a> ist. Manchmal identifizieren wir beides (aus Bequemlichkeit).

Die Menge der möglichen Zustände nennt man auch “Zustandsraum“. Beispielsweise:

\( S = \left\{ \left( \begin{array}{c} 1 \\\ 0   \end{array}\right) , \left( \begin{array}{c} 0\\\ 1   \end{array}\right)  \right\} \\ \)

Der Zustand eines physikalischen Systems könnte sich mit der Zeit ändern. Den Zustand zu einem bestimmten Zeitpunkt nennt man auch “Konfiguration“.

Später werden wir sehen, wie dieser Zustandsraum einen zu einem Vektorraum erweitert werden kann (der Vektorraum wird aufspannt).

Bra-Vektor

Zu jedem Ket-Vektor |a>  bilden wir einen sog. Bra-Vektor <a| auf folgende Weise:

Der Ket-Vektor sei:

\(  |a> \space  —>   \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right)  \\ \)

dann bilden wir den zugehörigen Bra-Vektor als Zeilenvektor folgendermaßen:

\(  <a| \space  —>   \left( \begin{array}{r} {a_1}^* &  {a_2}^*  &  {a_3}^* \end{array}\right)  \\ \)

Wir sagen, der Bra-Vektor sei das komplex konjugierte zum Ket-Vektor

Inneres Produkt

Das sog. “Innere Produkt” zweier Vektoren definieren wir nun einfach als:

\( <a|b> = \left( \begin{array}{r} {a_1}^* &  {a_2}^*  &  {a_3}^* \end{array}\right)  \cdot \left( \begin{array}{c} b_1 \\\ b_2  \\\ b_3 \end{array}\right) = {a_1}^*  b_1 + {a_2}^* b_2 + {a_3}^* b_3 \\ \)

Das Innere Produkt eines Vektors mit sich selbst ist dann immer eine reelle Zahl. Wir definieren als “Länge” oder auch “Norm” eines Vektors die positive Wurzel aus diesem Inneren Produkt.

Wenn das Innere Produkt zweier Vektoren Null ist, sagen wir sie seien “orthogonal”.

Observable

Observable nennt man Dinge, die man messen kann.

In einem bestimmten physikalischen Experiment wollen wir eine bestimme Größe messen und bekommen so zu jedem Zustand des Systems einen Messwert.

Eine bestimmte Observable M ordnet also jedem Zustand aus dem Zustandsraum S einen Messwert (reelle Zahl) zu. Mathematisch geschrieben:

\( M: S \to \mathbb{R} \)

Abstrakter Vektorraum

Die Ket-Vektoren |a> bilden einen (abstrakten) Vektorraum; d.h. es gelten bestimmte Regeln:

Regel 1: Jeder Vektor aus dem Vektorraum kann mit einem Skalar (komplexe Zahl) mutipliziert werden, wobei das Ergebnis wieder ein Vektor aus dem Vektorraum ist.

\( \lambda \space | a> = | a^\prime> \)

Regel 2: Zwei Vektoren aus dem Vektorraum kann ich addieren, wobei das Ergebnis wieder ein Vektor aus dem Vektorraum ist.

\(  | a >  +  | b >  =  | c > \)

Beispiele von Vektorräumen

Die Menge der Ket-Vektoren bilden einen Vektorraum, wobei wir als Einträge ganz allgemein Komplexe Zahlen zulassen und die Dimension des Vektorraums gleich der Anzahl verschiedener Zustände ist.

Die oben aufgeführten Regeln für Vektorräume gelten offenbar:

\( \lambda \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right) = \left( \begin{array}{c}\lambda  a_1 \\\ \lambda  a_2  \\\ \lambda a_3 \end{array}\right) \\\) \(   \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right) + \left( \begin{array}{c} b_1 \\\ b_2  \\\ b_3 \end{array}\right) = \left( \begin{array}{c} a_1 + b_1 \\\ a_2 + b_2 \\\ a_3 + b_3\end{array}\right)   \)

Linearkombinationen

Wir können jeden Ket-Vektor | a > als Linearkombination der Zustandsvektoren darstellen:

\( | a > = \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right) = a_1 \left( \begin{array}{c} 1 \\\ 0  \\\ 0 \end{array}\right) +  a_2 \left( \begin{array}{c} 0 \\\ 1  \\\ 0 \end{array}\right)  + a_3 \left( \begin{array}{c} 0 \\\ 0  \\\ 1 \end{array}\right)  \\\)

Damit spannen die Zustandsvektoren einen (abstrakten) Vektorraum auf, aber nicht jeder Vektor aus diesem Vektorraum beschreibt einen physikalischen Zustand – …

Quantenmechanisches Beispiel

Wenn ich den Spin eines quantenmechanischen Elektrons messe, bekomme ich bei jeder Messung einen von zwei Zuständen, die wir | up > und | down > nennen können.

Diese beiden Zustände repräsentieren wir durch zwei Spaltenvektoren im Vektorraum:

\(  | up > \space  —>   \left( \begin{array}{c} 1 \\\ 0   \end{array}\right)  \\ \) und

\(  | down >  \space —>   \left( \begin{array}{c} 0\\\ 1   \end{array}\right)  \\ \)

In der klassischen Physik würde niemand auf die Idee kommen, Linearkombinationen solcher zwei Zustände zu betrachten. In der Quantenpysik machen wir das aber.

Linearkombination dieser beiden Zustände wären also:

\( a_{up} \space | up > + a_{down} \space | down > \\\)

Die Koeffizienten können wir als Spaltenvektor schreiben:

\( a = \left( \begin{array}{c} a_{up} \\\ a_{down}  \end{array}\right) \\\)

Wobei die Beträge der Komponenten (Koeffizienten der Linearkombination)  interpretiert werden als die Wahrscheinlichkeiten der Zustände; also:

\( P_{up} = a_{up} {a^*}_{up} \\\) und

\( P_{down} = a_{down} {a^*}_{down} \\\)

Wobei natürlich die Summe der Wahrscheinlichkeiten 1 ergeben muss: \( P_{up} + P_{down} = 1 \)

Alle Linearkombinationen der Ket-Vektoren  | up > und | down >, die diese Bedingung (Summe der Wahrscheinlichkeiten = 1) erfüllen, werden in der Quantenmechanik als physikalisch mögliche Zustände angesehen. Wir können diese Bedingung auch schreiben als:

\( P_{up} + P_{down} = a_{up} {a^*}_{up} + a_{down} {a^*}_{down} = \left( \begin{array}{r} {a_{up}}^* &  {a_{down}}^*   \end{array}\right)  \cdot \left( \begin{array}{c} a_{up} \\\ a_{down}   \end{array}\right) = <a|a> = 1 \)

Die Bedingung ist also: “Länge = 1”; d.h. die quantenmechanisch möglichen Zustände des Elektronen-Spins liegen auf dem Einheitskreis.

Matrizen

Wir werden Matrizen brauchen. Wofür, sehen wir später.
Eine Matrix ist einfach eine quadratische Anordnung von Zahlen, beispielsweise:

\( M = \left( \begin{matrix} m_{11} & m_{12} & m_{13} \\ m_{21} & m_{22} & m_{23} \\ m_{31} & m_{32} & m_{33} \\ \end{matrix} \right) \\ \)

So eine Matrix M können wir anwenden auf einen Spaltenvektor v indem wir im Prinzip die inneren Produkte von Matrix-Zeilen mit dem Spaltenvektor bilden:

\( M v =  \left( \begin{matrix} m_{11} & m_{12} & m_{13} \\ m_{21} & m_{22} & m_{23} \\ m_{31} & m_{32} & m_{33} \\ \end{matrix} \right)  \left( \begin{array}{c} v_1 \\\ v_2  \\\ v_3 \end{array}\right) = \left( \begin{array}{c} m_{11} v_1  + m_{12} v_2  + m_{13} v_3 \\\ m_{21} v_1 + m_{22} v_2 + m_{23} v_3  \\\ m_{31} v_1 + m_{32} v_2 + m_{33} v_3\end{array}\right) \\ \)

Das Ergebnis ist wieder ein Spaltenvektor.

Wenn wir nun einen Zeilenvektor w und eine Matrix M nehmen, sieht das ganz analog aus:

\( w M  =  \left( \begin{array}{c} w_1 & w_2  & w_3 \end{array}\right) \left( \begin{matrix} m_{11} & m_{12} & m_{13} \\ m_{21} & m_{22} & m_{23} \\ m_{31} & m_{32} & m_{33} \\ \end{matrix} \right)  = \left( \begin{array}{c} w_1 m_{11}  + w_2 m_{21} + w_3 m_{31}  & w_1 m_{12}  + w_2 m_{22} + w_3 m_{32}  & w_1 m_{13} + w_2 m_{23} + w_3 m_{33} \end{array}\right) \\ \)

Das Ergebnis ist wieder ein Zeilenvektor.

Matrizen als Operatoren auf einem Vektorraum

Matrizen kann man auch “Operatoren” nennen. Sie können die Vekoren eines Vektorraums transformieren. Das allgemeine KOnzept heißt “Linearer Operator” oder auch “Lineare Transformation”. Wir identifizieren diese zur Vereinfachung.

Wir schauen uns mal ein paar Beispiele aus dem 2-dimensonalen reellen Vektorraum an.

Beispiel 1: Stretchen um einen Faktor 2

\( M v = \left( \begin{matrix} 2 & 0 \\ 0 & 2  \end{matrix} \right)  \left( \begin{array}{c} v_x \\\ v_y  \end{array}\right)  =   \left( \begin{array}{c} 2 v_x \\\  2 v_y  \end{array}\right)  \\ \)

Beispiel 2: Stretchen in Richtung der y-Achse

\( M v = \left( \begin{matrix} 1 & 0 \\ 0 & 2  \end{matrix} \right)  \left( \begin{array}{c} v_x \\\ v_y  \end{array}\right)  =   \left( \begin{array}{c} v_x \\\  2 v_y  \end{array}\right)  \\ \)

Beispiel 3: Rotieren um 90 Grad im Uhrzeigersinn

\( M v = \left( \begin{matrix} 0 & 1 \\ -1 & 0  \end{matrix} \right)  \left( \begin{array}{c} v_x \\\ v_y  \end{array}\right)  =   \left( \begin{array}{c} v_y \\\  -v_x  \end{array}\right)  \\ \)

Wir sehen also: Matrizen transformieren einen Vektorraum; aber nicht alle Transformationen sind Matrizen.

Hermitische Matrizen

Observable in der Quantenphysik werden durch hermitische Operatoren dargestellt. Wir schauen hier deswegen auf hermitische Matrizen.

Eine hermitische Matrix ist definiert durch: \( m_{ij} = {m_{ji}}^*   \)

Eine hermitische Matrix ist vom Konzept her so etwas wie eine reelle Transformation, aber nicht ganz genau: nur die Diagonalelemente der Matrix sind reell, die anderen Elemente werden beim Spiegeln an der Diagonale komplex konjugiert.

Die Namensgebung geht zurück auf den französischen Mathematiker Charles Hermite (1822-1901).

Hintergrund:

Zu einer Matrix \(M = (m_{ij}) \) definieren wir eine “Hermitsch konjugierte” Matrix und schreiben die mit einem “Dagger”;

\( \Large M^\dagger = (m_{ij}^*) \)

Wir nennen eine Matrix M “hermitisch”, wenn sie gleich ihrer hermitisch konjugierten ist, also wenn:

\( \Large M = M^\dagger \\ \)

Diese Eigenschaft ist so ähnlich wie \( z = z^* \) bedeutet, dass z eine reelle Zahl ist.

In der Quantenphysik werden wir es fast ausschließlich mit Hermitischen Matrizen (Hermitischen linearen Operatoren) zu tun haben.

Zusammenfassung Nr. 1 zur Quantenphysik

In der Quantenphysik geht es darum, Wahrscheinlichkeiten zu berechnen. Wahrscheinlichkeiten, dass eine Observable bei einem bestimmten Zustand des Systems einen bestimmten Wert (Messwert) annimmt.

Vektoren repräsentieren die Zustände.
Solche Zustandsvektoren bekommen eine irgendwie geartete Bezeichnung (“Label”); z.B. \( |hinz\rangle  \text{ und } |kunz\rangle \).
Auch die Linearkombinationen solcher Zustandsvektoren werden als Zustände bezeichnet.
Alle solchen Linearkombinationen, im Beispiel:  \( a |hinz\rangle + \enspace b |kunz\rangle \enspace mit\enspace  a, b \in C \), bilden einen Vektorraum, den sog, Zustandsraum

Hermitische Matrizen repräsentieren die Observablen.
Wie ich zu einer Observablen (also einer Messgröße) die Matrix finde, ist noch ein Geheimnis.
Später werden wir sehen, dass die Eigenwerte der Matrix die Werte sind, die die Observable annehmen kann; d.h. die wir messen können.

Erwartungswert einer Observablen

Nun entspricht also eine Hermitische Matrix M einer Observablen.

In einem bestimmten Zustand  | a > ist der Erwartungswert der Observablen M:

\( < a | M | a> = \text{Erwartungswert von M} \\ \)

Eigenwert und Eigenvektor in der Quantenphysik

Wofür diese Konzepte gut sind, sehen wir hier in der Quantenphysik: Die Eigenwerte einer Hermitischen Matrix werden die möglichen Messwerte der Observablen sein.

Wir betrachten eine hermitische Matix M und fragen uns, ob es dazu einen Vektor |a>  gibt, der durch die Matrix M nicht in der Richtung, sondern nur in der Länge verändert wird. Die Längenveränderung  wäre dann ein Faktor, der vom Vektor |a> abhängt, weswegen wir in λa nennen.

\(  M|a> = \lambda_a | a > \\ \)

Wenn es so etwas zu der Matrix M gibt, nennen wir so ein  λa einen Eigenwert, und den Vektor |a> einen Eigenvektor der Matrix.

Der Witz in der Quantenmechanik ist, dass die Eigenwerte einer hermitische Matrix M die möglichen Messwerte der Observablen sind und der zugehörige Eigenvektor ist der Zusrand in dem die Wahrscheinlichkeit, diesen Wert zu messen 1 ist.

Wie man auf diese Matrizen kommt, die ja Observable repräsentieren sollen, ist noch völlig offen.

Wir schauen uns als Beispiele mal diagonale Matrizen an. Man sieht leicht, dass die Diagonalelemente die Eigenwerte sind und die Eigenvektoren die möglichen Einheitsvektoren aus lauter Nullen und einer Eins.

Beispiel Elektronenspin

Die Observable ist also der Spin eines Elektrons, der +1 oder -1 sein kann.

Als Matrix für diese Observable nehmen wir mal:

\( \sigma_3 = \left( \begin{matrix} 1 & 0  \\ 0 & -1  \\ \end{matrix} \right) \\ \)

Diese Matrix wird auch “Spinoperator” genannt und mit σ3 bezeichnet. Diese Matrix als Repräsentation der Observablen “Spin” fällt hier ersteinmal so vom Himmel. Wir können aber einfach nachweisen, dass es stimmt, den die Eigenwerte sind:
+1 zum Eigenvektor \( \left( \begin{array}{c} 1 \\\ 0   \end{array}\right)  = |up> \) und -1 zum Eigenvetor \( \left( \begin{array}{c} 0 \\\ 1   \end{array}\right)  =|down> \)

Genaugenommen steht σ3 für die Messung des Eletronenspins in z-Richtung (wieso das so ist kommt später).

In y-Richtung gemessen bekommen wir als Observable:

\(  \sigma_2 = \left( \begin{matrix} 0 & -i  \\ i & 0  \\ \end{matrix} \right) \\\)

In x-Richtung gemessen bekommen wir als Observable:

\( \sigma_1 = \left( \begin{matrix} 0 & 1  \\ 1 & 0  \\ \end{matrix} \right) \\ \)

Wir haben also 3 Spinoperatoren…

Wichtiger Satz über Eigenwerte (Lecture 3, t=59m)

Wenn es zu einer Observablen (hermitischen Matrix) M mehrere Eigenvektoren gibt:

\(  M | a > = \lambda_a  | a > \\ \)

und

\(  M | b > = \lambda_b  | b > \\ \)

und die Eigenwerte verschieden sind, dann sind die Eigenvektoren orthogonal; also <a|b> = 0.

Ein Eigenvektor |a> beschreibt ja einen Zustand, in dem die Wahrscheinlichket 1 ist, den Wert λa zu messen.

Wenn ich also zu einer Observablen zwei unterschiedliche Messwerte λa bzw. λb bekomme, gibt es dazu zwei orthogonale Zustandsvektoren |a> und |b>, in denen die Wahrscheinlichkeit 1 ist, die Messwerte λa bzw. λb zubekommen.

Ein Satz zu Wahrscheinlichkeiten (Lecture 3, t= 1h 14:30m)

Wir mögen ein System haben, das im Zustand |b> präpariert ist – z.B. ein Elektron haben mit dem Elektronenspin |b>

Nun betrachten wir eine Observable M mit einem Eigenwert λa zum Eigenvektor |a> .

Wenn wir in dem gegebenen Zustand |b> eine Messung mit M durchführen, können wir uns fragen, mit welcher Wahrscheinlichkeit P unser Messergebnis λa sein wird.
Prof. Susskind sagt:
\( P = \langle a|b \rangle {\langle a|b \rangle}^* \)

Quantenmechanik mit einem Elektronenspin (Lecture 4)

Wir stellen uns vor, wir hätten ein Elektron so präpariet, dass der Elektronenspin in Richtung des (räumlichen) Vektors n = (n1, n2, n3) zeigt.

Nun wollen wir den Elektronenspin dieses Elektrons entlang der Richtung m = (m1, m2, m3) messen. Das Ergebnis ist (natürlich) entweder +1 oder -1 (so merkwürdimg ist die Quantenwelt).

Dieses ganze Experiment (präparieren und dann messen) wiederholen wir sehr oft, um die Wahrscheinlichkeit für das Messergebnis +1 (P+) bzw. die Wahrscheinlichkeit für das Messergebnis -1 (P) zu bestimmen.

Das können wir jetzt ja ganz einfach ausrechnen. Als Ergebnis (ohne Beweis)  erhalten wir, dass die Wahrscheinlichkeit nur vom (räumlichen) Winkel θ zwischen den beiden Vektoren abhängt. Der Cosinus dieses Winkels ist bekanntlich das Innere Produkt der beiden Winkel:

\( \Large \cos{\theta} = \langle n, m \rangle \\ \)

Und die Wahrscheinlichkeit wird (ohne Beweis):

\( \Large P_+ = \frac{1 + \cos{\theta}}{2} \\ \)

Wichtger Zusatz: Kommutator (Lecture 4, t= 1h 54m)

Wenn wir eine Messung einer Observablen durchführen, verändern wir den Zustand des Quantensystems. (Detail: Es ändert sich der “Eigenzustand” auf einen Eigenvektor, der zu dem gemessenen Eigenwert gehört.)

Wir können also nicht zwei Messungen eines Anfangszustands machen, denn der Anfangzustand hat sich ja durch die erste Messung verändert. Das würde nur gehen, wenn die beiden Matrizen (=Observablen) die gleichen Eigenvektoren hätten.

Ein System mit zwei Elektronen: Entanglement (Lecture 4, t= 1h 55m)

Zunächst machen wir mal eine kleine Tabelle, wie das mit einem Elektron war:

\( \begin{array}{l} \sigma_1 | up \rangle = | down \rangle \\ \sigma_1 | down \rangle = | up \rangle \\ \sigma_2 | up \rangle = i | down \rangle \\ \sigma_2 | down \rangle = -i | up \rangle \\ \sigma_3 | up \rangle =  | up \rangle \\ \sigma_3 | down \rangle = – | down \rangle \end{array} \\\)

Wenn wir nun zwei Elektronen betrachten, wollen wir die vier möglichen  Zustände der beiden Elektronenspins wie folgt bezeichnen:

| u u >

| u d >

| d u >

| d d >

weiter geht’s…

Physik: Elektrodynamik

Gehört zu: Physik

Stand: 16.02.2024

Elektrodynamik

Die klassische Elektrodynamik (auch Elektrizitätslehre) ist das Teilgebiet der Physik, das sich mit bewegten elektrischen Ladungen und mit zeitlich veränderlichen elektrischen und magnetischen Feldern beschäftigt. Die Elektrostatik als Spezialfall der Elektrodynamik beschäftigt sich mit ruhenden elektrischen Ladungen und ihren Feldern.

Die zugrundeliegende Grundkraft der Physik heißt elektromagnetische Wechselwirkung.

Die Theorie der klassischen Elektrodynamik wurde von James Clerk Maxwell (1831-1879) Mitte des 19. Jahrhunderts mithilfe der nach ihm benannten Maxwell-Gleichungen formuliert.

Älterer Blog-Artikel: Elektrisches Feld

Physik: Entropie

Gehört zu: Klassifikation
Siehe auch: Maschine Learning, Thermodynamik, Zustand
Benutzt: Latex-Plugin für WordPress, Fotos von Wikimedia

Stand: 26.01.2024

Was ist Entropie?

Der Begriff “Entropie” wird klassischerweise in der statistischen Thermodynamik verwendet.
Dieser Begriff wurde von Rudolf Clausius (1822-1888) in die Physik eingeführt.

Ludwig Boltzmann (1844-1906)  hat dann 1877 die berühmte Formel aufgestellt, die auch auf seinem Grabstein auf dem Wiener Zentralfriedhof steht:

\(  S = k \log_2{W} \\\)

Zur Beschreibung des Zustands eines physikalischen Systems wird eine physikalische Größe, die Entropie (Formelzeichen S) verwendet.   Wobei k die Boltzmann-Konstante und W eine Art “Wahrscheinlichkeit” für den Zustand sein soll…

Die Entropie wird auch gerne als Ausmaß von Unordnung der Teilchen eines Systems gesehen. Hohe Entropie wäre hohe Unordnung; niedrige Entropie wäre stärkere Ordnung der Teilchen.

Abbildung 1: Boltzmanns Grab (Wikimedia: Grab_von_Ludwig_Boltzmann_auf_dem_Wiener_Zentralfriedhof.JPG)

Klassifikationsalgorithmen

Beim “Machine Learning” ist es die allgemeine Aufgabe Muster in Datensätzen (Data Records) einer Datenmenge (Data Set – gerne falsch übersetzt mit “Datensatz”) zu finden.

Wenn wir ein Modell suchen, das Voraussagen zu einer Zielvariablen, einer Klassifikation, machen kann und wenn wir dazu ein Trainings-Datenmenge haben, sprechen wir von sog. “Supervised Learning“,

Ein Ansatz zur Klassifikation ist die wiederholte Aufteilung (rekursive Partitionierung).
Die “Güte” einer möglichen Aufteilung kann man durch den sog. Informationsgewinn, soll heissen Entropiedifferenz (nach der Aufteilung – vor der Aufteilung) bestimmen. So einen Klassifizierungsalgorithmus nennt man auch C5.

Zur Veranschaulichung nehmen wir mal ein ganz einfaches Beispiel. Eine Datenmenge soll eine binäre Klassifikation bekommen; z.B. Personen sind “kreditwürdig” oder “nicht kreditwürdig”.

Wir haben eine Trainings-Datenmenge in der Personen mit mehreren Attributen (“Features”) beschrieben sind; z.B. Jahreseinkommen, Alter, Name der Wohngemeinde, Einwohnerzahl der Wohngemeinde,…

Auch die Klassifikation auf der Trainings-Datenmenge ist bereits erfolgt. Wir haben da also schon ein Attribut Kreditwürdig Ja/Nein. Deshalb sprechen wir von “Supervised” Learning.

Diese gesamte Trainings-Datenmenge möchten wir anhand eines Entscheidungs-Kriteriums in zwei Teilmengen aufteilen, sodass die Summe der Entropien der Teilmengen kleiner ist als die Entropie der gesamten Trainings-Datenmenge.
So ein “Entscheidungs-Kriterium” wollen wir mithilfe der Datenattribute (den sog. Features) formulieren z.B. “Einwohnerzahl > 500”.

Zunächst haben wir also die Aufgabe, die Entropie (S) von Teilmengen der Trainings-Datenmenge zu bestimmen.

Quelle: https://rpubs.com/cyobero/C50

Die Formel lautet (nach Boltzmann s.o.)

\( S = \sum\limits_{i=1}^n {-p_i \cdot \log_2{p_i}} \\\)

Wobei n die Anzahl der Klassen in unserer Klassifizierung ist und pi die Anteil der Datensätze, die in die Klasse i fallen.

Wenn wir, wie im Beispiel, eine binäre Klassifikation haben, ist n=2 und p2 = 1- p1.

Wir betrachten im Beispiel einmal folgende Trainingsmenge:

Tabelle 1: Trainingsmenge

Feature 1 Feature 2 Klasse
Gehalt Alter Kreditwürdigkeit
48000 ./. ja
30000 ./. nein
52000 ./. ja
31000 ./. nein
53000 ./. ja
32000 ./. nein
54000 ./. ja
55000 ./. ja
49000 ./. ja
33000 ./. nein

Hier haben wir p1 =0.6 und p2=0.4

Woraus sich eine Entropie für die gesamte Trainings-Datenmenge ergibt von:

\( S = -0.6 \cdot \log_2{0.6} – 0.4 \cdot \log_2{0.4} = 0.970951  \)

Wir versuchen jetzt einmal eine Partitionierung anhand von Feature 1 und probieren ein Kriterium Gehalt>50000. Daduch erhalten wir zwei Teilmengen durch Gehalt>50000 und Gehalt≤50000.

Tabelle 2: Teilmenge 1

Feature 1 Feature 2 Klasse
Gehalt Alter Kreditwürdigkeit
52000 ./. ja
53000 ./. ja
54000 ./. ja
55000 ./. ja

Hier haben wir p1 = 1.0 und p2 = 0.0

Das ergibt eine Entropie S1 = 0.0

Tabelle 3: Teilmenge 2

Feature 1 Feature 2 Klasse
Gehalt Alter Kreditwürdigkeit
48000 ./. ja
30000 ./. nein
31000 ./. nein
32000 ./. nein
49000 ./. ja
33000 ./. nein

Hier haben wir p1 =0.3333 und p2 = 0.6667

Das ergibt eine Entropie S2 = 0.918296

Nun müssen wir die beiden “Teil-Entropien” addieren.
Dazu gewichten wir jede Teilmenge i mit dem Anteil der Datensätze, die in diese Teilmenge fallen wi.
Wir bekommen als Gewichte: w1=0.4 und w2= 0.6 und damit die Gesamtentropie nach erster Aufteilung bei Gehalt>50000:

\( S = w_1 \cdot S_1 + w_2 \cdot S_2 = 0.4 \cdot 0.0 + 0.6 \cdot 0.918296 = 0.5509776 \)

Durch die Aufteilung haben wir also Informationsgewinn (Differenz der Entropien) von:  0.970951 – 0.5509776 = 0,419973

Das ist schon einmal ganz gut, wir müssen nun noch prüfen, ob wir bei einer anderen Aufteilung im Feature “Gehalt” noch besser würden und ob eine Aufteilung nach einem andren Feature (z.B. “Alter”) ein noch größeren Informationsgewinn bringen würde.

Physik: Wärmepumpe

Gehört zu: Physik
Siehe auch: Thermodynamik

Stand: 25.10.2023

Prinzip der Wärmepumpe

Gestern (24.10.2023) konnte ich als Ringvorlesung “Physik im Alltag”  von Herrn Prof. Dr. Markus Drescher hören, der über das Thema “Physik der Wärmepumpe” sprach.
Link: https://www.physik.uni-hamburg.de/oeffentlichkeit/veranstaltungen/ringvorlesung.

Der physikalische Prozess ist ja im Prinzip einfach ein umgekehrter Carnotscher Kreisprozess. Wir haben also vier thermodynamische Zustände, mit vier  Zustandsveränderungen, die am Ende wieder beim Ausgangszustand landen. So ein Kreisprozess ist schon seit längerem bekannt und technisch realisiert in unseren elektrischen Kühlschränken (auch: Wäschtrockner, Klimaanlage,…).

Wir haben ein externes Wärmereservoir mit der Temperatur T1. Die Wärmepumpe soll dort Wärme entnehmen und in einen zu heizenden Raum pumpen.

Zustand 1: Das Arbeitsmedium ist gasförmig und habe einen Druck von p1 und eine Temperatur T1 . Diese Anfangstemperatur T1 soll die Temperatur des externen Wärmereservoirs sein.

Zustandsübergang 1 nach 2: Kompression durch Verrichtung mechnischer Arbeit.
Das gasförmige Arbeitsmedium wird mit mechanischer Arbeit W zusammengedrückt (durch einen Kompressor).
Die Temperatur und der Druck des Arbeitsmediums erhöhen sich.
Das Arbeitsmedium muss so weit zusammengedrückt werden, dass die Temperatur oberhalb der Temperatur des Heizwassers (Vorlauftemperatur) liegt.

Zustand 2: Der Druck ist auf p2 und  die Temperatur auf T2 gestiegen.

Zustandsübergang 2 nach 3: Wärmetransport vom Arbeitsmedium zu der Heizflüssigkeit im zu heizenden Raum (Vorlauftemperatur).
Das warme Arbeitsmedium wird durch Kontakt mit dem Heizwasser im zu heizenden Raum (Wärmetauscher) soweit abgekühlt , dass ein Temperaturausgleich stattfindet. Das heisst, es wird eine gewisse Wärmemenge ΔQ in das Heizwasser transportiert.

Zustand 3: Die Temperatur des  des Arbeitsmediums ist gesunken auf T3. Beim unverändert hohen Druck ist das Arbeitsmedium jetzt flüssig geworden.

Zustandsübergang 3 nach 4: Das Arbeitsmedium wird entspannt d.h. der Druck wird von p2 zurück auf p1 entspannt. Dabei kühlt sich das Arbeitsmedium stark ab, so dass die Temperatur unterhalb der Temperatur des externen Wärmereservoirs liegt; sagen wir auf T4 < T1.

Zustand 4: Die Temperatur des Arbeitsmediums ist weiter gesunken auf T4, der Druck ist wieder bei p1.

Zustandsübergang 4 nach 5: Wärmetransport vom externen Wärmereservoir in das Arbeitsmedium. Durch Kontakt mit dem  Wärmereservoir (Wärmetauscher) wird die Temperatur auf den ursprünglichen Wert T1 erhöht. D.h. es wird eine gewisse Wärmemenge ΔQ aus dem externen Wärmereservoir entnommen.

Zustand 5 = Zustand 1
Temperatur T1 Druck p1, Das Arbeitsmedium ist jetzt wieder gasförmig geworden.

In jedem Zyklus investieren wir also eine mechanische Arbeit von W und gewinnen (pumpen) eine Wärmemenge ΔQ.

Effizienz einer Wärmepumpe

In jedem Zyklus der Wärmepumpe stecken wir also eine Energiemenge (W), als mechanische Arbeit zur Kompression, hinein und entnehmen dem externen Reservoir eine Energiemenge ΔQ (Wärmemenge). Als Kennzahl für die “Effizienz” dieses Prozesses nehmen wir die sog. “Leistunsgzahl” (englisch: “Coefficient of Performance” COP):

\( \Large  COP = \frac{\Delta Q}{W} \\   \)

Dieser COP besagt also, wieviel Wärmemenge bekomme ich heraus (gepumpt) im Verhältnis zur hineingesteckten mechanischen Energie.

Der Prozess in der Wärmepumpe entspräche genau einem umgekehrten Carnotschen Kreisprozess, wenn er “reversibel” wäre. Dazu müssten in den Wärmetauschern am Ausgang tatsächlich die beiden Temperaturniveaus identisch sein. Für diesen Idealfall kann man das physikalisch berechnen als:

\( \Large  COP = \frac{T_3}{T_3 – T_1} \\   \)

Dies ist aber “nur” der physikalisch maximal mögliche COP. In der technischen Realisierung haben wir es aber immer mit unvollkommenen Prozessen und Verlusten zu tun, sodass in den real exsitierenden Wärmepumpen wir tatsächlich nur so etwa die Hälfte dieses physikalisch möglichen Werts erreichen.

Wenn die Temperatur des externen Wärmereservoirs jahreszeitlich schwankt (wenn man z.B. Aussenluft als Reservoir nimmt) wird vielfach ein sog. Seasonal COP (“SCOP“) genommen. Der ist ein Mittelwert aus vier COP-Werten bei vier unterschiedlichen Außentemperaturen.

Eine noch realistischere Kennzahl ist die JAZ (Jahresarbeitszahl). Da wird die übers Jahr tatsächlich “erzeugte” Wärmemenge ins Verhältnis gesetzt zur tatsächlich eingesetzten Strommenge; dazu muss man diese beiden Werte mit speziellen Zählern einzeln messen.

Beispiel:

Das externe Wärmereservoir sei die Aussenluft mit einer Temperatur T1 von 0° C.
Die Temperatur beim Wärmeaustausch (gewünschte Vorlauftemperatur der Heizung) möge sein: T3 = 40° C.

Um obige Formel anwenden zu können, müssen wir die Temperaturen in Kelvin umrechnen:

T1 = 273 K
T3 = 313 K

Damit bekommen wir:

\(  \Large COP = \frac{273}{313 – 273} = \frac{273}{40} =  6,825   \\\)

In der technischen Realisierung könnten wir uns freuen, wenn wir einen COP von 3 erreichen würden.

Phasenübergänge

Besonders effizient arbeitet eine Wärmepumpe dann, wenn das Arbeitsmedium bei der Wärmeaufnahme und der Wärmeabgabe die Temperatur nicht großartig ändert, sondern stattdessen ein sog. Phasenübergang stattfindet.

Statt einer großen Temperaturdifferenz bei der Erwärmung, wäre ein Phasenüberang von flüssig zu gasförmig gut; also beim Zustandsübergang 4 nach 1.
Statt einer großen Temperaturdifferenz beim Abkühlen, wäre ein Phasenübergang von gasförmig zu flüssig gut; also beim Zustandsübergang 2 nach 3.

Die Abgabe von Wärme und die Aufnahme von Wärme erfolgt in sog. Wärmetauschern.  In den beiden Wärmetauschern arbeitet man mit einem geeigneten Druck, sodass genau in dem Wärmetauscher ein Phasenübergang stattfindet (bei gegebenen Temperaturverhältnissen und gegebenem Arbeitsmedium). Beispielsweise 2 bar bei der Wärmeaufnahme und 12 bar bei der Wärmeabgabe.

Youtube-Video: Ganteföhr Energie und Klima

Technische Realisierung einer Wärmepumpe

Das Arbeitsmedium in der Wärmepumpe wird technisch auch “Kältemittel” genannt. Es wird nicht verbraucht, sondern befindet sich in einem geschlossenen System in einem ewigen Kreislauf. Nach dem heutigen Stand der Technik (2023) kommt hierfür praktisch nur Butan (früher: FCKW) zum Einsatz.

Die zu leistende mechanische Arbeit wird ein kleiner Elektromotor besorgen. Woher der Strom dafür kommt, wäre eine weitere Frage…

Das externe Wärmereservoir muss sehr groß sein; so groß, dass eine Entnahme einer kleinen Wärmemenge die Temperatur des Reservoirs unverändert lässt. Als so ein Wärmereservoir kommt in der Praxis infrage:

  • Das Grundwasser
  • Das Erdreich
  • Die Aussenluft
  • Fließende Gewässer
  • Das Meer

Interessant zu wisssen ist, dass auch wenn es draussen richtig kalt ist, trotzdem diese “kalte” Draussenluft sehr viel Wärme-Energie enthält.
Erst bei einer Temperatur von -273° C wäre keine Wärme-Energie mehr da.

 

 

 

 

 

Physik: Tscherenkow-Strahlung

Gehört zu: Physik
Siehe auch: Elementarteilchen, Lichtgeschwindigkeit, Brechungsindex

Stand: 3.8.2023

Tscherenkow-Strahlung

auch: Cherenkov-Strahlung

Tscherenkow-Strahlung ist eine elektromagnetische Strahlung, die durch den Tscherenkow-Effekt entsteht. Benannt nach Pawel Alexejewitsch Tscherenkow (1904-1990), der  zusammen mit Kollegen 1934 diese Strahlung entdeckte. Nobelpreis 1958.

Der Tscherenkow-Effekt entsteht, wenn schnelle elektrisch geladene Teilchen (z.B. Elektronen) in ein Medium eintreten, in dem die Lichtgeschwindigkeit kleiner ist, als die Geschwindigkeit der Teilchen.

Der Tscherenkow-Effekt kann nur in Medien mit Brechungsindex n>1 auftreten, weil im Gegensatz zur Lichtgeschwindigkeit im Vakuum von c = 299 792,458 km/s z. B. die Lichtgeschwindigkeit in Wasser nur etwa c′ ≈ 225 000 km/s beträgt und so Teilchen dort schneller sein können als dort das Licht.

Die ausgesandte Strahlung entlang der Flugbahn beschreibt einen sogenannten Mach-Kegel. Das Tscherenkow-Licht ist somit das optische Analogon zum Überschallkegel, der entsteht, wenn Flugzeuge sich schneller als der Schall fortbewegen.

Wo kann man Tscherenkow-Strahlung beobachten?

Im Abklingbecken von Kernkraftwerken

In der Hochatmoshäre, ausgelöst durch kosmische Strahlung

Astronomie: Synchrotron-Strahlung

Gehört zu: Physik
Siehe auch: Quantenmechanik, Relativitätstheorie, Elementarteilchen

Stand: 02.08.2023

Synchrotron-Strahlung

Wenn sich elektrisch geladene Teilchen (z.B. Elektronen) gleichförmig bewegen, geschieht nichts besonderes.

Wenn sich solche Teilchen (z.B. Elektronen) aber nicht gleichförmig bewegen, also bescheunigt werden, gebremst werden oder ihre Richtung verändern, dann entsteht elektromagnetische Strahlung; d.h. es werden Photonen abgestrahlt, die der Energiedifferenz entsprechen. Allgemein heisst so eine Strahlung “Bremsstrahlung”.

Abbildung 1: Bremsstrahlung (Wikipedia)

Bremsstrahlung

Abbildung 2: Bremsstrahlung (http://microanalyst.mikroanalytik.de/info1.phtml)

Klassische Bremsstrahlung

Ein klassische Anwendung dieses Effekts ist das Erzeugen von Röntgen-Strahlen. Dazu werden Elektronen beschleunigt und dann auf ein Stück Metall geschossen, wo sie durch das Coulomb-Feld der Metallatome abgebremst werden.

Relativistische Bremsstrahlung

Wenn man zu sehr hohen Energien (v > 0,9 c) kommt, kann man  relativistische Effekte nicht mehr vernachlässigen; man spricht dann von “relativistischen” Teilchen (z.B. Elektronen). Diese Art Bremsstrahlung nennt man “Synchrotron-Strahlung”; auch weil solche hohen Energien praktisch nur in Teilchenbescheunigern mit Magnetfeldern erzielt werden können.

Die Richtung dieser Synchrotron-Strahlung ist tangential zur Bahn des bewegten Teilchens – vorrangig nach vorne, aber auch etwas nach hinten.

Der Name Synchrotron-Strahlung

Man nennt das “Synchrotron-Strahlung”, weil diese Strahlung zu erst (1947) in Teilchenbeschleunigern, die man Sychrotron nannte, auftrat und nachgewiesen wurde. In einem solchen Teilchenbeschleuniger werden geladene Teilchen (z.B. Elektronen) durch Magnete so abgelenkt, dass ein Kreisbahn entsteht, was eine Beschleunigung bedeutet.

Stärke der Synchrotron-Strahlung

Je größer die Geschwindigkeitsänderung pro Zeiteinheit (also die Beschleunigung als Vektor) ist, desdo intensiver ist auch die Synchrotron-Strahlung, wobei ein breites Spektrum entsteht: vom Infrarot bis zum Röntgenbereich…

Da viele Elektronen unterschiedlich stark abgelenkt bzw. abgebremst werden, entstehen Photonen mit unterschiedlichen Energien. Die Energieverteilung der Photonen ist deswegen kontinuierlich und breit. Bremsstrahlung hat ein kontinuierliches Spektrum.

Wenn man besonders starke Synchrotron-Strahlung herstellen will, reichen “einfache” Teilchenbescheuniger, wie Synchrotrons den Forschern aber nicht mehr aus. Man muss dann die bewegten geladenen Teilchen durch  Parcours von starken Magneten schicken, sodass sie bei diesen vielen Richtungswechseln tausendmal stärker als in den Kurven eines klassischen Ringbeschleunigers strahlen.

Synchrotron-Strahlung in der Astronomie

Synchrotronstrahlung gibt es nicht erst seit es Teilchenbeschleuniger gibt, sondern auch im Weltall gibt es Quellen.

In der Astronomie beobachtet man Synchrotronstrahlung immer dann, wenn sich ein heißes Plasma in einem Magnetfeld befindet. Beispiele für kosmische Synchrotronquellen sind Pulsare, Radiogalaxien und Quasare.

Bei astronomischen Synchrotronquellen, kann es auch weniger energetische Synchrotronstrahung geben, die dann Frequenzen im Radiobereich hat.

Physik: Tunneleffekt

Gehört zu: Physik
Siehe auch: Kernfusion, Quantenmechanik
Benutzt: Fotos vom Spiegel

Stand: 02.07.2013

Was ist der Tunneleffekt?

Tunneleffekt ist eine anschauliche Bezeichnung dafür, dass ein Teilchen eine Potentialschwelle auch dann überwinden kann, wenn seine Energie geringer als die „Höhe“ der Barriere (Schwelle)  ist. In der klassischen Physik ist das nicht möglich, aber in der Quantenphysik gibt es das mit einer gewissen Wahrscheinlichkeit.

Der Spiegel

Quelle: https://www.spiegel.de/fotostrecke/erwischt-elektronen-beim-tunneln-fotostrecke-20657.html

Beispiel einer Potentialschwelle

Elektrisch gleichnamig geladene Teilchen stoßen sich ab –  wie z.B. zwei Protonen durch ihr elektrisches Feld (das Coulomb-Potential). Diese abstoßende Kraft steigt an, je näher sich die Teilchen kommen (mit r-2).

Eine “Potentialschwelle” kommt hier dadurch zustande, dass die Starke Kernkraft anziehend wirkt und bei kleineren Abständen stärker ansteigt, als die abstoßende elektromagnetische Kraft. Das Überwinden einer solchen Potentialschwelle, auch wenn die Energie dafür eigentlich nicht reicht, ist ein quantenmechanischer Effekt, der mit einer gewissen Wahrscheinlichkeit auftreten kann.

Die Stärke der sog. Starken Kernkraft, die zwei Protonen bei kleinem Abstand anzieht, ist nur durch sehr aufwendige Berechnungen zu ermitteln. Denn diese Starke Kernkraft wirkt primär zwischen den Quarks im Inneren eines Protons. Man spricht dann noch von einer “restlichen” Wirkung. Dazu das Stichwort: Gamow Peak.

Berechnung des Tunneleffekts

Zuerst müssten wir das Potential des betrachteten Teilchens in Abhängigkeit vom Ort  mit einer Funktion V(x) beschreiben.

Diese Potentialfunktion können wir dann in die stationäre Schrödinger-Gleichung einsetzen.

Diese Schrödinger-Gleichung ist damit eine Differentialgleichung, deren Lösung die Wellenfunktion Φ des betrachteten Teilchens ist. Damit haben wir sich die Aufenthaltswahrscheinlichkeit |Φ|² des Teilchens in Abhängigkeit von seinem Ort, welche auch jenseits der Potientialschwelle größer als Null ist.

Beispiel des Tunneleffekts

Bei der Kernfusion in unserer Sonne findet in der Hauptsache der sog. p-p-Prozess statt. Der p-p-Prozess beginnt mit der Verschmelzung zweier Protonen und der anschließenden Umwandlung eines Protons in ein Neutron und eine Positron, sodass ein Deuterium-Kern 2H entsteht.

\( ^1H +  {^1H}  \to  {^2H} + e^+ + \nu_e + 0.42 MeV \\\)

Für diesen ersten Reaktionsschritt muss die Potentialschwelle zwischen den beiden Protonen 1H überwunden werden, was der Tunneleffekt ermöglicht. Die Wahrscheinlichkeit dafür ist aber so klein, dass die durchschnittliche Reaktionszeit  1.4 1010 Jahre (in unserer Sonne) beträgt.

Quelle: https://sternentstehung.de/von-wasserstoff-zu-helium-die-pp-kette

Physik: Phasenraum

Gehört zu: Mechanik, Physik
Siehe auch: Newtonsche Mechanik, Lagrange-Formalismus
Benutzt: SVG-Grafiken aus Github

Stand: 06.04.2023

Quellen

Anregungen hierzu habe ich von Stefan Müllers Youtube-Video

erhalten.

Der Phasenraum

Im Phasenraum (auch Zustandsraum genannt) bezeichnen die Punkte die Zusände eines mechanischen Systems.

Der Zustand eines mechanischen Systems (zu einer Zeit t) kann durch Ort und Geschwindigkeit seiner Massepunkte beschrieben werden.

Dazu dienen sog. “generalisierten Koordinaten” (auch “verallgemeinerte Koordinaten” genannt).

Solche generalisierten Koordinaten werden meist geschreiben als:

  • Ortskoordinaten: \( q_1, q_2,…,q_i,…  \)
  • Geschwindigkeiskoordinaten:  \( \dot{q_1}, \dot{q_2},…, \dot{q_i},… \)

Den Physiker interessiert nun eine Zustandsveränderung mit der Zeit.
Möge ein Zustand 1 (Anfang) beschrieben sein durch \( q_i(t_1), \dot{q_i(t_1} \)
und ein Zustand 2 (Ende) beschrieben sein durch \( q_i(t_1), \dot{q_i(t_1} \).

Diese beiden Punkte im Phasenraum kann man in einem Diagramm des Phasenraums graphisch darstellen.

Es gibt viele Wege auf denen man vom Zustand 1 zum Zustand 2 kommen kann.

Abbildung 1: Wege in einem Phasenraum (Github: Phasenraum.svg)

Wege in einem Phasenraum

Auf jedem dieser Wege kann man das Pfadintegral der Engergie über die Zeit bilden. Diese Größe nennt man “Wirkung“.
Genaugenommen sind hier (infenitesimale) Energie-Unterschiede entlang des Weges gemeint.

Die Natur wählt nun denjenigen Weg, auf dem diese Wirkung minimal ist.
Hinter dem Begriff “minimal” steckt so eine Idee von “einfacher”, “ökonomischer”,  “sparsamer”,….

Um von so einem Integral das Minimum zu finden bedient man sich der mathematischen Methode der Variationsrechnung. Da werden “kleine” Differenzen betrachtet (geschrieben als kleiner Griechischer Buchstabe Delta) und  diese Differenzen werden dann als Taylorentwicklung dargestellt…

Aber welche “Energie” ist das, die wir da integrieren sollen? In der klassischen Sichtweise ist das die Lagrange-Funktion. Aber wo bekommen wir die denn her???

Wir haben da immer irgendein Kraftfeld, was zu Bewegungsgleichungen führt. Ähnlich wie wir statt eines konservativen Kraftfeldes auch das Potenzial als skalares Feld nehmen konnten, wollen wir nun statt des Potenzials die Lagrange-Funktion nehmen….

Warum ist das dann immer noch richtig?

Physik: Einstein Spezielle Relativitätstheorie

Gehört zu: Physik
Siehe auch: Allgemeine Relativitätstheorie, Raum-Zeit-Diagramme
Benutzt: WordPress-Plugin Latex, Grafiken aus Github

Stand: 12.11.2023

Überschneidungen mit: Relativitätstheorie

Die Spezielle Relativitätstheorie

Albert Einstein (1879-1955) hat 1905 die sog. “Spezielle Relativitätstheorie” (SRT) formuliert. Sie basiert lediglich auf zwei Postulaten:

  • Die physikalischen Gesetze sind gleich in allen Intertialsystemen
  • Die Lichtgeschwindigkeit im Vakuum ist gleich in allen Intertialsystemen

Die Koordinaten von Ereignissen in zwei Inertialsystemen S (t,x,y,z) und S’ (t’,x’,y’,z’), die sich relativ zueinander mit der konstanten Geschwindigkeit u  bewegen, kann man mit Formeln umrechnen, die man Lorentz-Transformationen nennt.

Einstein gelingt es, diese Lorentz-Transformationen aus den o.g. Postulaten und der Homogenität und der Isotropie des Raumes herzuleiten.
Aber diese Herleitung ist mühsam und ich zeige sie deshalb hier nicht.

Aus diesen Lorentz-Transformationen ergeben sich einige, sog. relativistische,  Phänomene:

  • Zeitdilatation
  • Längenkontraktion
  • Relativistische Geschwindigkeitsaddition
  • Relativistische Massen und Energien
  • ….

Wie man die Zeitdilation und die Längenkontraktion aus den Lorentz-Transformationen herleiten kann, zeigt beispielsweise das YouTube-Video von MathePunk.

Koordinaten-Transformation

Zur Vereinfachung nehmen wir an:

  • Nur eine Raumdimension: x
  • Die Koordinatenachsen der beiden Inertialsystem S und S’ seinen parallel zueinander und der Ursprung sei zur Zeit t=0 der gleiche
  • Die konstante Bewegung der beiden Inertialsysteme S und S’ gegeneinander erfolge  in x-Richtung

Mit dieser Vereinfachung erhalten wir ziehmlich einfache Transformationsgleichungen, die man auch “spezielle” Lorentz-Transformation nennt.

Der Lorentz-Faktor

In den folgenden Formeln kommt immer wieder ein Faktor vor, den wir “Lorentz-Faktor” nennen und mit dem griechischen Buchstaben Gamma schreiben:

\( \Large\gamma = \frac{1}{\sqrt{1-\frac{u^2}{c^2}}} \\ \tag{1} \)

Wobei u  die konstante Geschwindigkeit ist, mit der sich die beiden Bezugssysteme (Inertialsysteme) relativ zueinander bewegen.

Dieser Gamma-Faktor ist also immer größer als 1. Das bedeutet: Multiplizieren mit Gamma macht einen Wert größer, dividieren durch Gamma macht einen Wert kleiner,

Lorentz-Transformation

Die Umrechung der Koordinaten x und t zwischen diesen beiden Bezugssystemen nennt man (spezielle) Lorentz-Transformation:

\( x’ = \gamma (x – u t) \tag{2}\\ \) \( t’ = \gamma (t – \Large\frac{u}{c^2} x ) \tag{3}\\\) \( x = \gamma (x’ + u t’) \tag{4}\\ \) \( t = \gamma (t’ + \Large\frac{u}{c^2} x’) \tag{5} \\ \)

Raumzeit

In Gleichung (3) sieht man, dass die Zeit im System S’ auch abhängig von der Raumkoordinate ist; d.h. die Zeit vergeht unterschiedlich an unterschiedlichen Orten im Raum. Deswegen spricht man von der “Raumzeit”.

Längenkontraktion

Wir haben ein Objekt, dessen Länge wir im “bewegten” Bezugssystem S’ bestimmen indem wir gleichzeitig den Anfangspunkt (x’1) und den Endpunkt (x’2) messen:
\( \Delta x’ = {x’}_2 – {x’}_1 \)

Die Frage ist nun, welche Länge ein Beobachter im “ruhenden” Bezugssystem S zur Zeit t1 = t2 bestimmen wird.

Nach Gleichung (2) gilt:

\( \Delta x’ =  {x’}_2 – {x’}_1 = \gamma (x_2 – x_1 – u (t_2 – t_1))\\\)

Da die Messung der beiden x-Koordinaten im System S gleichzeitig stattfindet, gilt also t2 – t1 = 0. Also:

\( \Delta x’ = \gamma \cdot \Delta x \)
bzw.
\( \Delta x = \Large\frac{\Delta x’}{\gamma}  \)
Zusammenfassung

  • Strecken in einem bewegten Bezugssystem S’ erscheinen für den ruhenden Beobachter S verkürzt.
  • Vereinfacht: Bewegte Stecken sehen kürzer aus (aus Sicht des ruhenden Beobachters).
  • Für die Längenkontraktion gilt:   \( \Delta x = \frac{\Delta x’}{\gamma} \)
  • Die Längenkontraktion findet nur in Bewegungsrichtung statt.

Zeitdilatation

Wir haben einen Prozess dessen Zeitdauer wir im “bewegten” Bezugssystem S’ bestimmen indem wir die Startzeit (t’1) und die Endezeit (t’2) messen (also die sog. Eigenzeit):

\( \Delta t’ = {t’}_2 – {t’}_1 \\\)

Die Frage ist nun, welche Zeitdauer ein Beobachter im “ruhenden” Bezugssystem S bestimmen wird.
Nach Gleichung (5) gilt:

\( \Delta t = t_2 – t_1 = \gamma ({t’}_2 – {t’}_1 + \frac{u}{c^2}({x’}_2 – {x’}_1 )) \)

Da der gemessene Prozess in S’ ortsfest ist, gilt also x’2 – x’1 = 0. Also:

\( \Delta t = \gamma \cdot \Delta t’  \)
Zusammenfassung

  • Eine Uhr im “bewegten” Bezugssystem S’ erscheint für einen “ruhenden” Beobachter S langsamer zu gehen.
  • Vereinfacht: Bewegte Uhren gehen langsamer (aus Sicht des ruhenden Beobachters).
  • Der Zusammenhang zwischen Zeit im ruhenden System S und der Zeit im bewegten System S’ ist \(  \Delta t = \Delta t’ \cdot \gamma \)

Relativistische Addition von Geschwindigkeiten

Relativ zu einem “ruhenden” Beobachter (Inertialsystem) S möge sich ein zweiter Beobachter (Intertialsystem) S’ mit der konstanten Geschwindigkeit u in x-Richtung bewegen.

Ein Objekt möge sich im bewegten Bezugssystem S’ mit der gleichgerichteten Geschwindigkeit w entlang der x’-Achse bewegen:

\( \Large w = \frac{\Delta x’}{\Delta t’}  \tag{6}\\\)

Im ruhenden Bezugssystem S messen wir dafür die Geschwindigkeit:

\( \Large v = \frac{\Delta x}{\Delta t}  \tag{7}\\\)

Unter Anwendung der Lorenztransformationen (4) bekommen wir:

\( \Delta x = x_2 – x _1  = \gamma ( {x’}_2 + u {t’}_2) – \gamma ( {x’}_1 + u {t’}_1) = \gamma \cdot (\Delta x’ + u \cdot \Delta t’)\tag{8}\\\)

Analog bekommen wir mit Gleichung (5):

\(  \Delta t = t_2 – t_ 1 = \gamma ({t’}_2 + \frac{u}{c^2} {x’}_2) – \gamma ({t’}_1 + \frac{u}{c^2} {x’}_1) = \gamma (\Delta t’ + \frac{u}{c^2}\cdot \Delta x’)\tag{9}\\\)

Setzen wir nun (8) und (9) in Gleichung (7) ein, so erhalten wir:

\( \Large v =\frac{\Delta x’ + u \cdot \Delta t’}{\Delta t’ + \frac{u}{c^2} \cdot \Delta x’} \\\)

Wir dividieren Zähler und  Nenner durch Δt’:

\(\Large  v = \frac{\frac{\Delta x’}{\Delta t’}+u}{1 + \frac{u}{c^2}\frac{\Delta x’}{\Delta t’}} \\\)

mit Gleichung (6) kommen wir damit zu unserem Ergebnis:

\(\Large v = \frac{w + u}{1 + \frac{u\cdot w}{c^2}} \\\)

Lichtgeschwindigkeit

Wenn sich das zu messende Objekt nun im System S’ mit Lichtgeschwindigkeit bewegt, also w = c, bekommen wir:

\(  \Large v= \frac{c + u}{1 + \frac{u \cdot c}{c^2}} = \frac{c + u}{1 + \frac{u}{c}} = \frac{c + u}{\frac{c + u}{c}} = c \\ \)

Damit misst also auch der “ruhende” Beobachter S die gleiche Lichtgeschwindigkeit wie der “bewegte” Beobachter S’; d.h. die Lichtgeschwindigkeit ist für beide Beobachter gleich.

Impuls / Massen

Der Impulserhaltungssatz ist unantastbar. Also ist

\(\Large \vec{p} = m \cdot \vec{v} \tag{10}\\\)

invariant (gleich in allen Inertialsystemen).

In zwei Intertialsystemen messen wir ja unterschiedliche Geschwindigkeiten, also muss sich die Masse entsprechend verändern damit der Impuls gleich bleibt.

\(\Large m = \gamma \cdot m_0 \\ \tag{11}\)

Energie

Bekannt ist ja die berühmte Formel:

\(\Large E = m \cdot c^2 \tag{12}\\  \)

Josef Gassner zeigt in seinem Video https://youtu.be/AJ1prUzQ878k folgende Herleitung:

Wir  linearisieren den Lorenzfaktor (Gleichung 1):

\( \Large\gamma = 1 + \frac{1}{2}\frac{v^2}{c^2} + … \tag{13} \\ \)

Das setzen wir in Gleichung (11) ein und erhalten:

\(\Large m = \gamma \cdot m_0 = m_0 + \frac{1}{2} \frac{v^2}{c^2}  \\\)

Erweitern wir das mit c2 bekommen wir:

\(\Large m \cdot c^2 = m_0 c^2 + \frac{1}{2} m_0 v^2 \\ \)

Der hintere Term ist offenbar die kinetische Ernergie und dann ist der erste Term die Ruhe-Energie. Die Gesamt-Energie ist dann also::

\( \Large E = m\cdot c^2 = \gamma^2 m_0^2 \cdot c^2 \tag{14}\\\)

Diese Formel ist wegen der Linearisierung des Lorenzfaktors eigentlich falsch, soll heissen sie gilt so nur für kleine v (klein gegenüber c). Vollständig richt lautet sie:

\( \Large E^2 = m_0^2 \cdot c^4 + p^2 \cdot c^2 \tag{15} \)

Vernachlässigung relativistischer Effekte

Relativistische Effekte, wie die oben beschriebenen, kann man vernachlässigen, wenn die Geschwindigkeiten sehr klein sind gegenüber der Lichtgeschwindigkeit, wie die Betrachtung des Lorentzfaktors zeigt.

Abbildung 1: Der Lorentzfaktor in Abhängigkeit von u/c (Github: Lorentzfaktor.svc)

In der grafischen Darstellung sieht man, dass der Gamma-Faktor bei u=0 mit 1 startet und dann mit zunehmender Geschwindigkeit u immer größer wird. So ab 90% der Lichtgeschwindigkeit geht er so richtig hoch (über 2) und dann bei u=c asymptotisch gegen Unendlich.
Das bedeutet, dass so ungefähr ab 90% der Lichtgeschwindigkeit relativistische Effekte nicht mehr vernachlässigt werden können.

Ausblick

Später formulierte Einstein die Allgemeine Relativitätstheorie (ART).

Physik: Die Bra-Ket-Notation

Gehört zu: Quantenphysik
Siehe auch: Schrödinger, Komplexe Zahlen, Vektorräume

Stand: 02.08.2022

Die Dirac-Notation

In der Quantenphysik arbeiten wir mit Vektorräumen V über den komplexen Zahlen \(\mathbb{C}\). So einen Vektor

\( \vec{v} \in V \)

scheibt man in der Quantenphysik gern als sog. Ket-Vektor:

\( |v\rangle \)

Dies ist Teil der sog. Bra-Ket-Notation von  Jean Paul Dirac (1902-1984), bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zu jedem Ket-Vektor definieren wir noch einen sog. Bra-Vektor:

\( \langle v | := \left[ | v \rangle \right]^\dagger = {\left[ | v \rangle \right]^\ast}^T \)

Wobei v* der komplex konjugierte und vT der transponierte Vektor ist. Man nennt das Ganze “hermitisch konjugiert” und schreibt das mit dem hochgestellten Dagger-Symbol.

Bei einem reelen Vektorraum wäre der Bra-Vektor einfach nur der Zeilen-Vektor und der Ket-Vektor der normale Spalten-Vektor.

Zu dieser Bra-Ket-Notation gibt es enorm viele Youtube-Videos. Ein ganz einfaches ist: https://youtu.be/pBh7Xqbh5JQ

Einig sind sich alle Authoren über die Frage, was ein Ket-Vektor ist: eben ein “normaler” Vektor aus unserem Vektorraum V (also ein “Spaltenvektor”:

\( |v\rangle  = \left( \begin{array}{c} v_1 \\\ v_2 \\\ \vdots \\\ v_n  \end{array}\right) \)

Aber was um Himmelswillen ist der dazugehörige Bra-Vektor?

Einfache Gemüter sagen einfach:

\( \langle v|  = \left( \begin{array}{r} v_1^\ast & v_2^\ast & \cdots & v_n^\ast  \end{array}\right) \)

Der etwas nachdenkliche Mathematiker fragt sich:

  • “Konjugiert komplex” ist ja zunächst nur für Skalare (komplexe Zahlen) definiert. Kann man auch zu einem Vektor den konjugiert komplexen bilden?
  • Mit endlichen Dimensionen geht das ja alles so. Aber in der Quantenphysik wird man doch mit Hilberträumen unendlicher Dimension arbeiten. Wie funktionieren diese Konzepte denn da?

Skalarprodukt

MIt HIlfe von Bra-Vektor und Ket-Vektor definieren wir nun ein Skalarprodukt (inneres Produkt):

Das Skalarprodukt der Vektoren v und w schreiben wir als:
\( \langle v | w \rangle \)

Aber wie wird dieses Skalarprodukt berechnet (definiert)?

Dazu wählen wir eine Basis des Vektorraums: \( \{ |b_1\rangle, |b_2\rangle, |b_3\rangle,…\} \). Das geht immer, da jeder Vektorraum eine Basis hat und definieren das Skalarprodukt zunächt für diese Basisvektoren (damit wir eine orthonormale Basis bekommen):

\( \langle b_i | b_j \rangle := \delta_{ij} \)

Mit diesem Skalarprodukt ist die Basis per Konstruktion “orthonormal”.

Wenn wir nun unsere Vektoren v und w als Linearkombination dieser Basisvektoren schreiben:

\( | v \rangle  = \sum{v_i |  b_i \rangle} \)
und
\( | w\rangle = \sum{w_i | b_i \rangle} \)

definieren wir als Skalarprodukt der Vektoren v und w einfach:
\( \langle v | w \rangle := \sum{{v_i}^\ast \cdot w_i}  \)

Nun müssen wir der guten Ordnung halber noch zeigen, dass dieses allgemeine Skalarprodukt tatsächlich eine Erweiterung des für unsere Basisvektoren definierten Skalarprodukts ist. Wir bilden nehmen also zwei Basisvektoren |bi> und |bj> und bilden das Skalarprodukt nach der erweiterten Regel:

Die Komponenten von |bi> sind δij und die Komponenten von |bj> sind δji .
Und damit ist das Skalarprodukt nach erweiterter Definition:

\( \langle b_i |  b_j \rangle = \sum{{\delta_{ij}}^\ast  \delta_{ji} } = \delta_{ij} \)

Was übereinstimmt mit der ursprünglichen Definition des Skalarprodunkts zweier Basisvektoren.

Das so definierte Skalarprodukt ist nicht mehr kommutativ, sondern “hermitisch”; d.h.:

\( \langle v, w \rangle  = \langle w, v \rangle ^\ast \)

Das Skalarprodukt eines Vektors mit sich selbst ist immer reelwertig und “positiv definit”.

Hilbertraum

Ein Hilbertraum ist ein Vektorraum von unendlicher Dimension, der ein Skalarprodukt hat (Prä-Hilbertraum) und vollständig ist.

In der Quantenphysik verwendet man ja immer Hilberträume über den komplexen Zahlen. Die Elemente eines solchen Hilbertraums sind also Vektoren, die wir als Zustände des betrachteten quantenphysikalischen System verstehen. Statt der Wellenfunktion, die den Zustand beschreibt haben wir jetzt einfach einen Vektor \(\vec{v}\), der den Zustand beschreibt.

Um mit dieser Wellenfunktion etwas “netter” umzugehen, hat Jean Paul Dirac (1902-1984) die nach ihm benannte Dirac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Zunächst schreibt man also ganz normale Vektoren als Ket-Vektoren. Also statt: \( \vec{w} \) schreibt man: \( |w\rangle \). Generell sind Ket-Vektoren “normale” Vektoren aus einem Vektorraum V über \(\mathbb{C}\). Man kann sie sich als “normale” Spaltenvektoren vorstellen.

Ein Bra-Vektor geschrieben \( \langle v|\) ist eine lineare Form \( v: V \to \mathbb{C}\). Bra-Vektoren kann man sich als Zeilenvektoren vorstellen.

So ein Bra \( \langle v|\) kann dann auf einen Ket \( | w \rangle\) angewendet werden, was man schreibt als: \( \langle v|w \rangle \in \mathbb{C} \).

Wenn man so eine lineare Form \( v: V \to \mathbb{C}\) als Zeilenvektor auffasst, dann ist <v | w> das Skalarprodukt (innere Produkt) der beiden Vektoren.

In einer Bra-Ket-Notation verwendet man innerhalb der Notation häufig Kurz-Symbole für den Vektor oder die Linearform. Beispielsweise statt:

\( a  |\Psi_1\rangle + b  |\Psi_2\rangle \\ \)

schreibt man einfach:

\( a  |1\rangle + b  |2\rangle \\ \)