Mathematik: Singularität

Gehört zu: Mathematik
Siehe auch: Koordinatensysteme, Schwarzes Loch, Kosmologie, Einsteinsche Feldgleichungen

Stand: 12.06.2024

Der Begriff  Singularität wird ein wenig unterschiedlich verstanden. Beispielsweise soll der Urknall eine Singularität gewesen sein. Auch in Schwarzen Löchern spricht man gern über Singularitäten

Singularität im engeren Sinne

Im engeren Sinne hat eine Funktion f(x) eine Singulatität an einem Punkt x1, wenn sich  der Funktionswert dem Unendlichen nähert, wenn der x-Wert sich dem Punkt x1 nähert.

\( \lim  \limits_{x \to x_1} f(x) = \infty \\\)

So eine mathematische Singularität würde zur Beschreibung physikalischer Zusammenhänge ungeeignet sein, da es soetwas in der physikalischen Wirklichkeit nicht gibt.

Außerdem wird hier mit kontinuierlichen Variablen gearbeitet, obwohl hier eine quantenpysikalische Betrachtung erforderlich wäre.

Singularität im weiteren Sinne

Im weiteren Sinne versteht man als Singularität einfach einen Ort (oder Zeitpunkt), wo ein “ungewöhnliches”, besonderes Verhalten zu beobachten ist; also eine Einzigartigkeit…

Eine Frage ist dabei auch, “wer” sich da ungewöhnlich verhält. Um sich genauer auszudrücken, sollte man das adjektivisch formulieren; z.B.

  • eine Funktion ist singulär
  • eine Raumzeit ist singulär (z.B. die Raumkrümmung wird irgendwo unendlich)

Unter “eine Raumzeit” versteht man eine Lösung der Einsteinschen Feldgleichungen; also beipielsweise die Schwarzschild-Lösung oder die Kerr-Lösung….

Nackte Singularität

Wenn man unter einer Singularität einen Punkt einer Raumzeit mit unendlicher Raumkrümmung meint, kann man noch unterscheiden, ob sich ein Ereignishorizont bildet oder nicht. Letzteres, also eine singuläre Raumkrümmung ohne Ereignishorizont, nennt man “Nackte Singularität”.

Beides ist nach der Allgemeinen Relativitätstheorie (theoretisch) möglich.

Für die SEO-Optimierung

Da soll mehr Text sein in so einem Artikel. Also labern wir da noch etwas dazu. Die Beantwortung der Frage, ob es in einem Schwarzen Loch eine Sigularität gibt, hängt davon ab, wie man den Begriff Singulatität eigentlich definiert. Roger Penrose und Stephen Hawking sollen da etwas mit Geodäten gemacht haben…

Es sollen mindestens 300 Zeichen sein. Also müssen wir ein wening herumlabern.

Astronomie: Bahnelemente

Gehört zu: Himmelsmechanik
Siehe auch: Sonnensystem

Benutzt: Fotos von Astrodictum Simplex

Stand: 11.06.2024

Was sind Bahnelemente?

Bahnelemente sind Werte, die die Bahn eines Körpers im Sonnensystem (Planet, Komet, Asteroid,…) beschreiben sollen.

Statt “im Sonnensystem” kann man auch analog andere himmelsmechanische Systeme betrachten z.B. den Jupiter mit seinen Monden, die Sterne, die um das Galaktische Zentrum kreisen etc.

Im Sonnensystem nimmt man gern die Bahn der Erde (Ekliptik) um die Sonne als Referenzobjekt. Dabei werden folgende Begriffe verwendet:

  • Knotenlinie: Schnittline der Bahnebene zur Ekliptikebene (Erdbahnebene)
  • Perihel bzw. Aphel: Sonnennächster bzw. sonnenfernster  Punkt der Bahn
  • Apsidenlinie: Verbindungslinie Perihel-Aphel

Als Bahnelemente bezeichnet man dann:

  • Lage der Bahn im Raum
    • Inklination: Neigung der Bahnebene gegen die Ekliptikebene
    • Länge des aufsteigenden Knotens: Heliozentrischer Winkel zwischen aufsteigendem Knoten und dem Frühlingspunkt (gemessen in der Ekliptikebene)
    • Perihellänge (auch: Argument des Perihels): Heliozentrischer Winkel zwischen Perihel und aufsteigendem Knoten (gemessen in der Bahnebene)
  • Gestalt der Bahn
    • Länge der großen Halbachse der Ellipsenbahn
    • Exzentrizität der Ellipsenbahn
  • Zeitpunkt eines Periheldurchgangs

Zur Bestimmung der Bahn benötigt man sechs Bahnelemente. Carl Friedrich Gauß (1777-1855) hat gezeigt, wie aus drei vollständigen Positionsbestimmungen diese sechs Bahnelemente gefunden werden können.

Zur Verdeutlichung, was “Lage im Raum” bedeutet, finden wir bei Astrodictum Simplex  folgende schöne Diagramme:

Copyright: http://www.astrodicticum-simplex.de/wordpress/2008/02/04/basics-bahnelemente/

Abbildung 1: Inklination (Astrodictum Simplex)

Abbildung 2: Länge des Aufsteigenden Knotens (Astrodictum Simplex)

Abbildung 3: Perihel (Astrodictum Simplex)

Physik: Richard Feynman Pfadintegral

Keyphrase: Richard Feynman

Gehört zu: Quantenphysik
Siehe auch: Schrödinger-Gleichung, Teilchenphysik, Integralrechnung

Stand: 04.09.2024

Richard Feynman (1918-1988) war Professor für Theoretische Physik an den Universitäten Cornell, Caltech u.a.

Photo from CalTech archives

Feynman gilt als einer der großen Physiker des 20. Jahrhunderts, der wesentliche Beiträge zum Verständnis der Quantenfeldtheorien geliefert hat. 1965 erhielt er den Nobelpreis zusammen mit Shin’ichirō Tomonaga und Julian Schwinger.
Besonders bekannt geworden ist Feynman durch:

Photo from CalTech archives

Das Pfadintegral nach Richard Feynman

Das auf Feynman zurückgehende “Pfadintegral” ist nicht ein Integral entlang eines Pfades von A nach B, sondern ein Integral über alle möglichen Pfade von A nach B.

Das Integral entlang eines Pfades heisst “Kurvenintegral”; dabei muss der Pfad (=die Kurve) parametrisiert werden.

Feynman-Diagramme

Der Witz am “Standardmodell der Elementarteilchenphysik” ist, dass neben der Aufzählung und Klassifikation der Elementarteilchen auch die Wechselwirkungen zwischen ihnen beschrieben werden. Um diese Wechselwirkungen zwischen Elementarteilen zu beschreiben, erfand Richard Feynman eine spezielle Art von Diagrammen, die nach ihm benannt wurden.

Richard Feynman: Seine berühmten Vorlesungen

Berühmt geworden sind die Vorlesungen von Richard Feynman, die man heute noch in Youtube findet.

Search Engine Optimization

We need some more text in this blog article. Otherwise this article will be rated as a “not good”  SEO score. The text length should be 300 words. No problem, we can add words with absolutely no meaning ad libidum. Noch mehr Wörter sind gefordert.

We need some more text in this blog article. Otherwise this article will be rated as “not good” SEO score. The text length should be 300 words. No problem, we can add words with absolutely no meaning ad libidum. Noch mehr Wörter sind gefordert.

Noch mehr Blah-Blah-Text kommt sofort:

We need some more text in this blog article. Otherwise this article will be rated as “not good” SEO score. The text length should be 300 words. No problem, we can add words with absolutely no meaning ad libidum. Noch mehr Wörter sind gefordert.

We need some more text in this blog article. Otherwise this article will be rated as “not good” SEO score. The text length should be 300 words. No problem, we can add words with absolutely no meaning ad libidum. Noch mehr Wörter sind gefordert.

Und noch ein bisschen Text, damit wir die 300 Wörter erreichen.

Astronomie: Dunkle Materie

Gehört zu: Kosmologie
Siehe auch: Standardmodell der Kosmologie

Stand: 06.06.2024

Die Idee: Dunkle Materie

Der Begriff “Dunkle Materie” wird benutzt um Materie zu bezeichnen, die Gravitation verursacht, aber nicht sichtbar ist; also nicht durch elektromagnetische Wechselwirkungen (z.B. Licht) bemerkbar ist.

Gravitation

Große Massen irgendwo im Kosmos beeinflussen die Bewegung anderer Massen durch ihre Gravitation.

Dazu haben wir die Keplerschen Gesetze und das Newtonsche Gravitationsgesetz.

Nach dem Dritten Keplerschen Gesetz gilt für die Umlaufszeiten Ti und die großen Halbachsen ai:

\( \Large \frac{T_1^2}{T_0^2} = \frac{a_1^3}{a_0^3} \\\)

Für unser Sonnensystem können wir die Erdbahn mit a = 1 AE und T = 1 Jahr nehmen und bekämen:

\( \Large T = a^{1.5} \\ \)

Die Bahngeschwindigkeit in einer Kreisbahn wäre:

\(  \Large v = \frac{2 \pi a}{T} = 2 \pi a^{-0.5}\\ \)

Abblidung 1: Kreisbahngeschwindigkeit (GitHub: Kepler.svg)

Der Coma Galaxienhaufen

Fritz Zwicky (1898-1974): Coma-Haufen

  • Schon 1930 hat Fritz Zwicky bei der Untersuchung des Coma Galaxienhaufens festgestellt, dass sich dort die Galaxien viel schneller bewegen als es nach der Abschätzung der Gesamtmasse des Galaxienhaufens sein sollte.
  • Zwicky postulierte deshalb die Anwesenheit von unsichtbarer Materie im Coma-Haufen.
  • Der Begriff „Dunkle Materie“ wurde geprägt.

Rotationskurven in Spiralgalaxien

Vera Rubin (1928-2016): Rotationskurve M31

Dieses berühmte Diagramm stammt aus der Arbeit Rotation of the Andromeda Nebula from a Spectroscopic Survey of Emission Regions, die Rubin im Jahr 1970 veröffentlichte.
Die x-Achse zeigt den Abstand zum Zentrum der Galaxie; die Einheiten sind oben in Kiloparsec angegeben und unten in Bogenminuten. Und man erkennt deutlich, dass die Kurve im rechten Bereich des Diagramms nicht – wie zu erwarten wäre – nach unten abfällt, sondern im Wesentlichen gerade verläuft.

Abbildung 2: Rubins Rotationskurve M31 (scr3.golem.de/screenshots/1701/verarubin/thumb620/rubin_1.jpg)

)

Credit: V. Rubin and K. Ford, Astrophysical Journal, vol. 159, p.379 (February 1970).

Mathematik: Variationsrechnung – Calculus of Variation

Gehört zu: Mathematik
Siehe auch: Integralrechnung, Metrik, Lagrange-Formalismus, Pfad-Integral

Stand: 05.06.2024

YouTube: Dr. Juan Klopper

Idee der Variationsrechnung

Mit Hilfe der Variationsrechnung versucht man Minima zu finden.

Beispiele:

  • Der kürzeste Weg zwischen zwei Punkten
  • Die kürzeste Zeit einer Bewegung (Fermat’sches Prinzip)
  • Die kleinste Oberfläche eines Volumens
  • Die kleinste “Wirkung” in einem physikalischen System (s.u.)

Im Gegensatz zur Schul-Mathematik suchen wir jetzt nicht einen Punkt, bei dem eine Funktion ein Minimum hat, sondern einen Pfad (also eine Funktion) bei der ein “Funktional” (Funktion von Funktionen) ein Minimum hat.

Die Euler-Lagrange-Gleichung

Wir haben eine Funktion entlang eines Pfades. Wobei so ein Pfad definiert sei durch eine Funktion y = y(x) zwischen den Stellen x1 und x2. Wir können eine Funktion F entlang eines Pfades “aufsummieren” d.h. integrieren. Wir suchen nun zu einer gegebenen Funktion F  denjenigen Pfad, bei dem dieser Integralwert ein Mininimum wird.

\( S = \int\limits_{x_1}^{x_2} F(x, y, y^\prime) \, dx = Minimum \\\)

Um das Minimum dieses Integralwertes über alle Pfade zu finden, “differenziert” man S nach dem Pfad und schreibt δS=0; d.h. eine infinitesimal kleine Änderung im Pfad soll nur eine infinitesimal kleine Änderung in S bewirken. Man nennt einen solchen Pfad auch “stationär”.

Leonard Euler (1707-1783) entwickelte dazu die “Variationsrechnung”. Sein Trick war, “kleine Änderungen” eines Pfades mathematisch zu beschreiben und einen Methode zu finden, danach zu differenzieren.

Nach längerem Rechnen (auch mit Integration by Parts) bekommt man als Lösung der Minimum-Aufgabe die berühmte Euler-Lagrange-Gleichung,

\(\Large \frac{\partial F}{\partial y} – \frac{d}{dx}(\frac{\partial F}{\partial y^\prime}) = 0 \\\)

Beispiel

Mal ein ganz einfaches Beispiel: Der kürzeste Weg zwischen zwei Punkten P1 =(x1, y1) und P2 =(x2,y2):

\( S = \Large\int\limits_{P_1}^{P_2} ds = \int\limits_{x_1}^{x_2} \sqrt{1 + (\frac{dy}{dx})^2 }\, dx  = Minimum\\ \)

Wir haben in diesem Fall also:

\( F(x, y, y^\prime) = \Large\sqrt{1 + {y^\prime}^2 } \\\)

Wir wollen auf diese Funktion F die obenstehende Euler-Lagrage-Gleichung anwenden und bestimmen dazu zunächst die einzelnen Terme:

\( \frac{\partial F}{\partial y} = 0 \\ \)

und:

\( \frac{\partial F}{\partial y^\prime} = \frac{1}{2}  ( 1 +{ y^\prime}^2) ^{-\frac{1}{2}}\cdot 2 y^\prime = \frac{y^\prime}{\sqrt{1 + {y^\prime}^2}}\\ \)

Wenn wir diese beiden Terme in die Euler-Lagrange-Gleichung einsetzen, erhalten wir schließlich:

\( \frac{d}{dx}(\frac{\partial F}{\partial y^\prime}) =  \frac{d}{dx}(\frac{y^\prime}{\sqrt{1 + {y^\prime}^2}}) = 0\\\)

Wann ist eine Ableitung einer Funktion gleich Null? Wenn die Funktion eine Konstante (c)  ist. Also ist:

\( \frac{y^\prime}{\sqrt{1 + {y^\prime}^2}} = c \\\)

Wenn wir dann diese Gleichung quadrieren und ein wenig umstellen erhalten wir:

\( (y^\prime)^2 = const. \\ \)

Damit ist auch y’ konstant und alle Lösungen dieser Differentialgleichung sind:

\( y = a x + b \\ \)

Also haben wir gerade Linien als Minimum des Abstands.

Somit  haben wir für einen ersten sehr simplen Fall die Richtigkeit der Euler-Langrange-Gleichung gezeigt.

Prinzip der kleinsten Wirkung

Wenn F = Ekin – Epot, nennt man das Integral, warum auch immer, “Wirkung” (engl. action) entlang des Pfades.

\( S = \int\limits_{x_1}^{x_2} (E_{kin}(x, y, y^\prime) – E_{pot}(x, y, y^\prime)) \, dx = Minimum \\\)

Daraus ergibt sich die sog. Lagrange Mechanik.

Genaugenommen müsste der Pfad dann noch mit der Zeit t parametrisiert werden…

Mathematik: Integralrechnung

Gehört zu: Mathematik

Siehe auch: Kurven, Metrik, Pfadintegral

Stand: 30.05.2024

Die Integralrechnung bildet zusammen mit der Differentialrechnung, das was die Engländer und Amerikaner “Calculus” nennen. Bei uns sagt man eher “Infinitesimalrechnung”. Erfunden haben sollen das Newton und Leibnitz unabhängig von einander.

Die Grundlagen haben wir in der Schul-Mathematik gelernt.

Allgemeines

Es gibt ein bestimmtes Integral und ein unbestimmtes Integral.

Das unbestimmte Integral einer Funktion ist einfach die Umkehroperation zum Differenzieren. Man sucht eine sog. Stammfunktion, die differenziert die ursprüngliche Funktion ergibt. Zur Stammfunktion kommt dann immer eine beliebige Integrationskonstante dazu.

Das bestimmte Integral geht von einer Untergrenze zu einer Obergrenze. Da hebt sich eine Integrationskonstante immer weg. Man verbildlicht sich das gerne als Fläche unter einer Kurve.

Wichtige Regeln

Das Integrieren einer Funktion ist im allgemeinen schwieriger als Differenzieren, weil man ja eine Stammfunktion sucht, die…

Neben den vielen einfachen Regeln in der Integralrechnung gibt es eine, die ich aus der Schule so nicht wirklich kannte: “Integration by Parts“.

Integration by Parts (Partielle Integration)

Wenn man ein Integral lösen will, was trotz der üblichen Bemühungen (z.B. algebraisch Vereinfachen, Substituieren,…) widerspenstig ist, hilft es manchmal es so umzuschreiben, dass dann die Lösung klappt.

\( \Large \int u \, dv = u \cdot v \, \, – \int v \, du \)

Wir bekommen statt eines “unschönen” Integrals nun ein anderes Integral; das würde Sinn machen, wenn das neue Integral einfacher zu lösen wäre.

Man muss dazu geschickt wählen, was u sein soll und was dv sein soll.

Beispiel:

\( \Large \int x \cdot e^x \, dx = ? \)

Wir versuchen es mit:  \( u = x \). Dann muss  \( dv = e^x \, dx \) sein.

Um die Formel anzuwenden, brauchen wir dazu du und v.

\(du\) bekommen wir durch Differenzieren von \( u \): \( du = dx \)

\(v\) bekommen wir durch Integrieren von \( dv \): \( v = e^x \)

Das setzen wir nun in die Formel ein:

\(\Large \int x \cdot e^x \, dx = x \cdot e^x  – \int e^x \, dx\\\)

Das neue Integral können wir leicht lösen und bekommen also:

\(\Large \int x \cdot e^x \, dx = x \cdot e^x  –  e^x + c\)

Tipps zur “Integration by Parts”

Man kann einen “schwierigen” Integranden ja verschieden in Faktoren (u und dv) aufbrechen.

Wenn ein Versuch nicht zum Ziel führt, kann man einen neuen Versuch machen etc.

Generell sagt man, dass man denjenigen Faktor als “u” wählen sollte, der beim Differenzieren einfacher wird wobei der andere Faktor “dv” dann beim Integrieren keine Schwierigkeiten machen sollte.

Reisen: Südafrika 2024

Gehört zu: Reisen
Siehe auch: Afrika, Golf, Rovos Rail, Google Fotos, Südafrika 2025

Benutzt: Fotos von Google Drive

Stand: 29.01.2025

Rovos Rail: African Golf Collage

Wir  hatten über das Reisebüro “Venter Tours” den Rovos Train und zwei zusätzliche Tage danach in Franschoek gebucht.

Alle unsere Fotos zu dieser Reise befinden sich auf Google Drive:
https://drive.google.com/drive/folders/1-RRsdL4jJvn8x0tE2Sr-EM0SsavYIQQc?usp=sharing

Auf der Seite von Google Drive sollte man dann oben rechts die Ansicht von “Listenlayout” auf “Rasterlayout”  stellen, dann sieht man die Vorschauen der Fotos. Wenn man dann auf so eine Vorschau klickt, bekommt man das ganze Bild.

Abbildung 1: Fotos auf Google Drive (20240421)

Tag 1: 31.03.2024

Wir wollen mit der Turkish Airlines mit TK1664 von Hamburg nach Istanbul und weiter mit TK42 von Istanbul nach Johannesburg fliegen.

Beim Einchecken in Hamburg hies es, der Flug TK1664 hätte zwei Stunden Verspätung und wir müssten uns in Istanbul beeilen mit dem Anschlussflug. Monika buchte deswegen gleich eine “Assistenz” für den Istanbul Airport.
Schließlich hatte der Flug TK1664 aber über 4 Stunden Verspätung, sodass wir den Anschlussflug in Istanbul nach Johannesburg nicht mehr erreichten.

Gegen 4 Uhr morgens kommen wir in Istanbul im Hotel Sheraton Esenyurt an – allerdings ohne Gepäck. Zum Einchecken im Hotel wird der Reisepass benötigt.

Tag 2: 01.04.2024

Wir schlafen bis 11 Uhr und bekommen dann als unser Frühstück das Lunch (Penne Arabiata).

Nachmittags machen wir eine Sight Seeing Tour durch Istanbul, Blaue Moschee etc. Der Fahrer setzt uns bei den Sehenwürdigkeiten ab und wir rufen ihn an, wenn es weiter gehen soll. (Fotos).

Foto: Kleine Moschee

Foto: Blaue Moschee

Istanbul ist ein Moloch mit fast 20 Millionen Einwohnern und ständigen weiträumigen Verkehrsstaus.

Wir sind gegen 19 Uhr zurück im Sheraton Hotel, wo wir zu Abend essen.

Um 22 Uhr haben wir den Transfer vom Hotel zum Flughafen, wo wir einen zweiten Versuch haben, den Flug nach Johannesburg zu erreichen.

Foto: Istanbul Flughafen

Diesmal klappt es und wir fliegen nach Johannesburg – mit 24 Stunden Verspätung.

Tag 3: 02.04.2024

Der Flug TK42 startet gegen 01:10 Uhr von Istanbul und bringt uns morgens nach Johannesburg.

Dort erhalten wir unser Gepäck – allerdings ist mein Golf-Travelcover beschädigt.

Der Fahrer der Firma Ulysses Tours erwartet uns am Flughafen.

Wir müssen aber zuerst noch am Flughafen die Schadensmeldung wegen des Gepäcks bei der Firma Menzies, die für Turkish Airlines das Gepäck macht, aufgeben.

Der Fahrer bringt uns dann direkt (d.h. ohne das eigentlich geplante Hotel) nach Praetoria zur Rovos Station in Capital Park wo wir gegen 14:00 Uhr eintreffen und einchecken – Reisepass erforderlich.

Pünklich um 16 Uhr beginnt der offizielle Teil mit zwei klassischen Streichern.

Kurz nach 18 Uhr setzt sich der Rovos-Zug dann in Bewegung. Es sind insgesamt 45 Gäste an Bord.

Es ist wie auf einem Kreuzfahrtschiff: wir essen und schlafen auf dem Zug. Zum Lunch und Dinner gibt es beste viergängige Menüs. Die Getränke zum Essen und auch sonst sind frei. Es gibt dann viele Tagesausflüge und teilweise auch Hotelstopps.

Unser Programm: Kabine einräumen, duschen, Dinner, schlafen.

Tag 4: 03.04.2024

Wir verbringen den ganzen Tag auf dem Zug. Dabei passieren wir ein Kohlegebiet in der Nähe von Dallstroom (Fotos).

Tag 5:  04.04.2024

Der Zug hat Malelane am Eingang zum Krügerpark erreicht.

Foto: Malelane Station

Während die “Leisure Guests” am Tage einen Game Drive durch den Krügerpark machen, gibt es für die Golfspieler eine Runde auf dem neuen Golfplatz Kambaku am Crocodile River in der Nähe von Komatipoort (Fotos), den unser mitfahrender Golf Pro Jan-Louis ausgesucht hatte.

Foto: Crocodile River

Unser Golf Pro fährt uns zurück zum Zug in Malelane (20240404_145231.jpg ).
Im Zug haben wir unser Dinner und fahren weiter nach eSwatini (Swaziland).

Tag 6: 05.04.2024

Beim Aussteigen in eSwatini werden unsere Pässe gestempelt.

In eSwatini hat unser Golf Pro einen anderen Golfplatz für uns ausgesucht.

Golfrunde im neuen Nkonyeni Golf Estate (20240405_140917.jpg ).

Zurück zum Zug.

Tag 7: 06.04.2024

In der Nacht hat der Zug die Grenze nach Südafrika überquert, die bis 22 Uhr geöffnet ist. Allerdings gibt es ein Problem mit dem Lokführer; darum stehen wir weiter am Genzort Golela auf der Südafrikanischen Seite.

Heute geht’s (ohne Golf) zu einem ausführlichen Game Drive in das Hluhluwe Game Reserve (20240406_100019.jpg ).

Zurück zum Zug, der uns in der Nacht weiter nach Durban bringt.

Tag 8: 07.04.2024

Wir wachen morgens auf in dem riesigen leeren Bahnhofsgebäude in Durban. Es regnet.

Golfrunde im Durban Country Club (Nähe Moses Mabhida Stadion).

Zurück zum Zug in der Durban Central Train Station in strömendem Regen.

Unser nächster Golfplatz sollte im Champagne Sports Resort sein. Dieser Platz ist aber wegen der vielen Regenfälle in den letzten Tag nun geschlossen.

Der Zug fährt nach “Ladysmith”.

Tag 9: 08.04.2024

Die Golfer fahren per Kleinbus von Ladysmith nach Nottigham Road. Dort spielen wir eine Runde Golf auf der Growrie Farm Golf Lodge (Foto: 20240408_122209.jpg ).

Zurück zum Zug in “Ladysmith”.

In der Nacht fährt der Zug weiter nach Harrismith.

Tag 10: 09.04.2024

Wir fahren morgens mit dem großen Bus (also ohne Golf) von Harrismith durch den Golden Gate Highlands National Park (20240409_091134.jpg ) nach Clarens.

Nach einem längeren Rundgang in Clarens bringt aus der Bus zurück zum Zug in Harrismith.

Nun hies es, die geplante Weiterfahrt nach Bloemfontein sei nicht möglich, da die Schienen unterspült seien. Wir müssten also einen anderen Weg finden, um nach Fancourt zu gelangen, wo die geplante Reise weitergehen sollte.

Der Zug fährt zurück nach Ladysmith, von wo aus wir später weiter nach Joburg fahren wollen, um Flüge nach Port Elisabeth (“PE”) bzw. George zu bekommen.

Die Golfer entscheiden sich für einen Linienflug nach George von wo aus man zwei Nächte in Fancourt verbringen kann. Die Nicht-Golfer fliegen mit einem Charterflug nach PE, wo sie dann den Ado Elephant Park geniessen können.

Im Zug fahren wir von Ladysmith nach Newcastle.

Tag 11: 10.04.2024

Morgens steht der Zug in Newcastle. Wir fahren über Standerton nach Heidelberg (Foto: 20240410_151519.jpg ).

Optional wird zum Ausgleich eine Tour nach Soweto angeboten.

Kurz vor 16 Uhr setzt sich der Zug in Bewegung in Richtung Meyerton bis zum Tagesziel Potschefstroom, welches wir um 23:40 Uhr erreichen.

Tag 12: 11.04.2024

Da die Golfer erst um 14 Uhr den regulären Inlandsflug nach George nehmen, haben wir noch etwas Zeit und besichtigen den Royal Johannesburg & Kensington Golf Club (Fotos: 20240411_113536.jpg ).

Von da aus geht’s zum Flughafen Joburg (Oliver Tambo), von wo aus wir mit einem Linienflug um 14 Uhr nach George fliegen.

In George fahren wir im Kleinbus zu unserem Hotel nach Fancourt (gehört seit 1994 Hasso Plattner). Zum Einschecken ist wieder der Reisepass erforderlich.

Tag 13: 12.04.2024

Morgens fahren wie im Kleinbus von Fancourt nach Pezuela.

Golfrunde in Pezula (Fotos: 20240412_134809.jpg ).

Auf dem Rückweg nach Fancourt machen wir einen Fotostopp am Dolphin Point in Wilderness (Fotos: 20240412_171500.jpg ).

Tag 14: 13.04.2024

Von Fancourt fahren wir im Kleinbus nach George.

Golfrunde in George (20240413_090708.jpg ) mit Tieren am Abschlag (Opossums?).

Danach fahren wir mit dem Kleinbus eine längere Strecke durch das Groot Swartberg Nature Reserve (20240413_155409.jpg ) bis nach Price Albert Road, wo wir wieder in den Zug einsteigen.

Tag 15: 14.04.2024

Der Zug erreicht Belleville gegen 17:40 Uhr wo der Zug auf dem Rangierbahnhof mit einer neuen Lok am Ende gewendet wird, weil der Bahnhof in Cape Town ein Kopfbahnhof ist.

Um 18:50 geht es endlich weiter Richtung Cape Town, das wir gegen 20 Uhr erreichen. Damit ist die Rovos Tour zuende.

Das Gepäck wird ausgeladen und über die Straße zur Rovos-Lounge getragen. Dort erwartet uns schon unser Fahrer für den Transfer zum Hotel nach Franschoek.

Tag 16: 15.04.2024

Für den ersten Tag in Franschoek haben wir eine Tour mit der Wine Tram gebucht.

Foto: 20240415_154324.jpg

Wir haben die Tour “Red Line – Bus first” ausgesucht.
Um 09:15 sind wir beim Info-Kiosk. Mit dem Shuttle geht’s zum Terminal, wo um 09:30 unsere Tour startet.

Unser erster Stopp mit dem Tram-Bus ist am Weingut Haut Cabriere (Fotos: 20240415_104711.jpg ).

Dann geht’s weiter nach La Lude (Fotos: 20240415_110401.jpg ).

Der Tram-Bus bringt uns zurück zum Terminal in Franschoek, wo wir auf die echte Tram wechseln.

Von der Haltestelle der Tram am Weingut Grand Provence werden wir per Traktor ins Weingut befördert (Foto: 20240415_134151.jpg ).

Wo wir im Bistro ersteinmal eine Bissen essen (Fotos: 20240415_124612.jpg ).

Danach geht’s weiter mit der Tram zum Weingut Rickerty Bridge (Fotos: 20240415_142949.jpg ) und schließlich zum Franschoek Cellar.

Tag 17: 16.04.2024

Für den zweiten Tag in Franschoek haben wir ein Treffen mit Renate im Paarl Golfclub organisiert.

Um 09:00 Uhr haben wir einen Fahrer von Magnas Tours gebucht, der uns vom Hotel zum Golfclub Paarl bringt.

Nach der Golfrunde (Foto) geht’s zum Weingut Laborie in das Restaurant Giovanni zu einem “Light Lunch” mit Renate (Foto).

Foto: Mit Renate im Laborie

Der Fahrer von Magnas Tours bringt uns zurück zum Hotel nach Franschoek.

Tag 18: 17.04.2024

Zum Frühstück im Hotel gönnen wir uns ein Egg Benedict (Foto: 20240417_091844.jpg ).

Um 13:30 holt uns der Fahrer von Green Apple Tours zum Transfer zum Airport Cape Town ab.

In der Lounge am Airport Cape Town warten wir bis unser Flieger TK45 geht. Eine gute Stunde Verspätung hat dieser Flieger, was er aber irgendwie im Fluge aufholen soll.

Tag 19: 18.04.2024

Gegen 06:00 Uhr landet unser Flieger aus Joburg in Istanbul Attatürk.

Im Laufschritt geht es dann zum Gate B1 zum Anschlussflug TK1661 nach Hamburg. Das haben wir gerade so geschafft. Von Turkish Airlines keinerlei Information, geschweige den Unterstützung, dabei. Wie wir in Hamburg sehen werden, hat der Flughafen Istanbul Attatürk unser Gepäck nicht rechtzeitig zum Anschlussflug gebracht.

Wir kommen mit Flug TK1661 gegen 09:00 Uhr in Hamburg Airport an.

Das Gepäck ist leider nicht da. Schnell zum Baggage Tracing, wo wir schon auf einer langen Liste stehen, die die Turkisch Airlines geschickt hat.

Mit dem Taxi (ohne Gepäck) nach Hause zur Bundesstrasse.

Tag 20: 19.04.2024

Um 15:00 Uhr wird unser Gepäck bei uns zuhause in der Bundesstrasse angeliefert.

Turkish Airleines (Business Class) war eine interessante Erfahrung. Wir werden das wohl nicht wiederholen wollen.

Turkish Airlines 21.04.2024

Ich beantrage bei Turkish Airlines eine Entschädigung für die Flugverspätung per E-Mail.

Turkish Airlines 15.05.2024

Turkish Airlines sendet eine Referenznummer per E-Mail

Turkish Airlines 18.05.2024

Turish Airlines lehnt eine “compensation” ab, mit folgender generellen Begründung (ohne Begründung im Detail): ” …airlines are not obliged to pay compensation where flight disruption has been caused by events outside their control.”

Turkish Airlines 27.07.2024

Auf meine Beschwerde wiederholt Turkish Airlines, dass sie nicht zahlen wollen.

Turkish Airlines 30.07.2024

Ich setze jetzt den Dienstleister Flightright ein, um meine Forderung durchzusetzen.

Turkish Airlines 24.10.2024

Flightright teilt mit, dass sie meinen Fall an die “Rechtsexperten” übergeben haben.

Turkish Airlines 09.12.2024

Flightright teilt mit, dass sie meinen Fall an die Kanzlei JBB Rechtsanwälte übergeben haben.

Turkish Airlines 11.12.2024

Flightright teilt mit, dass eine aussergerichtliche Einigung mit Turkish Airlines nicht zustande kam und deshalb jetzt Klage erhoben wurde.

Turkish Airlines 13.01.2025

Flightright teilt mit, das der Fall gewonnen wurde und Turkish Airlines die Compensation von 1200,– gezahlt hätte. Abzüglich Gebühren etc. stünden uns davon nun 600,24 Euro zu.

Turkish Airlines 29.01.2025

Die 600,24 Euro sind auf meinem Bankkonto eingegangen.

Physik: Quantenmechanik nach Susskind

Gehört zu: Physik
Siehe auch: Quantenmechanik, Die Bra-Ket-Notation, Wellenfunktion, Komplexe Zahlen

Stand: 17.03.2024

Quantenmechanik nach Susskind

Bei Youtube bin ich auf die Vorlesungen von Prof. Susskind an der Stanfort University gestossen (“continued education”).

Professor Susskind beschreibt die für die Quantenmechanik erforderliche Mathematik einfach und anschaulich, was nicht immer ganz genau der reinen Mathematik entspricht. Deswegen kann ich es gut verstehen.

Zunächst betrachten wir klassische Physikalische Systeme, danach gehen wir Zug um Zug in die Welt der Quantenphysik. Der Trick dabei ist, schon die klassische Physik “gepixelt” zu sehen, was approximativ möglich sein sollte.

In der Quantenphysik werden wir es immer wieder mit Komplexen Zahlen zu tun haben. Auch der Begriff der komplex konjugierten wird hier eine große praktische Rolle spielen.

Ket-Vektor

Ein physikalisches System kann verschiedene diskrete Zustände annehmen (ggf. approximiert).

Z.B. Das Werfen  einer Münze: Kopf oder Zahl

Z.B. Ein Würfel: Eins, Zwei, Drei, Vier, Fünf oder Sechs

Z.B. Spin eines Elektrons: Up oder Down

So einen Zustand schreiben wir auf als sog. “Label” in sog. Ket-Schreibweise…

z.B.    |Kopf>   oder |Zahl>

z.B.   |Eins> oder |Zwei> oder…

z.B. |Up> oder |Down>

Wir können jeden Zustand (State) durch einen Spalten-Vektor repräsentieren.

\(  |Kopf> \space  —>   \left( \begin{array}{c} 1 \\\ 0   \end{array}\right)   \)

und

\(  |Zahl>  \space —>   \left( \begin{array}{c} 0\\\ 1   \end{array}\right)  \\  \)

Oder beim Würfel:

\(  |Eins> \space  —>   \left( \begin{array}{c} 1 \\\ 0  \\\ 0 \\\ 0 \\\ 0 \\\ 0  \end{array}\right)   \) und     \(  |Zwei> \space  —>   \left( \begin{array}{c} 0 \\\ 1  \\\ 0 \\\ 0 \\\ 0 \\\ 0  \end{array}\right)   \) und …

Man sagt auch |a> sei ein Vektor, obwohl der zugehörige Spaltenvektor “nur” eine Repräsentation von |a> ist. Manchmal identifizieren wir beides (aus Bequemlichkeit).

Die Menge der möglichen Zustände nennt man auch “Zustandsraum“. Beispielsweise:

\( S = \left\{ \left( \begin{array}{c} 1 \\\ 0   \end{array}\right) , \left( \begin{array}{c} 0\\\ 1   \end{array}\right)  \right\} \\ \)

Der Zustand eines physikalischen Systems könnte sich mit der Zeit ändern. Den Zustand zu einem bestimmten Zeitpunkt nennt man auch “Konfiguration“.

Später werden wir sehen, wie dieser Zustandsraum einen zu einem Vektorraum erweitert werden kann (der Vektorraum wird aufspannt).

Bra-Vektor

Zu jedem Ket-Vektor |a>  bilden wir einen sog. Bra-Vektor <a| auf folgende Weise:

Der Ket-Vektor sei:

\(  |a> \space  —>   \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right)  \\ \)

dann bilden wir den zugehörigen Bra-Vektor als Zeilenvektor folgendermaßen:

\(  <a| \space  —>   \left( \begin{array}{r} {a_1}^* &  {a_2}^*  &  {a_3}^* \end{array}\right)  \\ \)

Wir sagen, der Bra-Vektor sei das komplex konjugierte zum Ket-Vektor

Inneres Produkt

Das sog. “Innere Produkt” zweier Vektoren definieren wir nun einfach als:

\( <a|b> = \left( \begin{array}{r} {a_1}^* &  {a_2}^*  &  {a_3}^* \end{array}\right)  \cdot \left( \begin{array}{c} b_1 \\\ b_2  \\\ b_3 \end{array}\right) = {a_1}^*  b_1 + {a_2}^* b_2 + {a_3}^* b_3 \\ \)

Das Innere Produkt eines Vektors mit sich selbst ist dann immer eine reelle Zahl. Wir definieren als “Länge” oder auch “Norm” eines Vektors die positive Wurzel aus diesem Inneren Produkt.

Wenn das Innere Produkt zweier Vektoren Null ist, sagen wir sie seien “orthogonal”.

Observable

Observable nennt man Dinge, die man messen kann.

In einem bestimmten physikalischen Experiment wollen wir eine bestimme Größe messen und bekommen so zu jedem Zustand des Systems einen Messwert.

Eine bestimmte Observable M ordnet also jedem Zustand aus dem Zustandsraum S einen Messwert (reelle Zahl) zu. Mathematisch geschrieben:

\( M: S \to \mathbb{R} \)

Abstrakter Vektorraum

Die Ket-Vektoren |a> bilden einen (abstrakten) Vektorraum; d.h. es gelten bestimmte Regeln:

Regel 1: Jeder Vektor aus dem Vektorraum kann mit einem Skalar (komplexe Zahl) mutipliziert werden, wobei das Ergebnis wieder ein Vektor aus dem Vektorraum ist.

\( \lambda \space | a> = | a^\prime> \)

Regel 2: Zwei Vektoren aus dem Vektorraum kann ich addieren, wobei das Ergebnis wieder ein Vektor aus dem Vektorraum ist.

\(  | a >  +  | b >  =  | c > \)

Beispiele von Vektorräumen

Die Menge der Ket-Vektoren bilden einen Vektorraum, wobei wir als Einträge ganz allgemein Komplexe Zahlen zulassen und die Dimension des Vektorraums gleich der Anzahl verschiedener Zustände ist.

Die oben aufgeführten Regeln für Vektorräume gelten offenbar:

\( \lambda \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right) = \left( \begin{array}{c}\lambda  a_1 \\\ \lambda  a_2  \\\ \lambda a_3 \end{array}\right) \\\) \(   \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right) + \left( \begin{array}{c} b_1 \\\ b_2  \\\ b_3 \end{array}\right) = \left( \begin{array}{c} a_1 + b_1 \\\ a_2 + b_2 \\\ a_3 + b_3\end{array}\right)   \)

Linearkombinationen

Wir können jeden Ket-Vektor | a > als Linearkombination der Zustandsvektoren darstellen:

\( | a > = \left( \begin{array}{c} a_1 \\\ a_2  \\\ a_3 \end{array}\right) = a_1 \left( \begin{array}{c} 1 \\\ 0  \\\ 0 \end{array}\right) +  a_2 \left( \begin{array}{c} 0 \\\ 1  \\\ 0 \end{array}\right)  + a_3 \left( \begin{array}{c} 0 \\\ 0  \\\ 1 \end{array}\right)  \\\)

Damit spannen die Zustandsvektoren einen (abstrakten) Vektorraum auf, aber nicht jeder Vektor aus diesem Vektorraum beschreibt einen physikalischen Zustand – …

Quantenmechanisches Beispiel

Wenn ich den Spin eines quantenmechanischen Elektrons messe, bekomme ich bei jeder Messung einen von zwei Zuständen, die wir | up > und | down > nennen können.

Diese beiden Zustände repräsentieren wir durch zwei Spaltenvektoren im Vektorraum:

\(  | up > \space  —>   \left( \begin{array}{c} 1 \\\ 0   \end{array}\right)  \\ \) und

\(  | down >  \space —>   \left( \begin{array}{c} 0\\\ 1   \end{array}\right)  \\ \)

In der klassischen Physik würde niemand auf die Idee kommen, Linearkombinationen solcher zwei Zustände zu betrachten. In der Quantenpysik machen wir das aber.

Linearkombination dieser beiden Zustände wären also:

\( a_{up} \space | up > + a_{down} \space | down > \\\)

Die Koeffizienten können wir als Spaltenvektor schreiben:

\( a = \left( \begin{array}{c} a_{up} \\\ a_{down}  \end{array}\right) \\\)

Wobei die Beträge der Komponenten (Koeffizienten der Linearkombination)  interpretiert werden als die Wahrscheinlichkeiten der Zustände; also:

\( P_{up} = a_{up} {a_{up}}^* \\\) und

\( P_{down} = a_{down} {a_{down}}^* \\\)

Wobei natürlich die Summe der Wahrscheinlichkeiten 1 ergeben muss: \( P_{up} + P_{down} = 1 \)

Alle Linearkombinationen der Ket-Vektoren  | up > und | down >, die diese Bedingung (Summe der Wahrscheinlichkeiten = 1) erfüllen, werden in der Quantenmechanik als physikalisch mögliche Zustände angesehen. Wir können diese Bedingung auch schreiben als:

\( P_{up} + P_{down} = a_{up} {a_{up}}^* + a_{down} {a_{down}}^* = \left( \begin{array}{r} {a_{up}}^* &  {a_{down}}^*   \end{array}\right)  \cdot \left( \begin{array}{c} a_{up} \\\ a_{down}   \end{array}\right) = <a|a> = 1 \)

Die Bedingung ist also: “Länge = 1”; d.h. die quantenmechanisch möglichen Zustände des Elektronen-Spins liegen auf dem Einheitskreis.

Das Besondere in diesem Fall also, dass der Elektronenspin zwar gequantelt ist, also nur diskrete Werte (+1 und -1) annehmen kann, aber die Wahrscheinlichkeiten beim Messvorgang durchaus gebrochene Zahlen sein können.

Matrizen

Wir werden Matrizen brauchen. Wofür, sehen wir später.
Eine Matrix ist einfach eine quadratische Anordnung von Zahlen, beispielsweise:

\( M = \left( \begin{matrix} m_{11} & m_{12} & m_{13} \\ m_{21} & m_{22} & m_{23} \\ m_{31} & m_{32} & m_{33} \\ \end{matrix} \right) \\ \)

So eine Matrix M können wir anwenden auf einen Spaltenvektor v indem wir im Prinzip die inneren Produkte von Matrix-Zeilen mit dem Spaltenvektor bilden:

\( M v =  \left( \begin{matrix} m_{11} & m_{12} & m_{13} \\ m_{21} & m_{22} & m_{23} \\ m_{31} & m_{32} & m_{33} \\ \end{matrix} \right)  \left( \begin{array}{c} v_1 \\\ v_2  \\\ v_3 \end{array}\right) = \left( \begin{array}{c} m_{11} v_1  + m_{12} v_2  + m_{13} v_3 \\\ m_{21} v_1 + m_{22} v_2 + m_{23} v_3  \\\ m_{31} v_1 + m_{32} v_2 + m_{33} v_3\end{array}\right) \\ \)

Das Ergebnis ist wieder ein Spaltenvektor.

Wenn wir nun einen Zeilenvektor w und eine Matrix M nehmen, sieht das ganz analog aus:

\( w M  =  \left( \begin{array}{c} w_1 & w_2  & w_3 \end{array}\right) \left( \begin{matrix} m_{11} & m_{12} & m_{13} \\ m_{21} & m_{22} & m_{23} \\ m_{31} & m_{32} & m_{33} \\ \end{matrix} \right)  = \left( \begin{array}{c} w_1 m_{11}  + w_2 m_{21} + w_3 m_{31}  & w_1 m_{12}  + w_2 m_{22} + w_3 m_{32}  & w_1 m_{13} + w_2 m_{23} + w_3 m_{33} \end{array}\right) \\ \)

Das Ergebnis ist wieder ein Zeilenvektor.

Matrizen als Operatoren auf einem Vektorraum

Matrizen kann man auch “Operatoren” nennen. Sie können die Vekoren eines Vektorraums transformieren. Das allgemeine KOnzept heißt “Linearer Operator” oder auch “Lineare Transformation”. Wir identifizieren diese zur Vereinfachung.

Wir schauen uns mal ein paar Beispiele aus dem 2-dimensonalen reellen Vektorraum an.

Beispiel 1: Stretchen um einen Faktor 2

\( M v = \left( \begin{matrix} 2 & 0 \\ 0 & 2  \end{matrix} \right)  \left( \begin{array}{c} v_x \\\ v_y  \end{array}\right)  =   \left( \begin{array}{c} 2 v_x \\\  2 v_y  \end{array}\right)  \\ \)

Beispiel 2: Stretchen in Richtung der y-Achse

\( M v = \left( \begin{matrix} 1 & 0 \\ 0 & 2  \end{matrix} \right)  \left( \begin{array}{c} v_x \\\ v_y  \end{array}\right)  =   \left( \begin{array}{c} v_x \\\  2 v_y  \end{array}\right)  \\ \)

Beispiel 3: Rotieren um 90 Grad im Uhrzeigersinn

\( M v = \left( \begin{matrix} 0 & 1 \\ -1 & 0  \end{matrix} \right)  \left( \begin{array}{c} v_x \\\ v_y  \end{array}\right)  =   \left( \begin{array}{c} v_y \\\  -v_x  \end{array}\right)  \\ \)

Wir sehen also: Matrizen transformieren einen Vektorraum; aber nicht alle Transformationen sind Matrizen.

Hermitische Matrizen

Observable in der Quantenphysik werden durch hermitische Operatoren dargestellt. Wir schauen hier deswegen auf hermitische Matrizen.

Eine hermitische Matrix ist definiert durch: \( m_{ij} = {m_{ji}}^*   \)

Eine hermitische Matrix ist vom Konzept her so etwas wie eine reelle Transformation, aber nicht ganz genau: nur die Diagonalelemente der Matrix sind reell, die anderen Elemente werden beim Spiegeln an der Diagonale komplex konjugiert.

Die Namensgebung geht zurück auf den französischen Mathematiker Charles Hermite (1822-1901).

Hintergrund:

Zu einer Matrix \(M = (m_{ij}) \) definieren wir eine “Hermitsch konjugierte” Matrix und schreiben die mit einem “Dagger”;

\( \Large M^\dagger = (m_{ij}^*) \)

Wir nennen eine Matrix M “hermitisch”, wenn sie gleich ihrer hermitisch konjugierten ist, also wenn:

\( \Large M = M^\dagger \\ \)

Diese Eigenschaft ist so ähnlich wie \( z = z^* \) bedeutet, dass z eine reelle Zahl ist.

In der Quantenphysik werden wir es fast ausschließlich mit Hermitischen Matrizen (Hermitischen linearen Operatoren) zu tun haben.

Zusammenfassung Nr. 1 zur Quantenphysik

In der Quantenphysik geht es darum, Wahrscheinlichkeiten zu berechnen. Wahrscheinlichkeiten, dass eine Observable bei einem bestimmten Zustand des Systems einen bestimmten Wert (Messwert) annimmt.

Vektoren repräsentieren die Zustände.
Solche Zustandsvektoren bekommen eine irgendwie geartete Bezeichnung (“Label”); z.B. \( |hinz\rangle  \text{ und } |kunz\rangle \).
Auch die Linearkombinationen solcher Zustandsvektoren werden als Zustände bezeichnet.
Alle solchen Linearkombinationen, im Beispiel:  \( a |hinz\rangle + \enspace b |kunz\rangle \enspace mit\enspace  a, b \in C \), bilden einen Vektorraum, den sog, Zustandsraum

Hermitische Matrizen repräsentieren die Observablen.
Wie ich zu einer Observablen (also einer Messgröße) die Matrix finde, ist noch ein Geheimnis.
Später werden wir sehen, dass die Eigenwerte der Matrix die Werte sind, die die Observable annehmen kann; d.h. die wir messen können.

Erwartungswert einer Observablen

Nun entspricht also eine Hermitische Matrix M einer Observablen.

In einem bestimmten Zustand  | a > ist der Erwartungswert der Observablen M:

\( < a | M | a> = \text{Erwartungswert von M} \\ \)

Vergleiche dazu auch: Schroedinger

Eigenwert und Eigenvektor in der Quantenphysik

Wofür diese Konzepte gut sind, sehen wir hier in der Quantenphysik: Die Eigenwerte einer Hermitischen Matrix werden die möglichen Messwerte der Observablen sein.

Wir betrachten eine hermitische Matix M und fragen uns, ob es dazu einen Vektor |a>  gibt, der durch die Matrix M nicht in der Richtung, sondern nur in der Länge verändert wird. Die Längenveränderung  wäre dann ein Faktor, der vom Vektor |a> abhängt, weswegen wir in λa nennen.

\(  M|a> = \lambda_a | a > \\ \)

Wenn es so etwas zu der Matrix M gibt, nennen wir so ein  λa einen Eigenwert, und den Vektor |a> einen Eigenvektor der Matrix.

Der Witz in der Quantenmechanik ist, dass die Eigenwerte einer hermitische Matrix M die möglichen Messwerte der Observablen sind und der zugehörige Eigenvektor ist der Zusrand in dem die Wahrscheinlichkeit, diesen Wert zu messen 1 ist.

Wie man auf diese Matrizen kommt, die ja Observable repräsentieren sollen, ist noch völlig offen.

Wir schauen uns als Beispiele mal diagonale Matrizen an. Man sieht leicht, dass die Diagonalelemente die Eigenwerte sind und die Eigenvektoren die möglichen Einheitsvektoren aus lauter Nullen und einer Eins.

Beispiel Elektronenspin

Die Observable ist also der Spin eines Elektrons, der +1 oder -1 sein kann.

Als Matrix für diese Observable nehmen wir mal:

\( \sigma_3 = \left( \begin{matrix} 1 & 0  \\ 0 & -1  \\ \end{matrix} \right) \\ \)

Diese Matrix wird auch “Spinoperator” genannt und mit σ3 bezeichnet. Diese Matrix als Repräsentation der Observablen “Spin” fällt hier ersteinmal so vom Himmel. Wir können aber einfach nachweisen, dass es stimmt, den die Eigenwerte sind:
+1 zum Eigenvektor \( \left( \begin{array}{c} 1 \\\ 0   \end{array}\right)  = |up> \) und -1 zum Eigenvetor \( \left( \begin{array}{c} 0 \\\ 1   \end{array}\right)  =|down> \)

Genaugenommen steht σ3 für die Messung des Eletronenspins in z-Richtung (wieso das so ist kommt später).

In y-Richtung gemessen bekommen wir als Observable:

\(  \sigma_2 = \left( \begin{matrix} 0 & -i  \\ i & 0  \\ \end{matrix} \right) \\\)

In x-Richtung gemessen bekommen wir als Observable:

\( \sigma_1 = \left( \begin{matrix} 0 & 1  \\ 1 & 0  \\ \end{matrix} \right) \\ \)

Wir haben also 3 Spinoperatoren…

Wichtiger Satz über Eigenwerte (Lecture 3, t=59m)

Wenn es zu einer Observablen (hermitischen Matrix) M mehrere Eigenvektoren gibt:

\(  M | a > = \lambda_a  | a > \\ \)

und

\(  M | b > = \lambda_b  | b > \\ \)

und die Eigenwerte verschieden sind, dann sind die Eigenvektoren orthogonal; also <a|b> = 0.

Ein Eigenvektor |a> beschreibt ja einen Zustand, in dem die Wahrscheinlichket 1 ist, den Wert λa zu messen.

Wenn ich also zu einer Observablen zwei unterschiedliche Messwerte λa bzw. λb bekomme, gibt es dazu zwei orthogonale Zustandsvektoren |a> und |b>, in denen die Wahrscheinlichkeit 1 ist, die Messwerte λa bzw. λb zubekommen.

Ein Satz zu Wahrscheinlichkeiten (Lecture 3, t= 1h 14:30m)

Wir mögen ein System haben, das im Zustand |b> präpariert ist – z.B. ein Elektron haben mit dem Elektronenspin |b>

Nun betrachten wir eine Observable M mit einem Eigenwert λa zum Eigenvektor |a> .

Wenn wir in dem gegebenen Zustand |b> eine Messung mit M durchführen, können wir uns fragen, mit welcher Wahrscheinlichkeit P unser Messergebnis λa sein wird.
Prof. Susskind sagt:
\( P = \langle a|b \rangle {\langle a|b \rangle}^* \)

Quantenmechanik mit einem Elektronenspin (Lecture 4)

Wir stellen uns vor, wir hätten ein Elektron so präpariert, dass der Elektronenspin in Richtung des (räumlichen) Vektors n = (n1, n2, n3) zeigt.

Nun wollen wir den Elektronenspin dieses Elektrons entlang der Richtung m = (m1, m2, m3) messen. Das Ergebnis ist (natürlich) entweder +1 oder -1 (so merkwürdimg ist die Quantenwelt).

Dieses ganze Experiment (präparieren und dann messen) wiederholen wir sehr oft, um die Wahrscheinlichkeit P+ für das Messergebnis +1 bzw. die Wahrscheinlichkeit P für das Messergebnis -1  zu bestimmen.

Das können wir jetzt ja ganz einfach ausrechnen. Als Ergebnis (ohne Beweis)  erhalten wir, dass die Wahrscheinlichkeit nur vom (räumlichen) Winkel θ zwischen den beiden Vektoren abhängt. Der Cosinus dieses Winkels ist bekanntlich das Innere Produkt der beiden Richtungs-Vektoren:

\( \Large \cos{\theta} = \langle n, m \rangle \\ \)

Und die Wahrscheinlichkeit wird (ohne Beweis):

\( \Large P_+ = \frac{1 + \cos{\theta}}{2} \\ \)

Wichtger Zusatz: Kommutator (Lecture 4, t= 1h 54m)

Wenn wir eine Messung einer Observablen durchführen, verändern wir den Zustand des Quantensystems. (Detail: Es ändert sich der “Eigenzustand” auf einen Eigenvektor, der zu dem gemessenen Eigenwert gehört.)

Wir können also nicht zwei Messungen eines Anfangszustands machen, denn der Anfangzustand hat sich ja durch die erste Messung verändert. Das würde nur gehen, wenn die beiden Matrizen (=Observablen) die gleichen Eigenvektoren hätten.

Prof. Susskind sagt (ohne Beweis), dass zwei Matrizen A und B genau dann die gleichen Eigenvektoren haben (evtl. aber andere Eigenwerte) , wenn sie kommutieren; d.h. wenn AB = BA.
Man nennt AB – BA den Kommutator von A und B und schreibt auch:

\(  [A,B] = AB – BA \\\)

Ein System mit zwei Elektronen: Entanglement (Lecture 4, t= 1h 55m)

Zunächst machen wir mal eine kleine Tabelle, wie das mit einem Elektron war:

\( \begin{array}{l} \sigma_1 | up \rangle = | down \rangle \\ \sigma_1 | down \rangle = | up \rangle \\ \sigma_2 | up \rangle = i | down \rangle \\ \sigma_2 | down \rangle = -i | up \rangle \\ \sigma_3 | up \rangle =  | up \rangle \\ \sigma_3 | down \rangle = – | down \rangle \end{array} \\\)

Wenn wir nun zwei Elektronen betrachten, haben wir die vier möglichen  Zustände der beiden Elektronenspins, die wir als Ket-Vektoren aufschreiben:

| u u >

| u d >

| d u >

| d d >

Diese vier spannen mit ihrern Linearkombinationen einen vierdimensionalen komplexen Vektorraum auf:

\( a | u u > + b | u d > + c | d u > + d | d d > \\ \)