Eine Gruppe in der Mathematik ist eine Menge mit einer “inneren” Verküpfung (die man gerne mit dem Symbol “+” schreibt) und die bestimmten, unten aufgeführten Axiomen genügt.
Die Verknüpfung
Die Menge bezeichnen wir mal mit M und nehmen dann zwei Elemente aus dieser Menge:
\( a \in M \) und \( b \in M \)
Dann soll die Verknüpfung (geschieben als +) von a und b wieder in der Menge M liegen:
\( a + b \in M \)
Die Axiome
Damit das ganze dann eine Gruppe ist, müssen folgende Axiome gelten:
Assoziativgesetz:
\( (a + b) + c = a + (b + c) \\ \)
Existenz eines “neutralen Elements” e, sodass:
\( \exists e \in M \space \forall a \in M: a + e = a \\\)
Existenz eines inversen Elements zu jedem Element der Gruppe:
\( \forall a \in M \space \exists b \in M : a + b = e \\ \)
Beispiel 1: Die ganzen Zahlen
Die Menge der ganzen Zahlen \(\mathbb{Z}\) mit der Addition als Verknüpfung bildet eine Gruppe.
Beispiel 2: Die Kleinsche Vierergruppe
Die Kleinsche Vierergruppe (nach Felix Klein 1849-1925) besteht aus vier Elementen, wobei jedes Element mit sich selbst invers ist.
Die Menge schreiben wir als:
V = {e, a, b, c}
Die Verknüpfung definieren wir über eine Verknüpfungstafel (auch Cayley Table genannt):
e
a
b
c
e
e
a
b
c
a
a
e
c
b
b
b
c
e
a
c
c
b
a
e
Wie man leicht sieht, werden mit der so definierten Verknüpfung die Gruppenaxiome erfüllt.
Beispiel 3: Die komplexen Zahlen auf dem Einheitskreis
In der komplexen Zahlenebene \(\mathbb{C}\) ist er Einheitskreis einfach die Teilmenge S der komplexen Zahlen, die wir definieren als:
Als Verknüpfung auf dieser Menge nehmen wir die Multiplikation der komplexen Zahlen; geometrisch können wir uns das als Drehungen vorstellen.
Damit wird das Ganze eine Gruppe.
Symmetrien und Drehungen
Gruppen kann man also ganz axiomatisch Definieren, wie oben; in der Praxis sind die Elemente einer Gruppe typischerweise die Symmetrien eines Objekts.
Ganz allgemein bilden die Symmetrien eines Objekts eine Gruppe. Eine speziell Art von Symmetrien sind Drehungen.
Die Leute, die sich mit den verschiedenen Arten von “Drehungsgruppen” als Spezialgebiet beschäftigen, bezeichnen die Gruppe der komplexen Zahlen auf dem Einheitskreis auch gerne als U(1); wobei die “1” bedeuten soll, dass wir nur eine Drehachse haben und das “U” steht für “unitär”, was man gerne zu einer Verknüpfung (Abbildung) sagt, wenn die Länge gleich bleibt (“längentreu”) – allerdings müsste man dann den Begriff “Länge” noch definieren.
Solche Gruppen, die aus Drehungen bestehen, spielen später im Standardmodell der Elementarteilchenphysik eine wichtige Rolle. Wobei eine Drehung auch als sog. “kontinuierliche Symmetrie” bezeichnet wird.
Da solche Drehungen ja “kontinuierlich” (im Gegensatz zu Spiegelungen) um auch beliebig kleine Winkel stattfinden können, kommt man damit auch in das Gebiet der Differentialgeometrie und letztlich zum Begriff der Lie-Gruppen (nach Sophus Lie, 1842-1899).
Vergleiche hierzu auch das YouTube-Video von Josef Gassner: https://www.youtube.com/watch?v=zFhjF6sfY4o
Nur für Mathematiker:
Drehungen im n-dimensionalen komplexen Raum sind lineare Abbildungen und damit als eine spezielle Art von nxn-Matrizen darstellbar.
\(U(n) = \{ U \in \text{ nxn Matrix } | \space U^\dagger U = I \} \)
Die nxn-Matrizen werden auch “General Linear Group” genannt und man schreibt sie als: \(GL(n,\mathbb{C}) \), wobei man zusätzlich fordert: det(U)>0 damit jede Matrix U invertierbar ist und so \(GL(n,\mathbb{C}) \) eine Gruppe ist.
Direktes Produkt von Gruppen
Wenn wir zwei Gruppen G und H haben, können wir das sog. “Direkte Produkt” dieser zwei Gruppen bilden, indem wir von den Mengen das cartesische Produkt \(G \times H\) nehmen und eine Verknüpfung auf diesem cartesischen Produkt komponentenweise definieren.
Wenn wir die Verknüpfungen mit dem Zeichen “+” schreiben, wäre das also:
\((g_1,h_1) + (g_2,h_2) = (g_1+g_2,h_1+h_2) \text{ wobei } g_1, g_2 \in G \text{ und } h_1,h_2 \in H\\\)
Wobei uns klar ist, dass das Symbol “+” hier für drei verschiedene Verknüpfungen benutzt wird.
Die Menge \(G \times H\) ausgestattet mit der so definierten Verknüpfung bezeichnet man als “Direktes Produkt” der Gruppen G und H und schreibt das als \(G \oplus H\).
Gehört zu: Physik
Siehe auch: Elementarteilchen, Lichtgeschwindigkeit, Brechungsindex
Stand: 3.8.2023
Tscherenkow-Strahlung
auch: Cherenkov-Strahlung
Tscherenkow-Strahlung ist eine elektromagnetische Strahlung, die durch den Tscherenkow-Effekt entsteht. Benannt nach Pawel Alexejewitsch Tscherenkow (1904-1990), der zusammen mit Kollegen 1934 diese Strahlung entdeckte. Nobelpreis 1958.
Der Tscherenkow-Effekt entsteht, wenn schnelle elektrisch geladene Teilchen (z.B. Elektronen) in ein Medium eintreten, in dem die Lichtgeschwindigkeit kleiner ist, als die Geschwindigkeit der Teilchen.
Der Tscherenkow-Effekt kann nur in Medien mit Brechungsindex n>1 auftreten, weil im Gegensatz zur Lichtgeschwindigkeit im Vakuum von c = 299 792,458 km/s z. B. die Lichtgeschwindigkeit in Wasser nur etwa c′ ≈ 225 000 km/s beträgt und so Teilchen dort schneller sein können als dort das Licht.
Die ausgesandte Strahlung entlang der Flugbahn beschreibt einen sogenannten Mach-Kegel. Das Tscherenkow-Licht ist somit das optische Analogon zum Überschallkegel, der entsteht, wenn Flugzeuge sich schneller als der Schall fortbewegen.
Wo kann man Tscherenkow-Strahlung beobachten?
Im Abklingbecken von Kernkraftwerken
In der Hochatmoshäre, ausgelöst durch kosmische Strahlung
Wenn sich elektrisch geladene Teilchen (z.B. Elektronen) gleichförmig bewegen, geschieht nichts besonderes.
Wenn sich solche Teilchen (z.B. Elektronen) aber nicht gleichförmig bewegen, also bescheunigt werden, gebremst werden oder ihre Richtung verändern, dann entsteht elektromagnetische Strahlung; d.h. es werden Photonen abgestrahlt, die der Energiedifferenz entsprechen. Allgemein heisst so eine Strahlung “Bremsstrahlung”.
Ein klassische Anwendung dieses Effekts ist das Erzeugen von Röntgen-Strahlen. Dazu werden Elektronen beschleunigt und dann auf ein Stück Metall geschossen, wo sie durch das Coulomb-Feld der Metallatome abgebremst werden.
Relativistische Bremsstrahlung
Wenn man zu sehr hohen Energien (v > 0,9 c) kommt, kann man relativistische Effekte nicht mehr vernachlässigen; man spricht dann von “relativistischen” Teilchen (z.B. Elektronen). Diese Art Bremsstrahlung nennt man “Synchrotron-Strahlung”; auch weil solche hohen Energien praktisch nur in Teilchenbescheunigern mit Magnetfeldern erzielt werden können.
Die Richtung dieser Synchrotron-Strahlung ist tangential zur Bahn des bewegten Teilchens – vorrangig nach vorne, aber auch etwas nach hinten.
Der Name Synchrotron-Strahlung
Man nennt das “Synchrotron-Strahlung”, weil diese Strahlung zu erst (1947) in Teilchenbeschleunigern, die man Sychrotron nannte, auftrat und nachgewiesen wurde. In einem solchen Teilchenbeschleuniger werden geladene Teilchen (z.B. Elektronen) durch Magnete so abgelenkt, dass ein Kreisbahn entsteht, was eine Beschleunigung bedeutet.
Stärke der Synchrotron-Strahlung
Je größer die Geschwindigkeitsänderung pro Zeiteinheit (also die Beschleunigung als Vektor) ist, desdo intensiver ist auch die Synchrotron-Strahlung, wobei ein breites Spektrum entsteht: vom Infrarot bis zum Röntgenbereich…
Da viele Elektronen unterschiedlich stark abgelenkt bzw. abgebremst werden, entstehen Photonen mit unterschiedlichen Energien. Die Energieverteilung der Photonen ist deswegen kontinuierlich und breit. Bremsstrahlung hat ein kontinuierliches Spektrum.
Wenn man besonders starke Synchrotron-Strahlung herstellen will, reichen “einfache” Teilchenbescheuniger, wie Synchrotrons den Forschern aber nicht mehr aus. Man muss dann die bewegten geladenen Teilchen durch Parcours von starken Magneten schicken, sodass sie bei diesen vielen Richtungswechseln tausendmal stärker als in den Kurven eines klassischen Ringbeschleunigers strahlen.
Synchrotron-Strahlung in der Astronomie
Synchrotronstrahlung gibt es nicht erst seit es Teilchenbeschleuniger gibt, sondern auch im Weltall gibt es Quellen.
In der Astronomie beobachtet man Synchrotronstrahlung immer dann, wenn sich ein heißes Plasma in einem Magnetfeld befindet. Beispiele für kosmische Synchrotronquellen sind Pulsare, Radiogalaxien und Quasare.
Bei astronomischen Synchrotronquellen, kann es auch weniger energetische Synchrotronstrahung geben, die dann Frequenzen im Radiobereich hat.
Tunneleffekt ist eine anschauliche Bezeichnung dafür, dass ein Teilchen eine Potentialschwelle auch dann überwinden kann, wenn seine Energie geringer als die „Höhe“ der Barriere (Schwelle) ist. In der klassischen Physik ist das nicht möglich, aber in der Quantenphysik gibt es das mit einer gewissen Wahrscheinlichkeit.
Elektrisch gleichnamig geladene Teilchen stoßen sich ab – wie z.B. zwei Protonen durch ihr elektrisches Feld (das Coulomb-Potential). Diese abstoßende Kraft steigt an, je näher sich die Teilchen kommen (mit r-2).
Eine “Potentialschwelle” kommt hier dadurch zustande, dass die Starke Kernkraft anziehend wirkt und bei kleineren Abständen stärker ansteigt, als die abstoßende elektromagnetische Kraft. Das Überwinden einer solchen Potentialschwelle, auch wenn die Energie dafür eigentlich nicht reicht, ist ein quantenmechanischer Effekt, der mit einer gewissen Wahrscheinlichkeit auftreten kann.
Die Stärke der sog. Starken Kernkraft, die zwei Protonen bei kleinem Abstand anzieht, ist nur durch sehr aufwendige Berechnungen zu ermitteln. Denn diese Starke Kernkraft wirkt primär zwischen den Quarks im Inneren eines Protons. Man spricht dann noch von einer “restlichen” Wirkung. Dazu das Stichwort: Gamow Peak.
Berechnung des Tunneleffekts
Zuerst müssten wir das Potential des betrachteten Teilchens in Abhängigkeit vom Ort mit einer Funktion V(x) beschreiben.
Diese Potentialfunktion können wir dann in die stationäre Schrödinger-Gleichung einsetzen.
Diese Schrödinger-Gleichung ist damit eine Differentialgleichung, deren Lösung die Wellenfunktion Φ des betrachteten Teilchens ist. Damit haben wir sich die Aufenthaltswahrscheinlichkeit |Φ|² des Teilchens in Abhängigkeit von seinem Ort, welche auch jenseits der Potientialschwelle größer als Null ist.
Beispiel des Tunneleffekts
Bei der Kernfusion in unserer Sonne findet in der Hauptsache der sog. p-p-Prozess statt. Der p-p-Prozess beginnt mit der Verschmelzung zweier Protonen und der anschließenden Umwandlung eines Protons in ein Neutron und eine Positron, sodass ein Deuterium-Kern 2H entsteht.
Für diesen ersten Reaktionsschritt muss die Potentialschwelle zwischen den beiden Protonen 1H überwunden werden, was der Tunneleffekt ermöglicht. Die Wahrscheinlichkeit dafür ist aber so klein, dass die durchschnittliche Reaktionszeit 1.4 1010 Jahre (in unserer Sonne) beträgt.
Den Physiker interessiert nun eine Zustandsveränderung mit der Zeit.
Möge ein Zustand 1 (Anfang) beschrieben sein durch \( q_i(t_1), \dot{q_i(t_1} \)
und ein Zustand 2 (Ende) beschrieben sein durch \( q_i(t_1), \dot{q_i(t_1} \).
Diese beiden Punkte im Phasenraum kann man in einem Diagramm des Phasenraums graphisch darstellen.
Es gibt viele Wege auf denen man vom Zustand 1 zum Zustand 2 kommen kann.
Abbildung 1: Wege in einem Phasenraum (Github: Phasenraum.svg)
Auf jedem dieser Wege kann man das Integral entlang des Weges (nicht: Pfadintegral) der Engergie über die Zeit bilden. Diese Größe nennt man “Wirkung“.
Genaugenommen sind hier (infenitesimale) Energie-Unterschiede entlang des Weges gemeint.
Die Natur wählt nun denjenigen Weg, auf dem diese Wirkung minimal ist.
Hinter dem Begriff “minimal” steckt so eine Idee von “einfacher”, “ökonomischer”, “sparsamer”,….
Um von so einem Integral das Minimum zu finden bedient man sich der mathematischen Methode der Variationsrechnung. Da werden “kleine” Differenzen betrachtet (geschrieben als kleiner Griechischer Buchstabe Delta) und diese Differenzen werden dann als Taylorentwicklung dargestellt…
Aber welche “Energie” ist das, die wir da integrieren sollen? In der klassischen Sichtweise ist das die Lagrange-Funktion. Aber wo bekommen wir die denn her???
Wir haben da immer irgendein Kraftfeld, was zu Bewegungsgleichungen führt. Ähnlich wie wir statt eines konservativen Kraftfeldes auch das Potenzial als skalares Feld nehmen konnten, wollen wir nun statt des Potenzials die Lagrange-Funktion nehmen….
Bei einer Funktion von \(\mathbb{R} \to \mathbb{R} \) ist ja klar, was eine Ableitung (Differentialquotient) ist: Anschaulich die Änderungsrate des Funktionswerts an einer bestimmten Stelle…
Wenn der Definitionsbereich einer Funktion nicht mehr \(\mathbb{R}\) sondern \(\mathbb{R}^3\) ist, nennt man eine solche Funktion auch ein “Skalarfeld”, weil durch die Funktion jedem Punkt im Raum \(\mathbb{R}^3\) ein skalarer Wert zugeordnet wird (Beispiel: Temperatur). Eine “Änderungsrate” einer solchen Funktion wäre dann ja von der Richtung abhängig, in die ich gehe; also muss so eine “Änderungsrate” ein Vektor werden. So eine “Änderungsrate” eines Skalarfeldes nennt man dann den “Gradienten” s.u.
Sei also \( \Phi \) eine Funktion \(\Phi: \mathbb{R}^3 \to \mathbb{R} \) dann ist der Gradient von \( \Phi \) :
Generell definiert man auf einem Vektorraum dann besondere Abbildungen, sog. Differentialoperatoren. Man benutzt dazu die Koordinatenschreibweise. Wir nehmen hier immer die klassischen Cartesischen Koordinaten. Wenn man andere Koordinatensystem hat, sehen die Formeln dann etwas anders aus.
Wir nehmen als Definitionsbereich für unsere “Felder” den Vektorraum \(\mathbb{R}^3\). dann haben wir partielle Ableitungen nach den drei Koordinaten: x, y und z und man definiert als sog. Nabla-Operator:
Im einfachen Fall, wenn unser Definitionsbereich nur ein Vektorraum der Dimension 1 ist (\(\mathbb{R}^1\)), ist der Gradient einfach die erste Ableitung.
Kraftfeld und Gradient
In einem konservativen Kraftfeld F(r) kann man als Skalar ein Potential V(r) definieren, sodass die Kraft der Gradient den Potentials wird:
\( \vec{F}(r) = \nabla V(r) \)
Elektrisches Feld und Divergenz
Ein Elektrisches Feld wird durch eine ruhende elektrische Ladung erzeugt.
Ein Elektrisches Feld ist ein Vektorfeld, das man üblicherweise \( \vec{E} \) schreibt.
Feldstärke – Feldlinien – xyz
Für das von einer Elektrischen Ladung Q erzeugte E-Feld \( \vec{E} \) gilt:
\( \nabla \cdot \vec{E} = 4 \pi Q \\\)
Da die Elektrische Ladung Q sozusagen das Elektrische Feld erzeugt, nennt man es auch die Quelle des E-Feldes…
Magnetisches Feld
Ein Magnetisches Feld wird durch bewegte elektrische Ladungen erzeugt.
Ein Magnetisches Feld ist ein Vektorfeld, das man üblicherweise \( \vec{B} \) schreibt.
Für ein Magnetisches Feld gilt:
\( \nabla \cdot \vec{B} = 0 \\\)
D.h. es gibt keine Quelle und alle Feldlinien sind geschlossen…
Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Vektorräume und Tensoren.
Ein Vektorraum kann axiomatisch wie folgt definiert werden:
Axiom 1: Vektorräume verfügen über eine Operation, die Vektor-Addition (Vektor plus Vektor ergibt einen Vektor) genannt wird und eine kommutative (abelsche) Gruppe bildet. Axiom 2: Jeder Vektorraum muss einen Körper haben, dessen Elemente Skalare genannt werden. Mit solchen Skalaren können wir die Vektoren mutiplizieren (“skalieren“); d.h. Skalar mal Vektor ergibt Vektor.
Man spricht dann von einem Vektorraum “über” einem Körper K seiner Skalaren oder kurz von einem K-Vektorraum.
Solche Axiome ergeben eine abstrakte Definition von Eigenschaften; die Frage ist allerdings, ob es tatsächlich “Gebilde” gibt, die diese Axiome erfüllen. Tatsächlich gibt es viele “Gebilde”, die die Vektorraum-Axiome erfüllen: d.h. die tatsächlich Vektorräume sind. Beispiele für Vektorräume sind u.a.:
Ein \(\mathbb{R}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{R}\)
Ein \(\mathbb{C}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{C}\)
Die Menge der Funktionen auf \(\mathbb{R}\) kann auch als Vektorraum ausgestattet werden…
Ein abstrakter Vektorraum kann auch veranschaulicht werden:
Physik: Der Physiker stellt sich Vektoren gern als “Pfeile” vor, die also eine Richtung und eine Länge haben, also eher “geometrisch“.
Computer: Der Computer-Mensch stellt sich Vektoren eher als Liste von Komponenten vor (Vektor = Liste) – wozu man aber ersteinmal ein System von Basis-Vektoren (nicht: Koordinatensystem) haben muss.
Mathematik: Der abstrakte Mathematiker sagt, Vektoren sind einfach “etwas”, was man addieren kann (Gruppe) und was man mit “Skalaren” skalieren kann – fertig, einfach ein paar Axiome und das war’s.
Linearkombinationen
Mit einem Satz von Vektoren kann man eine sog. Linearkombination bilden, beispielsweise:
Zu einem Satz Vektoren \( \vec{g_1}, \vec{g_2}, …, \vec{g_n} \) wäre eine Linearkombination etwa:
Wobei wir jeden Vektor \( \vec{g_i} \)mit einem Skalar \( a_i \) multiplizieren und die Summe bilden.
Vektorbasis und Dimension
Wenn ich mit einem Satz von Vektoren jeden Vektor des Vektorraums durch eine Linearkombination darstellen kann, sagt man “der Satz von Vektoren spannt den Vektorraum auf”. Ist so ein Satz von Vektoren minimal und die Darstellung eines Vektors durch eine Linearkombination damit eindeutig, so nennt man den Satz von Vektoren eine Vektorbasis.
Soweit ist dies eine axiomatische Definition von Eigenschaften, welche eine Vektorbasis erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich eine solche Vektorbasis exsitiert.
Die Antwort lautet: Jeder Vektorraum hat (mindestens) eine Vektorbasis.
Falls ein Vektorraum mehrere Vektorbasen hat sind alle diese Vektorbasen gleich mächtig. Die Kardinalzahl (Mächtigkeit) heist Dimension des Vektorraums, geschrieben dim(V).
Eine Einheitsbasis (normal basis) ist eine Basis, bei der alle Basisvektoren die Länge 1 haben (“auf die Länge 1 normiert sind”).
Was die Länge eines Vektors sein könnte, kommt weiter unten.
Beispiel:
Der euklidische Vektorraum: \(\mathbb{R}^n\)
Dort haben wir z.B. eine Vektorbasis: \( \vec{e}_i = (\delta_{i}^j) \)
Wobei das Kronecker-Delta bekanntlich definiert ist als:
Damit ich mit einem Vektor so schön herumrechnen kann, ist es enorm praktisch, den Vektor durch “seine” Komponenten darzustellen. Solche “Komponenten” beziehen sich immer auf eine sog. Vektorbasis.
Den Satz von Skalaren mit dem ein Vektor bezüglich einer Vektorbasis als Linearkobination eindeutig dargestellt werden kann nennt man auch die Komponenten des Vektors. Man schreibt also:
Dabei sind also die ai die Komponenten des Vektors a bezüglich des gewählten Basisvektorsystems. Der Begriff von Koordinaten in einem Koordinatensystem unterscheidet sich von diesem Begriff der Komponenten bezüglich eines Basisvektorsystems.
Der Physiker möchte die Formeln noch kompakter aufschreiben und führt eine impliziete Summenkonvention ein (nach Einstein). Danach verwenden wir Indizes teilweise unten (klassisch) und auch teilweise oben (neu). Wenn ein gleicher Index oben und unten auftaucht, soll darüber summiert werden (ohne dass man es expliziet schreiben muss). Also in unserem Fall:
\( \vec{a} = a^i \vec{g_i} \)
Man nennt Größen mit einem Index unten “kovariant” und mit einem Index oben “kontravariant” – was man damit eigentlich sagen will werden wir später erfahren.
Komponentenschreibweise
Unsere Rechenregeln für Vektoren kann man nun auch einfach in Komponentenschreibweise ausdrücken:
Geschrieben werden Vektoren meist als eine Liste ihrer Komponenten, aber nicht waagerecht, sondern senkrecht angeordnet (bei waagerechter Anordnung denkt man eher an einen Punkt im Raum).
\( \Large \vec{v} = \left( \begin{array}{c} x \\\ y \\\ z \end{array}\right) \)
oder auch in eckigen Klammern:
\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z \end{array} \right] \)
Wenn ich Vektoren als Liste von Komponenten schreiben will, muss ich ersteinmal ein Basisvektorsystem haben.
Vektoren, und das ist wichtig, exisitieren auch ohne Basisvektorsysteme, also einfach geometrisch im Raum. Unabhängig von einem Basisvektorsystem hat jeder Vektor eine Länge und eine Richtung. Dies sind also sog. “Invarianten”; d.h. bei Änderung des Basisvektorsystems ändern sich diese Eigenschaften nicht.
Also: Vektoren ansich sind invariant gegenüber einem Wechsel des Basisvektorsystems. Aber die Vektorkomponenten verändern sich beim Wechsel des Basisvektorsystems, sind wie man sagt “variant“. Wie Vektorkomponenten bei Wechsel des Basisvektorsystems hin- und hergerechnet werden können, behandeln wir weiter unten. So ein Vektor ist damit der Sonderfall eines Tensors, nämlich ein Tensor vom Rang 1.
Lineare Abbildung (Lineare Transformation)
Wir betrachten zwei Vektorräume V und W über dem gleichen Körper K habe. Eine Abbildung \( f: V \to W \) nennt man auch Transformation. Wenn V=W ist spricht man auch von einer Operation auf V und nennt f einen Operator.
Lineare Transformationen sind Transformationen, bei denen Geraden Geraden bleiben und der Null-Punkt (Origin) unverändert bleibt.
Anschaulich gesagt, bleiben Parallelen parallel und die Koordinatengitter gleichmäßig unterteilt (was immer auch Parallelen und Koordinatengitter genau sein mögen). Man kann das auch abstrakt durch Formeln ausdrücken:
Eine solche Abbildung f von einem Vektorraum V in einen Vektorraum W (beide über dem gleichen Körper K)
\( f: V \to W \\ \)
wird “linear” genannt, wenn sie additiv und homogen ist; d.h. wenn für alle \( \vec{v} \in V \text{ und alle } \vec{w} \in V \) gilt:
homogen: \( f(a \vec{v}) = a f(\vec{v}) \) (hierfür brauchen wir den gleichen Körper K)
allgemein also: \(f(a \vec{x} + b \vec{y}) = a f(\vec{x}) + b f(\vec{y}) \)
General Linear Group
Zu einem Vektorraum V über K können wir die Menge der linearen invertierbaren Abbildungen \( f: V \to V \) betrachten. Diese nennen wir: General Linear Group und schreiben GL(V). Wenn man die allgemeine Verknüpfung von Abbildungen als Guppenverknüpfung nimmt, ist GL(V) tatsächlich eine Gruppe.
Die GL(V) ist ein schönes Beispiel für eine nicht abelsche (nicht kommutative) Gruppe.
Siehe hierzu auch das schöne Youtube-Video von Josef Gassner:
In der Quantenmechanik (Quantenphysik) sind die Untergruppen von GL(V) sehr interessant.
Dualer Raum
Zu einem Vektorraum V über dem Körper K definieren wir eine “Dualen Vektorraum” V* wie folgt:
Als Menge V* nehmen wir alle linearen Abbildungen \( f: V \to K \)
Als Vektor-Addition in V* definieren wir: \( (f+g)(v) = f(v) + g(v) \)
Und als Skalar-Multiplikation in V* nehmen wir: \( (\lambda \cdot f)(v) = \lambda \cdot f(v) \)
Bilinerarform
Hier geht es um zwei Variable (zwei = bi); also eine Abbildung:
\( f: V \times V \to K \\\) (mit V Vektorraum über dem Körper K)
So eine Abbildung heisst “bilinear“, wenn sie “in beiden Variablen” linear ist, was heisst:
Ein Vektorraum verfügt nicht notwendig über ein Skalarprodukt. Auf einem Vektorraum kann ein Skalarprodukt definiert sein (Vektor mal Vektor ergibt einen Skalar) – Dies ist inspiriert aus der Physik durch Arbeit = Kraft mal Weg.
Wir werden sehen, dass so ein Skalarprodukt dann eine “Norm” induziert und damit eine Metrik, wodurch z.B. Grenzwertprozesse möglich werden.
Einen \(\mathbb{R}\)-Vektorraum mit Skalarprodukt nennt man auch einen Euklidischen Raum, einen \(\mathbb{C}\)-Vektorraum mit Skalarprodukt nennt man auch Hilbertraum – genauer Prähilbertraum.
Für die Anwendungen z.B. in der Physik spielt es eine große Rolle, welches der Körper zum Vektorraum ist. In der Quantenphysik benötigt man dazu den Körper der Komplexen Zahlen: \(\mathbb{C}\)
Definition des Skalarprodukts
Das Skalarprodukt zweier Vektoren wird axiomatisch wie folgt definiert.
Axiomatische Definition
Generell ist das Skalarprodukt f in einem Vektorraum über dem Körper K eine Abbildung:
\( f: V \times V \to K \)
Man schreibt auch gerne das Skalarprodukt als:
\( \Large f(x,y) = \langle x,y \rangle \)
\( \Large f(x,y) = \vec{x} \cdot \vec{y} \)
Für den Fall eines Vektorraums über dem Körper der reelen Zahlen, müssen für x, y, z ∈ V und λ ∈ \(\mathbb{R} \) folgende Axiome gelten:
Linearität in beiden Argumenten
<x+y,z> = <x,z> + <y,z>
<x,y+z> = <x,y> + <x,z>
<λx,y> = λ <x,y>
<x,λy> = λ <x,y>
Symmetrie: <x,y> = <y,x>
Positiv definit:
<x,x> ≥ 0
<x,x> = 0 genau dann, wenn x=0 ist
Das reelle Skalarprodukt ist also eine positiv definite, symmetrische Bilinearform.
Für den Fall eines Vektorraums über dem Körper der komplexen Zahlen, ist die Sache etwas schwieriger.
Da wir aber in der Quantenphysik Vektorräume über den komlexen Zahlen benötigen, müssen wir auch diesen etwas komplizierteren Fall näher betrachten.
Es müssen für x, y, z ∈ V und λ ∈ \(\mathbb{C} \) folgende Axiome gelten:
Semilinear im ersten Argument:
\( <\lambda x, y> = \bar{\lambda} <x,y> \)
Linear im zweiten Argument:
\( <x, \lambda y> = \lambda <x,y> \)
Hermitisch:
\( <x,y> = \overline{<y,x>} \)
Positiv definit:
<x,x> ≥ 0
<x,x> = 0 genau dann, wenn x=0
Das komplexe Skalarprodukt ist also eine positiv definite, hermitische Sesquillinearform.
Existenz eines Skalarprodukts bei endlicher Dimension
Soweit ist dies eine axiomatische Definition von Eigenschaften, welche ein Skalarprodukt erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich ein solches Skalarprodukt definiert werden kann.
Aus unserem Vektorraum V über K nehmen wir zwei Vektoren \(\vec{x}\) und \(\vec{y}\) und versuchen deren Skalarprodukt zu definieren. Im Falle einer endlichen Dimension des Vektorraums dim(V)=n können wir das leicht über die Komponentendarstellung dieser Vektoren zu einer ausgewählten Vektorbasis erreichen:
Wir könnten das Skalarprodukt zweier beliebiger Vektoren also definieren, wenn wir nur das Skalaprodukt von je zwei Basisvektoren so definieren, dass dann die Axiome des Skalarprodukts eingehalten würden. Mit anderen Worten: Bei geeigneter Festlegung einer Matrix:
\( g_{ij} = \vec{g}_i \cdot \vec{g}_j \tag{1}\)
Könnten wir das Skalarprodukt einfach definieren als:
Wir bekommen also ein Objekt aus zweifach indizierten Skalaren (genannt Metrik-Koeffizienten). Diese Metrik-Koeffizienten bilden also eine quadratische Matrix, die wir später auch gerne “Metrik-Tensor” nennen werden.
Der Metrik-Tensor besteht also aus den paarweisen Skalarprodukten der verwendeten Basisvektoren.
Beispiel:
Wie nehmen einen euklidischen Vektorraum: \(\mathbb{R}^3\)
mit der Vektorbasis: \( \vec{e}_i = (\delta_{i}^j) \)
Wir nehmen als Metrik-Tensor: \( \eta_i^j = \left( \begin{matrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ \end{matrix} \right) \)
Aus Gleichung (2) mit dem obigen Metrik-Tensor ergibt sich als Skalarprodukt:
Um hier das Skalarprodukt auszurechnen nach Gleichung (2) müssen wir die Komponenten der Vektoren bestimmen. Dazu nehmen wir ersteinmal die Komponenten der einzelnen Vektoren:
Somit ist das Skalarprodukt im ersten Argument linear unabhängig von der Wahl des Metrik-Tensors.
Das Skalarprodukt ist auch im zweiten Argument linear, wenn der Skalaren-Körper \(\mathbb{R}\) ist – dann gilt die obige Herleitung identisch.
Das zweite zu überprüfende Axiom wäre die Symmetrie
Nach unserer Definition des Skalarprodukts in Gleichung (2) gilt:
\( \langle x, y \rangle = x^i y^j g_{ij} \)
und
\( \langle y, x \rangle = y^j x^i g_{ji} = x^i y^j g_{ji}\)
Wir sehen also, dass wenn der Metrik-Tensor symmerisch ist (gij = gji), dann ist auch das damit definierte Skalarprodukt symmetrisch.
Das dritte zu überprüfende Axiom wäre die Positive Definitheit
Dies ergibt sich auch ganz einfach.
Skalarprodukt bei nicht-endlicher Dimension
Ein Vektorraum nicht-endlicher Dimension über K ist so etwas wie ein Funktionenraum. Für \( f \in V \text{ und } g \in V \) definieren wir das Innere Produkt (Skalarprodukt) als:
Die komplexe Konjugation wird hier u.a. benötigt, damit die Länge eines Vektors (s.u.) eine reele Zahl wird.
Unitäre Abbildung (Unitäre Transformation)
Eine Abbildung (auch Transformation genannt) von einem Vektorraum V in einen anderen W wird “unitär” genannt, wenn sie das Skalarprodukt “erhält” (Da die Länge eines Vektors über das Skalarprodukt definiert ist, ist eine unitäre Abbildung längentreu)
Nehmen wir zwei Vektorräume V und W, jeweils mit einem Skalarprodukt, sowie eine Abbildung:
\( f: V \to W \)
Dann soll für je zwei Vektoren u und v aus V gelten:
\( <f(u),f(v)> = <u,v>\\ \)
Man kann zeigen, dass solche unitären Abbildungen auch stets lineare Abbildungen sind.
Ein klassisches Beispiel ist die Gruppe U(1) der komplexer Zahlen vom Betrag Eins, wobei die Gruppen-Verknüpfung die Multiplikation der komplexen Zahlen (also die Drehung) ist. Diese Gruppe spielt bei dem Standardmodell der Teilchenphysik eine wichtige Rolle. Die Gruppe U(1) bildet ein mathematisches Modell der Elektrostatischen Wechselwirkung in der Quanten-Elektrodynamik mit dem Photon als Austauschteilchen.
Länge eines Vektors
Der Begriff “Metrik-Tensor” hat schon einen Sinn, wenn wir sehen, dass damit auch die Länge eines Vektors definiert werden kann:
Albert Einstein (1879-1955) hat 1905 die sog. “Spezielle Relativitätstheorie” (SRT) formuliert. Sie basiert lediglich auf zwei Postulaten:
Die physikalischen Gesetze sind gleich in allen Intertialsystemen
Die Lichtgeschwindigkeit im Vakuum ist gleich in allen Intertialsystemen
Diese Gleichberechigung aller Intertialsysteme wird durch die Gravitation zunichte gemacht. Deshalb entwickelte Einstein die SRT später weiter zur ART.
Die Koordinaten von Ereignissen in zwei Inertialsystemen S (t,x,y,z) und S’ (t’,x’,y’,z’), die sich relativ zueinander mit der konstanten Geschwindigkeit u bewegen, kann man mit Formeln umrechnen, die man Lorentz-Transformationen nennt.
Einstein gelingt es, diese Lorentz-Transformationen aus den o.g. Postulaten und der Homogenität und der Isotropie des Raumes herzuleiten.
Aber diese Herleitung ist mühsam und ich zeige sie deshalb hier nicht.
Aus diesen Lorentz-Transformationen ergeben sich einige, sog. relativistische, Phänomene:
Zeitdilatation
Längenkontraktion
Relativistische Geschwindigkeitsaddition
Relativistische Massen und Energien
….
Wie man die Zeitdilation und die Längenkontraktion aus den Lorentz-Transformationen herleiten kann, zeigt beispielsweise das YouTube-Video von MathePunk.
Koordinaten-Transformation
Zur Vereinfachung nehmen wir an:
Nur eine Raumdimension: x
Die Koordinatenachsen der beiden Inertialsystem S und S’ seinen parallel zueinander und der Ursprung sei zur Zeit t=0 der gleiche
Die konstante Bewegung der beiden Inertialsysteme S und S’ gegeneinander erfolge in x-Richtung
Mit dieser Vereinfachung erhalten wir ziehmlich einfache Transformationsgleichungen, die man auch “spezielle” Lorentz-Transformation nennt.
Der Lorentz-Faktor
In den folgenden Formeln kommt immer wieder ein Faktor vor, den wir “Lorentz-Faktor” nennen und mit dem griechischen Buchstaben Gamma schreiben:
Wobei u die konstante Geschwindigkeit ist, mit der sich die beiden Bezugssysteme (Inertialsysteme) relativ zueinander bewegen.
Dieser Gamma-Faktor ist also immer größer als 1. Das bedeutet: Multiplizieren mit Gamma macht einen Wert größer, dividieren durch Gamma macht einen Wert kleiner,
Lorentz-Transformation
Die Umrechung der Koordinaten x und t zwischen diesen beiden Bezugssystemen nennt man (spezielle) Lorentz-Transformation:
\( x’ = \gamma (x – u t) \tag{2}\\ \)
\( t’ = \gamma (t – \Large\frac{u}{c^2} x ) \tag{3}\\\)
\( x = \gamma (x’ + u t’) \tag{4}\\ \)
\( t = \gamma (t’ + \Large\frac{u}{c^2} x’) \tag{5} \\ \)
Raumzeit
In Gleichung (3) sieht man, dass die Zeit im System S’ auch abhängig von der Raumkoordinate ist; d.h. die Zeit vergeht unterschiedlich an unterschiedlichen Orten im Raum. Deswegen spricht man von der “Raumzeit”.
Längenkontraktion
Wir haben ein Objekt, dessen Länge wir im “bewegten” Bezugssystem S’ bestimmen indem wir gleichzeitig den Anfangspunkt (x’1) und den Endpunkt (x’2) messen:
\( \Delta x’ = {x’}_2 – {x’}_1 \)
Die Frage ist nun, welche Länge ein Beobachter im “ruhenden” Bezugssystem S zur Zeit t1 = t2 bestimmen wird.
Da die Messung der beiden x-Koordinaten im System S gleichzeitig stattfindet, gilt also t2 – t1 = 0. Also:
\( \Delta x’ = \gamma \cdot \Delta x \)
bzw.
\( \Delta x = \Large\frac{\Delta x’}{\gamma} \)
Zusammenfassung
Strecken in einem bewegten Bezugssystem S’ erscheinen für den ruhenden Beobachter S verkürzt.
Vereinfacht: Bewegte Stecken sehen kürzer aus (aus Sicht des ruhenden Beobachters).
Für die Längenkontraktion gilt: \( \Delta x = \frac{\Delta x’}{\gamma} \)
Die Längenkontraktion findet nur in Bewegungsrichtung statt.
Zeitdilatation
Wir haben einen Prozess dessen Zeitdauer wir im “bewegten” Bezugssystem S’ bestimmen indem wir die Startzeit (t’1) und die Endezeit (t’2) messen (also die sog. Eigenzeit):
\( \Delta t’ = {t’}_2 – {t’}_1 \\\)
Die Frage ist nun, welche Zeitdauer ein Beobachter im “ruhenden” Bezugssystem S bestimmen wird.
Nach Gleichung (5) gilt:
Da der gemessene Prozess in S’ ortsfest ist, gilt also x’2 – x’1 = 0. Also:
\( \Delta t = \gamma \cdot \Delta t’ \)
Zusammenfassung
Eine Uhr im “bewegten” Bezugssystem S’ erscheint für einen “ruhenden” Beobachter S langsamer zu gehen.
Vereinfacht: Bewegte Uhren gehen langsamer (aus Sicht des ruhenden Beobachters).
Der Zusammenhang zwischen Zeit im ruhenden System S und der Zeit im bewegten System S’ ist \( \Delta t = \Delta t’ \cdot \gamma \)
Relativistische Addition von Geschwindigkeiten
Relativ zu einem “ruhenden” Beobachter (Inertialsystem) S möge sich ein zweiter Beobachter (Intertialsystem) S’ mit der konstanten Geschwindigkeit u in x-Richtung bewegen.
Ein Objekt möge sich im bewegten Bezugssystem S’ mit der gleichgerichteten Geschwindigkeit w entlang der x’-Achse bewegen:
\( \Large w = \frac{\Delta x’}{\Delta t’} \tag{6}\\\)
Im ruhenden Bezugssystem S messen wir dafür die Geschwindigkeit:
\( \Large v = \frac{\Delta x}{\Delta t} \tag{7}\\\)
Unter Anwendung der Lorenztransformationen (4) bekommen wir:
\( \Delta x = x_2 – x _1 = \gamma ( {x’}_2 + u {t’}_2) – \gamma ( {x’}_1 + u {t’}_1) = \gamma \cdot (\Delta x’ + u \cdot \Delta t’)\tag{8}\\\)
Damit misst also auch der “ruhende” Beobachter S die gleiche Lichtgeschwindigkeit wie der “bewegte” Beobachter S’; d.h. die Lichtgeschwindigkeit ist für beide Beobachter gleich.
Impuls / Massen
Der Impulserhaltungssatz ist unantastbar. Also ist
\(\Large \vec{p} = m \cdot \vec{v} \tag{10}\\\)
invariant (gleich in allen Inertialsystemen).
In zwei Intertialsystemen messen wir ja unterschiedliche Geschwindigkeiten, also muss sich die Masse entsprechend verändern damit der Impuls gleich bleibt.
Diese Formel ist wegen der Linearisierung des Lorenzfaktors eigentlich falsch, soll heissen sie gilt so nur für kleine v (klein gegenüber c). Vollständig richt lautet sie:
Relativistische Effekte, wie die oben beschriebenen, kann man vernachlässigen, wenn die Geschwindigkeiten sehr klein sind gegenüber der Lichtgeschwindigkeit, wie die Betrachtung des Lorentzfaktors zeigt.
Abbildung 1: Der Lorentzfaktor in Abhängigkeit von u/c (Github: Lorentzfaktor.svc)
In der grafischen Darstellung sieht man, dass der Gamma-Faktor bei u=0 mit 1 startet und dann mit zunehmender Geschwindigkeit u immer größer wird. So ab 90% der Lichtgeschwindigkeit geht er so richtig hoch (über 2) und dann bei u=c asymptotisch gegen Unendlich.
Das bedeutet, dass so ungefähr ab 90% der Lichtgeschwindigkeit relativistische Effekte nicht mehr vernachlässigt werden können.
Wir versuchen eine kompliziertere Funktion in eine Summe einfacherer zu zerlegen.
Bei der Taylor-Entwicklung (Brook Taylor 1685 -1731) betrachten wir einen Punkt der Funktion und wollen in der Umgebung dieses Punktes die Funktion “vereinfachen”, dadurch dass wir sie als Summe aus einfacheren Funktionen annähern und im Grenzwert sie damit genau darstellen.
Bei der Fourier-Entwicklung (Jean Baptist Joseph Fourier 1768 – 1830) betrachten wir eine periodische Funktion und wollen diese für eine Periode durch eine Summe einfacherer periodischer Funktionen approximieren (im Grenzwert genau darstellen).
Taylor-Entwicklung
Wir wollen hier eine Funktion y=f(x) in der Nähe einer Stelle x0 durch eine Potenzreihe annähern:
Bleibt x in der Nähe von x0, so ist (x-x0) klein und wir können näherungsweise die Tayler-Entwicklung irgendwann abbrechen – wenn es genauer sein soll, müsen wir weitere Terme hinzunehmen.
Der Sinn einer solchen Taylor-Entwicklung ist häufig, dass die entstandene Potenzreihe einfacher zu handhaben ist als die Originalfunktion (z.B. in Formeln, z.B. die Ableitungen,…)
Physiker brechen gern nach dem zweiten Term ab und nennen das eine Linearisierung oder Approxmation erster Ordnung; also:
\( f(x) = f(x_0) + f^\prime(x_0)(x-x_0) \\\)
Das machten wir – schon in der Schule – beim Fadenpendel.
Und auch Einstein machte das bei seiner berühmten Formel E = mc2 .
In der Tat zeigt die Mathematik, unter bestimmten Voraussetzungen konvergiert diese Taylor-Reihe. Also
Wir betrachten eine etwas kompliziertere Funktion f(t); z.B. ein elektrisches oder akustisches Signal im Zeitverlauf. Die Funktion soll aber periodisch sein; etwa mit der Periode [-π,+π] (das wird gern genommen).
Wir wollen die Funktion durch eine Reihe von Sinus- und Cosinus-Funktionen, also durch Schwingungen, annähern:
Das ist eine Linearkombination von Sinussen und Cosinussen verschiedener Frequenzen (und Amplituden).
Der Sinn so einer Fourier-Entwicklung ist jetzt primär nicht, dass das Ergebnis “einfacher” wäre, sondern man möchte etwas herausbekommen über die Original-Funktion; beipielsweise wenn die Original-Funktion ein akustisches Signal ist (siehe MP3-Format).
Die Ermittlung der Fourier-Koeffizienten ak und bk nennt man auch Fourier-Analyse. Fourier selbst fand als analytische Lösung:
Eine Deutung so einer Fourier-Analyse ist, dass wir eine Funktion f(t) untersuchen und die Anteile verschiedener Frequenzen ermitteln. Man spricht deshalb auch von einem Frequenz-Spektrum…
Wenn wir die Fourier-Entwicklung nach dem n-ten Term abbrechen, schreiben wir:
Das nennen wir “Fourier-Polynom n-ten Grades zu f” (Sprachgebrauch, obwohl das kein Polynom im üblichen Sinne ist).
Statt Fourier-Analyse wird auch gern die Bezeichnung Harmonische Analyse verwendet.
Komplexe Zahlen
Gerne wird die Fourier-Analyse auch mit Komplexen Zahlen erklärt. So hilft die Eulerschen Formel dabei statt Sinus und Cosinus “einfach” eine Exponatialfunktion zu verwenden:
Was dann in der Regel zu komplexen Fourier-Koeffizenten ck führt.
Wir unterscheiden zwischen Fourier-Analyse und Fourier-Transformation…
Diskrete Fourier-Analyse
In der Praxis kennt man die Funktion f(t) meist nicht analytisch (also als Formel), sondern hat “nur” die Funktionswerte an diskreten Stellen. Man kommt dann zu einer sog. Diskreten Fourier-Transformation (DFT).