Mathematik: Vektorräume (Grundlagen)

Gehört zu: Mathematik
Siehe auch: Vektorräume – Lineare Alegbra, Matrizen und Vektoren, Bra-Ket-Notation

Stand: 27.11.2022

Was ist ein Vektorraum?

Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Vektorräume und Tensoren.

Es gibt dazu eine Menge Videos auf Youtube; z.B. von 3Blue1Brown:  https://youtu.be/fNk_zzaMoSs  – Playlist: https://goo.gl/R1kBdb

Ein Vektorraum kann axiomatisch wie folgt definiert werden:

Axiom 1: Vektorräume verfügen über eine Operation, die Vektor-Addition (Vektor plus Vektor ergibt einen Vektor) genannt wird und eine kommutative (abelsche) Gruppe bildet.
Axiom 2: Jeder Vektorraum muss einen Körper von sog. Skalaren haben, mit denen die Vektoren mutipliziert (“skaliert“) werden können (Skalar mal Vektor ergibt Vektor).

Man spricht dann von einem Vektorraum “über” einem Körper K seiner Skalaren oder kurz gesagt von einem K-Vektorraum.

Solche Axiome ergeben eine abstrakte Definition von Eigenschaften; die Frage ist allerdings, ob es tatsächlich “Gebilde” gibt, die diese Axiome erfüllen. Tatsächlich gibt es viele “Gebilde”, die die Vektorraum-Axiome erfüllen: d.h. die tatsächlich Vektorräume sind. Beispiele für Vektorräume sind u.a.:

  • Ein \(\mathbb{R}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{R}\)
  • Ein \(\mathbb{C}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{C}\)
  • Die Menge der Funktionen auf \(\mathbb{R}\) kann auch als Vektorraum ausgestattet werden…

Ein abstrakter Vektorraum kann auch veranschaulicht werden:

  • Physik: Der Physiker stellt sich Vektoren gern als “Pfeile” vor, die also eine Richtung und eine Länge haben, also eher “geometrisch“.
  • Computer: Der Computer-Mensch stellt sich Vektoren eher als Liste von Komponenten vor (Vektor = Liste) – wozu man aber ersteinmal ein System von Basis-Vektoren (nicht: Koordinatensystem) haben muss.
  • Mathematik: Der abstrakte Mathematiker sagt, Vektoren sind einfach “etwas”, was man addieren kann (Gruppe) und was man mit “Skalaren” skalieren kann – fertig, einfach ein paar Axiome und das war’s.

Linearkombinationen

Mit einem Satz von Vektoren kann man eine sog. Linearkombination bilden, beispielsweise:

Zu einem Satz Vektoren \( \vec{g_1}, \vec{g_2}, …, \vec{g_n} \) wäre eine Linearkombination etwa:

\(    a_1 \vec{g_1} + a_2 \vec{g_2} + … + a_n \vec{g_n}\)

Wobei  wir jeden Vektor \( \vec{g_i} \)mit einem Skalar \( a_i  \) multiplizieren und die Summe bilden.

Was ist eine Vektorbasis?

Wenn ich mit einem Satz von Vektoren jeden Vektor des Vektorraums durch eine Linearkombination darstellen kann, sagt man “der Satz von Vektoren spannt den Vektorraum auf”. Ist so ein Satz von Vektoren minimal und die Darstellung eines Vektors durch eine Linearkombination damit eindeutig, so  nennt man den Satz von Vektoren eine Vektorbasis.

Soweit ist dies eine axiomatische Definition von Eigenschaften, welche eine Vektorbasis erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich eine solche Vektorbasis exsitiert.

Die Antwort lautet: Jeder Vektorraum hat (mindestens) eine Vektorbasis.
Falls ein Vektorraum mehrere Vektorbasen hat sind alle diese Vektorbasen gleich mächtig. Die Kardinalzahl (Mächtigkeit) heist Dimension des Vektorraums.

Beispiel:

Der euklidische Vektorraum: \(\mathbb{R}^n\)

Dort haben wir z.B. eine Vektorbasis:  \( \vec{e}_i = (\delta_{i}^j) \)

Wobei das Kronecker-Delta bekanntlich definiert ist als:

\( \delta_{i}^j = \left\{\begin{array}{11}    0 & \text{falls } i \ne j  \\ 1 & \text{falls } i = j \\ \end{array} \right. \)

Vektor-Komponenten bezüglich einer Vektorbasis

Damit ich mit einem Vektor so schön herumrechnen kann, ist es enorm praktisch, den Vektor durch “seine” Komponenten darzustellen. Solche “Komponenten” beziehen sich immer auf eine sog. Vektorbasis.

Den Satz von Skalaren mit dem ein Vektor bezüglich einer Vektorbasis als Linearkobination eindeutig dargestellt werden kann nennt man auch die Komponenten des Vektors. Man schreibt also:

\( \vec{a} = \sum\limits_{i=1}^{n}{a_i \vec{g_i}} \)

Dabei sind also die ai die Komponenten des Vektors a bezüglich des gewählten Basisvektorsystems. Der Begriff von Koordinaten in einem Koordinatensystem unterscheidet sich von diesem Begriff der Komponenten bezüglich eines Basisvektorsystems.

Der Physiker möchte die Formeln noch kompakter aufschreiben und führt eine impliziete Summenkonvention ein (nach Einstein). Danach verwenden wir Indizes teilweise unten (klassisch) und auch teilweise oben (neu). Wenn ein gleicher Index oben und unten auftaucht, soll darüber summiert werden (ohne dass man es expliziet schreiben muss). Also in unserem Fall:

\( \vec{a} = a^i \vec{g_i} \)

Man nennt Größen mit einem Index unten “kovariant” und mit einem Index oben “kontravariant” – was man damit eigentlich sagen will werden wir später erfahren.

Komponentenschreibweise

Unsere Rechenregeln für Vektoren kann man nun auch einfach in Komponentenschreibweise ausdrücken:

Vektoraddition: \( \vec{a} + \vec{b} = (a^i + b^i) \vec{g_i}  \)

Skalar-Multiplikation: \( \lambda \vec{a} = (\lambda a^i) \vec{g_i} \)

Schreibweise von Vektoren

Geschrieben werden Vektoren meist als eine Liste ihrer Komponenten, aber nicht waagerecht, sondern senkrecht angeordnet (bei waagerechter Anordnung denkt man eher an einen Punkt im Raum).

\( \Large \vec{v} = \left( \begin{array}{c} x \\\ y \\\ z  \end{array}\right) \)

oder auch in eckigen Klammern:

\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z  \end{array} \right] \)

Wenn ich Vektoren als Liste von Komponenten schreiben will, muss ich ersteinmal ein Basisvektorsystem haben.

Vektoren, und das ist wichtig, exisitieren auch ohne Basisvektorsysteme, also einfach geometrisch im Raum. Unabhängig von einem Basisvektorsystem hat jeder Vektor eine Länge und eine Richtung. Dies sind also sog. “Invarianten”; d.h. bei Änderung des Basisvektorsystems ändern sich diese Eigenschaften nicht.
Also: Vektoren ansich sind invariant gegenüber einem Wechsel des Basisvektorsystems. Aber die Vektorkomponenten verändern sich beim Wechsel des Basisvektorsystems, sind wie man sagt “variant“. Wie Vektorkomponenten bei Wechsel des Basisvektorsystems hin- und hergerechnet werden können, behandeln wir weiter unten. So ein Vektor ist damit der Sonderfall eines Tensors, nämlich ein Tensor vom Rang 1.

Skalarprodukt (Inneres Produkt)

Ein Vektorraum verfügt nicht notwendig über ein Skalarprodukt. Auf einem Vektorraum kann ein Skalarprodukt definiert sein (Vektor mal Vektor ergibt einen Skalar) –  Dies ist inspiriert aus der Physik durch Arbeit = Kraft mal Weg.

Wir werden sehen, dass so ein Skalarprodukt dann eine “Norm” induziert und damit eine Metrik, wodurch z.B. Grenzwertprozesse möglich werden.

Einen \(\mathbb{R}\)-Vektorraum mit Skalarprodukt nennt man auch einen Euklidischen Raum, einen \(\mathbb{C}\)-Vektorraum mit Skalarprodukt nennt man auch Hilbertraum – genauer Prähilbertraum.

Definition des Skalarprodukts

Das Skalarprodukt zweier Vektoren wird axiomatisch wie folgt definiert.

Axiomatische Definition

Generell ist das Skalarprodukt in einem Vektorraum über dem Körper K eine Abbildung:

\( f: V \times V \to K \)

Man schreibt auch gerne das Skalarprodukt als:

  • \( \Large f(x,y) = \langle x,y \rangle \)
  • \( \Large f(x,y) = \vec{x} \cdot \vec{y} \)

Für den Fall eines Vektorraums über dem Körper der reelen Zahlen, müssen für x, y, z ∈ V und λ ∈ \(\mathbb{R} \) folgende Axiome gelten:

  • Linearität in beiden Argumenten
    • <x+y,z> = <x,z> + <y,z>
    • <x,y+z> = <x,y> + <x,z>
    • <λx,y> = λ <x,y>
    • <x,λy> = λ <x,y>
  • Symmetrie: <x,y> = <y,x>
  • Positiv definit:
    • <x,x> ≥ 0
    • <x,x> = 0 genau dann, wenn x=0 ist

Das reelle Skalarprodukt ist also eine positiv definite, symmetrische Bilinearform.

Für den Fall eines Vektorraums über dem Körper der komplexen Zahlen, ist die Sache etwas schwieriger.
Es müssen für x, y, z ∈ V und λ ∈ \(\mathbb{C} \) folgende Axiome gelten:

Semilinear im ersten Argument:

\( <\lambda x, y> = \bar{\lambda} <x,y> \)

Linear im zweiten Argument:

\( <x, \lambda y> = \lambda <x,y> \)

Hermitisch:

\( <x,y> = \overline{<y,x>} \)

Positiv definit:

<x,x> ≥ 0

<x,x> = 0 genau dann, wenn x=0

Das komplexe Skalarprodukt ist also eine positiv definite, hermitische Sesquillinearform.

Existenz eines Skalarprodukts

Soweit ist dies eine axiomatische Definition von Eigenschaften, welche ein Skalarprodukt erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich ein solches Skalarprodukt definiert werden kann.

Aus unserem Vektorraum V über K nehmen wir zwei Vektoren \(\vec{a}\) und \(\vec{b}\) und versuchen deren Skalarprodukt zu definieren. Dazu greifen wir auf die Komponentendarstellung dieser Vektoren zu einer ausgewählten Vektorbasis zurük:

Die Vektorbasis sei: \( \vec{g}_i  (i=1,2,…,n) \)

Die Komponentendastellungen sind:

\( \vec{a} = a^i \vec{g}_i  \) und \( \vec{b} = b^i \vec{g}_i  \)

Das Skalarprodukt der beiden Vektoren müsste dann eigentlich sein:

\( \vec{a} \cdot \vec{b} = a^i b^j (\vec{g}_i \cdot \vec{g}_j) \)

Wir könnten das Skalarprodukt zweier beliebiger Vektoren also definieren, wenn wir nur das Skalaprodukt von je zwei Basisvektoren so definieren, dass dann die Axiome des Skalarprodukts eingehalten würden. MIt anderen Worten: Bei geeigneter Feststetung einer Matrix:

\( g_{ij} = \vec{g}_i \cdot \vec{g}_j \tag{1}\)

Könnten wir das Skalarprodukt einfach definieren als:

\( \vec{a}  \cdot \vec{b} = g_{ij} a^i b^j \tag{2}\)

Wir bekommen also ein Objekt aus zweifach indizierten Skalaren (genannt Metrik-Koeffizienten). Diese Metrik-Koeffizienten bilden also eine quadratische Matrix, die wir später auch gerne “Metrik-Tensor” nennen werden.

Der Metrik-Tensor besteht also aus den paarweisen Skalarprodukten der verwendeten Basisvektoren.

Beispiel:

Wie nehmen einen euklidischen Vektorraum: \(\mathbb{R}^3\)
mit der Vektorbasis: \( \vec{e}_i = (\delta_{i}^j) \)
Wir nehmen als Metrik-Tensor: \( \eta_i^j = \left( \begin{matrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ \end{matrix} \right) \)

Aus Gleichung (2)  mit dem obigen Metrik-Tensor ergibt sich als Skalarprodukt:

\( \vec{a} \cdot \vec{b} = \sum\limits_{i=1}^3 a^i  b^i \)

Nun müssen wir nur noch überprüfen, ob die Skalarprodukt-Axiome gelten.

Skalarprodukt und Länge eines Vektors

Der Begriff “Metrik-Tensor” hat schon einen Sinn, wenn wir sehen, dass damit auch die Länge eines Vektors definiert werden kann:

\( | \vec{a} | = \sqrt{\vec{a} \cdot \vec{a}} = \sqrt{g_{ij} a^i a^j}  \)

Zu jedem Skalarprodukt in einem R-Vektorraum oder C-Vektorraum kann man eine Norm definieren, die man “induzierte Norm” nennt:

\( ||\vec{x}|| = \sqrt{\vec{x} \cdot \vec{x}} \)

Skalarprodukt und Abstand zweier Punkte

Mittels der sich aus dem Skalarprodukt ergebenden Norm, definieren wir dann eine Metrik (Anstandsbegriff):

d(x,y) := || y – x ||

Die Metrik-Axiome werden erfüllt.

Dadurch werden Grenzwert-Konstruktionen möglich z.B. die Konvergenz einer Folge (vgl. Cauchy-Folge), Differentialquotienten etc.

 

Mathematik: Taylor-Entwicklung & Fourier-Entwicklung

Gehört zu: Mathematik
Siehe auch: Hintergrundstrahlung, MP3-Format, Multipol-Moment

Stand: 24.10.2022

Taylor-Entwicklung – Fourier-Entwicklung

Wir versuchen eine kompliziertere Funktion in eine Summe einfacherer zu zerlegen.

Bei der Taylor-Entwicklung (Brook Taylor 1685 -1731) betrachten wir einen Punkt der Funktion und wollen in der Umgebung dieses Punktes die Funktion “vereinfachen”, dadurch dass wir sie als Summe aus einfacheren Funktionen annähern und im Grenzwert sie damit genau darstellen.

Bei der Fourier-Entwicklung (Jean Baptist Joseph Fourier 1768 – 1830) betrachten wir eine periodische Funktion und wollen diese für eine Periode durch eine Summe einfacherer periodischer Funktionen approximieren (im Grenzwert genau darstellen).

Taylor-Entwicklung

Wir wollen hier eine Funktion y=f(x) in der Nähe einer Stelle x0 durch eine Potenzreihe annähern:

\( f(x) = f(x_0) + a_1 (x-x_0) + a_2 ( x – x_0)^2 + a_3 (x – x_0)^3 + \ldots \\ \)

Das ist eine Linerakombination der Potzenzen (Monome genannt).

Die Koeffizienten in dieser Taylor-Entwicklung kennen wir: \(a_i = \frac{f^{(i)}(x_0)}{i!} \) damit ist:

\( f(x) = f(x_0) + f^\prime(x_0) (x-x_0) + \frac{f^{\prime\prime}(x_0)}{2!} ( x – x_0)^2 + \frac{f^{(3)}(x_0)}{3!} (x – x_0)^3 + \ldots \\ \)

Bleibt x in der Nähe von x0, so ist (x-x0) klein und wir können näherungsweise die Tayler-Entwicklung irgendwann abbrechen – wenn es genauer sein soll, müsen wir weitere Terme hinzunehmen.

Der Sinn einer solchen Taylor-Entwicklung ist häufig, dass die entstandene Potenzreihe einfacher zu handhaben ist als die Originalfunktion (z.B. in Formeln, z.B. die Ableitungen,…)

Physiker brechen gern nach dem zweiten Term ab und nennen das eine Linearisierung; also:

\( f(x) = f(x_0) + f^\prime(x_0)(x-x_0) \\\)

Das machten wir – schon in der Schule – beim Fadenpendel.

Und auch Einstein machte das bei seiner berühmten Formel E = mc2 .

In der Tat zeigt die Mathematik, unter bestimmten Voraussetzungen konvergiert diese Taylor-Reihe. Also

\( f(x) = \sum\limits_{i=0}^{\infty}{\frac{f^{(i)}(x_0)}{i!}} (x-x_0)^i\\\)

Fourier-Entwicklung

Wir betrachten eine etwas kompliziertere Funktion f(t); z.B. ein elektrisches oder akustisches Signal im Zeitverlauf. Die Funktion soll aber periodisch sein; etwa mit der Periode [-π,+π] (das wird gern genommen).

Wir wollen die Funktion durch eine Reihe von Sinus- und Cosinus-Funktionen, also durch Schwingungen, annähern:

\( f(t) = \frac{a_0}{2} + \sum\limits_{k=1}^\infty(a_k \cos(kt)+ b_k \sin(kt)) \\ \)

Das ist eine Linearkombination von Sinussen und Cosinussen verschiedener Frequenzen (und Amplituden).

Der Sinn so einer Fourier-Entwicklung ist jetzt primär nicht, dass das Ergebnis “einfacher” wäre, sondern man möchte etwas herausbekommen über die Original-Funktion; beipielsweise wenn die Original-Funktion ein akustisches Signal ist (siehe MP3-Format).

Die Ermittlung der Fourier-Koeffizienten ak und bk nennt man auch Fourier-Analyse. Fourier selbst fand als analytische Lösung:

\( a_k = \frac{1}{\pi}\int\limits_{-\pi}^{+\pi} f(t) cos(kt) dt \\\)

und

\( b_k = \frac{1}{\pi}\int\limits_{-\pi}^{+\pi} f(t) sin(kt) dt \\\)

Eine Deutung so einer Fourier-Analyse ist, dass wir eine Funktion f(t) untersuchen und die Anteile verschiedener Frequenzen ermitteln. Man spricht deshalb auch von einem Frequenz-Spektrum…

Wenn wir die Fourier-Entwicklung nach dem n-ten Term abbrechen, schreiben wir:

\( F_n  f(t) = \frac{a_0}{2} + \sum\limits_{k=1}^n(a_k \cos(kt)+ b_k \sin(kt)) \\ \)

Das nennen wir “Fourier-Polynom n-ten Grades zu f”  (Sprachgebrauch, obwohl das kein Polynom im üblichen Sinne ist).

Statt Fourier-Analyse wird auch gern die Bezeichnung Harmonische Analyse verwendet.

Komplexe Zahlen

Gerne wird die Fourier-Analyse auch mit Komplexen Zahlen erklärt. So hilft die Eulerschen Formel dabei statt Sinus und Cosinus “einfach” eine Exponatialfunktion zu verwenden:

\(  e^{i  \cdot \phi} = \cos \phi+i \cdot \sin \phi \\\)

Damit entwickeln wir:

\( f(t) = \sum\limits_{k \in Z} c_k \cdot e^{ikt} \\\)

Was dann in der Regel zu komplexen Fourier-Koeffizenten ck führt.

Wir unterscheiden zwischen Fourier-Analyse und Fourier-Transformation…

Diskrete Fourier-Analyse

In der Praxis kennt man die Funktion f(t) meist nicht analytisch (also als Formel), sondern hat “nur” die Funktionswerte an diskreten Stellen. Man kommt dann zu einer sog. Diskreten Fourier-Transformation (DFT).

xyz

 

 

 

Mathematik: GeoGebra

Gehört zu: Data Science
Siehe auch: Python, Thermodynamik, Raumkrümmung, Robin Glover, Jeans-Kriterium, Hydrostatisches Gleichgewicht

Stand: 12.10.2022

Die Software GeoGebra Classic

Download von: https://www.geogebra.org/download?lang=de

Versionen:   6.0.735

Installation: Lokal auf ComputerAcerBaer (Ordner Programmierung)

Online-Aufruf:   https://www.geogebra.org/classic

Benutzung von GeoGebra Classic

Wenn man Dateien speichern will (weil man sie vielleicht später weiterbearbeiten will), benötigt man ein Konto bei GeoGebra und dann muss man sich da anmelden.

Dann funktioniert im GeoGebra-Menü “Datei -> Öffnen”

Mathematik: Koordinatensysteme

Gehört zu: Tensoren
Siehe auch: Metrik-Tensor, Astronomische Koordinatensysteme
Benutzt: Latex-Plugin

Stand: 03.12.2022

Medien-Hinweise

Prof. Wagner: https://youtu.be/c07r4pARzHw

Koordinatensysteme

In der Geometrie führt man gerne Koordinatensysteme ein, um die geometrischen Objekte (Punkte, Linien, Geraden, Flächen,…) mithilfe von Zahlen (Koordinaten) zu beschreiben und zu untersuchen. Das führt zur sog. Analytischen Geometrie.

Man spricht gerne von der Eukidischen Geometrie, dem Euklidischen Raum und den Euklidischen Koordinaten.

Nach Rene Decartes (1596-1650) hat man die xxx Koordinaten benannt….

Kartesische Koordinaten

Im herkömmlichen unserer Anschauung entsprechenden dreidimensionalen Raum \(\mathbb{R}^3 \) habe wir ja die klasssichen Kartesischen Koordinaten (Rene Decartes 1596-1650) mit den Symbolen: x, y, z. Im höherdimensionalen Falle schreibt man dann eher x1, x2, x3, x4,…

Koordinatensysteme und Mannigfaltigkeiten

Man hat eine Menge M (Punktmenge) und ordnet jedem Element (Punkt) aus M ein-ein-deutig ein n-Tupel von Koordinaten zu. Dann kann man statt der Punkte über diese n-Tupel (also die n Koordinaten) sprechen.
So eine Koordinate ist im einfachsten Fall eine reelle Zahl, dann sind die Koodinaten also n-Tupel reeller Zahlen, also Elemente aus dem \( \mathbb{R}^n \). Im allgemeinen Fall nehmen wir für die Koordinaten einen Körper.

Wir hätten also eine ein-ein-deutige (d.h. bijektive) Abbildung zwischen Punkten aus M und n-Tupeln:

\( M \to \mathbb{R}^n \)

So eine Menge zusammen mit einem Koordinatensystem nennen wir (nach Bernhard Riemann 1816-1866) eine Mannigfaltigkeit.

In der Mathematik werden Mannigfaltigkeiten für sich noch sehr detailliert in genauer als hier behandelt. Für uns ist es wichtig zu einem Koordinatensystem zu kommen.

Kartesische Koordinaten

Im herkömmlichen unserer Anschauung entsprechenden dreidimensionalen Raum \(\mathbb{R}^3 \) habe wir ja die klasssichen Kartesischen Koordinaten (Rene Decartes 1596-1650) mit den Symbolen: x, y, z. Im höherdimensionalen Falle schreibt man dann eher x1, x2, x3, x4,…

Krummlinige Koordinaten

Bei nicht-kartesischen Koordinaten, die wir als “allgemeine Koordinaten” bezeichnen, verwenden wir im allgemeinen die Symbole qi (i=1,2,..). Diese “allgemeinen Koordinaten” nennt man, um den Gegensatz zu den Kartesischen Koordinaten deutlich zu machen, auch gerne krummlinige Koordinaten.

Typische Beispiele für krummlinige Koordinaten sind z.B.

  • Ebene Polarkoordinaten
  • Kugel-Koordinaten
  • Zylinder-Koordinaten

Kurven und Tangenten

Eine Kurve in einer Manigfaltigkeit M wird gegeben durch eine Abbildung von einem reellen Intervall auf Punkte in die Manigfaltigkeit. Man nennt so eine Abbildung auch eine Parameterdarstellung der Kurve.

Den Parameter aus einem reellen Intervall können wir schreiben als: \( t \in [t_a, t_e] \)

Die Abbildung ist dann:

\( [t_a, t_e] \to M \\\)

Wir haben also zu jedem Parameterwert \( t \in [t_a, t_e] \) einen Punkt aus der Manigfaltigkeit M.

Wenn wir den Punkt durch seine Koordinaten \( \left(q^i\right) \) ausdrücken, ist die  Kurve also eine Abblidung:

\( [t_a, t_e] \to \mathbb{R}^n \\\)

Wo also die Koordinaten qi eine Funktion des Parameters t sind: \( q^i = q^i(t) \)

Wenn die Kurve differenzierbar ist (also die Koordinaten der Parameterdarstellung), hat die Kurve auch Tangentenvektoren:

\(\vec{T}(t) = \left(T^i(t)\right) = \Large \left(\frac{dq^i}{dt} \right) \)

Die Kurve selbst liegt in der Manigfaltigkeit; der Tangentenvektor aber nicht, er ist an die Mannigfaltigkeit sozusagen “angeheftet”.

Die Tangentenvektoren liegen in einem eigenen Vektorraum

Koordinatenlinien

Bei einem n-dimensionalen Koordinatensystem erhält man eine Koordinatenlinie indem man n-1 Koordinaten festhält und genau eine Koordinate als Parameter laufen lässt.
So eine Koordinatenlinie kann man als (unendliche) Kurve auffassen.

Durch jeden Raumpunkt \( (p^i) = \left( p^1, p^2,\ldots, p^n \right)\) gehen dann n Koordinatenlinien: \( L_j\) mit \( j=1, 2,\ldots, n \).

Die Koordinatenlinie \( L_j\)  hat den Parameter \( t = q^j \) und die Werte:

\( q^i(t) = p^i \enspace (\text{falls } i \neq j)  \)
\( q^i(t) = t \enspace (\text{falls } i = j)  \)

Schöneres Latex:

\( q^i(t) = \left \{  \begin{array}{ll}   p^i & \text{falls } i \neq j \\ t & \text{falls } i = j \\    \end{array} \right. \)

Koordinaten-Hyperflächen

Bei einem n-dimensionalen Koordinatensystem bekommt man Koordinaten-Hyperflächen in dem man genau eine Koordinate festhält und alle anderen laufen lässt.

Durch jeden Raumpunkt \( (p^i) = \left( p^1, p^2,\ldots, p^n \right) \)  gehen dann n Koordinaten-Hyperflächen.

So eine Koordinaten-Hyperfläche kann man als sog. Teil-Mannigfaltigkeit auffassen.

Vektorbasis zu einem Koordinatensystem

Nun kann man an jedem Raumpunkt anhand des Koordinatensystems eine Vektorbasis definieren…

In jedem Raumpunkt kann man nun Basisvektoren so definieren, dass deren Länge 1 sei und sie Tangenten an die Koordinatenlinien durch diesen Punkt sind.

Astronomische Koodinatensysteme

Hierzu habe ich einen eigenen Artikel Astronomische Koordinatensysteme geschrieben.

Mathematik: Der Metrik-Tensor

Gehört zu: Vektoranalysis
Siehe auch: Allgemeine Relativitätstheorie, Koordinatensysteme, Vektorbasis, Tensoren, Gekrümmter Raum

Der Metrik-Tensor

Stand: 26.10.2021

Youtube-Videos von Prof. Paul Wagner:

Wir betrachten eine Riemansche Manigfaltigkeit; d.h. eine Punktmenge mit einem Koordinatensystem. Zu so einem Koordinatensystem, gehört ein Metrik-Tensor, der uns auch ein Linienelement definiert und damit so etwas wie eine Metrik.

Wir kommen aber nicht in einem Schritt von einem Koordinatensystem zu einem Metrik-Tensor, sondern betrachten zunächst, wie ein Koordinatensystem eine Vektorbasis definiert. Zu so einer Vektorbasis haben wir dann einen Metrik-Tensor.

Schlussendlich wollen wir ja Vektorfelder beschreiben. Dabei handelt es sich ja um eine Abbildung von Raumpunkten auf Vektoren. Dabei wird der Raumpunkt durch seine Koordinaten im Koordinatensystem und der Vektor durch seine Komponenten bezügliche “seiner” Vektorbasis beschieben. Wenn wir dann beispielsweise die Veränderung eines Vektors bei kleinen Veränderungen des Raumpunkts untersuchen, müssen wir nicht nur die Veränderung der Vektorkomponenten, sondern ggf. auch die Veränderung der Basisvektoren berücksichtigen, da die Basisvektoren ja im Allgemeinen (z.B. bei krummlinigen Koodinaten) auch vom Ort im Raum abhängig sein werden.
Das wird uns dann zur sog. Kontravarianten Ableitung führen.

Koordinatensystem und Vektorbasis

Zu einem Koordinatensystem bekommmen wir nämlich zwei möglicherweise verschiedene Vektorbasen:

1) Die Basisvektoren sind tangential zu den Koordinatenlinien: sog. kovariante Basis

2) Die Basisvektoren stehen normal (senkrecht) auf den Koordinatenhyperflächen: sog. kontravariante Basis

Bei Chartesischen Koordinaten sehen wir Besonderheiten:

  1. Kovariante Vektorbasis = Kontravarinate Vektorbasis
  2. Die Vektorbasis ist unabhängig vom betrachteten Raumpunkt, also überall die gleiche.

Bei nicht-chartesischen Koordinatensystemen (sog. krummlinigen) wird das beides anders sein.

Bei solchen nicht-chartesischen Koordinaten, die wir als “allgemeine Koordinaten” bezeichnen, verwenden wir im allgemeinen die Symbole qi (i=1,2,..). Diese “allgemeinen Koordinaten” nennt man, um den Gegensatz zu den Chartesischen Koordinaten deutlich zu machen, auch gerne krummlinige Koordinaten.

Wir betrachten nun einen Raum mit den allgemeinen (krummlinigen) Koordinaten: \( q^\alpha \) mit α =1,2,…,n und einem hilfsweise dahinterliegenden Chartesischen Koordinaten: \( x^i \) mit 1= 1,2,….n.

Als Hilfsmittel ziehen wir anfangs gerne die Chartesischen Koordinaten hinzu, wo wir dann im Fall von beliebig vielen Dimensionen die Symbole xi (i=1,2,…) verwenden, oder bei zwei und oder drei Dimensionen, manchmal auch: x,y,z.

Die kovarianten Basisvektoren nennen wir:

\(\Large {\vec{g}}_\alpha \)    wobei α=1,2,..,n

Diese Basisvektoren sind Tangenten an die Koordinatenlinien. Demnach sind die Komponenten (i=1,2,…n) dieser Basisvektoren im Chartesischen Koordinatensystem:

\(\Large \left( \vec{g}_\alpha \right)^i = \frac{\partial x^i}{\partial q^\alpha} \)

Die kontravarianten Basisvektoren nennen wir:

\(\Large {\vec{g}}^{\,\alpha} \)    wobei α=1,2,..,n

Diese Basisvektoren sind Normalen auf den Koordinatenhyperflächen. Demnach sind die Komponenten (i=1,2,…n) dieser Basisvektoren im Chartesischen Koordinatensystem:

\( \Large \left( {{\vec{g}}^{\,\alpha}} \right)^i = \frac{\partial q^\alpha}{\partial x^i} \)

Vektorbasis und Metrik-Tensor

Wenn wir eine Vektorbasis gefunden haben; z.B.:

Eine Vektorbasis: \( \vec{g}_\alpha \)  (α= 1,2,…,n)

Erhalten wir zu dieser Vektorbasis den dazugehörigen Metrik-Tensor als: \( \left(g_{ij}\right) = \vec{g}_i \cdot \vec{g}_j  \)

Merke: Zu einer Vektorbasis haben wir einen Metrik-Tensor.

Die Riemann-Metrik

Wir können auf einer Riemannschen Mannigfaltigkeit ein Tensor-Feld \( g_{ij} \) definiert haben, mit dem wir einen Abstandsbegriff (d.h. eine Metrik) definieren; genauer gesagt, mit dem wir die Länge einer Kurve in der Mannigfaltigkeit definieren wie folgt:

\(\Large s = \int\limits_{t_a}^{t_b} \sqrt{g_{ij}\frac{dq^i}{dt}\frac{dq^j}{dt}} \, dt  \)

So einen Tensor \( g_{ij} \) nennen wir Metrik-Tensor.

Allgemeine Weisheiten zum Metrik-Tensor

Der Metrik-Tensor ist also ein Tensor-Feld, das auf einer Riemannschen Mannigfaltigkeit definiert ist.

  • Wenn der Metrik-Tensor Elemente konstant sind (also nicht vom Ort abhängen) ist der Raum ein flacher Raum. Es kann dafür auch eine geeignete Koordinaten-Transformation benutzt werden.
  • Wenn die Komponenten des Metrik-Tensors aber vom Ort abhängen (keine Koordinaten-Transformation kann sie konstant machen), ist der Raum ein gekrümmten Raum.
  • So ein gekrümmer Raum kann in einen höherdimensionalen euklidischen (flachen) Raum eingebettet sein (z.B. die zweidimensionale Kugeloberfläche) muss es aber nicht.
  • Ein Euklidischer Raum, ist ein flacher Raum bei dem der Metrik-Tensor die Einheitsmatrix ist bzw. alle Diagonalelemente positiv sind.

Beipiel 1: Chartesische Koordinaten

Das Linienelement ist:

\( ds^2 = d{x_1}^2 + d{x_2}^2 + d{x_3}^2 + … \)

Also:

\( ds^2 = \sum\limits_{i=1}^{n}{{dx_i}^2} \)

Der Metrik-Tensor ist dabei ja ein Tensor vom Rang 2 und ist in diesem chartesischen Falle identisch mit der Einheitsmatrix (beispielsweise mit 3 Dimensionen):

\(\Large (g_{ij}) =  \left[ \begin{array}{rrr} 1 & 0 & 0\\  0 & 1 & 0 \\  0 & 0 & 1 \end{array} \right]  \\\)

Dieser Metrik-Tensor definiert dann unser Linienelement:

\( (ds)^2 = \sum\limits_{i=1}^n{\sum\limits_{j=1}^n{dx_i dx_j g_{ij}}} \)

Oder in der Einsteinschen kompakten Schreibweise (mit der sog. Summenkonvention):

\( (ds)^2 = g_{ij} dx^i dy^j \)

Beispiel 2: Ebene Polarkoordinaten

Im zweidimensionalen Euklidischen Raum (Ebene) haben wir als Chartesische Koordinaten: x1 = x,  x2 = y

Als krummlinigen Koordinaten nehmen wir Polarkoordinaten: q1 = r und q2 = φ

Zum Rechnen verwenden wird als Hilfsmittel gern die Chartesischen Koordinaten. Damit haben wir Koordinaten-Transformationen in beiden Richtungen:

\( x = r \cdot \cos{\phi} \\ \\ y = r \cdot sin{\phi} \)

Und in der anderen Richtung ist:

\( r = \sqrt{x^2 + y^2} \\ \phi =\arctan{\frac{y}{x}} \)

Zu diesen Koordinaten erhalten wir als kovariante Vektorbasis (Basis Vektorsystem):

\( \left( \vec{g}_\alpha \right)^i = \frac{\partial x^i}{\partial q^\alpha} \)

Zu diesen kovarianten Basisvektoren bekommen wir als kovarianten Metrik-Tensor:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rr} 1 & 0 \\  0 & r^2  \end{array} \right]  \\\)

Wobei dieses Beispiel zeigt: (1) Der Metrik-Tensor ist ortsabhängig und (2) Die zugrundeliegende Vektorbasis ist zwar orthogonal, aber nicht orthonormal.

Und entsprechend das kovariante Linienelement:

\( (ds)^2 =  dr^2 + r^2 d\phi^2 \\ \)

Zu diesen Koordinaten erhalten wir als kontravariante Vektorbasis:

\( \left( {{\vec{g}}^{\,\alpha}} \right)^i = \frac{\partial q^\alpha}{\partial x^i} \\\)

Zu diesen kontravarianten Basisvektoren bekommen wir als kontravarianten Metrik-Tensor (wir können die Komponenten des kontravarianten Metrik-Tensors ausrechnen oder nehmen einfach das Inverse des kovarianten Metriktensors):

\( \left(g^{ij}\right) =  \left[ \begin{array}{rr} 1 & 0 \\  0 & \frac{1}{r^2}  \end{array} \right]  \\\)

Und entsprechend das kontravariante Linienelement:

\( (ds)^2 =  dr^2 + \frac{1}{r^2} d\phi^2   \)

Wir sehen auch, dass die beiden Metrik-Tensoren invers zueinander sind.

Beispiel 3: Zylinderkoordinaten

Im dreidimensionalen euklidischen Raum können wir neben den Chartesischen Koordinaten x ,y, z die Zylinderkoordinaten (r, φ, z) betrachten.
Dies sind also allgemeine (krummlinige) Koordinaten mit \( q^1 = r,  \, q^2 = \phi, \, q^3 = z \)

Aufgrund der Koordinaten-Transformationen bekommen wir:

Für den  kovarianten Metrik-Tensor:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rrr} 1 & 0  & 0 \\  0 & r^2 & 0 \\ 0 & 0 & 1  \end{array} \right]  \\\)

Und entsprechend das kovariante Linienelement:

\( (ds)^2 =  dr^2 + r^2 d\phi^2  + dz^2 \\ \)

Und für den  kontravarianten Metrik-Tensor bekommen wir:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rrr} 1 & 0  & 0 \\  0 & \frac{1}{r^2} & 0 \\ 0 & 0 & 1  \end{array} \right]  \\\)

Und entsprechend das kontravariante Linienelement:

\( (ds)^2 =  dr^2 + \frac{1}{r^2} d\phi^2 + dz^2 \)

Wiederum sehen wir auch, dass die beiden Metrik-Tensoren invers zueinander sind.

Beispiel 4: Kugelkoordinaten

Im dreidimensionalen euklidischen Raum können wir neben den Chartesischen Koordinaten x, y, z die Kugelkoordinaten (r, θ, φ) betrachten.
Dies sind also allgemeine (krummlinige) Koordinaten mit \( q^1 = r, \,  q^2 = \theta, \,  q^3 = \phi \)

Als kovariante Vektorbasis bekommen wir wieder die Tangenten an die Koordinatenlinien, also an die “Radialachse” (Zenith/Nadir), die “Meridiane” (Nord/Süd) und die “Breitenkreise” (Ost/West).

Als kovarianten Metrik-Tensor bekommen wir:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rrr} 1 & 0  & 0 \\  0 & r^2 & 0 \\ 0 & 0 & r^2 \sin^2 \theta  \end{array} \right]  \\\)

Und entsprechend das kovariante Linienelement:

\( (ds)^2 =  dr^2 + r^2 d\theta^2  + r^2 \sin^2 \theta \, d\phi^2 \\ \)

Und als kontravarianten Metrik-Tensor bekommen wir:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rrr} 1 & 0  & 0 \\  0 & \frac{1}{r^2} & 0 \\ 0 & 0 & \frac{1}{r^2 \sin^2 \theta}  \end{array} \right]  \\\)

Und entsprechend das kontravariante Linienelement:

\( (ds)^2 =  dr^2 + \frac{1}{r^2}d\theta^2  + \frac{1}{r^2 \sin^2 \theta}d\phi^2 \)

Wiederum sehen wir auch, dass die beiden Metrik-Tensoren invers zueinander sind.

Beispiel 5: Kugeloberfläche

Die Oberfläche einer Kugel mit dem (festen) Radius R ist ein zweidimensionaler Raum, wo wir als Koordinatensystem gut mit dem entsprechenden Teil der Kugelkkordinaten arbeiten können.

Also mit den allgemeinen (krummlinigen) Koordinaten mit \(  q^1 = \theta, \,  q^2 = \phi \), was also auf der Erdoberfläche prinzipiell der geografischen Breite und der geografischen Länge entsprechen würde.

Als kovariante Vektorbasis bekommen wir wieder die Tangenten an die Koordinatenlinien, also an die “Meridiane” (Nord/Süd) und die “Breitenkreise” (Ost/West).

Der Metrik-Tensor ergiebt sich dann ganz analog aus dem Vorigen:

Als kovarianten Metrik-Tensor bekommen wir:

\( \left(g_{ij}\right) =  \left[ \begin{array}{rr}  R^2 & 0 \\  0 & R^2 \sin^2 \theta  \end{array} \right]  \\\)

Und entsprechend das kovariante Linienelement:

\( (ds)^2 =  R^2 d\theta^2  + R^2 \sin^2 \theta \, d\phi^2 \\ \)

Der so definierte Riemansche Raum (Kugeloberfläche mit dem o.g. Koordinatensystem) ist ein Nichteuklidischer Raum, wie wir sehen werden. Zur Geometrie in solchen Nichteuklidischen Räumen haben wir ja noch nichts gesagt; aber die Standard-Weissheit ist ja die Winkelsumme im Dreieck und…

 

 

 

Mathematik: Matrizenrechnung – Vektorraum

Gehört zu: Mathematik
Siehe auch: Lineare Algebra
Benutzt: WordPress-Plugin Latex

Matrizen als Lineare Abbildungen

Jede (nxm)-Matrix ist per Matrixmultipikation eine lineare Abbildung von \(\mathbb{R}^m\) nach \(\mathbb{R}^n\)

Quelle: https://www.mathematik.de/algebra/74-erste-hilfe/matrizen/2429-lineare-abbildungen

Lineare Abbildungen als Matrizen

Eine Lineare Abbildung kann eindeutig beschrieben werden durch die Werte auf die die Basis-Vektoren einer Basis abgebildet (transformiert) werden.

Beispielsweise heisst das im Vektorraum \(\mathbb{R}^2\) mit dem kanonischen Koordinatensystem und den Basisvektoren \( \hat{i} \) und \( \hat{j}  \) folgendes:

Wenn wir einen Vektor \( \vec{v} = \left[ \begin{array}{c} x \\\ y  \end{array} \right] = x \hat{i} + y\hat{j} \) betrachten, so wirkt eine Lineare Transformation L wie folgt:

\( L(\vec{v}) = x L(\hat{i}) + y L(\hat{j} )  \)

Wenn wir also die transformierten Basisvektoren \( L(\hat{i}) \) und \( L(\hat{j}) \)  kennen, ist damit die Lineare Transformation L vollständig festgelegt.

Diese transformierten Basis-Vektoren können im verwendeten Koordinatensystem als Matrix schreiben.

Wenn bei unserer Linearen Transformation beispielsweise \( L(\hat{i}) = \left[ \begin{array}{c} 3 \\\ -2  \end{array} \right] \)   und \( L(\hat{j}) = \left[ \begin{array}{c} 2 \\\ 1  \end{array} \right] \)  wäre, bekämen wir eine Matrix:

\( \left[ L(\hat{i}) | L(\hat{j}) \right] = \left[ \begin{array}{rr} 3 & 2 \\  -2 & 1 \\  \end{array} \right] \)

Wir “konkatenieren” also die transformierten Basis-Vektoren vertikal als Spalten.
Die Lineare Transformation kann im benutzten Koordinatensystem als Matrixmultiplikation aufgefasst werden:

\(\left[ \begin{array}{rr} 3 & 2 \\  -2 & 1 \\  \end{array} \right]  \left[ \begin{array}{c} x \\\ y  \end{array} \right] = x  \left[ \begin{array}{c} 3 \\\ -2  \end{array} \right] + y  \left[ \begin{array}{c} 2 \\\ 1  \end{array} \right] = \left[ \begin{array}{c} 3x+2y \\\ -2x+1y  \end{array} \right] \\\)

Völlig analog werden auch Lineare Transformationen in drei oder mehr (endlichen) Dimensionen behandelt.

Eigenschaften von Matrizen

Viele der Überlegungen, die wir mit Linearen Abblidungen vorgenommen haben, können wir also gleichermaßen auf Matrizen übertragen.

Sei also A die  (nxn)-Matrix zur Linearen Abblidung L von einem Vektorraum V in einen Vektorraum W (beide über dem gleichen Körper K)

\(  L: V  \to W \\\)

So haben wir beispielsweise zu L im Falle dim(V) = dim(W) = 3  eine (3×3)-Matrix A:

\(\Large A =  \left( \begin{array}{rrr} a_{11} & a_{12} & a_{13}\\  a_{21} & a_{22} & a_{23} \\  a_{31} & a_{32} & a_{33} \end{array} \right)  \\\)

Das Bild einer Matrix

Das Bild (engl. image) der Matrix A ist die Menge:

\(  im(A) =\{ y \in W \,| \,\exists x \in V \, : \, Ax = y \} \\\)

im(A) ist wiederum ein Untervektorraum von W.

Der Rang einer Matrix

Der Rang einer Matrix ist die Anzahl linear unabhängiger Zeilen- oder Spaltenvektoren der Matrix.
Bei einer quadratischen (n×n)-Matrix bedeutet dies, er ist höchstens n.

Rang(A) = dim(im(A))

Der Kern einer Matrix

Der Kern der Matrix A ist die Menge der Vektoren, die auf den Null-Vektor abgebildet werden:

\(  ker(A) =\{ x \in V \,|  \, Ax = 0 \} \\\)

ker(A) ist wiederum ein Untervektorraum von V.

Mit anderen Worten: Der Kern von A ist also die Lösungsmenge des Linearen Gleichungssystems Ax=0

Die Determinante einer Matrix

Bei einer quadratischen (n×n)-Matrix ist die Determinante genau dann 0 ist, wenn ihr Rang der Matrix kleiner n ist.

Computer: Mathematik – Algebren

Gehört zu: Mathematik
Siehe auch: Vektorräume, Quantenfeldtheorie

Stand: 23.2.2022

Algebren

Ein Vektorraum V über einem Körper K zusammen mit einer bilinearen Abbildung:

\(  V \times V \to V \)

wird eine Algebra genannt.

Die bilineare Abbildung wird “Produkt” (auch: Multiplikation) genannt und auch so wie ein Produkt hingeschrieben; also:  a · b  oder einfach ab. In dieser Schreibweise bedeutet die Bilinearität einfach folgendes:

\(   (x + y) \cdot z = x \cdot z + y \cdot z  \\ \)
\(   x \cdot (y + z)  = x \cdot y + x \cdot z  \\ \)
\( a (x \cdot y) = (ax) \cdot y = x \cdot (ay) \\ \)

Dabei sind x,  y und z Vektoren aus V und a ein Skalar aus K.

Das “besondere” an Algebren ist die “Multiplikation”. Deswegen unterscheidet man  Algebren auch nach den Eigenschaften dieser Multiplikation:

Kommutative – nicht-kommutative Algebren: Ist immer \( a \cdot b  =  b \cdot a \) oder nicht?

Assoziative – nicht-assoziative Algebren: Ist immer \( a \cdot (b \cdot c) = (a \cdot b) \cdot c \) oder nicht?

Beispiele für Algebren:

Die n × n Matrizen über einem Körper mit der gewöhnlichen Matrizenmultiplikation als “Multiplikation” bilden eine assoziative Algebra.

Ein Vektorraum V mit dem Kreuzprodukt als Multipikation bildet eine nicht-assoziative Algebra.

Lie-Algebren

Bestimmte Algebren heissen “Lie-Algebren” (nach Sophus Lie 1842-1899), dort wird das Produkt meist als [x,y] geschrieben und “Lie-Klammer” genannt.
Eine Lie-Algebra ist eine Algebra, in der die beiden folgenden Bedingungen gelten:

  • [x,x] = 0
  • [x,[y,z]] + [y,[z,x]] + [z,[x,y]] = 0 (“Jacobi-Identität”)

Beispiel für eine Lie-Algebra:

Ein Vektorraum V mit dem Kreuzprodukt als Multipikation bildet eine Lie-Algebra.

Kommutator

Im allgemeinen definiert man als Kommutator in Ringen und assoziativen Algebren: [a,b] = ab – ba
So ein Kommutator kann in bestimmten Algebren als Lie-Klammer fungieren. Beispielsweise kann man aus der oben erwähnten Algebra der n x n Matrizen mit der gewöhnlichen Matrixmultiplikation eine Lie-Algebra machen, indem man den Kommutator der Matrixmultiplikation als Lie-Klammer nimmt.

Lie-Algebren in der Physik

Solche Lie-Algebren werden in der Quantenfeldtheorie praktisch gebraucht.

Mathematik: Metrik, Abstand und Geometrie

Gehört zu: Mathematik
Siehe auch: Krümmung, Vektorraum, Wirkung, Schwarzschild-Metrik, Metrik-Tensor
Benutzt: WordPress-Plugin Latex, GeoGebra Grafikrechner

Metrik, Abstand und Geometrie

Auf einer Menge M kann man eine Metrik definieren; dadurch dass man je zwei Punkten einen Abstand (relle Zahl >= Null) zuordnet.

d: M x M -> R

So eine Abstandsfunktion muss drei Axiome erfüllen, um Metrik genannt werden zu dürfen.

Oft ist den Beispielen die Menge M ein Vektorraum z.B. R2 oder R3.

Mit Hilfe einer solchen Metrik kann man eine ganze “Geometrie” definieren, also ein Regelwerk für Punkte, Geraden, Winkel, Dreiecke etc. Klassisch ist die Geometrie nach Euklid; andere Geometrien bezeichnet man als “Nicht-Euklidische Geometrie”…

Euklidische Geometrie

In der sog. Euklidischen Geometrie wird der Abstand im zweier Punkte im Raum (also die Metrik) durch den Satz des Pythagoras definiert.

Zur Berechnung des Abstands zweier Punkte verwenden wir ein Koordinatensystem z.B.  im R3 eine x-Achse, eine y-Achse und eine z-Achse:

\( d((x_a,y_a,z_a),(x_b,y_b,z_b)) = \sqrt{(x_b-x_a)^2 + (y_b-y_a)^2 – (z_b-z_a)^2} \\\  \)

Dieser Abstand ist auch die Länge der geraden Strecke zwischen den Punkten a und b.

Im allgemeinen Fall nehmen wir eine parametrisierte Kurve α: [a,b] -> Rn  und definieren als Länge L der Kurve α:

\( L_\alpha(a,b) = \int_a^b ||\alpha^\prime(t)|| dt \\\ \)

Wir können zeigen, dass diese Längendefinition für Kurven mit der Metrik für Punktabstäde im Euklidischen Raum überein stimmt (ohne Beschänkung der Allgemeinheit: t ∈ [0,1]):

\( \alpha(t) = \left( \begin{array}{c} x_1 + (x_2-x_1) \cdot t \\\ y_1 + (y_2-y_1)\cdot t  \\\  z_1 + (z_2-z_1)\cdot t\end{array}\right)  \\\  \)

Die erste Ableitung ist:

\( \alpha^\prime(t) = \left( \begin{array}{c} (x_2-x_1)  \\\ (y_2-y_1) \\\  (z_2-z_1) \end{array}\right)  \\\  \)

Die Norm der Ableitung ist dann:

\( || \alpha^\prime(t) || = \sqrt{(x_2-x_1)^2 + (y_2-y_1)^2 + (z_2-z_1)^2} \\\ \)

Wenn wir das in die obige Längendefinition einsetzen erhalten wir:

\( L_\alpha(a,b) = \int_a^b ||\alpha^\prime(t)|| dt = \sqrt{(x_2-x_1)^2 + (y_2-y_1)^2 + (z_2-z_1)^2}  \int_0^1 dt  = \sqrt{(x_2-x_1)^2 + (y_2-y_1)^2 + (z_2-z_1)^2}  \\\ \)

Die Länge einer geraden Strecke ist also auch mit der allgemeinen Integral-Formel genauso wie nach Pythagoras oben.

Das Linienelement

Gerne verwendet man auch ein sog. Linienelement um eine Metrik zu definieren. Für die Euklidische Metrik im dreidimensionalen Raum mit einem Chartesischen Koordinatensystem (x,y,z) haben wir das Linienelement:

\( ds^2 = dx^2 + dy^2 + dz^2 \\\  \)

Was ergibt:

\( ds = \sqrt{dx^2 + dy^2 + dz^2} \\\  \)

Was für eine parametrisierte Kurve s: [a,b] -> R3 bedeutet:

\( \Large \frac{ds}{dt} = \sqrt{(\frac{dx}{dt})^2 + (\frac{dy}{dt})^2 + (\frac{dz}{dt})^2} \\\  \)

Was als Kurvenlänge von t=a bis t=b ergibt:

\( \Large L(a,b) = \int_a^b \sqrt{(\frac{dx}{dt})^2 + (\frac{dy}{dt})^2 + (\frac{dz}{dt})^2} dt \\\  \)

Wenn man nun bedenkt dass:

\( s^\prime = \frac{ds}{dt} = \left( \begin{array}{c} \frac{dx}{dt}  \\\ \frac{dy}{dt} \\\  \frac{dz}{dt} \end{array}\right) \\\  \)

ist, ergibt sich die Norm zu:

\( || s^\prime || = \sqrt{(\frac{dx}{dt})^2 + (\frac{dy}{dt})^2 + (\frac{dz}{dt})^2} \\\ \)

Eingesetzt ergibt das:

\( \Large L(a,b) = \int_a^b || s^\prime || dt \\\ \)

was genau der ersten Definition (oben) entspricht.

Man kann auch zeigen, dass die so definierte Länge einer parametrisierten Kurve bei Umparametrisierungen der Kurve gleich bleibt.

Der Metrik-Tensor

Im allgemeinen Fall drücken wir das Linienelement in einem Koordinatensystem mithilfe des “Metrik-Tensors” \(g_{\mu\nu}\) aus:

\( ds^2 = g_{\mu\nu} dx^\mu dx^\nu \\\ \)

Im Falle der Euklidischen Geometrie im R3 ist im Chartesischen Koordinatensystem der metrische Tensor:

\( g =  \left[ \begin{array}{rrr} 1 & 0 & 0\\  0 & 1 & 0 \\  0 & 0 & 1 \end{array} \right]  \\\)

Ein “Tensor” in diesem Sinne ist nichts anderes als eine (n x n)-Matrix für die man noch einige zusätzliche Regeln hat.

Weiterführende Anmerkungen

Nach der Allgemeinen Relativitätstheorie ART von Einstein, verändert die Anwesenheit von Materie den Raum, was auch “Gravitation” genannt wird.

Wir können das als eine Nicht-Euklidische Metrik verstehen, für die beispielsweise Karl Schwarzschild schon 1916 im vereinfachten Fall einer Kugelmasse (Schwarzes Loch) eine Formel gefunden hat.

Zu Veranschaulichung so einer Nicht-Euklidischen Metrik wird häufig von einer “Krümmung” der Raumzeit gesprochen. Diese “Krümmung” ist aber eigentlich nur eine andere Metrik, trotzdem stellt man sich die Abweichung von der herkömmlichen Euklidischen Metrik gern als “Krümmung” vor,

Da diese “Krümmung” (also Abweichung von der Euklidischen Metrik) aber nicht in eine weitere Dimension, sondern “in sich” d.h. als Stauchung bzw. Streckung erfolgt, würde ich gerne eine solche Abweichung durch ein Verbiegen des Koordinatengitters veranschaulichen. Also durch den optischen Vergleich der Koordinatengitter zweier Metriken.

===> Das Gitter, was ich hier meine, ist ein durch gleiche Abstände in der jeweiligen Metrik gegebenes Gitter – ist also eigentlich kein schlichtes Koordinatengitter, sondern ein Metrik-Gitter…

GeoGebra Gitternetz

Schwarzschild-Metrik

Ich habe zum Thema Schwarzschild-Metrik einen eigenen Artikel geschrieben.

 

 

Physik: Krümmung der Raumzeit

Gehört zu: Physik
Siehe auch: Relativitätstheorie, Vektorraum, Gravitation, Schwarze Löcher, Metrik

Krümmung der Raumzeit

Die Allgemeine Relativitätstheorie (ART) basiert auf dem Postulat der Äquivalenz von Gravitation und Beschleunigung.

Aus diesem Äquivalenzprinzip ergibt sich die Lichtablenkung in Gravitationsfeldern.

Wenn man trotzdem davon ausgehen möchte, dass das Licht immer den kürzesten Weg nimmt, muss die Gravitation den Raum (besser die Raumzeit) entsprechend krümmen, sodass eine Metrik entsteht bei der der kürzeste Weg zwischen zwei Punkten nicht unbedingt die Euklidische gerade Linie ist.

Wir wollen hier zunächsteinmal den Begriff der “Krümmung” ganz allgemein diskutieren.

Umgangssprachlich denkt man bei “Krümmung”, dass sich etwas in eine zusätzliche Dimension krümmt (s.u. die vielen Beispiele). Bei der von Einstein postulierten Krümmung der vierdimensionalen Raumzeit wird aber für diese Krümmung keine 5. Dimension gebraucht. Die vierdimensionale Raumzeit ist nach Einstein  “in sich” gekrümmt; d.h. wir haben einen anderen Abstandsbegriff (eine andere Metrik, ein anderes Linienelement).

Krümmung bei Euklidischer Metrik

Unter der Krümmung eines geometrischen Objekts versteht man die Abweichung von einem geraden Verlauf; dazu bedarf es (mindestens) einer weiteren Dimension in die die Krümmung verläuft oder der Begriff “gerade” muss umdefiniert werden. Eine Kurve verläuft “gerade” wenn beim Durchlaufen mit konstanter Geschwindigkeit, keine Beschleunigungen “seitwärts”, sonder höchstens in der Normalen auftreten.

Wir betrachten eine Gerade. Solange sie wirklich geradeaus verläuft ist sie nicht gekrümmt. Wenn sie eine Kurve nach links (oder rechts) macht, haben wir eine Krümmung – und wir brauchen dafür (mindestens) eine zweite Dimension. Die Stärke der Krümmung kann mehr oder weniger sanft oder kräftiger sein. Wir messen die Stärke der Krümmung an einer Stelle durch einen sog. Krümmungskreis. Das ist ein Kreis, der sich in dem betrachteten Punkt am besten an die Kurve anschmiegt. Ein großer Krümmungskreis bedeutet eine kleine Krümmung ein kleiner Krümmungskreis ein starke Krümmung. Der Kehrwert des Radius ist das Maß für die Krümmungsstärke.

Die andere Frage ist, welche geometrischen Objekte sind es, die da “gekrümmt” werden?  Im einfachsten Fall ist es eine eindimensionale Linie in einer zweidimensionalen Ebene; also z.B. ein Funktionsgraph oder eine sog. Kurve. Kurven sind in diesem Zusammenhang sehr interessant als Teilmenge eines Vektorraums, die durch eine Abbildung von einem reellen Intervall in den Vektorraum  als sog. “parametrisierte” Kurve dargestellt werden kann. Das “Umparametrisieren” ist dann eine Äquivalenzrelation zwischen parametrisierten Kurven. Eine “Kurve” kann dann als Äquivalenzklasse solcher parametrisierten Kurven verstanden werden. Als Repräsentant einer Äquivalenzklasse nimmt man dann gerne eine nach Bogenlänge parametrisierte Kurve.

Wenn wir uns mit Kurven beschäftigen und speziell dann mit der Länge einer Kurve oder der Krümmung von Kurven, haben wir es mit Differentialgeometrie zu tun.
Dazu gibt es eine Reihe von sehr schönen Youtube-Videos:

Schritt 1: Krümmung einer Linie in der Ebene

Wenn das betrachtete Objekt ein Funktionsgraph von beispielsweise y = f(x) in der Ebene ist, können wir die Krümmung leicht berechnen:

Für eine zweimal differenzierbare Funktion  y = f(x) ergibt sich der Krümmungsradius an einem Punkt x zu:

\( \Large  r(x) = \left\vert \frac{(1+(f^\prime(x))^2)^\frac{3}{2}}{f^{\prime\prime}(x)} \right\vert  \)

Als Beispiel nehmen wir mal eine Parabel f(x) = 0,5 * x2
Dazu haben wir die Ableitungen:
f(x) = x
f(x) = 1
Der Krümmungsradius beispielsweise am Punkt x0 = 0 beträgt dann laut obiger Formel:

\( \Large r(x_0) = \frac{(1+{x_0}^2)^{\frac{3}{2}}}{1} = 1 \\\ \)

Und zur Probe nehmen wir noch x=1:

\( \Large r(1) = \frac{(1+1^2)^{\frac{3}{2}}}{1} = 2^\frac{3}{2} = 2 \sqrt{2} \)

Dieses Beispiel habe ich entnommen aus https://www.ingenieurkurse.de/hoehere-mathematik-analysis-gewoehnliche-differentialgleichungen/kurveneigenschaften-im-ebenen-raum/kruemmung/kruemmungsradius.html
Es wird grafisch veranschaulicht durch:

Schritt 2: Krümmung einer Kurve in der Ebene

Wenn das betrachtete Objekt eine “richtige” Kurve in der Ebene ist, wird die Krümmung anders berechnet.

Als “richtige” Kurve (in der Ebene) betrachten wir von der obigen Parabel das Kurvenstück von x=-1 bis x=1. Als Parametrisierte Kurve, wobei der Parameter t auch von -1 bis 1 laufen möge, (was wir uns z.B. als Zeit vorstellen könnten) sieht das dann so aus:

\( \Large \alpha(t) = \left( \begin{array}{c} t \\\ \frac{1}{2}t^2  \end{array}\right)  \\\  \)

Um die Krümmung zu brechnen ermitteln wir zuerst:

\( \Large \alpha^\prime(t) = \left( \begin{array}{c} 1 \\\ t  \end{array}\right)  \)

womit dann:

\( \Large ||\alpha^\prime(t)||^2 =  1 +  t^2   \\\  \)

und mit:

\( \Large \alpha^{\prime\prime}(t) = \left( \begin{array}{c}  0 \\\ 1  \end{array}\right)  \)

ergibt sich:

\( \Large det(\alpha^\prime(t), \alpha^{\prime\prime}(t)) = 1  \\\ \)

und damit ergibt sich dann die Krümmung zu:

\( \Large \kappa_\alpha(t) = \frac{1}{(1 + t^2 )^\frac{3}{2}}  \)

Bei t=0 ist dann die Krümmung:

\( \Large \kappa_\alpha(0) = 1 \\\  \)

und zur Probe nehmen wir noch t=1:

\( \Large \kappa_\alpha(1) = \frac{1}{2 \sqrt{2}} \\\ \)

Weil t=x ist, stimmt das mit den Berechnungen des Krümmungsradius (s.o. Schritt 1) exakt überein.

Schritt 3: Krümmung einer Fläche im Raum

Analog können wir uns gekrümmte Flächen im Raum vorstellen. Hier kann allerdings der Krümmungsradius in unterschiedlichen Richtungen unterschiedlich sein. Inetwa so die wir das von einem Gradienten kennen.

Auch in diesem Fall stellen wir uns das ganz klassisch geometrisch vor als Krümmung in eine weitere Dimension.

Krümmung per Nicht-Euklidischer Metrik

In der Allgemenen Relativitätstheorie spricht man auch von “Krümmung” z.B. Krümmung des Raumes oder Krümmung der Raumzeit.

Hier basiert die “Krümmung” nicht auf einer zusätzlichen Dimension, sondern auf einer speziellen Metrik in ein und demselben Raum. Unter “Metrik” versteht man ja eine Vorschrift, die zwei Punkten in dem betreffenden Raum einen Abstand zuordnet.  So eine Metrik definiert dann auch automatische die Längen von Linien…

Geodätische Linie

Die Linie, die die kürzeste Verbindung zwischen zwei Punkten bildet, nennt man Geodät oder auch Geodätische LInie. Auf der Erdoberfläche kennen wir das z.B. bei der Seefahrt oder Luftfahrt wenn wir beispielsweise die Flugroute von London nach Los Angeles betrachten:

Geodätische LInie Moskau - Los Angeles

Das Licht läuft immer auf einer Geodäte, nimmt also die kürzeste Verbindung. Das kann “gekrümmt” aussehen…

Krümmung ohne zusätzliche Dimension

Für eine solche Krümmung benötigen wir aber nicht zwingend eine zusätzliche Dimension. Die Krümmung kann auch “in sich” durch andere Abstandsgesetze (= Metriken) bewirkt werden.
Siehe Schwarzschild-Metrik