Gehört zu: Vektor-Analysis
Siehe auch: Metrik-Tensor
Kontravariante Ableitung
xyz
Gehört zu: Vektoranalysis
Siehe auch: Allgemeine Relativitätstheorie, Koordinatensysteme, Vektorbasis, Tensoren, Gekrümmter Raum
Stand: 26.10.2021
Youtube-Videos von Prof. Paul Wagner:
Wir betrachten eine Riemansche Manigfaltigkeit; d.h. eine Punktmenge mit einem Koordinatensystem. Zu so einem Koordinatensystem, gehört ein Metrik-Tensor, der uns auch ein Linienelement definiert und damit so etwas wie eine Metrik.
Wir kommen aber nicht in einem Schritt von einem Koordinatensystem zu einem Metrik-Tensor, sondern betrachten zunächst, wie ein Koordinatensystem eine Vektorbasis definiert. Zu so einer Vektorbasis haben wir dann einen Metrik-Tensor.
Schlussendlich wollen wir ja Vektorfelder beschreiben. Dabei handelt es sich ja um eine Abbildung von Raumpunkten auf Vektoren. Dabei wird der Raumpunkt durch seine Koordinaten im Koordinatensystem und der Vektor durch seine Komponenten bezügliche “seiner” Vektorbasis beschieben. Wenn wir dann beispielsweise die Veränderung eines Vektors bei kleinen Veränderungen des Raumpunkts untersuchen, müssen wir nicht nur die Veränderung der Vektorkomponenten, sondern ggf. auch die Veränderung der Basisvektoren berücksichtigen, da die Basisvektoren ja im Allgemeinen (z.B. bei krummlinigen Koodinaten) auch vom Ort im Raum abhängig sein werden.
Das wird uns dann zur sog. Kontravarianten Ableitung führen.
Zu einem Koordinatensystem bekommmen wir nämlich zwei möglicherweise verschiedene Vektorbasen:
1) Die Basisvektoren sind tangential zu den Koordinatenlinien: sog. kovariante Basis
2) Die Basisvektoren stehen normal (senkrecht) auf den Koordinatenhyperflächen: sog. kontravariante Basis
Bei Chartesischen Koordinaten sehen wir Besonderheiten:
Bei nicht-chartesischen Koordinatensystemen (sog. krummlinigen) wird das beides anders sein.
Bei solchen nicht-chartesischen Koordinaten, die wir als “allgemeine Koordinaten” bezeichnen, verwenden wir im allgemeinen die Symbole qi (i=1,2,..). Diese “allgemeinen Koordinaten” nennt man, um den Gegensatz zu den Chartesischen Koordinaten deutlich zu machen, auch gerne krummlinige Koordinaten.
Wir betrachten nun einen Raum mit den allgemeinen (krummlinigen) Koordinaten: \( q^\alpha \) mit α =1,2,…,n und einem hilfsweise dahinterliegenden Chartesischen Koordinaten: \( x^i \) mit 1= 1,2,….n.
Als Hilfsmittel ziehen wir anfangs gerne die Chartesischen Koordinaten hinzu, wo wir dann im Fall von beliebig vielen Dimensionen die Symbole xi (i=1,2,…) verwenden, oder bei zwei und oder drei Dimensionen, manchmal auch: x,y,z.
Die kovarianten Basisvektoren nennen wir:
\(\Large {\vec{g}}_\alpha \) wobei α=1,2,..,n
Diese Basisvektoren sind Tangenten an die Koordinatenlinien. Demnach sind die Komponenten (i=1,2,…n) dieser Basisvektoren im Chartesischen Koordinatensystem:
\(\Large \left( \vec{g}_\alpha \right)^i = \frac{\partial x^i}{\partial q^\alpha} \)Die kontravarianten Basisvektoren nennen wir:
\(\Large {\vec{g}}^{\,\alpha} \) wobei α=1,2,..,n
Diese Basisvektoren sind Normalen auf den Koordinatenhyperflächen. Demnach sind die Komponenten (i=1,2,…n) dieser Basisvektoren im Chartesischen Koordinatensystem:
\( \Large \left( {{\vec{g}}^{\,\alpha}} \right)^i = \frac{\partial q^\alpha}{\partial x^i} \)Wenn wir eine Vektorbasis gefunden haben; z.B.:
Eine Vektorbasis: \( \vec{g}_\alpha \) (α= 1,2,…,n)
Erhalten wir zu dieser Vektorbasis den dazugehörigen Metrik-Tensor als: \( \left(g_{ij}\right) = \vec{g}_i \cdot \vec{g}_j \)
Merke: Zu einer Vektorbasis haben wir einen Metrik-Tensor.
Wir können auf einer Riemannschen Mannigfaltigkeit ein Tensor-Feld \( g_{ij} \) definiert haben, mit dem wir einen Abstandsbegriff (d.h. eine Metrik) definieren; genauer gesagt, mit dem wir die Länge einer Kurve in der Mannigfaltigkeit definieren wie folgt:
\(\Large s = \int\limits_{t_a}^{t_b} \sqrt{g_{ij}\frac{dq^i}{dt}\frac{dq^j}{dt}} \, dt \)So einen Tensor \( g_{ij} \) nennen wir Metrik-Tensor.
Der Metrik-Tensor ist also ein Tensor-Feld, das auf einer Riemannschen Mannigfaltigkeit definiert ist.
Das Linienelement ist:
\( ds^2 = d{x_1}^2 + d{x_2}^2 + d{x_3}^2 + … \)Also:
\( ds^2 = \sum\limits_{i=1}^{n}{{dx_i}^2} \)Der Metrik-Tensor ist dabei ja ein Tensor vom Rang 2 und ist in diesem chartesischen Falle identisch mit der Einheitsmatrix (beispielsweise mit 3 Dimensionen):
\(\Large (g_{ij}) = \left[ \begin{array}{rrr} 1 & 0 & 0\\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right] \\\)Dieser Metrik-Tensor definiert dann unser Linienelement:
\( (ds)^2 = \sum\limits_{i=1}^n{\sum\limits_{j=1}^n{dx_i dx_j g_{ij}}} \)Oder in der Einsteinschen kompakten Schreibweise (mit der sog. Summenkonvention):
\( (ds)^2 = g_{ij} dx^i dy^j \)Im zweidimensionalen Euklidischen Raum (Ebene) haben wir als Chartesische Koordinaten: x1 = x, x2 = y
Als krummlinigen Koordinaten nehmen wir Polarkoordinaten: q1 = r und q2 = φ
Zum Rechnen verwenden wird als Hilfsmittel gern die Chartesischen Koordinaten. Damit haben wir Koordinaten-Transformationen in beiden Richtungen:
\( x = r \cdot \cos{\phi} \\ \\ y = r \cdot sin{\phi} \)Und in der anderen Richtung ist:
\( r = \sqrt{x^2 + y^2} \\ \phi =\arctan{\frac{y}{x}} \)Zu diesen Koordinaten erhalten wir als kovariante Vektorbasis (Basis Vektorsystem):
\( \left( \vec{g}_\alpha \right)^i = \frac{\partial x^i}{\partial q^\alpha} \)Zu diesen kovarianten Basisvektoren bekommen wir als kovarianten Metrik-Tensor:
\( \left(g_{ij}\right) = \left[ \begin{array}{rr} 1 & 0 \\ 0 & r^2 \end{array} \right] \\\)Wobei dieses Beispiel zeigt: (1) Der Metrik-Tensor ist ortsabhängig und (2) Die zugrundeliegende Vektorbasis ist zwar orthogonal, aber nicht orthonormal.
Und entsprechend das kovariante Linienelement:
\( (ds)^2 = dr^2 + r^2 d\phi^2 \\ \)Zu diesen Koordinaten erhalten wir als kontravariante Vektorbasis:
\( \left( {{\vec{g}}^{\,\alpha}} \right)^i = \frac{\partial q^\alpha}{\partial x^i} \\\)Zu diesen kontravarianten Basisvektoren bekommen wir als kontravarianten Metrik-Tensor (wir können die Komponenten des kontravarianten Metrik-Tensors ausrechnen oder nehmen einfach das Inverse des kovarianten Metriktensors):
\( \left(g^{ij}\right) = \left[ \begin{array}{rr} 1 & 0 \\ 0 & \frac{1}{r^2} \end{array} \right] \\\)Und entsprechend das kontravariante Linienelement:
\( (ds)^2 = dr^2 + \frac{1}{r^2} d\phi^2 \)Wir sehen auch, dass die beiden Metrik-Tensoren invers zueinander sind.
Im dreidimensionalen euklidischen Raum können wir neben den Chartesischen Koordinaten x ,y, z die Zylinderkoordinaten (r, φ, z) betrachten.
Dies sind also allgemeine (krummlinige) Koordinaten mit \( q^1 = r, \, q^2 = \phi, \, q^3 = z \)
Aufgrund der Koordinaten-Transformationen bekommen wir:
Für den kovarianten Metrik-Tensor:
\( \left(g_{ij}\right) = \left[ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & r^2 & 0 \\ 0 & 0 & 1 \end{array} \right] \\\)Und entsprechend das kovariante Linienelement:
\( (ds)^2 = dr^2 + r^2 d\phi^2 + dz^2 \\ \)Und für den kontravarianten Metrik-Tensor bekommen wir:
\( \left(g_{ij}\right) = \left[ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & \frac{1}{r^2} & 0 \\ 0 & 0 & 1 \end{array} \right] \\\)Und entsprechend das kontravariante Linienelement:
\( (ds)^2 = dr^2 + \frac{1}{r^2} d\phi^2 + dz^2 \)Wiederum sehen wir auch, dass die beiden Metrik-Tensoren invers zueinander sind.
Im dreidimensionalen euklidischen Raum können wir neben den Chartesischen Koordinaten x, y, z die Kugelkoordinaten (r, θ, φ) betrachten.
Dies sind also allgemeine (krummlinige) Koordinaten mit \( q^1 = r, \, q^2 = \theta, \, q^3 = \phi \)
Als kovariante Vektorbasis bekommen wir wieder die Tangenten an die Koordinatenlinien, also an die “Radialachse” (Zenith/Nadir), die “Meridiane” (Nord/Süd) und die “Breitenkreise” (Ost/West).
Als kovarianten Metrik-Tensor bekommen wir:
\( \left(g_{ij}\right) = \left[ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & r^2 & 0 \\ 0 & 0 & r^2 \sin^2 \theta \end{array} \right] \\\)Und entsprechend das kovariante Linienelement:
\( (ds)^2 = dr^2 + r^2 d\theta^2 + r^2 \sin^2 \theta \, d\phi^2 \\ \)Und als kontravarianten Metrik-Tensor bekommen wir:
\( \left(g_{ij}\right) = \left[ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & \frac{1}{r^2} & 0 \\ 0 & 0 & \frac{1}{r^2 \sin^2 \theta} \end{array} \right] \\\)Und entsprechend das kontravariante Linienelement:
\( (ds)^2 = dr^2 + \frac{1}{r^2}d\theta^2 + \frac{1}{r^2 \sin^2 \theta}d\phi^2 \)Wiederum sehen wir auch, dass die beiden Metrik-Tensoren invers zueinander sind.
Die Oberfläche einer Kugel mit dem (festen) Radius R ist ein zweidimensionaler Raum, wo wir als Koordinatensystem gut mit dem entsprechenden Teil der Kugelkkordinaten arbeiten können.
Also mit den allgemeinen (krummlinigen) Koordinaten mit \( q^1 = \theta, \, q^2 = \phi \), was also auf der Erdoberfläche prinzipiell der geografischen Breite und der geografischen Länge entsprechen würde.
Als kovariante Vektorbasis bekommen wir wieder die Tangenten an die Koordinatenlinien, also an die “Meridiane” (Nord/Süd) und die “Breitenkreise” (Ost/West).
Der Metrik-Tensor ergiebt sich dann ganz analog aus dem Vorigen:
Als kovarianten Metrik-Tensor bekommen wir:
\( \left(g_{ij}\right) = \left[ \begin{array}{rr} R^2 & 0 \\ 0 & R^2 \sin^2 \theta \end{array} \right] \\\)Und entsprechend das kovariante Linienelement:
\( (ds)^2 = R^2 d\theta^2 + R^2 \sin^2 \theta \, d\phi^2 \\ \)Der so definierte Riemansche Raum (Kugeloberfläche mit dem o.g. Koordinatensystem) ist ein Nichteuklidischer Raum, wie wir sehen werden. Zur Geometrie in solchen Nichteuklidischen Räumen haben wir ja noch nichts gesagt; aber die Standard-Weissheit ist ja die Winkelsumme im Dreieck und…
Gehört zu: Physik
Siehe auch: Relativitätstheorie, Vektorraum
Ein Vektor ist wie ein Pfeil, also etwas, was eine Richtung und eine Größe hat.
Ein Covektor ist wie ein “Stack”, also etwas was eine Richtung und eine Dichte hat.
So ein Feld von Covektoren ordnet jedem Vektor eine Zahl zu, nämlich die Zahl an “Stack-Linien”, die der Vektor in seiner Länge kreuzt; wobei da auch nicht-ganze Zahlen und auch negative Zahlen sein können. Vermutlich ist das bei genauerer Betrachtung ein Differentialquotient.
Etwas genauer gesagt ist ein Covektor also eine Abbildung, die jedem Vektor aus einem Vektorraum V über K eine Zahl aus dem Körper K zuordnet:
\( \alpha : V \to K \)Die Kovektoren α verhalten sich “linear” bei Vektoraddition und Skalierung und bilden also selber einen Vektorraum (Symbol V*). In Formeln also:
\( \alpha(a \cdot \vec{u} + b \cdot \vec{w}) = a \cdot \alpha(\vec{u}) + b \cdot \alpha(\vec{w}) \)Mit einer Vektorbasis kommt man zur Darstellung eines Vektors durch sog. Komponenten. Die Komponenten von (normalen) Vektoren verhalten sich “kontravariant” und wir schreiben den Index oben, die Komponenten von Kovektoren verhalten sich “kovariant” und wir schreiben den Index unten.
Bei einer Welle ändert sich eine physikalische Größe periodisch sowohl mit der Zeit als auch mit dem Ort.
Die periodische Veränderung über den Ort wiederholt sich nach eine Wellenlänge (Symbol: Lambda \( \lambda \)).
Man misst auch die Anzahl Schwingungen pro Längeneinheit, was Wellenzahl genannt wird (Symbol: Kappa κ).
Die periodische zeitliche Veränderung wiederholt sich nach eine Periodenlänge (Symbol: T). Man misst das auch als Frequenz (Einheit: Schwingungen pro Sekunde = Hertz)
In Formeln:
\( \kappa = \frac{1}{\lambda} \)Insofern kann man eine Welle sehr gut als Covektor-Feld beschreiben, wo wir eine Richtung haben und eine Dichte d.h. wieviel Wellen pro Zeiteinheit…
Quelle: Youtube Video: https://youtu.be/Q8SfVDr4OjU
Gehört zu: Mathematik
Siehe auch: Quantenmechanik, Vektorräume, Lineare Algebra, Koordinatensysteme, Metrik-Tensor, Kontravariante Ableitung
Benutzt: WordPress-Plugin Latex
Stand: 26.10.2021
Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Tensoren.
Der Begriff “Tensor” wurde im 19. Jahrhundert relativ unsystematisch bei verschiedenen physikalischen Berechnungen eingeführt.
Darüber gibt es schöne Youtube-Videos von “eigenchris”: https://youtu.be/sdCmW5N1LW4
Als Vorbereitung dazu habe ich zuerst mal etwas zu Vektorräumen zusammengestellt.
Wir hatten ja im Artikel über Vektorräume schon gesehen, dass Vektoren Objekte sind, die unabhängig von Koordinatensystemen exsistieren und auch gegenüber einem Wechsel von Koordinatensystemen “invariant” sind. Nur die Komponenten bzw. Koordinaten der Vektoren verändern sich dann, nicht aber die Vektoren selber.
Invarianz bedeutet allgemein gesagt, dass ein und dasselbe Objekt verschieden beschrieben (“repräsentiert”) werden kann von verschiedenen Standpunkten (Koordinatensystemen) aus.
Unsere Vektorkomponenten beruhen immer auf einer Menge von sog. Basisvektoren.
Wie verhalten sich dann Vektoren und ihre Komponenten bei einem Wechsel der Basisvektoren?
Im Gegensatz zum invarianten Vektor selbst, verändern sich seine Komponenten bei Änderung der Vektorbasis.
Wir sahen, dass wenn sich die Längen der Basisvektoren verlängern, sich die Komponenten von Vektoren verkleinern. Deshalb hatten wir diese Vektoren “kontravariant” genannt.
So ein kontravarianter Vektor ist ein erstes Beispiel für einen Tensor. Ein zweites Beispiel für einen Tensor sind die sog. Co-Vektoren…
Allgemein gesagt bedeutet Kontravarianz, dass wenn ein Ding größer wird, ein anderes Ding kleiner wird. Kovarianz dagegen bedeutet, dass die Veränderungen in die gleiche Richtung gehen.
Im Gegensatz zu den “herkömmlichen” kontravarianten Vektoren, die wir als Spalte schreiben, schreiben wir Co-Vektoren als Zeilen.
Dazu hat “eigenchris” ein schönes Youtube-Video gemacht: https://youtu.be/LNoQ_Q5JQMY
In der Sichtweise von Koordinaten macht ein Co-Vektor also folgendes:
\( \Large \left[ \begin{matrix} a & b & c \end{matrix} \right] \cdot \left[ \begin{array}{r} x \\\ y \\\ z \end{array} \right] = ax+by+cz \)Abstrakt formuliert bildet ein Co-Vektor also Vektoren auf Skalare ab.
Generell soll ein Tensor ja invariant bei einer Koordinatentransformation sein.
Lediglich die “Darstellung” eines Tensors erfolgt mit Komponenten (Koordinaten).
Uns interessieren hier in erster Linie sog. Rank 2 Tensoren. Solche Rank 2 Tensoren können immer als “normale” Matrix mit Zeilen und Spalten dargestellt werden (Zeilen und Spalten -> Rank 2). So ein Rank 2 Tensor kann aber auch ganz einfach in sog. Index-Schreibweise dargestellt werden z.B. Tij oder g μν (Anzahl Indices = Rank).
xyz
Gehört zu: Mathematik
Siehe auch: Grundlagen, Algebren, Matrizenrechnung, Tensor-Algebra, Relativitätstheorie, Metrik-Tensor, Elektrisches Feld, Magnetisches Feld
Benutzt: WordPress-Plugin Latex
Stand: 27.11.2022 (Drehmoment, Archimedes, Skalarprodukt, Vektorbasis)
Youtube Videos von Prof. Wagner zur Vektor- und Tensorrechnung
Das Wort “Feld” wird gerne gebraucht, wenn eigentlich eine ganz normale Abbildung (auch Funktion oder auch Verknüpfung genannt) gemeint ist – “just to confuse the Russians”.
Der Definitionsbereich so einer Abbildung ist ein “Raum”. Das kann ein sog. Euklidischer Raum oder auch eine Riemannsche Mannigfaltigkeit sein. Die Punkte (Orte) in so einem Raum kann man durch Koordinaten beschreiben.
Je nach dem ob der Wertebereich ein Vektorraum oder ein Körper (von Skalaren) ist, spricht man von “Vektorfeld” oder “Skalarfeld” und man schreibt gerne:
Wobei r ein Punkt aus dem Definitionsbereich ist (kein Vektor, sondern ein durch Koordinaten beschriebener Punkt)
Beispiele
Skalarfelder kann man beispielsweise durch Linien im Definitionsbereich, die alle einen gleichen Skalarwert haben, veranaschaulichen (z.B. Isotermen, Isohypsen etc.)
Vektorfelder veranschaulicht man sich gerne durch sog. “Feldlinien“; diese zeigen dann immer in die Richtung des Werte-Vektors. Beispiel: Feldlinien im Magnetfeld, die in Richtung der magnetischen Kraft zeigen…
Die Physiker sprechen gern von sog. Kraftfeldern. Der Begriff “Feld” hilft, die Vorstellung der Fernwirkung zu vermeiden (sagt Feynman). Die vier konzeptionellen Stufen der Kraftwirkung sind:
Bei Linearen Abbildungen in den gleichen Vektorraum, also:
\( f: V \to V \\\)sind Eigenvektoren dieser Linearen Abbildung Vektoren, die durch diese Abbildung nicht in ihrer Richtung verändert werden; d.h.:
\( f(\vec{x}) = \lambda \vec{x} \\\)und den Skalar λ nennt man dann den Eigenwert.
Häufig verwendet man Eigenvektoren und Eigenwerte, wenn die Lineare Abbildung durch eine Matrix beschrieben wird.
In der Quantenphysik spielt dies Konzept eine wichtige Rolle. Dort werden Eigenwerte als Messwerte bei einem Experiment interpretiert.
Auf einem Vektorraum kann ein Skalarprodukt definiert sein (Vektor mal Vektor ergibt einen Skalar) – Dies ist inspiriert aus der Physik durch Arbeit = Kraft mal Weg.
Vektorräume müssen aber nicht notwendig ein Skalarprodukt haben.
Wir werden sehen, dass so ein Skalarprodukt dann eine “Norm” induziert und damit eine Metrik, wodurch z.B. Grenzwertprozesse möglich werden.
Einen \(\mathbb{R}\)-Vektorraum mit Skalarprodukt nennt man auch einen Euklidischen Raum, einen \(\mathbb{C}\)-Vektorraum mit Skalarprodukt nennt man auch Hilbertraum – genauer Prähilbertraum.
Das innere Produkt zweier Vektoren v und w (auch Skalarprodukt oder Dot Product genannt) ist schreibt man:
\( \Large \vec{v} \cdot \vec{w} \) \( \Large \langle v,w \rangle \)Man kann das innere Produkt geometrisch und anschaulich definieren oder aber auch mathematisch über Axiome.
Unabhängig von einem Koordinatensystem – geometrisch definiert als:
\( \Large \vec{v} \cdot \vec{w} = || \vec{v} || \enspace || \vec{w} || \cos(\angle \left( \vec{v}, \vec{w} \right)) \)Als Schlussfolgerung kann man die Länge eines Vektors auch per innerem Produkt darstellen als:
\( \Large || \vec{v} || = \sqrt{\vec{v} \cdot \vec{v}} \\\ \)In einem chartesischen Koordinatensystem (s.u.) berechnet sich das innere Produkt (Skalarprodukt) der Vektoren
\( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3 \end{array} \right] \) und \( \Large \vec{w} = \left[ \begin{array}{c} w_1 \\\ w_2 \\\ w_3 \end{array} \right] \)
als \( \Large \vec{v} \cdot \vec{w} = v_1 w_1 + v_2 w_2 + v_3 w_3 \)
Soweit haben wir das innere Produkt (Skalarprodukt) zweier Vektoren durch Winkel und Länge anschaulich definiert. Wir können auch umgekehrt Länge und Winkel durch das Skalarprodukt definieren:
Länge:
\( \Large || \vec{v} || = \sqrt{\vec{v} \cdot \vec{v}} \\\ \)Winkel:
\( \Large \cos(\angle \left( \vec{v}, \vec{w} \right)) = \frac{ || \vec{v} || \enspace || \vec{w} ||}{ \vec{v} \cdot \vec{w} } \)Das funktioniert aber nur, wenn wir schon ein Skalarprodukt haben.
Die Tensoren und die Tensorrechnung stammen eigentlich aus der Physik und sind für ganz praktische physikalische Problemlösungen “erfunden” worden. Ein Tensor in diesem Sinne ist einfach ein indiziertes Objekt. Die Indizes laufen normalerweise von 1 bis n, der Dimensionszahl des Raumes in dem wir arbeiten.
Ein Objekt mit einem Index wäre ein Tensor der Stufe 1, ein Objekt mit zwei Indizes ein Tensor 2. Stufe etc. Die “Objekte”, die man indiziert sind meist Reelle oer Komplexe Zahlen – allgemein gesagt Elemente eines Körpers – die man auch Skalare nennt.
Einen Tensor 1. Stufe schreibt man gerne \( a_i \) also mit einem Index – meist unten aber manchmal auch oben \( a^i \) .
Man kann so einem Tensor 1. Stufe auch einen Vektor zuordnen, wobei die indizierten Größen dann die Komponenten eines Vektors zu einer bestimmten Vektorbasis (s.u.) werden. Wenn man so einen Vektor meint, schreibt man das Ganze in Klammern – womit dann alle Komponenten des Tensors gemeint sind:
\( (a_i) \)Einen Tensor 2. Stufe schreibt man gerne \( {a_i}^j \) also mit zwei Indizes – teilweise unten und teilweise auch oben.
Man kann so einem Tensor 2. Stufe auch eine Matrix zuordnen, wobei die indizierten Größen dann als Zeilen und Spalten in der Matrix abgelegt werden. Wenn man so eine Matrix meint, schreibt man das Ganze in Klammern (da sind dann eben alle Komponenten drin):
\( ({a_i}^j) \\\ \)Bei mehreren Indizes (also Tensoren der Stufe 2 und höher) ist es wichtig, dass die Reihenfolge der Indizes immer ersichtlich ist. Verwechselungsgefahr besteht ja speziell wenn man Indizes unten und oben hinschreibt.
Wenn ich zwei Tensoren 2. Stufe habe, kann ich die zugehörigen Matrizen ganz einfach multiplizieren indem wir mit der Einsteinschen Summenkonvention über den inneren Index (hier j) summieren:
\( ({a_i}^j)({b_j}^k) = ({a_i}^j \cdot {b_j}^k) \)=========================================
Aus geometrischer und intuitiver Sicht spricht man auch von Längen und Winkeln:
Das äußere Produkt zweier Vektoren (auch Vektorprodukt oder Kreuzprodukt genannt) ist definiert als ein Vektor:
\( \Large \vec{v} \times \vec{w} = \vec{u} \)Der Vektor u steht senkrecht auf beiden Vektoren v und w und hat die Länge \( \Large ||\vec{v}|| \cdot ||\vec{w}|| \cdot \sin(\angle \left( \vec{v}, \vec{w} \right)) \)
In einem chartesischen Koordinatensystem (s.u.) berechnet sich das äußere Produkt (Vektorprodukt) der Vektoren
\( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3 \end{array} \right] \) und \( \Large \vec{w} = \left[ \begin{array}{c} w_1 \\\ w_2 \\\ w_3 \end{array} \right] \)
als \( \Large \vec{v} \times \vec{w} = \left[ \begin{array}{c} v_2 w_3 – v_3 w_2 \\\ v_3 w_1 – v_1 w_3 \\\ v_1 w_2 – v_2 w_1 \end{array} \right] \)
Anwendungen
Eine Anwendung für das Kreuzprodukt ist beispielsweise die Kreisbewegung, wo sich die Bahngeschwindingkeit aus Winkelgeschwindigkeit ω und Radius r wie folgt ergibt:
\( \vec{v} = \vec{\omega} \times \vec{r} \\ \)Bei der Rotation ergibt sich das sog. Drehmoment \(\vec{M}\) aus dem Kraftvektor \(\vec{F}\) und dem Ortsvektor \( \vec{r} \) vom Bezugspunkt zum Angriffspunkt der Kraft:
\( \vec{M} = \vec{r} \times \vec{F} \)Hierin steckt auch das aus der Schulzeit bekannte Hebelgesetz (Archimedes von Syrakus 287 v.Chr. – 212 v.Chr.): Kraft mal Kraftarm = Last mal Lastarm
Ein Vektorraum V über einem Körper K zusammen mit einer bilinearen Abbildung:
\( V \times V \to V \)wird eine Algebra genannt.
Die bilineare Abblidung wird “Produkt” genannt und auch so wie ein Produkt hingeschrieben; also: a · b oder einfach ab. In dieser Schweibweise bedeutet die Bilinearität einfach folgendes:
\( (x + y) \cdot z = x \cdot z + y \cdot z \\\ \)\( x \cdot (y + z) = x \cdot y + x \cdot z \\\ \)
\( a (x \cdot y) = (ax) \cdot y = x \cdot (ay) \\\ \)
Das “besondere” an Algebren ist die “Multiplikation”. Deswegen unterscheidet man Algebren auch nach den Eigenschaften dieser Multiplikation:
Kommutative – nicht-kommutative Algebren: Ist immer \( a \cdot b = b \cdot a \) oder nicht?
Assoziative – nicht-assoziative Algebren: Ist immer \( a \cdot (b \cdot c) = (a \cdot b) \cdot c \) oder nicht?
Beispiele:
Die n × n Matrizen über einem Körper mit der gewöhnlichen Matrizenmultiplikation als “Multiplikation” bilden eine (assoziative) Algebra.
Ein Vektorraum über \(\mathbb{R} \) oder \(\mathbb{C} \) mit einem Skalarprodukt heisst “Prä-Hilbertraum”. Wenn so ein “Prä-Hilberraum” auch noch “vollständig” ist; d.h. jede Cauchy-Folge konvergiert (bezüglich der Metrik), dann hat man einen echten Hilbertraum; Nach David Hilbert (1862-1943).
Abbildungen von einem Hilbertraum in sich selbst heissen auch “Operatoren“.
Beispiel: Differentialoperatoren
In einem Vektorraum V kann ich viele Koordinatensysteme haben. Jedes Koordinatensystem ist bestimmt durch eine Menge sog. Basis-Vektoren.
Dann kann jeder Vektor des Vektorraums als sog. Linearkombination aus den Basis-Vektoren dargestellt werden kann. Eine solche “Linearkombination” ist eine Summe von Basis-Vektoren, die mit geeigneten Skalaren multipliziert wurden.
Beispiel für eine Linearkombination:
\( \Large a \vec{v} + b \vec{w} + c \vec{u} \)Ganz genau genommen, spannt eine Basis nicht nur den ganzen Vektorraum auf (das wäre ein Erzeugendensystem), sondern enthält dabei eine minimale Anzahl von Vektoren (was äquivalent ist mit der eindeutigen Darstellung aller Vektoren des Vektorraums in Form von Linearkombinationen).
Beispiel für eine Basis (im Vektorraum \(\mathbb{R}^3\) ):
\( \hat{i} =\left[ \begin{array}{c} 1 \\\ 0 \\\ 0 \end{array} \right] \hat{j} =\left[ \begin{array}{c} 0 \\\ 1 \\\ 0 \end{array} \right] \hat{k} =\left[ \begin{array}{c} 0 \\\ 0 \\\ 1 \end{array} \right] \)Und man schreibt dann auch gerne:
\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z \end{array} \right] = x \hat{i} + y \hat{j} + z \hat{k}\)Ein Vektorraum kann mehrere Basen haben, die jeweils ein Koordinatensystem definieren. Dabei werden die Koordinaten (Komponenten) ein und desselben Vektors in verschiedenen Koordinatensystem auch verschieden sein, der Vektor selbst aber ist “invariant”. Wenn man einen Vektor als Liste von Koordinaten hinschreibt, muss man immer sagen. welche Basis gemeint ist.
Ein Vektorraum kann mehrere Basen haben, aber die Anzahl der Vektoren in einer Basis ist immer die gleiche. Diese Anzahl nennt man “Dimension” des Vektorraums und schreibt:
Dimension des Vektorraums V: dim(V)
Eine Lineare Transformation kann eindeutig beschrieben werden durch die Werte auf die die Basis-Vektoren abgebildet (transformiert) werden.
Beispielsweise heisst das im Vektorraum \(\mathbb{R}^2\) mit dem kanonischen Koordinatensystem und den Basisvektoren \( \hat{i} \) und \( \hat{j} \) folgendes:
Wenn wir einen Vektor \( \vec{v} = \left[ \begin{array}{c} x \\\ y \end{array} \right] = x \hat{i} + y\hat{j} \) betrachten, so wirkt eine Lineare Transformation L wie folgt:
\( L(\vec{v}) = x L(\hat{i}) + y L(\hat{j} ) \)Wenn wir also die transformierten Basisvektoren \( L(\hat{i}) \) und \( L(\hat{j}) \) kennen, ist damit die Lineare Transformation L vollständig festgelegt.
Diese transformierten Basis-Vektoren können im verwendeten Koordinatensystem als Matrix schreiben.
Wenn bei unserer Linearen Transformation beispielsweise \( L(\hat{i}) = \left[ \begin{array}{c} 3 \\\ -2 \end{array} \right] \) und \( L(\hat{j}) = \left[ \begin{array}{c} 2 \\\ 1 \end{array} \right] \) wäre, bekämen wir eine Matrix:
\(\left[ \begin{array}{rr} 3 & 2 \\ -2 & 1 \\ \end{array} \right] \)Wir schreiben also in den Spalten der Matrix die transformierten Basisvektoren.
Die Lineare Transformation könnte im benutzten Koordinatensystem als Matrixmultiplikation aufgefasst werden:
Völlig analog werden auch Lineare Transformationen in drei oder mehr Dimensionen behandelt.
Wenn wir zwei Koordinatensysteme betrachten, dann haben die also zwei Basen (wir nennen sie “alte Basis” und “neue Basis”). Intuitiv ist klar, dass wenn die neue Basis z.B. längere Basisvektoren hat, dann sind die Vektorkomponenten kürzer (weil ja der gleiche Vektor wieder herauskommen soll). Die Vektorkomponenten verhalten sich also “umgekehrt” wie die Längen der Basisvektoren. Deshalb nennt man diese Vektoren “kontravariant“.
Wir können das auch haarklein ausrechnen:
Dann transformieren sich die Basisvektoren wie folgt:
Alt -> Neu (“Foreward”):
\( \tilde{\vec{e}}_i = \sum\limits_{k=1}^{n} F_{ki} \vec{e_k}\)Neu -> Alt (“Backward”):
\( \vec{e}_i = \sum\limits_{j=1}^{n} B_{j i} \widetilde{\vec{e_j}}\)Für die Komponenten eines Vektors \( \vec{v} \) gilt dann die umgekehrte Richtung (deshalb nennt man sie “kontravariant“)
Alt -> Neu:
\( \tilde{v_i} = \sum\limits_{j=1}^{n} B_{ij} v_j \)Neu -> Alt
\( v_i = \sum\limits_{j=1}^{n} F_{ij}\tilde{v_j} \)Wir sind ja gewöhnt, die Länge eines z.B. dreidimensionalen Vektors über seine Koordinaten und den Lehrsatz des Pythagoras zu berechnen:
Im Beispiel sei der Vektor \( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3 \end{array} \right] \)
Dann wäre die Länge dieses Vektors gegeben durch: \( || \vec{v} ||= \sqrt{v_1^2 + v_2^2 + v_3^2} \) (der gute alte Pythagoras)
In verschiedenen Koordinatensystemen würde dieser Vektor aber mit verschiedenen Koordinaten (Komponenten) beschrieben und es würden mit obiger Formel dann unterschiedliche Längen heraus kommen.
Uns ist ja klar, dass wir zu den Koordinaten (Komponenten) eines Vektors auch immer angeben müssen, in welchem Koordinatensystem diese gemessen werden; d.h. wir müssen zu den Koordinaten die dazugehörige Basis angeben – und berücksichtigen.
Wenn wir als Basis allgemein schreiben: \( \vec{e}_i \)
dann können wir mit den Komponenten unseres Vektors zu dieser Basis schreiben:
\( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3 \end{array} \right] = v_1 \vec{e}_1 + v_2 \vec{e}_2 + v_3 \vec{e}_3\)Im Spezialfall der orthonormalen Basis:
\( \vec{e}_1 = \hat{i}, \vec{e}_2 = \hat{j}, \vec{e}_3 = \hat{k} \)
hätten wir die Länge unseres Vektors nach Pythagoras (s.o.); mit den Koordinaten zu einer anderen Basis müssten wir umrechnen…
Wir hatten die Länge eines Vektors unabhängig von einem Koordinatensystem (also invariant) definiert über:
\( \Large {|| \vec{v} ||}^2 = \vec{v} \cdot \vec{v} \\\)Wir nehmen jetzt ein beliebiges Koordinatensystem definiert durch seine Basisvektoren \( \vec{e}_i\).
Dann können wir die Länge des Vektors wie folgt aus seinen Komponenten (Koordinaten) berechnen:
Wenn wir das ausmultiplizieren bekommen wir:
\( \Large || \vec{v} ||^2 = \sum\limits_{ij} v_i v_j \enspace \vec{e}_i \cdot \vec{e}_j \\ \)Um die Länge eines Vektors in einem beliebigen Koordinatensystem zu ermitteln, benötigen wir also “lediglich” alle Kombinationen der inneren Produkte der Basisvektoren dieses Koordinatensystems; d.h. alle \( \vec{e}_i \cdot \vec{e}_j \)
Als Matrix können wir diese Produkte so hinschreiben:
\(\Large g = \left[ \begin{array}{rrr} \vec{e}_1 \cdot \vec{e}_1 & \vec{e}_1 \cdot \vec{e}_2 & \vec{e}_1 \cdot \vec{e}_3\\ \vec{e}_2 \cdot \vec{e}_1 & \vec{e}_2 \cdot \vec{e}_2 & \vec{e}_2 \cdot \vec{e}_3 \\ \vec{e}_3 \cdot \vec{e}_1 & \vec{e}_3 \cdot \vec{e}_2 & \vec{e}_3 \cdot \vec{e}_3 \end{array} \right] \\\)Diese Matrix g nennt man auch den Metrik-Tensor des Koordinatensystems.
Mit Hilfe dieses Metrik-Tensors ergibt sich dann die Länge des Vektors \(\vec{v}\) ganz einfach als Matrixprodukt:
\(\Large || \vec{v} ||^2 = \left[ \begin{array}{c} v_1 & v_2 & v_3 \end{array} \right] g \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3 \end{array} \right] \\\)Ganz allgemein kann man mit diesem Metrik-Tensor das innere Produkt zweier Vektoren aus den Komponenten berechnen:
\( \Large \vec{v} \cdot \vec{w} = \left[ \begin{array}{c} v_1 & v_2 & v_3 \end{array} \right] g \left[ \begin{array}{c} w_1 \\\ w_2 \\\ w_3 \end{array} \right] \)Das funktioniert, weil der Metrik-Tensor nicht “irgendeine” Matrix ist, sondern “invariant” ist; d.h. unabhängig vom gewählten Koordinatensystem kommt immer das gleiche Ergebnis heraus.
Der Metrik-Tensor definiert also eine (bilineare) Abbildung:
\( g: V \times V \to \mathbb{R} \\\)Ein Metrik-Tensor ist eine spezielle Bilineare Abbildung, die erstens symmetrisch ist und zweitens immer positive Werte liefert.
Dies ist auch im Prinzip der Metrik-Tensor, der in den Einsteinschen Feldgleichungen als \( g_{\mu \nu} \) vorkommt.
Oben hatten wir das innere Produkt zweier Vetoren ja versucht unabhängig von einem Koordinatensystem zu definieren.
Man kann das Ganze nun aber auch umgekehrt “aufzäumen”. Wenn wir einen Vektorraum und eine Basis haben (damit also ein Koordinatensystem), brauchen wir nur noch einen Metrik-Tensor “g” und können damit ein inneres Produkt zwischen zwei Vektoren v und w als schlichte Matrix-Multiplikation definieren:
Wobei das hochgestellte T “transponiert” meint. So wird aus einem Spaltenvektor ein Zeilenvektor.
Beispielsweise definiert der folgende Metrik-Tensor die übliche Metrik für alle Koordinatensysteme mit einer orthonormaler Basis – denn das innere Produkt verschiedener Basisvektoren ist Null (weil orthogonal) und das innere Produkt eines Basisvektors mit sich selbst ist 1 (weil Länge 1):
\(\Large g = \left[ \begin{array}{rrr} 1 & 0 & 0\\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right] \\\)Das gilt z.B. für ein “normales” Koordinatensystem im Euklidischen Raum.
Mit dieser Metrik ist die Länge eines Vektors also:
\( || \vec{v} ||^2 = v_1^2 + v_2^2 + v_3^2 \)
und diese Länge ist invariant gegenüber Koordinatentransformationen.
Und eine Minkowski-Metrik wird definiert durch den Metrik-Tensor:
\(\Large \eta = \left[ \begin{array}{rrrr} 1 & 0 & 0 & 0\\ 0 & -1 & 0 & 0\\ 0 & 0 & -1 & 0\\ 0 & 0 & 0 & -1\end{array} \right] \\\)Mit dieser Metrik wäre die Länge eines Vektors also gegeben durch:
\( || \vec{v} ||^2 = v_1^2 – v_2^2 – v_3^2 – v_4^2\)Diese so definierte Länge wäre invariant gegenüber Lorentz-Transformationen, die wir später in der Speziellen Relativitätstheorie kennenlernen werden.
Der oben beschriebene Metrik-Tensor ist ein Tensor vom Rank 2. D.h. eine zweidimensionale (also “normale”) Matix, die sich bei Transformation der Koordinatensysteme “freundlich” verhält, sodass wir von “Invarianz” sprechen können.
Allgemein und formal ist ein Tensor T eine multilineare Abbildung von einem cartesischen Produkt von Vektorräumen über einem gemeinsamen Körper von Skalaren in diesen Skalaren-Körper:
\( T: V_1 \times V_2 \times … \times V_n \to K \)Wobei die \(V_i\) Vektorräume über K sind.
Das allgemeine Thema “Tensor” ist mathematisch vielschichtig, deshalb habe ich begonnen, einen separaten Artikel darüber zu geschrieben.
Link: https://youtu.be/8ptMTLzV4-I
Diese Konzepte werden in Video 6 und Video 7 behandelt.
Bei einer Linearen Transformation wird die Fläche des Quadrats aus den Basisvektoren um einen Faktor “transformiert”. Damit wird auch jede beliebige Fläche um diesen Faktor “transformiert”. Diesen “Faktor” nennen wir die Determinante der Linearen Transformation.
Entsprechend ist das auch in höheren Dimensionen z.B. mit drei Dimensionen, wo die Größe des Volumens transformiert wird.
Eine negative Determinante bedeutet, dass sich bei der linearen Transformation die “Orientierung” des Vektorraums umkehrt.
Der Rank meint die Dimension des Ausgaberaums einer Linearen Transformation. Wenn der Rank einer Transformation nicht die volle Dimension (“full rank”) unseres Vektorraums ist, ist die Determinante dieser Transformation natürlich Null, aber der Rank kann etwas differenzierter aussagen was da los ist z.B. der Rank einer 3-dimensionalen Matrix (Transformation) könnte 2 sein, dann ist der Ausgaberaum eine Ebene (2 Dimensionen), wenn der Rank 1 wäre, hätten wir als Ausgaberaum eine Linie (eine Dimension) etc. Dieser “Ausgaberaum” wird auch “Column Space” genannt, weil die Spaltenvektoren diesen aufspannen…