Mathematik: Tensoren

Gehört zu: Mathematik

Siehe auch: Diriac-Notation, QuantenmechanikVektorräume, Lineare Algebra

Benutzt: WordPress-Plugin Latex

Was sind Tensoren?

Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Tensoren.

Der Begriff “Tensor” wurde im 19. Jahuhundert relativ unsystematisch bei verschiedenen physikalischen Berechnungen eingeführt.

Darüber gibt es schöne Youtube-Videos von “eigenchris”:  https://youtu.be/sdCmW5N1LW4

Als Vorbereitung dazu habe ich zuerst mal etwas zu Vektorräumen zusammengestellt.

Auffrischung

Wir hatten ja im Artikel über Vektorräume schon gesehen, dass Vektoren Objekte sind, die unabhängig von Koordinatensystemen exsistieren und auch gegenüber einem Wechsel von Koordinatensystemen “invariant” sind. Nur die Komponenten der Vektoren verändern sich dann, nicht aber die Vektoren selber.

Invarianz bedeutet allgemein gesagt, dass ein und dasselbe Objekt verschieden beschrieben (“repräsentiert”) werden kann von verschiedenen Standpunkten (Koordinatensystemen) aus.

Unsere Koordinatensysteme beruhen immer auf einer Menge von sog. Basisvektoren.

Wie verhalten sich dann Vektoren und ihre Komponenten bei einem Wechsel des Koordinatensystems (also der Basisvektoren)?

Im Gegensatz zum invarianten Vektor selbst, verändern sich seine Komponenten bei Änderung der Basis.

Wir sahen, dass wenn sich die Längen der Basisvektoren verlängern, sich die Komponenten von Vektoren verkleinern. Deshalb hatten wir diese Vektoren “kontravariant” genannt.

So ein kontravarianter Vektor ist ein erstes Beispiel für einen Tensor. Ein zweites Beispiel für einen Tensor sind die sog. Co-Vektoren…

Allgemein gesagt bedeutet Kontravarianz, dass wenn ein Ding größer wird, ein anderes Ding kleiner wird. Covarianz dagegen bedeutet, dass die Veränderungen in die gleiche Richtung gehen.

Co-Vektoren

Im Gegensatz zu den “herkömmlichen” kontravarianten Vektoren, die wir als Spalte schreiben, schreiben wir Co-Vektoren als Zeilen.

Dazu hat “eigenchris” ein schönes Youtube-Video gemacht: https://youtu.be/LNoQ_Q5JQMY

In der Sichtweise von Koordinaten macht ein Co-Vektor also folgendes:

\( \Large  \left[  \begin{matrix} a & b & c  \end{matrix} \right] \cdot \left[ \begin{array}{r} x \\\ y \\\ z  \end{array} \right] = ax+by+cz \)

Abstrakt formuliert bildet ein Co-Vektor also Vektoren auf Skalare ab.

Rank 2 Tensoren

Generell soll ein Tensor ja invariant bei einer Koordinatentransformation sein.

Lediglich die “Darstellung” eines Tensors erfolgt mit Komponenten (Koordinaten).

Uns interessieren hier in erster Linie sog. Rank 2 Tensoren. Solche Rank 2 Tensoren können immer als “normale” Matrix mit Zeilen und Spalten dargestellt werden  (Zeilen und Spalten -> Rank 2). So ein Rank 2 Tensor kann aber auch ganz einfach in sog. Index-Schreibweise dargestellt werden z.B. Tij oder g μν (Anzahl Indices = Rank).