Computer: Mathematik – Vektorräume – Lineare Algebra

Gehört zu: Mathematik
Siehe auch:  Algebren, Matrizenrechnung, Tensor-Algebra, Relativitätstheorie, Metrik-TensorElektrisches Feld, Magnetisches Feld
Benutzt: WordPress-Plugin Latex

Was ist ein Vektorraum?

Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Vektorräume und Tensoren.

Es gibt dazu eine Menge Videos auf Youtube; z.B. von 3Blue1Brown:  https://youtu.be/fNk_zzaMoSs  – Playlist: https://goo.gl/R1kBdb

Vektorräume verfügen über eine Operation, die Vektor-Addition (Vektor plus Vektor ergibt einen Vektor) genannt wird und eine kommutative Gruppe bildet.
Weiterhin muss jeder Vektorraum einen Körper von sog. Skalaren haben, mit denen die Vektoren mutipliziert (“skaliert“) werden können (Skalar mal Vektor ergibt Vektor). Man spricht dann von einem Vektorraum “über” einem Körper seiner Skalaren.
Ausserdem muss zwischen zwei Vektoren ein Skalarprodukt definiert sein (Vektor mal Vektor ergibt einen Skalar). Dies ist inspiriert aus der Physik durch Arbeit = Kraft mal Weg.

  • Physik: Der Physiker stellt sich Vektoren gern als “Pfeile” vor, die also eine Richtung und eine Länge haben, also eher “geometrisch“.
  • Computer: Der Computer-Mensch stellt sich Vektoren eher als Liste von Komponenten vor (Vektor = Liste) – wozu man aber ersteinmal ein System von Basis-Vektoren (nicht: Koordinatensystem) haben muss.
  • Mathematik: Der abstrakte Mathematiker sagt, Vektoren sind einfach “etwas”, was man addieren kann (Gruppe) und was man mit “Skalaren” skalieren kann und was ein Skalarprodukt hat – fertig, einfach ein paar Axiome und das war’s.

Vektorfelder und Skalarfelder

Was meint man mit dem Begriff “Feld”?

Das Wort “Feld” wird gerne gebraucht, wenn eigentlich eine ganz normale Abbildung (auch Funktion oder auch Verknüpfung genannt) gemeint ist – “just to confuse the Russians”.

Der Definitionsbereich so einer Abbildung ist ein “Raum”. Das kann ein sog. Euklidischer Raum oder auch eine Riemannsche Mannigfaltigkeit sein. Die Punkte (Orte) in so einem Raum kann man durch Koordinaten beschreiben.
Je nach dem ob der Wertebereich ein Vektorraum oder ein Körper (von Skalaren) ist, spricht man von “Vektorfeld” oder “Skalarfeld” und man schreibt gerne:

  • für ein skalares Feld: \( \Phi(r) \)
  • für ein Vektorfeld: \(  \vec{V}(r) \)

Wobei r ein Punkt aus dem Definitionsbereich ist (kein Vektor, sondern ein durch Koordinaten beschriebener Punkt)

Beispiele

  • Temperatur: Wenn wir jedem Punkt im Raume seine Temperatur zuordnen, haben wir ein Skalarfeld.
  • Höhe: Wenn wir jedem Punkt auf einer Landkarte die Höhe über dem Meeresspiegel zuordnen, haben wir ein Skalarfeld.
  • Wind: Wenn wir jedem Punkt auf einer Landkarte die Windrichtung und Windstärke zuordnen, haben wir ein Vektorfeld.
  • Gravitation: Wenn wir jedem Punkt im Raum die Richtung und Stärke der Gravitationskraft zuordnen (wäre mit einem kleinen Probekörper zu bestimmen), haben wir ein Vektorfeld, genannt Gravitationsfeld
  • Ein elektrisches Feld (ein Vektorfeld) gibt für jeden Punkt im Raum die Richtung und Stärke der elektrischen Kraft an, die auf ein kleines Probeteilchen der elektrischen Ladung +1 wirkt
  • Ein magnetisches Feld (ein Vektorfeld) gibt für jeden Punkt im Raum die Richtung und Stärke der magnetischen Kraft an, die auf ein kleines Probeteilchen wirkt

Visuelle Veranschaulichung von Feldern

Skalarfelder kann man beispielsweise durch Linien im Definitionsbereich, die alle einen gleichen Skalarwert haben, veranaschaulichen (z.B. Isotermen, Isohypsen etc.)

Vektorfelder veranschaulicht man sich gerne durch sog. “Feldlinien“; diese zeigen dann immer in die Richtung des Werte-Vektors. Beispiel: Feldlinien im Magnetfeld, die in Richtung der magnetischen Kraft zeigen…

Die Physiker sprechen gern von sog. Kraftfeldern. Der Begriff “Feld” hilft, die Vorstellung der Fernwirkung zu vermeiden (sagt Feynman). Die vier konzeptionellen Stufen der Kraftwirkung sind:

  • Die Kraft bewirkt eine Beschleunigung   (Newton)
  • Ein Feld bewirkt eine Kraft
  • Kraft durch Raumkrümmung (geometrische Vorstellung) (Einstein)
  • Kraft durch virtuelle Austauschteilchen

Komponenten und Tensoren (für Physiker)

Youtube-Videos zur Vektor- und Tensorrechnung

Youtube Videos von Prof. Wagner zur Vektor- und Tensorrechnung

Sprechweise: Tensoren statt Vektoren und Matrizen

Die Tensoren und die Tensorrechnung stammen eigentlich aus der Physik und sind für ganz praktische physikalische Problemlösungen “erfunden” worden. Ein Tensor in diesem Sinne ist einfach ein indiziertes Objekt. Die Indizes laufen normalerweise von 1 bis n, der Dimensionszahl des Raumes in dem wir arbeiten.

Ein Objekt mit einem Index wäre ein Tensor der Stufe 1, ein Objekt mit zwei Indizes ein Tensor 2. Stufe etc. Die “Objekte”, die man indiziert sind meist Reelle oer Komplexe Zahlen – allgemein gesagt Elemente eines Körpers – die man auch Skalare nennt.

Einen Tensor 1. Stufe schreibt man gerne \( a_i \) also mit einem Index – meist unten aber manchmal auch oben \( a^i \) .

Man kann so einem Tensor 1. Stufe auch einen Vektor zuordnen, wobei die indizierten Größen dann die Komponenten eines Vektors zu einer bestimmten Vektorbasis (s.u.) werden. Wenn man so einen Vektor meint, schreibt man das Ganze in Klammern – womit dann alle Komponenten des Tensors gemeint sind:

\( (a_i)  \)

Einen Tensor 2. Stufe schreibt man gerne \( {a_i}^j \) also mit zwei Indizes – teilweise unten und teilweise auch oben.

Man kann so einem Tensor 2. Stufe auch eine Matrix zuordnen, wobei die indizierten Größen dann als Zeilen und Spalten in der Matrix abgelegt werden. Wenn man so eine Matrix meint, schreibt man das Ganze in Klammern (da sind dann eben alle Komponenten drin):

\( ({a_i}^j) \\\ \)

Bei mehreren Indizes (also Tensoren der Stufe 2 und höher) ist es wichtig, dass die Reihenfolge der Indizes immer ersichtlich ist. Verwechselungsgefahr besteht ja speziell wenn man Indizes unten und oben hinschreibt.

Wenn ich zwei Tensoren 2. Stufe habe, kann ich die zugehörigen Matrizen ganz einfach multiplizieren indem wir mit der Einsteinschen Summenkonvention über den inneren Index (hier j) summieren:

\( ({a_i}^j)({b_j}^k) = ({a_i}^j \cdot {b_j}^k) \)

Vom Vektor zu seinen Komponenten bezüglich einer Vektorbasis

Damit ich mit einem Vektor so schön herumrechnen kann, ist es enorm praktisch, den Vektor durch “seine” Komponenten darzustellen. Solche “Komponenten” beziehen sich immer auf eine sog. Vektorbasis, das ist ein System von Basisvektoren mit dem man jeden Vektor Linearkombination diese Basisvektoren darstellen kann.

Zu einer Vektorbasis \( \vec{g_1}, \vec{g_2}, …, \vec{g_n} \) wäre eine Linearkombination etwa:

\(    a_1 \vec{g_1} + a_2 \vec{g_2} + … + a_n \vec{g_n}\)

wenn wir den Satz von Vektoren mit einem Satz von Skalaren \( a_1, a_2, …, a_n \) mutiplizieren und die Summe bilden.

Wenn ich mit einem Satz von Vektoren jeden Vektor des Vektorraums durch eine solche Linearkombination darstellen kann, sagt man “der Satz von Vektoren spannt den Vektorraum auf”. Ist so ein Satz von Vektoren minimal und die Darstellung eines Vektors durch eine Linearkombination damit eindeutig, so  nennt man den Satz von Vektoren eine Vektorbasis.  Den Satz von Skalaren mit dem ein Vektor bezüglich einer Vektorbasis als Linearkobination eindeutig dargestellt werden kann nennt man auch die Komponenten des Vektors. Man schreibt also:

\( \vec{a} = \sum\limits_{i=1}^{n}{a_i \vec{g_i}} \)

Dabei sind also die ai die Komponenten des Vektors a bezüglich des gewählten Basisvektorsystems. Der Begriff des Koordinatensystems unterscheidet sich von diesem Begriff des Basisvektorsystems; kann aber im Falle eines Chartesischen Raumes leicht verwechselt werden.

Der Physiker möchte die Formeln noch kompakter aufschreiben und führt eine impliziete Summenkonvention ein (nach Einstein). Danach verwenden wir Indizes teilweise unten (klassisch) und auch teilweise oben (neu). Wenn ein gleicher Index oben und unten auftaucht, soll darüber summiert werden (ohne dass man es expliziet schreiben muss). Also in unserem Fall:

\( \vec{a} = a^i \vec{g_i} \)

Man nennt Größen mit einem Index unten “kovariant” und mit einem Index oben “kontravariant” – was man damit eigentlich sagen will werden wir später erfahren.

Komponentenschreibweise

Unsere Rechenregeln für Vektoren kann man nun auch einfach in Komponentenschreibweise ausdrücken:

Vektoraddition: \( \vec{a} + \vec{b} = (a^i + b^i) \vec{g_i}  \)

Skalar-Multiplikation: \( \lambda \vec{a} = (\lambda a^i) \vec{g_i} \)

Skalarprodukt: \( \vec{a}  \cdot \vec{b} = g_{ij} a^i b^j \)

Wobei wir als abgekürzte Schreibweise zu der verwendeten Vektorbasis eine zugehörige Matrix bestehend aus den sog. “Metrik-Koeffizienten”; das sind alle Kombinationen von multiplizierten Basisvektor-Paaren bilden:

\( g_{ij}  = g_i \cdot g_j \)

Wir bekommen also ein Objekt aus zweifach indizierten Skalaren, also eine Matrix die auch gerne Tensor zweiter Stufe genannt wird, wenn ein bestimmtes Transformationsverhalten (bei Transformation des Basisvektorsystems)  gegeben ist.

Wir nennen diese Matrix aus den Metrik-Koefiizienten schon mal “Metriktensor”, auch wenn wir noch nicht alles Notwendige dafür definiert haben. Der Metriktensor charaterisiert also die verwendete Vektorbasis, da die Komponenten dieses Tensors (dieser Matrix) einfach die paarweisen Skalarprodukte der Basisvektoren sind.

Der Begriff “Metriktensor” hat schon einen Sinn, wenn wir sehen, dass damit auch der Längenbegriff definiert werden kann:

\( | \vec{a} | = \sqrt{\vec{a} \cdot \vec{a}} = \sqrt{g_{ij} a^i a^j}  \)

 

Eigenschaften von Vektoren

Geschrieben werden Vektoren meist als eine Liste ihrer Komponenten, aber nicht waagerecht, sondern senkrecht angeordnet (bei waagerechter Anordnung denkt man eher an einen Punkt im Raum).

\( \Large \vec{v} = \left( \begin{array}{c} x \\\ y \\\ z  \end{array}\right) \)

oder auch in eckigen Klammern:

\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z  \end{array} \right] \)

Wenn ich Vektoren als Liste von Komponenten schreiben will, muss ich ersteinmal ein Basisvektorsystem haben.

Vektoren, und das ist wichtig, exisitieren auch ohne Basisvektorsysteme, also einfach geometrisch im Raum. Unabhängig von einem Basisvektorsystem hat jeder Vektor eine Länge und eine Richtung. Dies sind also sog. “Invarianten”; d.h. bei Änderung des Basisvektorsystems ändern sich diese Eigenschaften nicht.
Also: Vektoren ansich sind invariant gegenüber einem Wechsel des Basisvektorsystems. Aber die Vektorkomponenten verändern sich beim Wechsel des Basisvektorsystems, sind wie man sagt “variant“. Wie Vektorkomponenten bei Wechsel des Basisvektorsystems hin- und hergerechnet werden können, behandeln wir weiter unten. So ein Vektor ist damit der Sonderfall eines Tensors, nämlich ein Tensor vom Rang 1.

Aus geometrischer und intuitiver Sicht spricht man auch von Längen und Winkeln:

  • Für die Länge eines Vektors (man sagt auch “Norm”) schreibt man:  \( \Large ||  \vec{v}  ||  \)
  • Für den Winkel zwischen zwei Vektoren schreibt man: \( \Large  \angle \left( \vec{v}, \vec{w} \right)  \)

Lineare Abbildung (Lineare Transformation)

Lineare Transformationen sind Transformationen, bei denen Geraden Geraden bleiben und der Null-Punkt (Origin) unverändert bleibt.
Anschaulich gesagt, bleiben Parallelen parallel und die Koordinatengitter gleichmäßig unterteilt (was immer auch Parallelen und Koordinatengitter genau sein mögen). Man kann das auch abstrakt durch Formeln ausdrücken:

Eine Abbildung f von einem Vektorraum V in einen Vektorraum W (beide über dem gleichen Körper K)

\(  f: V  \to W \\\)

wird “linear” genannt, wenn sie additiv und homogen ist; d.h.

additiv: \( f(\vec{v} +  \vec{w}) = f(\vec{v}) +  f(\vec{w})  \)

und

homogen: \( f(c \vec{v}) = c f(\vec{v}) \\ \)   (hierfür brauchen wir den gleichen Körper K)

allgemein also: \(f(a \vec{x} + b \vec{y}) = a f(\vec{x}) + b f(\vec{y}) \)

Eigenvektoren und Eigenwerte

Bei Linearen Abbildungen in den gleichen Vektorraum, also:

\(  f: V  \to V \\\)

sind Eigenvektoren dieser Linearen Abbildung Vektoren, die durch diese Abbildung nicht in ihrer Richtung verändert werden; d.h.:

\(  f(\vec{x}) = \lambda \vec{x} \\\)

und den Skalar λ nennt man dann den Eigenwert.

Häufig verwendet man Eigenvektoren und Eigenwerte, wenn die Lineare Abbildung durch eine Matrix beschrieben wird.

Bilineare Abbildung

Hier geht es um zwei Variable (zwei = bi); also eine Abbildung:

\(  f: V_1 \times V_2 \to W \\\)  (alles Vektorräume über dem gleichen Körper K)

So eine Abbildung heisst “bilinear“, wenn sie “in beiden Variablen” linear ist, was heisst:

\( f(a_1 \vec{x_1} + a_2 \vec{x_2}, \vec{y}) = a_1 f(\vec{x_1},\vec{ y}) + a_2 f(\vec{x_2}, \vec{y}) \\\)

und

\( f(\vec{x}, b_1 \vec{y_1} + b_2 \vec{y_2}) = b_1 f(\vec{x}, \vec{y_1}) + b_2 f(\vec{x}, \vec{y_2}) \\\)

Und was ist jetzt eine “bilinerare Form” ???

Bilineare Formen (Bilineare Abbildung)

Der Begriff “Form” wird traditionell gerne verwendet, wenn eine Abbildung Vektoren als Definitionsbereich hat.

Wir betrachten jetzt mal ganz allgemein Abbildungen

\( f: V \times V \to K \)   ( wobei V ein Vektorraum über dem Körper K sei)

So eine Abbildung heist “bilinear” (später sagen wir “multilinear”), wenn eine “Scaling Rule” und “Addition Rules” erfüllt sind.

Scaling Rule:

\(  a f(\vec{v}, \vec{w}) = f(a \vec{v}, \vec{w}) = f(\vec{v}, a \vec{w}) \\\)

Addition Rules:

\( f(\vec{v} + \vec{u}, \vec{w}) = f(\vec{v}, \vec{w}) + f(\vec{u}, \vec{w}) \)

und

\( f(\vec{v}, \vec{u} + \vec{w}) = f(\vec{v},\vec{u}) + f(\vec{v}, \vec{w}) \\\)

Das innere Produkt von Vektoren

Das innere Produkt zweier Vektoren (auch Skalarprodukt genannt) ist dann – unabhängig von einem Koordinatensystem – definiert als:

\( \Large \vec{v} \cdot \vec{w} = ||  \vec{v} || \enspace || \vec{w} || \cos(\angle \left( \vec{v}, \vec{w} \right)) \)

Als Schlussfolgerung kann man die Länge eines Vektors auch per innerem Produkt darstellen als:

\( \Large || \vec{v} ||  = \sqrt{\vec{v} \cdot \vec{v}} \\\ \)

In einem chartesischen Koordinatensystem (s.u.) berechnet sich das innere Produkt (Skalarprodukt) der Vektoren

\( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3  \end{array} \right]  \) und   \( \Large \vec{w} = \left[ \begin{array}{c} w_1 \\\ w_2 \\\ w_3  \end{array} \right]  \)

als   \( \Large \vec{v} \cdot \vec{w} = v_1 w_1 + v_2 w_2 + v_3 w_3 \)

Soweit haben wir das innere Produkt (Skalarprodukt) zweier Vektoren durch Winkel und Länge anschaulich definiert. Wir können auch umgekehrt Länge und Winkel durch das Skalarprodukt definieren:

Länge:

\( \Large || \vec{v} ||  = \sqrt{\vec{v} \cdot \vec{v}} \\\ \)

Winkel:

\( \Large \cos(\angle \left( \vec{v}, \vec{w} \right))  = \frac{ ||  \vec{v} || \enspace || \vec{w} ||}{ \vec{v} \cdot \vec{w}    }  \)

Das funktioniert aber nur, wenn wir schon ein Skalarprodukt haben.

Das reele Skalarprodukt

Ein Skalarprodukt auf einem Vektorraum V über dem Körper der reelen Zahlen \(\mathbb{R} \), können wir axiomatisch definieren als eine Abblidung \( f: V \times V \to K \) mit folgenden Eigenschaften:

  • f ist eine Bilinearform (s.o.)
  • f(u,v) = f(v,u) “symmetrisch”
  • f(u,u) >= 0  “positiv”
  • f(u,u) = 0 genau dann, wenn u=0 “positiv definit”

Das komplexe Skalarprodukt

Falls wir es mit einem Vektorraum über dem Körper der komplexen Zahlen \(\mathbb{C} \) zu tun haben, wir die Sache komplizierter.  Ich führe das deshalb hier nicht expliziet aus.

Metrischer Raum

Wenn wir einen Vektorraum mit Skalarprodukt haben, kann mittels der sich aus dem Skalarprodukt ergebenden Norm, eine Metrik (Anstandsbegriff) definiert werden:

d(x,y) := || y – x ||

Die Axiome der Metrik werden erfüllt.

Hilbertraum

Ein Vektorraum über \(\mathbb{R} \) oder \(\mathbb{C} \) mit einem Skalarprodukt heisst “Prä-Hilbertraum”. Wenn so ein “Prä-Hilberraum” auch noch “vollständig” ist; d.h. jede Cauchyfolge konvergiert (bezüglich der Metrik), dann hat man einen echten Hilbertraum.

Das äußere Produkt von Vektoren

Das äußere Produkt zweier Vektoren (auch Vektorprodukt oder Kreuzprodukt genannt) ist definiert als ein Vektor:

\( \Large \vec{v} \times \vec{w} = \vec{u} \)

Der Vektor u steht senkrecht auf beiden Vektoren v und w und hat die Länge \( \Large ||\vec{v}|| \cdot ||\vec{w}|| \cdot \sin(\angle \left( \vec{v}, \vec{w} \right)) \)

In einem chartesischen Koordinatensystem (s.u.) berechnet sich das äußere Produkt (Vektorprodukt) der Vektoren

\( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3  \end{array} \right]  \) und   \( \Large \vec{w} = \left[ \begin{array}{c} w_1 \\\ w_2 \\\ w_3  \end{array} \right]  \)

als   \( \Large   \vec{v} \times \vec{w} =   \left[ \begin{array}{c} v_2 w_3 – v_3 w_2  \\\ v_3 w_1 – v_1 w_3  \\\ v_1 w_2 – v_2 w_1  \end{array} \right]        \)

Eine Anwendung für das Kreuzprodukt ist beispielsweise die Kreisbewegung, wo sich die Bahngeschwindingkeit wie folgt ergibt:

\( \vec{v} = \vec{\omega} \times \vec{r} \\ \)

Algebren

Ein Vektorraum V über einem Körper K zusammen mit einer bilinearen Abbildung:

\(  V \times V \to V \)

wird eine Algebra genannt.

Die bilineare Abblidung wird “Produkt” genannt und auch so wie ein Produkt hingeschrieben; also:  a · b  oder einfach ab. In dieser Schweibweise bedeutet die Bilinearität einfach folgendes:

\(   (x + y) \cdot z = x \cdot z + y \cdot z  \\\ \)

 

\(   x \cdot (y + z)  = x \cdot y + x \cdot z  \\\ \)

 

\( a (x \cdot y) = (ax) \cdot y = x \cdot (ay) \\\ \)

Das “besondere” an Algebren ist die “Multiplikation”. Deswegen unterscheidet man  Algebren auch nach den Eigenschaften dieser Multiplikation:

Kommutative – nicht-kommutative Algebren: Ist immer \( a \cdot b  =  b \cdot a \) oder nicht?

Assoziative – nicht-assoziative Algebren: Ist immer \( a \cdot (b \cdot c) = (a \cdot b) \cdot c \) oder nicht?

Beispiele:

Die n × n Matrizen über einem Körper mit der gewöhnlichen Matrizenmultiplikation als “Multiplikation” bilden eine (assoziative) Algebra.

Differentialoperatoren

Auf einem Vektorraum als Definitionsbereich definiert man besondere Abbildungen, sog. Differentialoperatoren, wozu allerdings immer die Koordinatenschreibweise benutzt wird.

Wir nehmen mal als Definitionsbereich für unsere “Felder” den Vektorraum \(\mathbb{R}^3\). dann haben wir partielle Ableitungen nach den drei Koordinaten: x, y und z und man definiert als sog. Nabla-Operator:

\( \Large \nabla = \left[ \begin{array}{c} \frac{\partial}{\partial x} \\\ \frac{\partial}{\partial y} \\\ \frac{\partial}{\partial z}  \end{array} \right]  \\\  \)

Damit kann man dan einfach definieren:

  • Gradient eines Skalarfeldes:  \( \nabla \Phi \)
  • Divergenz eines Vektorfeldes: \( \nabla \cdot \vec{V} \)
  • Rotation eines Vektorfeldes: \( \nabla \times \vec{V} \)

Dies führt in den Bereich der Differentialgeometrie

Basis, Koordinatensystem, Dimension

In einem Vektorraum V kann ich viele Koordinatensysteme haben. Jedes Koordinatensystem ist bestimmt durch eine Menge sog. Basis-Vektoren.

Die “Basis” eines Vektorraums besteht aus einer Menge von sog. Basis-Vektoren, mit denen man den gesamten Vektorraum “aufspannen” kann. Wobei “aufspannen” bedeutet, dass jeder Vektor des Vektorraums als sog. Linearkombination aus den Basis-Vektoren hergestellt werden kann. Eine solche “Linearkombination” ist eine Summe von Basis-Vektoren, die mit geeigneten Skalaren multipliziert wurden.

Beispiel für eine Linearkombination:

\( \Large a  \vec{v} + b \vec{w} + c \vec{u} \)

Ganz genau genommen, spannt eine Basis nicht nur den ganzen Vektorraum auf (das wäre ein Erzeugendensystem), sondern enthält dabei eine minimale Anzahl von Vektoren (was äquivalent ist mit der eindeutigen Darstellung aller Vektoren des Vektorraums in Form von Linearkombinationen).

Eine Einheitsbasis (normal basis) ist eine Basis, bei der alle Basisvektoren die Länge 1 haben (“auf die Länge 1 normiert sind”).

Beispiel für eine Basis (im Vektorraum \(\mathbb{R}^3\) ):

\( \hat{i} =\left[ \begin{array}{c} 1 \\\ 0 \\\ 0  \end{array} \right]   \hat{j} =\left[ \begin{array}{c} 0 \\\ 1 \\\ 0  \end{array} \right] \hat{k} =\left[ \begin{array}{c} 0 \\\ 0 \\\ 1  \end{array} \right] \)

Und man schreibt dann auch gerne:

\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z  \end{array} \right] = x \hat{i} + y \hat{j} + z \hat{k}\)

Ein Vektorraum kann mehrere Basen haben, die jeweils ein Koordinatensystem definieren. Dabei werden die Koordinaten (Komponenten) ein und desselben Vektors in verschiedenen Koordinatensystem auch verschieden sein, der Vektor selbst aber ist “invariant”. Wenn man einen Vektor als Liste von Koordinaten hinschreibt, muss man immer sagen. welche Basis gemeint ist.

Ein Vektorraum kann mehrere Basen haben, aber die Anzahl der Vektoren in einer Basis ist immer die gleiche. Diese Anzahl nennt man “Dimension” des Vektorraums und schreibt:

Dimension des Vektorraums V: dim(V)

Beschreibung durch Basis-Vektoren: Lineare Transformationen

Eine Lineare Transformation kann eindeutig beschrieben werden durch die Werte auf die die Basis-Vektoren abgebildet (transformiert) werden.

Beispielsweise heisst das im Vektorraum \(\mathbb{R}^2\) mit dem kanonischen Koordinatensystem und den Basisvektoren \( \hat{i} \) und \( \hat{j}  \) folgendes:

Wenn wir einen Vektor \( \vec{v} = \left[ \begin{array}{c} x \\\ y  \end{array} \right] = x \hat{i} + y\hat{j} \) betrachten, so wirkt eine Lineare Transformation L wie folgt:

\( L(\vec{v}) = x L(\hat{i}) + y L(\hat{j} )  \)

Wenn wir also die transformierten Basisvektoren \( L(\hat{i}) \) und \( L(\hat{j}) \)  kennen, ist damit die Lineare Transformation L vollständig festgelegt.

Diese transformierten Basis-Vektoren können im verwendeten Koordinatensystem als Matrix schreiben.

Wenn bei unserer Linearen Transformation beispielsweise \( L(\hat{i}) = \left[ \begin{array}{c} 3 \\\ -2  \end{array} \right] \)   und \( L(\hat{j}) = \left[ \begin{array}{c} 2 \\\ 1  \end{array} \right] \)  wäre, bekämen wir eine Matrix:

\(\left[ \begin{array}{rr} 3 & 2 \\  -2 & 1 \\  \end{array} \right] \)

Wir schreiben also in den Spalten der Matrix die transformierten Basisvektoren.
Die Lineare Transformation könnte im benutzten Koordinatensystem als Matrixmultiplikation aufgefasst werden:

\(\left[ \begin{array}{rr} 3 & 2 \\  -2 & 1 \\  \end{array} \right]  \left[ \begin{array}{c} x \\\ y  \end{array} \right] = x  \left[ \begin{array}{c} 3 \\\ -2  \end{array} \right] + y  \left[ \begin{array}{c} 2 \\\ 1  \end{array} \right] = \left[ \begin{array}{c} 3x+2y \\\ -2x+1y  \end{array} \right]\)

Völlig analog werden auch Lineare Transformationen in drei oder mehr Dimensionen behandelt.

Beschreibung durch Basis-Vektoren: Wechsel von Koordinatensystemen

Wenn wir zwei Koordinatensysteme betrachten, dann haben die also zwei Basen (wir nennen sie “alte Basis” und “neue Basis”). Intuitiv ist klar, dass wenn die neue Basis z.B. längere Basisvektoren hat, dann sind die Vektorkomponenten kürzer (weil ja der gleiche Vektor wieder herauskommen soll). Die Vektorkomponenten verhalten sich also “umgekehrt” wie die Längen der Basisvektoren. Deshalb nennt man diese Vektoren “kontravariant“.

Wir können das auch haarklein ausrechnen:

  • Die “alte Basis” sei: \( \vec{e}_i  \)
  • Die “neue Basis” sei: \( \tilde{\vec{e}}_i  \)

Dann transformieren sich die Basisvektoren wie folgt:

Alt -> Neu (“Foreward”):

\(  \tilde{\vec{e}}_i =  \sum\limits_{k=1}^{n} F_{ki} \vec{e_k}\)

Neu -> Alt (“Backward”):

\(  \vec{e}_i =  \sum\limits_{j=1}^{n} B_{j i} \widetilde{\vec{e_j}}\)

Für die Komponenten eines Vektors \( \vec{v} \) gilt dann die umgekehrte Richtung (deshalb nennt man sie “kontravariant“)

Alt -> Neu:

\( \tilde{v_i} = \sum\limits_{j=1}^{n} B_{ij} v_j  \)

Neu -> Alt

\( v_i = \sum\limits_{j=1}^{n} F_{ij}\tilde{v_j}   \)

Berechnung der Länge eines Vektors aus seinen Komponenten

Länge eines Vektors im Chartesischen Koordinatensystem

Wir sind ja gewöhnt, die Länge eines z.B. dreidimensionalen Vektors über seine Koordinaten und den Lehrsatz des Pythagoras zu berechnen:

Im Beispiel sei der Vektor \( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3  \end{array} \right] \)

Dann wäre die Länge dieses Vektors gegeben durch: \( || \vec{v} ||= \sqrt{v_1^2 + v_2^2 + v_3^2} \)  (der gute alte Pythagoras)

In verschiedenen Koordinatensystemen würde dieser Vektor aber mit verschiedenen Koordinaten (Komponenten) beschrieben und es würden mit obiger Formel dann unterschiedliche Längen heraus kommen.

Uns ist ja klar, dass wir zu den Koordinaten (Komponenten) eines Vektors auch immer angeben müssen, in welchem Koordinatensystem diese gemessen werden; d.h. wir müssen zu den Koordinaten die dazugehörige Basis angeben – und berücksichtigen.

Wenn wir als Basis allgemein schreiben: \( \vec{e}_i  \)

dann können wir mit den Komponenten unseres Vektors zu dieser Basis schreiben:

\( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3  \end{array} \right] = v_1 \vec{e}_1 + v_2 \vec{e}_2 + v_3 \vec{e}_3\)

Im Spezialfall der orthonormalen Basis:

\( \vec{e}_1 = \hat{i}, \vec{e}_2 = \hat{j}, \vec{e}_3 = \hat{k}   \)

hätten wir die Länge unseres Vektors nach Pythagoras (s.o.); mit den Koordinaten zu einer anderen Basis müssten wir umrechnen…

Länge eines Vektors in einem beliebigen Koordinatensystem

Wir hatten die Länge eines Vektors unabhängig von einem Koordinatensystem (also invariant) definiert über:

\( \Large {||  \vec{v}  ||}^2 = \vec{v} \cdot \vec{v} \\\)

Wir nehmen jetzt ein beliebiges Koordinatensystem definiert durch seine Basisvektoren \( \vec{e}_i\).
Dann können wir die Länge des Vektors wie folgt aus seinen Komponenten (Koordinaten) berechnen:

\( \Large  ||  \vec{v} ||^2 = (v_1 \vec{e}_1 + v_2 \vec{e}_2 + v_3 \vec{e}_3) \cdot(v_1 \vec{e}_1 + v_2 \vec{e}_2 + v_3 \vec{e}_3) \\ \)

Wenn wir das ausmultiplizieren bekommen wir:

\( \Large ||  \vec{v} ||^2 =  \sum\limits_{ij} v_i v_j  \enspace \vec{e}_i \cdot \vec{e}_j \\ \)

Um die Länge eines Vektors in einem beliebigen Koordinatensystem zu ermitteln, benötigen wir also “lediglich” alle Kombinationen der inneren Produkte der Basisvektoren dieses Koordinatensystems; d.h. alle \( \vec{e}_i \cdot \vec{e}_j \)

Als Matrix können wir diese Produkte so hinschreiben:

\(\Large g =  \left[ \begin{array}{rrr} \vec{e}_1 \cdot \vec{e}_1 & \vec{e}_1 \cdot \vec{e}_2 & \vec{e}_1 \cdot \vec{e}_3\\  \vec{e}_2 \cdot \vec{e}_1 & \vec{e}_2 \cdot \vec{e}_2 & \vec{e}_2 \cdot \vec{e}_3 \\  \vec{e}_3 \cdot \vec{e}_1 & \vec{e}_3 \cdot \vec{e}_2 & \vec{e}_3 \cdot \vec{e}_3 \end{array} \right]  \\\)

Diese Matrix g nennt man auch den Metrik-Tensor des Koordinatensystems.

Mit Hilfe dieses Metrik-Tensors ergibt sich dann die Länge des Vektors \(\vec{v}\) ganz einfach als Matrixprodukt:

\(\Large || \vec{v} ||^2  =  \left[ \begin{array}{c} v_1 & v_2 & v_3  \end{array} \right]  g  \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3  \end{array} \right] \\\)

Ganz allgemein kann man mit diesem Metrik-Tensor das innere Produkt zweier Vektoren aus den Komponenten berechnen:

\( \Large \vec{v} \cdot \vec{w} =  \left[ \begin{array}{c} v_1 & v_2 & v_3  \end{array} \right]  g  \left[ \begin{array}{c} w_1 \\\ w_2 \\\ w_3  \end{array} \right] \)

Das funktioniert, weil der Metrik-Tensor nicht “irgendeine” Matrix ist, sondern “invariant” ist; d.h. unabhängig vom gewählten Koordinatensystem kommt immer das gleiche Ergebnis heraus.

Der Metrik-Tensor

Der Metrik-Tensor definiert also eine (bilineare) Abbildung:

\(  g: V \times V \to \mathbb{R} \\\)

Ein Metrik-Tensor ist eine spezielle Bilineare Abbildung, die erstens symmetrisch ist und zweitens immer positive Werte liefert.

Dies ist auch im Prinzip der Metrik-Tensor, der in den Einsteinschen Feldgleichungen als \( g_{\mu \nu} \) vorkommt.

Oben hatten wir das innere Produkt zweier Vetoren ja versucht unabhängig von einem Koordinatensystem zu definieren.
Man kann das Ganze nun aber auch umgekehrt “aufzäumen”.  Wenn wir einen Vektorraum und eine Basis haben (damit also ein Koordinatensystem), brauchen wir nur noch einen Metrik-Tensor “g” und können damit ein inneres Produkt zwischen zwei Vektoren v und w als schlichte Matrix-Multiplikation definieren:

\( \Large \vec{v} \cdot \vec{w} =  \vec{v}^T   \enspace g  \enspace \vec{w} \\ \)

Wobei das hochgestellte T “transponiert” meint. So wird aus einem Spaltenvektor ein Zeilenvektor.

Beispielsweise definiert der folgende Metrik-Tensor die übliche Metrik für alle Koordinatensysteme mit einer orthonormaler Basis – denn das innere Produkt verschiedener Basisvektoren ist Null (weil orthogonal) und das innere Produkt eines Basisvektors mit sich selbst ist 1 (weil Länge 1):

\(\Large g =  \left[ \begin{array}{rrr} 1 & 0 & 0\\  0 & 1 & 0 \\  0 & 0 & 1 \end{array} \right]  \\\)

Das gilt z.B. für ein “normales” Koordinatensystem im Euklidischen Raum.
Mit dieser Metrik ist die Länge eines Vektors also:
\( || \vec{v} ||^2 = v_1^2 + v_2^2 + v_3^2 \)
und diese Länge ist invariant gegenüber Koordinatentransformationen.

Und eine Minkowski-Metrik wird definiert durch den Metrik-Tensor:

\(\Large \eta =  \left[ \begin{array}{rrrr} 1 & 0 & 0 & 0\\  0 & -1 & 0  & 0\\  0 & 0 & -1 & 0\\ 0 & 0 & 0 & -1\end{array} \right]  \\\)

Mit dieser Metrik wäre die Länge eines Vektors also gegeben durch:

\( || \vec{v} ||^2  =  v_1^2 – v_2^2 – v_3^2 – v_4^2\)

Diese so definierte Länge wäre invariant gegenüber Lorentz-Transformationen, die wir später in der Speziellen Relativitätstheorie kennenlernen werden.

Was ist ein Tensor?

Der oben beschriebene Metrik-Tensor ist ein Tensor vom Rank 2. D.h. eine zweidimensionale (also “normale”) Matix, die sich bei Transformation der Koordinatensysteme “freundlich” verhält, sodass wir von “Invarianz” sprechen können.

Allgemein und formal ist ein Tensor T eine multilineare Abbildung von einem cartesischen Produkt von Vektorräumen über einem gemeinsamen Körper von Skalaren in diesen Skalaren-Körper:

\( T: V_1 \times V_2 \times … \times V_n \to K \)

Wobei die \(V_i\) Vektorräume über K sind.

Das allgemeine Thema “Tensor” ist mathematisch vielschichtig, deshalb habe ich begonnen, einen separaten Artikel darüber zu geschrieben.

Link: https://youtu.be/8ptMTLzV4-I

Determinante und Rank

Diese Konzepte werden in Video 6 und Video 7 behandelt.

Bei einer Linearen Transformation wird die Fläche des Quadrats aus den Basisvektoren  um einen Faktor “transformiert”. Damit wird auch jede beliebige Fläche um diesen Faktor “transformiert”. Diesen “Faktor” nennen wir die Determinante der Linearen Transformation.

Entsprechend ist das auch in höheren Dimensionen z.B. mit drei Dimensionen, wo die Größe des Volumens transformiert wird.

Eine negative Determinante bedeutet, dass sich bei der linearen Transformation die “Orientierung” des Vektorraums umkehrt.

Der Rank meint die Dimension des Ausgaberaums einer Linearen Transformation. Wenn der Rank einer Transformation nicht die volle Dimension (“full rank”) unseres Vektorraums ist, ist die Determinante dieser Transformation natürlich Null, aber der Rank kann etwas differenzierter aussagen was da los ist z.B. der Rank einer 3-dimensionalen Matrix (Transformation) könnte 2 sein, dann ist der Ausgaberaum eine Ebene (2 Dimensionen), wenn der Rank 1 wäre, hätten wir als Ausgaberaum eine Linie (eine Dimension) etc. Dieser “Ausgaberaum” wird auch “Column Space” genannt, weil die Spaltenvektoren diesen aufspannen…

 

Computer: Mathematik – Statistik

Mathematik: Statistik (aus Wiki)

Immer wieder werde ich als gelernter Mathematiker nach elementaren Themen der Statistik gefragt.

Ich habe einen schönen Einführungskurs in die Statistik bei der Universität Newcastle, Australien, gefunden:

http://www.anu.edu.au/nceph/surfstat/surfstat-home/t-table.html

http://www.anu.edu.au/nceph/surfstat/surfstat-home/

Statistik

Typen von Variablen (“Metriken”)

Qualitativ / Quantitativ

Man spricht von “qualitativen” Variablen, wenn die Beobachtungen durch Kategorien beschrieben werden.
Beispiele:

  • Augenfarbe: braun, grau, blau,…
  • Delivery Model: insourced, outsourced
  • Performance Rating: Less than Acceptable, Inconsistent, Fully Successful, Exceeds, Exceptional

Eine qualitative Variable heist “ordinal”, wenn es eine natürliche Reihenfolgebeziehung zwischen den Kategorien gibt, (Beispiel: Performance Rating).

Eine qualitative Variable heisst “nominal”, wenn es keine natürliche Reihenfolgebeziehung gibt, (Beispiel: Augenfarbe).

Man spricht von “quantitativen” Variablen, wenn die Beobachtungen durch numerische Werte beschrieben werden, d.h. durch Zählen oder Messen zustande kommen.
Beispiele:

  • Alter
  • Körpergröße
  • Anzahl Personen im Haushalt
  • Anzahl gerauchter Zigaretten am Tag
  • Einkommen im Jahr

Eine quantitative Variable heisst “diskret”, wenn die Beobachtungen ganzzahlige Werte sind (Beispiel: Anzahl Personen im Haushalt).

Eine quantitative Variable heisst “stetig” (continous), wenn sie durch (im Prinzip) beliebige Zahlen dargestellt wird (Beispiel: Körpergröße).

Normalverteilung mit Perzentil

Fragestellung zu einer Normalverteilung N(My,Sigma):

  • Gegeben sei My und P25
  • Gesucht ist Sigma
  • Lösung: sigma = (P25 – My) / NormInv(0,25; 0; 1)

Im übrigen gilt sowieso: P25 = NormInv(0,25; My; Sigma)

Logarithmische Normalverteilung

Zur Logarithmischen Normalverteilung habe ich einen gesonderten Artikel geschrieben.

Beta-Verteilung

Zur Beta-Verteilung habe ich einen gesonderten Artikel geschrieben.

— Dkracht 12:29, 24 March 2008 (CET)

Astronomie: Sphärische Trigonometrie

Gehört zu: Mathematik
Siehe auch: Tägliche Bewegung der Gestirne, Diagramme, Tageslänge, Koordinatensystem
Benötigt: WordPress Latex-Plugin, WordPress Plugin Google Drive Embedder

Was ist Sphärische Trigonometrie?

Die Ebene Trigonometrie ist die Lehre von den Dreiecken in der Ebene.

Die Sphärische Trigonometrie ist die Lehre von den Dreiecken auf einer Kugeloberfläche. Solche Dreiecke werden durch Abschnitte von Großkreisen gebildet.

Das Polar-Dreieck auf der Himmelskugel

Zur Umrechnung eines Koordinatensystems in ein anderes zeichnet man sich ein sog. Polar-Dreieck, in dem die “Pole” (“Drehpunkte”) beider Koordinatensysteme vorkommen.

Zur Umrechnung der äquatorialen Koordinaten Deklination (δ) und Stundenwinkel (t) in die horizontalen Koordinaten Höhe (h) und Azimuth (A) wird das sog. Polar-Dreieck wird gebildet durch den Himmelspol (N), den Zenit (Z) und ein Himmelsobjekt (O).

Im Polardreieck sind die Abstände (Bogenlängen):

  • vom Himmelspol zum Zenit: 90° – φ
  • vom Himmelspol zum Himmelsobjekt: 90° – δ
  • vom Zenit zum HImmelsobjekt: z = 90° – h

Im Polardreieck sind die Winkel an den Ecken des Dreiecks:

  • Winkel am Himmelspol: Stundenwinkel t (oder τ)
  • Winkel am Zenith: 180°  – A   (A = Azimuth von Süden)

Abbildung 1: Das Polardreieck (Google Drive: polardreieck.svg)

polardreieck.svg

Polardreieck

Link: https://de.wikibooks.org/wiki/Astronomische_Berechnungen_f%C3%BCr_Amateure/_Druckversion#Koordinatentransformationen

MIt dem Seiten-Cosinussatz errechnet man den Cosinus der Länge einer Seite aus den Längen der beiden anderen Seiten und dem gegenüberliegenden Winkel:
\(\cos z = \cos (90° – \phi) \cos (90° – \delta) + \sin (90° – \phi) \sin (90° – \delta) \cos t\)

Was schließlich heisst:
\(\sin h = \sin \phi \sin \delta + \cos \phi \cos \delta \cos t \)

Der Cotangens-Satz im Polardreieck sagt:

\(   \cos (90° – \phi)  \cos t = \sin(90° – \phi) \cot (90° – \delta) – \sin t \cot(180° – A)  \)

Trigonometrisch umgeformt ergibt das:
\(  \sin \phi \cos t = \cos \phi \tan \delta – \Large\frac{\sin t}{\tan A}  \)

Aufgelöst nach A ergibt sich:

\(   \tan A = \Large\frac{\sin t}{\sin \phi \cos t – \cos \phi \tan \delta} \)

MIt Hilfe dieser Koordinatentransformation kann man für jedes bekannte Himmelsobjekt (Deklination und Rektaszension) die scheinbare tägliche Bewegung am Himmel berechnen – siehe dazu: Die scheinbare tägliche Bewegung der Gestirne.

Großkreise auf einer Kugel

Wenn ich im obigen Polardreieck h=0 setze, erhalte ich einen gekippten Großkreis (oBdA setze ich t = λ).

\(\Large \frac{\sin{\delta}}{\cos{\delta}} = – \frac{\cos{\varphi}}{sin{\varphi}} \cdot \cos{\lambda}  \)

Abbildung 2: Beispiel eines Großkreises auf der Erde (Google: xyz)

grosskreis-01.svg

Großkreis auf der Erdoberfläche

Bei der Seefahrt bezeichnet man die Navigation auf einem Kurs entlang eines Großkreises als “Orthodrome” (Gegensatz: Loxodrome).

Mehr dazu: https://www.navigareberlin.de/onewebmedia/Grosskreisnavigation%20Ver%C3%B6ffentlichung.pdf

Metrik auf einer Kugeloberfläche

Für eine Kugel mit dem Radius r kann ich auf der Kugeloberfläche (z.B. Erdoberfläche) ein Koordinatensystem (s.o.) benutzen:

  • Koordinatensystem (λ, \( \varphi \))
  • wobei im Bogenmass: \( \Large -\frac{\pi}{2} < \varphi < \frac{\pi}{2} \)
  • und auch im Bogenmass: \( \Large 0 \leq \lambda < 2\pi \)

Zur Messung von Abständen (Längen) benötige ich ein LInienelement:

\(\Large ds^2 = r^2 d \varphi^2 + r^2 \cos{\varphi}^2 d\lambda^2 \)

Die kürzeste Verbindung zweier Punkte liegt dann auf einem sog. “Großkreis” (s.o.).

Beispiel 1 (gerade)

Die Strecke von (0.0) nach (π, 0); das ist ein halber Erdumfang am Äquator) müsste eine Länge von π r haben. Da auf der ganzen Strecke φ konstant =0 ist, ist auch dφ = 0 und es  ergibt sich als Längenintegral:

\( \Large s = r \int\limits_{0}^{\pi} d \lambda = r \cdot \left[ \lambda \right]_0^\pi  = \pi \cdot r\)

Beispiel 2 (gerade)

Die Strecke von (0,0) nach (0, π/2) ist ein Viertel Erdumfang vom Äquator zum Nordpol (ein sog. Quadrant) die Länge müsste also \(r \frac{\pi}{2} \) sein. Da auf der ganzen Strecke λ konstant =0 ist, ist auch dλ=0 und es ergibt sich als Längenintegral:

\( \Large s = r \int\limits_{0}^{\frac{\pi}{2}} d \varphi = r \cdot \left[ \varphi \right]_0^{\frac{\pi}{2}}  = r \cdot \frac{\pi}{2}\)

Beispiel 3 (schräg)

Aus dem obigen “Polardreieck” wird das “nautische Grunddreick“, wo wir wieder den Seiten-Cosinussatz anwenden können, um die Distanz zu berechnen. Die Distanz d zwischen einem Ausgangspunkt \( A = (\lambda_A, \varphi_A) \) zu einem Endpunkt \( B = (\lambda_B, \varphi_B) \) können wir also berechnen als:

\(\Large \cos{d} = \sin{\varphi_A} \sin{\varphi_B} + \cos{\varphi_A} \cos{\varphi_B} \cos{(\lambda_B – \lambda_A)} \ \\ \)

Die Strecke von (0, π/3) nach (π, 0) läuft jetzt “schräg” über unser Koordinatensystem…

\(\Large \cos{d} = \sin{\frac{\pi}{3}} \sin{0} + \cos{\frac{\pi}{3}} \cos{0} \cos{\pi}\)

Das ergibt: \( \Large \cos{d} = \frac{1}{2}\sqrt{3} \cdot 0 + \frac{1}{2} \cdot 1 \cdot (-1) = -\frac{1}{2} \\\ \)

und damit ist die gesuchte Distanz  \( d = \frac{2}{3} \pi \)

Um diese Distanz aus unserem Linienelement zu ermitteln, müssen wir das Linienelement entlang des Bogens von A nach B integrieren.

Dafür wollen wir den Weg zuerst als Funktion \( \varphi = f(\lambda) \) aufschreiben.

Mathematik: Von Pythagoras bis Einstein

Gehört zu:  Mathematik und Physik
Siehe auch: Kosmologie , Quantenmechanik, Mathematik, Komplexe Zahlen
Benötigt: WordPress Plugin LaTeX

Ein bisschen Mathematik

Angeregt von einem Youtube-Video “Top 10 equations that changed to world” wollte ich hier die wichtigsten Errungenschaften der Mathematik und Physik sind darstellen:

  • Der Lehrsatz des Pythagoras  10
  • Der Logarithmen (Napier)   9
  • Differentialrechnung (“Calculus”) und Grenzwerte  (Newton, Leibnitz)  8
  • Das Gravitationsgesetz (Newton)  7
  • Die komplexen Zahlen (Euler,…)  6
  • Wellengleichung   (d’Alembert) 5
  • Fourier Transformation   4
  • Navier Stokes Gleichung   – Aerodynamik  –   3
  • Faraday und Maxwell Gleichungen   2
  • Die Black-Schole-Gleichung   – Finanzmathematik    2
  • Einstein Relativitätstheorie und Schrödinger Quantenmechanik  1

Der Lehrsatz des Pythagoras

Im rechtwinkligen Dreieck mit den Katheten a und b und der Hypotenuse c gilt:

a² + b² = c²

Dies ist die Basis für die Messung von Entfernungen. Hierdurch wird die Geometrie mit der Algebra verbunden.

Auf dieser Basis kann man Entfernungen im Raum (sog. Metriken) mit mathematischen Formeln berechnen; z.B. im drei-dimensionalen Euklidischen Raum:

ds2 = dx2 + dy2 + dz2

In der Kosmologie verwendet man weitergehende Metriken, z.B. die Robertson-Walker-Metrik…

Logarithmen

Vereinfachen der Multiplikation zur Addition z.B. bei komplexen astronomischen Berechnungen….

log(a · b) = log(a) + log(b)

Logarithmische Skalen z.B. bei den Helligkeiten von Himmelsobjekten…

Differentialrechnung

Die Differentialrechnung geht auf Newton (1643-1727) und Leibniz (1646-1716) zurück …

\(  \frac{dx}{dy} = \lim \limits_{h \to 0} \frac{f(x+h)-f(x)}{h} \)
Der Begriff des Grenzwerts (des Limes) wurde erst später von Bernhard Bolzano (1781-1848) und Karl Weierstrass (1815-1897) formal eingeführt.
Newton war es, der die Differentialrechnung in die Physik einführte z.B. Kraft = Masse * Beschleunigung = Impuls abgeleitet nach der Zeit

Das Gravitationsgesetz (Newton)

Die Anziehungskraft zwischen zwei Massen m1 und m2, die eine Entfernung r voneinander entfernt sind, ist:

\( F = G \cdot \frac{m_1 \cdot m_2}{r^2} \)

Wobei G die sog. Gravitationskonstante ist.

Die komplexen Zahlen

Hierzu habe ich einen separaten Blog-Artikel geschrieben: Komplexe Zahlen

Die Wellengleichung (d’Alembert)

Die Wellengleichung, auch D’Alembert-Gleichung nach Jean-Baptiste le Rond d’Alembert (1717-1783), bestimmt die Ausbreitung von Wellen wie etwa Schall oder Licht.

 

Fourier Transformation

Joseph Fourier (1768-1830)

\(\Large f(\epsilon) = \int_{-\infty}^{+\infty} f(x) e^{-2 \pi x \epsilon} dx \)

Wobei ε die Frequenz ist…

“Jede” Funktion wir dargestellt als eine Überlagerung von Sinuswellen mit unterscheidlicher Frequenz….

Navier Stokes Gleichung   – Aerodynamik

Claude Navier (1785-1836) und George Stokes (1819-1903)

Das ist nicht so einfach…

Faraday und Maxwell Gleichungen

Michael Faraday  (1791-1867) und  James Clerk Maxwell (1831-1879)

Für das elektrische Feld E gilt:
\(
\nabla \cdot \vec{E} = 0
,
\nabla \times \vec{E} = \Large -\frac{1}{c} \frac{\partial H}{\partial t}
\)
und für das Magnetfeld H gilt:
\(
\nabla \cdot \vec{H} = 0
,
\nabla \times \vec{H} = \Large \frac{1}{c} \frac{\partial E}{\partial t}
\)

Black Schole Gleichung   – Finanzmathematik

Fischer Black (1938-1995) und Myron Scholes (1941-)

Einstein Relativitätstheorie und Schrödinger Quantenmechanik

Albert Einstein  (1879-1955)  und Erwin Schödinger (1887-1961)

Eine der Voraussetzungen zum Verständnis sind sog. Vektorräume.

Vektorräume verfügen über eine Operation, die Addition genannt wird und eine kommutative Gruppe bildet. Weiterhin muss jeder Vektorraum einen Körper von sog. Skalaren haben, mit denen die Vektoren mutipliziert werden können.

Es gibt den Begriff der “Dimension” eines Vektorraumes…..

Besonders interessant ist das sog. “innere Produkt” (engl. Dot Product) zweier Vektoren…

Bei der Allgemeinen Relativitätstheorie von Einstein benötigt man die Tensoralgebra.

Den Zustand von Quantenmechanischen Teilchen (Systemen) beschreibt die Wellenfunktion und die Schrödinger Gleichung.