Physik: Relativitätstheorie

Gehört zu: Physik
Siehe auch: Kosmologie, Tensoren, Lineare Algebra
Benutzt: WordPress-Plugin Latex

Was ist mit “Relativität” gemeint?

Der Begriff der “Relativität” von physikalischen Vorgängen dreht sich darum, dass ein und dieselbe Beobachtung von verschiedenen Beobachtern in verschiedenen Koordinatensystemen gemacht wird. Bei den oben genannten “physikalischen Vorgängen” handelt es sich um die Messung physikalischer Größen wie:

  • Bestimmung der Zeit
  • Bestimmung des Ortes
  • Bestimmung der Geschwindigkeit
  • Bestimmung des Impulses
  • Bestimmung der kinetischen Energie
  • Lorentz-Kraft
  • Maxwell-Gleichungen

Dabei könnten zwei Beobachter zu übereinstimmenden Ergebnissen kommen (so etwas nennt man dann “invariant”) oder es ergeben sich unterschiedliche Ergebnisse (“variant”). Im letzteren Fall kommt es also immer darauf an, welcher Beobachter diese Messung gemacht hat. Die Ergebnisse sind also “relativ” zu einem bestimmten Beobachter zu sehen.

Im Falle einer solchen Relativität möchte man die Messergebnisse zwischen Beobachtern formelmäßig “transformieren” können. Wir betrachten dafür nur Beobachter, die sich gleichförmig und gradlinig zu einander bewegen, also ohne Beschleunigung. Solche Beobachter bzw. deren Koordinatensysteme (Ort und Zeit) nennen wir “Inertialsysteme“. Ein Beobachter beobachtet Ereignisse, denen er jeweils Ort und Zeit zuordnet.

Solche Ereignisse kann man sich als Punkte in einem sog. Raum-Zeit-Diagramm veranschaulichen, wo die auf der einen Achse die drei Raum-Dimensionen x, y, z auf eine Dimension vereinfacht werden: x. Es bleibt als zweite Achse die Darstellung der Zeit, wobei es sich später als elegant erweisen wird, statt der “echten” Zeit das Produkt aus Lichtgeschwindigkeit und der Zeit, also c · t abzutragen.

Ein Minkowski-Diagramm ist eine ganz einfache grafische Darstellung, nämlich ein rechtwinkliges zweidimensionales Koordinatensystem mit einer Zeitachse und einer Raumachse (also der dreidimensionale Raum auf eine Dimension vereinfacht). Beobachter, die sich gleichförmig und gradlinig bewegen (Inertialsysteme), haben dann als sog. “Weltlinie” eine Gerade.

Weltlinie eines Photons

Mit so einem Raum-Zeit-Diagramm stellen wir also einen 2-dimensionalen Vektorraum dar und suchen nach Transformationen, die Koordinaten eines Ereignisses von einem Koordinatensystem in ein anderes transformieren. Da es sich bei den Koordinatensystemen um Intertialsystem handeln soll, könnten wir vermuten, dass die Transformationen auch ganz einfache sind z.B. Linerare Transformationen, die dann als Matrix dargestellt werden könnten.

Relativität bei Gallileo

Bei Galileo sind die die physikalischen Gesetze, speziell die Bewegungsgleichungen, identisch in allen Inertialsystemen. Es gibt kein bevorzugtes System, was etwa “in Ruhe” wäre. Jede Bewegung muss relativ zu einem Bezugspunkt gemessen werden.

Speziell für Geschwindigkeiten gilt nach Gallileo das auch intuitiv einleuchtende “Additionsgesetz” d.h. wenn ein Beobachter in seinem System ein Objekt mit der Geschwindigkeit v1 misst, dann wird ein anderer Beobachter, der sich relativ zum ersten Beobachter mit der Geschwindigkeit v bewegt, die Geschwindigkeit desselben Objekts zu v2 = v1 + v messen. Wobei da noch die Richtungen berücksichtigt werden müssen, also: \( \vec{v_2} = \vec{v_1} + \vec{v} \)

Auch die Lichtgeschwindigkeit wäre in unterschiedlichen Inertialsystemen unterschiedlich.

Die Galilieo-Transformationsgleichungen wären demnach:

\(  \tilde{t} = t \\ \tilde{x} = -v \cdot t + x \\\)

Was als Galileo-Transformationsmatrix ergibt:

\( F = \left[ \begin{array}{rr} 1 & 0 \\  -v & 1 \\  \end{array} \right] \\ B = \left[ \begin{array}{rr} 1 & 0 \\  v & 1 \\  \end{array} \right] \)

Wobei F (=foreward) und B (=backward) wieder die Identität ergeben.

Youtube Video eigenchris 103d: https://youtu.be/ndjiLM5L-1s

Gallilieo.svg

Gallileo/Newtom-Transformation (blau -> rot)

Bei der Koordinatentransformation nach Gallileo/Newton verschiebt sich “nur” die x-Achse, die Zeit (t) ist in jedem bewegten Inertialsystem gleich. Dadurch würde jede Geschwindigkeit (also auch die Lichtgeschwindigkeit) verändert.

Lorentz & Co.

Die sog. Lorentz-Transformationen entstanden nach 1892 um zunächst die damals vorherschende Äthertheorie in Einklang mit den Ergebnissen des Michelson-Morley-Experiments zu bringen. (Albert A. Michelson 1881 in Potsdam). Die Lorentz-Transformationen wurden erst 1905 von Heny Poicaré (1854-1912)  so formuliert, wie wir sie heute kennen:

\(  c \cdot \tilde{t} = \gamma (ct – \beta x) \\ \tilde{x} = \gamma ( -\beta c t + x) \)

wobei \( \beta = \frac{v}{c}  \) und \( \gamma = \frac{1}{\sqrt{1-\beta^2}} \)

Wobei diese Faktoren so bestimmt sind, dass die Lichtgeschwindigkeit in allen Intertialsystemen gleich ist.

Als Lorentz-Transformationsmatrix ergibt sich:

\( F = \gamma \left[ \begin{array}{rr} 1 & -\beta \\  -\beta & 1 \\  \end{array} \right] \\ B = \gamma \left[ \begin{array}{rr} 1 & +\beta \\  +\beta & 1 \\  \end{array} \right] \)

Youtube Video eigenchris 104b: https://youtu.be/240YGZmV1b0

Lorentz Transformation

Lorentz-Transformation (blau -> rot)

Bei der Lorentz-Transformation werden beide Achsen in Richtung auf die Diagonale gedreht. Dadurch werden die ursprünglichen Quadrate zu Rhomben und die Lichtgeschwindigkeit beibt gleich (die Diagonale). Die Skalierung (also die Achsenteilungen bleiben bei der Lozenz-Transformation so, dass die Flächen der Rhomben gleich den Flächen der ursprünglichen Quadrate sind (Determinante = 1). Für diese Skalierung sorgt der Faktor γ (siehe oben).

SRT Einsteins Spezielle Relativitätstheorie

Albert Einstein hat 1905 die sog. “Spezielle Relativitätstheorie” formuliert. Ausgehend von zwei Postulaten:

  • Die physikalischen Gesetze sind gleich in allen Intertialsystemen
  • Die Lichtgeschwindigkeit im Vakuum ist gleich in allen Intertialsystemen

leitet er daraus erstmals die Lorentz-Transformationen (s.o.) her.

Daraus wiederum ergeben sich die Phänomene:

  • Zeitdilatation
  • Längenkontraktion

SRT Minkowski-Raum – Minkowski-Metrik

Hermann Minkowski (1864-1909) war ein deutscher Mathematiker, der zeitweise auch Einsteins Lehrer in Zürich war.
Ein Minkowski-Diagramm ist ja relativ locker definiert (s.o.) Von einem Minkowski-Raum spricht man, wenn man einen Vektorraum mit einer speziellen Metrik hat. Diese Minkowski-Metrik (siehe dazu: Minkowski-Tensor) wird definiert durch das Linienelement:

ds²  = c² dt² – (dx² + dy² + dz²)

Zwei Ereignisse in unserer Raumzeit e1 = (t1, x1, y1, z1) und e2 = (t2, x2, y2, z2) hätten nach dieser Metrik den Abstand s, der sich wie folgt errechnet:

\(  s^2 = c^2 (t_2 – t_1) – (x_2 – x_1)^2 – (y_2 – y_1)^2 – (z_2 – z_1)^2  \)

Das interessante an der Minkwski-Metrik ist, das sie invariant gegenüber Lorentz-Transformationen ist – was man leicht nachrechnen kann..

In so einem Minkowski-Raum, also mit der Minkowski-Metrik, lässt sich die Spezielle Relativitätstheorie (SRT) demnach sehr einfach grafisch darstellen eben weil diese Metrik Lorentz-invariant ist.

Man sagt auch: Wenn man unser Universum als Minkowski-Raum verstehen wollte, mit dieser Metrik,  wäre das ein “flacher” Raum, also nicht gekrümmt (so zu sagen ohne Gravitation).

Für den Abstand zweier Ereignisse können wir unterscheiden:

  • \( s^2 > 0 \) : Der Abstand ist “raumartig”
  • \( s^2 < 0 \) : Der Abstand ist “zeitartig”
  • \( s^2 = 0 \) : Der Abstand ist “lichtartig”

Auf eine Raum-Dimension vereinfacht, ist der Minkowski-Abstand also:

\( s^2 = c^2 t^2 – x^2 \)

Wenn wir als Beispiel s = 1 (raumartiger Abstand) nehmen, erhalten wir ein Hyperbel im Minkowski-Diagramm. Dort liegen also alle Punkte im ursprünglichen Bezugssystem (x,ct), die eine Abstand 1 vom Koordinatenursprung haben. Da dieser Anstand invariant ist, liegt dort also auch für jedes transformierte Bezugssystem (x’, ct’) der Punkt auf der transformierten Raum-Achse, der einen Abstand 1 vom Ursprung hat.
Wir müssen also immer daran denken, dass im Minkowski-Raum nicht die vom Diagramm “vorgegaukelte” Euklidische Geometrie gilt, sondern der Minkowski-Abstand.

Hyperbel.svg

Minkowski-Metrik

Einstein ART (Allgemeine Relativitätstheorie)

In Einsteins Allgemeiner Relativitätstheorie geht es um die Gravitation….

Bekannt sind seine berühmten sog. Feldgleichungen:

\( \Large R_{\mu \nu} – \frac{1}{2} R g_{\mu \nu} + \Lambda g_{\mu \nu} = \frac{8 \pi G}{x^4} T_{\mu \nu} \\\)

Worin auch der Metrik-Tensor \( g_{\mu \nu} \) vorkommt. Gemäß Konvention laufen μ und ν = 0,1, 2, 3 wobei 0 die Zeit-Koordinate bedeutet.

 

Mathematik: Tensoren

Gehört zu: Mathematik

Siehe auch: Diriac-Notation, QuantenmechanikVektorräume, Lineare Algebra

Benutzt: WordPress-Plugin Latex

Was sind Tensoren?

Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Tensoren.

Der Begriff “Tensor” wurde im 19. Jahuhundert relativ unsystematisch bei verschiedenen physikalischen Berechnungen eingeführt.

Darüber gibt es schöne Youtube-Videos von “eigenchris”:  https://youtu.be/sdCmW5N1LW4

Als Vorbereitung dazu habe ich zuerst mal etwas zu Vektorräumen zusammengestellt.

Auffrischung

Wir hatten ja im Artikel über Vektorräume schon gesehen, dass Vektoren Objekte sind, die unabhängig von Koordinatensystemen exsistieren und auch gegenüber einem Wechsel von Koordinatensystemen “invariant” sind. Nur die Komponenten der Vektoren verändern sich dann, nicht aber die Vektoren selber.

Invarianz bedeutet allgemein gesagt, dass ein und dasselbe Objekt verschieden beschrieben (“repräsentiert”) werden kann von verschiedenen Standpunkten (Koordinatensystemen) aus.

Unsere Koordinatensysteme beruhen immer auf einer Menge von sog. Basisvektoren.

Wie verhalten sich dann Vektoren und ihre Komponenten bei einem Wechsel des Koordinatensystems (also der Basisvektoren)?

Im Gegensatz zum invarianten Vektor selbst, verändern sich seine Komponenten bei Änderung der Basis.

Wir sahen, dass wenn sich die Längen der Basisvektoren verlängern, sich die Komponenten von Vektoren verkleinern. Deshalb hatten wir diese Vektoren “kontravariant” genannt.

So ein kontravarianter Vektor ist ein erstes Beispiel für einen Tensor. Ein zweites Beispiel für einen Tensor sind die sog. Co-Vektoren…

Allgemein gesagt bedeutet Kontravarianz, dass wenn ein Ding größer wird, ein anderes Ding kleiner wird. Covarianz dagegen bedeutet, dass die Veränderungen in die gleiche Richtung gehen.

Co-Vektoren

Im Gegensatz zu den “herkömmlichen” kontravarianten Vektoren, die wir als Spalte schreiben, schreiben wir Co-Vektoren als Zeilen.

Dazu hat “eigenchris” ein schönes Youtube-Video gemacht: https://youtu.be/LNoQ_Q5JQMY

In der Sichtweise von Koordinaten macht ein Co-Vektor also folgendes:

\( \Large  \left[  \begin{matrix} a & b & c  \end{matrix} \right] \cdot \left[ \begin{array}{r} x \\\ y \\\ z  \end{array} \right] = ax+by+cz \)

Abstrakt formuliert bildet ein Co-Vektor also Vektoren auf Skalare ab.

Rank 2 Tensoren

Generell soll ein Tensor ja invariant bei einer Koordinatentransformation sein.

Lediglich die “Darstellung” eines Tensors erfolgt mit Komponenten (Koordinaten).

Uns interessieren hier in erster Linie sog. Rank 2 Tensoren. Solche Rank 2 Tensoren können immer als “normale” Matrix mit Zeilen und Spalten dargestellt werden  (Zeilen und Spalten -> Rank 2). So ein Rank 2 Tensor kann aber auch ganz einfach in sog. Index-Schreibweise dargestellt werden z.B. Tij oder g μν (Anzahl Indices = Rank).

 

 

Computer: Mathematik – Vektorräume – Lineare Algebra

Gehört zu: Mathematik

Siehe auch: Diriac-Notation, Tensor-Algebra, Relativitätstheorie

Benutzt: WordPress-Plugin Latex

Was ist ein Vektorraum?

Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Vektorräume.

Es gibt dazu eine Menge Videos auf Youtube; z.B. von 3Blue1Brown:  https://youtu.be/fNk_zzaMoSs  – Playlist: https://goo.gl/R1kBdb

Vektorräume verfügen über eine Operation, die Addition genannt wird und eine kommutative Gruppe bildet. Weiterhin muss jeder Vektorraum einen Körper von sog. Skalaren haben, mit denen die Vektoren mutipliziert (“skaliert”) werden können. Man spricht dann von einem Vektorraum “über” einem Körper seiner Skalaren.

Der Physiker stellt sich Vektoren gern als “Pfeile” vor, die also eine Richtung und eine Länge haben, also eher “geometrisch“. Der Computer-Mensch stellt sich Vektoren eher als Liste von Koordinaten vor (Vektor = Liste) – wozu man aber ersteinmal ein Koordinatensystem haben muss. Der abstrakte Mathematiker sagt, Vektoren sind einfach “etwas”, was man addieren kann (Gruppe) und was man mit “Skalaren” skalieren kann – fertig, einfach ein paar Axiome und das war’s.

Geschrieben werden Vektoren meist als eine Liste von Koordinaten, aber nicht waagerecht, sondern senkrecht angeordnet (bei waagerechter Anordnung denkt man eher an einen Punkt im Raum).

\( \Large \vec{v} = \left( \begin{array}{c} x \\\ y \\\ z  \end{array}\right) \)

oder auch in eckigen Klammern:

\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z  \end{array} \right] \)

Wenn ich Vektoren als Liste von Koordinaten schreiben will, muss ich ersteinmal ein Koordinatensystem haben.

Vektoren, und das ist wichtig, exisitieren auch ohne Koordinatensysteme, also einfach geometrisch im Raum. Unabhängig von einem Koordinatensystem hat jeder Vektor eine Länge und eine Richtung. Dies sind also sog. “Invarianten”; d.h. bei Änderung des Koordinatensystems ändern sich diese Eigenschaften nicht.
Also: Vektoren ansich sind invariant gegenüber einem Wechsel des Koordinatensystems. Aber die Vektorkomponenten verändern sich beim Wechsel des Koordinatensystems, sind wie man sagt “variant“. Wie Vektorkomponenten bei Wechsel des Koordinatensystems hin- und hergerechnet werden können, behandeln wir weiter unten. So ein Vektor ist damit der Sonderfall eines Tensors, nämlich ein Tensor vom Rang 1.

Für die Länge eines Vektors (man sagt auch “Norm”) schreibt man:  \( \Large ||  \vec{v}  ||  \)

Für den Winkel zwischen zwei Vektoren schreibt man: \( \Large  \angle \left( \vec{v}, \vec{w} \right)  \)

Das innere Produkt zweier Vektoren (auch Skalarprodukt genannt) ist dann – unabhängig von einem Koordinatensystem – definiert als:

\( \Large \vec{v} \cdot \vec{w} = ||  \vec{v} || \enspace || \vec{w} || \cos(\angle \left( \vec{v}, \vec{w} \right)) \)

Als Schlussfolgerung kann man die Länge eines Vektors auch per innerem Produkt darstellen als:

\( \Large || \vec{v} ||  = \sqrt{\vec{v} \cdot \vec{v}} \)

Basis, Koordinatensystem, Dimension

In einem Vektorraum kann ich viele Koordinatensysteme haben. Jedes Koordinatensystem ist bestimmt durch eine Menge sog. Basis-Vektoren.

Die “Basis” eines Vektorraums besteht aus einer Menge von Vektoren, mit denen man den gesamten Vektorraum “aufspannen” kann. Wobei “Aufspannen” bedeutet, dass jeder Vektor des Vektorraums als sog. Linearkombination aus den Basis-Vektoren hergestellt werden kann. Eine solche “Linearkombination” ist eine Summe von Basis-Vektoren, die mit geeigneten Skalaren multipliziert wurden.

Beispiel für eine Linearkombination:

\( \Large a  \vec{v} + b \vec{w} + c \vec{u} \)

Ganz genau genommen, spannt eine Basis nicht nur den ganzen Vektorraum auf (das wäre ein Erzeugendensystem), sondern enthält dabei eine minimale Anzahl von Vektoren (was äquivalent ist mit der eindeutigen Darstellung aller Vektoren des Vektorraums in Form von Linearkombinationen).

Eine Einheitsbasis (normal basis) ist eine Basis, bei der alle Basisvektoren die Länge 1 haben (“auf die Länge 1 normiert sind”).

Beispiel für eine Basis (im Vektorraum \(\mathbb{R}^3\) ):

\( \hat{i} =\left[ \begin{array}{c} 1 \\\ 0 \\\ 0  \end{array} \right]   \hat{j} =\left[ \begin{array}{c} 0 \\\ 1 \\\ 0  \end{array} \right] \hat{k} =\left[ \begin{array}{c} 0 \\\ 0 \\\ 1  \end{array} \right] \)

Und man schreibt dann auch gerne:

\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z  \end{array} \right] = x \hat{i} + y \hat{j} + z \hat{k}\)

Ein Vektorraum kann mehrere Basen haben, die jeweils ein Koordinatensystem definieren. Dabei werden die Koordinaten (Komponenten) ein und desselben Vektors in verschiedenen Koordinatensystem auch verschieden sein, der Vektor selbst aber ist “invariant”. Wenn man einen Vektor als Liste von Koordinaten hinschreibt, muss man immer sagen. welche Basis gemeint ist.

Ein Vektorraum kann mehrere Basen haben, aber die Anzahl der Vektoren in einer Basis ist immer die gleiche. Diese Anzahl nennt man “Dimension” des Vektorraums.

Lineare Transformationen

Lineare Transformationen sind Transformationen, bei denen Geraden Geraden bleiben und der Null-Punkt (Origin) unverändert bleibt.
Genauer gesagt, bleiben Parallelen parallel und die Koordinatengitter gleichmäßig unterteilt. Man kann das auch abstrakt durch zwei Formeln ausdrücken:

\( L(\vec{v} +  \vec{w}) = L(\vec{v}) +  L(\vec{w})  \)

und

\( L(c \vec{v}) = c L(\vec{v}) \\ \)

Eine Lineare Tranformation kann eindeutig beschrieben werden durch die Werte auf die die Basis-Vektoren abgebildet (transformiert) werden.

Beispielsweise heisst das im Vektorraum \(\mathbb{R}^2\) mit dem kanonischen Koordinatensystem und den Basisvektoren \( \hat{i} \) und \( \hat{j}  \) folgendes:

Wenn wir einen Vektor \( \vec{v} = \left[ \begin{array}{c} x \\\ y  \end{array} \right] = x \hat{i} + y\hat{j} \) betrachten, so wirkt eine Lineare Transformation L wie folgt:

\( L(\vec{v}) = x L(\hat{i}) + y L(\hat{j} )  \)

Wenn wir also die transformierten Basisvektoren \( L(\hat{i}) \) und \( L(\hat{j}) \)  kennen, ist damit die Lineare Transformation L vollständig festgelegt.

Diese transformierten Basis-Vektoren können im verwendeten Koordinatensystem als Matrix schreiben.

Wenn bei unserer Linearen Transformation beispielsweise \( L(\hat{i}) = \left[ \begin{array}{c} 3 \\\ -2  \end{array} \right] \)   und \( L(\hat{j}) = \left[ \begin{array}{c} 2 \\\ 1  \end{array} \right] \)  wäre, bekämen wir eine Matrix:

\(\left[ \begin{array}{rr} 3 & 2 \\  -2 & 1 \\  \end{array} \right] \)

Wir schreiben also in den Spalten der Matrix die transformierten Basisvektoren. Die Lineare Transformation könnte im benutzten Koordinatensystem als Matrixmultiplikation aufgefasst werden:

\(\left[ \begin{array}{rr} 3 & 2 \\  -2 & 1 \\  \end{array} \right]  \left[ \begin{array}{c} x \\\ y  \end{array} \right] = x  \left[ \begin{array}{c} 3 \\\ -2  \end{array} \right] + y  \left[ \begin{array}{c} 2 \\\ 1  \end{array} \right] = \left[ \begin{array}{c} 3x+2y \\\ -2x+1y  \end{array} \right]\)

Völlig analog werden auch Lineare Transformationen in drei oder mehr Dimensionen behandelt.

Wechsel von Koordinatensystemen

Wenn wir zwei Koordinatensysteme betrachten, dann haben die also zwei Basen (wir nennen sie “alte Basis” und “neue Basis”). Intuitiv ist klar, dass wenn die neue Basis z.B. längere Basisvektoren hat, dann sind die Vektorkomponenten kürzer (weil ja der gleiche Vektor wieder herauskommen soll). Die Vektorkomponenten verhalten sich also “umgekehrt” wie die Längen der Basisvektoren. Deshalb nennt man diese Vektoren “kontravariant“.

Wir können das auch haarklein ausrechnen:

  • Die “alte Basis” sei: \( \vec{e}_i  \)
  • Die “neue Basis” sei: \( \tilde{\vec{e}}_i  \)

Dann transformieren sich die Basisvektoren wie folgt:

Alt -> Neu (“Foreward”):

\(  \tilde{\vec{e}}_i =  \sum\limits_{k=1}^{n} F_{ki} \vec{e_k}\)

Neu -> Alt (“Backward”):

\(  \vec{e}_i =  \sum\limits_{j=1}^{n} B_{j i} \widetilde{\vec{e_j}}\)

Für die Komponenten eines Vektors \( \vec{v} \) gilt dann die umgekehrte Richtung (deshalb nennt man sie “kontravariant“)

Alt -> Neu:

\( \tilde{v_i} = \sum\limits_{j=1}^{n} B_{ij} v_j  \)

Neu -> Alt

\( v_i = \sum\limits_{j=1}^{n} F_{ij}\tilde{v_j}   \)

Berechnung der Länge eines Vektors aus seinen Komponenten

Wir sind ja gewöhnt, die Länge eines z.B. dreidimensionalen Vektors über seine Koordinaten und den Lehrsatz des Pythagoras zu berechnen:

Im Beispiel sei der Vektor \( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3  \end{array} \right] \)

Dann wäre die Länge dieses Vektors gegeben durch: \( || \vec{v} ||= \sqrt{v_1^2 + v_2^2 + v_3^2} \)  (der gute alte Pythagoras)

In verschiedenen Koordinatensystemen würde dieser Vektor aber mit verschiedenen Koordinaten (Komponenten) beschrieben und es würden mit obiger Formel dann unterschiedliche Längen heraus kommen.

Uns ist ja klar, dass wir zu den Koordinaten (Komponenten) eines Vektors auch immer angeben müssen, in welchem Koordinatensystem diese gemessen werden; d.h. wir müssen zu den Koordinaten die dazugehörige Basis angeben – und berücksichtigen.

Wenn wir als Basis allgemein schreiben: \( \vec{e}_i  \)

dann können wir mit den Komponenten unseres Vektors zu dieser Basis schreiben:

\( \Large \vec{v} = \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3  \end{array} \right] = v_1 \vec{e}_1 + v_2 \vec{e}_2 + v_3 \vec{e}_3\)

Im Spezialfall der orthonormalen Basis:

\( \vec{e}_1 = \hat{i}, \vec{e}_2 = \hat{j}, \vec{e}_3 = \hat{k}   \)

hätten wir die Länge unseres Vektors nach Pythagoras (s.o.); mit den Koordinaten zu einer anderen Basis müssten wir umrechnen…

Länge eines Vektors in einem beliebigen Koordinatensystem.

Wir hatten die Länge eines Vektors unabhängig von einem Koordinatensystem (also invariant) definiert über:

\( \Large {||  \vec{v}  ||}^2 = \vec{v} \cdot \vec{v} \\\)

Wir nehmen jetzt ein beliebiges Koordinatensystem definiert durch seine Basisvektoren \( \vec{e}_i\).
Dann können wir die Länge des Vektors wie folgt aus seinen Komponenten (Koordinaten) berechnen:

\( \Large  ||  \vec{v} ||^2 = (v_1 \vec{e}_1 + v_2 \vec{e}_2 + v_3 \vec{e}_3) \cdot(v_1 \vec{e}_1 + v_2 \vec{e}_2 + v_3 \vec{e}_3) \\ \)

Wenn wir das ausmultiplizieren bekommen wir:

\( \Large ||  \vec{v} ||^2 =  \sum\limits_{ij} v_{ij}   \enspace \vec{e}_i \cdot \vec{e}_j \\ \)

Um die Länge eines Vektors in einem beliebigen Koordinatensystem zu ermitteln, benötigen wir also “lediglich” alle Kombinationen der inneren Produkte der Basisvektoren dieses Koordinatensystems; d.h. alle \( \vec{e}_i \cdot \vec{e}_j \)

Als Matrix können wir diese Produkte so hinschreiben:

\(\Large g =  \left[ \begin{array}{rrr} \vec{e}_1 \cdot \vec{e}_1 & \vec{e}_1 \cdot \vec{e}_2 & \vec{e}_1 \cdot \vec{e}_3\\  \vec{e}_2 \cdot \vec{e}_1 & \vec{e}_2 \cdot \vec{e}_2 & \vec{e}_2 \cdot \vec{e}_3 \\  \vec{e}_3 \cdot \vec{e}_1 & \vec{e}_3 \cdot \vec{e}_2 & \vec{e}_3 \cdot \vec{e}_3 \end{array} \right]  \\\)

Diese Matrix g nennt man auch den Metrik-Tensor des Koordinatensystems.

Mit Hilfe dieses Metrik-Tensors ergibt sich dann die Länge des Vektors \(\vec{v}\) ganz einfach als Matrixprodukt:

\(\Large || \vec{v} ||^2  =  \left[ \begin{array}{c} v_1 & v_2 & v_3  \end{array} \right]  g  \left[ \begin{array}{c} v_1 \\\ v_2 \\\ v_3  \end{array} \right] \\\)

Ganz allgemein kann man mit diesem Metrik-Tensor das innere Produkt zweier Vektoren aus den Komponenten berechnen:

\( \Large \vec{v} \cdot \vec{w} =  \left[ \begin{array}{c} v_1 & v_2 & v_3  \end{array} \right]  g  \left[ \begin{array}{c} w_1 \\\ w_2 \\\ w_3  \end{array} \right] \)

Das funktioniert, weil der Metrik-Tensor nicht “irgendeine” Matrix ist, sondern “invariant” ist; d.h. unabhängig vom gewählten Koordinatensystem kommt immer das gleiche Ergebnis heraus.

Der Metrik-Tensor

Der Metrik-Tensor definiert also eine (bilinerare) Abbildung:

\(  g: V \times V \to \mathbb{R} \\\)

Dies ist auch im Prinzip der Metrik-Tensor, der in den Einsteinschen Feldgleichungen als \( g_{\mu \nu} \) vorkommt.

Oben hatten wir das innere Produkt zweier Vetoren ja versucht unabhängig von einem Koordinatensystem zu definieren.
Man kann das Ganze nun aber auch umgekehrt “aufzäumen”.  Wenn wir einen Vektorraum und eine Basis haben (damit also ein Koordinatensystem), brauchen wir nur noch einen Metrik-Tensor “g” und können damit ein inneres Produkt zwischen zwei Vektoren v und w als schlichte Matrix-Multiplikation definieren:

\( \Large \vec{v} \cdot \vec{w} =  \vec{v}^T   \enspace g  \enspace \vec{w} \\ \)

Wobei das hochgestellte T “transponiert” meint. So wird aus einem Spaltenvektor ein Zeilenvektor.

Beispielsweise definiert der folgende Metrik-Tensor die übliche Metrik für alle Koordinatensysteme mit einer orthonormaler Basis – denn das innere Produkt verschiedener Basisvektoren ist Null (weil orthogonal) und das innere Produkt eines Basisvektors mit sich selbst ist 1 (weil Länge 1):

\(\Large g =  \left[ \begin{array}{rrr} 1 & 0 & 0\\  0 & 1 & 0 \\  0 & 0 & 1 \end{array} \right]  \\\)

Das gilt z.B. für ein “normales” Koordinatensystem im Euklidischen Raum.
Mit dieser Metrik ist die Länge eines Vektors also:
\( || \vec{v} ||^2 = v_1^2 + v_2^2 + v_3^2 \)
und diese Länge ist invariant gegenüber Koordinatentransformationen.

Und eine Minkowski-Metrik wird definiert durch den Metrik-Tensor:

\(\Large \eta =  \left[ \begin{array}{rrrr} 1 & 0 & 0 & 0\\  0 & -1 & 0  & 0\\  0 & 0 & -1 & 0\\ 0 & 0 & 0 & -1\end{array} \right]  \\\)

Mit dieser Metrik wäre die Länge eines Vektors also gegeben durch:

\( || \vec{v} ||^2  =  v_1^2 – v_2^2 – v_3^2 – v_4^2\)

Diese so definierte Länge wäre invariant gegenüber Lorentz-Transformationen, die wir später in der Speziellen Relativitätstheorie kennenlernen werden.

Bilineare Formen

Der Begriff “Form” wird traditionell gerne verwendet, wenn eine Abbildung Vektoren als Definitionsbereich hat.

Wir betrachten jetzt mal ganz allgemein Abbildungen

\( \mathbb{B}: V \times V \to \mathbb{R} \)

So eine Abbildung heist “bilinear” (später sagen wir “multilinear”), wenn eine “Scaling Rule” und “Addition Rules” erfüllt sind.

Scaling Rule:

\(  a B(\vec{v}, \vec{w}) = B(a \vec{v}, \vec{w}) = B(\vec{v}, a \vec{w}) \\\)

Addition Rules:

\( B(\vec{v} + \vec{u}, \vec{w}) = B(\vec{v}, \vec{w}) + B(\vec{u}, \vec{w}) \)

und

\( B(\vec{v}, \vec{w} + \vec{t}) = B(\vec{v},\vec{w}) + B(\vec{v}, \vec{t}) \\\)

Ein Metrik-Tensor ist eine spezielle Bilineare Abbildung, die erstens symmetrisch ist und zweitens immer positive Werte liefert.

Was ist ein Tensor?

Der oben beschriebene Metrik-Tensor ist ein Tensor vom Rank 2. D.h. eine zweidimensionale (also “normale”) Matix, die sich bei Transformation der Koordinatensysteme “freundlich” verhält, sodass wir von “Invarianz” sprechen können.

Allgemein und formal ist ein Tensor T eine multilineare Abbildung von einem cartesischen Produkt von Vektorräumen über einem gemeinsamen Körper von Skalaren in diesen Skalaren-Körper:

\( T: V_1 \times V_2 \times … \times V_n \to K \)

Wobei die \(V_i\) Vektorräume über K sind.

Das allgemeine Thema “Tensor” ist mathematisch vielschichtig, deshalb habe ich begonnen, einen separaten Artikel darüber zu geschrieben.

Link: https://youtu.be/8ptMTLzV4-I

Determinante und Rank

Diese Konzepte werden in Video 6 und Video 7 behandelt.

Bei einer Linearen Transformation wird die Fläche des Quadrats aus den Basisvektoren  um einen Faktor “transformiert”. Damit wird auch jede beliebige Fläche um diesen Faktor “transformiert”. Diesen “Faktor” nennen wir die Determinante der Linearen Transformation.

Entsprechend ist das auch in höheren Dimensionen z.B. mit drei Dimensionen, wo die Größe des Volumens transformiert wird.

Eine negative Determinante bedeutet, dass sich bei der linearen Transformation die “Orientierung” des Vektorraums umkehrt.

Der Rank meint die Dimension des Ausgaberaums einer Linearen Transformation. Wenn der Rank einer Transformation nicht die volle Dimension (“full rank”) unseres Vektorraums ist, ist die Determinante dieser Transformation natürlich Null, aber der Rank kann etwas differenzierter aussagen was da los ist z.B. der Rank einer 3-dimensionalen Matrix (Transformation) könnte 2 sein, dann ist der Ausgaberaum eine Ebene (2 Dimensionen), wenn der Rank 1 wäre, hätten wir als Ausgaberaum eine Linie (eine Dimension) etc. Dieser “Ausgaberaum” wird auch “Column Space” genannt, weil die Spaltenvektoren diesen aufspannen…

Vektorfelder und Skalarfelder

Was meint man mit dem Begriff “Feld”?

Das Wort “Feld” wird gerne gebraucht, wenn eigentlich eine ganz normale Abbildung (auch manchmal Funktion genannt) gemeint ist – “just to confuse the Russians”.

Jenachdem ob der Wertebereich ein Vektorraum oder ein Körper (von Skalaren) ist, spricht man von “Vektorfeld” oder “Skalarfeld”.

Der Definitionsbereich der Abbildung (Funktion) wird dabei offen gelassen.

Beispiele

  • Wenn wir jedem Punkt im Raume seine Temperatur zuordnen, haben wir ein Skalarfeld.
  • Wenn wir jedem Punkt auf einer Landkarte die Höhe über dem Meeresspiegel zuordnen, haben wir ein Skalarfeld.
  • Wenn wir jedem Punkt auf einer Landkarte die Windrichtung und Windstärke zuordnen, haben wir ein Vektorfeld.
  • Wenn wir jedem Punkt im Raum die Richtung und Stärke der Gravitationskraft zuordnen (wäre mit einem kleinen Probekörper zu bestimmen), haben wir ein Vektorfeld, genannt Gravitationsfeld
  • Ein elektrisches Feld (ein Vektorfeld) gibt für jeden Punkt im Raum die Richtung und Stärke der elektrischen Kraft an, die auf ein kleines Probeteilchen der elektrischen Ladung +1 wirkt
  • Ein magnetisches Feld (ein Vektorfeld) gibt für jeden Punkt im Raum die Richtung und Stärke der magnetischen Kraft an, die auf ein kleines Probeteilchen wirkt

Visuelle Veranschaulichung von Feldern

Skalarfelder kann man beispielsweise durch Linien im Definitionsbereich, die alle einen gleichen Skalarwert haben, veranaschaulichen (z.B. Isotermen, Isohypsen etc.)

Vektorfelder veranschaulicht man sich gerne durch sog. “Feldlinien”.

Computer: Mathematik – Statistik

Mathematik: Statistik (aus Wiki)

Immer wieder werde ich als gelernter Mathematiker nach elementaren Themen der Statistik gefragt.

Ich habe einen schönen Einführungskurs in die Statistik bei der Universität Newcastle, Australien, gefunden:

http://www.anu.edu.au/nceph/surfstat/surfstat-home/t-table.html

http://www.anu.edu.au/nceph/surfstat/surfstat-home/

Statistik

Typen von Variablen (“Metriken”)

Qualitativ / Quantitativ

Man spricht von “qualitativen” Variablen, wenn die Beobachtungen durch Kategorien beschrieben werden.
Beispiele:

  • Augenfarbe: braun, grau, blau,…
  • Delivery Model: insourced, outsourced
  • Performance Rating: Less than Acceptable, Inconsistent, Fully Successful, Exceeds, Exceptional

Eine qualitative Variable heist “ordinal”, wenn es eine natürliche Reihenfolgebeziehung zwischen den Kategorien gibt, (Beispiel: Performance Rating).

Eine qualitative Variable heisst “nominal”, wenn es keine natürliche Reihenfolgebeziehung gibt, (Beispiel: Augenfarbe).

Man spricht von “quantitativen” Variablen, wenn die Beobachtungen durch numerische Werte beschrieben werden, d.h. durch Zählen oder Messen zustande kommen.
Beispiele:

  • Alter
  • Körpergröße
  • Anzahl Personen im Haushalt
  • Anzahl gerauchter Zigaretten am Tag
  • Einkommen im Jahr

Eine quantitative Variable heisst “diskret”, wenn die Beobachtungen ganzzahlige Werte sind (Beispiel: Anzahl Personen im Haushalt).

Eine quantitative Variable heisst “stetig” (continous), wenn sie durch (im Prinzip) beliebige Zahlen dargestellt wird (Beispiel: Körpergröße).

Normalverteilung mit Perzentil

Fragestellung zu einer Normalverteilung N(My,Sigma):

  • Gegeben sei My und P25
  • Gesucht ist Sigma
  • Lösung: sigma = (P25 – My) / NormInv(0,25; 0; 1)

Im übrigen gilt sowieso: P25 = NormInv(0,25; My; Sigma)

Logarithmische Normalverteilung

Zur Logarithmischen Normalverteilung habe ich einen gesonderten Artikel geschrieben.

Beta-Verteilung

Zur Beta-Verteilung habe ich einen gesonderten Artikel geschrieben.

Dkracht 12:29, 24 March 2008 (CET)

Astronomie: Sphärische Trigonometrie

Gehört zu: Mathematik
Siehe auch: Tägliche Bewegung der Gestirne, Diagramm
Benötigt: WordPress Latex-Plugin, WordPress Plugin Google Drive Embedder

Was ist Sphärische Trigonometrie?

Die Ebene Trigonometrie ist die Lehre von den Dreiecken in der Ebene.

Die Sphärische Trigonometrie ist die Lehre von den Dreiecken auf einer Kugeloberfläche. Solche Dreiecke werden durch Abschnitte von Großkreisen gebildet.

Das Polar-Dreieck auf der Himmelskugel

Zur Umrechnung eines Koordinatensystems in ein anderes zeichnet man sich ein sog. Polar-Dreieck, in dem die “Pole” (“Drehpunkte”) beider Koordinatensysteme vorkommen.

Zur Umrechnung der äquatorialen Koordinaten Deklination (δ) und Stundenwinkel (t) in die horizontalen Koordinaten Höhe (h) und Azimuth (A) wird das sog. Polar-Dreieck wird gebildet durch den Himmelspol (N), den Zenit (Z) und ein Himmelsobjekt (O).

Im Polardreieck sind die Abstände (Bogenlängen):

  • vom Himmelspol zum Zenit: 90° – φ
  • vom Himmelspol zum Himmelsobjekt: 90° – δ
  • vom Zenit zum HImmelsobjekt: z = 90° – h

Im Polardreieck sind die Winkel an den Ecken des Dreiecks:

  • Winkel am Himmelspol: Stundenwinkel t (oder τ)
  • Winkel am Zenith: 180°  – A   (A = Azimuth von Süden)

Link: https://de.wikibooks.org/wiki/Astronomische_Berechnungen_f%C3%BCr_Amateure/_Druckversion#Koordinatentransformationen

MIt dem Seiten-Cosinussatz errechnet man den Cosinus der Länge einer Seite aus den Längen der beiden anderen Seiten und dem gegenüberliegenden Winkel:
\(\cos z = \cos (90° – \phi) \cos (90° – \delta) + \sin (90° – \phi) \sin (90° – \delta) \cos t\)

Was schließlich heisst:
\(\sin h = \sin \phi \sin \delta + \cos \phi \cos \delta \cos t \)

Der Cotangens-Satz im Polardreieck sagt:

\(   \cos (90° – \phi)  \cos t = \sin(90° – \phi) \cot (90° – \delta) – \sin t \cot(180° – A)  \)

Trigonometrisch umgeformt ergibt das:
\(  \sin \phi \cos t = \cos \phi \tan \delta – \Large\frac{\sin t}{\tan A}  \)

Aufgelöst nach A ergibt sich:

\(   \tan A = \Large\frac{\sin t}{\sin \phi \cos t – \cos \phi \tan \delta} \)

MIt Hilfe dieser Koordinatentransformation kann man für jedes bekannte Himmelsobjekt (Deklination und Rektaszension) die scheinbare tägliche Bewegung am Himmel berechnen – siehe dazu: Die scheinbare tägliche Bewegung der Gestirne.

 

https://drive.google.com/file/d/1KsWze0RuemuXoe755Z_glIkhA2pTGilH/view?usp=drive_web

Physik: Quantenmechanik

Gehört zu: Physik
Benötigt: WordPress Latex-Plugin
Siehe auch: Kosmologie, Teilchenphysik, Komplexe Zahlen, Lineare Algebra

Max Planck

Flammarion Holzschnitt (Wikipedia)

Max Planck (1858-1947) konnte im Jahre 1900 ein Strahlungsgesetz entwickeln, das zeigt welche Strahlungsenergie ein “Schwarzer Strahler” einer bestimmten Temperatur (T) in Anhängigkeit von der Wellenlänge (oder Frequenz “ν”) der Strahlung aussendet.

Die früheren Formeln (Hypothesen) z.B. von Rayleigh-Jeans waren nur Teilerfolge, da sie in der sog. “Ultraviolettkatastrophe” endeten.

Plancks Strahlungsgesetz ist eigentlich nur eine Formel wie viele andere in der Physik auch, die endlich die Verteilung der Strahlungsenergie in Abhängigkeit von der Wellenlänge/Frequenz der Strahlung “richtig” darstellt.

\( \Large \frac{8 \cdot \pi  \cdot h \cdot \nu^3}{c^3} \cdot \frac{1}{e^\frac{h \nu}{k T} – 1}\)

In Plancks Formel kommt eine vom ihm so genannte “Hilfskonstante” h vor, die später als das legendäre Plancksche Wirkungsquantum interpretiert wurde. Die physikalische Größe “Wirkung” bezeichnet eine Energie (Joule), die in einer bestimmten Zeit  (Sekunden) etwas “bewirkt”. Die Planck’sch Hilfskontante ist:

h = 6,626069 ⋅ 10-34 J ⋅ s

h = 6,626 069 10 34 J s

Häufig hört man, dass aus Plancks Formel angeblich die Übertragung der Energie in sog. Quanten (ganzzahlige Vielfache  von h mal ν) folgt. Das kann man aber aus der Formel selbst überhaupt nicht ableiten. Vielmehr ist es so, dass Planck (angeblich) auf diese Formel kam indem er elektromagnetische Strahlung (das Licht) als Teilchen modellierte, die sich wie ein Gas verhalten sollten. Die unterschiedlichen Geschwindigkeiten solcher Teilchen modelliert Planck als unterschiedliche Wellenlängen der Strahlung…

Ein solches Teilchen sollte eine von der Frequenz seiner Strahlung abhängige Energie haben. Das ist die zentrale Formel (Quantenhypothese) von Planck:   \(E = h \cdot \nu \)

Die Formeln für das Strahlungsgesetz hat Planck zunächst durch Probieren herausgefunden und dann später eine Herleitung auf Basis seiner Quantenhypothese gefunden. Planck glaubte jedoch damals noch nicht an eine allgemeine Quantelung, diese war nur eine Annahme, um die Theorie in Einklang mit den Messungen bringen zu können.

Einstein (1879-1955) benutzte gequantelte Photonen mit der Energie \(E = h \cdot \nu \), um den photoelektrischen Effekt zu erklären.

Nach Einstein nimmt die Intensität von Licht dadurch zu, dass mehr Photonen mit der gleichen Energie pro Zeiteinheit abgestrahlt werden. Der photoelektrische Effekt wirkt aber erst dann, wenn das einzelne Photon die erforderliche Energie hat, um Elektronen aus dem Basismaterial herauszulösen. Es ist also nicht eine bestimmte hohe Intensität des Lichts erforderlich, sondern eine bestimmte hohe Frequenz, um die Auslösearbeit zu leisten…

Der Erfolg dieser Theorien brachte Niels Bohr (1885-1962) dazu, so eine Quantelung auch für die Elektronenzustände in seinem Atommodell anzunehmen.

Quelle: http://www.quantenwelt.de/quantenmechanik/historisch/schwarze_korper.html

Siehe auch: Wiensches Verschiebungsgesetz, Stefan-Bolzmann…

 

Wellenfunktion / Schrödinger

In der klassichen Mechanik (Newton etc.), wird ein Teilchen durch Ort und Implus beschrieben. In der Quantenmeachnik macht das die Wellenfunktion Ψ. Sehr allgemein gesagt: Eine Wellenfunktion beschreibt das Verhalten eines Quanten-Teilchens.

Der Wertebereich einer Wellenfunktion sind die Komplexen Zahlen. Der Definitionsbereich sind Ort und Zeit  Ψ(r,t)

Die Aufenthaltswahrscheinlichkeit ist durch den Betrag der Wellenfunktion zum Quadrat gegeben (normiert auf 1 über alles).

Von Ernst Schroedinger (1887-1961) stammt die grundlegende Gleichung der Quantenmechanik. Sie beschreibt in Form einer partiellen Differentialgleichung die zeitliche Veränderung des quantenmechanischen Zustands eines nichtrelativistischen Systems:

\( i \cdot \hbar \cdot \dot{\Psi} = \hat{H}  \Psi  \)

Mit dem geheimnisvollen Hamilton-Operator \(\hat{H}\).

Verständnis der Quantenmechanik

Eine wirkliches Verständnis der Quantenmechanik ist heute noch nicht vorhanden. Man kann zwar damit “rechnen”, weiss aber eigentlich nicht, was da “im Inneren” passiert. Link: https://en.wikipedia.org/wiki/Interpretations_of_quantum_mechanics

Zitat Richard Feynman (1918-1988): “I think I can safely say that nobody understands quantum mechanics.”
Link: https://www.researchgate.net/post/I_think_I_can_safely_say_that_nobody_understands_quantum_mechanics_R_Feynman_If_that_statement_is_true_how_can_we_know_if_QM_is_true

In der Quantenmechanik gibt es zwei zentrale Begriffe, die man verstehen sollte:

  • Quantum Superposition    (dazu siehe: Linear Kombination)
  • Quantum Entanglement    (dazu siehe: Tensor-Produkt)

Die Diriac-Notation

Um mit dieser Wellenfunktion etwas “netter” umzugehen hat Jean Paul Diriac (1902-1984) die nach ihm benannte Diriac-Notation erfunden, bei der man sogenannte Bra-Vektoren und Ket-Vektoren hat; zusammen gibt das das Wort “Braket”.

Man schreibt das so:

  • Bra-Vektor:  <v |
  • Ket-Vektor: | w>
  • zusammen geschrieben:  <v | w>

 

Physik

Siehe auch: Quantenmechanik

Am Rande beschäftige ich mich auch mit Teilaskepten der Physik.

  • Grundlegend sind die Maßeinheiten:  SI-Einheiten
  • Die Kosmologie ist für den Astronomen auch ein wichtiger Punkt
  • Die Relativitätstheorie und die Quantenmechanik sind zum Verständnis ebenfalls unerlässlich
  • Die Kernfusion spielt bei der Entwicklung der Sterne eine wichtige Rolle
  • Die Teilchenphysik ist auch eine wesentlich Grundlage

….

 

Mathematik: Von Pythagoras bis Einstein – Komplexe Zahlen

Gehört zu:  Mathematik und Physik
Siehe auch: Kosmologie , Quantenmechanik, Mathematik
Benötigt: WordPress Plugin LaTeX

Ein bisschen Mathematik

Angeregt von einem Youtube-Video “Top 10 equations that changed to world” wollte ich hier die wichtigsten Errungenschaften der Mathematik und Physik sind darstellen:

  • Der Lehrsatz des Pythagoras  10
  • Der Logarithmen (Napier)   9
  • Differentialrechnung (“Calculus”) und Grenzwerte  (Newton, Leibnitz)  8
  • Das Gravitationsgesetz (Newton)  7
  • Die komplexen Zahlen (Euler,…)  6
  • Wellengleichung   (d’Alembert) 5
  • Fourier Transformation   4
  • Navier Stokes Gleichung   – Aerodynamik  –   3
  • Faraday und Maxwell Gleichungen   2
  • Die Black-Schole-Gleichung   – Finanzmathematik    2
  • Einstein Relativitätstheorie und Schrödinger Quantenmechanik  1

Der Lehrsatz des Pythagoras

Im rechtwinkligen Dreieck mit den Katheten a und b und der Hypotenuse c gilt:

a² + b² = c²

Dies ist die Basis für die Messung von Entfernungen. Hierdurch wird die Geometrie mit der Algebra verbunden.

Auf dieser Basis kann man Entfernungen im Raum (sog. Metriken) mit mathematischen Formeln berechnen; z.B. im drei-dimensionalen Euklidischen Raum:

ds2 = dx2 + dy2 + dz2

In der Kosmologie verwendet man weitergehende Metriken, z.B. die Robertson-Walker-Metrik…

Logarithmen

Vereinfachen der Multiplikation zur Addition z.B. bei komplexen astronomischen Berechnungen….

log(a · b) = log(a) + log(b)

Logarithmische Skalen z.B. bei den Helligkeiten von Himmelsobjekten…

Differentialrechnung

Die Differentialrechnung geht auf Newton (1643-1727) und Leibniz (1646-1716) zurück …

\(  \frac{dx}{dy} = \lim \limits_{h \to 0} \frac{f(x+h)-f(x)}{h} \)
Der Begriff des Grenzwerts (des Limes) wurde erst später von Bernhard Bolzano (1781-1848) und Karl Weierstrass (1815-1897) formal eingeführt.
Newton war es, der die Differentialrechnung in die Physik einführte z.B. Kraft = Masse * Beschleunigung = Impuls abgeleitet nach der Zeit

Das Gravitationsgesetz (Newton)

Die Anziehungskraft zwischen zwei Massen m1 und m2, die eine Entfernung r voneinander entfernt sind, ist:

\( F = G \cdot \frac{m_1 \cdot m_2}{r^2} \)

Wobei G die sog. Gravitationskonstante ist.

Die komplexen Zahlen

Eine komplexe Zahl schreibt man gerne als Realteil und Imaginärteil:

z = x + i*y      x = Re(z)   und   y = Im(z)

Wobei x und y reelle Zahlen sind.

Mit den Komplexen Zahlen kann man auch die vier Grundrechnungsarten, so wie wir sie von den “normalen” d.h. reellen Zahlen her kennen, ausführen – Die komplexen Zahlen bilden, mathematisch gesagt, einen “Körper”.

Zu jeder Komplexen Zahl gibt es die “komplex konjugierte“, die mit gern mit einem Sternchen als Superskript schreibt:

zur komplexen Zahl: z = x + i*y
ist die konjugierte:   z* = x – i*y

Jede Komplexe Zahl hat auch einen “Betrag” (kann man sich als Länge vorstellen):

|z|2 = x2 + y2

Darstellung der komplexen Zahlen mit kartesischen Koordinaten

Die Reellen Zahlen konnte ich mir ja durch die sog. Zahlengerade gut veranschaulichen. Die Komplexen Zahlen würde ich mir dann durch die Punkte in einer Ebene veranschaulichen.

Polar-Darstellung der komplexen Zahlen

Wenn komplex Zahlen einfach als Punkte in der Ebene verstanden werden können, kann ich sie anstelle von kartesischen Koordinaten, alternativ auch in durch sog. Polarkoordinaten darstellen; d.h. durch die Entfernung vom Nullpunkt r und den Winkel mit der reellen Achse φ.

Für eine Komplexe Zahl z = x + i*y  gilt:

r² = x² + y²

tan φ = x/y

\(\displaystyle \tan{ \phi} = \frac{x}{y} \)

Exponential-Darstellung der komplexen Zahlen

Die Eulerschen Formel ist:

\(\displaystyle  e^{i  \cdot \phi} = \cos \phi+i \cdot \sin \phi \)

Damit erhalten wir als sog. Exponential-Darstellung:

\(\displaystyle z ={r} \cdot e^{i  \cdot \phi} \)

In der Quantenmechanik wird diese Exponentialdarstellung gerne benutzt.

Sie auch Youtube-Video: https://www.youtube.com/watch?v=pBh7Xqbh5JQ

Die Eulersche Zahl

Definition der Eulerschen Zahl

Die Zahl e wurde von Leonhard Euler (1707-1783) als Grenzwert der folgenden unendlichen Reihe definiert:

\(\displaystyle e = 1 + \frac{1}{1} + \frac{1}{1 \cdot 2} + \frac{1}{1 \cdot 2 \cdot 3} +  \frac{1}{1 \cdot 2 \cdot 3 \cdot 4} + …   \)

Oder:

\(\displaystyle e = \sum_{n=0}^{\infty} \frac{1}{n!} \)

Die Exponentialfunktion

Potenzen zur Basis e bilden die Exponentialfunktion, auch e-Funktion genannt:

f(x) = ex

Die Ableitung (Differentialquotient) der e-Funktion ist wiederum die e-Funktion:

f'(x) = ex

Damit ergibt sich als Taylorsche Reihenentwicklung um den Entwicklungspunkt x0 = 0

\(\displaystyle f(x) = 1 + x + \frac{x^2}{2!} + \frac{x^3}{3!} + \frac{x^4}{4!}  + …  + \frac{x^n}{n!} + …   \)

Allgemein wäre die Taylor-Reihe ja:

\( \displaystyle T_\infty(x;x_0) = \sum_{k=0}^{\infty} \frac{f^(k)(x_0)}{k!} (x-x_0)^k \)

Da der Funktionswert und alle Ableitungen der e-Funktion an der Stelle x0 = 0 sämtlich 1 sind, vereinfacht sich die Darstellung wie oben gezeigt.

Die Wellengleichung (d’Alembert)

Jean-Baptiste le Rond d’Alembert (1717-1783)
xyz

Fourier Transformation

Joseph Fourier (1768-1830)

\(\Large f(\epsilon) = \int_{-\infty}^{+\infty} f(x) e^{-2 \pi x \epsilon} dx \)

Wobei ε die Frequenz ist…

“Jede” Funktion wir dargestellt als eine Überlagerung von Sinuswellen mit unterscheidlicher Frequenz….

Navier Stokes Gleichung   – Aerodynamik

Claude Navier (1785-1836) und George Stokes (1819-1903)

Faraday und Maxwell Gleichungen

Michael Faraday  (1791-1867) und  James Clerk Maxwell (1831-1879)

Für das elektrische Feld E gilt:
\(
\nabla \cdot \vec{E} = 0
,
\nabla \times \vec{E} = \Large -\frac{1}{c} \frac{\partial H}{\partial t}
\)
und für das Magnetfeld H gilt:
\(
\nabla \cdot \vec{H} = 0
,
\nabla \times \vec{H} = \Large \frac{1}{c} \frac{\partial E}{\partial t}
\)

Black Schole Gleichung   – Finanzmathematik

Fischer Black (1938-1995) und Myron Scholes (1941-)

Einstein Relativitätstheorie und Schrödinger Quantenmechanik

Albert Einstein  (1879-1955)  und Erwin Schödinger (1887-1961)

Eine der Voraussetzungen zum Verständnis sind sog. Vektorräume.

Vektorräume verfügen über eine Operation, die Addition genannt wird und eine kommutative Gruppe bildet. Weiterhin muss jeder Vektorraum einen Körper von sog. Skalaren haben, mit denen die Vektoren mutipliziert werden können.

Es gibt den Begriff der “Dimension” eines Vektorraumes…..

Besonders interessant ist das sog. “innere Produkt” (engl. Dot Product) zweier Vektoren….