Mathematik: Variationsrechnung – Calculus of Variation

Gehört zu: Mathematik
Siehe auch: Integralrechnung, Metrik, Lagrange-Formalismus, Pfad-Integral

Stand: 05.06.2024

YouTube: Dr. Juan Klopper

Idee der Variationsrechnung

Mit Hilfe der Variationsrechnung versucht man Minima zu finden.

Beispiele:

  • Der kürzeste Weg zwischen zwei Punkten
  • Die kürzeste Zeit einer Bewegung (Fermat’sches Prinzip)
  • Die kleinste Oberfläche eines Volumens
  • Die kleinste “Wirkung” in einem physikalischen System (s.u.)

Im Gegensatz zur Schul-Mathematik suchen wir jetzt nicht einen Punkt, bei dem eine Funktion ein Minimum hat, sondern einen Pfad (also eine Funktion) bei der ein “Funktional” (Funktion von Funktionen) ein Minimum hat.

Die Euler-Lagrange-Gleichung

Wir haben eine Funktion entlang eines Pfades. Wobei so ein Pfad definiert sei durch eine Funktion y = y(x) zwischen den Stellen x1 und x2. Wir können eine Funktion F entlang eines Pfades “aufsummieren” d.h. integrieren. Wir suchen nun zu einer gegebenen Funktion F  denjenigen Pfad, bei dem dieser Integralwert ein Mininimum wird.

\( S = \int\limits_{x_1}^{x_2} F(x, y, y^\prime) \, dx = Minimum \\\)

Um das Minimum dieses Integralwertes über alle Pfade zu finden, “differenziert” man S nach dem Pfad und schreibt δS=0; d.h. eine infinitesimal kleine Änderung im Pfad soll nur eine infinitesimal kleine Änderung in S bewirken. Man nennt einen solchen Pfad auch “stationär”.

Leonard Euler (1707-1783) entwickelte dazu die “Variationsrechnung”. Sein Trick war, “kleine Änderungen” eines Pfades mathematisch zu beschreiben und einen Methode zu finden, danach zu differenzieren.

Nach längerem Rechnen (auch mit Integration by Parts) bekommt man als Lösung der Minimum-Aufgabe die berühmte Euler-Lagrange-Gleichung,

\(\Large \frac{\partial F}{\partial y} – \frac{d}{dx}(\frac{\partial F}{\partial y^\prime}) = 0 \\\)

Beispiel

Mal ein ganz einfaches Beispiel: Der kürzeste Weg zwischen zwei Punkten P1 =(x1, y1) und P2 =(x2,y2):

\( S = \Large\int\limits_{P_1}^{P_2} ds = \int\limits_{x_1}^{x_2} \sqrt{1 + (\frac{dy}{dx})^2 }\, dx  = Minimum\\ \)

Wir haben in diesem Fall also:

\( F(x, y, y^\prime) = \Large\sqrt{1 + {y^\prime}^2 } \\\)

Wir wollen auf diese Funktion F die obenstehende Euler-Lagrage-Gleichung anwenden und bestimmen dazu zunächst die einzelnen Terme:

\( \frac{\partial F}{\partial y} = 0 \\ \)

und:

\( \frac{\partial F}{\partial y^\prime} = \frac{1}{2}  ( 1 +{ y^\prime}^2) ^{-\frac{1}{2}}\cdot 2 y^\prime = \frac{y^\prime}{\sqrt{1 + {y^\prime}^2}}\\ \)

Wenn wir diese beiden Terme in die Euler-Lagrange-Gleichung einsetzen, erhalten wir schließlich:

\( \frac{d}{dx}(\frac{\partial F}{\partial y^\prime}) =  \frac{d}{dx}(\frac{y^\prime}{\sqrt{1 + {y^\prime}^2}}) = 0\\\)

Wann ist eine Ableitung einer Funktion gleich Null? Wenn die Funktion eine Konstante (c)  ist. Also ist:

\( \frac{y^\prime}{\sqrt{1 + {y^\prime}^2}} = c \\\)

Wenn wir dann diese Gleichung quadrieren und ein wenig umstellen erhalten wir:

\( (y^\prime)^2 = const. \\ \)

Damit ist auch y’ konstant und alle Lösungen dieser Differentialgleichung sind:

\( y = a x + b \\ \)

Also haben wir gerade Linien als Minimum des Abstands.

Somit  haben wir für einen ersten sehr simplen Fall die Richtigkeit der Euler-Langrange-Gleichung gezeigt.

Prinzip der kleinsten Wirkung

Wenn F = Ekin – Epot, nennt man das Integral, warum auch immer, “Wirkung” (engl. action) entlang des Pfades.

\( S = \int\limits_{x_1}^{x_2} (E_{kin}(x, y, y^\prime) – E_{pot}(x, y, y^\prime)) \, dx = Minimum \\\)

Daraus ergibt sich die sog. Lagrange Mechanik.

Genaugenommen müsste der Pfad dann noch mit der Zeit t parametrisiert werden…

Mathematik: Integralrechnung

Gehört zu: Mathematik

Siehe auch: Kurven, Metrik

Stand: 30.05.2024

Die Integralrechnung bildet zusammen mit der Differentialrechnung, das was die Engländer und Amerikaner “Calculus” nennen. Bei uns sagt man eher “Infinitesimalrechnung”. Erfunden haben sollen das Newton und Leibnitz unabhängig von einander.

Die Grundlagen haben wir in der Schul-Mathematik gelernt.

Allgemeines

Es gibt ein bestimmtes Integral und ein unbestimmtes Integral.

Das unbestimmte Integral einer Funktion ist einfach die Umkehroperation zum Differenzieren. Man sucht eine sog. Stammfunktion, die differenziert die ursprüngliche Funktion ergibt. Zur Stammfunktion kommt dann immer eine beliebige Integrationskonstante dazu.

Das bestimmte Integral geht von einer Untergrenze zu einer Obergrenze. Da hebt sich eine Integrationskonstante immer weg. Man verbildlicht sich das gerne als Fläche unter einer Kurve.

Wichtige Regeln

Das Integrieren einer Funktion ist im allgemeinen schwieriger als Differenzieren, weil man ja eine Stammfunktion sucht, die…

Neben den vielen einfachen Regeln in der Integralrechnung gibt es eine, die ich aus der Schule so nicht wirklich kannte: “Integration by Parts“.

Integration by Parts (Partielle Integration)

Wenn man ein Integral lösen will, was trotz der üblichen Bemühungen (z.B. algebraisch Vereinfachen, Substituieren,…) widerspenstig ist, hilft es manchmal es so umzuschreiben, dass dann die Lösung klappt.

\( \Large \int u \, dv = u \cdot v \, \, – \int v \, du \)

Wir bekommen statt eines “unschönen” Integrals nun ein anderes Integral; das würde Sinn machen, wenn das neue Integral einfacher zu lösen wäre.

Man muss dazu geschickt wählen, was u sein soll und was dv sein soll.

Beispiel:

\( \Large \int x \cdot e^x \, dx = ? \)

Wir versuchen es mit:  \( u = x \). Dann muss  \( dv = e^x \, dx \) sein.

Um die Formel anzuwenden, brauchen wir dazu du und v.

\(du\) bekommen wir durch Differenzieren von \( u \): \( du = dx \)

\(v\) bekommen wir durch Integrieren von \( dv \): \( v = e^x \)

Das setzen wir nun in die Formel ein:

\(\Large \int x \cdot e^x \, dx = x \cdot e^x  – \int e^x \, dx\\\)

Das neue Integral können wir leicht lösen und bekommen also:

\(\Large \int x \cdot e^x \, dx = x \cdot e^x  –  e^x + c\)

Tipps zur “Integration by Parts”

Man kann einen “schwierigen” Integranden ja verschieden in Faktoren (u und dv) aufbrechen.

Wenn ein Versuch nicht zum Ziel führt, kann man einen neuen Versuch machen etc.

Generell sagt man, dass man denjenigen Faktor als “u” wählen sollte, der beim Differenzieren einfacher wird wobei der andere Faktor “dv” dann beim Integrieren keine Schwierigkeiten machen sollte.

Mathematik: Körper (Grundlagen)

Gehört zu: Mathematik
Siehe auch: Gruppentheorie, Vektorraum, Taylor-Entwicklung

Stand: 25.12.2023

Axiomatische Definition eines Körpers

Ein Körper ist eine Menge K mit zwei (zweistelligen) Verknüpfungen, die meist Addition und Multiplikation genannt werden. Für die folgende Axiome gelten:

(1) Bezüglich der Addition genannten Verknüpfung soll die Menge eine abelsche Gruppe sein – das Neutrale Element schreiben wir als: 0.

(2) Bezüglich der Multiplikation genannten Verknüpfung soll die Menge K ohne das Element 0 eine abelsche Gruppe sein – das Neutrale Element schreiben wir als: 1.
Es gibt also zu jedem Element \( k \in K  \text{ aber } k \neq 0 \)  ein Inverses, geschrieben \( k^{-1} \); also: \( k \cdot k^{-1} = 1 \).

(3) Distributivgesetz: \( a \cdot (b + c) = (a \cdot b) + (a \cdot c) \)

Beispiele

Die Menge der Ganzen Zahlen \( \mathbb{Z} \) bildet keinen Körper, sonder (nur) einen Ring.

Die Menge der Rationalen Zahlen \( \mathbb{Q} \) bildet einen Körper.

Die Menge der Reellen Zahlen \( \mathbb{R} \) bildet einen Körper.

Die Menge der Komplexen Zahlen \( \mathbb{C} \) bildet einen Körper.

Ordnungsrelation auf \( \mathbb{Q} \)

Im Körper der Rationalen Zahlen \( \mathbb{Q} \)  können wir eine Ordnungsrelation definieren durch:

\( \Large \frac{a}{b} \ge \frac{c}{d} \normalsize \text{ genau dann, wenn: } a d \ge c b \text{ in } \mathbb{Z}  \)

Norm in \( \mathbb{Q} \)

Für ein Element  \( a \in \mathbb{Q} \) können wir eine Norm |a| definieren:

\( |a| = a \text{ wenn } a \geq 0, -a \text{ wenn } a  \lt 0  \\ \)

Diese Norm ist abgeschlossen in \( \mathbb{Q} \), denn es gilt:

\( a \in \mathbb{Q} \Rightarrow -a \in \mathbb{Q} \\\)

Folge und Grenzwert

Als Folge in einem Körper K wir bezeichnet eine Abbildung:

\( \mathbb{N} \to K \)

Meist geschrieben als: a1, a2, a3,… mit ai aus K.

Cauchy-Folge

Eine Folge ai heisst Cauchy-Folge wenn für jedes (noch so kleine)  ε > 0 eine natürliche Zahl Nε exisistiert, sodass:

\( | a_n – a_m | < ε \text{ für alle } n,m \in \mathbb{N} \text{ mit } n, m > N_\epsilon \\\)

Die Elemente einer Cauchy-Folge rücken also beliebig dicht aneinander.

Grenzwert einer Folge

Eine Folge ai hat einen Grenzwert g ∈ K wenn für jedes ε > 0 eine natürlche Zahl Nε exisistiert, sodass:

\( | a_n – g | < ε \text{ für alle } n \in \mathbb{N} \text{ mit } n \gt N_\epsilon\\\)

Die Elemente der Folge kommen dem Grenzwert beliebig nahe.

Falls so ein Grenzwert exisitiert, schreiben wir:

\( \lim  \limits_{i \to \infty}  {a_i} = g \\\)

Vektorraum

Jeder Körper K ist auch ein Vektorraum über K (also über sich selbst).

Mathematik: Äquivalenzrelation

Gehört zu: Mathematik
Siehe auch: Gruppentheorie
Benutzt: Latex-Plugin für WordPress

Stand: 10.09.2023

Eine Äquivalenzrelation

Bei meiner Beschäftigung mit der Gruppentheorie bin ich auf das klassische Thema Äquivalenzklassen gestoßen.

Eine Äquivalenzrelation in der Mathematik ist ersteinmal eine “Relation”. Dann soll diese Relation inetwa die Eigenschaften haben, die wir von der klassischen Äquivalenz her kennen: Gleichheit oder Ungleichheit.

Allgemein: Was ist eine Relation?

Auf einer Menge M können wir eine Relation R einfach definieren als eine Teilmenge der geordneten Paare. Also

\( R \subseteq M \times M \\\)

So eine Relation wird dann Äquivalenzrelation genannt, wenn sie noch zusätzlich drei wichtige von der Gleichheitsrelation bekannten Eingenschaften besitzt: reflexiv, symmetrisch, transitiv.

Reflexiv: \( (a,a) \in R \text{ für alle } a \in M \\\)

Symmetrisch:  \( \text{Wenn } (a,b) \in R \text{ dann ist auch } (b,a) \in R \\\)

Transitiv: \( \text{Wenn } (a,b) \in R \text{ und } (b,c) \in R \text{ dann ist auch } (a,c) \in R \\\)

Wenn es aus dem Kontext klar ist, welche Relation gemeint ist, schreibt man auch einfach: \( a \sim b\text{  für } (a,b) \in R \)

Äquivalenzklassen

Wenn ich eine Äquivalenzrelation R auf einer Menge M habe, kann ich damit zu jedem Element m ∈ M eine Teilmenge von M definieren:

\( [m]_R =  \{ x \in M \,|\, (m,x) \in R \} \\\)

Diese Teilmenge nennt man Äquivalenzklasse von m (bezüglich der Relation R auf M). Wenn man zwei Äquvalenzklassen betrachtet, sind diese entweder identisch oder disjunkt.
Da jedes Element der Menge M auch in einer (genau einer) Äquivalenzklasse vorkommt, bilden die Äquivalenzklassen also eine (disjunkte) Partition von M.

Faktor-Mengen

Wenn wir die Menge der Äquivalenzklassen betrachten ist aus unserer ursprünglichen Relation dort die Gleichheitsrelation geworden.
Die Menge der Äquivalenzklassen zu einer Relation R über M bezeichnet man auch als Faktor-Menge oder Quotienten-Menge und schreibt:

\( M/R = \{ [m]_R \,|\,  m \in M \} \\ \)

Beispiele von Konstruktionen mit Hilfe von Faktormengen

Generell kann man mit diesem Mechanismus viele interessante mathematische Gebilde konstruieren…

Die Menge der ganzen Zahlen: \( \mathbb{Z} = (\mathbb{N}^2 \times \mathbb{N}^2) / R_1 \)
Wobei die Relation R1 definiert wird als: (n1, n2) ∼ (m1, m2) genau dann wenn n2 + m1 = m2 + n1

Die Menge der rationalen Zahlen: \( \mathbb{Q} = (\mathbb{Z}^2 \times \mathbb{Z}^2) / R_2 \)
Wobei die Relation R2 definiert wir als: (n1, n2) ∼ (m1, m2) genau dann wenn n2 · m1 = m2 · n1

Äquivalenzklassen in der Gruppentheorie

In der Gruppentheorie kann man mittels einer Untergruppe H einer Gruppe G sog.  “Cosets” zu jedem Element g aus G bilden:

\(  gN = \{ x \in G \, | \, \exists h \in H \text{ with } x = g \cdot h \} \\\)

Diese Cosets (deutsch: Nebenmengen) bilden eine disjunkte Überdeckung der Gruppe G.

Ich kann mir auch ganz einfach eine Äquivalenzrelation R definieren, die diese gleichen Nebenmengen als Äquivalenzklassen erzeugt. Dazu muss ich nur definieren, wann zwei Elemente x und y aus G  zueingabder in Relation stehen sollen…

Ich versuche es einmal mit: \( R = \{ (x,y) \, | \, \exists h \in H : h\cdot x = h \cdot y \} \\ \)

Ist das wirklich eine Äquivalenzrelation (1) und erzeugt sie tatsächlich die gewünschen Äquivalenzklassen (2)?

Ad (1): Als Äquivalenzrelation wäre zu überprüfen:

Reflexivität; d.h. ist (x,x) immer in R? Offensichtlich stimmt das.

Symmetrie: d.h. wenn (x,y) in R liegt, liegt dann auch (y,x) in R?

Wenn demnach (x,y) in R liegt, existiert ein h in H sodass hx = hy. Dann ist mit dem gleichen h aus H auch hy = hx. Also ist R symmetrisch.

Transitivität:

Wenn (x.y) und (y,z) in R liegen, so heisst das: Es gibt ein h1 und ein h2 in H sodass gilt: h1 x = h1 y und h2 y = h2 z.
Man könnte es mit h = h1 h2 versuchen, was bei einer kommutativen (abelschen) Gruppe funktionieren würde…

Vertiefung

YouTube-Video:https://www.youtube.com/watch?v=E8gItS9vGKg

YouTupe-Video zum Tensor-Produkt:https://www.youtube.com/watch?v=KnSZBjnd_74

Mathematik: Gruppentheorie

Gehört zu: Mathematik
Siehe auch: Standardmodell der Elementarteilchenphysik, Symmetrien, Äquivalenzrelation
Benutzt: Latex-Plugin für WordPress

Stand: 30.8.2023

Was ist eine Gruppe?

Bei meiner Beschäftigung mit dem Standardmodell der Elementarteilchen bin ich auf das klassische Thema der Gruppentheorie gestoßen.

Eine Gruppe in der Mathematik ist eine Menge mit einer “inneren” Verküpfung (die man gerne mit dem Symbol “+” schreibt) und die bestimmten, unten aufgeführten Axiomen genügt.

Die Verknüpfung

Die Menge bezeichnen wir mal mit M und nehmen dann zwei Elemente aus dieser Menge:

\( a \in M \) und \( b \in M \)

Dann soll die Verknüpfung (geschieben als +) von a und b wieder in der Menge M liegen:

\( a + b \in M \)

Die Axiome

Damit das ganze dann eine Gruppe ist, müssen folgende Axiome gelten:

Assoziativgesetz:

\( (a + b) + c = a + (b + c) \\ \)

Existenz eines “neutralen Elements” e, sodass:

\( \exists e \in M \space \forall a \in M: a + e = a \\\)

Existenz eines inversen Elements zu jedem Element der Gruppe:

\( \forall a \in M \space \exists b \in M : a + b = e \\ \)

Beispiel 1: Die ganzen Zahlen

Die Menge der ganzen Zahlen \(\mathbb{Z}\) mit der Addition als Verknüpfung bildet eine Gruppe.

Beispiel 2: Die Kleinsche Vierergruppe

Die Kleinsche Vierergruppe (nach Felix Klein 1849-1925) besteht aus vier Elementen, wobei jedes Element mit sich selbst invers ist.

Die Menge schreiben wir als:
V = {e, a, b, c}

Die Verknüpfung definieren wir über eine Verknüpfungstafel (auch Cayley Table genannt):

e a b c
e e a b c
a a e c b
b b c e a
c c b a e

Wie man leicht sieht, werden mit der so definierten Verknüpfung die Gruppenaxiome erfüllt.

Beispiel 3: Die komplexen Zahlen auf dem Einheitskreis

In der komplexen Zahlenebene \(\mathbb{C}\) ist er Einheitskreis einfach die Teilmenge S der komplexen Zahlen, die wir definieren als:

\(S = \{ z \in \mathbb{C} \space : \space  |z| = 1  \} \\ \)

Als Verknüpfung auf dieser Menge nehmen wir die Multiplikation der komplexen Zahlen; geometrisch können wir uns das als Drehungen vorstellen.

Damit wird das Ganze eine Gruppe.

Symmetrien und Drehungen

Gruppen kann man also ganz axiomatisch Definieren, wie oben; in der Praxis sind die Elemente einer Gruppe typischerweise die Symmetrien eines Objekts.

Ganz allgemein bilden die Symmetrien eines Objekts eine Gruppe. Eine speziell Art von Symmetrien sind Drehungen.

Die Leute, die sich mit den verschiedenen Arten von “Drehungsgruppen” als Spezialgebiet beschäftigen, bezeichnen die Gruppe der komplexen Zahlen auf dem Einheitskreis auch gerne als U(1); wobei die “1” bedeuten soll, dass wir nur eine Drehachse haben und das “U” steht für “unitär”, was man gerne zu einer Verknüpfung (Abbildung) sagt, wenn die Länge gleich bleibt (“längentreu”) – allerdings müsste man dann den Begriff “Länge” noch definieren.

Solche Gruppen, die aus Drehungen bestehen, spielen später im Standardmodell der Elementarteilchenphysik eine wichtige Rolle. Wobei eine Drehung auch als sog. “kontinuierliche Symmetrie” bezeichnet wird.

Da solche Drehungen ja “kontinuierlich” (im Gegensatz zu Spiegelungen) um auch beliebig kleine Winkel stattfinden können, kommt man damit auch in das Gebiet der Differentialgeometrie und letztlich zum Begriff der Lie-Gruppen (nach Sophus Lie, 1842-1899).

Vergleiche hierzu auch das YouTube-Video von Josef Gassner: https://www.youtube.com/watch?v=zFhjF6sfY4o

Nur für Mathematiker:
Drehungen im n-dimensionalen komplexen Raum sind lineare Abbildungen und damit als eine spezielle Art von nxn-Matrizen darstellbar.
\(U(n) = \{ U \in \text{ nxn Matrix } | \space U^\dagger U = I \} \)
Die nxn-Matrizen werden auch “General Linear Group” genannt und man schreibt sie als: \(GL(n,\mathbb{C}) \), wobei man zusätzlich fordert: det(U)>0 damit jede Matrix U invertierbar ist und so \(GL(n,\mathbb{C}) \) eine Gruppe ist.

Direktes Produkt von Gruppen

Wenn wir zwei Gruppen G und H haben, können wir das sog. “Direkte Produkt” dieser zwei Gruppen bilden, indem wir von den Mengen das cartesische Produkt \(G \times H\) nehmen und eine Verknüpfung auf diesem cartesischen Produkt komponentenweise definieren.
Wenn wir die Verknüpfungen mit dem Zeichen “+” schreiben, wäre das also:

\((g_1,h_1) + (g_2,h_2) = (g_1+g_2,h_1+h_2) \text{ wobei } g_1, g_2 \in G \text{ und } h_1,h_2 \in H\\\)

Wobei uns klar ist, dass das Symbol “+” hier für drei verschiedene Verknüpfungen benutzt wird.
Die Menge \(G \times H\) ausgestattet mit der so definierten Verknüpfung bezeichnet man als “Direktes Produkt” der Gruppen G und H und schreibt das als \(G \oplus H\).

Computer: Differentialoperatoren

Gehört zu: Mathematik
Siehe auch: Lineare Algebra, Kraftfeld, Arbeit, Schrödinger, Maxwell

Stand: 03.12.2013

Differentialoperatoren: Gradient

Bei einer Funktion von \(\mathbb{R} \to \mathbb{R} \) ist ja klar, was eine Ableitung (Differentialquotient) ist: Anschaulich die Änderungsrate des Funktionswerts an einer bestimmten Stelle…
Wenn der Definitionsbereich einer Funktion nicht mehr \(\mathbb{R}\) sondern \(\mathbb{R}^3\) ist, nennt man eine solche Funktion auch ein “Skalarfeld”, weil durch die Funktion jedem Punkt im Raum \(\mathbb{R}^3\) ein skalarer Wert zugeordnet wird (Beispiel: Temperatur). Eine “Änderungsrate” einer solchen Funktion wäre dann ja von der Richtung abhängig, in die ich gehe; also muss so eine “Änderungsrate” ein Vektor werden. So eine “Änderungsrate” eines Skalarfeldes nennt man dann den “Gradienten” s.u.

Sei also \( \Phi \) eine Funktion \(\Phi: \mathbb{R}^3 \to \mathbb{R} \) dann ist der Gradient von \( \Phi \) :

\( \Large grad  \enspace\Phi = \left[ \begin{array}{c} \frac{\partial \Phi}{\partial x} \\\ \frac{\partial \Phi}{\partial y} \\\ \frac{\partial \Phi}{\partial z}  \end{array} \right]  \\\  \)

Differentialoperatoren: Nabla

Generell definiert man auf einem Vektorraum dann besondere Abbildungen, sog. Differentialoperatoren. Man benutzt dazu die Koordinatenschreibweise. Wir nehmen hier immer die klassischen Cartesischen Koordinaten. Wenn man andere Koordinatensystem hat, sehen die Formeln dann etwas anders aus.

Wir nehmen als Definitionsbereich für unsere “Felder” den Vektorraum \(\mathbb{R}^3\). dann haben wir partielle Ableitungen nach den drei Koordinaten: x, y und z und man definiert als sog. Nabla-Operator:

\( \Large \nabla = \left[ \begin{array}{c} \frac{\partial}{\partial x} \\\ \frac{\partial}{\partial y} \\\ \frac{\partial}{\partial z}  \end{array} \right]  \\\  \)

Damit kann man dann einfach definieren:

  • Gradient eines Skalarfeldes:  \( \nabla \Phi \) (ist ein Vektorfeld)
  • Divergenz eines Vektorfeldes: \( \nabla \cdot \vec{V} \) (ist ein Skalarfeld)
  • Rotation eines Vektorfeldes: \( \nabla \times \vec{V} \)  (ist ein Vektorfeld)

Dies wird benutzt beispielsweise bei den Maxwellschen Gleichungen und der Schrödinger-Gleichung.

Im einfachen Fall, wenn unser Definitionsbereich nur ein Vektorraum der Dimension 1 ist (\(\mathbb{R}^1\)), ist der Gradient einfach die erste Ableitung.

Kraftfeld und Gradient

In einem konservativen Kraftfeld F(r)  kann man als Skalar ein Potential V(r) definieren, sodass die Kraft der Gradient den Potentials wird:

\( \vec{F}(r) = \nabla V(r) \)

Elektrisches Feld und Divergenz

Ein Elektrisches Feld wird durch eine ruhende elektrische Ladung erzeugt.
Ein Elektrisches Feld ist ein Vektorfeld, das man üblicherweise \( \vec{E} \) schreibt.

Feldstärke  – Feldlinien – xyz

Für das von einer Elektrischen Ladung Q erzeugte E-Feld \( \vec{E} \) gilt:

\( \nabla \cdot \vec{E} = 4 \pi Q \\\)

Da die Elektrische Ladung Q sozusagen das Elektrische Feld erzeugt, nennt man es auch die Quelle des E-Feldes…

Magnetisches Feld

Ein Magnetisches Feld wird durch bewegte elektrische Ladungen erzeugt.
Ein Magnetisches Feld ist ein Vektorfeld, das man üblicherweise \( \vec{B} \) schreibt.

Für ein Magnetisches Feld gilt:

\( \nabla \cdot \vec{B} = 0 \\\)

D.h. es gibt keine Quelle und alle Feldlinien sind geschlossen…

Mathematik: Vektorräume (Grundlagen)

Gehört zu: Mathematik
Siehe auch: Körper, Vektorräume – Lineare Algebra, Matrizen und Vektoren, Bra-Ket-Notation

Stand: 23.12.2023

Was ist ein Vektorraum?

Eine der Voraussetzungen zum Verständnis vieler Dinge (z.B. in der Allgemeinen Relativitätstheorie und der Quantenmechanik) sind sog. Vektorräume und Tensoren.

Es gibt dazu eine Menge Videos auf Youtube; z.B. von 3Blue1Brown:  https://youtu.be/fNk_zzaMoSs  – Playlist:

https://www.youtube.com/playlist?list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab

Ein Vektorraum kann axiomatisch wie folgt definiert werden:

Axiom 1: Vektorräume verfügen über eine Operation, die Vektor-Addition (Vektor plus Vektor ergibt einen Vektor) genannt wird und eine kommutative (abelsche) Gruppe bildet.
Axiom 2: Jeder Vektorraum muss einen Körper  haben, dessen Elemente Skalare genannt werden.  Mit solchen Skalaren können wir  die Vektoren mutiplizieren (“skalieren“); d.h. Skalar mal Vektor ergibt Vektor.

Man spricht dann von einem Vektorraum “über” einem Körper K seiner Skalaren oder kurz von einem K-Vektorraum.

Solche Axiome ergeben eine abstrakte Definition von Eigenschaften; die Frage ist allerdings, ob es tatsächlich “Gebilde” gibt, die diese Axiome erfüllen. Tatsächlich gibt es viele “Gebilde”, die die Vektorraum-Axiome erfüllen: d.h. die tatsächlich Vektorräume sind. Beispiele für Vektorräume sind u.a.:

  • Ein \(\mathbb{R}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{R}\)
  • Ein \(\mathbb{C}^n \) wird mit den naheliegenden Operationen Vektorraum über \(\mathbb{C}\)
  • Die Menge der Funktionen auf \(\mathbb{R}\) kann auch als Vektorraum ausgestattet werden…

Ein abstrakter Vektorraum kann auch veranschaulicht werden:

  • Physik: Der Physiker stellt sich Vektoren gern als “Pfeile” vor, die also eine Richtung und eine Länge haben, also eher “geometrisch“.
  • Computer: Der Computer-Mensch stellt sich Vektoren eher als Liste von Komponenten vor (Vektor = Liste) – wozu man aber ersteinmal ein System von Basis-Vektoren (nicht: Koordinatensystem) haben muss.
  • Mathematik: Der abstrakte Mathematiker sagt, Vektoren sind einfach “etwas”, was man addieren kann (Gruppe) und was man mit “Skalaren” skalieren kann – fertig, einfach ein paar Axiome und das war’s.

Linearkombinationen

Mit einem Satz von Vektoren kann man eine sog. Linearkombination bilden, beispielsweise:

Zu einem Satz Vektoren \( \vec{g_1}, \vec{g_2}, …, \vec{g_n} \) wäre eine Linearkombination etwa:

\(    a_1 \vec{g_1} + a_2 \vec{g_2} + … + a_n \vec{g_n}\)

Wobei  wir jeden Vektor \( \vec{g_i} \)mit einem Skalar \( a_i  \) multiplizieren und die Summe bilden.

Vektorbasis und Dimension

Wenn ich mit einem Satz von Vektoren jeden Vektor des Vektorraums durch eine Linearkombination darstellen kann, sagt man “der Satz von Vektoren spannt den Vektorraum auf”. Ist so ein Satz von Vektoren minimal und die Darstellung eines Vektors durch eine Linearkombination damit eindeutig, so  nennt man den Satz von Vektoren eine Vektorbasis.

Soweit ist dies eine axiomatische Definition von Eigenschaften, welche eine Vektorbasis erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich eine solche Vektorbasis exsitiert.

Die Antwort lautet: Jeder Vektorraum hat (mindestens) eine Vektorbasis.
Falls ein Vektorraum mehrere Vektorbasen hat sind alle diese Vektorbasen gleich mächtig. Die Kardinalzahl (Mächtigkeit) heist Dimension des Vektorraums, geschrieben dim(V).

Eine Einheitsbasis (normal basis) ist eine Basis, bei der alle Basisvektoren die Länge 1 haben (“auf die Länge 1 normiert sind”).
Was die Länge eines Vektors sein könnte, kommt weiter unten.

Beispiel:

Der euklidische Vektorraum: \(\mathbb{R}^n\)

Dort haben wir z.B. eine Vektorbasis:  \( \vec{e}_i = (\delta_{i}^j) \)

Wobei das Kronecker-Delta bekanntlich definiert ist als:

\( \delta_{i}^j = \left\{\begin{array}{11}    0 & \text{falls } i \ne j  \\ 1 & \text{falls } i = j \\ \end{array} \right. \)

Vektor-Komponenten bezüglich einer Vektorbasis

Damit ich mit einem Vektor so schön herumrechnen kann, ist es enorm praktisch, den Vektor durch “seine” Komponenten darzustellen. Solche “Komponenten” beziehen sich immer auf eine sog. Vektorbasis.

Den Satz von Skalaren mit dem ein Vektor bezüglich einer Vektorbasis als Linearkobination eindeutig dargestellt werden kann nennt man auch die Komponenten des Vektors. Man schreibt also:

\( \vec{a} = \sum\limits_{i=1}^{n}{a_i \vec{g_i}} \)

Dabei sind also die ai die Komponenten des Vektors a bezüglich des gewählten Basisvektorsystems. Der Begriff von Koordinaten in einem Koordinatensystem unterscheidet sich von diesem Begriff der Komponenten bezüglich eines Basisvektorsystems.

Der Physiker möchte die Formeln noch kompakter aufschreiben und führt eine impliziete Summenkonvention ein (nach Einstein). Danach verwenden wir Indizes teilweise unten (klassisch) und auch teilweise oben (neu). Wenn ein gleicher Index oben und unten auftaucht, soll darüber summiert werden (ohne dass man es expliziet schreiben muss). Also in unserem Fall:

\( \vec{a} = a^i \vec{g_i} \)

Man nennt Größen mit einem Index unten “kovariant” und mit einem Index oben “kontravariant” – was man damit eigentlich sagen will werden wir später erfahren.

Komponentenschreibweise

Unsere Rechenregeln für Vektoren kann man nun auch einfach in Komponentenschreibweise ausdrücken:

Vektoraddition: \( \vec{a} + \vec{b} = (a^i + b^i) \vec{g_i}  \)

Skalar-Multiplikation: \( \lambda \vec{a} = (\lambda a^i) \vec{g_i} \)

Schreibweise von Vektoren

Geschrieben werden Vektoren meist als eine Liste ihrer Komponenten, aber nicht waagerecht, sondern senkrecht angeordnet (bei waagerechter Anordnung denkt man eher an einen Punkt im Raum).

\( \Large \vec{v} = \left( \begin{array}{c} x \\\ y \\\ z  \end{array}\right) \)

oder auch in eckigen Klammern:

\( \Large \vec{v} = \left[ \begin{array}{c} x \\\ y \\\ z  \end{array} \right] \)

Wenn ich Vektoren als Liste von Komponenten schreiben will, muss ich ersteinmal ein Basisvektorsystem haben.

Vektoren, und das ist wichtig, exisitieren auch ohne Basisvektorsysteme, also einfach geometrisch im Raum. Unabhängig von einem Basisvektorsystem hat jeder Vektor eine Länge und eine Richtung. Dies sind also sog. “Invarianten”; d.h. bei Änderung des Basisvektorsystems ändern sich diese Eigenschaften nicht.
Also: Vektoren ansich sind invariant gegenüber einem Wechsel des Basisvektorsystems. Aber die Vektorkomponenten verändern sich beim Wechsel des Basisvektorsystems, sind wie man sagt “variant“. Wie Vektorkomponenten bei Wechsel des Basisvektorsystems hin- und hergerechnet werden können, behandeln wir weiter unten. So ein Vektor ist damit der Sonderfall eines Tensors, nämlich ein Tensor vom Rang 1.

Lineare Abbildung (Lineare Transformation)

Wir betrachten zwei Vektorräume V und W über dem gleichen Körper K habe. Eine Abbildung \(  f: V  \to W  \) nennt man auch Transformation. Wenn V=W ist spricht man auch von einer Operation auf V und nennt f einen Operator.

Lineare Transformationen sind Transformationen, bei denen Geraden Geraden bleiben und der Null-Punkt (Origin) unverändert bleibt.
Anschaulich gesagt, bleiben Parallelen parallel und die Koordinatengitter gleichmäßig unterteilt (was immer auch Parallelen und Koordinatengitter genau sein mögen). Man kann das auch abstrakt durch Formeln ausdrücken:

Eine solche Abbildung f von einem Vektorraum V in einen Vektorraum W (beide über dem gleichen Körper K)

\(  f: V  \to W \\ \)

wird “linear” genannt, wenn sie additiv und homogen ist; d.h. wenn für alle \( \vec{v} \in V \text{ und alle } \vec{w} \in V \) gilt:

additiv: \( f(\vec{v} +  \vec{w}) = f(\vec{v}) +  f(\vec{w})  \)

und für alle \( a \in K \) gilt:

homogen: \( f(a \vec{v}) = a f(\vec{v})  \)   (hierfür brauchen wir den gleichen Körper K)

allgemein also: \(f(a \vec{x} + b \vec{y}) = a f(\vec{x}) + b f(\vec{y}) \)

General Linear Group

Zu einem Vektorraum V über K können wir die Menge der linearen invertierbaren Abbildungen \( f: V \to V \) betrachten. Diese nennen wir: General Linear Group und schreiben GL(V). Wenn man die allgemeine Verknüpfung von Abbildungen als Guppenverknüpfung nimmt, ist GL(V) tatsächlich eine Gruppe.

Die GL(V) ist ein schönes Beispiel für eine nicht abelsche (nicht kommutative) Gruppe.
Siehe hierzu auch das schöne Youtube-Video von Josef Gassner:

In der Quantenmechanik (Quantenphysik) sind die Untergruppen von GL(V) sehr interessant.

Dualer Raum

Zu einem Vektorraum V über dem Körper K definieren wir eine “Dualen Vektorraum”  V* wie folgt:

Als Menge V* nehmen wir alle linearen Abbildungen  \( f: V \to K \)

Als Vektor-Addition in V* definieren wir: \( (f+g)(v) = f(v) + g(v) \)

Und als Skalar-Multiplikation in V* nehmen wir: \( (\lambda \cdot f)(v) = \lambda \cdot f(v) \)

Bilinerarform

Hier geht es um zwei Variable (zwei = bi); also eine Abbildung:

\(  f: V \times V  \to K \\\)  (mit V  Vektorraum über dem Körper K)

So eine Abbildung heisst “bilinear“, wenn sie “in beiden Variablen” linear ist, was heisst:

\( f(a_1 \vec{x_1} + a_2 \vec{x_2}, \vec{y}) = a_1 f(\vec{x_1},\vec{ y}) + a_2 f(\vec{x_2}, \vec{y}) \\\)

und

\( f(\vec{x}, b_1 \vec{y_1} + b_2 \vec{y_2}) = b_1 f(\vec{x}, \vec{y_1}) + b_2 f(\vec{x}, \vec{y_2}) \\\)

Skalarprodukt (Inneres Produkt)

Ein Vektorraum verfügt nicht notwendig über ein Skalarprodukt. Auf einem Vektorraum kann ein Skalarprodukt definiert sein (Vektor mal Vektor ergibt einen Skalar) –  Dies ist inspiriert aus der Physik durch Arbeit = Kraft mal Weg.

Wir werden sehen, dass so ein Skalarprodukt dann eine “Norm” induziert und damit eine Metrik, wodurch z.B. Grenzwertprozesse möglich werden.

Einen \(\mathbb{R}\)-Vektorraum mit Skalarprodukt nennt man auch einen Euklidischen Raum, einen \(\mathbb{C}\)-Vektorraum mit Skalarprodukt nennt man auch Hilbertraum – genauer Prähilbertraum.

Für die Anwendungen z.B. in der Physik spielt es eine große Rolle, welches der Körper zum Vektorraum ist. In der Quantenphysik benötigt man dazu den Körper der Komplexen Zahlen: \(\mathbb{C}\)

Definition des Skalarprodukts

Das Skalarprodukt zweier Vektoren wird axiomatisch wie folgt definiert.

Axiomatische Definition

Generell ist das Skalarprodukt f in einem Vektorraum über dem Körper K eine Abbildung:

\( f: V \times V \to K \)

Man schreibt auch gerne das Skalarprodukt als:

  • \( \Large f(x,y) = \langle x,y \rangle \)
  • \( \Large f(x,y) = \vec{x} \cdot \vec{y} \)

Für den Fall eines Vektorraums über dem Körper der reelen Zahlen, müssen für x, y, z ∈ V und λ ∈ \(\mathbb{R} \) folgende Axiome gelten:

  • Linearität in beiden Argumenten
    • <x+y,z> = <x,z> + <y,z>
    • <x,y+z> = <x,y> + <x,z>
    • <λx,y> = λ <x,y>
    • <x,λy> = λ <x,y>
  • Symmetrie: <x,y> = <y,x>
  • Positiv definit:
    • <x,x> ≥ 0
    • <x,x> = 0 genau dann, wenn x=0 ist

Das reelle Skalarprodukt ist also eine positiv definite, symmetrische Bilinearform.

Für den Fall eines Vektorraums über dem Körper der komplexen Zahlen, ist die Sache etwas schwieriger.
Da wir aber in der Quantenphysik Vektorräume über den komlexen Zahlen benötigen, müssen wir auch diesen etwas komplizierteren Fall näher betrachten.

Es müssen für x, y, z ∈ V und λ ∈ \(\mathbb{C} \) folgende Axiome gelten:

Semilinear im ersten Argument:

\( <\lambda x, y> = \bar{\lambda} <x,y> \)

Linear im zweiten Argument:

\( <x, \lambda y> = \lambda <x,y> \)

Hermitisch:

\( <x,y> = \overline{<y,x>} \)

Positiv definit:

<x,x> ≥ 0

<x,x> = 0 genau dann, wenn x=0

Das komplexe Skalarprodukt ist also eine positiv definite, hermitische Sesquillinearform.

Existenz eines Skalarprodukts bei endlicher Dimension

Soweit ist dies eine axiomatische Definition von Eigenschaften, welche ein Skalarprodukt erfüllen muss. Die Frage ist allerdings, für einen bestimmten Vektorraum, ob dort auch tatsächlich ein solches Skalarprodukt definiert werden kann.

Aus unserem Vektorraum V über K nehmen wir zwei Vektoren \(\vec{x}\) und \(\vec{y}\) und versuchen deren Skalarprodukt zu definieren. Im Falle einer endlichen Dimension des Vektorraums dim(V)=n können wir das leicht über die Komponentendarstellung dieser Vektoren zu einer ausgewählten Vektorbasis erreichen:

Die Vektorbasis sei: \( \vec{g}_i  (i=1,2,…,n) \)

Die Komponentendastellungen sind:

\( \vec{x} = x^i \vec{g}_i  \) und \( \vec{y} = y^i \vec{g}_i  \)

Das Skalarprodukt der beiden Vektoren müsste dann eigentlich sein:

\( \vec{x} \cdot \vec{y} = x^i y^j (\vec{g}_i \cdot \vec{g}_j) \)

Wir könnten das Skalarprodukt zweier beliebiger Vektoren also definieren, wenn wir nur das Skalaprodukt von je zwei Basisvektoren so definieren, dass dann die Axiome des Skalarprodukts eingehalten würden. Mit anderen Worten: Bei geeigneter Festlegung einer Matrix:

\( g_{ij} = \vec{g}_i \cdot \vec{g}_j \tag{1}\)

Könnten wir das Skalarprodukt einfach definieren als:

\( \vec{x}  \cdot \vec{y} = g_{ij} x^i y^j \tag{2}\)

Wir bekommen also ein Objekt aus zweifach indizierten Skalaren (genannt Metrik-Koeffizienten). Diese Metrik-Koeffizienten bilden also eine quadratische Matrix, die wir später auch gerne “Metrik-Tensor” nennen werden.

Der Metrik-Tensor besteht also aus den paarweisen Skalarprodukten der verwendeten Basisvektoren.

Beispiel:

Wie nehmen einen euklidischen Vektorraum: \(\mathbb{R}^3\)
mit der Vektorbasis: \( \vec{e}_i = (\delta_{i}^j) \)
Wir nehmen als Metrik-Tensor: \( \eta_i^j = \left( \begin{matrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ \end{matrix} \right) \)

Aus Gleichung (2)  mit dem obigen Metrik-Tensor ergibt sich als Skalarprodukt:

\( \vec{a} \cdot \vec{b} = \sum\limits_{i=1}^3 a^i  b^i \)

Nun müssen wir nur noch überprüfen, ob die Skalarprodukt-Axiome gelten:

Welcher Metrik-Tensor erfüllt die Skalarprodukt-Axiome?

Das erste zu überprüfende Axiom wäre die Linearität des  so definierten Skalarprodunkts in beiden Argumenten.

Zur Überprüfung der Linearität im ersten Argument müssen wir folgenden Ausdruck berechnen:

\(  \langle a_1 \vec{x1} + a_2 \vec{x_2} , \vec{y} \rangle = ? \)

Das erste Argument ist also:

\(  \vec{x} = a_1 \vec{x_1} + a_2 \vec{x_2} \)

Um hier das Skalarprodukt auszurechnen nach Gleichung (2) müssen wir die Komponenten der Vektoren bestimmen. Dazu nehmen wir ersteinmal die Komponenten der einzelnen Vektoren:

\( \vec{x_1} = x_1^i \vec{g_i} \) und \( \vec{x_2} = x_2^i \vec{g_i} \)

Dann ist also:

\( \vec{x} = a_1 (x_1^i \vec{g_i}) + a_2 (x_2^i \vec{g_i}) \\ \)

und:

\( x^i = a_1 x_1^i + a_2 x_2^i  \tag{3}\\\)

Nach der Definition des Skalarprodukts nach Gleichung (2) bekommen wir:

\(  \langle a_1 \vec{x_1} + a_2 \vec{x_2} , \vec{y} \rangle = x^i y^j g_{ij}  \\ \)

Wenn wir nun hier Gleichnug (3) einsetzen, erhalten wir:

\(  \langle a_1 \vec{x_1} + a_2 \vec{x_2} , \vec{y} \rangle  = (a_1x_1^i + a_2 x_2^i) y^j g_{ij}  = a_1 x_1^i y^j g{ij} + a_2 x_2^i y^j g_{ij}\)

und schließlich:

\(  \langle a_1 \vec{x_1} + a_2 \vec{x_2} , \vec{y} \rangle = a_1 \langle\vec{x_1}, \vec{y} \rangle + a_2 \langle \vec{x_2}, \vec{y} \rangle \\ \)

Somit ist das Skalarprodukt im ersten Argument linear unabhängig von der Wahl des Metrik-Tensors.

Das Skalarprodukt ist auch im zweiten Argument linear, wenn der Skalaren-Körper \(\mathbb{R}\) ist – dann gilt die obige Herleitung identisch.

Das zweite zu überprüfende Axiom wäre die Symmetrie

Nach unserer Definition des Skalarprodukts in Gleichung (2) gilt:

\( \langle x, y \rangle = x^i y^j g_{ij} \)

und

\( \langle y, x \rangle = y^j x^i g_{ji} = x^i y^j g_{ji}\)

Wir sehen also, dass wenn der Metrik-Tensor symmerisch ist (gij = gji), dann ist auch das damit definierte Skalarprodukt symmetrisch.

Das dritte zu überprüfende Axiom wäre die Positive Definitheit

Dies ergibt sich auch ganz einfach.

Skalarprodukt bei nicht-endlicher Dimension

Ein  Vektorraum nicht-endlicher Dimension über K ist so etwas wie ein Funktionenraum. Für \( f \in V \text{ und } g \in  V \) definieren wir das Innere Produkt (Skalarprodukt) als:

\(\langle f,g \rangle = \Large \int \normalsize \overline{f(t)} g(t) dt \)

Die komplexe Konjugation wird hier u.a. benötigt, damit die Länge eines Vektors (s.u.) eine reele Zahl wird.

Unitäre Abbildung (Unitäre Transformation)

Eine Abbildung (auch Transformation genannt) von einem Vektorraum V in einen anderen W wird “unitär” genannt, wenn sie das Skalarprodukt “erhält” (Da die Länge eines Vektors über das Skalarprodukt definiert ist, ist eine unitäre Abbildung längentreu)

Nehmen wir zwei Vektorräume V und W, jeweils mit einem Skalarprodukt, sowie eine Abbildung:

\( f: V \to W \)

Dann soll für je zwei Vektoren u und v aus V gelten:

\( <f(u),f(v)> = <u,v>\\ \)

Man kann zeigen, dass solche unitären Abbildungen auch stets lineare Abbildungen sind.

Ein klassisches Beispiel ist die Gruppe U(1) der komplexer Zahlen vom Betrag Eins, wobei die Gruppen-Verknüpfung die Multiplikation der komplexen Zahlen (also die Drehung) ist. Diese Gruppe spielt bei dem Standardmodell der Teilchenphysik eine wichtige Rolle. Die Gruppe U(1) bildet ein mathematisches Modell der Elektrostatischen Wechselwirkung in der Quanten-Elektrodynamik mit dem Photon als Austauschteilchen.

Länge eines Vektors

Der Begriff “Metrik-Tensor” hat schon einen Sinn, wenn wir sehen, dass damit auch die Länge eines Vektors definiert werden kann:

\( | \vec{a} | = \sqrt{\vec{a} \cdot \vec{a}} = \sqrt{g_{ij} a^i a^j}  \)

Zu jedem Skalarprodukt in einem R-Vektorraum oder C-Vektorraum kann man eine Norm definieren, die man “induzierte Norm” nennt:

\( ||\vec{x}|| = \sqrt{\vec{x} \cdot \vec{x}} \)

Abstand zweier Punkte

Mittels der sich aus dem Skalarprodukt ergebenden Norm, definieren wir dann eine Metrik (Anstandsbegriff):

Zu einem Vektorraum der Dimension n über \(\mathbb{R} \) können wir \(\mathbb{R}^n \) als Metrischen Raum definieren:

d(x,y) := || y – x ||

Die Metrik-Axiome werden erfüllt.

Dadurch werden Grenzwert-Konstruktionen möglich z.B. die Konvergenz einer Folge (vgl. Cauchy-Folge), Differentialquotienten etc.

Mathematik: Taylor-Entwicklung & Fourier-Entwicklung

Gehört zu: Mathematik
Siehe auch: Hintergrundstrahlung, MP3-Format, Multipol-Moment, Variationsrechnung

Stand: 24.10.2022

Taylor-Entwicklung – Fourier-Entwicklung

Wir versuchen eine kompliziertere Funktion in eine Summe einfacherer zu zerlegen.

Bei der Taylor-Entwicklung (Brook Taylor 1685 -1731) betrachten wir einen Punkt der Funktion und wollen in der Umgebung dieses Punktes die Funktion “vereinfachen”, dadurch dass wir sie als Summe aus einfacheren Funktionen annähern und im Grenzwert sie damit genau darstellen.

Bei der Fourier-Entwicklung (Jean Baptist Joseph Fourier 1768 – 1830) betrachten wir eine periodische Funktion und wollen diese für eine Periode durch eine Summe einfacherer periodischer Funktionen approximieren (im Grenzwert genau darstellen).

Taylor-Entwicklung

Wir wollen hier eine Funktion y=f(x) in der Nähe einer Stelle x0 durch eine Potenzreihe annähern:

\( f(x) = f(x_0) + a_1 (x-x_0) + a_2 ( x – x_0)^2 + a_3 (x – x_0)^3 + \ldots \\ \)

Das ist eine Linearkombination der Potzenzen (Monome genannt).

Die Koeffizienten in dieser Taylor-Entwicklung kennen wir: \(a_i = \frac{f^{(i)}(x_0)}{i!} \) damit ist:

\( f(x) = f(x_0) + f^\prime(x_0) (x-x_0) + \frac{f^{\prime\prime}(x_0)}{2!} ( x – x_0)^2 + \frac{f^{(3)}(x_0)}{3!} (x – x_0)^3 + \ldots \\ \)

Bleibt x in der Nähe von x0, so ist (x-x0) klein und wir können näherungsweise die Tayler-Entwicklung irgendwann abbrechen – wenn es genauer sein soll, müsen wir weitere Terme hinzunehmen.

Der Sinn einer solchen Taylor-Entwicklung ist häufig, dass die entstandene Potenzreihe einfacher zu handhaben ist als die Originalfunktion (z.B. in Formeln, z.B. die Ableitungen,…)

Physiker brechen gern nach dem zweiten Term ab und nennen das eine Linearisierung oder Approxmation erster Ordnung; also:

\( f(x) = f(x_0) + f^\prime(x_0)(x-x_0) \\\)

Das machten wir – schon in der Schule – beim Fadenpendel.

Und auch Einstein machte das bei seiner berühmten Formel E = mc2 .

In der Tat zeigt die Mathematik, unter bestimmten Voraussetzungen konvergiert diese Taylor-Reihe. Also

\( f(x) = \sum\limits_{i=0}^{\infty}{\frac{f^{(i)}(x_0)}{i!}} (x-x_0)^i\\\)

Fourier-Entwicklung

Wir betrachten eine etwas kompliziertere Funktion f(t); z.B. ein elektrisches oder akustisches Signal im Zeitverlauf. Die Funktion soll aber periodisch sein; etwa mit der Periode [-π,+π] (das wird gern genommen).

Wir wollen die Funktion durch eine Reihe von Sinus- und Cosinus-Funktionen, also durch Schwingungen, annähern:

\( f(t) = \frac{a_0}{2} + \sum\limits_{k=1}^\infty(a_k \cos(kt)+ b_k \sin(kt)) \\ \)

Das ist eine Linearkombination von Sinussen und Cosinussen verschiedener Frequenzen (und Amplituden).

Der Sinn so einer Fourier-Entwicklung ist jetzt primär nicht, dass das Ergebnis “einfacher” wäre, sondern man möchte etwas herausbekommen über die Original-Funktion; beipielsweise wenn die Original-Funktion ein akustisches Signal ist (siehe MP3-Format).

Die Ermittlung der Fourier-Koeffizienten ak und bk nennt man auch Fourier-Analyse. Fourier selbst fand als analytische Lösung:

\( a_k = \frac{1}{\pi}\int\limits_{-\pi}^{+\pi} f(t) cos(kt) dt \\\)

und

\( b_k = \frac{1}{\pi}\int\limits_{-\pi}^{+\pi} f(t) sin(kt) dt \\\)

Eine Deutung so einer Fourier-Analyse ist, dass wir eine Funktion f(t) untersuchen und die Anteile verschiedener Frequenzen ermitteln. Man spricht deshalb auch von einem Frequenz-Spektrum…

Wenn wir die Fourier-Entwicklung nach dem n-ten Term abbrechen, schreiben wir:

\( F_n  f(t) = \frac{a_0}{2} + \sum\limits_{k=1}^n(a_k \cos(kt)+ b_k \sin(kt)) \\ \)

Das nennen wir “Fourier-Polynom n-ten Grades zu f”  (Sprachgebrauch, obwohl das kein Polynom im üblichen Sinne ist).

Statt Fourier-Analyse wird auch gern die Bezeichnung Harmonische Analyse verwendet.

Komplexe Zahlen

Gerne wird die Fourier-Analyse auch mit Komplexen Zahlen erklärt. So hilft die Eulerschen Formel dabei statt Sinus und Cosinus “einfach” eine Exponatialfunktion zu verwenden:

\(  e^{i  \cdot \phi} = \cos \phi+i \cdot \sin \phi \\\)

Damit entwickeln wir:

\( f(t) = \sum\limits_{k \in Z} c_k \cdot e^{ikt} \\\)

Was dann in der Regel zu komplexen Fourier-Koeffizenten ck führt.

Wir unterscheiden zwischen Fourier-Analyse und Fourier-Transformation…

Diskrete Fourier-Analyse

In der Praxis kennt man die Funktion f(t) meist nicht analytisch (also als Formel), sondern hat “nur” die Funktionswerte an diskreten Stellen. Man kommt dann zu einer sog. Diskreten Fourier-Transformation (DFT).

xyz

 

 

 

Mathematik: GeoGebra

Gehört zu: Data Science
Siehe auch: Python, Thermodynamik, Raumkrümmung, Robin Glover, Jeans-Kriterium, Hydrostatisches Gleichgewicht , Data Science

Stand: 04.06.2024

Die Software GeoGebra Classic

Online-Aufruf:   https://www.geogebra.org/classic

GeoGebra Lokal

Download von: https://www.geogebra.org/download?lang=de

Versionen:   6.0.735

Installation: Lokal auf ComputerAcerBaer (Ordner Programmierung)

Lokaler Aufruf: C:\Users\rubas\AppData\Local\GeoGebra_6\Update.exe –processStart=”GeoGebra.exe”

Benutzung von GeoGebra Classic

Wenn man Dateien Online speichern will, benötigt man ein Konto bei GeoGebra und dann muss man sich da anmelden.

Das GeoGebra-Menü gekommt man, wenn man rechts oben auf das “Hamburger-Menü” klickt.

Dann funktioniert im GeoGebra-Menü “Datei -> Öffnen”

Wir können GeoGebra-Dateien auch auf unserem lokalen Computer speichern (Dateinamen: *.ggb).

Wir können GeoGebra-Grafiken als SVG-Dateien exportieren: Hamburger-Menü -> Herunterladen als…

Beispiel: Sonnensystem

Name Große Halbachse (AE) Umlaufszeit (Jahre)
Merkur 0,387 0,2409
Venus 0,7233 0,6160
Erde 1,000 1,0000
Mars 1,524 1,8809
Jupiter 5,204 11,9
Saturn 9,582 29,5
Uranus 19,201 84,01095
Neptun 30,178 164,7885