Gehört zu Mathematik
Siehe auch: Wellenmechanik
Stand: 06.10.2024
YouTube-Video von Edmund Weitz: https://youtu.be/BYUKbEXXmG4?feature=shared
Die die Anfänge der Wahrscheinlichkeitstheorie stammen wohl aus der Spieltheorie z.B. Würfelspiele etc.
In der klassische Definition hat man:
- Eine Menge von Elementarereignissen Ω, die alle gleich wahrscheinlich sein sollen
- Ein Zufallsexperiment bei dem ein Element x ∈ Ω gezogen wird.
- Man definiert eine Teilmenge A ⊂ Ω.
- Dann fragt man sich, mit welcher Wahrscheinlichkeit das gezogene Element in der Teilmenge A liegen wird.
Anzahl “günstige” Fälle / Anzahl aller möglichen Fälle
Als Formel:
\( P(A) = \Large\frac{|A|}{|Ω|} \\ \)Das ist die sog. Laplace-Wahrscheinlichkeit.
Solange die Menge Ω endlich ist funktioniert das ja bestens.
Man nennt diese Sichtweise auch die “frequentistische”. Da geht es also um relative Häufigkeiten und wiederholbare Versuche, die langfristig sich der “wahren” Wahrscheinlichkeit annähern.
Axiomatische Wahrscheinlichkeitstheorie
Andrei Nikolajewitsch Kolmogorow (1903-1987) hat die Wahrscheinlichkeitsrechnung axiomatisch aufgebaut.
Sei Ω eine beliebige nicht leere Menge und P eine Funktion (Abbildung), die Teilmengen von Ω eine reelle Zahl zuordnet.
Eine Teilmenge von A ⊂ Ω nennen wir auch ein “Ereignis” und die zugeordnete Zahl P(A) die “Wahrscheinlichkeit” des Ereignisses A.
- Für alle Ereignisse A ist P(A) ≥ 0
- Die Wahrscheinlichkeit des sicheren Ereignisses Ω ist P(Ω) = 1
- Wenn wir zwei Ereignisse A und B betrachten, die “unvereinbar” sind; soll heissen A ∩ B = Ø, dann gilt:
P(A ∪ B) = P(A) + P(B)
Problematisch wird das, wenn die Grundmenge Ω überabzählbar ist. Dann kann man nicht jeder Teilmenge A ⊂ Ω eine reelle Zahl P(A) zuordnen, so dass die obigen Axiome erfüllt sind. Der Definitionsbereich der Funktion P muss dann etwas “trickreicher” definiert werden, was man mit Hilfe der Maßtheorie hinbekommt (Stichwort: σ-Algebra).
Bedingte Wahrscheinlichkeit
Die Wahrscheinlichkeit für das Eintreten von A unter der Bedingung, dass das Eintreten von B bereits bekannt ist schreibt man als: P(A|B).
\( P(A|B) = \Large\frac{P(A \, \cap \, B)}{P(B)} \)Aufgepasst: die Ereignisse A und B können zeitlich in beliebiger Reihenfolge eintreten. Ein Kausalzusammenhang ist erst recht nicht gemeint.
Wahrscheinlichkeit nach Thomas Bayes
Man nennt diese bisherigen Betrachtungen auch die “frequentistisch”. Da geht es also um relative Häufigkeiten und wiederholbare Versuche, die langfristig sich der “wahren” Wahrscheinlichkeit annähern.
Wir beginnen mal mit der “Bedingten Wahrscheinlichkeit” von oben. Man kann die Formel dafür auch anders schreiben:
\( P(A|B) = \Large \frac{P(B|A) P(A)}{P(B)} \)Dieses wird auch genannt “Satz von Bayes“.
Wenn ein Ereignis nicht wiederholbar ist, versagt die frequentistisch Definition von Wahrscheinlichkeit.
Beispiele:
- “Die Inflation wird im nächten Jahr mehr als 2% sein”
- “Wie wahrscheinlich ist ein Wahlsieg des ehemaligen Präsidenten?”
- “Wie hoch ist morgen die Regenwahrscheinlichkeit?”
Hier wird der Begriff “wahrscheinlich” umgangssprachlich verwendet – so in etwa in dem Sinne:
Wahrscheinlichkeit ist ein Maß für die Sicherheit der (persönlichen) Einschätzung eines Sachverhalts.
Wahrscheinlichkeiten in diesem Sinne werden auch vergleichend (“komperativ”) gebraucht: “Die Wahrscheinlichkeit für Regen morgen ist höher als für Regen übermorgen”.
Insofern könnte man eine so gemeinte Wahrscheinlichkeit auch sinnvoll durch eine Zahl zwischen Null und Eins ausdrücken. Man muss dieses o.g. “Maß” also irgendwie quantifizieren.
Für so eine Quantifizierung der Bayesschen Wahrscheinlichkeit gibt es zwei Ansätze.
Ansatz 1: de Finetti
Die Idee ist, dass man Gewissheit durch eine Art Wette quantifizieren kann.
Zu jedem Ereignis A, dem ich eine Wahrscheinlichkeitszahl zuordnen will mache ist ein Los, für das der Käufer einen “Gewinn” von 1 Euro von mir bekommt, wenn das Ereignis A eintrifft. Die Frage ist, zu welchem Preis ich so ein Los verkaufen würde. Dieser Preis, den ich festlege ist so etwas wie die von mir (subjektiv) eingeschätzte Sicherheit/Wahrscheinlichkeit mit der ich glaube, dass das Ereignis eintreten wird.
Ich muss zu diesem Preis (oder höher) verkaufen, wenn ein Käufer das anbietet; ich muss zu diesem (oder einem niedrigeren) Preis selber (zurück)kaufen, wenn ein Verkäufer das von mir verlangt.
Ansatz 2: Erweiterung der klassische Logik
Nachwievor arbeiten wir mit Aussagen die entweder (ganz) wahr oder (ganz) falsch sind, wir wissen es nur nicht genau. Daher ordnen wir solchen Aussagen Plausibilitäten zu (auf Grund von Tatsachen, die wir kennen).
Im Prinzip betrachten wir nicht allein Aussagen, sondern Kombinationen von Aussagen und Informationsständen und schreiben als Plausibilität von A bei einem Informationsstand I:
(A,I) ∈ [0,1]
Wobei das eine reelle Zahl zwischen o und 1 sein soll und bei gleichem A und gleichem I auch (A,I) immer gleich sein soll (Plausibilitäsroboter – also nicht subjektiv).
Das ganze soll nicht der Aussagenlogik widersprechen, was wir in einfachen Axiomen hinschreiben könnten.