WahrscheinlichkeitstheorieUnsicherheit, Zufall, Wahrscheinlichkeit: In der Wahrscheinlichkeitstheorie wird „Zufall“ modelliert und quantifiziert. Ihre Bedeutung leitet sich daraus ab, dass Zufall als die häufigste Quelle von Unsicherheit angesehen wird. Wahrscheinlichkeit ist kombinierbar mit anderen Konzepten von Unsicherheit, nämlich Vagheit und Chaos. Grundbegriffe der WahrscheinlichkeitstheorieWahrscheinlichkeit wird mathematisiert auf Basis eines von Kolmogoroff entwickelten Axiomensystems. Dessen Forderungen („Additivität“ und „Normiertheit“) orientieren sich an den Regeln im Umgang mit relativen Häufigkeiten. Eine inhaltliche Ausdeutung von Zufälligkeit unterbleibt. Entstanden ist daraus eine an Modellen und Resultaten reichhaltige Theorie, die sich an die unterschiedlichsten Fragestellungen adaptieren lässt. So bildet die Wahrscheinlichkeitstheorie das Fundament für die Statistik, das Operations Research (Warteschlangentheorie, Simulationen) sowie die Finanz- und Versicherungsmathematik. Jedes Wahrscheinlichkeits-Modell erfordert die Auszeichnung
(Der Ereignisraum E besitzt dabei eine algebraische, topologische und – daraus abgeleitet – eine messbare Struktur.) Mathematisch gesehen ist die Verwendung von Zufallsgrößen entbehrlich, da man sich auf E und die induzierte Wahrscheinlichkeit P • X-1 beschränken könnte. Da Zufallsgrößen eine höhere Anschaulichkeit besitzen, hat sich deren Verwendung durchgesetzt. Zentral ist das Konzept des „Bedingens“, welches es erlaubt, die Wahrscheinlichkeit eines Ereignisses bei Vorliegen von (realer oder hypothetischer) Information neu zu bewerten. Bei Vorliegen zweier Zufallsgrößen X, Y, beschreibt P(X-1 (B) | Y = y) die Verteilung der Werte von X unter der Hypothese „Y (ω)= y“. Im Prinzip läuft dies auf eine Beschränkung des Grundraumes bei gleichzeitiger Renormierung hinaus. Von spezieller Bedeutung ist der Fall, dass Y keinerlei Rückschlüsse auf X erlaubt – und umgekehrt. In diesem Falle spricht man von stochastischer Unabhängigkeit der Zufallsgrößen X und Y. Eine – zumeist partielle – Beschreibung von Verteilungen erfolgt mittels Verteilungsfunktionen und Momenten. Stochastische ProzesseDie Dynamik eines Zufallsgeschehens, typischerweise in der Zeit, wird mittels stochastischer Prozesse modelliert. Hier ist E ein Folgen- oder Funktionenraum. Der Prototyp sind Irrwanderungen, d. h. die Partialsummen stochastisch unabhängiger Zufallsgrößen mit der gleichen induzierten Verteilung. Diese standen Pate für die wichtigsten Grundtypen von Prozessen
Martingale, speziell Wienerprozesse bilden die Basis für stochastische Differentialgleichungen.
Grenzwertsätze der Wahrscheinlichkeitstheorie
Kern der Wahrscheinlichkeitstheorie sind Grenzwertsätze und mit ihnen Ungleichungen und Integraltransformationen.
Weitere Grenzwertsätze existieren in der Extremwert- und der Erneuerungstheorie.
Literaturauswahl Breiman, L.: Probability. Addison-Wesley 1968. Billingsley, P.: Convergence of Probability Measures. New York et al. : Wiley 1968. Brockwell, P.; Davis, R.: Time Series: Theory and Methods. Heidelberg et al.: Springer 1991. Dembo, A.; Zeitouni, O.; Karatzas, I.: Large Deviation: Techniques and Applications. Heidelberg et al. : Springer 1998. Doob, J. L.: Stochastic Processes. Wiley 1990. Feller, W.: An Introduction to Probability Theory and its Applications. New York et al. : Wiley Vol.1/2, 1958 resp. 1971. Jacod, J.; Shiryaevm, A.: Limit theorems for stochastic processes. Heidelberg et al.: Springer : 1987. Metivier, M.: Semimartingales. de Gruyter 1982. Neveu, J.: Discrete-parameter Martingales. North Holland 1975. Petrov, V.: Limit Theorems of Probability Theory. Oxford : Oxford Science Publications 1995. Resnick, S.: Extreme Values, Regular Variation and Point Processes. Heidelberg et al. :Springer 1987.
Autor![]() Prof. Dr. Ulrich Müller-Funk, Universität Münster, Institut für Wirtschaftsinformatik, Leonardo-Campus 3, 48149 Münster |