Die Vorlesung beginnt mit elementaren Beispielen von Häufigkeiten, die wohl vielen bereits aus der Schule bekannt sein werden, und führt anhand dieser die wichtigsten Grundbegriffe der Wahrscheinlichkeitstheorie ein.
Mit am zentralsten ist der Begriff der Zufallsvariablen, mit dem sich Größen beschreiben lassen, die durch zufallsbestimmte Ereignisse beeinflußt sind. Über solche Variablen lassen sich nur dann konkrete Aussagen machen, wenn sie trotz aller Zufallseinflüsse Gesetzmäßigkeiten unterliegen; diese werden mathematisch erfaßt durch Wahrscheinlichkeitsverteilungen und deren statistische Kenngrößen. Um diese auch für kontinuierliche Verteilungen definieren zu können, wird in diesem Zusammenhang kurz das Lebesgue-Maß eingeführt; außerdem werden zwei fundamentale Gesetze bewiesen: der zentrale Grenzwertsatz und das Gesetz der großen Zahlen, die beide Aussagen machen über den Mittelwert einer Folge von Zufallsvariablen und dessen Verteilung.
Oft interessiert bei einer Folge von Zufallsvariablen nicht deren Mittelwert, sondern die zeitliche Entwicklung; dieser Aspekt führt zur Betrachtung stochastischer Prozesse, die als Modelle für zufallsabhängige Entwicklungen dienen können - sowohl in Technik und Wirtschaft als auch beispielsweise für das noch verbleibende Vermögen eines Spielers im Casino. Sie sollen in erster Linie anhand einiger wichtiger Beispiele vorgestellt werden. Eine wesentliche Rolle spielen dabei auch bedingte Wahrscheinlichkeiten und Erwartungen, mit denen man Aussagen über die künftige Entwicklung machen kann auf der Basis des im Augenblick vorhandenen Wissens.Den Abschluß bildet ein Kapitel über den Zusammenhang zwischen Wahrscheinlichkeitstheorie und Informationstheorie sowie Anwendungen auf Kodierung und Simulation.
Die Vorlesung hält sich im wesentlichen an das entsprechende
Skriptum von Herrn Potthoff, erhältlich unter
http://ls5.math.uni-mannheim.de/lehre/einf.Wth.html
.