Benutzer-Werkzeuge

Webseiten-Werkzeuge


fm:stat:stat03

STAT3 Wahrscheinlichkeiten

Modul STAT3 Wahrscheinlichkeitsrechnung
Kategorie Statistik
Autor Cengic
Voraussetzung keine
Bearbeitungsdauer ca. 30 Minuten
Lehrveranstaltung Lernziele
SE Quantitative Forschungsmethoden - Grundbegriffe der Wahrscheinlichkeitsrechnung kennen und anwenden können
- Binomial- und Normalverteilung und deren Unterschiede kennen

Einleitung

Von größter Bedeutung für das Entstehen der heutigen Statistik war der Einfluss der Wahrscheinlichkeitsrechnung. Die Wahrscheinlichkeitstheorie hat ihren Ursprung im 16. Jahrhundert in der Berechnung von Chancen bei Glücksspielen. Der italienische Mathematiker, Physiker und Philosoph Geronimo Cardano (1501-1576) legte zu jener Zeit empirisch fest, dass beim Würfeln mit einem „idealen“ Würfel als Ergebnis alle Seiten gleich wahrscheinlich sind. Exakte Berechnungen der Wahrscheinlichkeit beim Würfeln finden sich im Werk Considerazione sopra il Giuco die Dadi (veröffentlicht im Jahr 1718) des Italieners Galileo Galilei (1564-1642). Im Jahr 1812 gibt Pierre Simon Marquis de Laplace (1749-1827) einen Überblick über den bisweiligen Stand der Wahrscheinlichkeitsrechnung (vgl. Hartung. 1987, S.10).

Erst im 19. Jahrhundert formte eine Gruppe von englischen Naturwissenschaftlern einer Zweig der Statistik, welcher sich ausschließlich mit Stochastik befasste, einem Teilgebiet der angewandten Mathematik (vgl. Pflaumer et al., 2009, S. 9).

Interpretationsmöglichkeiten

Der Wahrscheinlichkeitsbegriff spielt eine große Rolle in der Statistik. An einem anschaulichen Beispiel zeigt Ross (2006, S. 51) zwei Interpretationsmöglichkeiten des Wahrscheinlichkeitsbegriffes auf.

Beispiel:
Der Geologe sagt, es gibt eine Wahrscheinlichkeit von 60 %, in einer bestimmten Region Öl zu finden.

Eine Möglichkeit die Aussage des Geologen zu interpretieren wäre, die Wahrscheinlichkeit auf langer Sicht Öl zu finden, würde 60 % betragen (Häufigkeitsinterpretation). Die andere Möglichkeit ist die subjektive Interpretation. Demnach könnte die Aussage des Geologen sein, dass die Wahrscheinlichkeit 60 % beträgt, in der betreffenden Region Öl zu finden.

Grundbegriffe

Aussagen über Wahrscheinlichkeiten können nur getroffen werden, wenn Ereignisse zufällig auftreten. Im Folgenden werden die Begriffe Zufallsvariable und Erwartungswert erläutert.

Zufallsvariable

In einem Zufallsexperiment sind weniger die Details interessant; es interessiert mehr der Wert einiger numerischer Größen, die sich aus dem Ergebnis berechnen lassen. Dieser Wert wird i.d.R. als Zufallsvariable bezeichnet.

Würfelbeispiel:
Beim Werfen von zwei Würfeln ist nur die Summe ausschlaggebend. Wenn die Summe beider Augenzahlen den Wert 7 annimmt, so ist es egal, ob sie sich durch die Kombination (1, 6), (2, 5), (3, 4), (4, 3), (5, 2) oder (6, 1) ergeben hat.

Des Weiteren trifft Ross (2006, S. 85ff.) die Unterscheidung in diskrete und stetige Zufallsvariablen. Die Menge der möglichen Werte einer diskreten Zufallsvariable ist eine Zahlenfolge. Eine Variable oder ein Merkmal $X$ heißt stetig, falls in einem Intervall überabzählbar viele Zwischenwerte möglich sind.

Erwartungswert

Der Erwartungswert $E[X]$ ist ein gewichtetes Mittel der möglichen Werte (z.B. $x_1$, $x_2$, …), die $X$ annehmen kann.

;#; $E[X]\ =\ \sum_i\ x_i\ P\{X\ =\ x_i\}$ ;#;

Eine Möglichkeit die mathematische Definition des Erwartungswertes zu veranschaulichen ist die Betrachtung der Häufigkeitsinterpretation der Wahrscheinlichkeit. Bei unendlich ofter Wiederholung eines Zufallsexperiments wird die relative Häufigkeit des Ereignisses $E$ den Wert seiner Wahrscheinlichkeit $P(E)$ annehmen.

<spoiler| Berechnen Sie $E[X]$, wenn $X$ die Augenzahl beim Werfen eines fairen Würfels ist> Rechnung: Wegen $ p(1)\ =\ p(2)\ =\ p(3)\ =\ p(4)\ =\ p(5)\ =\ p(6)\ =\ \frac{1}{6}$ erhalten wir

;#; $E[X]\ =\ 1*\frac{1}{6}\ +\ 2*\frac{1}{6}\ +\ 3*\frac{1}{6}\ +\ 4*\frac{1}{6}\ +\ 5*\frac{1}{6}\ +\ 6*\frac{1}{6}\ =\ \frac{7}{2}$. ;#;

Antwort:
Wenn stets mit einem fairen Würfel geworfen wird, wird nach einer großen Zahl von Würfen das Mittel über alle Ergebnisse $\frac{7}{2}$ sein. </spoiler>
Es gilt zu beachten, dass der Erwartungswert von $X$ ist kein Wert ist, den $X$ tatsächlich annehmen kann. Der Erwartungswert $E[X]$ ist ein Mittelwert einer großen Zahl von Wiederholungen des Experiments.

Mengenlehre

Im folgenden wird auf die Mengenlehre eingegangen, da sich je nach betrachteter Mengenform unterschiedliche Wahrscheinlichkeiten ergeben können.

Um den Begriff der Menge besser zu verstehen, wird zunächst der Stichprobenraum (auch: Ereignisraum) erklärt.

  • $S = \{m, f\}$ – Bei einer Geburt ist das Kind entweder männlich oder weiblich
  • $S = \{1, 2, 3, 5, 5\}$ – Man lässt 5 TU-Studierende gegeneinander laufen. Wer gewinnt?
  • $S = (0, ∞)$ – Wie viele Medikamente sollen dem Patienten verabreicht werden?

Der Stichprobenraum trägt das Formelzeichen $S$ und entspricht der Menge aller möglichen Ausgänge in einem Experiment, Befragung etc.. Die Untermenge $E$ des Stichprobenraums wird als Ereignis bezeichnet. Im ersteren Beispiel wäre $E = {m}$, falls ein Junge auf die Welt gekommen ist.

Es ist möglich Untermengen mittels Operatoren zu kombinieren. Im Folgenden werde die vier gängigsten Mengenoperatoren vorgestellt (s. Abb. 1): Vereinigung, (Durch)Schnitt, Komplement und Teilmenge.

Abb. 1: Venn-Diagramm der gängigsten Mengenoperatoren (mod. nach Ross, 2006, S. 54)

Der Fall (a) zeigt die Vereinigung zweier Untermengen $E$ und $F$ von $S$, wohingegen im zweiten Fall (b) nur der Durchschnitt beider Untermengen betrachtet wird. Das Komplement des Ereignisses $E$ ist durch $\bar{E}$ gekennzeichnet (dritter Fall). Bild (d) zeigt, dass $F$ eine Untermenge von $E$ ist. Ebenso ist $E$ eine Untermenge des Stichprobenraums $S$.

Beispiel 1:
Die Anzahl aller Geburten im Jahr 2014 bezeichnet den Stichprobenraum $S$. Den Ereignissen $E$ und $F$ wird folgende Bedeutung zugeschrieben:

  • $E = [3000, 3600]$
  • $F = [3300, 4000]$

Das Ereignis $E$ umfasst alle Neugeborenen, dessen Geburtsgewicht zwischen 3000-3600 g liegt. In der Untermenge $F$ sind die Gewichte 3300-4000 g hinterlegt.

<spoiler| Welche Werte nimmt die vereinigte Menge $E\ \cup\ F$ an?> 3000-4000 g </spoiler>

<spoiler| Welche Werte nimmt die Schnittmenge $E\ \cap\ F$ an?> 3300-3600 g </spoiler>



Beispiel 2:
In einem Umschlag befinden sich 3 kreisförmige, 2 rechteckige und 3 quadratische Papierschnipsel. <spoiler|Welche Wahrscheinlichkeit ergibt sich ein Rechteck zu ziehen?> Bei dieser Aufgabe muss beachtet werden, dass ein Quadrat eine Untermenge eines Rechtecks darstellt ($Quadrat \subset Rechteck$), jedoch nicht andersherum. Einfach ausgedrückt: „jedes Quadrat ist ein Rechteck, jedoch nicht jedes Rechteck ein Quadrat“. Wenn nun nach der Wahrscheinlichkeit gesucht wird, ein Rechteck zu ziehen, müssen die Wahrscheinlichkeiten summiert werden.

$ P(Rechteck) = P(rechteckige\,Papierschnipsel) + P(quadratische\,Papierschnipsel) = 2/8 + 3/8 = 5/8 = 62,5\%$

</spoiler>



Verteilungen

Der Begriff der Wahrscheinlichkeit wird in direktem Zusammenhang mit der Verteilung von Ereignissen oder Ergebnissen gennant. Daher wird im folgenden näher auf die zwei wichtigsten Verteilungen eingegangen.

Binomialverteilung

Eine Zufallsvariable mit zwei Ausgängen wird als Bernoulli-Variable (nach dem Schweizer Mathematiker Jakob Bernoulli, 1655-1705) bezeichnet. Ein Zufallsversuch kann entweder mit einem „Erfolg“ oder „Misserfolg“ enden. Angenommen $X$ bezeichne eine Zufallsvariable, die bei einem Erfolg den Wert $X=1$ und bei Versagen den Wert $X=0$ annimmt.

$P\{X\ =\ 0\}\ =\ 1-p$
$P\{X\ =\ 1\}\ =\ p$

Dabei ist $p$ mit $0\ \le\ p\ \le 1$ die Wahrscheinlichkeit, dass der Zufallsversuch mit einem Erfolg endet.

Der Erwartungswert einer Bernoulli-Variablen ist die Wahrscheinlichkeit, dass die Zufallsvariable den Wert $1$ (Erfolg) annimmt.

;#; $E[X]\ =\ 1*P\{X\ =\ 1\} + 0*P\{X\ =\ 0\}\ =\ p$ ;#;
In einem Zufallsexperiment werden nacheinander $n$ unabhängige Versuche durchgeführt, von denen jeder mit der Wahrscheinlichkeit $p$ mit einem Erfolg enden kann. Die Binomialvariable $X$ bezeichnet die Zahl der Erfolge in $n$ Versuchen. Die Wahrscheinlichkeitsfunktion einer Binomialvariablen mit den Parametern $n$ und $p$ ist gegeben durch

;#; $P\{X=k\}\ =\ \binom{n}{k}\ p^k\ (1-p)^{n-k}, \ \ \ i=0, 1, \ldots, n$ ;#;

Der Binomialfaktor $\binom{n}{k}$ bezeichnet die Zahl der verschiedenen Gruppen von $k$ Objekten, die aus einer Menge von $n$ Objekten ausgewählt werden können. Ein anschauliches Beispiel zur Wahrscheinlichkeitsfunktion einer Binomialvariablen kann im STAT3-Tutorial angesehen werden.

$\binom{n}{k} = \frac{n!}{k!\ (n-k)!}$

Normalverteilung

Die Gauß- oder Normalverteilung ist eine stetige Verteilung, d.h. ihre Zufallsvariablen können beliebig viele reelle Werte annehmen. Sie ist definiert durch folgende Wahrscheinlichkeitsdichte

;#; $f(x)\ =\ \frac{1}{\sigma\ \sqrt{2\ \pi}}\ e^{-\frac{1}{2}\ (\frac{x-\mu}{\sigma})^2},\ \ \ -\infty < x < \infty,\ \sigma > 0$. ;#;
Das Aussehen und die Eigenschaften der Normalverteilung werden durch zwei Parameter bestimmt, dem Erwartungswert $\mu$ und der Standardabweichung $\sigma$. Die gesamte Fläche, die von der Kurve der Normalverteilung eingeschlossen wird ist stets $1$.

Ein Beispiel für die Normalverteilung ist die Körpergröße von Männern. Die meisten Männer sind durchschnittlich groß und nur sehr wenige zu klein oder zu groß.

GGB-Applet

Credits:
Dieses Applet (CC-BY-SA) wurde uns zur Verfügung gestellt von Hermiod, erstellt am 29. Oktober 2014. Das Arbeitsblatt kann unter folgendem Link aufgerufen werden.



Auf die Exponentialverteilung oder die Poisson-Verteilung an dieser Stelle nicht näher eingegangen.

Zusammenfassung

Eine Zusammenfassung über diese Kapitel liefert das STAT3-Tutorial.



Fragen

  • Beschreibe den Unterschied beider Interpretationsmöglichkeiten des Wahrscheinlichkeitsbegriffs in eigenen Worten.
  • Nennen Sie jeweils ein Beispiel für eine diskrete bzw. stetige Zufallsvariable.
  • Was passiert bei Veränderung des Erwartungswertes bzw. Standardabweichung einer normalverteilten Zufallsvariable?



Literatur

Hartung, J. (1987). Statistik. München: Oldenbourg.

Pflaumer, P., Heine, B. & Hartung, J. (2009). Deskriptive Statistik. München: Oldenbourg.

Ross, S. M. (2006). Statistik für Ingenieure und Naturwissenschaftler. Heidelberg: Elsevier GmbH, Spektrum Akademischer Verlag.

indexmenu_n_3

free hits

fm/stat/stat03.txt · Zuletzt geändert: 28.11.2022 00:11 von 127.0.0.1


Warning: Undefined variable $orig_id in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/openas/action.php on line 232