Warning: Undefined array key "DW68700bfd16c2027de7de74a5a8202a6f" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/translation/action.php on line 237

Warning: Trying to access array offset on value of type null in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/translation/action.php on line 237

Warning: Cannot modify header information - headers already sent by (output started at /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/translation/action.php:237) in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/inc/Action/Export.php on line 104

Warning: Cannot modify header information - headers already sent by (output started at /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/translation/action.php:237) in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/inc/Action/Export.php on line 104

Warning: Cannot modify header information - headers already sent by (output started at /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/translation/action.php:237) in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/inc/Action/Export.php on line 104
====== STAT3 Wahrscheinlichkeiten ====== ^ Modul | STAT3 Wahrscheinlichkeitsrechnung | ^ Kategorie | [[/fm/stat|Statistik]] | ^ Autor | [[/team|Cengic]] | ^ Voraussetzung | keine | ^ Bearbeitungsdauer | ca. 30 Minuten | ^ Lehrveranstaltung ^ Lernziele | | SE Quantitative Forschungsmethoden | - Grundbegriffe der Wahrscheinlichkeitsrechnung kennen und anwenden können \\ - Binomial- und Normalverteilung und deren Unterschiede kennen | ===== Einleitung ===== Von größter Bedeutung für das Entstehen der heutigen Statistik war der Einfluss der Wahrscheinlichkeitsrechnung. Die Wahrscheinlichkeitstheorie hat ihren Ursprung im 16. Jahrhundert in der Berechnung von Chancen bei Glücksspielen. Der italienische Mathematiker, Physiker und Philosoph Geronimo Cardano (1501-1576) legte zu jener Zeit empirisch fest, dass beim Würfeln mit einem "idealen" Würfel als Ergebnis alle Seiten gleich wahrscheinlich sind. Exakte Berechnungen der Wahrscheinlichkeit beim Würfeln finden sich im Werk //Considerazione sopra il Giuco die Dadi// (veröffentlicht im Jahr 1718) des Italieners Galileo Galilei (1564-1642). Im Jahr 1812 gibt Pierre Simon Marquis de Laplace (1749-1827) einen Überblick über den bisweiligen Stand der Wahrscheinlichkeitsrechnung (vgl. Hartung. 1987, S.10). \\ Erst im 19. Jahrhundert formte eine Gruppe von englischen Naturwissenschaftlern einer Zweig der Statistik, welcher sich ausschließlich mit Stochastik befasste, einem Teilgebiet der angewandten Mathematik (vgl. Pflaumer et al., 2009, S. 9). \\ \\ ==== Interpretationsmöglichkeiten ==== Der Wahrscheinlichkeitsbegriff spielt eine große Rolle in der Statistik. An einem anschaulichen Beispiel zeigt Ross (2006, S. 51) zwei Interpretationsmöglichkeiten des Wahrscheinlichkeitsbegriffes auf. \\ __Beispiel:__ \\ //Der Geologe sagt, es gibt eine Wahrscheinlichkeit von 60 %, in einer bestimmten Region Öl zu finden.// \\ Eine Möglichkeit die Aussage des Geologen zu interpretieren wäre, die Wahrscheinlichkeit auf langer Sicht Öl zu finden, würde 60 % betragen (**Häufigkeitsinterpretation**). Die andere Möglichkeit ist die **subjektive Interpretation**. Demnach könnte die Aussage des Geologen sein, dass die Wahrscheinlichkeit 60 % beträgt, in der betreffenden Region Öl zu finden. \\ \\ ===== Grundbegriffe ===== Aussagen über Wahrscheinlichkeiten können nur getroffen werden, wenn Ereignisse zufällig auftreten. Im Folgenden werden die Begriffe //Zufallsvariable// und //Erwartungswert// erläutert. \\ \\ ==== Zufallsvariable ==== In einem Zufallsexperiment sind weniger die Details interessant; es interessiert mehr der Wert einiger numerischer Größen, die sich aus dem Ergebnis berechnen lassen. Dieser Wert wird i.d.R. als Zufallsvariable bezeichnet. \\ __Würfelbeispiel:__ \\ //Beim Werfen von zwei Würfeln ist nur die Summe ausschlaggebend. Wenn die Summe beider Augenzahlen den Wert 7 annimmt, so ist es egal, ob sie sich durch die Kombination (1, 6), (2, 5), (3, 4), (4, 3), (5, 2) oder (6, 1) ergeben hat.// \\ Des Weiteren trifft Ross (2006, S. 85ff.) die Unterscheidung in **diskrete** und **stetige** Zufallsvariablen. Die Menge der möglichen Werte einer diskreten Zufallsvariable ist eine Zahlenfolge. Eine Variable oder ein Merkmal $X$ heißt stetig, falls in einem Intervall überabzählbar viele Zwischenwerte möglich sind. \\ \\ ==== Erwartungswert ==== Der Erwartungswert $E[X]$ ist ein gewichtetes Mittel der möglichen Werte (z.B. $x_1$, $x_2$, ...), die $X$ annehmen kann. \\ ;#; $E[X]\ =\ \sum_i\ x_i\ P\{X\ =\ x_i\}$ ;#; Eine Möglichkeit die mathematische Definition des Erwartungswertes zu veranschaulichen ist die Betrachtung der Häufigkeitsinterpretation der Wahrscheinlichkeit. Bei unendlich ofter Wiederholung eines Zufallsexperiments wird die relative Häufigkeit des Ereignisses $E$ den Wert seiner Wahrscheinlichkeit $P(E)$ annehmen. \\ //Rechnung:// Wegen $ p(1)\ =\ p(2)\ =\ p(3)\ =\ p(4)\ =\ p(5)\ =\ p(6)\ =\ \frac{1}{6}$ erhalten wir \\ \\ ;#; $E[X]\ =\ 1*\frac{1}{6}\ +\ 2*\frac{1}{6}\ +\ 3*\frac{1}{6}\ +\ 4*\frac{1}{6}\ +\ 5*\frac{1}{6}\ +\ 6*\frac{1}{6}\ =\ \frac{7}{2}$. ;#; //Antwort:// \\ Wenn stets mit einem fairen Würfel geworfen wird, wird nach einer großen Zahl von Würfen das Mittel über alle Ergebnisse $\frac{7}{2}$ sein. \\ Es gilt zu beachten, dass der Erwartungswert von $X$ ist kein Wert ist, den $X$ tatsächlich annehmen kann. Der Erwartungswert $E[X]$ ist ein Mittelwert einer großen Zahl von Wiederholungen des Experiments. \\ \\ ===== Mengenlehre ===== Im folgenden wird auf die Mengenlehre eingegangen, da sich je nach betrachteter Mengenform unterschiedliche Wahrscheinlichkeiten ergeben können. Um den Begriff der Menge besser zu verstehen, wird zunächst der //Stichprobenraum// (auch: //Ereignisraum//) erklärt. * $S = \{m, f\}$ – Bei einer Geburt ist das Kind entweder männlich oder weiblich * $S = \{1, 2, 3, 5, 5\}$ – Man lässt 5 TU-Studierende gegeneinander laufen. Wer gewinnt? * $S = (0, ∞)$ – Wie viele Medikamente sollen dem Patienten verabreicht werden? Der Stichprobenraum trägt das Formelzeichen $S$ und entspricht der Menge aller möglichen Ausgänge in einem Experiment, Befragung etc.. Die Untermenge $E$ des Stichprobenraums wird als //Ereignis// bezeichnet. Im ersteren Beispiel wäre $E = {m}$, falls ein Junge auf die Welt gekommen ist. \\ Es ist möglich Untermengen mittels Operatoren zu kombinieren. Im Folgenden werde die vier gängigsten Mengenoperatoren vorgestellt (s. Abb. 1): Vereinigung, (Durch)Schnitt, Komplement und Teilmenge. \\ [{{:fm:stat:mengen_new.png?nolink&300 |Abb. 1: Venn-Diagramm der gängigsten Mengenoperatoren (mod. nach Ross, 2006, S. 54)}}] Der Fall (a) zeigt die Vereinigung zweier Untermengen $E$ und $F$ von $S$, wohingegen im zweiten Fall (b) nur der Durchschnitt beider Untermengen betrachtet wird. Das Komplement des Ereignisses $E$ ist durch $\bar{E}$ gekennzeichnet (dritter Fall). Bild (d) zeigt, dass $F$ eine Untermenge von $E$ ist. Ebenso ist $E$ eine Untermenge des Stichprobenraums $S$. \\ __Beispiel 1:__ \\ Die Anzahl aller Geburten im Jahr 2014 bezeichnet den Stichprobenraum $S$. Den Ereignissen $E$ und $F$ wird folgende Bedeutung zugeschrieben: * $E = [3000, 3600]$ * $F = [3300, 4000]$ Das Ereignis $E$ umfasst alle Neugeborenen, dessen Geburtsgewicht zwischen 3000-3600 g liegt. In der Untermenge $F$ sind die Gewichte 3300-4000 g hinterlegt. \\ 3000-4000 g 3300-3600 g \\ \\ __Beispiel 2:__ \\ In einem Umschlag befinden sich 3 kreisförmige, 2 rechteckige und 3 quadratische Papierschnipsel. Bei dieser Aufgabe muss beachtet werden, dass ein Quadrat eine Untermenge eines Rechtecks darstellt ($Quadrat \subset Rechteck$), jedoch nicht andersherum. Einfach ausgedrückt: "jedes Quadrat ist ein Rechteck, jedoch nicht jedes Rechteck ein Quadrat". Wenn nun nach der Wahrscheinlichkeit gesucht wird, ein Rechteck zu ziehen, müssen die Wahrscheinlichkeiten summiert werden. $ P(Rechteck) = P(rechteckige\,Papierschnipsel) + P(quadratische\,Papierschnipsel) = 2/8 + 3/8 = 5/8 = 62,5\%$ \\ \\ ===== Verteilungen ===== Der Begriff der Wahrscheinlichkeit wird in direktem Zusammenhang mit der Verteilung von Ereignissen oder Ergebnissen gennant. Daher wird im folgenden näher auf die zwei wichtigsten Verteilungen eingegangen. ==== Binomialverteilung ==== Eine Zufallsvariable mit zwei Ausgängen wird als Bernoulli-Variable (nach dem Schweizer Mathematiker Jakob Bernoulli, 1655-1705) bezeichnet. Ein Zufallsversuch kann entweder mit einem "Erfolg" oder "Misserfolg" enden. Angenommen $X$ bezeichne eine Zufallsvariable, die bei einem Erfolg den Wert $X=1$ und bei Versagen den Wert $X=0$ annimmt. \\ \\ $P\{X\ =\ 0\}\ =\ 1-p$ \\ $P\{X\ =\ 1\}\ =\ p$ \\ \\ Dabei ist $p$ mit $0\ \le\ p\ \le 1$ die Wahrscheinlichkeit, dass der Zufallsversuch mit einem Erfolg endet. \\ Der **Erwartungswert** einer Bernoulli-Variablen ist die Wahrscheinlichkeit, dass die Zufallsvariable den Wert $1$ (Erfolg) annimmt. ;#; $E[X]\ =\ 1*P\{X\ =\ 1\} + 0*P\{X\ =\ 0\}\ =\ p$ ;#; \\ In einem Zufallsexperiment werden nacheinander $n$ unabhängige Versuche durchgeführt, von denen jeder mit der Wahrscheinlichkeit $p$ mit einem Erfolg enden kann. Die Binomialvariable $X$ bezeichnet die Zahl der Erfolge in $n$ Versuchen. Die Wahrscheinlichkeitsfunktion einer Binomialvariablen mit den Parametern $n$ und $p$ ist gegeben durch ;#; $P\{X=k\}\ =\ \binom{n}{k}\ p^k\ (1-p)^{n-k}, \ \ \ i=0, 1, ..., n$ ;#; Der Binomialfaktor $\binom{n}{k}$ bezeichnet die Zahl der verschiedenen Gruppen von $k$ Objekten, die aus einer Menge von $n$ Objekten ausgewählt werden können. Ein anschauliches Beispiel zur Wahrscheinlichkeitsfunktion einer Binomialvariablen kann im STAT3-Tutorial angesehen werden. $\binom{n}{k} = \frac{n!}{k!\ (n-k)!}$ \\ \\ ==== Normalverteilung ==== Die Gauß- oder Normalverteilung ist eine stetige Verteilung, d.h. ihre Zufallsvariablen können beliebig viele reelle Werte annehmen. Sie ist definiert durch folgende Wahrscheinlichkeitsdichte ;#; $f(x)\ =\ \frac{1}{\sigma\ \sqrt{2\ \pi}}\ e^{-\frac{1}{2}\ (\frac{x-\mu}{\sigma})^2},\ \ \ -\infty < x < \infty,\ \sigma > 0$. ;#; \\ Das Aussehen und die Eigenschaften der Normalverteilung werden durch zwei Parameter bestimmt, dem Erwartungswert $\mu$ und der Standardabweichung $\sigma$. Die gesamte Fläche, die von der Kurve der Normalverteilung eingeschlossen wird ist stets $1$. \\ Ein Beispiel für die Normalverteilung ist die Körpergröße von Männern. Die meisten Männer sind durchschnittlich groß und nur sehr wenige zu klein oder zu groß. \\ \\ === GGB-Applet === **Credits:** \\ Dieses Applet ([[https://creativecommons.org/licenses/by-sa/3.0/|CC-BY-SA]]) wurde uns zur Verfügung gestellt von [[http://tube.geogebra.org/user/profile/id/4709|Hermiod]], erstellt am 29. Oktober 2014. Das Arbeitsblatt kann unter folgendem [[http://tube.geogebra.org/material/show/id/232845#comment-4487|Link]] aufgerufen werden. \\
\\ \\ Auf die Exponentialverteilung oder die Poisson-Verteilung an dieser Stelle nicht näher eingegangen. ===== Zusammenfassung ===== Eine Zusammenfassung über diese Kapitel liefert das STAT3-Tutorial. \\ {{ youtube>large:jYNR179fzvQ|Grundlagen der Wahrscheinlichkeitsrechnung }} \\ \\ ====== Fragen ====== * Beschreibe den Unterschied beider Interpretationsmöglichkeiten des Wahrscheinlichkeitsbegriffs in eigenen Worten. * Nennen Sie jeweils ein Beispiel für eine diskrete bzw. stetige Zufallsvariable. * Was passiert bei Veränderung des Erwartungswertes bzw. Standardabweichung einer normalverteilten Zufallsvariable? \\ \\ ====== Literatur ====== Hartung, J. (1987). //Statistik//. München: Oldenbourg. \\ Pflaumer, P., Heine, B. & Hartung, J. (2009). //Deskriptive Statistik//. München: Oldenbourg. \\ Ross, S. M. (2006). //Statistik für Ingenieure und Naturwissenschaftler//. Heidelberg: Elsevier GmbH, Spektrum Akademischer Verlag. \\ {{indexmenu_n>3}} \\ free hits