STAT7 Stichproben-t-Test

Modul STAT7 Stichproben-t-Test
Kategorie Statistik
Autor Cengic
Voraussetzung keine
Bearbeitungsdauer ca. 45 Minuten
Status in Bearbeitung
Lehrveranstaltung Lernziel


Einleitung

In diesem Wiki widmen wir uns der T-Statistik, welche vom englischen Statistiker William Sealy Gosset im Jahre 1908 eingeführt worden ist. Beim t-Test soll der Frage nachgegangen werden, ob sich zwei Gruppen nach einem bestimmten Merkmal unterscheiden. Dieser Test wird zur statistisch signifikanten Unterscheidung zweier Stichproben verwendet. Dabei werden als Populationsparameter die Streu- und Mittelwerte beider Stichproben genommen, darauf folgt eine Überprüfung, ob diese sich systematisch voneinander unterscheiden (Rasch et al., 2010, S. 44). Bei mehreren Stichproben kommt die ANOVA zum Einsatz. So eignet sich ein t-Test, um z.B. den Einfluss des Geschlechts auf die menschliche Körpergröße zu prüfen.

Um auf der Grundlage einer Stichprobenbetrachtung unverzerrte Aussagen über die Grundgesamtheit treffen zu können, ist es erforderlich dass die Stichprobe bestimmte Anforderungen erfüllt (Brosius, 1998, S. 457):

  1. die Stichprobe ist ein Teil der Grundgesamtheit
  2. die Stichprobe stellt eine Zufällige Auswahl der Grundgesamtheit dar

Beispiel
Folgendes einführendes Beispiel soll zu einem besseren Verständnis des t-Tests führen: Es soll überprüft werden, ob das Rennen mit Spikes einen Effekt auf die Geschwindigkeit beim 100m-Sprint hat. Dazu werden zwei Gruppen gebildet mit jeweils 10 Probanden. Gruppe A bekommt einen Laufschuh mit Spikes an der Sohle, Gruppe B hingegen zieht sich einen regulären Laufschuh mit normaler Sohle an. In der Gruppe A mit Spikes an der Sohle betrug die Durchschnittsgeschwindigkeit 12,3 mit einer Standardabweichung von 1,12. Die andere Gruppe B hatte eine Durchschnittsgeschwindigkeit von 13,5 mit einer Standardabweichung von 1,37. Der t-Test geht der Frage nach, ob der Unterschied beider Gruppen groß genug ist, sodass behauptet werden kann, dass sich beide Gruppen signifikant voneinander unterscheiden. Der Vergleich beider Mittelwerte spielt dabei eine große Rolle.

Arten des t-Tests

Abb. 1: Entscheidungsbaum für die Auswahl eines geeigneten t-Tests (mod. nach Kuckartz et al., 2013, S. 160)

Der t-Test überprüft ob sich die Mittelwerte zweier Gruppen systematisch unterscheiden. Unterscheiden sich diese, sind die Gruppen bzw. Stichproben unabhängig. Ist kein Unterschied festzustellen handelt es sich um voneinander abhängige Stichproben. Dann ist die Rede von gepaarten Stichproben. Dies ist bei Messwiederholungen der Fall, wenn z.B. Daten mehrmals an der gleichen Versuchsperson erhoben werden. Als Beispiel kann die Konzentrationsfähigkeit von Fußballspielern vor und nach einem Spiel betrachtet werden (Mehrfachmessung der gleichen Versuchsperson - gepaarte Stichprobe).

Im Folgenden beschäftigen wir uns mit unabhängigen Stichproben. Hier stehen Untersichungseinheiten beider Gruppen in keiner sich beeinflussenden Beziehung (Kuckartz, 2013, S. 161).

Bei der Auswahl eines geeigneten t-Tests gilt es darauf zu achten, ob die Varianzen homogen oder heterogen sind. Zur Überprüfung auf Varianzhomogenität kann z.B. der Levene-Test herangezogen werden.



Voraussetzungen

Die Anwendung des t-Tests ist an drei Voraussetzungen gebunden:

  • statistischen Unabhängigkeit (–> z.B. durch eine Zufallsstichprobe sicherstellen)
  • Normalverteilung des Merkmals (–> lässt sich mit einem Anpassungstest prüfen)
  • Gleichheit der Varianzen (–> lässt sich mit dem F-Test prüfen)



Grundlagen der t-Statistik

Nach Rasch et al. (2010, S. 50) ist für die Bewertung der Auftretenswahrscheinlichkeit einer empirisch gefundenen Differenz ein standardisiertes Maß für eine Mittelwertsdifferenz sehr hilfreich. In anderen Worten, wir benötigen eine Prüfgröße t, die sagt, wie signifikant der Unterschied zweier Gruppem ist. Die Prüfgröße t kann sowohl negativ als auch positiv sein. Außerdem ist die Form einer t-Verteilung von den Stichprobengrößen bzw. den Freiheitsgraden der Verteilung abhängig.

Abb. 1: Erklärung des t-Werts (mod nach StatsCast, 2010)

In Abb. 2 ist die Körpergrößenverteilung zwischen dem männlichen und weiblichen Geschlecht grafisch dargestellt. Die Mittelwerte beider Geschlechter unterscheiden sich um 20 cm. Die Variabilität innerhalb der zwei Gruppen beträgt bei beiden Geschlechtern 30 cm. Folglich ergibt sich: $t = \frac{20}{30} \approx 66,7%$.

Freiheitsgrade einer t-Verteilung
Die Anzahl an Freiheitsgraden bestimmt die Form der Verteilungsfunktion und gibt an, wie viele Werte in einer Berechnungsformel frei variieren dürfen, damit es zu genau einem bestimmten Ergebnis kommt (Rasch et al., 2010, S. 52ff.). Dementsprechend lautet die Formel zur Berechnung der Freiheitsgrade ($df$):

$$ df = (n_1-1) + (n_2-1) = n_1 + n_2 - 2 $$


Berechnung des t-Wertes

Um geprüfte Aussagen machen zu können, wird der Zusammenhang zwischen zwei Stichproben mittels einer statistischen Kennzahl, dem t-Wert, erfasst. Anhand der Prüfgröße lässt sich bestimmen, wie wahrscheinlich es ist, dass der beobachtete Mittelwertsunterschied auftritt.

Bei homogenen Varianzen lässt sich der t-Wert folgendermaßen errechnen (Kuckartz, 2013, S. 162):

$$ t_{df} = \frac{\overline{x}_1 - \overline{x}_2}{ \hat{\sigma}_{\overline{x}_1 - \overline{x}_2} } $$

$\overline{x}_1$ bzw. $\overline{x}_2$ bezeichnen den Mittelwert der jeweiligen Stichprobe. Der Nenner steht für den geschätzten Standardfehler der Mittelwertsdifferenz in der Grundgesamtheit und trägt das Symbol $\hat{\sigma}_{\overline{x}_1 - \overline{x}_2}$. Die Formel zur Berechnung des geschätzten Standardfehlers lautet:

$$ \hat{\sigma}_{\overline{x}_1 - \overline{x}_2} = \sqrt{ \frac{ (n_1-1)*s_1^2 + (n_2-1)*s_2^2 }{ (n_1-1) + (n_2-1) } } * \sqrt{ \frac{1}{n_1} + \frac{1}{n_2} } $$

Die Symbole $s_1$ und $s_2$ bezeichnen die empirischen Varianzen und $n_1$ und $n_2$ geben jeweils den Stichprobenumfang an. Folglich hängt der t-Wert von den empirischen Mittelwerten und Varianzen, sowie von dem Stichprobenumfang ab (Brosius, 1998, S. 460).

Der Vollständigkeit halber ist die Formel für den t-Wert bei heterogenen Varianzen aufgeführt:

\begin{align*} t_{df} &= \frac{\overline{x}_1 - \overline{x}_2}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}} \\ \\ s_1^2 &= \frac{\sum_{i=1}^{n_1} (x_{1i} - \overline{x}_1)^2}{n_1-1} \\ \\ s_2^2 &= \frac{\sum_{i=1}^{n_2} (x_{2i} - \overline{x}_2)^2}{n_2-1} \end{align*}



Zusammenhang: t-Verteilung vs. Standardnormalverteilung

Die Genauigkeit, mit der die Populationsparameter (Streumaße, Erwartungswert) geschätzt werden, ist von der Anzahl der Freiheitsgrade abhängig. Dadurch wird die Form der t-Verteilung mitbeinflusst. Für großen Stichprobenumfang $n$ unterscheidet sich die t-Verteilung kaum noch von der Normalverteilung. Grundsätzlich gilt, dass man bei $n \geq 30$ statt der $t$-Verteilung auch die Normalverteilung benutzen kann (Rasch et al., 2010, S. 53).

Folgendes interaktives GeoGebra-Applet veranschaulicht den Zusammenhang zwischen Normal- und t-Verteilung. Eine Erhöhung der Freiheitsgrade ($df$) sorgt für die Anpassung der t-Kurve an die Standarnormalverteilung. Der Regler $\alpha$ legt die Irrtumswahrscheinlichkeit fest.

erstellt von Marina Weingartz (2015, CC-BY-SA) - Link zur Quelle



Zusammenfassung

Häufig dreht es sich in der Statistik Annahmen, die bestätigt oder zurückgewiesen werden sollen. Haben Laufschuhe mit Spikes einen signifikant höheren Effekt auf die Sprintgeschwindigkeit, oder nicht? Verschaffen (Doping-)Medikamente der Firma XY dem Athleten ein größere Leistungskapazität oder ist das nur ein Placebo-Effekt? In dem Zusammenhang mit solchen Fragestellungen bietet es sich an einen t-Test durchzuführen. Im Grunde genommen werden die Mittelwerte zweier Gruppen genommen und miteinander verglichen. Der t-Test gehört zu den parametrischen Testverfahren, welche eine Normalverteilung beider Gruppen als Voraussetzung sieht.



Fragen zur Wiederholung

  • Wovon ist der t-Wert abhängig?

Literatur

Behnke, J. & Behnke, N. (2006). Grundlagen der Statistischen Datenanalyse: Eine Einführung für Politikwissenschaftler. Wiesbaden: VS Verlag für Sozialwissenschaften.

Brosius, F. (1998). SPSS 8. Professionelle Statistik unter Windows. Hamburg: International Thomson Publishing.

Hartung, J. (2009). Statistik. Lehr- und Handbuch der angewandten Statistik. (15. Auflage). München: Oldenbourg.

Kuckartz, W., Rädiker, S., Ebert, T. & Schehl, J. (2013). Statistik. Eine verständliche Einführung. (2. Auflage). Wiesbaden: Springer.

Rasch, B., Friese, M., Hofmann, W.J. & Naumann, E. (2010). Quantitative Methoden 1. Einführung in die Statistik für Psychologen und Sozialwissenschaftler. Heidelberg: Springer. (Link)



free hits

fm/stat/stat07.txt · Zuletzt geändert: 02.02.2016 15:01 von Filip Cengic
GNU Free Documentation License 1.3
Driven by DokuWiki Recent changes RSS feed Valid CSS Valid XHTML 1.0