Statistik 2 (Fach) / Einfaktorielle Varianzanalyse (ohne Messwiederholung) (Lektion)
In dieser Lektion befinden sich 8 Karteikarten
Erweiterung von dem Vergleich von zwei Mittelwerte auf mehrere
Diese Lektion wurde von malinpaschen erstellt.
- Quadratsummenzerlegung QS(zw): Das Ausmaß der Unterschiedlichkeit = Variabilität der Mittelwerte bestimmen. Sie sollte mit zunehmendem Effekt größer werden—> Variabilität der einzelnen Mittelwerte vom Gesamtmittelwert (zwischen den Gruppen) QS(in): Maß innerhalb der Gruppen. Summe der quadratischen Abweichungen der Messwerte der Personen von ihren Gruppenmittelwert, bezeichnet als Quadratsummen innerhalb QS QS(tot): wie stark sich die Probanden insgesamt unterscheiden, bzw. die Gesamtvariabilität der Messwerte Additivität der Quadratsummen: QS(tot) = QS(zw) + QS(in), genauso auch die Freiheitsgrade
- Freiheitsgrade Allgemein bezeichnen Freiheitsgrade die Zahl an Werten, die bei der Berechnung einer Statistik frei variieren können.Nur die frei variierenden Werte tragen unabhängig voneinander Informationen zur Schätzung eines Parameters in der Population bei.—> die df hängen von der Zahl der unabhängigen Beobachtungen n sowie davon ab, ob zur Bestimmung der Statistik weitere Parameter geschätzt werden müssen. Ist dies der Fall, so geht für jeden zu schätzenden Parameter ein Freiheitsgrad verloren. In die Formel gehen beispielsweise die Stichprobengröße n sowie n Messwerte xi ein. Davon steht n fest (kann also nicht frei variieren).Außerdem wird in der Formel der Mittelwert aus den Stichprobendaten bestimmt (liegt damit auch als Schätzung für µ fest).—> Von den n Messwerten sind nur df = n - 1 Werte frei wählbar, da gelten muss, dass die Summe aller Abweichungen vom Mittelwert 0 ist
- Erwartungswerte in der ANOVA MQ(in) und MQ(zw) Setzten wir für die Varianz der Stichprobenkennwerteverteilung ein, so sehen wir, dass die Schätzung auf MQ(zw) hinausläuft MQ(in) ist allgemein eine erwartungstreue SchätzungFür die zweite Schätzung MQ(zw) hingegen gilt das nur bei Gültigkeit der H0. Allgemein ist hier der Erwartungswert Stimmen beide Schätzungen überein, so spricht dies also für die H0. Ist hingegen MQ(zw) größer als MQ(in), so spricht dies für die H1 (wenngleich dies natürlich auch durch Stichprobenfehler zustande kommen kann).Anders ausgedrückt spricht ein Quotient MQzw / MQin nahe 1 für die H0. Je größer der Quotient ist, desto stärker sprechen die Stichprobendaten gegen die H0.Beide Quadratsummen sind bei entsprechenden Freiheitsgraden unter der H0 Chi-verteilt und der Quotient der beiden mittleren Quadrate F-verteilt
- Einfaktorielle Varianzanalyse (ohne Messwiederholung) Einsatzbereich: Prüfung der Hypothese, dass sich die Mittelwerte von m unabhängigen Gruppen in einer metrischen Variablen X unterscheiden (bei Betrachtung fester Effekte).Hypothesen: Voraussetzungen: In allen Teilpopulationen (unabhängigen Gruppen) ist das Merkmal X (die AV) normal‐ verteilt und weist gleiche Varianzen auf (Homoskedastizität). + Unabhängigkeit Vorgehen: Aufgrund der Annahme der Varianzhomogenität in allen m Gruppen:Die gleiche Varianz in den Gruppen ist die nicht durch den Faktor erklärte Variabilität innerhalb der Gruppen, die wir im folgenden mit sigma(e)^2 (Populationsresidualvarianz) bezeichnenBei gleichem Stichprobenumfang, kann diese Varianz über die gemittelten Varianzen innerhalb der Gruppen geschätzt werden:Diese Schätzung entspricht MQ(in) Entscheidung: Zurückweisung der H0, falls F>Fcrit mit Fcrit = F(m-1;n-m;1-a*)Abweichungen der Mittelwerte untereinander führen ‐ gleichgültig in welche Richtungen ‐ zu einem vergrößerten F‐Wert. Entsprechend wird a komplett „in den rechten Ast“ der F‐Verteilung gelegt.Es kann jedoch aus einem signifikanten Ergebnis nur geschlossen werden, dass mind. Zwei Gruppen sich unterscheiden, jedoch nicht welche.
- Effektstärken Als Maß für die Stärke des Effektes in der Population kann das Maß eta^2 herangezogen werden. Es bezeichnet das Verhältnis der durch die UV erklärten Varianz an der Gesamtvarianz - eta liegt ensprechend zwischen 0 und 1. - Konvention liegt bei n=0,01 (kleiner Effekt); n=0,06 (mittlerer Effekt); n=0,14 (großer Effekt) Als Schätzung der Effektstärke in der Population kann der Anteil der erklärten Varianz an der Gesamtvarianz herangezogen werden eta^2—> R2 stellt allerdings eine verzerrte Schätzung dar, die die Effektstärke überschätzt. —> Eine bessere Schätzung ergibt sich bei gleichem n^2 in allen Gruppen durch (häufig in der Literatur als w2 bezeichnet) —> bessere Schätzung! Werden die Werte kleiner 0, so setzt man sie 0 gleich
- Robustheit Robustheit ist gut bei der ANOVA, wenn die Stichprobenumfänge in den Gruppen gleich sind Bei normalverteilten Werten und gleichen Gruppengrößen ist die ANOVA relativ robust gegenüber moderaten Unterschieden in den Varianzen. Sie reagiert aber empfindlich auf Varianzheterogenität, wenn die Stichproben ungleich groß sind.Bei varianzhomogenen Gruppen ist die ANOVA robust gegenüber moderaten Verstößen gegen die Normalverteilung im Sinne mäßig schiefer Verteilungen. Symmetrische, nichtnormale Verteilungen sind unproblematisch. Gelten weder Varianzhomogenität noch Normalverteilung, so ist die ANOVA nicht mehr robust und man muss (speziell bei kleinen Stichproben) mit inflationierten a‐Werten rechnen. Eine Verletzung der Unabhängigkeit der Beobachtungen kann zu einem stark inflationierten a‐Risiko führen. In diesem Fall sind andere Verfahren einzusetzen
- Brown-Forsythe Test Einsatz bei Varianzheterogenität und ungleichen Gruppen, jedoch muss die Normalverteilung und Unabhängigkeit gegeben sein. - modifizierte F-Prüfgröße und modifizierter Nenner-Freiheitsgrad Es gilt: F(BF) = F, wenn alle Stichprobengrößen gleich sind sowie df2(BF) = df2 , wenn alle Varianzen gleich sind (andernfalls df2(BF) < df2 ). Je nach Bedingung kann der Brown‐Forysth Test konservativer oder liberaler als die ANOVA entscheiden (und entsprechend auch eine kleinere oder eine größere Power aufweisen).
- Kruskal-Wallis Rangvarianzanalyse Einsatzbereich: Prüfung der Hypothese, dass sich die Verteilungen bzw. die zentralen Tendenzen (Mediane) der Variable X in m unabhängigen Gruppen unterscheiden. Hypothesen: eta = Median z.B. Die Verteilungen sind identisch bzw. unterscheiden sich: H0: phi(X1) = phi(X2) = ... = phi(Xm) und H1: phi(Xk) ≠ phi(Xl) für mindestens ein Paar k ≠ l mit k, l = 1 ... mIst die Form der Verteilung in allen Gruppen gleich (nicht notwendig normalverteilt), so kann mit dem Verfahren die Hypothese gleicher Mediane in beiden Gruppen getestet werden:H0:eta1=eta2=...=etam und H1 :eta k≠ eta l für mindestens ein Paar k≠l mit k, l = 1 ... m Voraussetzungen: Das Merkmals X ist mindestens ordinal skaliert. Will man die Median‐ Hypothese testen, so muss zudem in allen Gruppen die Form der Verteilungen gleich sein. (auch Varianzhomogenität) Vorgehen: Man ersetzt alle n Messwerte durch ihre Ränge (ggf. wieder mit gemittelten Rangplätzen bei Ties) und bestimmt in jeder Gruppe die Rangsumme RSj (j = 1 ... m). Die folgende Prüfgröße Entscheidung:Bei nicht zu kleiner Datenmenge (m > 3 oder nj > 5 in mindestens einer Stichprobe) kann ungerichtet anhand der chi2‐Verteilung entschieden werden. Andernfalls sind exakte Tests (per Computer oder in Tabellen) heranzuziehen.
