Empirisch Wissenschaftliches Arbeiten (Subject) / Effekt und Teststärke am Beispiel von Mittelwertshypothesen bei zwei Stichproben (Lesson)

There are 12 cards in this lesson

-

This lesson was created by casnic.

Learn lesson

  • Gebe ein Beispiel für eine Übersetzung einer allgemeinen PH in eine SH (H1 und H0)! Psychologische Hypothese: Die Manipulation der Variable X(Konstrukt ξ ) zwischen Bedingung 1 und Bedingung 2 hat einen Einfluss auf die Variable Y (Konstrukt η ).  Statistische Hypothesen: -> da ungerichtete Hypothese:  H0: µ1 = µ2  <=> µ1 - µ2 = 0                                                                                          H0: Erwartungswerte der AV Y sind in den Bedingungen 1 und 2 gleich (!) -> äquivalente Schreibweise: Differenz der beiden Erwartungswerte = 0 H1: µ1 ≠ µ2  <=> µ1 - µ2 ≠ 0                                                                                            H1: Erwartungswerte der AV in den beiden Bedingungen unterscheiden sich -> Differenz der beiden Erwartungswerte ist ungleich 0
  • Was versteht man unter der Stichprobenverteilung der Mittelwertsdifferenz? => Wiederholtes Ziehen von Stichproben der Größe n1 und n2 aus den Populationen 1 und 2 ergibt die Stichprobenverteilung der Mittelwertsdifferenz Ȳ1 - Ȳ2: => Beispiel: Studie mit 2 Stichroben: n1 für Bedingung 1 n2 für Bedingung 2 -> Manipulation der Variable X zwischen den Bedingungen 1 und 2 -> Erheben der AV Y -> Berechnung des Mittelwertes für 1 und 2 und Bilden der Mittelwertsdifferenz -> dies wird nun wiederholt gemacht -> in jeder Untersuchung wird eine Mittelwertsdifferenz berechnet -> Verteilung der Mittelwertsdifferenz über eine Serie von solchen identischen Untersuchungen nennt man: Stichprobenverteilung der Mittelwertsdifferenz _____________ - wenn AV in beiden Population 1 und 2 normalverteilt -> auch die Mittelwerte in den beiden Bedingungen normalverteilt -> auch Mittelwertsdifferenzen normalverteilt - zentraler Grenzwertsatz: bei hinreichend großer Stichprobe in Bedingung 1 und 2 folgt die Normalverteilung der Mittelwerte (selbst wenn AV in beiden Populationen nicht normalverteilt ist)
  • Wieso unterschätzt die Varianz in der Stichprobe die Varianz in Population? -> bei der Berechnung der Varianz in der Stichprobe wird der Mittelwert für gegeben gehalten -> dieser wird allerdings aus den Daten der Stichprobe berechnet und fluktuiert über die Stichproben hinweg (und ist keine Konstante) (!) -> diese Varianz des Mittelwertes wird in der Formel nicht berücksichtigt und deswegen unterschätzt die Varianz in der Stichprobe die Varianz in der Population -> Stichprobenvarianz kann allerdings mit dem Korrekturfaktor n/n-1 korrigiert werden -> diese liefert uns dann auch eine korrekte Schätzung der Varianz der Variable Y in der Population (s²)
  • Wieso unterschätzt die Varianz in der Stichprobe die Varianz in Population? -> bei der Berechnung der Varianz in der Stichprobe wird der Mittelwert für gegeben gehalten -> dieser wird allerdings aus den Daten der Stichprobe berechnet und fluktuiert über die Stichproben hinweg (und ist keine Konstante) (!) -> diese Varianz des Mittelwertes wird in der Formel nicht berücksichtigt und deswegen unterschätzt die Varianz in der Stichprobe die Varianz in der Population -> Stichprobenvarianz kann allerdings mit dem Korrekturfaktor n/n-1 korrigiert werden -> diese liefert uns dann auch eine korrekte Schätzung der Varianz der Variable Y in der Population (s²)
  • Was sind die Eigenschaften der t-Teststatistik? (Verteilung, Freiheitsgrade, Größe, Teststärke) - Verteilung und Freiheitsgrade:                                                                                     ->  asymptotisch t-verteilt mit einer Anzahl von Freiheitsgraden v ("nü")                             -> Anzahl der Freiheitsgrade wird durch die Stichprobengröße bestimmt => (n1-1) + (n2-1)          oder N - 2 - Verteilungsannahmen für t-Verteiltheit:  -> Y ist in beiden Bedingungen normalverteilt bzw. ausreichend großes n ->                    Normalverteiltheit der Mittelwertsdifferenzen -> Varianzhomogenität (Varianz von Y in 1 => Varianz von Y in 2) - Größe und Teststärke:-> Nenner "σ Dach diff" = √2 : n * σ dach (s. Seite 4):  t-Teststatistik hängt nicht nur von der Größe der Mittelwertsdifferenz (Y quer 1 - Y quer 2) im Zähler ab, sondern auch von der Stichprobengröße n -> je größer die Stichprobengröße, desto größer wird der Wert von t         -> Wahrscheinlichkeit steigt, dass t-Wert gefunden wird, der sich signifikant von 0 unterscheidet -> Teststärke steigt mit wachsender Stichprobengröße - ACHTUNG (!): -> t-Wert bzw. Signifikanz sagt daher nichts über die Größe des zugrundeliegenden Effektes aus (!!), da der t-Wert von der Stichprobengröße abhängig ist -> für die Bestimmung der Größe bzw. Bedeutung des zugrundeliegenden Effektes benötigt man andere Werte bzw. Tests (s. später)
  • Was ist die grundlegende Logik des t-Tests? Die Stichprobenverteilung der Mittelwertsdifferenz ermöglicht einen Test, ob die beobachtete Mittelwertsdifferenz Ȳ1 - Ȳ2 aus einer Verteilung mit E(Ȳ1 - Ȳ2) = 0 ⇔ µ1 - µ2 = 0 ⇔ µ1 = µ2 stammt. (Gleichheit der Erwartungswerte der Mittelwertsdifferenzen): t-Test für 2 unabhängige Stichproben (!) ->Stammt diese Mittelwertsdifferenz aus einer Verteilung bei der der Erwartungswert der Mittelwertsdifferenzen = 0 ist? (-> Annahme, dass Erwartungswert der Mittelwertsdifferenzen = 0 ⇒ Differenz der Erwartungsswerte = 0 (Herleitung s. Seite 3) ⇒ Entspricht Annahme der Gleichheit der beiden Erwartungswerte µ1 und µ2) -> beide Gleichungen auf der rechten Seite entsprechen genau der H0 (Erwartungswertgleichheit)                                                                                                    -> psychologische Antihypothese: kein Unterschied zwischen den Bedingungen 1 und 2)
  • Wie sind ungerichtete und gerichtete Hypothesen definiert? (PH und SH) Ungerichtete Hypothese: Psychologische Hypothese:                                                                                            Die Manipulation der UV X zwischen Bedingung 1 und Bedingung 2 hat einen Einfluss auf die AV Y. (-> es wird hier keine Richtung des Effektes festgelegt, sondern nur auf dem Vorhandensein eines kausalen Effektes ausgegangen)Statistische Hypothese:                                                                                                       H0: µ1 = µ2 ⇔ µ1 - µ2 = 0                                                                                                 H1: µ1 ≠ µ2 ⇔ µ1 - µ2 ≠ 0 (-> Erwartungswert der Mittelwertsdifferenz ≠ 0 -> t-Wert ≠ 0 (da Mittelwertsdiff. im Zähler v. t-Teststatistik) Gerichtete Hypothese: Psychologische Hypothese:                                                                                            Die Manipulation der UV X zwischen Bedingung 1 und Bedingung 2 erhöht die AV Y in Bedingung 1 gegenüber Bedingung 2.Statistische Hypothese:                                                                                                       H0: µ1 ≤ µ2 ⇔ µ1 - µ2 ≤ 0                                                                                                 H1: µ1 > µ2 ⇔ µ1 - µ2 > 0
  • Was sind die Vorteile einer gerichteten Hypothese gegenüber einer ungerichteten Hypothese? -gerichtete macht spezifischere Aussage über den Effekt (In welche Richtung geht dieser?) -> hat daher einen höheren empirischen Gehalt (=strengere Prüfung der psychologischen Hypothese) -> reduziert Wahrscheinlichkeit g (welche besagt, dass die statistische Vorhersage zwar richtig ist, obwohl dahinterliegende Theorie (PH) falsch ist), da sie mehr Fälle ausschließt als die ungerichtete (hier: alle Fälle werden ausgeschlossen, in denen der Erwartungswert in der Bedingung 2 > Erwartungswert in der Bedingung 1) -gerichtete Hypothese führt zu einer höheren Teststärke der statischen Entscheidung 1-β (diese Wahrscheinlichkeit beeinflusst auch die Fairness der Untersuchung) -> Strenge maximiert (durch spezifischere Aussage über Effekt) und auch die Fairness gesteigert (durch erhöhte Teststärke)
  • Wie trifft man die Testentscheidungen bei einer gerichteten vs. ungerichteten Hypothese? ungerichtete Hypothese (zweiseitiger Test) - Ablehnungsbereich wird festgelegt: Nullhypothese wird zurückgewiesen, wenn der Wert der t-Statistik kleiner ist als ein kritischer Wert oder größer ist als ein kritischer Wert (für ein Signifikanzniveau z.B. alpha = 0,05) - Beispiel: t-Verteilung mit N = 100 (n1=50, n2=50) => 98 Freiheitsgraden => kritischer t-Wert im Falle eines zweiseitigen Tests: links: -1,984 und rechts: 1,984                                            => wenn berechnete t-Statistik kleiner ist als linker Wert oder größer ist als rechter Wert wird Nullhypothese zurückgewiesen und H1 angenommen gerichtete Hypothese (einseitiger Test) - Ablehnungsbereich wird festgelegt: Nullhypothese wird abgelehnt wenn t-Wert größer ist als kritischer t-Wert bei einem einseitigen Test (Fehlerwahrscheinlichkeit wird bei einem einseitigen Test nur auf eine Seite gelegt) -> z.B.  tkrit= 1,661 -> dieser kritische Wert ist kleiner als der kritische t-Wert bei einem zweiseitigem Test (da bei einem einseitigem Test im Gegensatz zu einem zweiseitigem die Fehlerwahrscheinlichkeit nicht aufgeteilt wird) -> Wenn wir jetzt in der Population tatsächlich einen Effekt in der vorhergesagten Richtung haben (z.B. hier: Mittelwertsdifferenz µ1>µ2) -> höhere Teststärke bei gerichteter Hypothese bzw. einseitigem Test (da bereits kleinere t-Werte (1,661 - 1,984) bei selber Stichprobengröße bzw. selbes Signifikanzniveau zu einer Ablehnung der Nullhypothese führen) ->Wahrscheinlichkeit der Zurückweisung der H0 in dem Fall, dass H1 korrekt ist ist größer bei der gerichteten Hypothese als bei der ungerichteten Hypothese -> t-Test ist teststärker bei einem einseitigem Test
  • Wieso ist es wichtig, um eine strenge und faire Prüfung der Hypothese zu ermöglichen, die statistischen Fehlerwahrscheinlichkeiten α und β zu kontrolliert werden? - restriktives Signifikanzniveau α ist wichtig für die Strenge der Hypothesenprüfung (Nullhypothese mit großer Wahrscheinlichkeit beibehalten, wenn diese auch tatsächlich gilt) - kleines β Niveau ist für die Fairness eines Tests wichtig = große Teststärke / Power: 1 - β (damit tatsächlicher Effekt in der Population wenn er tatsächlich existiert auch aufdecken können)
  • Wann steigt die Teststärke 1-β allgemein an? • mit zunehmendem N (d.h., n 1 + n 2): bei größerer Stichprobengröße N wird Nenner der t-Teststatistik kleiner und der Wert der t-Teststatistik steigt an (bei gleichbleibenden Mittelwertsunterschied im Zähler) • mit zunehmender Diskrepanz zur Nullhypothese: bei zunehmender Differenz zwischen den beiden Mittelwerten (bzw. in Population Differenz der Erwartungswerte) wird die Wahrscheinlichkeit größer, dass Effekt aufgedeckt wird (je "falscher" die Nullhypothese ist, also je weiter entfernt die Wahrheit von der Gleichheit der Erwartungswerte ist, desto größer sollte die Chance sein, den Effekt aufzudecken) • mit abnehmender „Fehler“ Varianz σ²: Varianz der AV Y innerhalb jeder der beiden Bedingungen (Nenner t-Bruch: (√2/n)*σ -> mit abnehmender Standardabweichung σ wird dieser Nenner kleiner und der Gesamtquotient größer -> Teststärke steigt) -> je homogener die Beobachtungen innerhalb der Bedingungen sind, umso größer wird die Wahrscheinlichkeit einen Effekt aufzudecken (bei konstantem Mittelwertsunterschied) • mit größerem α bzw. bei einseitigem Test: zwar weniger strenger Test, allerdings würde Teststärke ansteigen -> Für eine gegebene Untersuchung liegt die Teststärke 1 - β damit durch die Wahl von N , αund einer „relevanten Abweichung“ σ von der H0 fest.
  • Was sind die Konventionen zur Festlegung einer relevanten Effektstärke d? - d=.20: kleiner Effekt ⇒ Erwartungswertdifferenz ist 0,2 x so groß wie Sigma (=1/5 der Std. Abweichung der Variable Y) - d=.50: mittlerer Effekt ⇒ Erwartungswertdifferenz ist 0,5 x so groß wie Sigma (=1/2 der Std. Abweichung der Variable Y) - d=.80: großer Effekt ⇒ Erwartungswertdifferenz ist 0,8 x so groß wie Sigma (=4/5 der Std. Abweichung der Variable Y)