Methodenlehre II (Fach) / Methodenlehre II (Lektion)

In dieser Lektion befinden sich 89 Karteikarten

Methodenlehre II

Diese Lektion wurde von VIELWEIBEREI erstellt.

Lektion lernen

  • Wie viele Faktoren werden bei einem 2x4x3x2-Design untersucht? Wie viele Stufen hat jeder Faktor? 4 Faktoren,Faktor 1 hat 2 Ausprägungen,Faktor 2 hat 4 Ausprägungen,Faktor 3 hat 3 Ausprägungen,Faktor 4 hat 2 Ausprägungen Zur Bezeichnung des Designs bei mehr als einer UV werden die Faktoren genutzt Es werden nacheinander die Faktorstufen für jeden Faktor als Multiplikation angegeben Rechnet man diese aus, so ergibt sich die Anzahl der Versuchsbedingungen
  • Welche Arten von Effekten werden bei einer mehrfaktoriellen Varianzanalyse betrachtet? Erläutern Sie bitte (ggf. an einem Beispiel), was man unter diesen Effekten versteht! bei mehrfaktoriellen Designs Unterscheidung zwischen ... Haupteffekten Effekte, die die Faktoren (UVs) auf die AV haben wenn mehrere unabhängige Variablen vorhanden sind, gibt es auch mehrere Effekte Interaktionen systematische Unterschiede zwischen den Zellen, die nicht durch die reine Verknüpfung der Haupteffekte der Faktoren erklärbar sind, sondern darüber hinausgehen→ Faktoren treten in Wechselwirkung zueinander → veränderte Wirkung → Wirkung (Effekt) entspricht nicht der Summe der Einzelwirkungen der Faktoren (bspw. Alkohol und Medikament: jedes für sich hat eine Wirkung, die Summe dieser Wirkungen ist aber ungleich dem Ergebnis bei gleichzeitiger Einnahme!) Graphisch kann man Interaktionen daran erkennen, dass die Funktionen der Zellenmittelwerte über den Faktorstufen nicht parallel verlaufen
  • Nennen sie die statischtischen Hypothesen für die Durchführung einer zweifaktoriellen Varianzanalyse! H0:Faktor I: μ●1 = μ●2 = μ●3 = μ●4Faktor II: μ1● = μ2●Interaktion: μ11 - μ21 = μ12 - μ22 = μ13 - μ23 = μ14 – μ24H1: ¬ H0Alternativhypothese ist eine Omnibushypothese: Irgendwo besteht ein Unterschied
  • Warum kann bei der Varianzanalyse nur selten die Effektgrößed, g und r genutzt werden? Grund, warum bei ANOVA nur selten d, g und r genutzt werden: d, g und r können nur für Effekte angegeben werden, bei denen nur zwei Gruppen miteinander verglichen werden
  • Was sollte man vor der Berechnung einer Pearson-Korrelation immer beachten? zuerst: Streudiagramm anschauen: Linearer Zusammenhang: kann graphisch als Gerade dargestellt werden überprüfen, ob die Form einer Geraden die Daten (Punktewolke) sinnvoll wiedergeben kann Ausreißer und Subgruppen könnten den Zusammenhang verfäschen bzw. erst entstehen lassen. Ggf. wäre andere eine Kurve angebrachter
  • Wie kann man überprüfen, ob ein Zusammenhang zwischen zwei Variablen linear ist? Überprüfen, Zusammenhang zwischen zwei Variablen linear ist: LOWESS-Prozedur (LOWESS = Locally WEighted Scatterplot Smoother) resultierende LOWESS-Kurve entspricht annähernd einer Geraden:⇒  es kann von linearem Zusammenhang ausgegangen werden
  • Was kann mit der LOWESS-Prozedur untersucht werden? Wie funktioniert sie im Prinzip? Lowess-Prozedur: es kann untersucht werden: welcher Zusammenhang zwischen zwei Variablen(im Streudiagramm) besteht Funktionsweise: Prinzipiell kann immer eine Regressionsgerade berechnet werden Zusammenhang nicht linear:⇒ Regressionsgerade kann das Kriterium nur schlecht vorhersagen (Fehleranteil hoch, Varianzaufklärung gering)
  • Was ist der Unterschied zwischen linearer Regression und LOWESS? # Lineare Regression Alle Datenpunkte werden gemeinsam berücksichtigt Regressionsgleichung wird aufgestellt, mit der alle Vorhersagen der y-Werte geschätzt werden Lowess-Prozedur Schrittweises Prinzip Viele Regressionsgleichungen werden konstruiert, aber immer nur aus einem Teil der Daten Jeder y-Wert wird durch eine andere Geradengleichung geschätzt,... bei deren Konstruktion nicht auf alle Daten zurück gegriffen wird, sondern nur auf umgebende Punkte Bei der Konstruktion der Regressionsgleichungen gehen die Daten mit unterschiedlicher Gewichtung ein: umso näher ein Nachbarpunkt an betrachtetem Punkt liegt, desto höher ist sein Gewicht
  • Wie wird die LOWESS Kurve berechnet? # Berechnung der LOWESS-Kurve: auf x-Achse wird von links nach rechts vorgegangen für jeden Punkt wird eine Vorhersage gemacht Vorhersage an der Stelle xa für ya (Punkt A) erhält man, indem man eine Regressionsgleichung für y(^)a erstellt  zur Erstellung dieser werden nicht alle Datenunkte verwendet, sondern nur Nachbarpunkte (von Punkt A) Wie viele Nachbarpunkte einbezogen werden, bestimmt der Glättungsparameter f kann zwischen 0 und 1 variieren Anzahl verwendeter Datenpunkte ist f * n Hat man y(^)a gefunden, geht man einen Datenpunkt nach rechts weiter (Punkt A + 1) und führt die ganze Prozedur erneut aus Gleichung für y(^)a+1 alle vorhergesagten Werte (y(^)i) werden miteinander verbunden entstandene Kurve:⇒ LOWESS Kurve
  • Wozu dient die Potenzleiter? Wann wird sie angewendet? Funktion der Potenzleiter: nicht-lineare Zusammenhänge "gerade biegen"⇒ wenn man statistische Verfahren verwenden möchte, die lineare    Zusammenhänge voraussetzen, gefundene Zusammenhänge aber    nicht linear sind  
  • Was sind Gemeinsamkeiten von einfacher und multipler linearer Regression? Gemeinsamkeiten Grundidee: ein Kriterium wird vorhergesagt (so gut wie möglich)  Voraussetzungen: linearer Zusammenhang / Zusammenhänge Intervallskalierung von Kriterium und Prädiktor  / Prädiktoren Bivariate / Multivariate Normalverteilung Güte der Vorhersage kann bestimmt werden Beispiel: Korrelationskoeffizient, Determinationskoeffizient, Standardfehler Signifikanztest für Gesamtvorhersage: Determinationskoeffizient (F-Test) Signifikanztest für Prädiktor(en): Beta (t-Test)
  • Was sind Unterschiede von einfacher und multipler linearer Regression? Unterschiede Anzahl der Prädiktoren einfache lineare Regression. 1 multiple lineare Regression > 1 Vorhersagekraft einfache lineare Regression meist gering multiple lineare Regression meist höher (je mehr Prädiktoren aufgenommen werden, desto größer ist meist die Varianzaufklärung) Beta einfache lineare Regression Korrelation multiple lineare Regression Art "Partialkorrelation" (gerichtete Partialkorrelation)
  • Sie vergleichen den multiplen Determinationskoeffizient (R&sup2;) einer multiplen Regression (zwei Prädiktoren) mit den beiden Determinationskoeffizienten (r&sup2;) der Prädiktoren aus den zwei einfachen Regressionsanalysen. Welche Konstellation der Determinationskoeffizienten liegt vor bei: a) nicht korrellierten Prädiktoren b) korrelierten Prädiktoren ohne Supressoreffekt c) korrelierten Prädiktoren mit Suppressoreffekt a) nicht korrellierten Prädiktoren R2y.x1x2 = r2yx1 + r2yx2 b) korrelierten Prädiktoren ohne Supressoreffekt R2y.x1x2 < r2yx1 + r2yx2 c) korrelierten Prädiktoren mit Suppressoreffekt R2y.x1x2 > r2yx1 + r2yx2
  • Welche Problematische Annahme macht die Hauptkomponentenanalyse? Was ist eine Alternative zu dieser Art der Faktorenanalyse? Problematische Annahme der Hauptkomponentenanalyse: Annahme, dass gesamte Varianz der Variablen durch die Faktoren aufgeklärt werden kann ...... im Falle eines Fragebogenverfahrens aber unplausibel: keine perfekte Reliabilität erreicht ⇒ gewisse Fehlervarianz in der Gesamtvarianz der Items enthalten, diese ist nicht durch die Faktoren zu erklären! Alternative zur Hauptkomponentenanalyse: Hauptachsenanalyse, in der eine solche Annahme nicht gemacht wird
  • Warum ergibt die Summe der Eigenwerte der aus einer vxv Korrelationsmatrix extrahierten Faktoren den Wert v? Summe der Eigenwerte der aus einer vxv Korrelationsmatrix extrahierter Faktoren ergibt den Wert v weil: Summe der Eigenwerte ist die Summe der durch die Faktoren aufgeklärten Varianzen Nach Extraktion (vor Reduzierung der Anzahl) erhält man so viele Faktoren, wie ursprüngliche Variablen..die insgesamt die komplette Varianz der Variablen aufklären können (bei PCA) durch z-Standardisierung in den Korrelationsberechnungen erhält jede Variable eine Varianz von 1 Gesamtvarianz von v Variablen ist also v, demnach können Faktoren eine Varianz von v aufklären deshalb ist die Summe der Eigenwerte ist  v!
  • Warum sollten nur Faktoren mit einem Eigenwert größer 1 interpretiert werden? nur dann ist gewährleistet, dass ein Faktor mehr Varianz aufklärt als eine Variable!
  • Was versteht man unter einer Dummy-Codierung? Dummy-Codierung: transformieren Nominal-skalierter Variablen in intervallskalierte Variablen indem den verschiedenen nominalen Ausprägungen Zahlen zugewiesen werden es dürfen nur jeweils zwei Zahlen vergeben werden (bspw. 0 und 1) um Intervallskalenniveau zu erreichen Hat nominal-skalierte Variable mehr als zwei Ausprägungen, muss sie mit Hilfe mehrerer Dummy-Variablen codiert werden (N - 1 Dummy-Variablen) *N = Anzahl nominaler Ausprägungen
  • Welche Voraussetzungen müssen Variablen erfüllen, wenn man Störvariablen oder Drittvariablen statistisch kontrollieren möchte? Wovon hängt dies ab? hängt von jeweiligem Verfahren ab, mit dem statistische Kontrolle durchgeführt werden soll: bei multipler Regression müssen Variablen immer intervallskaliert sein  bei Kovarianzanalyse gilt das gleiche Stör- und Drittvariablen, die nominal-skaliert sind, können im Zuge einer normalen ANOVA kontrolliert werden, indem sie als Faktor in das Modell aufgenommen werden Stör- und Drittvariablen müssen gemessen worden sein
  • Durch welche Verfahren kann man Stör- oder Drittvariablen (a) in varianzanalytischen Designs und (b) in korrelativen Designs statistisch kontrollieren? Statistische Kontrolle von Stör- oder Drittvariablen in varianzanalytischen Designs Variablen nominalskaliert:⇒ "normale" ANOVA Variablen intervallskaliert:⇒ Kovarianzanalyse Statistische Kontrolle von Stör- oder Drittvariablen in korrelativen Designs Multiple Regression Voraussetzung: Intervallskalenniveau Nicht intervallskalierte Störvariablen zuerst mit Hilfe der Dummy-Codierung transformieren!
  • Welchen Einfluss hat die Reihenfolge der Eingabe der Prädiktoren auf das Ergebnis einer hierarchischen Regression? Einfluss der Reihenfolge der Prädiktoreneingabe auf Ergebnis hierarchischer Regression: Prädiktor, der zuerst in das Modell aufgenommen wird bekommt den Anteil an Erklärungskraft am Kriterium zugesprochen, den er sich mit anderen Prädiktoren teilt In simultaner Regression würde dieser gemeinsame Anteil keinem der Prädiktoren zugesprochen werden
  • Welchen Vorteil hat das Zentrieren von Prädiktoren bei Moderatorenanalysen? Vorteil den das Zentrieren von Prädiktoren bei der Moderatorenanalyse bietet: Regressionskonstante b0 wird durch Zentrierung besser interpretierbar⇒ entspricht dann dem Mittelwert der Daten Zentrierung ist besonders bei komplexen Regressions-Designs sinnvoll:bspw. um bei Moderatorenanalysen die Mittelwerte der Daten für die jeweiligen Ausprägungen des Moderators kenntlich zu machen
  • Welches Problem ergibt sich bei grafischer Darstellung des Einflusses von intervallskalierten Moderatorvariablen? Intervallskalierte Variablen können sehr viele Ausprägungen haben würde zu große Anzahl von Regressionsgeraden führen, die sich nicht mehr sinnvoll in einem Diagramm darstellen lassen Lösung dieses Problems:nur einzelne diskrete Stufen des Moderators betrachten und für diese die Regressionsgerade berechnen und in das Diagramm einzuzeichnen Meist werden dafür drei Stufen M, +1SD und -1SD verwendet
  • Was möchte man durch Mediatorenanalysen herausfinden? Mediatoranalysen: beinhalten direkte und indirekte Beziehungen zwischen Variablen geprüft wird: ob die Korrelation von je zwei Variablen durch eine oder mehrere andere Variablen mediiert (vermittelt) wird und ... ... falls ja, wie groß diese Korrelation noch ist, wenn indirekte(r) Pfad(e) einbezogen werden Sinkt Korrelation auf Null oder fast Null⇒ vollständige Mediation Wird sie kleiner aber nicht Null⇒ partielle Mediation (teilweise)  Mediatorenanalysen bieten sich zurPrüfung komplexer kausaler Modelle an
  • Wie unterscheiden sich Messwiederholung und within-subjects-Design? (Achtung. uneinheitliche Bezeichnungen!) # Messwiederholung: Wiederholung der Messung einer Stichprobe innerhalb einer experimentellen Bedingung mit dem Ziel, den Mittelwert der Messungen als beste Schätzung der "wahren" Messung zu nutzen(bspw. bei Reaktionszeitmessungen, weil hier sehr genaue Werte gebraucht werden) Bezeichnung der Varianzanalyse für abhängige Stichproben als Varianzanalyse mit Messwiederholung demnach nicht korrekt, aber sehr oft zu finden
  • Wie unterscheiden sich unabhängigen und abhängige Stichproben? Unabhängige Stichproben i.d.R. Stichproben in between-subjects-Designs "Objekte" die in eine Stichprobe aufgenommen werden, haben keinen Einfluss auf die Auswahl der zur anderen Stichprobe gehörenden "Objekte"  Abhängige Stichproben (verbundene Stichproben) u.a. Stichproben in within-subjects-Designs "Objekte" einer Stichprobe, sind "Objekten" einer anderen Stichprobe zuordenbar Beispielsweise:  parallelisierte Stichproben ("matched samples") Probanden der einen Stichprobe gehören paarweise mit Probanden der anderen Stichprobe zusammen (Zwillingsforschung) eine Stichprobe wird in mehreren experimentellen Bedingungen untersucht
  • Welche Nachteile ergeben sich bei abhängigen Stichproben? (im Sinne von within-subjects-Design) Nachteile von abhängige Stichproben Schwieriger Blindversuche durchzuführen, einzelne Person ist allen Stufen einer UV ausgesetzt ⇒ Unterschiede in den Bedingungen werden leichter bemerkt Carry-Over-Effekt Beeinflussung einer späteren Bedingung durch eine frühere Bedingung⇒ Lösung: between-subjects Design Positionseffekte: Ermüdung Übung etc.⇒ Lösung: Ausbalancieren der Reihenfolge von Bedingungen
  • Welche Vorteile bietet die Kontrastanalyse gegenüber der herkömmlichen Varianzanalyse? Kontrastanalyse Überprüfung präziser Hypothesen(im Gegensatz zu ANOVAs Omnibushypothese) erhöhte Teststärke Berechnung interpretierbarer Effektgrößen möglich Vergleich verschiedener Hypothesen möglich
  • Wann werden parametrische, wann nonparametrische Verfahren angewandt? Parametrische Verfahren untersuchen typische Parameter der Verteilung (meist Mittelwert und Varianz) sind daher an mehr Voraussetzungen gebunden als nonparametrische Verfahren: für das Skalenniveau (intervallskaliert) für die Verteilung (meist Normalverteilung untersuchter Werte) außerdem sollte Varianzhomogenität vorliegen wenn Voraussetzungen erfüllt sind, dürfen parametrische Tests angewendet werden Nonparametrische Verfahren (aka. verteilungsfreie Verfahren) arbeiten nicht mit Parametern der Verteilung, sondern auf Grundlage aller Werte der Stichprobe erfordern daher keine Annahmen über die Art der Verteilung der Daten werden verwendet, wenn Daten auf Nominal- oder Ordnialskalenniveau vorliegen, oder wenn Voraussetzungen für die Berechnung parametrischer Verfahren verletzt sind
  • Welche Besonderheit ergibt sich für das Ermitteln von Effektgrößen bei Vierfeldertafen? Vierfeldertafel ist Spezialfall von zweidimensionalem x2wobei jede der beiden Variablen nur 2 Ausprägungen hat (= alternatives Merkmal) für diesen Falls lässt sich die Effektgröße (w) des Unabhängigkeitstests von Häufigkeitsdaten wie eine Pearson-Korrelation (r) der beiden Variablen interpretieren(= Zusammenhang zweier intervallskalierter Variablen) wegen dieser Besonderheit hat Effektgröße der Vierfeldertafel einen eigenen Namen:Phi-Koeffizient entspricht der Effektgröße w, hat aber den Vorteil, dass er mit Vorzeichen versehen (Richtung des Zusammenangs erkennbar) und einfacher zu berechnen ist (s. Formelsammlung)
  • Sie wollen über einen Datensatz eine Clusteranalyse rechnen und wollen Ausreißer aus der Analyse ausschließen. Welches schrittweise Vorgehen bietet sich hier an? beginnen sollte man mit Verfahren wie "single linkage", da es Ausreißer leicht entdecken kann (werden erst sehr "spät" als jeweils einzelne Cluster gebildet) nach Entfernen dieser Ausreißer sollte Verfahren, wie "average linkage" oder "Ward" verwendet werden, da dieses zur Bildung relativ großer Gruppen neigt
  • Ältere Untersuchungen an klinischen Stichproben in den USA haben gezeigt, dass Patienten mit unterschiedlichen Schlafstörungen deutlich unterschiedliche Persönlichkeitsprofile aufweisen. Sie möchten nun prüfen, inwieweit diese Aussage auch für deutsche Patienten gilt. Daher haben Sie anhand von 200 Patienten mit Schlafstörungen 6 verschiedene Persönlichkeitsmerkmale sowie die Art der Schlafstörung erhoben. Mittels einer Clusteranalyse möchten Sie nun prüfen, ob die sich ergebenden Gruppen unterschiedlicher Persönlichkeitsprofile mit den verschiedenen Schlafstörungen übereinstimmen. Würden Sie für diese Fragestellung eher ein Ähnlichkeits- oder ein Distanzmaß verwenden? Warum? Ähnlichkeitsmaß da, die relative Ausprägung der verschiedenen Persönlichkeitsmerkmale zueinandere interssiert (Profil der Persönlichkeitsmerkmale)
  • Vergleiche die Verfahren Faktorenanalyse und Clusteranalyse bezüglich ihrer Gemeinsamkeiten! Gemeinsamkeiten: Faktorenanalyse & Clusteranalyse beides multivariate Verfahren Ausgangsbasis ist bei beiden eine Vielzahl von Fällen (Personen/Objekten), für die eine Vielzahl von Variablen erhoben wurde ⇒ Analyse von vielen Merkmalen über viele Fälle beides Verfahren zur Datenreduktion (Zusammenfassung vieler Daten)
  • 1.1. 2) Tragen sie Alpha-Fehler und Beta-Fehler in die Tabelle ein! 3) Wie groß ist die Wahrscheinlichkeit, dass man sich für die H0 entscheidet unter der Annahme, dass die H0 auch gilt? 4) Welches der vier Felder kann man auch als POWER bezeichnen? 2)                                                                        Wahrer Sachverhalt                                                               H0                                                           H1Entscheidung für:           H0               Korrekt                        |                    β‐Fehler                                                      H1               α-Fehler                      |                    Korrekt 3) 1 - α 4) Unten rechts         
  • Warum ist bei der Varianzanalyse für abhängige Stichproben als Effektgröße das partielle Eta-Quadrat meistens besser geeignet als das „gesamte“ Eta-Quadrat? # Eta-Quadrat gibt an, wie groß der Anteil der Varianz ist, die durch die unabhängige Variable (Faktor) aufgeklärt werden kann. Beim „gesamten“ Eta-Quadrat bezieht sich dieser Anteil auf die Gesamtvarianz, die in den Daten zu finden ist. Da bei abhängigen Stichproben die Niveauunterschiede zwischen den Personen uns meistens nicht interessieren, sollte man deren Varianz auch nicht in der Effektgröße berücksichtigen. Beim partiellen Eta-Quadrat bezieht sich der Anteil nicht auf die Gesamtvarianz, sondern auf die um die Varianz der Personenunterschiede verminderte Gesamtvarianz (QSGesamt - QSPers = QSuv + QSres). Niveauunterschiede zwischen den Probanden können „herausgerechnet“ werden. Das „gesamte" Eta-Quadrat wäre kleiner und vergleichbar mit dem Effekt aus einer unabhängigen Stichprobe.
  • Welches Problem ergibt sich, wenn man ein Kontrastgewicht von 0 vergibt? Wie sollte man damit umgehen? Bedeutung der Null als Lambda: Durch die Gewichtung mit Null wird ein Mittelwert „ignoriert“: Unabhängig von seiner Größe ergibt sich immer Null, d. h. die Gruppe(n) mit Null als Lambda wird nicht beachtet. es spielt also keine Rolle was dort für ein Mittelwert in der Gruppe auftritt, er geht in die Varianz des Kontrastes nicht ein; Verändern sich in dieser Zelle die Werte, hat dies aber durchaus Auswirkungen auf die QS innerhalb! Vorteil:„Teilhypothese“ ist prüfbar, indem man die nicht interessierenden Mittelwerteauf Null setzt (z. B. Vergleich von zwei Mittelwerten). Nachteil: manchmal ergibt sich Null in Lambdas, obwohl die Gruppe bedeutsam ist (z.B. immer bei linearen Kontrasten mit ungerader Anzahl von Gruppen) – dann geht Information verloren: Der Effekt ist gleich groß, egal ob sich die Gruppe mit Lambda = Null entsprechend dem erwarteten Kontrast verhält oder nicht.→ In diesem Fall sollte man sich ein Diagramm der Mittelwerte der Gruppen anschauen und visuell überprüfen, ob die mit Null gewichtete Gruppe zum angenommenen (linearen) Trend passt
  • Welche Besonderheit ergibt sich für das Ermitteln von Effektgrößen bei Vierfeldertafeln? # Vierfeldertafel ist Spezialfall vom zweidimensionalen χ2, wobei jede der beiden Variablen nur 2 Ausprägungen hat (= alternatives Merkmal) für diesen Fall lässt sich die Effektgröße (w) des Unabhängigkeitstests von Häufigkeitsdaten wie eine Pearson-Korrelation (r) der beiden Variablen interpretieren (= Zusammenhang zweier intervallskalierter Variablen) wegen dieser Besonderheit hat die Effektgröße der Vierfeldertafel einen eigenen Namen: Phi-Koeffizientder Phi-Koeffizient entspricht der Effektgröße w, hat aber den Vorteil, dass er mit Vorzeichen versehen (Richtung des Zusammenhangs erkennbar) und einfacher zu berechnen ist
  • Wie groß ist die Wahrscheinlichkeit, dass man sich für die H0 entscheidet unter der Annahme, dass die H0 auch gilt? 1 – α
  • In einer Untersuchung soll geprüft werden, ob Ratten (N=4) unterschiedliche Mengen trinken, wenn das Wasser (Wasser A, Wasser B, Wasser C) verschieden schmeckt. a) Welcher Test? b) Stellen Sie eine statistische Hypothese auf! a) Einfaktorielle Varianzanalyse für abhängige Stichproben b)H0 = μWA = μWB = μWCH1 = ¬ H0
  • Worin unterscheidet sich die Kontrastanalyse von anderen Varianzanalysen? Was ist der Vorteil der Kontrastanalyse? Kontrastanalyse präzise, gerichtete Alternativhypothesen können getestet werden  höhere Teststärke ermöglicht Vergleich der Güte zweier Hypothesen
  • Bestimmen Sie die Kontrastgewichte für folgende Hypothesen: a) Die Berührungen zwischen Kindern gleichen Geschlechts im Alter von 4 bis 7 Jahren steigen linear mit dem Lebensjahr an. b) je mehr Bier man trinkt, desto redseliger wird man. Ab einer Menge von drei Bier erhöht sich die Redseligkeit jedoch nicht weiter (4 Kontrastgewichte). c) Bei mittlerem Stressniveau ist die Leistung in Konzentrationstests besser als bei hohem oder niedrigem Stressniveau (5 Kontrastgewichte). z.B. a) -3  -1  1  3 b) -5  -1  3  3 c) -4  1  6  1  -4
  • Was bedeutet die Effektgröße r(effectsize) für unabhängige Stichproben bei einer Kontrastanalyse inhaltlich? Bedeutungd er Effektgröße: r(effectsize) für US bei einer KA: gibt die Korrelation zwischen den Werten der abhängigen Variablen und den Kontrastgewichten an
  • Nennen sie die Nachteile nonparametrischer Verfahren! Nachteile nonparametrischer Verfahren: Großer Aufwand bei der Berechnung von exakten Wahrscheinlichkeiten für große Stichproben Teststärke (Power) ist immer geringer, als die vergleichbarer Tests (bei Vorliegen der Voraussetzung) Kaum multivariate Verfahren Teilweise fehlen einheitliche Effektgrößen
  • Es soll ein Training für Elfmeterschießen evaluiert werden. Dazu werden 10 Elfmeter von 7 Spielern vor dem Training und 10 Elfmeter nach dem Training geschossen und die Anzahl der Treffer gezählt Untersuchen Sie mit einem geeigneten nonparametrischen Testverfahren, ob das Training erfolgreich war. a) Welcher Test? b) Formulieren sie die Hypothesen c) Unter welchen Voraussetzungen könnten sie für diese Fragestellung ein parametrisches Testverfahren anwenden? a) Wilcoxon-Test für abhängige Stichproben b) H0: T- = T+H1: T- > T+ (bei vorher nachher c) normalverteilte Differenzwerte der Spieler
  • Wenn Personen beim Glücksspiel verlieren, folgen ihre Verluste einer Verteilung (nicht Normalverteilung). Dabei ist es egal, welche Art von Glücksspiel sie spielen. Betrachten Sie unter diesen Voraussetzungen folgenden Fall. Eine Gruppe von 10 Personen geht ins Casino. 5 Personen spielen Poker und 5 Personen spielen Roulette. Untersuchen Sie nun, ob sich die Verluste beim Poker systematisch von den Verlusten beim Roulette bei einer 10% Irrtumswahrscheinlichkeit unterscheiden. Wählen Sie hierfür einen geeigneten Test und begründen Sie kurz Ihre Wahl. Mann & Withney U-Test Normalverteilung nicht gegeben und unabhängige Stichproben
  • Es wurde eine repräsentative Umfrage unter Deutschen zu Ihren Freizeitaktivitäten durchgeführt. Zum Vergleich sehen Sie eine Befragung unter Senioren. Welchen Test verwenden sie, um zu testen, ob die Seniorenstichprobe von der Gesamtbevölkerung abweicht? Chi²-Anpassungstest (eine Variable)
  • Was sagt der p-Wert beim Signifikanztesten aus? p-Wert gibt die Wahrscheinlichkeit an, dass das Ergebnis einer Studie (oder ein noch extremeres) gefunden werden konnte, wenn die Nullhypothese tatsächlich zutrifft: p (Daten|H0)
  • Was sagt die Power über einen Test aus? "Signifikanz-Wahrscheinlichkeit":Wahrscheinlichkeit den Effekt zu finden, wenn er denn tatsächlich vorhanden ist
  • Welche Faktoren haben Einfluss auf die Power und wie genau äußern sich deren Ausprägungen auf die Beeinflussung der Power? 3-große Faktoren Effekt in der Population je größer, desto eher wird das Testergebnis signifikant Stichprobengröße je größer, desto eher signifikant Abwägung von α und β je größer α, desto eher signifikant je kleiner β, desto eher signifikant α und β sind komplementär
  • Wieso sind die folgenden Interpretationen von p-Werten Fehlannahmen und was ist mit den Interpretationen wirklich umschrieben? a) falsch: p‐Werte sind Indikatoren für die Größe des Effekts b) falsch: p‐Werte erlauben eine Abschätzung der Wahrscheinlichkeit, dass die Nullhypothese/Alternativhypothese zutrifft c) falsch: p‐Wert: Wahrscheinlichkeit, mit der man sich hinsichtlich seiner Schlussfolgerung (H0 ist falsch) geirrt hat d) falsch: p‐Werte erlauben eine Abschätzung der Wahrscheinlichkeit, dass ein Ergebnis replizierbar Ist falsch weil ... a) ... Größe des vorliegenden Effekts nur einer von mehreren Faktoren ist, die p-Werte beeinflussen, p-Wert allein sagt nichts über die Größe des gefundenen Effekts aus.Interpretation würde Effektgrößen entsprechen b) ...p-Wert ist bedingte Wahrscheinlichkeit, dass aktuelles oder extremes Ergebnis gefunden werden konnte, unter der Annahme, dass die Nullhypothese zutrifft c) ...p-Wert erlaubt keinerlei Wahrscheinlichkeitsaussagen über die Hypothesen (sondern nur solche über Daten)Irrtumswahrscheinlichkeit: H0 verwerfen, obwohl sie zutrifft d) ... Replizierbarkeit eines (signifikanten) Ergebnisses hängt von der Teststärke ab, und die wiederum von n, Effektgröße und α.Unterschiedliche Ergebnisse führen zu unterschiedlichen p-Werten Interpretation würde Teststärke (Power) entsprechen
  • Welche Verbesserungsvorschläge machten Neyman und Pearson zum Signifikanztesten und wie wurden diese umgesetzt? Neyman und Pearsons Verbesserungsvorschläge zum Signifikanztesten: Hinzufügen einer Alternativhypothese vorher (problematisch): Chance, Effekt zu entdecken Aussagen bei nicht-signifikantem Ergebnis Interpretation des Testergebnisses Ergebnis signifikant: Verhalte dich so, als ob die H1 zuträfe Ergebnis nicht signifikant: Verhalte dich so, als ob die H0 zuträfe