Empirisch Wissenschaftliches Arbeiten (Fach) / Methodologische Grundlagen der Hypothesenprüfung (Lektion)

In dieser Lektion befinden sich 15 Karteikarten

Planung, Durchführung, Auswertung und Präsentation empirischer Untersuchungen

Diese Lektion wurde von casnic erstellt.

Lektion lernen

  • Was versteht man unter einer Theorie/Hypothese/Hilfshypothese? - Theorie:• Grundannahmen (Axiome, Postulate)• Abgeleitete Theoreme, Hypothesen                                                                                    • Axiom/Grundannahmen = tiefe Überzeugung eines Wissenschaftlers zu einem Thema - Hypothese:                                                                                                                     • Aussagen bzw. Vorhersagen, die aus Axiomen der Theorie ableitbar sind• Empirische Prüfung der Grundannahmen durch Test von Hypothesen                                    • i. d. R. kein direkten Zugang zu Axiomen einer Theorie -> Hypothesen dienen dazu diese Axiome/Postulate zu testen       - Zusatzannahmen, Hilfshypothesen:• ermöglichen Anwendung der Theorie auf einen konkreten Sachverhalt                                  • sind aufgrund des Überbrückungsproblems der Operationalisierung oft notwendig                      
  • Was versteht man unter sog. Gesetzeshypothesen und welche Arten gibt es? (nenne jeweils ein Beispiel) = Hypothesen/Annahmen, welche universell gelten sollen: "Für alle Personen gilt", "Wenn..., dann..." - Konditionalaussagen („Wenn …, dann …“, X -> Y) • Wenn ein bestimmter Zustand von X eintritt, dann geht ein bestimmter Zustand von Y einher                                                                                                                              •entweder im deterministischen Sinn oder probabilistischen Sinn (=wird wahrscheinlicher)        • Beispiel: Enkodiertiefe (Craik & Lockhart, 1972): „Deeper analysis leads to a more persistent (memory) trace.“ (="If a stimulus is analysed more deeply, than the memory trace is more persistent") - Bikonditionalaussagen (X -> Y und Y -> X) • vereint 2 Aussagen miteinander: Vorliegen von X löst Y aus; Vorliegen von Y ermöglicht es auf das Vorliegen von X zurück zu schließen (Y kann in diesem Fall nicht ohne X eintreten -> monokausale Hypothese)                                                                                                    • Beispiel: Ursprüngl. Fassung der „Frustrations Aggressions Hypothese“ (Dollard, Doob, Miller, Mowrer, & Sears, 1939): „The existence of frustration always leads to some form ofaggression.“ - Quantifizierte Hypothesen, funktionale Beziehung • bestimmte funktionale Beziehung zwischen Größen wird festgelegt (nicht nur X löst Y aus, sondern das genaue Verhältnis der beiden wird festgelegt)                                                    • Beispiel: Fechners Gesetz
  • Was sind die 4 Kriterien wissenschaftlicher Theorien? 1. Logische Konsistenz, Widerspruchsfreiheit• logische Inkonsistenz: Theorie -> Aussage A und Theorie -> Gegenteil zu Aussage A: Nicht-A  2. Prüfbarkeit: Informationsgehalt, empirischer Gehalt                                                  • Ableitung von Hypothesen, die prinzipiell falsch sein können• Falsifizierbarkeit muss vorliegen (!)                                                                                    • Beispiel nicht-falsizierbare Hypothese: "Wenn der Hahn kräht auf dem Mist, ändert sich das Wetter oder es bleibt so wie es ist"-> beide Fälle können eintreten (bzw. es kann alles passieren) -> erschwert objektive Prüfbarkeit 3. „Tiefe“ einer Theorie                                                                                                      • Spezifikation zugrunde liegender Prozesse zur Vorhersage bzw. Erklärung eines Phänomens    • Beispiel: Frustrations-Aggressions-Hypothese: Wie genau kommt es von der Frustration zur Aggression bzw. welche Prozesse spielen dabei eine Rolle?  4. Sparsamkeit                                                                                                                •  Vorhersage bzw. Erklärung eines Phänomens auf der Basis möglichst weniger Konzepte und möglichst einfacher und allgemeingültiger Annahmen                                                            • wenn z.B. für jeden Einzelfall Zusatzannahmen benötigt werden ist es keine gute (sparsame) wissenschaftliche Theorie 
  • Wie kann der empirische Gehalt einer wissenschaftlichen Aussage allgemein überprüft werden? - Klasse der Fälle, die der Aussage widersprechen• Grad der Falsifizierbarkeit (=graduelle Größe; meistens kein Alles-oder-Nichts-Prinzip, sondern ein Spektrum -> hängt davon ab, wie spezifisch die Vorhersagen sind, die in einer Hypothese postuliert werden                                                                                                • Spezifität der Vorhersage - A2 hat einen höheren Gehalt als A1, wenn A1 aus A2 logisch ableitbar ist                 • Tatsache, dass A2 gilt -> A1 gilt auch; Tatsache, dass A1 gilt -> A2 gilt nicht zwingend           • Beispiel: Weber-Fechner-Gesetz:                                                                                            - A1: Monoton steigender Zusammenhang zwischen Reizintensität und Empfindungsstärke        - A2: Empfindungsstärke als pos. logarithmische Funktion der Reizintensität -> A1 alleine lässt hier mehrere Möglichkeiten offen: linearer Anstieg? quadratischer Anstieg? ...
  • Wie kann der empirische Gehalt einer "Wenn...,dann..." - Aussage erhöht bzw. verringert werden? - Der empirische Gehalt einer „Wenn …, dann …“Aussage steigt• mit zunehmender Allgemeinheit des „Wenn“ Teils (Optimum: Anwendbarkeit der Aussage auf möglichst viele Fälle -> daher breite/allgemeine Formulierung des "Wenn"-Teils gewünscht)• mit zunehmender Präzision, Spezifität des „Dann“ Teils - Der empirische Gehalt einer „Wenn ..., dann ..." - Aussage sinkt                                • durch Einschränkung des „Wenn“ Teils oder                                                                        • Aufweichung des „Dann“ Teils                                                                                          • Beispiel: Modifizierte Frustrations Aggressions Hypothese (Berkowitz, 1989): -„Wenn Frustration und aggressiver Hinweisreiz, dann Aggression.“ (= Einschränkung des "Wenn"-Teils: zusätzliche Bedingung wird eingefügt -> "aggressiver Hinweisreiz, z.B. Waffe, Messer,.. muss mit der Frustration vorliegen)-„Wenn Frustration, dann erhöhte Aggressionsbereitschaft (= Aufweichung des "Dann"-Teils)
  • Was versteht man unter dem induktiven Ansatz der Hypothesenprüfung und welches Problem ergibt sich daraus? • Ableitung bzw. Bestätigung von Hypothesen/Theorien durch Daten • Konfirmierende (=bestätigende) Ergebnisse unter Sicherstellung der Validitätskriterien als Grundlage zur Annahme einer Hypothese (etwa Cook & Campbell, 1979)  Problem: universelle Gesetzeshypothesen beziehen sich auf offene Populationen (!) -> solche Aussagen kann man mit begrenzten Daten nicht verifizieren -> man kann alleine von Beobachtungen nicht auf die Gültigkeit universeller Hypothesen schließen (z.B. wenn man bisher nur weiße Schwäne gesehen hat kann man nicht ausschließen, dass es keine schwarze Schwäne gibt)
  • Was versteht man unter dem deduktiven Ansatz der Hypothesenprüfung? • Ableitung möglichst gehaltvoller, nicht trivialer Hypothesen • Möglichst strenge Prüfung der Hypothese (="Man versucht die Hypothese an die Wand zu fahren" -> Situationen herstellen, die zeigen, dass die Hypothese falsch sein könnte -> z.B. Ableiten von Gegenaussagen (Kontrasten) zu bestehenden Theorien) • Wird die Hypothese empirisch nicht widerlegt, gelten Hypothese und Theorie als „vorläufig bewährt“ (= Aussage: "Hypothese ist durch die Prüfung nicht widerlegt worden, sondern hat sich lediglich vorläufig bewährt")
  • Beschreibe die Logik des deduktiven Vorgehens bei einer Hypothesenprüfung! • Logik des deduktiven Vorgehens:  - Theorie -> Hypothese (Hypothese wird aus bestehender Theorie abgeleitet)                          - Hypothese bestätigt ist nicht gleich (!) Theorie richtig                                                      - Hypothese gilt nicht -> Theorie gilt nicht (Modus Tollens) -> Aus der Bestätigung einer Hypothese kann nicht abgeleitet werden, dass die Theorie gilt, aus der Falisfizierung kann allerdings abgeleitet werden, dass die Theorie nicht gilt (!)  - Kritischer Rationalismus (Popper, 1959): "Somit ist lediglich die Falsifikation einer Theorie logisch gerechtfertigt, nicht aber ihre Verifikation." Pragmatische Frage: Warum machen wir dann eigentlich Forschung, wenn eine Bestätigung einer Hypothese nichts über die zugrundeliegende Theorie aussagt? -> konstruktive Lösung: Wie müssen wir unsere Untersuchungen anlegen, sodass die Erfüllung oder auch die Nicht-Erfüllung der Vorhersagen möglichst informativ sind? -> man kann zwar keine Theorie verifizieren, allerdings kann man versuchen möglichst nah an diesen Zustand ran zukommen (möglichst gute vorläufige Bewährung ist das Ziel!)
  • Beschreibe (kurz!) das Vorgehen zur Prüfung einer psychologischen Hypothese! Urteil über Bewährung einer psychologischen Hypothese (PH) auf der Grundlage der Entscheidung über eine statistische Hypothese (SH). Ableiten einer verbale Vorhersage aus Theorie (= psychologische Hypothese, PH) -> Ableiten der statistischen Hypothese (=SH) aus dieser -> Rückschluss von dieser (SH) auf verbale Hypothese (PH) -> Rückschluss von PH auf Theorie
  • Über was sagen die akzeptierte alpha-Wahrscheinlichkeit oder der p-Wert NICHTS aus bzw. für was sind sie nützlich? • die Gültigkeit der H0 (oder der H1) • die Wahrscheinlichkeit, mit der die H0 zutrifft (auch wenn wir das gerne wissen würden)    - Beispiel: Aussage: "Wenn jemand ein Mensch ist, ist es unwahrscheinlich, dass er/sie ein/e       Professor/in ist" -> umgekehrt lässt sich aber nicht schließen: Wenn jemand ein Professor       ist, ist es unwahrscheinlich, dass er/sie ein Mensch ist    - dieser Fehler würde allerdings gemacht werden, wenn man sagen würde: "Das Ergebnis in       einem Experiment hat einen sehr kleinen p-Wert, also ist die H0 sehr unwahrscheinlich"    - man erfährt durch die Daten (bzw. den p-Wert) nicht wie wahrscheinlich die H0 ist,                sondern nur wie wahrscheinlich die vorliegenden Daten bzw. noch extremere Daten wären        (!!) • die Wahrscheinlichkeit, mit der ein signifikantes Ergebnis repliziert werden kann     - p-Wert oder alpha-Wahrscheinlichkeit sagen nichts darüber aus wie wahrscheinlich ein            signifikantes Ergebnis repliziert werden kann     - p-Wert würde in diesem Fall mit der Teststärke gleichgesetzt werden, was natürlich falsch        ist (!) → Signifikanzniveau und p Wert bilden die Entscheidungsregeln des NHST (=Testung der Nullhypothese), sonst nix (!!)    - beide sind NUR Entscheidungsregeln (!): falls p-Wert < alpha: H1 wird angenommen   - nichts rein interpretieren → Ein signifikantes Ergebnis bedeutet nicht, dass die Theorie (durch die Annahme der H1 ) bestätigt wird     - nicht signifikante Ergebnisse sagen auch nicht , dass die H1 nicht zutrifft und die H0 gilt
  • Welche 2 Aspekte spielen eine Rolle, wenn man durch eine Entscheidung über eine SH eine Aussage über die PH machen kann? - Strenge einer Untersuchung: Absicht sicher zu stellen, dass eine PH, die nicht zutrifft, sich auch nicht bewährt: SH, die mit der H1 einhergeht, sollte abgelehnt werden bzw. wenn es keinen Effekt gibt, sollte dieser auch nicht gefunden werden  -> das Risiko einer fälschlichen Bewährung der PH soll möglichst klein sein   => daher wichtig bei statistischer Entscheidung: geringeres/konservatives alpha (bzw. Signifikanz) Niveau - Fairness einer Untersuchung: Wenn PH in Wirklichkeit wahr ist, sollte sie sich auch bewähren (SH, die mit PH einhergeht (H1) soll hohe Wahrscheinlichkeit haben, angenommen zu werden bzw. niedrige abgelehnt zu werden und die H0 geringe Wahrscheinlichkeit angenommen zu werden) -> Das Risiko einer fälschlichen Nicht-Bewährung der PH soll möglichst klein sein. -> hier spielt z.B. eine hohe Power (1-beta) eine Rolle (aber auch mehr)
  • Wieso gibt es die Wahrscheinlichkeiten g und h? (und wie unterscheiden sie sich zu alpha und beta?) Ausgangssituation: PH steht nicht in einem 1:1 Verhältnis zur SH -> mehrere PHs können zu der gleichen SH führen-> ebenfalls kann unklar sein, welche SH genau von der PH abzuleiten ist -> auf diese Unsicherheiten in der Relation zwischen PH und SH beziehen sich die Wahrscheinlichkeiten g und h Unterscheidung: alpha und beta = Wahrscheinlichkeit der SH-> Sagen etwas über die möglichen Fehlerwahrscheinlichkeiten des Urteils der SH aus Wahrscheinlichkeiten g und h: Rückschluss SH auf PH (!)
  • Was versteht man unter der Wahrscheinlichkeit "g"? g := p(SH trifft in U zu | PH trifft in U nicht zu) = bedingte Wahrscheinlichkeit, dass SH in Untersuchung zutrifft (der Effekt, der in der H1 vorhergesagt, liegt vor) gegeben, dass die PH nicht zutrifft                                                        • vorhergesagter Effekt stimmt, obwohl PH falsch ist     -> g = hoch, wenn potentiell viele PHs zu der gleichen SH führen (eigene PH nicht spezifisch genug für SH)                                                                                                                       -> Lösung: um g klein zu halten, ist es notwendig, dass die SH möglichst spezifisch auf PH formuliert wird
  • Was versteht man unter der Wahrscheinlichkeit "h"? h := p(SH trifft in U nicht zu | PH trifft in U zu) - bedingte Wahrscheinlichkeit, dass SH nicht zutrifft, gegeben, dass PH zutrifft -> PH gilt, aber ausgewählte SH gilt nicht -> Möglichkeit: Aus der PH wird nicht ganz klar, welche SH getestet werden soll (vielleicht trifft SH' oder SH'' (= alternative statistische Hypothesen) zu)
  • Welche Maßnahmen können ergriffen werden, um die Strenge und Fairness einer Testung zu steigern? • Kontrolle beider statistischer Irrtumswahrscheinlichkeiten alpha und beta   - Festlegung einer kleinen Fehlerwahrscheinlichkeit alpha (vorwiegend für Strenge)                 - Kontrolle/Festlegung der Fehlerwahrscheinlichkeit beta (Poweranalyse !!!) (vorwiegend               für Fairness) • Sicherstellung einer Implikationsbeziehung zwischen PH und SH (PH -> SH)              - um Wahrscheinlichkeit h möglichst gering zu halten                                                     - Sicherstellung, dass aus PH die SH, die geprüft wird, auch tatsächlich aus dieser abgeleitet       werden kann                                                                                                                   - Besteht eine Implikation der Art „PH trifft zu“ => „SH trifft zu“, so ist die Wahrscheinlichkeit     h=0. - Damit entspricht fU der statistischen Irrtumswahrscheinlichkeit beta und die Fairness               entspricht der statistischen Teststärke 1 - beta    (damit Fairness = 1 - beta - 0 (h (=0) x (1-     alpha-beta)) -> maximale Fairness = 1 -           beta (=Teststärke)) • Ableitung einer möglichst präzisen, empirisch gehaltvollen Vorhersage SH, die spezifisch für die gegebene PH ist                                                                                    - um Wahrscheinlichkeit g klein zu halten (!)                                                                     - da im Allgemeinen keine Äquivalenzbeziehung der Art PH => SH vorausgesetzt    werden kann, muss g> 0 angenommen werden.      (keine Äquivalenzbeziehung zwischen PH und SH bedeutet: man kann nicht voraussetzen,         wenn SH gilt diese die PH impliziert -> es kann immer sein, dass es eine andere PH gibt,         die zu der gleichen SH führt (!) -> auch wenn es aktuell keine andere PH geben könnte,           die zur gleichen SH führt, ist es allerdings zukünftig denkbar (!) -> daher muss man               davon ausgehen, dass g > 0 ist) - Eine empirisch gehaltvollere Vorhersage reduziert die Wahrscheinlichkeit g.    (durch eine statistische Vorhersage, die so spezifisch und genau ist, dass sie durch die PH          vorhergesagt werden kann, allerdings möglichst durch wenige andere PHs kann man g            stark reduzieren (!)) - Dadurch wird eU reduziert und die Strenge nähert ihr Maximum 1-alpha an.    (1-alpha - g (1- alpha-beta) -> wenn g möglichst klein ist, nähert sich Strenge an                    Maximum 1-alpha an)