Psychologie - Forschungsmethoden (Fach) / Teil 4 Das Allgemeine Lineare Modell (Lektion)

In dieser Lektion befinden sich 7 Karteikarten

Teil 4 Das Allgemeine Lineare Modell

Diese Lektion wurde von mosaicpilz erstellt.

Lektion lernen

Diese Lektion ist leider nicht zum lernen freigegeben.

  • 20 Das Allgemeine Lineare Modell 20.1 Was ist das Allgemeine Lineare Modell? 20.2 Der t-Test als Spezialfall der einfachen Regression 20.3 Varianzanalyse mit zwei Gruppen als Spezialfall der einfachen Regression 20.4 Varianzanalyse mit mehr als zwei Gruppen als Spezialfall der multiplen Regression Das Allgemeine Lineare Modell Korrelation, t-Test, Regression, Varianzanalyse -> Trotz der unterschiedlichen Verfahren (Zusammenhänge messen, Variablen vorhersagen, Mittelwerte vergleichen) sind sie in wesentlichen Teilen äquivalent und ineinander überführbar – sie können aus derselben zugrundeliegenden Formel abgeleitet werden, und sie alle folgen derselben übergeordneten Logik und Konzeption. Diese Konzeption ist das Allgemeine Lineare Modell (ALM). Was ist das Allgemeine Lineare Modell? Zentrale Idee des ALM: Eine Variable y kann als Linearkombination mehrerer anderer Variablen plus einem Fehlerterm beschrieben werden: yi = b1x1i + b2x2i + ... + bmxmi + a + ei bj = Regressionskoeffizient; a = Konstante, xj = Variable Vergleiche Grundgleichung der multiplen Regression (K8): ^yi = b1x1i + b2x2i + ... + bmxmi + a Bei der multiplen Regression wird der Aspekt der Vorhersage betont – allerdings wird der vorhergesagte Wert nicht perfekt dem tatsächlichen Wert yi der Person i entsprechen. Wenn zusätzlich der Fehlerterm ei berücksichtigt wird, erhalten wir den tatsächlichen Wert und damit auch die Formel des ALM. Die Grundgleichung der multiplen Regression ist identisch mit der Grundgleichung des ALM. Inhaltlich besagt das ALM, dass sich der Messwert einer Person auf einer beliebigen Variable y als Summe verschiedener anderer Größen beschreiben lässt. Diese Größen enthalten die Konstante a, die für alle Personen gleichermaßen gilt und unabhängig vom Messwert der Personen auf anderen Variablen xj ist. Dazu kommt der Einfluss der verschiedenen Variablen xj, die jeweils mit ihrem Regressionskoeffizienten bj gewichtet sind. Außerdem der Fehlerterm ei, der unsystematische Einflüsse anderer Variablen zusammenfasst. Als linear wird das Modell bezeichnet, weil die Datenpunkte in Streudiagrammen der Kriteriumsvariable y gegen die verschiedenen Prädiktorvariablen x einer Geraden folgen würden. Das Gleiche gilt für ein Streudiagramm der Kriteriumsvariable y gegen die vorhergesagten y-Werte, die als Zusammenfassung aller Prädiktorvariablen xj verstanden werden können. Eine weitere Gemeinsamkeit des ALM mit der multiplen Regression besteht in der Verwendung des Kriteriums der kleinsten Quadrate. K8: Die Regressionskoeffizienten und die Konstante a werden so bestimmt, dass die Summe der quadrierten Fehler e²i (anders gesagt: die Summe der quadrierten Abweichungen zwischen tatsächlichen und vorhergesagten Werten (yi – ^yi)² ) möglichst klein wird. Dasselbe gilt für das ALM. Unterscheidung zwischen ALM und Regression eher inhaltlich: Mit dem ALM wird die grundlegende Idee bezeichnet, dass eine Variable als Linearkombination anderer Variablen beschrieben werden kann. Diese Idee liegt verschiedenen Verfahren zugrunde (Regression, t-Test, Varianzanalyse). Die multiple Regression ist ein statistisches Verfahren, welches diese Idee zu einem bestimmten Zweck nutzt – hauptsächlich mit dem Ziel, Vorhersagen für eine Variable zu gewinnen. Allerdings ist die Beziehung so eng, dass sich andere statistische Verfahren nicht nur als Spezialfälle des ALM, sondern auch als Spezialfälle der Regression beschreiben lassen. Die multiple Regression ist also das allgemeinste Verfahren innerhalb des ALM. Die bisher behandelten Verfahren lassen sich mathematisch aus der multiplen Regression ableiten. Als eigenständige Verfahren sind t-Test oder VA also streng genommen gar nicht notwendig – sie können durch die Regression ersetzt werden. Z.B. Korrelation als Nebenprodukt der einfachen Regression: Ein Gütemaß innerhalb der Regression ist die Varianzaufklärung, die durch den Determinationskoeffizient r² angegeben wird. Die Varianzaufklärung entspricht dem Anteil der Varianz der vorhergesagten Werte (auch systematische Varianz oder Regressionsvarianz) an der Gesamtvarianz. Die Korrelation r kann also einfach als Wurzel aus dem in einer Regression aufgeklärten Varianzanteil beschrieben werden. Der t-Test als Spezialfall der einfachen Regression Regressionsgerade hier: ^yi = 2xi + 5; Eingabe der Kodierung für die EG (1) bzw. die KG (2) ergibt die Mittelwerte der jeweiligen Gruppen (weil Regression die optimale Vorhersage sucht). a = Konstante = 5; Regressionskoeffizient = byx = 2 Beide t-Tests führen zu demselben Ergebnis – offensichtlich ist es unerheblich, ob wir den Mittelwertsunterschied auf Signifikanz prüfen oder die Korrelation zwischen UV und AV – wir werden stets zu denselben Schlussfolgerungen gelangen. Eine Implikation aus dieser Beobachtung ist, dass wir die beiden Formeln für den t-Wert gleichsetzen können – beide Formeln sind mathematisch äquivalent. Varianzanalyse mit zwei Gruppen als Spezialfall der einfachen Regression Eine VA mit nur zwei Gruppen ist inhaltlich identisch mit dem t-Test – der t-Test, der auf den Vergleich von zwei Mittelwerten beschränkt ist, kann also auch als Spezialfall der Varianzanalyse aufgefasst werden. BSP. Effektmaß η² der Varianzanalyse = Determinationskoeffizient r² = 0.33. Beide Maße ergeben sich aus den gleichen Quadratsummen und beide Maße geben inhaltlich dasselbe, nämlich den Anteil der aufgeklärten Varianz an der Gesamtvarianz an. [...] Die Ursache für diese widersprüchlichen Ergebnisse liegt darin, dass im F-Test zunächst immer zweiseitig getestet wird. Im t-Test hatten wir hingegen einseitig getestet. Um auch im F-Test einseitig testen zu können, müssen wir zunächst überprüfen, ob sich die Mittelwerte in den beiden Gruppen in die erwartete Richtung unterscheiden.Wenn ja, dann können wir den p-Wert aus dem F-Test halbieren, um zum einseitigen Testergebnis zu gelangen. Dieses ist signifikant. Varianzanalyse mit mehr als zwei Gruppen als Spezialfall der multiplen Regression BSP. UV = Training A und B + 1 AV -> 3 Mittelwerte -> einfaktorielle Varianzanalyse. Wie funktioniert eine Regressionsanalyse in diesem Fall (wir nutzen die UV als Prädiktor um die AV vorherzusagen)? Problem: Die UV ist nach wie nominalskaliert, hat nun aber drei mögliche Ausprägungen; anders als bei der dichotomen UV können wir die Voraussetzung der Intervallskalierung in diesem Fall nicht mehr ignorieren. Wenn wir die UV mit 0, 1 und 2 kodieren, wird eine Regressionsanalyse andere Ergebnisse bringen als eine Kodierung mit 0, 4 und 3. Zudem liegen bei 3 Mittelwerten diese nicht mehr zwangsläufig auf einer Regressionsgeraden – die in der Regression vorhergesagten Werte würden also nicht mehr mit den Gruppenmittelwerten übereinstimmen. Die Gleichheit von vorhergesagten Werten und Gruppenmittelwerten war aber die Grundlage dafür, dass die Varianzanalyse und die Regressionsanalyse in der Untersuchung mit zwei Gruppen zu identischen Ergebnissen führten. Lösung: Die drei Stufen der UV nicht in eine numerische Prädiktorvariable mit drei möglichen Zahlenwerten umsetzen, sondern in mehrere dichotome Prädiktorvariablen -> Dummy-Kodierung. Allgemein gilt, dass für eine UV mit k Stufen (oder Gruppen) k – 1 Dummy-Variablen benötigt werden. Anzahl Dummy-Variablen = Anzahl Freiheitsgrade. […]
  • 21 Regressionsrechnung: Ergänzungen und Erweiterungen 21.1 Multiple Regression: Ergänzungen 21.1.1 Schrittweise Regression 21.1.2 Effektgrößen bei der multiplen Regression 21.1.3 Inferenzstatistik bei der multiplen Regression 21.1.4 Analyse nichtlinearer Beziehungen 21.2 Kovarianzanalyse mittels Regressionsrechnung Regressionsrechnung: Ergänzungen und Erweiterungen t-Test und Varianzanalyse können im Rahmen des ALM als Spezialfälle der Regressionsrechnung berechnet werden. Das ist möglich, weil man die nominalskalierten unabhängigen Variablen in diesen Verfahren in Dummy-Variablen umwandeln und diese wiederum wie intervallskalierte Prädiktorvariablen behandeln kann. Die Verwendung von sowohl nominal- als auch intervallskalierten Prädiktorvariablen in ein- und derselben Regressionsrechnung hat viele Vorteile. Multiple Regression: Ergänzungen Schrittweise Regression Schrittweise Regression (stepwise regression) zur Analyse des Einflusses vieler Prädiktorvariablen auf eine Kriteriumsvariable. Normalerweise sollten in der Regressionsgleichung alle relevanten Prädiktoren enthalten sein – wird nur ein Teil benutzt, kann deren Einfluss evtl. nur ungenau erfasst werden. In manchen Situationen ist es jedoch sinnvoll, die Prädiktoren nicht gleichzeitig sondern schrittweise nacheinander (einzeln oder Gruppen) in die Regressionsgleichung einzuführen. Nach jedem der Schritte führt man dann eine (simultane) Regressionsanalyse mit allen zu diesem Zeitpunkt vorhandenen Prädiktoren durch und vergleicht sukzessive die Resultate hinsichtlich ihrer „Erklärungskraft“, d.h. hinsichtlich des Zuwachses an erklärter Varianz. Erklärte Varianz = R² Zuwachs an erklärter Varianz = ΔR² 2 Durchführungsarten: Reihenfolge der Prädiktoren nach theoretischen Gesichtspunkten bestimmen Reihenfolge der Prädiktoren nach dem Zuwachs an Erklärungskraft bestimmen Achtung: Begriff schrittweise Regression wird in der Literatur für beide Vorgehensweisen verwendet. Variante 1) Theoriegeleitete Vorgehensweise: Theoriegeleitete schrittweise Regression = Sequentielle Regression Was passiert bei schrittweiser und nicht gleichzeitiger Einsetzung der Prädiktoren? Es gibt die aufgeklärte Varianz durch die zwei einzelnen Prädiktoren selbst, als auch die gemeinsame Varianz (Korrelation der Prädiktoren untereinander) (-> Bild der drei überlappenden Kreise). Wie die gemeinsame Varianz in die Berechnung der entsprechenden Koeffizienten eingeht, hängt bei der schrittweisen Regression von der Reihenfolge ab. BSP Kommt X1 zuerst in die Regressionsgleichung ein, wird dieser Variable die Varianz zugeordnet, die durch die Flächen a und c repräsentiert ist. Wenn X2 als zweiter Prädiktor in die Gleichung kommt, dann ist der Zuwachs an Erklärungskraft, also das Ausmaß in dem sich der Determinationskoeffizient erhöht (ΔR²), nur durch die mit b bezeichnete Fläche (ohne die mit c bezeichnete Fläche) repräsentiert. Im BSP ist die Erklärungskraft der beiden Prädiktoren gleich groß. Wenn die Prädiktoren miteinander korrelieren, ist allerdings der Zuwachs an Erklärungskraft für den Prädiktor, der als zweiter in die Gleichung kommt, immer kleiner als die Erklärungskraft, die er hätte, wenn er als erster in die Gleichung eingesetzt würde. Problem: BSP. Modell mit 4 Prädiktoren (Reihenfolge aufgrund angenommener Wichtigkeit: Sozioökonomischer Status, Frühere Noten, Selbstwert, Locus of Control) von denen man annimmt, dass sie nicht direkt und unabhängig voneinander auf das Kriterium (Leistung) wirken, sondern dass auch indirekte Einflüsse eine Rolle spielen: Sozioökonomischer Status -> Einfluss auf untere drei Prädiktoren Frühere Noten -> Einfluss auf untere zwei Prädiktoren Selbstwert -> Einfluss auf Locus of Control Die theoretische Abhängigkeit wird in einer simultanen Regression nicht berücksichtigt! Nur die direkten Einflüsse der Prädiktoren (a bis d) auf das Kriterium, nicht e (zB. Einfluss von SÖS auf LoC): Man würde nicht herausfinden, wie sich die Erklärungskraft des Modells verändert, wenn sukzessive theoretisch immer weniger wichtige (tlw. abhängige) Prädiktoren in das Modell einbezogen werden. Bei der sequentiellen Vorgehensweise könnte sich bspw. herausstellen, dass die zusätzliche Erklärungskraft eines oder mehrerer später hinzugefügter Prädiktoren vernachlässigbar gering ist, was wiederum zu einer Modifikation des Modells führen könnte. Betrachtet man die Regressionskoeffizienten bei der sequentiellen Regression nach der Eingabe aller Prädiktoren, unterscheiden sie sich nicht von denen, die man in einer entsprechenden simultanen Regression erhält. Worin könnte ein Vorteil der sequentiellen Regression bestehen? Bei dieser Vorgehensweise geht es nicht primär um den Regressionskoeffizienten selbst, sondern um den Zuwachs an Erklärungskraft ΔR², der jeweils durch die Hinzunahme eines weiteren Prädiktors (oder einer Gruppe von Prädiktoren) zustande kommt. Diese Information kann in simultaner Regression nicht gewonnen werden -> BSP Erklärungskraft von SÖS als erstem Prädiktor enthält auch die indirekten Effekte (die über andere Prädiktoren auf das Kriterium wirken) -> es werden auch die Varianzen miteinbezogen, die die dieser Prädiktor mit allen anderen gemeinsam hat. Die Reihenfolge in der Prädiktoren in die Gleichung eingehen ist essentiell: je früher, desto größer ist der durch ihn verursachte Zuwachs an Erklärungskraft. Natürlich nur sinnvoll, wenn es eine theoretische Rechtfertigung für eine bestimmte Reihenfolge gibt. Anwendung: Analyse postulierter Kausalitätseinflüsse Klare zeitliche Reihenfolge der Prädiktoren Zum Feststellen des Ausmaßes zusätzlicher Einflüsse (z.B. von Interaktionstermen) Nicht sinnvoll bei der Untersuchung von indirekten Verbindungen zwischen Variablen im Detail (K22: Pfadanalyse). Variante 2) Reihenfolge nach „Erklärungskraft“ der Prädiktoren: Sukzessive Auswahl von Prädiktorvariablen nach ihrer Erklärungskraft. Bei der Suche nach den besten Prädiktoren für ein Kriterium ist es naheliegend, die Auswahl nach der Höhe der Korrelation zwischen Prädiktoren und Kriterium vorzunehmen. Erster Schritt: Programm sucht Prädiktor mit höchster Korrelation und berechnet den (standardisierten) Regressionskoeffizienten bi für diesen Prädiktor sowie das R², den Determinationskoeffizienten. Dann wird pro Schritt der Prädiktator mit dem höchsten Zuwachs an Erklärungskraft, ΔR² eingefügt (Vorwärtsselektion [1]). [1] Alternativ: Rückwärtsselektion = Man beginnt mit allen Prädiktoren und entfernt sukzessive die mit der geringsten Abnahme an Erklärungskraft. Für jeden Zuwachs an Erklärungskraft wird ein Signifikanztest durchgeführt. Der Prädiktor wird bei nicht-signifikantem Ergebnis abgesondert. Gleichzeitig wird auch für alle schon vorhandenen Prädiktoren überprüft, ob ihre Regressionskoeffizienten unter die Signifikanzschwelle gefallen sind (ist dies der Fall, werden diejenigen Prädiktoren aus der Gleichung genommen). Am Schluss enthält die Gleichung also nur Prädiktoren mit signifikanten Regressionskoeffizienten. Wann welche Variante? Nicht sinnvoll: Meist ist es eingangs am besten, eine simultane Regression mit allen Prädiktoren durchzuführen – die automatische schrittweise Regression wird zwar relativ häufig durchgeführt, macht aber nur selten Sinn. Prädiktoren, die ein Statistikprogramm aussucht, sind ja nicht theoretisch abgeleitet und das Ergebnis kann keine Grundlage für eine theoretisch fundierte Erklärung empirischer Resultate sein. Welche Prädiktoren in einer bestimmten Stichprobe eine gute Vorhersagekraft haben, kann stark durch Zufallseinflüsse bestimmt sein und in der nächsten Stichprobe schon wieder anders aussehen. Selbst bei stabilen Ergebnissen (unterschiedliche Analysen mit zufällig aufgeteilten Untermengen der Daten, oder neue Stichprobe) ist oft nicht klar, was sie inhaltlich bedeuten. Sinnvoll: Wenn es nicht um Erklärung, sondern nur um eine gute Vorhersage geht – vor allem angebracht bei sehr vielen potenziellen Prädiktoren. Aber auch nur Übergangslösung, weil man in der Regel zumindest herausfinden möchte, warum bestimmte Prädiktoren eine bessere Vorhersage liefern als andere. Effektgrößen bei der multiplen Regression Meist ist man an zwei Arten von Effekten interessiert: Vorhersagekraft aller Prädiktoren (1, oder Gruppen von Prädiktoren) + Vorhersagekraft einzelner Prädiktoren (2). zu 1) Gesamteffekt und Zuwachs an Erklärungskraft Bei der einfachen linearen Regression ist der standardisierte Regressionskoeffizient identisch mit der Korrelation (r) zwischen Prädiktor und Kriterium. Quadrat der Korrelation = (einfacher) Determinationskoeffizient (r²). Mehr als ein Prädiktor: Der (multiple) Determinationskoeffizient (R²) wird als Quadrat des multiplen Korrelationskoeffizienten (R) der Korrelation zwischen vorhergesagten und tatsächlichen y-Werten berechnet. Der multiple Determinationskoeffizient gibt immer die durch alle Prädiktoren aufgeklärte Varianz wieder (Effektgröße für die Beschreibung des Gesamteffekts einer multiplen Regression). Analog dazu kann der Zuwachs in der Erklärungskraft (ΔR²) als Effektgröße benutzt werden: Er gibt den durch Hinzufügen der betreffenden Prädiktoren zusätzlich erklärten Varianzanteil an. zu 2) Auf einzelne Prädiktoren zurückführbare Effekte Wie gut sagen einzelne Prädiktoren die y-Werte vorher? Die einfache oder Einfach-Korrelation kann dies nicht beantworten, weil, falls die Prädiktoren miteinander positiv korrelieren (Normalfall), die Effekte dadurch überschätzt würden. Man kann die standardisierten Regressionskoeffizienten (b) als Effektgrößen betrachten. Es gibt jedoch noch zwei zusätzliche Arten von Korrelation, die als Effektgrößenmaße in Frage kommen: Partialkorrelationen (pr) und Semipartialkorrelationen (sr). (Quadrierte (einfache) Korrelationen (r²) als Determinationskoeffizienten enthalten beide den durch c bezeichneten Varianzanteil (gemeinsame Varianz der Prädiktoren) und sind zu einer genauen Einschätzung der spezifischen Effekte der Prädiktoren nur bedingt geeignet.) Die Partialkorrelation (pr) ist die Korrelation zwischen einem Prädiktor und dem Kriterium nachdem der Einfluss aller anderen Prädiktoren von beiden Variablen (Prädiktor und Kriterium) entfernt wurde. Die Semipartialkorrelation (sr) beschreibt hingegen den Zusammenhang zwischen einem Prädiktor (von dem der Einfluss aller anderen Prädiktoren entfernt wurde) mit dem (nicht bereinigten) Kriterium. Das Problem der Multikollinearität: Manchmal ist der Wert standardisierter Regressionskoeffizienten (b) größer als 1, oder die Regressionskoeffizienten, die eigentlich das Gleiche messen sollten, haben stark unterschiedliche Werte, möglicherweise sogar unterschiedliche Vorzeichen. Das kann passieren, wenn Prädiktoren sehr hoch miteinander korrelieren oder ein Prädiktor nahezu eine Linearkombination aus anderen Prädiktoren ist (BSP: sowohl die Subskalen als auch der Gesamtscore eines Tests werden als Prädiktor benutzt) -> Multikollinearität. Wenn diese vorliegt, können die Effektgrößen in der linearen Regression kaum interpretiert werden. Mögliche Abhilfe 1: Korrelierte Prädiktoren zu einem Prädiktor zu kombinieren oder (eher periphere) Prädiktoren weglassen. Mögliche Abhilfe 2: Mit latenten Variablen arbeiten, welche die hoch miteinander korrelierenden Prädiktoren repräsentieren und statt einer multiplen Regression ein Strukturgleichungsmodell zu benutzen (K22). Inferenzstatistik bei der multiplen Regression 2 Arten inferenzstatistischer Verfahren zur Analyse des Gesamteffekts und der Erklärungskraft einzelner Prädiktoren: zu 1) Gesamteffekt und Zuwachs an Erklärungskraft: Erweiterung des Signifikanztests (zur Überprüfung der Hypothese R² = 0), um auch den Zuwachs an Erklärungskraft auf Signifikanz zu prüfen, also die (Null-)Hypothese ΔR² = 0. zu 1) Auf einzelne Prädiktoren zurückführbare Effekte: Zur Prüfung der Nullhypothese, dass sich die Vorhersagekraft eines standardisierten Regressionskoeffizienten nicht von Null unterscheidet (β1 = 0). Analyse nichtlinearer Beziehungen Allgemeines Lineares Modell –> in der Regressionsgleichung werden nur lineare Zusammenhänge analysiert. Dennoch kann man mithilfe der linearen Regression auch nichtlineare Beziehungen zwischen unabhängigen und abhängigen Variablen untersuchen -> Benutzung transformierter Variablen. Wenn man etwa die Hypothese hat, dass die Stärke des subjektiven Sinneseindrucks eine logarithmische Funktion der physikalischen Reizstärke ist (bspw. bei der menschlichen Lautwahrnehmung), würde man bei der entsprechenden Regressionsanalyse nicht die tatsächliche physikalische Reizstärke als Prädiktor (X-Variable) für den Sinneseindruck (Y-Variable) verwenden, sondern den Logarithmus davon (log(X)). Wenn die Hypothese stimmt, dann ist die Beziehung zwischen der logarithmierten Reizstärke und dem subjektiven Sinneseindruck linear und kann problemlos mithilfe der linearen Regression untersucht werden. Bei einem nichtlinearen Zusammenhang ohne a priori-Hypothese über die Art des Zusammenhangs, kann man versuchen, die Art zu bestimmen, und dann nach einer Transformation suchen, die diesen nichtlinearen Zusammenhang in einen linearen überführt. Kovarianzanalyse mittels Regressionsrechnung VA: nur nominalskalierte oder kategoriale unabhängige Variablen Herkömmliche Regressionsrechnung: intervallskalierte unabhängige Variablen Durch Dummy-Kodierung können auch beliebige nominalskalierte Variablen wie intervallskalierte Variablen behandelt werden. Die Möglichkeit der Kombination von nominalskalierten Prädiktoren in Form von Dummy-Variablen und intervallskalierten Prädiktoren erlaubt es, eine Kovarianzanalyse mittels Regressionsrechnung durchzuführen. Die Kovarianzanalyse soll den Einfluss intervallskalierter Störvariablen  (z.B. solche die man nicht experimentell konstant halten kann) statistisch kontrollieren. Nebeneffekt dieser statistischen Kontrolle von Drittvariablen: erhöht in der Regel die Teststärke. Allerdings sind die Ergebnisse einer KA nur gut interpretierbar, wenn die Stärke des Zusammenhangs zwischen Störvariable(n) und abhängiger Variable für alle Bedingungen der unabhängigen Variable vergleichbar ist. Bei der entsprechenden Regressionsrechnung ist die dummy-kodierte, nominalskalierte unabhängige Variable die primäre Prädiktorvariable, die um den Einfluss einer mehr oder weniger intervallskalierten (sekundären) Prädiktorvariable bereinigt wird. D.h. wenn man eine Kovarianzanalyse rechnen will, kann man immer auch eine Regressionsanalyse mit den entsprechenden unabhängigen Variablen durchführen. IQ wird in das Regressionsmodell aufgenommen und damit statistisch kontrolliert, d.h. die Variable IQ herauspartialisiert. Standardisierter Regressionskoeffizient (der bei einem Prädiktor auch der Korrelation r zwischen Prädiktor und Kriterium entspricht) ist deutlich höher (b = -0.87) und diesmal signifikant. Auch die entsprechenden Partial- und Semipartialkorrelationen sind höher als die Einfachkorrelation. Dies scheint auf den ersten Blick ein Widerspruch zu K21.1.2 zu sein, wo steht, dass die Einfach-Korrelationen normalerweise die Effekte der Einzelprädiktoren überschätzen und dass deswegen Partial- und Semipartialkorrelationen als Effektgrößen benutzt werden sollen. Das stimmt auch, denn der Normalfall ist eine positive Korrelation zwischen den Prädiktoren. Im Beispiel korrelieren IQ und Gruppenzugehörigkeit allerdings negativ miteinander - es handelt sich um einen Suppressoreffekt. Neben der gleichzeitigen Behandlung von nominal- und intervallskalierten Variablen existieren noch zahlreiche Erweiterungen der Regressionsrechnung. Eine wichtige Unterscheidung bei diesen Erweiterungen ist die zwischen Moderator- und Mediatoranalyse: Mediator- versus Moderatoranalyse (können auch kombiniert werden): Mediatoranalyse: Untersucht, ob die Wirkung einer UV auf eine AV durch eine dritte Variable  (Mediatorvariable) vermittelt (mediiert) wird; Verbindungen zwischen Variablen werden meist Pfade genannt. BSP. indirekter Pfad zwischen UV und AV der über die Mediatorvariable verläuft und aus den Teilpfaden a und b besteht (z.B. Die Unterrichtsmethode (UV) wirkt sich auf die Motivation (Mediator) aus und diese wiederum auf die Lernleistung (AV)). Keine Begrenzung auf eine UV oder einen Mediator; außerdem verliert das Konzept der AV bei der Mediatoranalyse an Eindeutigkeit, da die Mediatorvariable sowohl als zusätzliche AV (in Bezug auf die UV) als auch zusätzliche UV (in Bezug auf die AV) betrachtet werden kann. Moderatoranalyse: Hier geht es nicht um die Vermittlung eines Effekts der UV auf die AV, sondern darum, ob und wie stark dieser Effekt durch eine weitere UV (Moderatorvariable) beeinflusst (moderiert) wird. BSP. Hängt Gedächtnisleistung (AV) von der verbalen Intelligenz (UV) ab? Dieser Zusammenhang könnte von der Moderatorvariable Alter beeinflusst werden (bei älteren Probanden ist die Abhängigkeit zwischen verbaler Intelligenz und Gedächtnisleistung möglicherweise geringer als bei jüngeren Probanden).
  • 21 Regressionsrechnung: Ergänzungen und Erweiterungen 21.3 Moderatoranalyse: Die generelle Behandlung von Interaktionen 21.3.1 Interaktion als multiplikative Komponente 21.3.2 Zentrieren der Prädiktorvariablen 21.3.3 Interaktion zwischen zwei nominalskalierten Variablen 21.3.4 Interaktion zwischen einer nominal- und einer intervallskalierten Variablen 21.3.5 Interaktion zwischen zwei intervallskalierten Variablen 21.3.6 Interaktion in komplexeren Fällen Moderatoranalyse: Die generelle Behandlung von Interaktionen Moderatoranalyse bereits unter Namen Interaktion kennengelernt (K15) – die Interaktion der VA befasst sich mit der Wechselwirkung zwischen zwei oder mehr nominalskalierten unabhängigen Variablen. Wenn aber die Interaktion zwischen nominal- und intervallskalierten Variablen oder zwischen zwei oder mehr intervallskalierten Variablen untersucht werden soll, geht das im Rahmen der VA nicht mehr, wohl aber im Rahmen der Regressionsrechnung. Interaktion als multiplikative Komponente Wie bringt man die Interaktion in die Regressionsgleichung? (Haupteffekte: wenn zwei Faktoren unabhängig voneinander wirken, dann addieren sich die Wirkungen einfach zB. 2 + 1 = 3; Interaktion; zusätzlich zu dieser additiven Komponente wirken die zwei Faktoren auch multiplikativ miteinander zB 2 x 1 = 2; vereinfacht: Linien im Diagramm sind parallel bei Haupteffekten und nicht parallel bei einer Interaktion) ^y = b0 + b1x1 + b2x2 + b3x1x2 x1 und x2 = Prädiktoren y = Kriterium b0 = Konstante b1 und b2 = Regressionskoeffizienten Zentrieren der Prädiktorvariablen Bevor man eine Moderatoranalyse durchführt, müssen die Prädiktorvariablen, die miteinander multipliziert werden um den Interaktionsterm zu erzeugen, zentriert werden. Zentrieren ist nicht notwendig, wenn man eine Regressionsrechnung ohne Interaktionsterm durchführt, denn dann ist es (mathematisch gesehen) egal, welche Skala für die Prädiktorvariablen verwendet wird (es geht ja immer nur um die Kovariation der Variablen, nicht um deren absolute Werte, zB kann man Temperaturen in Grad Fahrenheit oder Grad Celsius ausdrücken und obwohl die beiden unterschiedliche Nullpunkte haben, würde dies nichts am Ergebnis ändern). Zentrieren ist notwendig, wenn Werte von Prädiktorvariablen multipliziert werden (wie im Interaktionsterm). Hier kann die Lage des Nullpunkts einen deutlichen Unterschied machen; insbesondere kann dadurch die Korrelation des Interaktionsterms mit den ursprünglichen Variablen stark erhöht werden und dadurch sein Beitrag nicht mehr gut interpretierbar sein (Problem der Multikollinearität). Um die Prädiktorvariablen hinsichtlich des Nullpunkts vergleichbar zu machen, werden sie zentriert, d.h. von jedem Wert des Prädiktors wird sein Mittelwert abgezogen. xi,zentriert = xi – -x- Weiterer Vorteil der Zentrierung hinsichtlich der Kovariate b0: Die Konstante in der Regressionsgleichung ist der y-Wert für x = 0. Dieser Wert hat oft keine inhaltliche Bedeutung, insbesondere wenn die Skala für die x-Variable den Wert Null gar nicht enthält. Nach Zentrieren der Werte des Prädiktors ist b0 identisch mit dem arithmetischen Mittel des Kritierums. Interaktion zwischen zwei nominalskalierten Variablen Bei der VA spielt sich die Interaktion immer zwischen zwei oder mehr nominalskalierten unabhängigen Variablen ab. BSP: Effektivität zweier Arten von Geometrie-Lernsoftware + weitere UV: Realschule oder Gymnasium. Ausprägungen für UV Schultyp und Lernsoftware werden jeweils dummy-kodiert und danach noch einmal zentriert. Danach wurde das Produkt der zentrierten Prädiktoren berechnet, mithilfe dessen die Interaktion untersucht wird. FSchultyp etc. kommen in Regressionsgleichung -> Signifikanztests für einzelne Prädiktoren -> tSchultyp etc. Interaktion zwischen einer nominal- und einer intervallskalierten Variablen Es gibt Hypothesen, die sich gut durch eine Interaktion beschreiben lassen: z.B. Aptitude-Treatment-Interaktionen -> Annahme, dass die Wirksamkeit einer Behandlung (Treatment) von den Fähigkeiten (Aptitude) der Person abhängt, die diese Behandlung bekommt. BSP. Zusammenhang zwischen verbalen Fähigkeiten von Schülern (erste, intervallskalierte Prädiktorvariable) und deren Gedächtnisleistung  (abhängige Variable) in Abhängigkeit der Lernstrategie (zweite, nominalskalierte Prädiktor- oder Moderatorvariable). Haupteffekte für sich alleine hätten keinen Effekt. Warum? Bei der verbales Training-Gruppe nimmt die Gedächtnisleistung der Schüler mit zunehmenden verbalen Fähigkeiten zu. Bei der Gruppe mit visuellem Training ist es umgekehrt; von diesem Training profitieren hauptsächlich Schüler mit geringen verbalen Fähigkeiten, und bei Schülern mit hohen verbalen Fähigkeiten scheint das visuelle Training kontraproduktiv zu sein. Dieser gegenläufige Effekt führt dazu, dass bei der Analyse ohne Interaktionsterm kein Zusammenhang zwischen Prädiktoren und Kriterium erkennbar ist. Nimmt man jedoch die Interaktion mit in die Regressionsgleichung auf (statistische Kontrolle des Interaktionseffekts), ändert sich das Ergebnis drastisch: hoher Erklärungswert der Interaktion -> ausgeprägte Aptitude-Treatment-Interaktion: die Lernleistung ist sehr stark abhängig davon, welches Training (Treatment) bei welcher Ausprägung der verbalen Fähigkeiten (Aptitude) eingesetzt wird. Interaktion zwischen zwei intervallskalierten Variablen BSP: Vorhersagekraft des Fernsehkonsums von Schülern auf die Schulleistung; Moderatorvariable ist die intellektuelle Fähigkeit der Schüler. Interaktion: Ändert sich der Einfluss des Fernsehkonsums auf die Schulleistung in Abhängigkeit des intellektuellen Niveaus. x) Intervallskalierte Moderatorvariable (bei der Zeichnung einer Regressionsgeraden für jeden einzelnen Wert, wie bei nominalskalierten Variablen, würde man die Übersicht verlieren): Notbehelf -> Man nimmt drei Regressionsgeraden für typische Werte, z.B. das untere, mittlere und obere Drittel der Moderatorvariable. x) Eine andere, gebräuchliche Methode, die Interaktion zwischen zwei intervallskalierten Variablen sichtbar zu machen, besteht darin, Regressionsgeraden für drei vordefinierte Ausprägungen der Moderatorvariablen zu berechnen. 3 Werte: Mittelwerte und die Werte, die jeweils eine Standardabweichung unter und über dem Mittelwert liegen (häufig findet man in Diagrammen nur diese drei Geraden, keine Datenpunkte). Interaktion in komplexeren Fällen Dreifachinteraktion: Einen oder mehrere nominalskalierte Prädiktoren mit mehr als zwei Ausprägungen. Der Interaktionseffekt besteht aus der Summe der Produkte der Moderatorvariablen mit allen Dummy-Variablen. Die Größe des Interaktionseffekts kann als Unterschied der Determinationskoeffizienten mit und ohne Interaktionsterme bestimmt werden. ALM bietet die Möglichkeit beliebig komplexe Interaktionen zu untersuchen – jedoch kann das schnell unübersichtlich und schwer interpretierbar werden. Sofern ausschließlich nominalskalierte Variablen untersucht werden, ist wohl die konventionelle Varianzanalyse intuitiv besser nachvollziebar (K15).
  • 22 Indirekte Effekte, latente Variable und multiple Analyseebenen 22.1 Pfadanalyse 22.1.1 Zusammenhang zwischen Regressionsrechnung und Pfadanalyse 22.1.2 Pfadanalyse mit Mediatorvariable Indirekte Effekte, latente Variable und multiple Analyseebenen Vorheriges Kapitel: direkter Einfluss von Prädiktoren oder unabhängigen Variablen auf ein Kriterium (eine abhängige Variable) Untersuchung von Interaktion zwischen beliebigen unabhängigen Variablen mithilfe der Regressionsrechnung (Moderatoranalyse) Hier: Analyse indirekter Einflüsse (Mediatoranalyse) – eindeutige Unterscheidung zwischen UV und AV entfällt – mithilfe der Verfahren:                 o   Pfadanalyse (für direkt messbare Variablen oder Faktoren) und                 o   Strukturgleichungsmodelle (für latente Variablen oder Faktoren) ->     ------------------Überprüfung mithilfe der konfirmatorischen Faktorenanalyse (jedem ------------------Faktor sind direkt messbare /manifeste Variablen zugeordnet)                 o   Exploratorische Faktorenanalyse (umgekehrtes Vorgehen: Sammlung von -----------------manifesten Variablen und anschließende Exploration von möglicherweise -----------------dahinterstehenden latenten Variablen oder Faktoren) Mehrebenenanalyse: Moderatoranalyse über mehrere Ebenen (zB Schüler, Schule und Bundesland) Pfadanalyse Herkömmliche Regressionsrechnung: nur Analyse direkter Effekte (auch die Interaktionsterme wirken direkt auf die AV oder Kriteriumsvariable) Pfadanalyse und Strukturgleichungsmodelle: indirekte Effekte, d.h. solche, die durch eine oder mehrere zwischengeschaltete (Mediator-)Variablen vermittelt oder mediiert werden. Grundsätzliche Idee aber dieselbe: Testen (und nicht explorieren) von Hypothesen – diese können beliebig komplex sein, d.h. man kann mit solchen Modellen sehr viel detailliertere Hypothesen überprüfen als mit varianzanalytischen Designs. Ausdruck Pfadanalyse wird üblicherweise benutzt, wenn nur direkt messbare (manifeste) Variablen verwendet werden, während (vollständige) Strukturgleichungsmodelle in der Regel latente Variable (Konstrukte, Faktoren) enthalten. Pfadanalyse ist somit Sonderfall eines Strukturgleichungsmodells (ohne latente Variablen). Zusammenhang zwischen Regressionsrechnung und Pfadanalyse BSP. Lernleistung und Motivation von Studierenden wurden erhoben, und die den Studierenden zugewiesenen Tutoren von Experten hinsichtlich der Güte des Unterrichts eingeschätzt. Regressions-Lösung Welcher der beiden Prädiktoren (Lernleistung, Güte des Unterrichts) liefert eine bessere Vorhersage für die Lernleistung?Zunächst Berechnung der Regressionskoeffizienten aus den zur Verfügung stehenden Korrelationen und der standardisierten Regressionskoeffizienten für die zwei Prädiktorvariablen. -> Beide Prädiktoren wirken sich positiv auf die Motivation aus, aber die Lernleistung hat die stärkere Auswirkung auf die Motivation als die Unterrichtsgüte. Pfadanalytische Lösung Im oberen BSP: 2 Pfade (a und b) sowie Korrelation (c) -> schon automatisch eine Pfadanalyse durchgeführt: die konventionelle Regressionsrechnung ist nur ein Spezialfall der Pfadanalyse, bei der ausschließlich direkte Pfade untersucht werden. (BSP zwecks Nachvollziehbarkeit der Pfadanalyse) Die Grundlage für die Anleitung der Pfadkoeffizienten ist wieder die Varianz-Kovarianz-Matrix der beobachteten Variablen; im BSP: 3 solche Variablen (Motivation, Lernleistung, Unterrichtsgüte), wobei die Korrelationsmatrix aus den drei Korrelationen besteht. Wenn man die Korrelationen kennt, kann man daraus die Pfadkoeffizienten berechnen, indem man Gleichungen mit mehreren Unbekannten löst. Pfadanalyse mit Mediatorvariable Ein anderer Bildungsforscher könnte argumentieren: Die UV (Unterrichtsgüte) wirkt indirekt über die Mediatorvariable (Motivation) auf die AV (Lernleistung). Zudem, so seine Hypothese, wird die Lernleistung auch direkt durch die Unterrichtsgüte beeinflusst. Nun haben wir einen Residualterm mehr, einen für die Variable Motivation (res_M) und einen für die Variable Lernleistung (res_L). Diese Residuen sind nicht nichts anderes als die Residuen, die schon bei der normalen Regressionsanalyse behandelt wurden (K8) -> werden bei der Pfadanalyse (und bei Strukturgleichungsmodellen) immer mitberechnet. Sie repräsentieren den Einfluss der im Modell nicht berücksichtigten (oder unbekannten) Variablen, die über die Variablen im Modell hinaus zusätzlich auf die vorhergesagten Variablen wirken. Vorhergesagte Variablen kann man an den auf sie deutenden Pfeilen erkennen, man nennt sie endogene Variablen (endogen = im inneren erzeugt). Variablen auf die kein Pfeil zeigt nennt man exogene Variablen, weil sie von „außen“ wirken (exogen = von außen einwirkend). BSP: Nach Auflösung der Gleichungen: Der Pfadkoeffizient für den direkten Einfluss der Unterrichtsgüte auf die Lernleistung beträgt c = 0.23. Wie groß ist nun der direkte Einfluss, also der Einfluss der Unterrichtsgüte auf die Lernleistung, die über die Motivation vermittelt wird? Solche indirekten Effekte werden berechnet als das Produkt der direkten Effekte und können auch als Pfadkoeffizienten interpretiert werden: a x b = 0.518. Das bedeutet, dass in diesem Fall der indirekte Effekt der Unterrichtsgüte auf die Lernleistung (über den Mediator Motivation) stärker ist als die direkte. Die Unterrichtsgüte wirkt sich zwar auch positiv auf die Lernleistung aus, aber wenn die Tutoren gut unterrichten lernen die Studierenden hauptsächlich mehr, weil sie besserer Unterricht stärker motiviert. Wenn man die Pfadkoeffizienten mit regressionsanalytischen Methoden berechnet, dann kann man auch den Determinationskoeffizienten berechnen und sowohl Determinationskoeffizienten also auch die Pfadkoeffizienten (analog zu Regressionskoeffizienten) auf Signifikanz prüfen. Oft benutzt man für die Pfadanalyse auch andere Schätzmethoden (K22.2.3) – die dabei verwendeten Gütemaße werden auch für das (vollständige) Strukturgleichungsmodell verwendet und in Abschnitt 22.2.4 erläutert. Nicht alle Programme bieten Tests für indirekte (Mediator-)Effekte an; in diesem Fall kann man die sequentielle Regression (K21) oder Bootstrapverfahren (K19) zur Signifikanzprüfung verwenden; auch per Hand möglich.
  • 22 Indirekte Effekte, latente Variable und multiple Analyseebenen 22.2 Strukturgleichungsmodelle 22.2.1 Identifizierbarkeit 22.2.2 Mess- und Strukturmodelle 22.2.3 Schätzen der freien Parameter 22.2.4 Die Überprüfung des Modells: Gütemaße 22.2.5 Anwendungsvoraussetzungen Strukturgleichungsmodelle Enthalten zunächst Gleichungen, die die Struktur der Beziehungen zwischen den inhaltlich relevanten (meist latenten) Variablen im Modell abbilden: das sogenannte Strukturmodell. Darüber hinaus werden auch noch ein oder mehrere Messmodelle definiert, die spezifizieren, wie die latenten Variablen gemessen werden. (Bild) Die Fehlerterme der manifesten Variablen sind nur durch von außen kommende Pfeile angedeutet. Die latente Variable A ist eine exogene Variable, die durch zwei manifeste Variablen (die Rechtecke, auf die die von A ausgehenden Pfeile zeigen) repräsentiert werden. Die Pfeile zeigen immer von der latenten Variable auf die direkt messbaren oder manifesten Variablen, weil die latente Variable als die primäre Variable betrachtet wird, die sich in den messbaren Variablen manifestiert. Modell bildet die Hypothese ab, dass A sowohl direkt als auch indirekt (über die Moderatorvariable B) die Variable C beeinflusst. Im Unterschied zur Pfadanalyse gibt es im Strukturgleichungsmodell aber zwei Arten von Pfadkoeffizienten: die „normalen“ (siehe oben) und die Pfadkoeffizienten (Faktorladungen), die angeben wie gut ein Faktor durch die betreffenden manifesten Variablen repräsentiert wird. Die Ausgangsbasis für die sogenannten freien Parameter, d.h. der unbekannten und nicht a priori festgelegten Parameter in Strukturgleichungsmodellen, ist wieder die Korrelationsmatrix oder (häufiger verwendet) die Varianz-Kovarianzmatrix aller manifesten Variablen. Aus den geschätzten Parametern kann man die Korrelationsmatrix und die Varianz-Kovarianzmatrix wieder zurückrechnen: die sogenannte implizierte Korrelations- oder Varianz-Kovarianzmatrix. Das Ziel der Analyse eines Strukturgleichungsmodells besteht sozusagen darin, die freien Parameter so zu schätzen, dass die durch das Modell implizierte Matrix der Ausgangsmatrix möglichst ähnlich ist. (diese Ähnlichkeit ist auch die Ausgangsbasis für die Berechnung der Gütemaße, K22.2.4) Identifizierbarkeit Damit man ein Strukturgleichungsmodell sinnvollerweise analysieren kann, muss es identifizierbar sein. Identifizierbarkeit bedeutet, dass alle unbekannten Parameter eindeutig bestimmt werden können. Dazu müssen 2 Voraussetzungen erfüllt sein: Es gibt mindestens so viele Datenpunkte wie man Parameter schätzen möchte und Jeder latenten Variablen muss eine Skala zugewiesen werden. Pfadanalysemodelle sind normalerweise gerade identifiziert (just identified), d.h., es liegen genau so viele Datenpunkte wie zu schätzende Parameter vor und man kann eine eindeutige Lösung berechnen. Der Normalfall bei Strukturgleichungsmodellen ist jedoch, dass sie überidentifiziert (overidentified) sind. BSP: Für diese drei Gleichungen ist es nicht möglich, exakte Lösungen für a und b zu finden. Man kann aber die Lösung so optimieren, also a und b so wählen, dass man Werte erhält, die denen auf der rechten Seiten der Gleichung (6, 10 und 12) möglichst nahe sind. Dieses Prinzip – optimal eingepasste Parameterschätzung – ist wie auch in jeder Regressionsanalyse, die Grundidee bei der Suche nach der besten Lösung für ein Strukturgleichungsmodell. Mess- und Strukturmodelle Messmodell erstellen und prüfen = konfirmatorische Faktorenanalyse durchführen. Faktorenanalysen spielen insbesondere in Persönlichkeitspsychologie und der Intelligenzforschung eine Rolle. Sie werden oft dazu benutzt, postulierte aber nicht direkt beobachtbare Entitäten [existierendes Ding], die man Faktoren, Konstrukte oder latente Variablen nennt, messbar zu machen. Diese Faktoren kann man zwar nicht direkt messen, aber sie manifestieren sich in direkt messbaren Variablen (zB. verbale Intelligenz sollte sich in der Bewältigung schwieriger verbaler Aufgaben zeigen). Wichtige Unterscheidung: Explorative Faktorenanalyse (K22.3): Explorieren oder „Nachsehen“, welche Faktoren sich aus einem Pool von Items (häufig Fragebogenitems) ergeben. Anfangs ist nicht immer klar, wie viele Faktoren sich nach der Analyse ergeben. Konfirmatorische Faktorenanalyse: Überprüfung von Hypothesen, die man darüber hat, welche messbaren Variablen einen Faktor gut repräsentieren. Bei Strukturgleichungsmodellen heißt eine solche Hypothese Messmodell. Zunächst entscheidet man, welche Faktoren in das Strukturgleichungsmodell eingefügt werden sollen, und überlegt sich dann, theoretisch möglichst gut fundiert, welche manifesten Variablen die Faktoren jeweils gut repräsentieren könnten. Bevor die Messmodelle im Strukturgleichungsmodell sinnvoll eingesetzt werden können: Überprüfung ob tatsächlich das gemessen wurde, was man vermutet hat. Man schätzt dazu die Faktorladungen,  d.h. die Pfadkoeffizienten für die Vorhersagen der Werte der manifesten Variablen aufgrund der Werte der entsprechenden latenten Variablen. Außerdem müssen auch Werte für die Fehlervariablen (e1 bis e8, Abb. oben) geschätzt werden, die sowohl Messfehler als auch die durch die latenten Variablen nicht aufgeklärte Varianz repräsentieren. Drei Messmodelle in BSP, eines davon ist durch die folgenden Gleichungen spezifiziert: Messmodell für Faktor Musikalität (mit den Faktorladungen m1 und m2): Nun versucht man, aus den zur Verfügung stehenden Datenpunkten (Korrelations- oder Varianz-Kovarianzmatrix) die Faktorladungen optimal zu schätzen (können wie Regressionskoeffizienten interpretiert werden). Zur Beurteilung der Güte eines Messmodells sollte man sich zunächst die jeweiligen Faktorladungen ansehen: Die Ladungen aller betreffenden Variablen sollten substanziell sein. Was „substanziell“ im Einzelfall bedeutet hängt von der inhaltlichen Fragestellung ab. Wenn die manifesten Variablen aber nur niedrige Ladungen auf dem Faktor aufweisen, dann besteht die Gefahr, dass das gesamte Strukturgleichungsmodell nur sehr wenig aussagekräftig ist. Schätzen der freien Parameter Ziel der in den Strukturgleichungsmodellen verwendeten Schätzprozeduren: Die freien Parameter so zu schätzen, dass die aus diesen Schätzungen zurückgerechnete (implizierte) Korrelations- oder Varianz-Kovarianzmatrix der empirischen Matrix optimal entspricht. Dieses Optimum (kein Unterschied zwischen empirischer und implizierter Matrix) wird bei Pfadanalysen (gerade identifizierten Modellen) in der Regel erreicht. In den Beispielen in den Abschnitten 22.1.1 und 22.1.2 kannten wir die Beziehungen zwischen den bekannten Korrelationen und den unbekannten Pfadkoeffizienten und haben daraus  die Werte für die Pfadkoeffizienten berechnet. Aus diesen wiederum könnte man analog die Korrelationen errechnen: empirische und implizierte Matrix (im BSP bestehend aus drei Korrelationen) sind identisch. Bei überidentifizierten Modellen ergibt sich jedoch nahezu immer eine Diskrepanz zwischen empirischer und implizierter Matrix, weil die freien Parameter nicht genau bestimmt werden können, sondern geschätzt werden müssen. Die unstandardisierten Parameterschätzungen hängen stark von der Skalierung der manifesten Variablen ab: Vorteil von unstandardisierten Koeffizienten: inhaltlich interpretierbar (Um wie viele Einheiten ändert sich der Wert der vorhergesagten Variable, wenn sich der Wert der Prädiktorvariable um eine Einheit verändert?) Vorteil von standardisierten Koeffizienten: (Wertebereich -1 bis +1) Vergleichbarkeit unterschiedlicher Variablen innerhalb eines Modells oder über verschiedene Modelle hinweg (siehe ABB unten). Zur Schätzprozedur: Während man für gerade identifizierte (Pfad-)Modelle auch regressionsanalytische Methoden nutzen kann, braucht man für Strukturgleichungsmodelle Verfahren, die die entsprechenden Gleichungssysteme durch gezieltes Ausprobieren lösen. In der Regel keine eindeutige Lösung (iteratives Vorgehen = schrittweise). Das Analyseprogramm trifft am Anfang eine geeignete Auswahl von Ausgangswerten für die zu schätzenden Parameter – diese Werte werden dann sukzessive so verändert, dass die implizierte Korrelations- oder Varianz-Kovarianzmatrix der entsprechenden empirischen Matrix möglich nahe kommt. Anzahl der Iterationen (Wiederholung der Schätzprozedur) kann vorgegeben werden, oder man bestimmt einen bestimmten minimalen Zuwachs an Erklärungskraft, der im nächsten Analyseschritt jeweils überschritten werden muss, ansonsten wird er beendet. Dazu verschiedenen Modelle und Algorithmen: Maximum-Likelihood-Schätzung der Parameter (am häufigsten verwendet) – Prinzip: Werte der freien Parameter (Schätzungen für die entsprechenden Populationsparameter) werden so gewählt, dass sie die Likelihood (die Wahrscheinlichkeit) für die tatsächlich gefundenen Werte maximieren. Die Überprüfung des Modells: Gütemaße Keine allgemein verbindlichen Vorgaben, meist werden mehrere Maße berichtet. Fast immer beginnt man mit einem χ² Modelltest (K17) -> Überprüfung: Unterscheidet sich die Varianz-Kovarianzmatrix der Datenpunkte von der zurückgerechneten oder implizierten Varianz-Kovarianzmatrix signifikant? Umso ähnlicher umso besser. Hier strebt man unüblicherweise danach, die Nullhypothese (kein Unterschied) zu stützen. Problem dabei: Große Stichproben bei Strukturgleichungsmodellen erwünscht -> sehr hohe Teststärke -> schon kleine Diskrepanzen zwischen den Matrizen werden signifikant. Aber erst wenn mehrere Maße einigermaßen konsistent sind, spricht man von einem guten Fit zwischen Daten und Modell. Im Wesentlichen 3 weitere Arten solchen (deskriptiven) Maßen: Absolute Maße: Ähnlich interpretierbar wie Determinationskoeffizient R²; z.B. der GFI (Goodness-of-Fit-Index), der AGFI (Adjusted-Goodness-of-Fit-Index, der PFGI (Parsimony-Goodness-of-Fit-Index) Relative oder inkrementelle Maße: Diese vergleichen das Modell mit einem Baseline-Modell, und beschreiben um wie viel besser das aktuelle Modell ist als das Vergleichsmodell (zB. Unabhängigkeitsmodell (independence model)). Maße sind der NFI (Normed-Fit-Index) oder der CFI (Comparative-Fit-Index). Fehlermaße: Beschreiben die Abweichung von der Modelllösung von der Datenvorgabe; RMSEA (root mean square error of approximation) Anwendungsvoraussetzungen Linearer Zusammenhang zwischen (evtl. auch transformierten) Variablen Normalverteilte Fehler Maximum-Likelihood-Schätzemthode setzt voraus, dass die Werte für die endogenen Variablen multivariat normalverteilt sind Anzahl der zu schätzenden Parameter darf nicht größer sein als die Anzahl der Datenpunkte (Varianzen und Kovarianzen) Strukturgleichungsmodelle sind nur bei relativ großen Stichproben aussagekräftig (verschiedenen Faustregeln: Stichprobe mindestens 25 mal so groß wie die Anzahl der unbekannten Parameter; andere: Stichproben muss mindestens 100 oder 200 betragen); kleine Stichproben tendenziell problematisch und die Konvergenz der Gütemaße wird dort als besonders wichtig erachtet. Vorsicht bei Kausalschlüssen. Notwendig für das Erstellen eines vernünftigen Modells ist eine fundierte theoretische Vorarbeit Vorsicht bei schlechtem Fit und „gezieltes Herumprobieren“, um zu einem neuen Modell mit besserem Fit zu gelangen. Solch ein post hoc-Modell kann natürlich Ausgangsbasis für eine Modelloptimierung sein; das modifizierte Modell muss dann allerdings in einer (oder mehreren) weiteren unabhängigen Stichprobe(n) getestet werden.
  • 22 Indirekte Effekte, latente Variable und multiple Analyseebenen 22.3 Exploratorische Faktorenanalyse 22.3.1 Datenbeispiel 22.3.2 Fundamentaltheorem der Faktorenanalyse 22.3.3 Extraktionsverfahren 22.3.4 Ladungen, Kommunalitäten, Eigenwerte 22.3.6 Rotation und Interpretation Exploratorische Faktorenanalyse Ähnlich wie konfirmatorische Faktorenanalysen werden auch EFA oftmals eingesetzt, um zu ermitteln, welche manifesten Variablen geeignet sein könnten, um latente Variablen zu messen; spielt wichtige Rolle bei der Konstruktion von Fragebögen und psychometrischen Tests. Wesentlicher Unterschied zwischen KFA und EFA: EFA ist nicht geeignet Hypothesen zu prüfen, daher werden in ihre keine Messmodelle formuliert. Zu Beginn gibt es also keine expliziten Annahmen über die Zahl der Faktoren, über Beziehungen zwischen diesen oder die Zuordnung von manifesten Variablen zu bestimmten Faktoren. Die EFA dient vor allem dazu, in einem gegebenen Datensatz Faktoren zu finden und die Ladungen von beobachteten Variablen auf diesen Faktoren zu ermitteln. Ein Schluss darüber, ob diese Faktorenstruktur auch in der Population gültig ist, ist nicht möglich. Tatsächlich stehen allerdings auch zu Beginn der EFA oftmals zumindest implizite Annahmen über die Faktorstruktur -> zB soll ein Persönlichkeitstest zur Erfassung der latenten Variable Extraversion konstruiert werden, dann muss eine Vorauswahl von Items getroffen werden, die zur Messung diese Merkmals geeignet scheinen. Grundsätzlich findet in jeder EFA eine Datenreduktion (Dimensionsreduktion) statt: Die Information die in einer Vielzahl an Variablen enthalten ist, sollt möglichst vollständig und fehlerfrei durch eine deutlich geringer Anzahl an Variablen ausgedrückt werden. Dazu werden neue (hypothetische) Variablen generiert, die ursprünglich nicht erfasst wurden, die aber die Information in den beobachteten Variablen möglichst gut repräsentieren. Generierte Variablen = Komponenten oder Faktoren. Die Grundlage für deren Konstruktion liefern die Korrelationen zwischen den ursprünglich beobachteten Variablen. BSP: Persönlichkeitstest enthält zwei Items, mit denen das Merkmal Extraversion gemessen wird; diese beiden Items korrelieren hoch, haben also eine großen Anteil gemeinsamer Varianz / enthalten partiell dieselbe Information. Kennt man den Messwert eines Probanden auf einem Item, kann man relativ präzise angeben, welchen Wert er auf dem anderen Item haben wird. Im BSP würde eine neue Variable konstruiert werden, die mit beiden Items so hoch wie möglich korreliert. Dieser Faktor stellt damit die bestmögliche Repräsentation der in beiden Items enthaltenen Information dar. Als Messwert eines Probanden kann nun anstelle der Antworten zu den beiden ursprünglichen Items der Wert auf dem Faktor verwendet werden, ohne einen großen Informationsverlust zu erleiden. Grundlegende Überlegung lässt sich erweitern: Wenn bspw. zehn Items paarweise miteinander korrelieren, können auch alle zehn durch einen Faktor repräsentiert werden. Bei mehreren Konstrukten (zB Extraversion und Neurotizismus) lässt sich an den Ladungen – also den Korrelationen (oder auch standardisierten Pfadkoeffizienten) zwischen Items und Faktoren – erkennen, welchen Items zu welchem Faktor gehören (untereinander korrelieren, über Faktoren hinaus möglichst nicht). Für die Verwendung der EFA bei der Testkonstruktion ist es wichtig, dass die Faktoren nicht nur als „Zusammenfassung“ der gemeinsamen Information in homogene (also hoch korrelierende) Items aufgefasst werden können, sondern auch als Ursache der Korrelationen zwischen den Items (diese Interpretation ist allerdings an Voraussetzungen gebunden, K22.3.3). In einem psychometrischen Test dienen die Items als Indikatoren für latente Variablen. Dann ist zu erwarten, dass bestimmte Personen auf allen zB Extraversions-Items hohe Werte erzielen, weil sie besonders extravertiert sind; und umgekehrt. Die Ursache für die hohen Korrelationen zwischen den Extraversions-Items besteht also darin, dass das Antwortverhalten bei allen diesen Items von derselben zugrunde liegenden latenten Variable bestimmt wird. Der in einer EFA resultierende Faktor kann als diese latente Variable verstanden werden. Fundamentaltheorem der Faktorenanalyse Die Beziehung der EFA zum ALM wird am leichtesten aus dem Fundamentaltheorem der Faktorenanalyse ersichtlich. Das Fundamentaltheorem beschreibt, wie die Ausprägung zim einer Person i auf einer standardisierten Variable m aus dem ursprünglichen Datensatz erklärt werden kann. Es nutzt dazu die Faktorwerte ƒik, also die Ausprägungen der Person i auf den ermittelten Faktoren (die durch den Index k gekennzeichnet werden). Diese Faktorwerte werden mit den Ladungen amk des Items m auf den Faktoren gewichtet (multipliziert). Das Fundamentaltheorem lautet: zim = am1 * ƒi1 + am2 * ƒi2 + ... + amk * ƒik + ei Das Fundamentaltheorem besagt also, dass die z-standardisierte Ausprägung einer Person auf einer beobachteten Variable als Linearkombination ihrer mit den Ladungen gewichteten Faktorwerte und einer Fehlerkomponente ei beschrieben werden kann. Somit kann das Fundamentaltheorem auch als standardisierte Regressionsgleichung verstanden werden. In dieser Regressionsgleichung werden die Faktoren als Prädiktoren verwendet. Die standardisierten Regressionsgewichte bi wurden durch die Ladungen amk ersetzt (Ladungen geben die Korrelationen zwischen der beobachteten Variable und den Faktoren an). K8: ein standardisierter Regressionskoeffizient in einer multiplen Regression entspricht genau dann der Korrelation zwischen Kriterium und Prädiktor, wenn die Prädiktoren untereinander nicht korrelieren. Genau das ist der EFA (zumindest anfänglich) aber der Fall: Die Faktoren werden so generiert, dass sie voneinander unabhängig sind. Die Ladungen können also als standardisierte Regressionsgewichte verwendet (und damit auch als Pfadkoeffizienten verstanden) werden. Nochmal Ziel der FA: Eine begrenzet Anzahl an Faktoren zu finden, die möglichst viel Varianz in den ursprünglichen Variablen erklären und somit zu einem geringen „Vorhersagefehler“ führen. Extraktionsverfahren Gebräuchlichste Methoden: Hauptkomponentenanalyse (Principal Component Analysis, PCA): Primäres Ziel ist die Daten- bzw. Dimensionsreduktion; nach Möglichkeit soll die gesamte Varianz der beobachteten Variablen durch eine geringere Anzahl an Dimensionen (Faktoren) aufgeklärt werden. Interpretatorisches Problem, wenn Faktoren auch als Ursache für die Korrelationen zwischen den beobachteten Variablen betrachtet werden sollen: ein Teil der Varianz der Variablen wird auf Messfehler zurückgehen. Faktoren enthalten Messfehler, daher sind sie streng genommen keine latenten Variablen, die das Antwortverhalten auf den einzelnen Items und die Korrelationen zwischen den Items erklären können. Die in einer Hauptkomponentenanalyse ermittelten Faktoren werden daher eigentlich nicht als Faktoren sondern als Komponenten bezeichnet (hier aber immer Faktoren). Hauptachsenanalyse (Principal Axis Analysis, PFA): Primäres Ziel ist die Erklärung des Antwortverhaltens und der Korrelationsstruktur zwischen den beobachteten Variablen. Unterschied zur HKA: Nicht die ganze, sondern lediglich die (um Messfehler bereinigte) wahre Varianz der beobachteten Variablen soll aufgeklärt werden. Zuerst Schätzung der wahren Varianz der Items. Hier wird also festgelegt, welcher Varianzanteil im Zuge der Analyse überhaupt aufgeklärt werden soll (weil man annimmt, dass dies der Varianzanteil ist, der sinnvoll durch Faktoren erklärt werden kann). BSP zu Hauptkomponentenanalyse Grundgedanke: 2 Items, Datenwolke durch Ellipse stilisiert; zwischen Variable X und Y besteht augenscheinlich ein deutlicher Zusammenhang. Eine Variable würde jedoch kaum ausreichen, um die Information über die Personen in der Punktewolke (zB Person i) zu beschreiben. Die Kenntnis des x-Werts erlaubt nur eine mäßig präzise Vorhersage des y-Werts -> Informationsverlust. Wie müsste eine Gerade durch die Punktewolke laufen, die eine möglichst gute Vorhersage der x- und y-Werte erlaubt? Müsste auf der Hauptachse der Ellipse liegen -> Gerade = P1, entspricht dem ersten Faktor. Wenn wir jeder Person geeignete Faktorwerte auf dem Faktor P1 zuordnen, so werden diese Werte sowohl mit der X-Variable als auch mit der Y-Variable hoch korrelieren. Wesentliche Eigenschaft des ersten extrahierten Faktors: weist höchstmögliche Korrelation mit den Ausgangsvariablen auf, ist also die Variable, die im Ausgangsdatensatz so viel Varianz wie möglich aufklärt. (Vorgehen ähnlich Regression: Suche nach Gerade, für die die Summe der quadrierten Abweichungen minimal wird; Regression: Vorhersage entweder von X auf Y oder von Y auf X -> hier: Suche nach Geraden, die zugleich eine möglichst gute Vorhersage der X- und Y-Variablen erlaubt). Zweiter Faktor? Im BSP mit nur zwei Variablen leicht: Da Faktoren unabhängig voneinander sind, muss der zweite Faktor im rechten Winkel zum ersten Faktor stehen. Dass Ergebnis wurde hierbei im ursprünglichen Koordinatenkreuz lediglich gedreht. Der zweite Faktor erklärt die gesamte restliche Varianz: Mit geeignete Faktorwerten auf beiden Faktoren können wir nun jeden Datenpunkt aus dem ursprünglichen Datensatz wieder völlig fehlerfrei angeben. Dies gilt grundsätzlich: Wenn die Zahl der Faktoren gleich der Zahl der beobachteten Variablen ist, kann die gesamte Varianz im Datensatz aufgeklärt werden. Durch die Drehung des Koordinatenkreuzes haben wir allerdings erreicht, dass bereits eine Dimension (der erste Faktor) einen Großteil der Varianz aufklärt. Auf den zweiten Faktor können wir also verzichten, ohne viel Information zu verlieren. Wie bei drei Variablen? Hier hat das Koordinatensystem im Diagramm drei Dimensionen. Punktewolke in Form eines Ellipsoids (kubanische Zigarre). Wahl erster Faktor: größtmögliche Aufklärung der Varianz im Datensatz. Wahl zweiter Faktor: rechtwinklig zum ersten Faktor, hierbei gibt es diesmal aber mehrere Möglichkeiten, eine „rechtwinkligen“ Faktor zu konstruieren Wird so gewählt, dass er den größtmögliche Anteil derjenigen Varianz aufklärt, die nicht durch den ersten Faktor erklärt werden konnte. Dritter Faktor: Muss rechtwinklig zum ersten und zum zweiten Faktor stehen und ist somit eindeutig festgelegt. Nach der Extraktion von drei Faktoren gilt abermals, dass wir das ursprüngliche Koordinatensystem lediglich gedreht haben. Prinzip beliebig erweiterbar: Bei 10 Variablen benötigen wir ein Koordinatensystem mit 10 Dimensionen, um die Daten im Streudiagramm darzustellen. Tatsächlich werden in der Hauptkomponentenanaylse zunächst immer so viele Faktoren generiert, wie beobachtbare Variablen im Ausgangsdatensatz vorhanden sind. Diese Lösung ist unbefriedigend, da das Ziel ja in einer Dimensionsreduktion besteht. Deswegen weiterer Schritt der FA: Faktoren auswählen. Ladungen, Kommunalitäten, Eigenwerte Nach der Faktorenextraktion sind die Faktorwerte der Personen noch nicht bekannt, dennoch können bereits die Korrelationen zwischen Items und Faktoren ermittelt werden Quadriert man eine solche Ladung eines Items auf einem Faktor (a²mk) so erhält man einen Determinationskoeffizienten, der angibt, wie viel Varianz des Items durch den Faktor aufgeklärt werden kann. Addiert man die quadrierten Ladungen eines Items auf allen Faktoren, so ergibt sich die Kommunalität des Items (h²m). Kommunalität = Varianzanteil eines Items, der durch alle extrahierten (und ausgewählten) Faktoren erklärt wird. Da anfänglich so viele Faktoren extrahiert werden, wie beobachtete Variablen vorhanden sind, und somit die gesamte Varianz im Datensatz aufgeklärt wird, beträgt anfänglich auch die Kommunalität jedes Items 1. Nach der Auswahl der Faktoren gibt die Kommunalität an, welcher Varianzanateil eines Items durch die verbliebenen Faktoren erklärt wird. Addiert man die quadrierten Ladungen aller Items auf einem Faktor, so erhält man den Eigenwert des Faktors (Eig(Fk)): Der Eigenwert eines Faktors gibt an, wie viel der Varianz in einem Datensatz durch diesen Faktor erklärt werden kann. Der Eigenwert ist damit ein Indikator für die Relevanz des Faktors: Ein Faktor mit hohem Eigenwert erklärt viel Varianz und ist damit besonders geeignet, die Information im Datensatz zu repräsentieren. Da die z-standardisierten Ausgangsvariablen alle eine Varianz von 1 aufweisen erklärt der erste Faktor also den „Beitrag“ von 2.38 Variablen zur Gesamtvarianz. Der durch einen Faktor aufgeklärte Varianzanteil ergibt sich, wenn wir seinen Eigenwert durch die Anzahl der Items teilen. Kumulierte Varianzanteile erhält man durch die Aufaddition der erklärten Varianzanteile der einzelnen Faktoren. Faktorenauswahl Gebräuchlichste Verfahren: Kaiser-Kriterium: diejenigen Faktoren werden ausgewählt, die einen Eigenwert größer 1 aufweisen – Faktoren, die diesem Kriterium nicht genügen, erklären weniger als die Varianz einer Variable und sind somit ungeeignet für eine Dimensionsreduktion. Hierbei können aus geringen und lediglich zufällig entstandenen Item-Faktor-Korrelationen in der Summe Eigenwerte über 1 entstehen. Deswegen als zusätzliche Entscheidungshilfe: Scree-Plot: Nach Größe geordnete Eigenwerte werden abgetragen und durch eine Linie verbunden. Oftmals deutlicher Anstieg der Eigenwerte zwischen zwei Faktoren – Knick in der Linie. Faktoren links (und damit oberhalb) des Knicks werden ausgewählt. Annahmen, dass die Eigenwerte rechts vom Knick nur zufällig zustande kommen und daher inhaltlich nicht bedeutsam sind. Rotation und Interpretation Idealfall der Faktorenextraktion: zahlreiche Items korrelieren relativ hoch mit allen ausgewählten Faktoren. Ausnahmen erschweren die Interpretation: wenn die Mehrzahl der Items mit beiden Faktoren hoch korreliert, können wir den Faktoren kaum gesonderte Bedeutung zuschreiben. Zur Lösung des Problems werden Rotationsverfahren eingesetzt – Ziel: eine Einfachstruktur erreichen. Diese ist gegeben, wenn jedes Item auf nur einem Faktor eine hohe Ladung aufweist; auf allen anderen Faktoren sollte die Ladung des Items möglichst niedrig ausfallen. Dies erlaubt uns, jedes Item eindeutig einem Faktor zuzuordnen und die entsprechenden Items zur Interpretation dieses Faktors zu nutzen. Rotationsverfahren weil: Koordinatenkreuzt wird rotiert, wodurch sich die Ladungen der Items auf den Faktoren verändern. Unterscheidung: Orthogonale Rotationsverfahren: Faktoren bleiben auch nach Rotation unkorreliert; gebräuchlichstes Verfahren: Varimax-Rotation: Faktoren werden so gedreht, dass die Varianz der quadrierten Ladungen auf jedem Faktor maximal wird. Dies ist dann der Fall, wenn auf jedem Faktor einige Items nur schwach laden, andere Items aber starke (positive oder negative) Zusammenhänge zum Faktor aufweisen. Die Kommunalität aller Items bleibt gleich, somit ändert sich die gesamte Varianzaufklärung nicht. Jedoch ändern sich die Ladungen und somit die Eigenwerte der Faktoren. Die erklärte Varianz wird also lediglich auf andere Weise auf die ausgewählten Faktoren aufgeteilt. Oblique Rotationsverfahren: Faktoren stehen nach Rotation nicht mehr rechtwinklig zueinander, Es werden Korrelationen zwischen den Faktoren zugelassen. Bspw. notwendig bei Annahme, dass Faktoren zusammenhängen (zB. Latente Variablen räumliches Vorstellungsvermögen und mathematisches Denken als gesonderte Intelligenzkomponenten, die dennoch nicht voneinander unabhängig sind) Zum Abschluss der FA: Faktorwerte der Personen können geschätzt werden, meist wiederum anhand regressionsanalytischer Methoden; in Testpraxis werden in der Regel lediglich die Summenwert der Faktor eines Items als Maß für die Ausprägung auf einem Faktor benutzt.
  • 22 Indirekte Effekte, latente Variable und multiple Analyseebenen 22.4 Mehrebenenanalyse 22.4.1 Warum Mehrebenenanalyse? 22.4.2 Regressionsgleichung für ein einfaches Mehrebenenmodell 22.4.3 Feste versus zufällige Effekte 22.4.3 Feste versus zufällige Effekte 22.4.4 Analysemöglichkeiten: einige Beispiele 22.4.5 Möglichkeiten und Grenzen der Mehrebenenanalyse Mehrebenenanalyse = hypothetisches Verfahren, dass kausale Wirkungen auf mehreren Ebenen gleichzeitig untersuchen kann. Ermöglicht auch besondere Form der Moderatoranalyse: Untersuchung von Interaktionseffekten zwischen unterschiedlichen Analyseebenen. Mehrebenenanalysen gehen über das Standard-Regressionsmodell (Ordinary Least Squares Regression bzw. OLS-Regression) hinaus, weil sie sowohl feste Effekte (wie im OLS) als auch Zufallseffekte untersucht. Warum Mehrebenenanalyse? Größere Datensätze in Psychologie/SW: Messwerte selten völlig voneinander unabhängig, vor allem nicht bei Gruppen (Schulklassen, Stadtteile, wiederholte Messungen innerhalb einer Person). Variablen innerhalb von Gruppen oft deutlich ähnlicher -> Zusatzinformation. BSP: Lehrveranstaltungsbewertung hängt von Güte der Lehre ab, aber auch Biasvariablen (zB. Sympathie für Dozenten) sollen berücksichtigt werden. Ebene 1: Studierenden innerhalb einer Veranstaltung, Ebene 2: unterschiedliche Veranstaltungen. Nähme man Daten für alle Veranstaltungen in eine Regressionsanalyse, würde man fälschlicherweise schließen, dass es über alle Studierenden hinweg keinen nennenswerten Zusammenhang zwischen Bias und Bewertung gibt (Abb. links). Rechts (Art Gegenstück): in keiner Veranstaltung gibt es einen Zusammenhang zwischen Biasvariable und Bewertung -> würde man alle Werte kombinierten, erhielte man fälschlicherweise einen starken Zusammenhang über alle Studierenden hinweg. -> Fehler lassen sich vermeiden, wenn man beide Ebenen gleichzeitig berücksichtigt. Regressionsgleichung für ein einfaches Mehrebenenmodell BSP. SÖS soll Schulleistung vorhersagen; öffentliche und private Schulen; Ebene 1: Schüler, Ebene 2: Schulart. Eine sichtbare Interaktion zwischen SÖS und Schulart könnte zwar mittels Moderatoranalyse untersucht werden, da die Klassen jedoch eine Zufallsauswahl sind und man an einem repräsentativen Gesamtbild interessiert ist, würde eine solche Analyse wenig Aussagekraft haben. Man beschreibt nun die Zusammenhänge separat für jede Ebene mittels Regressionsgleichung. Anschließend werden diese beiden Ebenen in einer „gemischten“ Regressionsgleichung kombiniert; man ersetzt hierzu die Werte für Konstante und Steigung in der Gleichung für Ebene 1 durch den jeweils rechten Term der entsprechenden Gleichung in Ebene 2, wobei die Fehlerterme (diese wären in der OLS-Regression nicht dabei) an den Schluss der Gleichung gesetzt werden => vollständige Regressionsgleichung für zwei Ebenen (mit jeweils einem Prädiktor pro Ebene). Feste versus zufällige Effekte Fixierte oder feste Effekte (fixed effects): davon spricht man, wenn es bei der VA eine bestimmte Anzahl an Faktorausprägungen (zB. Frauen und Männer bei Faktor Geschlecht) gibt, oder man nur an einer festgelegten / fixierten Anzahl von Faktorausprägungen interessiert ist. Zufällige Effekte / Zufallseffekt (random effect): Ist man an der Wirkung eines Faktors im Allgemeinen interessiert und ist es praktisch unmöglich, die Ausprägungen eines Faktors systematisch und vollständig zu variieren, dann kann man eine Zufallsauswahl aus den möglichen Faktorausprägungen treffen (zB. nur bestimmte Studienfächer beim Untersuchen verschiedener Fächer hinsichtlich der Studienmotivation) Im Standard-Regressionsmodell: feste Effekte; Mehrebenenmodell: aufgrund der gruppierten Daten wird man zwischen festen und zufälligen Effekten unterscheiden, bspw. werden Konstante und Steigung (im Gegensatz zur OLS) als zufällige Effekte behandelt: die Regressionskoeffizienten sind Zufallsvariablen. Unterscheidung ermöglicht die gleichzeitige Analyse unterschiedlicher Ebenen. Möglichkeiten und Grenzen der Mehrebenenanalyse Man benötigt relativ viele und große Stichproben. 30/30-Faustregel für 2 Ebenen: Mindestens 30 Einheiten auf der zweiten Ebene mit jeweils einer Gruppen- und Stichprobengröße von 30 (BSP: mind. 30 Schulklassen mit jeweils 30 Schülern). Deswegen wird die Mehrebenenanalyse auf spezifische Fragestellungen beschränkt bleiben.