Einführung in die Methoden der empirischen Sozialforschung 1 (Subject) / Gütekriterien der Messung (Lesson)
There are 16 cards in this lesson
af
This lesson was created by Natschooo1992.
This lesson is not released for learning.
- wichtigste Gütekriterien von Messungen 1. Validität(Gültigkeit; betrifft systematische Messfehler)2. Reliabilität(Zuverlässigkeit; betrifft unsystematische/zufällige Messfehler)Beispiele für systematische Fehlerquellen in Umfragen:-Befragtenmerkmale(zB Zustimmungstendenz, Bildung..)-Fragenmerkmale(zB Fragereihenfolgeeffekte, Frageform,..)-Situationsmerkmal(zB Interviewmerkmale, soziale Erwünschtheit,..)-(Mit-)Erfassung anderer latenter KonstrukteBeispiel für unsystematische (zufällige) Fehlerquellen in Umfragen:-zufällige Ereignisse und Einflüsse während der Befragung, die sich bei unendlich vielen Messwiederholungen auf Null mitteln
- bei hoher Validität(Gültigkeit) -> starker Zusammenhang zwischen latenter und beobachteter Variablen-> Zieldimension der lat. Varialen=Messdimension der beob. Variablenes kann gemessen werden, was gemessen werden soll
- bei geringer Reliabilität(Zuverlässigkeit) -> es gibt Störeffekte bei der Messung-> die Störeffekte sind unsystematisch/zufällig-> die Stabilität der Messung ist geringwas gemessen wird, ist fehlerhaft "verrauscht", das Messergebnis ist schlecht wiederholbar
- Verhältnis Validität- Reliabilität X=Z+F+Egemessener Wert(X)= wahrer Wert d Zieldimension + Fremddimension + zufälliger Messfehler
- Grundgedanke der Reliabilität: EINE PERSON Reliabilität(X)= 1- E/X
- Grundgedanke der Reliabilität: N PERSONEN -> Streuung/Varianz Reliabilität(X) = 1- Var(E) / Var(X)
- Zusammenhang von Validität und Reliabilität Eine Messung kann hoch reliabel und invalide sein(dh sie misst zuverlässig etwas völlig anderes als gewollt)Eine Messung, die hoch valide ist, ist bei wiederholten Messungen immer auch hoch reliabel(wenn gemessen wird, was man messen wollte, so wird dieses Instrument auch bei wiederholten Messungen zu nahezu denslben Ergebnissen kommen)Je mehr systematische Fehler vorliegen, desto invalider ist die MessungJe mehr unsystematische bzw zufällige Fehler vorliegen, desto weniger reliabel ist die Messung
- Kriteriumsvalidität unterteil in prädiktive Vali und Übereinstimmungsvali
- prädiktive Validität -Validierung anhand externem Kriterium das prognositziert wirdVoraussetzung: 1) valide Messung des Kriteriums2) gültige Hypothese, auf der die Prognose beruht-prädiktive Validität dann gegeben, wenn sich aus der Literatur(!) bekannte Vorhersagen replizieren lassen
- Übereinstimmungsvalidität Validierung anhang "externem Kriterium"; das mit dem Konstrukt korreliertVor: 1) valide Messung des Kriteriums2) gültige Gruppen-Differenz Hypothese-Übereinstimmungsvalidität gegeben, wenn die aus der Literatur bekannte Korrelation bzw. Gruppendifferenz empirisch auftritt
- Konstrukt-Validität Vor: zwei(oder mehr) latente Variablen(Konstrukte)für jedes Konstrukt mehrere Messwerte
- zwei Kriterien der Konstrukt-Validität 1.Konvergenz-Validitätdie Indikatoren eines Konstrukts müssen eng zusammenhängen2. Diskriminanz-Validitätdie Indikatoren von zwei verschiedenen Konstrukten müssen schwach zusammenhängen, und sie müssen schwächer zusammenhängen als die Indikatoren jedes einzelnen Konstrukts
- Überprüfung der Konstruktvalidität durch (Konfirmatorische) Faktorenanalyse Konstrukte sind konstruktvalide,wenn (u.a) a) die Faktorladungen hoch sind (>0,5) (Konvergenz)b) Fremdladungen gering sind (<0,3) (Diskriminanz)c) der theoretische Zusammenhang zw. den Konstrukten empirisch besteht
- Rentabilitätsmessung -> Stabilitätsmessung -> Test-Retest-Methode -Test der zeitlichen Stabilität der Messung- jeweils eine Messung zu den Zeitpunkten t1 und t2-Korrelation zwischen Messung t1("Test") und Messung t2 ("Retest") = ReliabilitätProblem: Voraussetzungen/Annahmen1. F1 bleibt über Zeit konstant(kein sozialer Wandel)2. Korrelation wird nicht durch andere Faktoren hergestellt3. Korrelation wird nicht durch Fehler-Korrelation hergestellt-> Problem: Test Retest ist aufwändig
- Reliabilitätsmessung -> Äquivalenzmessung -> Parallel-Test-Methode -Zwei unterschiedliche und vergleichbare Messungen zu einem Zeitpunkt t1- zwei Instrumente, die dieselbe Dimension messen sollen ("Paralleltests")-Korrelation zwischen Messung von Testversion X1 und Testversion X2= ReliabiltätProblem: welche zwei versch. Messmethoden/Skalen messen wirklich identisch?
- Reliabilitätsmessung -> Äquivalenzmessung > Konsistenz-Test-Methode -> Cronbachs alphaAnnahme: Alle Items liegen auf derselben latenten Dimension-> dh sie stammen aus dem selben Indikatorenuniversum-> Da die Items wiederholte Messungen des selben Konstrukts sind, müssen sie untereinander hoch korrelieren-> eine hohe Inter-Item-Korrelation bedeutet eine hohe interne Konsistenz(auch: Reliabiltät) der Skala-> die interne Konsistenz wird mit dem Koeffizienten Cronbachs alpha gemessenZiel: alpha > 0,7: akzeptabelBerechnung: alpha = n*r/1+r(n-1)Vorausstzungen: -> metrisches Skalenniveau aller Items-> alle Items sind die gleiche Richtung skaliert-> allt Items sind gleich skaliert
-