psychologische diagnostik (Fach) / Testtheorie (Lektion)

In dieser Lektion befinden sich 24 Karteikarten

ww

Diese Lektion wurde von sarrao91 erstellt.

Lektion lernen

  • deduktive Methode Itemgewinnung 4 Schritte nach Wilson (2005)– Erstellen einer Konstruktkarte– Konstruktion von Items – z.B. Suche nach Adjektive in einemWörterbuch– Kodierung von Antworten– Auswahl eines Messmodells – z.B. ist eine angenommene Ordnungvon Adjektiven für die Erfassung negativer Stimmung zutreffend?
  • Skalierung Schätzung der latentenMerkmalsausprägungen; Was bedeutet Testwert von 1? zB
  • Konversationsmaximen • Qualitätsmaxime ein Beitrag soll so gestaltet werden, dass er wahr ist• Quantitätsmaxime ein Beitrag soll nicht unter‐ vs. über‐informieren• Relevanzmaxime ein Beitrag soll sachbezogen und sachdienlich sein• Klarheitsmaxime ein Beitrag soll klar und verständlich sein
  • Ankereffekte– Beantwortung einer Frage gilt als Vergleichsanker für dienächste Frage (eher quantitativ)
  • Konsistenz‐ oder Assimilationseffekte Ähnliche Beantwortung einer Frageum Konsistenz mit der vorangegangenen Frage zu schaffen
  • Kontrasteffekte Beantwortung einer zweiten Frage kontrastiert zu einervorangegangenen Frage
  • Salienzeffekte Entwicklung der Bewusstheit für einen bestimmtenSachverhalt während der Befragung
  • Primingeffekte schnellere Verfügbarkeit von Informationen durchvorangegangene Items
  • Substraktionseffekte Tendenz von Befragten redundant beurteilte Fragenähnlich zu beantworten
  • Reihenfolgeeffekte bei der Bearbeitung von Testitems – Ankereffekte– Beantwortung einer Frage gilt als Vergleichsanker für dienächste Frage (eher quantitativ)– Konsistenz‐ oder Assimilationseffekte – Ähnliche Beantwortung einer Frageum Konsistenz mit der vorangegangenen Frage zu schaffen– Kontrasteffekte – Beantwortung einer zweiten Frage kontrastiert zu einervorangegangenen Frage– Salienzeffekte – Entwicklung der Bewusstheit für einen bestimmtenSachverhalt während der Befragung– Primingeffekte – schnellere Verfügbarkeit von Informationen durchvorangegangene Items– Substraktionseffekte – Tendenz von Befragten redundant beurteilte Fragenähnlich zu beantworten
  • Schritte Testkonstruktion 1. Feststellung des zu erfassenden Konstrukts2. Erstellung eines Itempools3. Auswahl eines Antwortformats4. Itemanalyse und –auswahl5. Testanalyse6. Skalierung und Normierung7. Testdokumentation8. Weitere Untersuchungen zur Güte
  • die wichtigsten Verfahren die Gültigkeit des Rasch‐Modells statistisch zu prüfen 1. Gleichheit der Itemparameter in Subpopulationen2. Wahrscheinlichkeitsverteilung der Antwortmuster undglobale Modellgültigkeit3. Gleichheit der Personenwerte in reduzierten Rasch‐Modellen
  • Testinstruktion und Items sollen empirisch getestet werden durch – Expertenurteil – über die fachliche Qualität– Prozessanalysen – kleine Stichprobe, für die Klärung derFragen: Wie vollzieht sich der Prozess der Testbearbeitung?Bleiben Personen an bestimmten Items hängen? etc. Methode der lauten Denkens– Empirische Untersuchung – Auswertung mit denTesttheoretischen Modellen
  • Welche Informationen sind notwendig um ein Messmodell für dichotome (od. metrische, od. ordinale) Testvariablen zu schätzen? – Varianzen der beobachteten Items (bei dichotomen Variablen =Produkt der Wahrscheinlichkeiten beider Kategorien)– Mittelwerte der beobachteten Items (bei dichotomen Variablen =relative Häufigkeit der richtigen Antworten – kodiert mit 1)– Zusammenhang der Items (Kovarianz, Korrelation; bei dichotomenAntworten der Q‐Koeffizient nach Yule [Phi hat Nachteile…])– Stichprobengröße
  • Nennen Sie alle Modellparameter die prinzipiell in Messmodellen geschätzt werden! – Itemtrennschärfen (Steigung der logistischen Funktion in Modellenfür dichotomen Antwortvariablen, Faktorladung bei metrischenVariablen)– Itemschwierigkeiten (Wendepunkt der logistischen Funktion inModellen für dichotomen Antwortvariablen,Achsenabschnittparameter bei metrischen Variablen)– Residualvarianzen (die Unreliabilität einzelner Items, spielt imlogistischen Modell keine große Rolle)
  • Welche Annahmen impliziert das Rasch‐Modell (od. das Modell essentiell tau‐äquivalenter Variablen, etc.)? – Rasch‐Homogenität: die Lösungswahrscheinlichkeit eines Itemsdurch eine Person hängt von der Differenz des Personen‐ undItemparameters ab (die Trennschärfen sind gleich/homogen)– Lokale Stochastische Unabhängigkeit: Eine latente Variable ɳerklärt alle Zusammenhänge zwischen den p beobachtbarenVariablen
  • Wie wird die Modellgültigkeit beurteilt (bei logistischen od. linearen Modellen)? – Prüfung mit natürlich vorliegenden Subpopulationen• Methoden: Graphischer Modelltest, Likelihood‐Quotienten Test,Wald‐Test– Prüfung mit unbekannten Subpopulationen, die in der Testung„gesucht“ werden• falls Subpopulationen mit unterscheidbaren Itemparametergefunden werden das Rasch‐Modell gilt nicht
  • Welche diagnostische Vor‐ und Nachteile lassen sich aus der Passung bestimmter Messmodellen ableiten? – z.B. Rasch‐Modell: Spezifische Objektivität derVergleiche – Vergleich von Personen ist von dengewählten Items und Vergleich von Items ist von dengetesteten Personen unabhängig
  • Likelihood‐Quotienten‐Test • nach Andersen (1973)• vergleicht zwei bedingte Likelihoods miteinander• L0 – ist der Wert der Likelihoodfunktion der Daten, die mananhand der bedingten Maximum‐Likelihood‐Schätzung derParameter in der Gesamtstichprobe erhält• L1 – ist der Wert der Likelihoodfunktion der Daten, die mananhand der bedingten Maximum‐Likelihood‐Schätzung derParameter erhält, wenn die Parameter in den Gruppenseparat geschätzt werden
  • Ziel der Normierung: – Testwerte interpretierbar zu machen – Personenwert in Vergleich zueiner Normstichprobe– Vergleich von Testergebnissen über mehrere Tests zu ermöglichen
  • Bezugssysteme für den Vergleich von Testwerten nach Mellenberg, 2011 1. Testergebnisse anderer Personen einer Bezugsgruppe(Normpopulation)2. Testergebnisse derselben Person in anderen Tests3. Testergebnisse derselben Person in demselben Test zu eineranderen Messgelegenheit4. Vergleich mit einem externen Standard (Kriterium)
  • Prozentrangwert gibt an, wie viel Prozent der Personen der Normpopulationdenselben oder einen geringeren Wert als eine Person miteinem spezifischen Testwert aufweisen
  • Berechnung: Prozentrangwert kummulierte Häufigkeit einerMerkmalsausprägung j wird an der Stichprobengrößerelativiert und durch 100 multipliziert (Eid & Schmidt,2014)
  • Normalisierende Transformationen Grundidee: – bei standardnormalverteilten variablen ist jederProzentrangwert eindeutig mit einem spezifischen z‐Wertverknüpft– ist die Testvariable nicht normalverteilt, ordnet man ihrenProzentrangwerten jedoch trotzdem die entsprechendenPerzentile der Standardnormalverteilung (z‐Werte) zu --> die resultierenden transformierten Werte sind annährendnormalverteilt!