psychologische diagnostik (Subject) / Diagnostik 5-8 (Lesson)
There are 86 cards in this lesson
...
This lesson was created by KimJanine.
This lesson is not released for learning.
- Definiere den Begriff Reliabilität. die Reliabilität beschreibt die Genauigkeit, mit der ein Test ein Merkmal erfasst, und zwar unter Vernachlässigung des Umstandes, ob es sich dabei auch um das Merkmal handelt, dessen Messung intendiert istauch Messgenauigkeit genannt, meint nur das Messung kaum durch Messfehler (unsystematische Fehler) gestört ist
- Nenne die Methoden der Reliabilitätsschätzung. Retest-Reliabilität Paralleltest-Reliabilität Split-Half-Reliabilität interne Konsistenz
- Wie wird die Retest- Reliabilität ermittelt? Was ist dabei wichtig? Zweimaliges Darbieten desselben Tests an der gleichen StichprobeKorrelation zwischen den Ergebnissen = Retestreliabilität = rtt Feststellung des optimalen Zeitintervalls schwierig: Vermeidung von Übungseffekten oder Erinnerungseffekten sonst künstliche Erhöhung der Korrelation oder Verminderung wenn unsystematische Übungseffekte vorliegen Vermeidung von Veränderungen des Merkmals bei schnell fluktuierenden Merkmalen (z.B. emotionalen Zuständen) ist Retest-Reliabilität ungeeignet Mittelwertsunterschiede haben nicht zwingend Auswirkung auf Korrelation, wenn Testwerte z.B. bei allen gleich erhöht -> gleicher Zusammenhang, Korrelation verringert sich nur, wenn Effekte interindividuell unterschiedlich ausfallen große Zeitintervalle führen (in Abhängigkeit von der Stabilität des Merkmals) eher zu niedrigeren Werten
- Wie wird die Paralleltestreliabilität ermittelt? Was macht die Konstruktion von Paralleltests schwierig? Bearbeiten des Orginal- und Paralleltests innerhalb eines kurzen Zeitintervalls meist wenige Tage, U.U. auch hier Probleme bei der Bestimmung des Retest-Intervalls Schwierige Konstruktion: großer Aufwand aufgrund hoher Anforderungen (identischer Mittelwerte und Standardabweichungen, hohe Korrelationen zwischen den parallelen Formen)bei begrenzten Merkmalen begrenztes Universum an Itemswenn Items zu ähnlich sind: Übungs- oder Erinnerungseffekte durch Transfer aufwändige Prüfung der Parallelität
- Wie wird die Split-half-Reliabilität bestimmt? Teilung der des Tests durch: Halbierung nach der Mitte Itemkennwerte ... ergänzen Schwankungen der Motivation, Stimmung und Aufmerksamkeit sowie Fluktuation des Merkmals können praktisch ausgeschlossen werdenVoraussetzung: Komogenität und Anzahl der Items erlaubt Aufteilung (nicht gegeben bei vielen projektiven Tests)Korrektur durch Spearman-Brown-Formel erforderlich
- Wie wird die interne Konsistenz bestimmt? Zerlegung des Tests in so viele Teile wie Items vorhanden sind -> Ermittlung der Korrelationen und Aufwertung der erhaltenen Werte auf die TestlängeCronbachs Alpha: die Summe der Varianzen der Items wird in Beziehung gesetzt mit der Varianz des Testwerts,je höher die Interkorrelation der Items desto höher Alpha (aber hohes Alpha steht nicht (immer) für eine hohe Homogenität, hohes Alpha ist nicht immer anzustreben, da Homogenität nicht immer sinnvoll)je mehr Items, desto höher Alpha (bei hohem Alpha und kurzem Test sind Items oft redundant)
- Warum ist eine Alphamaximierung nicht immer anzustreben? Hohes Alpha heißt nicht zwingend, dass Items nur eine Dimension habenMit Cronbachs Alpha ist nicht nur Reliabilität zu sehen, da ein hohes Alpha auch bedeuten kann , dass durch die Items eine geringe Breite erfasst wurde (Extremform: alle Items gleich) Hohe interne Konsistenz nicht immer anzustreben (Homogenität der Items nicht immer sinnvoll)inhaltlich homogene Merkmale erlauben hohe interne Konsistenz, nur hier angemessen
- Welche Fakoren haben einen EInfluss auf die Reliabilität? Varianz der Testwerte: Unterschätzung der Reliabilität der Varianzeinschränkung Beispiel: wenn nur überdurchschnittlich intelligente Menschen getestet werden, dann wird Reliabilität zu gering geschätzt (in Gesamtpopulation würde sie höher ausfallen) Größe der Stichprobe beeinflusst Genauigkeit der Reliabilitätsschätzung (repräsentative Stichproben werden benötigt, bei Retest n >100)
- Definiere Validität Unter Validität wird die Übereinstimmung von Testergebnissen mit dem, was der Test messen soll, verstanden. Es handelt sich um ein Urteil darüber, wie angemessen bestimmte Schlussfolgerungen vom Testwert auf das Verhalten außerhalb des Tests oder auf ein Merkmal der Person sind.Wichtigstes Gütekriterium (Objektivität und Reliabilität zwar gute Voraussetzungen für Validität, aber keine Garantie)Kennwerte benutzt, Validitätsaussagen aber immer verbale ÄußerungenTest kann nicht generell sondern nur für bestimmte Fragestellungen valide sein
- Nenne Methoden zur Bestimmung der Validität. Inhaltsvalidität Kriteriumsvalidität Konstrukvalidität Augenscheinvalidität
- Was ist die Inhaltsvalidität und wie wird sie überprüft? Beurteilt, wie repräsentativ die Items eines Tests für das zu messende Merkmal sind Sind alle relevanten Inhalte enthalten?Sind keine Inhalte enthalten, die sich auf Irrelevantes beziehen?Stehen die Inhalte in einem angemessenen Verhältnis zueinander? Überprüfung:wird häufig belegt durch Offenlegung der Itemgenerierung und den zugrundeliegenden KonzeptenPassung von Item und Merkmal wird durch Experten beurteiltwird nicht bei allen Tests thematisiert
- Was gibt die Kriteriumsvalidität an? Zusammenhang zwischen Testergebnis und konkreten Leistungen oder Verhaltensweisen außerhalb der Testsituation. Das Kriterium muss für den vorgesehenen Einsatzbereich des Tests relevant sein.
- Was ist ein Kriterium? konkret, direkt messbar (z.B. Punkte in Flensburg, Anzahl abgeschlossener Verträge), das was der Test vorhersagen will , für vorgesehenen Einsatzbereich relevant
- Was sagen Übereinstimmungs- bzw. prognostische Validität aus? spezifizieren das zeitliche Verhältnis von Test und Kriterium, keine eigenen Formen der Validität
- Was sagt die inkrementelle Validität aus? Beurteilt, ob ein Verfahren (oder der ergänzende Einsatz eines Verfahrens) mehr Kriteriumsvarianz aufdeckt als vorherige Verfahren
- Was sagt die inkrementelle Validität aus? Beurteilt, ob ein Verfahren (oder der ergänzende Einsatz eines Verfahrens) mehr Kriteriumsvarianz aufdeckt als vorherige Verfahren
-
- Was sagt die inkrementelle Validität aus? Beurteilt, ob ein Verfahren (oder der ergänzende Einsatz eines Verfahrens) mehr Kriteriumsvarianz aufdeckt als vorherige Verfahren
- Was versteht man unter der Konstrukvalidität? Wie Prüft man sie? Unter Konstruktvalidität versteht man empirische Belege dafür, dass ein Test das Konstrukt erfasst, welches er erfassen soll, und nicht ein anderes Definierte Konstrukte müssen verfügbar sein, um diese zu prüfen
- Was ist ein nomolgisches Netzwerk nach Cronbach und Meehl (1995) und welchem Validitätsbegriff ist es zuzuordnen? Aussagen oder Gesetze, die die Beziehung zwischen beobachtbaren Merkmalen, theoretischen Konstrukten und Beobachtbarem oder verschiedenen Konstrukten beschreiben -> notwendig für Konstruktvalidierung, ermöglicht das Ableiten von Hypothesen über Verhältnis von Test zu anderen beobachtbaren Merkmalen
- Was ist sind konvergente und diskriminante Validität und in welcher Beziehung sollten sie stehen? konvergente Validität: Zusammenhang mit weiteren Indikatoren des Konstrukts, das man erfassen will diskriminante Validität: Zusammenhang mit den Indikatoren anderer Konstrukte konvergente Validität muss höher sein als diskriminante Validität
- Nenne und erläutere empirische Ansätze zur Konstruktvalidität. Kriteriumskorrelationen / Gruppenunterschiede: Bsp.: die Einstellung zur Kirche sollte bei Kirchgängern positiver sein als bei Nicht-Kirchgängern Korrelationen mit anderen Tests Interne Struktur (faktorielle Validität): Items, die dasselbe Konstrukt erfassen, sollen positiv miteinander korrelieren bzw. auf einem Faktor laden Anstreben einer angemessenen internen Konsistenz, aber nicht zu hoch, da sie Validität verringern kann, faktorielle Struktur des Tests Veränderung über die Zeit (Stabilität, Entwicklungsverläufe) Beachtung des Retest-Reliabilitätskoeffizienten als Indikator für die Stabilität des Merkmals, ergänzend Beachten von Testwertänderungen (z.B. Zunahme von Leistungsmerkmalen in Kindheit) Veränderung durch experimentelle Intervention Bsp.: eine Depressionsskala zeigt nach einer Therapie niedrigere Werte als vorher Untersuchung des Antwortprozessen: Wie kommen Antworten zustande? Bsp.: falsche Antworten durch falsche Interpretation der Aufgabe in Rechentest (-> es wird auch Instruktions- und Sprachverständnis miterhoben)
- Was macht die Multitrait-Multimethod.Methode von Campell und Fiske (1959) und wozu ist das gut? Was sagen hier konvergente und diskriminante Validität aus? Kombination aus der Erfassung verschiedener Eigenschaften (oder Merkmale) mit verschiedenen Methoden zur Aufklärung der Methodenvarianz Konvergente Validitäten: ein Merkmal wurde mit zwei verschiedenen Methoden gemessen (monotrait-heteromethod)Diskriminante Validität: Korrelation zwischen verschieden Merkmalen gemessen mit einer Methode (heterotrait-monomethod)
- Wann sind die verschiedenen Validitätsmethoden besonders geeignet? Die Eignung der Methode ist abhängig von der Bedeutung relativer Schlussfolgerungen Inhaltsvalidität -> Repräsentationsschluss Kriteriumsvalidität -> diagnostische Entscheidung Konstrukvalidität -> theoriebasierte Interpretation
- Nenne und erläutere Einflussfaktoren auf die Validität. Reliabilität (Test und Kriterium): je reliabler ein Test, desto höher kann Validität ausfallen (in Studien eine Korrelation von .33, aber auch formaler Zusammenhang s. Minderungskorrekurabschnitt -> Abschätzung der Validität bei einer Reliabilität gleich eins) Abweichungen vom Wert 1 führen unweigerlich zu Minderung der Validitätje reliabler ein Kriterium, desto höher kann Validität ausfallen Abweichungen vom Wert 1 führen unweigerlich zu Minderung der Validität (auch hier Minderungskorrektur möglich) Stichprobenumfang: Je kleiner Stichprobe, desto größer mögliche Abweichungen des Validitätskoeffizienten (nach oben oder unten) = Stichprobenfehler Repräsentativität der Stichprobe (Streuung,…): Validität ist stichprobenabhängig und nicht einfach auf andere Gruppen übertragbar (z.B. Validierung eines Tests mittels der Korrelation zwischen Intelligenz und Berufserfolg bei leitenden Angestellten nicht übertragbar auf Bürogehilfen, da entsprechende Korrelationen bei einfachen Berufen niedriger ausfallen)Streuung der Testwerte: wenn z.B. aus Stichprobe selektiert wird und nur an der Selektion Validitätsprüfung vorgenommen wird (z.B. bei Bewerbern – Berufserfolg), dann mindert das den Validitätskoeffizienten Gemeinsame Methodenvarianz: Bei Erfassung des Validitätskriteriums mit dem gleichen Methodentypus, wie der Test -> Korrelation durch gemeinsame Methodenvarianz von Test und Kriterium Konfundierung mit gemeinsamem Merkmal: fälschlicherweise höhere ValiditätPrädiktor erfasst konzeptuell etwas anderes als Kriterium, keine inhaltlichen Gemeinsamkeiten Kriterium: komplex, besteht aus mehreren Teilaspekten Prädiktor: deckt gleiche Teilaspekte ab, auf gleicher Abstraktionsebene Symmetrie zwischen Prädiktor und Kriterium so können Prädiktor und Kriterium eventuell nicht auf der selben Abstraktionsebene sein (global vs. spezifisch) oder nicht die gleichen Teilsaspekte eines Konstrukts oder sogar ein anderes Konstrukt erfassen
- Definiere Objektivität und erkläre, wie man sie erreichen kann., … bedeutet, dass die Ergebnisse eines diagnostischen Verfahrens unabhängig davon zustande kommen, wer die Untersuchung, die Auswertung und die Interpretation durchführt.wird (außer in Ausnahmen) nicht numerisch bestimmt Standardisierung von Durchführung, Auswertung und Interpretation als Bestandteil des Verfahrens, um Objektivität zu gewährleisten (klare Regeln oder alternativ per Computer implementieren)
- Wie erreicht man eine Durchführungs-, Auswertungs- und Interpretationsobjektivität? Durchführungsobjektivität: Standardisierung von Testbedingungen (z.B. Licht, Raum,…), einheitliche Instruktionen (auch eindeutige Zeitangaben, Regeln für Umgang mit Fragen oder Störungen)Auswertungsobjektivität: einheitliche Regeln zur Auswertung z.B. durch Schablonen, Auswertungsprogramme oder im Manual festgelegt (klare Anweisungen), Auswertung ist häufig fehleranfällig und ihre Objektivität sollte ggf. empirisch ermittelt oder quantitativ geprüft werdenInterpretationsobjektivität: gegeben wenn alle Testanwender den Rohwert in die gleiche Aussage über die Testperson transformieren
- Was sind Anforderungen an eine Eichstichprobe? hinreichend / möglichst groß (Empfehlung: n> 200/Normtabelle) repräsentativ für den Geltungsbereich (nicht ad hoc, sondern Zufalls- oder Quotenstichproben) Erhebung der Daten mus möglichst aktuell sein (DIN 334030: Neunormierung oder Überprüfung mind. alle 8 Jahre)
- Was versteht man allgemein unter dem Begriff Fairness in der Diagnostik? keine (systematische) Benachteiligung bestimmter Personenruppen (Ethnie, Geschlecht etc.)z.B. im Test zum allgemeinen Wissen, Frage nach Torwart des HSV -> Diskriminierung von Frauen
- Wann ist ein Test nach dem Cleary-Modell (1968) fair? ein Test ist fair, wenn bei seiner Anwendung für keine der miteinander verglichenen Gruppen eine systematische Über- oder Unterschätzung der Kriteriumswerte entsteht d.h. wenn die zur Vorhersage des Kriteriums verwendeten gruppenspezifischen Regressionsgeraden identisch sind
- Wie definiert Linn Fairness im equal probability model (1973)? Fairness = Konstanz des Bruches RP: (RP +FP) d.h. für die Zugelassenen aus den relevanten Gruppen soll die Wahrscheinlichkeit eines Erfolges im Kriterium gleich sein -> Erfolgswahrscheinlichkeit der Zugelassenen unabhängig von Gruppe Inkompatibilität mit Modell von Cleary am geringsten
- Wann ist ein Test nach dem conditional probability model nach Cole (1973) fair? Test ist fair, wenn der Quotient RP: (RP+FN) in den miteinander verglichenen Gruppen gleich ist -> Zulassungswahrscheinlichkeit der Geeigneten unabhängig von der Gruppe
- Wie ist Fairness in dem constant ratio model nach Thorndike (1971) definiert? [(RP+FP)/(RP+FN)] -> Verhältnis von Zugelassenen und prinzipiell Geeigneten unabhängig von der Gruppe
-
- Nenne und erläutere die Grenzen der KTT. Axiome nicht empirisch prüfbarUnkorreliertheit von wahrem Wert und Messfehler, also dass die Messgenauigkeit eines Tests in den Extrembereichen genauso groß ist wie im mittleren Bereich unplausibel (häufig größere Messfehler in Extrembereichen, Regression zu Mitte bei erneuter Testung)Messfehler verteilen sich nicht immer zufällig um den wahren Wert, es gibt auch systematische Fehler (in KTT Messfehler aber als unsystematisch definiert) Parameter der KTT sind stichprobenabhängigHeterogene Stichprobe -> höhere Trennschärfen und ReliabilitätenGeringere Itemkorrelation bei Frauen als bei Männern -> geringeres Cronbachs AlphaKennwerte dürfen nicht ohne weiteres auf andere Populationen übertragen werden (begrenzt Generalisierbar) Skalenniveau nicht prüfbarIntervallskalenniveau wird unüberprüft angenommen Homogenität der Items nicht prüfbar Vorliegen von mehreren Dimensionen und Inhomogenität auch bei hohen Interkorrelationen und Ladung auf dem selben Faktor möglich
- Warum hat sich die KTT trotz ihrer Grenzen in der Praxis bewährt? KTT hat sich trotzdem bei der Testkonstruktion und der Schätzung der Reliabilität in der Praxis bewährtErfüllt wesentliche Annahmen an Theorien: sparsam, kommt mit wenigen Grundannahmen zurechtPragmatische Argumente für die KTT: nach ihr entwickelte Verfahren erlauben differenzierte, objektive sowie reliable Beschreibungen von inter- und intraindividuellen Unterschieden
- Zwischen welchen Ebenen der Variablen wird in der IRT unterschieden. Erläutere diese. Unterscheidung zwischen zwei Ebenen von Variablen Manifeste Variablen: beobachtbares Antwortverhalten auf die Testitems, wird als abhängig gesehenLatente Variablen (ξ = ksi): Merkmalsausprägung in nicht beobachtbaren, dahinterliegenden Dispositionen (Einstellungen, Persönlichkeitsmerkmalen ,Fähigkeiten)
- Was versteht man unter Itemhomgenität und wie wird sie geprüft? nur wenn Testitems Indikatoren der latenten Variable sind, kann diese als Ursache für die Korrelation zwischen den manifesten Variablen gesehen werden (= homogen) Antwortverhalten auf Items nur von latenter Variable beeinflusstMultiplikationstheorem für unabhängige Ereignisse Lokale stochastische Unabhängigkeit: bei nur einer vorliegenden latenten Dimension werden Unterschiede in der manifesten Variable nur durch diese verursacht, Überprüfbar, indem man latente Dimension auf einem Wert konstant hält -> stochastische Unabhängigkeit (Verschwinden der Korrelationen zwischen den Items)
- Wie kann man die IRT-Modelle nach Unterteilung der Variablenart einordnen? qualitativ -> Latent-Class-Analyse quantitativ -> Latent-Trait-Modelle; deterministisch (z.B. Skalogramm) und probabilistisch (polytom vs. dichotom (z.B. Rasch-Modell))
- Was ist die Latent-Trait-Methode und zwischen welchen Parametern wird hier unterschieden? Trait wird als Erklärung für Antwortverhalten (Verhaltensunterschiede) herangezogen, gegenwärtig am gebräuchlichsten Personenparameter ξv: Fähigkeit des Probanden v hinsichtlich des latenten Traits; charakterisiert die Ausprägungen verschiedener Probanden auf den latenten Traits und die traitbezogenen Anforderungen der Items an die Person Itemparameter σi: Schwierigkeits- bzw. Anforderungsparameter, Anforderung welche das Item i an die zu untersuchende Person v stellt
- Wovon gehen deterministische Modelle (IRT) aus? Sie gehen davon aus, dass das Antwortverhalten der Probanden durch Item- und Personenparameter vollständig bestimmt ist
- Erläutere das Skalogramm (Gutmann-Modell). Annahme: für jedes dichotom beantwortete Item liegt ein bestimmter Wert auf der ξ-Skala vor, ab dem das Item gelöst wird Reihung der Items nach Schwierigkeit -> einheitliche Ordnung von Personen und Items: Person, die positiv auf Item reagiert, reagierte auch auf alle vorherigen Items positiv; Person, die negativ auf Item reagiert, reagiert auf alle folgenden Items auch negativ keine Aussagen über Distanzen zwischen Items oder Personen möglich, da nur ordinale Reihungsinformationen der Itemschwierigkeiten vorliegen für psychodiagnostische Zwecke meist nicht tauglich (wenn Probanden schwierigeres Item beantworten, obwohl sie an leichterem gescheitert sind) Reproduzierbarkeitskoeffizienten überprüfen, ob Abweichungen noch tolerierbar sind oder ob die Annahme der Itemhomogenität verworfen werden muss
- Was nehmen probabilistische Modelle (IRT) an? Sie nehmen eine stochastische Beziehung zwischen Antwortverhalten des Probanden und den Personen- und Itemparametern an, nehmen monoton steigende Funktionen als IC-Funktion an
- Was ist eine IC-Funktion? = Item charakteristische Funktion gibt an ob ein Modell probabilistisch oder deterministisch ist
- Wie geht das Rasch-Modell vor? definiert die Wahrscheinlichkeit einer Antwort eines Probanden v auf ein dichotomes (als richtig oder falsch codiertes) Item als logistische Funktion Personen und Itemparameter
- Was versteht man unter der spezifischen Objektivität der Vergleiche? Klärt folgende Fragen:Kann der Schwierigkeitsunterschied zweier Items unabhängig von der Höhe der Merkmalsausprägung festgestellt werden? Können Unterschiede zwischen den Personenparametern unabhängig von den verwendeten Items (ihrer Schwierigkeit) festgestellt werden? Nach erfolgreicher Überprüfung der Modellkonformität kann davon ausgegangen werden, dass die IC-Funktionen aller Items die gleiche Form haben und nur parallel verschoben sind
- Was ergibt sich aus den Formeln für die Lösungswahrscheinlichkeit und der Modellgleichung des Rasch-Modells? Was heißt bzw. ergibt sich für: σi = ξv, σi < ξv und σi > ξv ? Für σi = ξv ergibt sich aus exp(0)/(1 + exp(0)) die Lösungswahrscheinlichkeit 0,5, hier hat die logistische Funktion ihren WendepunktFür σi < ξv wird die Schwierigkeit des Items von der Fähigkeit des Probanden übertroffen, die Lösungswahrscheinlichkeit steigt an und geht bei entsprechend großer Fähigkeit asymptotisch gegen 1Für σi > ξv übersteigt die Schwierigkeit des Items die Fähigkeit des Probanden, die Lösungswahrscheinlichkeit sinkt ab und geht ggf. gegen 0
- Wie wird eine Parameterschätzung im Rasch-Modell vorgenommen? Mit der Maximum-Likelyhood- Methode (Ausprobieren und logisches Denken)
- Was passiert bei der Anwendung der Likelyhoofunktion unter Benutzung der Modellgleichung für die Wahrscheinlichkeiten der einzelnen Itemantworten ergibt sich die Wahrscheinlichkeit für die gesamte Datenmatrix X wegen der lokalen Unabhängigkeit durch systematisch wiederholtes Anwenden des Multiplikationssystems für unabhängige Ereignisse iterative (= schrittweise Annäherung durch Wiederholung) Maximierung von L zur Schätzung von Schwierigkeit und FähigkeitEinsetzen der Modellgleichung in die Likelyhoodfunktion die Höhe der Likelyhood variiert in Abhängigkeit von den gewählten Parameterschätzungen
- Wie erfolgt die Schätzung der Personenparameter durch die Likelyhoodfunktion? Sind Itemparameter bekannt und Modellkonformität gegeben, können Zeilensummenscores als Hinweis auf die Ausprägung der latenten Variable dienen Mithilfe der ML-Methode werden den Zeilensummenscores diejenigen Werte von zugeordnet, für welche das Reaktionsverhalten auf die Items am wahrscheinlichsten ist Für Personen, die kein Item oder alle Items gelöst haben (Zeilensummenscore= 0;1) sind Personenparameter nicht genau bestimmbar, ihnen können im Wege von Normierungen Werte zugeordnet werden
- Wie sieht die Skalierung der Personen- und Itemparameter in der IRT aus? Gemeinsame Skala von ξ und σ also gilt auch für die latente Variable ξ IntervallskalenniveauIn der Regel werden Itemschwierigkeiten auf 0 normiert -> negative Werte von σ charakterisieren leichte Items, positive Werte schwierige Items legt auch Skala der Personenparameter fest: -> negative Werte des Probanden sprechen für niedrige Ausprägung des Merkmals Parametwerte liegen meist zwischen -3 und 3Summenscores (rv und ni) als „erschöpfende Statistiken“ Lösungsmuster bei gegebenem Summenscore unerheblichKeine Gewichtung der einzelnen Items
- Wozu wird beim Rasch-Modell die Modellkonformität überprüft? Wie geht man dabei vor? Nur wenn Modellkonformität können Eigenschaften (Spezifische Objektivität, Itemhomogenität) des Rasch-Modells in Anspruch genommen werden einfachstes Vorgehen: Teilung der Stichproben nach relevanten Kriterien (z.B. Geschlecht)-> Grafischer Modelltest:Um sich ersten Überblick zu verschaffenJe näher die Itemparameter an die Hauptdiagonalen kommen, desto größer ist die Stichprobenunabhängigkeit und desto eindeutiger ist Rasch-HomogenitätSystematische Abweichungen sind Hinweise für modellinkonforme Abhängigkeiten Likelyhood-Quotiententests, oder Pearson-Chi²-TestWenn Ergebnis nicht signifikant ist wird die Nullhypothese beibehalten -> Modell passtWenn Abweichungen nur bei einzelnen Items auftreten, können diese ausgesondert und Modellkonformität abermals geprüft werden Informationstheoretische Maße:(z.B. Akaikes oder Bayes Information Criterion, AIC bzw, BIC)
-
