Psychologie (Subject) / Diagnostik (Lesson)

There are 138 cards in this lesson

Vorlesung Prof Strobel SS14

This lesson was created by LenaSG.

Learn lesson

  • Nützlichkeit Ein Verfahren ist nützlich wenn ein praktisches Bedürfnis zur Erfassung des Merkmals besteht bzw das Verfahren das Merkmal zuverkässiger, valider und/oder ökonomischer erfasst als andere Verfahren
  • Zumutbarkeit Nutzen durch testanwendung sollte in angemessenem Verhältnis zu Belastungen stehen, die Diagnostikanden zugemutet werden
  • Akzeptanz Akzept! Fragebogen zur Messung der Akzeptanz diagnostischer Verfahren Skalen: Kontrollierbarkeit, Messqualität, Augenscheinvalidität, Belastungsfreiheit, Wahrung der Privatspähre, Antwortfreiheit, Organisation, Positive Atmosphäre, Gesamturteil, Selbsteinschätzung, Verfälschung
  • Durchführungsobjektivität Sicherstellend er Durchführung in immer gleicher Weise Ziel: maximale Standardisierung
  • Auswertungsobjektivität gleiches Verhalten der Tespersonen wird nach stest exakt denselben Regeln abgebildet, Übersetzung unabhängig von Diagnostiker
  • Interpretationsobjektivität gegeben, wenn unterschiedliche Diagnostiker aus dem selben diagniostischen Verhalten dieselben Schlüsse ziehen
  • Formen der Reliabilität Paralleltest: Vorgabe paraller Versionen eines Tests mit ähnlichen aber nicht identischen items, die die gleichen Messeigenschaften haben wie die des ersten tests innerhalb eines kurzen Zeitintervalls Retest: ein und derselbe Test wird ein und derselben Stichprobe von Probanden wiederholt dargeboten, von Stabilität des merkmals beeinflusst Testzerlegung: Test wird nach Durchführung in zwei möglichst äquivalente Merkmale aufgeteilt
  • Definition Normierung Die Normierung eines Tests liefert ein Bezugssystem, um die individuellen Testwerte im Vergleich zu deinen einer größeren Stichprobe von TN einordnen zu können
  • Standardskalen der Normierung Linear= unter Beibehaltung der Häufigkeitsverteilung der Rohwerte z-Skala Z-Skala IQ-Skala T-Skala Nichtlinear= Veränderung der Häufigkeitsverteilung der Rohwerte Prozentrangskala Stanine-Skala
  • Definition Validität (Schmidt-Atzert, Amelang) Unter validität wird die Übereinstimmung von Testergebnissen mit dem, was der test messen soll, verstanden. Es handelt sich um ein Urteil darüber, wie angemessen bestimmte Schlussfolgerungen vom Testwert auf das Verhalten außerhalb des Tests oder auf ein Merkmal der Person sind
  • Formen der Validität Inhaltsvalidität Kriteriumsvalidität Prädiktive Validität Konstruktvalidität
  • Kontentvalidität =Inhaltsvalidität darunter versteht man, inwieweit ein test oder ein Testitem das zu messende Merkmal repräsentativ erfasst Testitems als repräsentative Stichprobe aus dem Itemuniversum, mit dem das interessierende Merkmal erfasst werden kann (Repräsentativitätsschluss) Operational: das Konstrukt wird durch die Testinhalte definiert Theoretisch: das Konstrukt wird im Rahmen einer Theorie spezifiziert
  • Kriteriumsvalidität Ein Test weist Kriteriumsvalidität auf, wenn vom Verhalten innerhalb der Testsituation erfolgreich auf ein Kriterium nämlich auf ein Verhalten außerhalb der testsituation geschlossen werden kann
  • Formen der Kriteriumsvalidität konkurrente Validität: prüfung der Übereinstimmung der Beobachtungen aus dem zu validierenden Verfahren mit Beobachtungen aus einem anderen Beobachtungsverfahren, die zeitgleich erhoben wurden prädiktive Validität: die zeitlich später erhoben wurden postdiktive Validität: die vorab erhoben wurden
  • Konstruktvalidität Synthese aus Inhalts- und Kriteriumsvalidität Einbettung eines Tests im nomologisches Netzwerk verwandter und fremder Konstrukte keine Einzelkennwerte sondern ein Prozess
  • nomologisches Netzwerk (Cronbach, Meehl) Beziehung zwischen beobachtbaren Merkmalen theoretischen Konstrukten und Beobachtbarem verschiedenen theoretischen Konstrukten
  • Konvergente Validität Messungen desselben Traits mit verschiedenen Messmethoden zeigen hohe Übereinstimmung =Monotrait-Hetreomethod-Koeffizienten: Korrelatiponen zwischen verschiedenen Methoden, die denselben Trait messen
  • Diskriminante Validität Geringe Übereinstimmung von bzw Diskrimination zwischen inhaltlich unterschiedlichen Konstrukten, sowohl innerhalb einer Messmethode als auch zwischen den Methoden   =Heterotrait- Monomethod-Koeffizienten: Korrelationen zwischen verschiedenen Traits, die mit derselben Methode gemessen werden =Heterotrait- Heteromethod-Koeffizienten: Korrelationen zwischen verschiedenen Traits, die mitverschiedenen Methoden gemessen werden
  • Korrelationen Datenmatrix Reliabilität Konvergente Validität Diskriminante Validität
  • Grundüberlegungen der KTT =Reliabilitäts bzw messfehlertheorie, liefert theoretische begründung für die Messgenauigkeit eines Tests Gründe für die Variation der Testergebnisse zwischen verschiedenen Messzeitpunkten: Fähigkeit durch spezielles Aufbautraining verbessert durch unsystematische innere oder äußere Einflüsse verändert grundlegende Annahme: Testwerte sind fehlerbehaftet  
  • Axiome der KTT Jeder beobachtbare Wert einer Person in einem Test setzt sich additiv zusammen aus dem wahren Wert der Person und einem Messfehler Für jeder Person stellt der Messfehler eine Zufallsvariable mit dem Erwartungs bzw Mittelwert null und endlicher Varianz dar, der für alle Personen gleich ist Die Korrelation zwischen dem wahren Wert und dem Fehler ist null Die Korrelation zwischen den Fehlern zweier Tests ist null Die Messfehler eines Tests korrelieren nicht mit dem wahren Werten der Personen in einem anderen Test
  • Ableitungen der KTT: Reliabilität Die Reliabilität eines Tests ist der Anteil der Varianz der wahren Werte an der varianz der beobachteten Werte Zur Bestimmung der Realibilität anhand empirischer Werte ist eine Schätzung der varianz nötig: Kovarianz der beobachteten Werte, die bei Wiederholung des Tests unter identischen Bedingungen anfallen =Retest-Reliabilität
  • Ableitungen der KTT: Korrektur der Reliabilität bezogen auf die Testlänge Zusammenhang zwischen Reliabilität eines Tests und dessen Länge -> nimmt mit Itemzahl zu Schätzung mittels Spearman-Brown-Formel, wie hoch Reliabilität eines Tests mit einer um Faktor k erhöhten Itemanzahl wäre oder auch, wie viele Items ein Test für eine bestimmte Reliabilität mindestens haben sollte
  • Ableitungen der KTT: Standardmessfehler gibt an wie stark die Messfehler um die wahren Werte der Personen streuen Messfehler einzelner Messung nicht bestimmbar, aber Schätzung möglich, wie stark die Messfehler bei sehr vielen wiederholten Messungen um den wahren Wert streuen würden
  • Standardmessfehler: Praktische Bedeutung Bei unendlich vielen Messungen an einer Personergibt sich also der wahre Wert als der Mittelwert der beobachteten Werte Der Messfehler ist dabei normalverteilt genutzt wird dies für die Berechnung des Konfidenzintervalls (Vertrauensbereich) = gibt den Bereich an, in dem der wahre Teswert einer Person bei einer zuvor festgelegten Sicherheits- bzw Irrtumswahrscheinlichkeit liegt
  • Ableitungen: Minderungskorrekturen Geht der messfehler eines Tests zu Lasten der Korrelation mit anderen Tests? Korrelation der Tests soll erhöht werden, deshalb Verminderung der vorherhigen Verzerrung durch Messfehler: Formel zur doppelten (dh Reliabilitäten beider Variablen werden berücksichtigt) oder einfachen (nur eine Variable) Minderungskorrektur
  • Kritische Würdigung der KTT Vorteile: ist sparsam, dh kommt mit wenigen Grundannahmen aus hat sich in der Praxis bewährt Nachteile: Axiome nicht empirisch prüfbar, nicht alle gleichermaßen plausibel Messfehler sind nicht immer zufällig um den wahren Wert verteilt, sh systematische Verzerrungen werden nicht betrachtet Parameter sind populations- und stichprobenabhängig, dh Kennwerte einer Stichprobe können nicht ohne Weiteres auf Population generalisiert werden Skalenniveau wird häufig missachtet (Intervall ist vorausgesetzt) Homogenität der Items wird vorausgesetzt, ist aber nicht immer gegeben Theorie sagt nichts über das Zustandekommen des Testergebnisses aus
  • Grundgedanken der IRT Grundfrage, welche Rückschlüsse auf interessierende Merkmale gezogen werden können, wenn nur Antworten auf verschiedene Items vorliegen Unterscheidung in manifeste und latente Variablen: "Bei den manifesten Variablen handelt es sich im Kontext der IRT um das beobachtbare Antwortverhalten auf verschiedene Testitems, bei den latenten Variablen hingegen um die Merkmalsausprägung in nicht beobachtbaren, dahinterliegenden Dispositionen, von welchen wird das manifeste Verhalten als abhängig angesehen wird"
  • Itemhomogenität Annahme, dass Verhaltensvariation mehrer manifester Variablen durch latente Variable zustande kommt- sollte sich in beobachtaren Korrelationen zwischen Testitems zeigen Schluss auf latente Variable erfordert mehrer untereinander korrelierende Testitems als Datenbasis Nachweis, dass diese Testitems wirklich Indikatoren von der latenten Variable sind= Prüfung der Itemhomogenität
  • Lokale stochastische Unabhängigkeit sind alle Items tatsächlich Manifestationen ein und derselben latenten Variable, sollte Korrelationen untereinander nur durch Unterschiede in dieser zustande kommen Prüfung indem latente Dimension auf bestimmtem Wert konstant gehalten wird sind Items homogen sollten sich lokale stochastische Unabhängigkeit zeigen, dh Korrelationen zwischen den Items auf diesen Stufen verschwinden
  • Vorausetzungen Lokale stochastische Unabhängigkeit Testkonstruktion: Fehler bei verschiedenen Items nur unkorreliert, wenn Items unabhängig konstruiert wurden Testanwendung: Fehler bei verschiedenen Personen nur unkorreliert, wenn die Itembearbeitung durch unabhängige Personen gegeben ist
  • Modellarten der IRT Einteilungsarten ua nach Anzahl der Modellparameter, Art der Itemcharakteristischen Funktion oder Variablenarten der manifesten und latenten Variablen Latent- Class- Modelle: Charakterisierung von Personenunterschieden anhand qualitativer, kategorialer latenter Klassen Latent- Trait- Modelle: ausgehen von kontinuierlichen latenten Variablen
  • Latent- Trait- Modelle gehen davon aus, dass sowohl Ausprägung verschieener Probanden auf den latenten traits als auch traitbezogene Anforderungen der Items an die Persobnen jeweils durch einen Parameter charakterisiert werden können Personenparameter: Fähigkeit des probanden hinsichtlich des latenten trait Itemparameter: Anforderung, welche das Item an die zu untersuchunde Fähigkeit der Person stellt
  • Latent- Trait- Modelle: Itemcharakteristische Funktionen IC-Funktion ermöglicht Angabe numerischer Ausprägung der Parameter Deterministische Modelle: gehen davon aus, dass das Antwortverhalten der probanden durch die Item- und Personenparameter vollständig bestimmt ist Probabilistische Modelle: nehmen eine stochastische Beziehung zwischen dem Antwortverhalten und den Personen- und Itemprametern an
  • Skalogramm-Modell (Guttman) deterministisches Modell Für jedes Item gibt es einen bestimmten Wert auf der Skala der latenten Variable, ab dem das Item gelöst wird bzw ab dem dem Item zugestimmt wird Person, die auf ein Item positiv/negativ reagiert, reagiert auch auf alle vorhergehenden Items positiv/negativ
  • Probleme beim Skalogramm- Modell nur ordinale Reihungsinformation, keine Information über Distanzen einziges unerwartetes Antwortmuster wiederlegt das Modell wichtig: Zahl der Rangplatzvertauschungen
  • Probabilistische Modelle statt Treppenfunktion werden in der regel monoton steigende Funktionen als IC-Funktion angenommen Birnbaum-Modell: two-parameter logistic model, Antwortmodus dichotom Dichotomes Rasch- Modell: Gruppe von latent-trait-Modellen, welche neben der lokalen stochastischen Unabhängigkeit über weitere vorteilhafte Modelleigenschaften verfügen. Zu nennen sind vor allem die erschöpfenden Statistiken, die Stichprobenunabhängigkeit der Paramer und die spezifische Objektivität der Vergleiche
  • Probabilistische Modelle: Anwendungsmöglichkeit Adaptives Testen= Nutzung von Items, deren Schwierigkeit mit Fähigkeit des probanden hinreichend übereinstimmt, erhöht Informationsausschöpfung positive Auswirkungen auf Ökonomie und Zumutbarkeit  
  • Strategien des adaptiven Testens taylored: Schätzungen des Personenparameters nach jedem Item- nur in computerbasierten Verfahren möglich branched: verschieden schwierige Itemblöcke, festes Vorgehen, Wahl des nächsten Blocks abhängig von Zahl der Lösungen im nächsten Block, auch bei paper-pencil-Messungen möglich
  • Adaptives Testen: Kriterien für Beendigung des Tests Standardfehler der Personenparameterschätzung hinreichend klein Unterschied zweier aufeinander folgender Schätzungen hinreichend klein bestimmte Maximalzahl von Items dargeboten maximale Testzeit erricht alle Items im Itempool vorgelegt
  • Weitere Modelle der IRT Latent-trait-Modelle: mehrere Parameter, polytome Modelle latent-Class-Modelle Mixed-Rasch-Modelle: innerhalb einer Klasse Unterschiede in Merkmalsausprägungen möglich Linear-Logistische-Modelle: Itempramater in IRT Modellen soller näher erklärt werden, indem sie als Lineearkombination einer geringeren Anzahl von Basisparametern aufgefasst werden
  • Fazit zur IRT Vorteile: Separierbarkeit von Item und Personenparametern ermöglicht empirische Überprüfung von Skalierbarkeit, Eindimensionalität sowie Item und personenhomogenität IRT  konforme Tests liefern Basis für large scale assessments IRT liefert methodische Grundlage für adaptives Testen Ansatz überwindet einige Einschränkungen der KTT Einschränkungen: hoher Aufwand in testkonstruktion Personen die kein oder alle Items gelöst haben, kann Personenparameter nicht bewstimmt, sondern nur durch Korrektur geschätzt werden prüfung der Modellkonformität teilweise nicht einfach wenig verbreitet
  • Theorie und Empirie in Diagnostik Ohne Theorie ist die Anwednung diagnostischer Instrumente beliebig und sinnlos Theorie= diagnostische Hypothesen
  • Hypothesentheorie der Wahrnehmung (Bruner, 1957) aufgrund der Fülle an Informationen, mit denen Menschen konfrontiert sind, muss Wahrnehmung selektiv sein Auswahl von Aspekten basiert auf Erwartungen und Hypothesen viele davon automatisch ohne großen kognitiven Aufwand gebildet
  • Automatische Hypothesen nach Bruner Eine Hypothese beeinflusst selektive Wahrnehmung umso stärker,  je häufiger sich Hypothese in Vergangenheit bewährt hat je besser sie zu Motiven/ Bedürfnissen der wahrnehmenden Person passt je stärker sie argumentativ begründet werden kann je mehr Anhänger sie hat je weniger Alternativhypothesen zur Verfügung stehen Gefahr: automatische Hypothesenbildung auch innerhalb psychologischer Diagnostik, dabei Reflexion/ Korrektur/ Ergänzung wesentlich!
  • Strategien zur Vermeidung der Einengung des Hypothesenraumes: Regeln für die Generierung und Testung diagnostischer Informationen (nach Schmitt & Gerstenberg, 2014) sich selbst Frage stellen, welche Hypothese hinter Wunsch nach bestimmter Information steht Hypothese explizit machen und möglichst viele Alternativhypothesen aufstellen nicht vorschnell auf eine Hypothese festlegen oder durch Arbeitergeber festlegen lassen wenn Einschränkung des Hypothesenraums, dann bewusst, rational begründet, im besten Fall anhand bewährter Theorien vorläufig ausgeschlossene Hypothesen dokumentieren, auch um sie ggf reaktivieren zu können
  • Interventionsbezogene Aufgaben psychologischer Diagnostik Diagnose des Interventionsbedarfs Indikationsstellung und Kosten- Nutzen- Analyse Evaluation von Interventionsmaßnahmen Es gilt: Keine Intervention ohne Diagnostik und andersherum!
  • Diagnose des Interventionsbedarfs üblicherweise abgeleitet aus bestehender Ist-Soll-Diskrepanz müssen diagnostisch ermittelt bzw vorhergesagt werden nicht trivial, nicht immer eindeutig, müssen ebenfalls reflektiert, begründet werden
  • Diagnose des Interventionsbedarfs: Herkunft von Soll­‐Werten Deskriptive Normen Präskriptive Normen Persönliche Wertvorstellungen und Ziele
  • Diagnose des Interventionsbedarfs: Ermittlung von Soll­‐Werten sollten möglichst konkret vorliegen Schwierigkeit: Soll- Werte resultieren häufig aus abstrakten Fernzielen- müssen untergliedert werden professionelle Begleitung bei Setzen von Soll-Werten verhindert unrealistische/ ethisch fragwürdige Anforderungen Strukturierte Vorgehensweise: Critical Incident Technique Shadowing Gitter oder Kontrastanalyse