Psychologie (Fach) / Diagnostik_Kapitel 7 (Lektion)
In dieser Lektion befinden sich 188 Karteikarten
Pilszle Stoff
Diese Lektion wurde von student_90 erstellt.
Diese Lektion ist leider nicht zum lernen freigegeben.
- Beurteilungsverzerrung: Nikolaus-Effekt Je näher Entscheidung kommt, desto mehr strenger wir uns kurzfristig an
- Beurteilungsverzerrung: Matthäus-Effekt Nach Mt 25 Vers 14 - 28 --> wer schon viel hat, bekommt noch mehr. Alte Menschheitserfahrung --> gute Schüler bekommen leichter gute Noten als jene wo normal schlecht Noten schreiben
- Beurteilungsverzerrung - Milde - bzw. Strenge Effekt - Strenge Effekt - Nähe- Effekt - Hierarchie-Effekt - Benjamin-Effekt - Matthäus-Effekt - Nikolaus-Effekt - Klebe-Effekt
- Beurteilungsversagen Leistungsbeurteilung gehört nur Leistung hinein, keine persönlichen Aspekte Beurteilungsversagen --> wenn außer der Leistung bewusst noch andere leistungsfremde Gesichtspunkte einbezogen werden
- Vor- und Nachteile der Verhaltensbeobachtung in der Diagnostik Vorteile: - ermöglicht es große Mannigfaltikeit des Verhaltens zu berücksichtigen - spontanes, nicht vorklassifiziertes Verhalten kann erfasst werden und in die Diagnose miteinfließen - gräßere Näher zum individuellen Bios: ein biographischer Ansatz der psychologischen Diagnostik kann auf Verhaltensbeobachtung nicht verzichten Nachteile: - Auswahl der Beobachtungseinheiten unterliegt einer gewissen Willkür: jeder kann selber entscheiden welche Verhaltensaspekte für beobachtenswert sind - schwierig, jede Abgrenzung der Verhaltenseinheiten theoretisch zu begründen - Vergleichbarkeit ist erschwert, wenn Verhaltensbeobachtung nicht vorklassifiziert werden -
- Auswertungsobjektivität betrifft die numerische oder kategoriale Auswertung des registrierten Testverhaltens nach vorgegebenen Regeln
- hohe Auswertungsobjektivität wenn Schlüsselrichtung der Aufgabenbeantwortung (Richtig/Falsch) festliegt (bei MC Aufgaben) sehr hoch bei psychometrischen Verfahren
- Messbarkeit der Auswertungsübereinstimmung durch den Grad der Übereinstimmung verschiedener Testauswerter Durch die Urteilsübereinstimmung = Interrater-Reliabilität --> Ausmaß der Übereinstimmung der Ergebnisse bei unterschiedlichen Beobachtern
- Wann wird Kappa-Kennzahl berechnet wenn 2 oder mehrere unterschiedliche Beobachter gleichzeitig mehrer Beobachtungsobjekte kategorial einschätzen (Werte zischen 0 und 1)
- Alternative zur Kappa-Kennzahl Kendalls Konkordanzkoeffizient W. (Werte zwischen 0 und 1)
- Verfahren zur Bestimmung der Inter-Rater-Korrelation bei höheren Skalenniveaus - Pearsonscher Maßkorrelationskoeffizienten oder Rankkoreallationskoeffizienten nach spearman - Kendalls T
- geringere Auswertungsobjektivität wenn keine Schlüsselrichtung vorgegen ist --> bei freier Aufgabenbeantwortung kann erhöht werden durch Auswertehilfsmittel wie Schablonen oder Angabe von Grenzwerten sehr gering bei projektiven Verfahren --> gibt beträchtliche Unterschiede bei der Signierung --> Hilfsmittel wie Häufigkeitstabellen HAWIE-R --> klar Anweisungen im Manuel weilche Antworten höher eingestuft werden bei projektiven Verfahren --> Objektivitätskoeffizient unter 0,5 --> unter der diagnostischen Valnez
- Welche Objektivität ist die niedrigste? Interpretationsobjektivität
- Interpretationsobjektivität Grad der Unabhängigkeit der Interpretation des Testergebnisses vom interpretierenden Psychologen. aus gleichen Auswertungsergebnissen werden gleiche Schlüsse gezogen
- hohe Interpretationsobjektivität bei normierten Leistungstest --> numerischer Wert liefert die Positione des Pb entland einer Testskala hoch beim Lüscher Farbtest --> Interpretation wörtlich vorgegeben
- Bedeutung einer hohen Objektivität auf die anderen Gütekriterien nur wenn ein Testverfahren das Gütekriterium der Objektität erfüllt, kann es auch valide und reliabel sein --> muss es jedoch nicht sein, nur weil es objektiv ist
-
- Nutzung des Begriffs Objektivität von Cattell, Eysenck und Fahrenberg Test ist Objektiv, wenn er nicht durchschaubar und nicht gezielt verfälschbar ist
- Niedrige Interpretationsobjektivität bei projektiven Verfahren, z.B.: Rorschach --> keine Normwerte, aufgrund von bestimmten Prozentsätzen von orginellen Antworten müssen diagnostische Schlüsse gezogen werden. Hängt stark von der Erfahrung und Fehlern des Diagnostikers ab
- Reliabilität Zuverlässigkeit Grad der Genauigkeit mit dem ein Test bestimmte Persönlichkeits- und Leistungsmerkmale misste, unabhänig ob er valide ist (also inhaltlich richtiges misst) Test ist reliabel, wenn er das Merkmal exakt misst, ohne Messfehler
- Mathematische Angabe der Reliabilität gibt den Anteil der Varianz der wahren Werte an der Varianz der beobachteten Werte Kann nur die Varianz der beobachteten Werte berechnet werden, daher handelt es sich um eine Schätzung
- Reliabilitätskoeffizienten erfasst das Ausmaß der Reliabilität nimmt einen Wert zwischen 0 und 1 an (0 nur Messfehler, 1 = Freisein von Messfehler)
- was gibt rtt *100 an? in unquadrierter Form gibt sie den durch die wahren Testwerte erklärten Prozentsatz der Gesamtvarianz an
- Voraussetzung für jede Reliabilitätsschätzung Äquivalenz --> geht davon aus, dass Messunterschiede nur auf Messinstrument zurückführbar sind (nicht einmal Lärm, einmal leise
- Retest-Verfahren derselbe Test wird derselben Stichprobe zu 2 unterschiedlichen Zeitpunkten vorgelegt
- Retestreliablitäts- oder Stabilitätskoeffizient Reliabiltät wird durch die Korrelation der beiden Testergebnissen ermittelt
- Ursachen für Abweichungen der Korrelation bei Retestreliabilitätskoeffizient - Merkmalsänderung - Störeinflüsse (Messfehler)
- Ursachen für Abweichungen der Korrelation bei Retestreliabilitätskoeffizient - Merkmalsänderung --> Veränderung des Merkmals durch den Test selbst (Lerneffekte, Aha Effekte, Übungseffekte, Veränderung der Einstellung durch Nachdenken) - Störeinflüsse (Messfehler)
- Praktisches Problem von Retestreliabilität muss die selbe Person zu 2 Zeitpunkten herbekommen
- Retestintervall bei Speedtests und Powertests bei Speedtestes --> psychophysische Messung von Wahrnehmung oder Motorik kann das Retestintervall kurz sein, weil kann starker Übungseffekt entsteht bei Powertests --> Messung von Intelligenz oder anderen komplexen Leistungsfaktoren kann durch Erinnerungseffekt eine verfälschung entstehen --> wichtig längeres Intervall
- Wann muss man bei Retestreliabilitäten einem Übungs- und Erinnerungseffekt nicht viel beachtung schenken? Wenn bei allen Personen eine annährend gleiche Veränderung der Ergebnisse vom 1. zur 2. Durchführung stattgefunden hat --> da der Korrelationskoeffizient dadurch unverändert bleibt
- Dilemma bei der Frage der Dauer des Intervalls bei Retestreliablität einerseits darf das Intervall nicht zu lang sein, damit sich Merkmal möglichst unverändert bleiben. Andererseits nicht zu kurz, damit Erinnerungsspuren verblasen
- Frage der Dauer des Intervalls bei Retestreliablität hängt von der diagnostischen Fragestellung der Testuntersuchung ab. Je nach dem wie stabil ein Merkmal ist, muss ein Test unterschiedlich reliabel sein
-
- Unterscheidung von absoluter und relativer Stabilität bei Retesteliabilitäten relative Stabilität: Wert der 1. und 2. Messung nimmt die gleiche Rangordnung ein absolute Stabilität: Wert der 1. und 2. Messung nimmt die gleiche Rangordnung ein und identischer Mittelwert der beiden Messungen
- Wie wird die Paralleltest-Reliabilität bestimmt? einer identischen Stichrprobe werden zwei miteinander streng vergleichbare Tests (Paralleltests) mit Itemzwillingen vorgelegt --> deren Ergebnisse werden dann korreliert
- Wie wird die Paralleltest-Reliabilität bestimmt? einer identischen Stichrprobe werden zwei miteinander streng vergleichbare Tests (Paralleltests) mit Itemzwillingen vorgelegt --> deren Ergebnisse werden dann korreliert Paralleltestreliabilität kan mit Korrelation oder Maximus-Likelihood Schätzung berechnet werden
- Wie kann der Übungseffekt bei der Paralleltest-Reliabilität vermindert werden? durch ein cross-over design von Speed und Powertest. Halbierte Gruppe bekommt zuerst Test A, dann B und die andere Gruppenhälfte umgekehrt. Dann werden Koeffizienten aus der zusammengeführten Gruppe berechnet
- Problem von Paralleltestmethoden zur Berechnung der Reliabilität und wann gelten sie noch als Paralleltests? schwierig 2 wirlich äquivalente Parallelformen eines Tests zu konstruieren. Gelten jedoch schon als parallel, wenn sie zwar nicht identische Itemstichrobem trotzdem zum gleichen Mittelwert und Varianz der Testwerte und Interkorrelation der Items führen
- Splithalf-Reliabilität Items eines Tests lassen sich in 2 Testhälften aufteilen --> da sie das gleiche Merkmal messen
- Homogenitätskonzept (interne Konsistenz) besteht ein Tests aus Items die das gleiche Merkmal messen --> so kann jedes einzelne Merkmal als seperater Testteil zur Messung dieses Merkmals erfasst werden. Durch diese Zusammenhangsstruktur der Items kann auf die interne Konsistenz als Schätzung der Reliabilität des Testverfahrens geschlossen werden
- Koeffizient Cronbachs Alpha Rechnerische Methode zur verallgemeinerung der Testhalbierung auf beliebige Testteile Werte liegen zwischen 0 und 1 --> innere Konsistenz ist umso höher, je höher die durchschnittliche Korrelation aller Items eines homogenen Test ist Drückt die interne Konsistenz eines Tests aus Kuder Richardson Formel unterscheidet sich nur unwesentlich davon
- Interne Konsistenz lässt sich schätzen durch: - durchschnittliche Inter-Item Korrelation - durchschnittliche Item-Total-Korrelation - Split-Half-Reliabilität - Cronbachs Alpha Kuder-Richardson Formel (für unterschiedliche Datenbedingungen)
- welches sind die häufigst benutzten Methoden des Homogenitätskonzeptes? Cronbach-Alpha Formel Kuder-Richardson-Formel --> aufgrund ihrer Einfachheit und ausreichender Genauigkeit
- nach welchen 2 Methoden wird die innere Konsistenz eines Tests bestimmt? - Methode der Testhalbierung - Methode der Konsistenzanalyse
- Methode der Testhalbierung Test wird einer Stichprobe von Pb vorgegeben, aber nur 1 Mal. Dann werden die Elemente eines Tests in 2 möglichst gleichwertige Hälften aufgeteilt und das Testergebnis für jede Hälfte gesondert ermittelt (Split-Half-Methode) Dann werden Testergebnisse der beiden Hälften korreliert --> der Reliabilitätskoeffizient wird dann so aufgewertet, dass er Geltung für den ganzen Test beanspruchen kann. Korrelation der beiden Testteile unterschätzt die innere Konsistenz, da man für den wirlichen Test doppelt so lang brauche würde. Durch die Spearman-Brown Methode kann die Reliabilität des Gesamttest geschätzt und korrigiert werden
- Spearman-Brown Formel damit kann die Reliablität in Abhängigkeit von der Anzahl der Items geschätzt werden --> also die Auswirkung bei einer Verkürzung oder Verlängerung eines Tests auf seine Zuverlässigkeit Hat man eine zu niedrige Reliabilität kann durch diese Formel berechnet werden, wieviele passende Items der Test verlängert werden muss, damit er die gewünschte Reliabiltät erreicht
- Methode der Konsistenzanalyse Elemente eines Tests werden als multipel halbierte Testteile aufgefasst und die Reliabilität wird über bestimmte Kennwerte dieser Testelemente auf indirektem Weg ermittelt.
- Wann liegt eine interne Konsistenz oder Homogenität vor? wenn verschiedenen Items einer Testskala dasselbe Merkmal messen
- Was passiert wenn man alle 4 Methoden der Reliabilitätsbestimmung anwenidet? man erhält immer unterschiedliche Reliabilitätskoeffizienten --> gemeinsam haben sie, dass alle schätzungen für den Anteil liefern, indem in Testwert fehlerbehaftet ist. Jede der 4 Methoden berücksichtigt unterschiedliche Messfehlerarten Der Homogenitätskoeffizient fallen am höchsten aus, da sie nur bei homogenen Verfahren berechnet werden können.
- Methoden zur Reliabilitätsbestimmung - Stabiliätskonzept (Restesreliabilität) - Paralleltestmethode - Methode der Testhalbierung - Methode der Konsistenzanalyse
- Welcher Reliabilitätskoeffizient wird herangezogen? Je nach diagnostischer Fragestellung spielt die eine oder andere Fehlerarte ein geringere Rolle (jede Reliabilitätsschätzung weist unterschiedliche Fehler auf)
-