Psychologie (Fach) / Differentielle Psychologie (Lektion)

In dieser Lektion befinden sich 443 Karteikarten

WS 16/17

Diese Lektion wurde von LauraFichti erstellt.

Lektion lernen

  • Wie errechnete Binet ob ein Kind bezüglich des Entwicklungsstandes der Altersgruppe entsprach? Durch die Differenz aus Intelligenzalter minus Lebensalter (IA - LA).
  • Was waren die Iteminhalte von Binet? Gedächtnis Vorstellungskraft Aufmerksamkeit Verständnis Willensstärke motorische Fertigkeiten moralische Haltungen z.B. Aufgaben 8. Lebensjahr: - Kind zählt rückwärts von 20 bis 0- Kind benennt 4 Farben usw.
  • Was war die Kritik am Simon-Binet Test? (5 Punkte) finden von trennscharfen Aufgaben für höhere Altersstufen (ab 16 Jahren) scheiterte--> Intelligenzentwicklung = zunächst rasch, dann immer langsamer Gleiche Differenz zwischen IA und LA = verschieden Bedeutung:z.B. Rückstand von 2 IA-Jahren bei 10 Jähr. = unauffällig, bei 4 Jähr. = hochgradiger Rückstand--> Zur Vermeidung schlug Stern (1911) den IQ vor: IQ = (IA/LA) * 100 Probleme mit Objektivität: Testleiterbewertungen fließen bei einigen Aufgaben mit ein. Items zu verbal (schichtabhägig?) Eichung mangelhaft: Oberschichtkinder lagen durchschnittlich 18 Monate über Binet-Normen
  • Was sollte der IQ von Stern in den "Binet-Tests" gewährleisten? Eine Konstanz der Interpretierbarkeit von Leistungsvorsprüngen bzw. -rückständen auf verschiedenen Altersstufen.
  • Was ist an Sterns IQ problematisch? Streng genommen wäre Quotient nur dann legitim, wenn die Leistungszunahme mit dem Alter linear wächst;tatsächlich wird aber ein negative beschleunigter Entwicklungsverlauf festgestellt -> Stern löst dieses Problem nicht!
  • Was sind die Probleme bei Binet-Test und Stern-IQ im Falle der Testung von Erwachsenen? negativ beschleunigter Entwicklungsverlauf intelektueller Leistungen Scheitelpunkt bei ca. 20-25 Jahren keine Aufgaben auffindbar, die zwischen höheren Altersgruppen differenzieren
  • Was war an dem IQ-Konzept von D. Wechsler (1939) revolutionär? Keine altersspezifischen Aufgaben, sondern Aufgaben, die für alle Altersgruppen einsetzbar sind (großer Schwierigkeitsrange in Testaufgaben).
  • Was war das Wechsler-Intelligenzmaß und wie lautet die Formel? Intelligenzmaß: Abweichungs-IQ  < 100 unterdurchschnittl.; > 100 überdurchschnittl. IQ = 100 + 15 • (x - M) / s x = individueller Rohwert (z.B. Anzahl korrekter Aufgaben)M = Empirischer Mittelwert }s = empirische SD              } der altersspezifischen Rohwert-Verteilung --> Mittelwert ist auf 100, SD auf 15 normiert; andere Autoren normieren anders z.B. Amthauer im Intelligenz-Struktur-Test (1953): M = 100, s = 10 → die Vergleichbarkeit zwischen verschieden normierten Test ist jedoch gegeben!
  • Was ist der Abweichungs-IQ faktisch, auch wenn von einem "Intelligenz-Quotienten" gesprochen wird? Ein Standardwert
  • Was lässt sich über den aktuellen IQ, im Hinblick auf die Statistik und Normierung sagen? -> Die Verwendung von Normierungsverfahren ist derzeit allgemeiner Brauch! Da der IQ von vielen Faktoren (genetisch, umweltbedingt) abhängt, folgt aus dem Zentralen Grenzwertsatz (=Theorem der mathematischen Statistik), dass der IQ annähernd normalverteilt ist.
  • Was kann bei Kenntnis von Mittelwert (M) und Standardabweichung (s) der Normalverteilung (NV) für jeden IQ sofort angegeben werden? Wie viel Prozent % der Population im Test gleich gut sind bzw. schlechter/ besser abschneiden.
  • Inwiefern schränkt die Kompensationsmöglichkeit schlechter Subtestleistungen durch gute Subtestleistungen die Aussagekraft ein? Weil darin gerade die Leistungsstärken bzw. -schwächen in Teilbereichen der Intelligenz zum Ausdruck kommen, welche für potentielle Interventionsmaßnahmen von entscheidender Bedeutung wären →Intelligenz sollte mehrdimensional betrachtet werden ("Struktur der Intelligenz") um feinere Differenzierungen zu erkennen; IQ = sehr grobes Globalmaß der Intelligenz, reicht bei diagnost. Fragestellungen meist nicht aus!
  • Was versteht man unter der "Struktur der Intelligenz"? Eine mehrdimensionale Betrachtung um feinere Differenzierungen zu erkennen.
  • Um welche Art von Testverfahren handelt es sich in Bezug auf Anzahl der Vpn, bei Binet und Stern? Und worin besteht dabei die Notwendigkeit? Um sogenannte Individual-Tests, da damit nur eine Testperson auf einmal untersucht werden kann; zudem ist die handhabung durch einen erfahrenen Testleiter notwendig (-> Einzeltestung)
  • Welche Notwendigkeit brachte der Eintritt der USA in den 1. WK mit sich? Um hunddertausende Rekruten verschiedenen Waffengruppen zuzuordnen  (sog. Screenig-Verfahren zur Grobklassifizierung), wurden die ersten Gruppen-Tests entwickelt: Der Army-Alpha-Test und der Sprachfreie Army-Beta-Test, diese Tests konnten simultan eine große Zahl von Probanden vorgegeben werden und waren ökonomisch in Herstellung und Auswertung. --> erst derartige Testentwicklungen ermöglichten empirisch-differentialpsychologische Forschung!
  • Wann spricht man von einem „Experiment“? Wenn man unter kontrollierten Bedingungen eine AV untersucht (z.B. Konzentrationsleistung), wobei die Vpn (Untersuchungseinheiten) den UVs (=Versuchsbedingung/ Treatment z.B. Lärmbelastung) randomisiert zugewiesen werden. -> Entscheidend = Randomisierung = kausale Ergebnisinterpretation möglich!
  • Wann spricht man von einem Quasi-Experiment? Bei einem Studium von Phänomenen (AV) unter kontrollierten Bedingungen, wobei Untersuchungseinheiten (Vpn) den UV nicht randomisiert zugeteilt werden (können); Daher Auswahl aus „vorgegebener Gruppenzugehörigkeit“ (z.B. Patientengruppe mit unterschiedlicher Diagnose/ Geschlecht). ->  keine Kausalinterpretation möglich!  
  • Für was stellt die Varianz ein Maß dar? Die Varianz (s²) ist ein Maß für die Verschiedenheit (Variablilität) von Messwerten eines Merkmals (Variable) in einer Stichprobe. s² umso größer, je mehr Werte vom Mittelwert abweichen, also je unterschiedlicher die Messwerte!    
  • Was sagt der Korrelationskoeffizient (r) – Korrelation – aus? Er ist ein Maß für die Stärke eines linearen Zusammenhangs zwischen zwei Variablen (X und Y) -> Zähler = „mittleres Abweichungsprodukt“ (Kovarianz) -> Nenner = Produkt der Standardabweichungen  
  • Warum können signifikante Korrelationen nicht kausal interpretiert werden? Weil der Korrelationskoeffizient keine Informationen über die folgenden Kausalinterpretationen liefert: X beeinflusst Y Y beeinflusst X X und Y werden von einer dritten/ weiteren Variable beeinflusst X und Y beeinflussen sich wechselseitig kausal -> Korrelation = notwendige Bedingung, aber keine hinreichende Voraussetzung für eine kausale Abhängigkeit!
  • Was ist mit Koinzidenzen gemeint und welche Funktion haben sie? Korrelationen sind nur als Koinzidenzen zu interpretieren, sie liefern Hinweise für mögliche kausale Beziehungen, die dann in sorgfältig kontrollierten Experimenten überprüft werden können.
  • Was ist bei korrelationsstatistischen Überprüfungen von Zusammenhangshypothesen besonders wichtig? Die Stichprobe muss tatsächlich die gesamte Population repräsentieren für die das Untersuchungsergebnis gelten soll, ansonsten kommt es zu drastischen Verzerrungen der Korrelationen und damit zu falschen Schlussfolgerungen -> Korrelationen = stichprobenabhängig  
  • Wie sieht eine Varianzzerlegung aus und wozu dient sie? Es lässt sich untersuchen inwieweit ein kausaler Zusammenhang zwischen zwei Variablen (z.B. Körpergewicht und -größe) besteht oder auch nicht; die Gesamtvarianz wird in zwei additive Komponenten („Varianzanteile“) zerlegt, um so die Abschätzung prozentueller Varianzanteile zu ermöglichen       
  • Nennen einen weiteren wichtigen Nutzen der Varianzzerlegung? Es lassen sich Anlage- und Umweltvarianzanteile (kurz: V(A), V(U)) an der Gesamtvarianz eines Merkmals „M“ (s²(M)) schätzen.    
  • Welche Voraussetzungen sollten für eine Varianzzerlegung gegeben sein? - Kein Zusammenhang zwischen den beiden Varianzen (d.h. r(A,U) = 0) - Fehlerfreie Messung/ Erhebung des Merkmals „M“  
  • Wer beschrieb als erster den sog. Regressionseffekt (bzw. Regression zur Mitte) und was ist damit gemeint? Galton (1886), beschrieb damit einen „Rückschritt“, nicht die statistische Vorhersage. Ein Weitspringer der z.B. zu Beginn eine außerordentlich gute Leistung vollbringt wird mit hoher Wahrscheinlichkeit diese Leistung nicht halten können; vielmehr werden sich die Ergebnisse gemäß der NV, im mittleren Bereich anhäufen (=Durschnitt) = „Zur Mitte regredierend“, da die Rahmenbedingungen wie z.B. Rückenwind etc. permanent variieren.
  • Warum ist die Kenntnis des Regressionseffekts wichtig? Um Planungsfehler bei der Stichprobenauswahl bzw. -zusammensetzung in psychologischen Experimenten zu vermeiden.
  • Anhand welcher Forschung stellte Galton den Regressionseffekt fest? Er beschrieb den Effekt erstmals in Zusammenhang mit der Vererbung von Intelligenz; hochintelligente Väter haben im Gruppendurchschnitt ebenfalls hochintelligente Söhne, aber nicht im selben Ausmaß wie ihre Väter -> die guten Bedingungen in der Extremgruppe der Parentalgeneration sind mit höherer Wahrscheinlichkeit in der Filialgeneration nicht gegeben.      
  • Was bedeutet Regression zur Mitte nicht? Es bedeutet NICHT, dass die Streuung des Merkmals kleiner wird, weil ja nicht alle Messwerte zum Mittelwert tendieren -> es findet letztlich nur ein Austausch zwischen extremeren und mittleren Positionen statt!  
  • Warum kann EINE Messwertänderung in Richtung EXTREMPOSITION mehrere Änderungen zur MITTE aufwiegen? Weil die Varianz ein quadratisches Streuungsmaß ist. (Viele kleine Änderungen, wiegen eine extreme auf)
  • Was für ein Verfahren stellt die Faktorenanalyse (FA) dar? Sie ist ein Verfahen zur Informationsverdichtung (wissenschaftl. Ökonomisierung) mit dem Ziel, die, einem Variablensatz (= manifeste Variable) zugrunde liegende Dimension (= latente Variable bzw. Konstrukte, Faktoren, Eigenschaften), rechnerisch zu ermitteln. 
  • Was ist der Ausgangspunkt der Faktorenanalyse? Ausgangspunkt sind standardisierte Variablen und deren Interkorrelationen (Korrelationen zwischen allen Paaren von Variablen -> sog. Interkorrelationsmatrix).
  • Was ist eine Interkorrelationsmatrix? Korrelationen zwischen allen Paaren von Variablen in einer FA.
  • Was versucht die Faktorenanalyse zu erklären und wie? Die FA versucht die (linearen) Zusammenhänge (Interkorrelation), die zwischen Variablen bestehen, einfacher zu erklären, indem diese Zusammenhänge auf wenige gemeinsame Faktoren zurückgeführt werden.
  • Da es bei der FA darum geht, die Varianzanteile der verschiedenen Variablen zu bestimmen, muss zuerst was getan werden? Die Varianzen müssen "vereinheitlicht" werden, mittels Standardisierung - dies geschieht ohne Informationsverlust, weil Korrelationen gegenüber linearer Messwerttransformation invariant sind. -> z-Transformation
  • Wie sieht eine Messwerttransformation aus und welche Eigenschaften hat sie? Z = (X-AM)/σx -> Z hat AM = 0 und Varianz = Standardabweichung σ = 1
  • Wie sieh eine lineare Messwerttransformation aus und welche Eigenschaften hat sie? Es handelt sich um eine z-Transformation:Z = (X-AM)/ σx -> Z hat nun Mittelwert = 0 und Varianz = Standardabweichung (σ) = 1
  • Was ist mit der Aufgabe der FA gemeint, "Gemeinsames" von "Speziellem" zu trennen? Ziel ist es, dass jeder Faktor die maximale gemeinsame Varianz (von Tests oder Items) erklärt, die noch nicht durch andere Faktoren erklärt worden sind.
  • Was ist mit "orthogonale" Faktoren gemeint? In der FA werden die Faktoren üblicherweise so bestimmt, dass sie miteinander nicht korrelieren = "orthogonale" Faktoren. 
  • Was ist mit Ladungszahlen gemeint? Die Varianzanteile der Faktoren einer FA entsprechen sog. Ladungszahlen (aji² = Varianzanteil des j-ten Faktors an Variable Xi).
  • Auf was kann aus den der Größe nach geordneten Ladungszahlen (kurz: Ladungen) rückgeschlossen werden? Es kann auf die inhaltliche Interpretation des jeweiligen Faktors rückgeschlossen werden z.B. in Diagramm S.41 wird Faktor 1 durch Xi und Faktor 2 durch Xl inhaltlich "determiniert".
  • Was ist wenn gleich viele Faktoren "extrahiert" wie Variablen in die Analyse aufgenommen wurden? Dann kann zwar die "Gesamtvarianz" durch die Faktoren erklärt werden, aber eine Informationsverdichtung hat nicht stattgefunden. -> Also ist zu fordern: m < k  m = Anzahl der Faktorenk = Variablen
  • Wie viel beträgt die Gesamtvarianz in einer FA bei k = 11 Variablen? σ²ges = k = 11, weil Variablen standardisiertt sind und jeweils Varianz = 1 ist; die Items werden aufsummiert!
  • Auf wen geht das Multiple FA-Modell zurück und wer hat es weiterentwickelt? Garnett (1919) hat es erfunden und Thurstone (1935) hat es weiterentwickelt.
  • Wie sieht die Bestimmungsgleichung für eine Variable Xi aus? Xi = ai1F1 + ai2F2 + aijFj + ... + aimFm + aiSi+εi F1...Fm -> "Common Factors" (latente Eigenschaften)Si -> spezifischer Faktor des Tests Xiεi -> Fehlerterm des Test Xi
  • Auf welche drei Arten können die Ladungszahlen aij (bzw. deren Quadrant) interpretiert werden? aij = Gewicht des Faktors Fj für die Variable Xi aij = Korrelation des Faktors Fj mit der Variable Xi aij = Varianzanteil der i-ten Variablen, der durch den j-ten Faktor erklärt wird
  • Nenne die zwei Typen der FA und deren jeweilige Zielsetzung? Exploratische FA: Diese soll die latente Faktorenstruktur einer Menge korrelierender Variablen "erkunden".Spezielles Vorwissen a-priori (z.B. zur Höhe von Ladungen auf Faktoren) besteht nicht.Das Vorgehen ist also deskriptiv-explorierend = hypothesen generierend Konfirmatorische FA:Diese hat zum Ziel, eine a-prori bestehende Faktorenstruktur (z.B. aus Literatur bekannt) auf Verträglichkeit mit neuen empirischen Daten zu prüfen. Das Vorgehen ist hypothesengeleitet, inferenzstatistische Schlussfolgerungen sind möglich.Die Konfirmatorische FA sagt jedoch nichts aus darüber, ob eine gefundene Faktorenstruktur auch die einzig gültige Struktur ist
  • Über was macht die Konfirmatorische FA, in Bezug auf die Faktorenstruktur, keine Aussagen? Die Konfirmatorische FA sagt jedoch nichts aus darüber, ob eine gefundene Faktorenstruktur auch die einzig gültige Struktur ist
  • Wie nennt man es, wenn a) alle Items auf EINEN Faktor laden b) alle Items nur auf EINEN VON MEHREREN Faktoren laden c) manche Items auch auf MEHRERE Faktoren laden d) eine zweite Ordnungsebene hinzukommt? Unkorrelierte Faktoren:a) Generalfaktorenmodellb) Gruppenfaktorenmodell korrelierende Faktoren:c) Modell gemeinsamer bzw. multipler Faktorend) Faktoren zweiter bzw. höherer Ordnung
  • Welche zwei konkurrierenden Testtheorien gibt es zurzeit? Klassische Testtheorie (KTT) seit 1920 Item Response Theorie (IRT) seit 1960