Psychologie (Fach) / Forschungsmethoden der Psychologie (Lektion)
In dieser Lektion befinden sich 205 Karteikarten
Karten zu Kurs 3401
Diese Lektion wurde von Annkathete erstellt.
- Y.2.08. Wie verläuft die Bildung von Faktoren aus vielen Einzelvariablen und wozu dient die Synthetische Variable ? Man errechnet, wie hoch die vorhandenen Variablen jew. miteinander korrelieren. Dann wird eine synthetische latente Variable konstruiert, die mit allen anderen Variablen so hoch wie möglich korreliert. Diese synthetische Variable wird dann unser Faktor.
- Y.3.02. Crossed legged panel Design erlaubt die Vielfalt der bei Korrelationen möglichen Kausalitäten einzuschränken. Im Längsschnittdesign werden mindestens zwei Variablen zu zwei verscheidenen Messzeitpunkten erhoben. X t 1 X t 2 Y t1 Y t 2 (dazwischen überkreuzte Linien) Es lassen sich - zwei synchrone Korrelationen x (nach unten) zu y synchron zum früheren Zeitpunkt und x (nach unten) zu y synchron zum späteren Zeitpunkt - zwei Autokorrelationen früheres y zu späterem y und früheres x zu späterem x - zwei zeitverzögerte Kreuzkorrelationen früheres x mit späterem y und früheres y mit späterem x berechnen. Konkurrierende Korrelationen können nun anhand der überkreuzenden Pfade gegeneinander ausgewertet werden. Bestimmte Kausalmodelle können anhand des Designs auch ausgeschlossen werden. Bsp.: hoher Kaffeegenuss X vermindert Alzheimer Y Korrelation je mehr Kaffee desto weniger Alzheimer wird stärker zum zweiten Zeitpunkt also ist die umgekehrte Hypothese unwahrscheinlicher dass die Alzheimer Veranlagung das Kaffeeverlangen nach oben treibt.. Allgemein: Durch welches korrelative Muster kann die Hypothese: x beeinflußt y plausibler werden? Der Zusammenhang zwischen x und y sollte größer sein als zwischen y und x. Dies ist entscheidend,denn wahrscheinlich geht dann der kausale Effekt von x nach y. (es könnte ja auch umgekehrt sein) Der Zusammenhang zum Zeitpunkt t 1 könnte zusätzlich enger sein als zum Zeitpunkt t 2, entscheidend ist aber der vorherige Satz. Die Kreuzrelation: "Früheres x zu späterem y" sollte größer sein, als "früheres y zu späterem x".
- Y.3.01. Sechs mögliche Kausalmodelle für eine bestehende Korrelation mit 2-4 Variablen. 1. x beeinflusst y 2. y beeinflusst x 3. x und y beeinflussen sich wechselseitig 4. x beeinflusst eine dritte Variable z die ihrerseits y beeinflusst. (z mediiert den Zusammenhang zwischen x und y) 5. x und y werden durch eine dritte Varaible z beeinflusst. 6. w als vierte Variable beeinflusst y. Hierüber wird y indirekt und x direkt beeinflusst. Kausalmodelle dienen bei korrelativen Designs der Falsifisierung. Anstatt direkten Kausalzusammenhängen wird dann z.B. eine Mediation durch eine zusätzliche Variable als wahrscheinlich erachtet etc...
- Y.1.09. Kanonische Korrelation kanonische Korrelation vermutet wechselseitige Abhängigkeit zweier Gruppen vonVariablen und in der Psychologie de fakto sehr selten.
- Y.2.09. Mediatoranalyse, Mediatoreffekt Bedingungen nach Baron und Kenny (vereinfacht) Die Mediatoranalyse prüft, ob ein Zusammenhang zwischen zwei Variablen vollständig oder teilweise durch eine dritte Variable vermittelt wird. - Prädiktor mit Mediator sowie Mediator mit Kriterium sind korreliert, damit ein Effekt messbar wird. - Ein Mediatoreffekt liegt vor, falls, wenn man in der Regressionsgleichung die Wirkung des Mediators mitberücksichtigt, die Wirkung des Prädiktors kleiner wird, als wenn man dies nicht macht. - Ein vollständiger Mediatoreffekt läge vor, wenn der Einfluss der Prädikator-Variable nach Abzug des Einflusses der Mediator-Variable gleich Null wäre.
- Y.3.03. Pfadanalytisches Modell Es erlaubt, die Vielfalt der bei Korrelationen möglichen Kausalitäten einzuschränken. Das Modell verdeutlicht direkte und indirekte Zusammenhänge zwischen Varaiblen mittels Pfaden, die entweder direkt zum Kriterium führen, oder durch weitere Variablen unterbrochen /mediiert werden.
- 9.1.2. Nicht Aussagen Konzeption / non statement view nach Sneed und Stegmüller Der Strukturkern einer Theorie enthält allgemeine Gesetze, dazu gibt es Nebenbedingungen die alle Anwendungen miteinander verbinden und die Menge der intendierten Anwendungen, die eine offene Menge darstell. Die nicht Aussagen Konzeption (non statement view) ist ursprünglich auf Physikalische Theorien bezogen. Herrmann hat Teile davon auf die Psychologie übertragen. Merker: Im Gegensatz zur Aussagenkonzeption von Hempel werden hierTheorien nicht als "Mengen von Aussagen" sondern als eine Art Struktur oder Netz für mögliche Anwendungen beschrieben.
- Y.3.04. Strukturgleichungsmodelle Bezeichnung für eine Gruppe von Verfahren. Ein Strukturmodell ist ein Pfadmodell. Es gibt darin immer ein Strukturmodell und mehrere Messmodelle. Strukturgleichungsmodelle Verdeutlichen Zusammenhänge zwischen mehreren latenten Variablen (Konstrukten, Faktoren) und mehreren Messverfahren. Verdeutlichen Messfehler etc.
- Y.3.05. Was ist hierarchische moderierte Regression? In der hierarchischen, moderierten Regression werden Interaktionseffekte im Rahmen von Moderatorhypothesen untersucht.
- Z.05. Was ist eine Q-Korrelation ? Die Q-Korrelation (Stephenson,1952) ist eine idiographische Methode der Datenanalyse, wenn intraindividuelle Merkmale / mehrere Merkmale innerhalb einer Person interessieren. Intrapersonelle Merkmalskonstellationen werden zu verschiedenen Zeiten erfasst. Es geht um die Stabilität bzw. Veränderung der relativen Positionen von Merkmalen innerhalb eines individuellen Variablen-Profils über die Zeit. Innerhalb des Konzepts der Differenziellen Stabilität kann man, im ideografischen Fall, mit Hilfe der Q-Korrelation messen. Hierbei werden n Probanden über m Merkmale korreliert.Die Anzahl der Merkmale (m) ist dabei höher ist als die Anzahl der Probanden (n). Die Q-Korrelation wird beispielsweise zur Prüfung der Übereinstimmung von Profilen verwendet.
- Z.02. Inkrementelle Validität Inkremens = Zuwachs "Zuwachsvalidität" Inkrementelle Varianzaufklärung betrifft die zusätzliche Vorhersageleistung, dann, wenn ein Verfahren zusätzlich zu einem anderen Verfahren eingesetzt wird. Bsp: Ein Interview wird zusätzlich zu Noten erfasst, um den Berufserfolg oder die Eignung für einen bestimmten Studiengang vorherzusagen.
- Z.00 Was ist die sogenannte Mittelwertsfalle? Aggregierte Mittelwerte dürfen nicht auf einzelne Personen übertragen werden, um eine Vorhersage zu machen. Man kann nicht anhand eines Mittelwertes, der etwas über eine Population aussagt, Schlüsse ziehen, die eine einzelne Person betreffen. Etwa ob Person A mit 60prozentiger Wahrscheinlichkeit von einem Medikament profitieren wird, oder ob Herr M. mit 70prozentiger Wahrscheinlichkeit straffällig werden wird.
- Z.01. Was ist die sogenannte Korrelationsfalle ? Korrelativen Ergebnissen der Aggregatsebene. z.B. "Gute Schulnoten korrelieren positiv mit Berufserfolg" werden falsch und unangessenen ideografisiert. Die dort gefundenen Zusammenhänge gelten für die Aggregatsebene und sind nicht ohne weiteres auf Individuen übertragbar.
- Z.03. Repertory Grid Technik (Rep-Test) Der Rep-Test ist ein Beispiel für idiographische Methoden von George Kelly (1955) Er dient der Erfassung des Konstruktsystems einer Persondurch dichotome Schemata (mit je einem Ähnlichkeitspol und Kontrastpol für jedes Merkmal /Konstrukt) Die Merkmale werden von den Probanden selbst erstellt und ihnen persönlich bekannten Personen zugeordnet. Die Intensität der Merkmalsausprägung in positiver und negativer Ausprägung kann -1 bis +3 sein. Auch sich selbst weißt jeder Proband zu jeder Eigenschaft eine Ausprägung zu jedem Merkmal zu. 3 Schritte - Auswahl von 15-20 Elementen (Personen) die für den interessierenden Gegenstandsbereich repräsentativ und für die Versuchsperson persönlich bedeutsam sind. - Erhebung der personalen Konstrukte durch Vorgabe der ausgewählten Elemente: Dyaden-oder Triadenvergleich (sich selbst mit einem oder zwei anderen Personen) - Einschätzung der Elemente auf dem erhobenen Konstrukt.
- Z.04. Wie wird der Repertory Grid Technik (Rep-Test) in Bezug auf Inkrementelle Validität beurteilt ? Repertory Grid Technik im Vergleich mit BIG FIVE Tests Stuiden erkennen einen Gewinn an Vorhersage durch den Rep-Test Die Studie von Grice (2004) wertet beispielsweise aus: Die idiosynkratischen Selbstbeschreibungsdimensionen des Gridtests gehen über die nomothetische Dimensionen von Persönlichkeitstest mit den BIG FIVE hinaus. Studie von Watson und Watts (2001)Es besteht, wenn emotionale Labilität vorhergesagt werden soll, bei Anwendung der Repetory Grid Technik erhöhte inkrementelle Validität personaler Konstrukte, im Vergleich zu konventionell erfassten Persönlichkeitsmerkmalen. (Inkrementelle Validität: "Zuwachsvalidität" durch weiteres Verfahren)
- Z.06. Konzept der differentiellen Stabilität - Im Nomothetischen Fall: zeitliche Stabilität interindividueller Unterschiede. Vergleich mehrerer Personen. Bleiben sie auf denselben relativen Positionen innerhalb einer Gruppe? Die Positionen mehrere Personen werden in ihrer zeitlichen Beständigkeit erfasst. Hierzu dient die Retest-Korrelation. - Im Ideografischen Fall: werden intrapersonell, innerhalb einer Person, die Merkmale und ihre Positionen in ihrer zeitlichen Stabilität betrachtet. Hierzu dient die Q-Relation.
-
- Z.07. Wie kann man Einzelfalldiagnostik kurz beschreiben ? Einzelfalldiagnostik dient der Erfassung von Merkmalen einer Person mit standardisierten diagnostischen Instrumenten (Tests, Fragebögen) Ausprägungen von Merkmalen innerhalb Vergleichsdimensionen werden erfasst (anstatt idiosynkratischer Merkmale wie z.B. beim RGT) Beispiel: Person X hat im Hamburg Wechsler Intelligenztest einen IQ von 113 erreicht. Test-Werte können dann weiter interpretiert und gedeutet werden.
- Z.09. Welche Problematik besteht in der Einzelfall Diagnostik beim Umgang mit Testwerten ? Problematisch ist: Der individuelle Testwert ist fehlerbehaftet, bei unzureichenderReliabilität des zugrundeliegenden Tests (in der Psychologie recht oft der Fall) Falsch wäre dann:Die Gleichsetzung des beobachteten Testwerts mit dem wahren Wert des Probanden. Richtig :Einen Unsicherheitsbereich festzulegen, in dem der wahre Wert vermutet werden kann. Hierzu dient das Konfidenzintervall mit vorab festgelegter Irrtumswahrscheinlichkeit auf der Basis des Standardmessfehlers.
- Z.08. Fragestellungen der Einzelfalldiagnostik (4 Punkte) - Unterscheidet sich ein individueller Testwert von einer Vergleichs- oder Normstichprobe ? (z.B. „Ist Person a überdurchschnittlich extravertiert, intelligent etc.?“) - Unterscheiden sich die Summenscores von zwei Probanden voneinander? (z.B. "Ist Person a intelligenter als Person b?") - Unterscheiden sich die zu verschiedenen Zeitpunkten erhobenen Summenscores einer Person voneinander ? (ist z.B. ihre Merkfähigkeit nach einem Treatment bedeutsam höher als vorher?) Um festzustellen ob ein Wert signifikant höher / niedriger ist, werden Standardmessfehler und die kritische Differenz berücksichtigt. - Unterscheidet sich das Test-Profil einer Person über die Zeit ? Interpretation von Testprofilen wie dem BIG FIVE Profil: Merkmale in ihrer Position über die Zeit gleich oder verändert?
- Z.1.0. Merkmale /Charakteristika qualitativer Methodologie Offenheit im Hinblick auf die Theorie, auf untersuchte Personen, auf die Erhebungssituation bleibt man offen für Entwicklungen.Die Weiterentwicklung hypothetischer Aussagen und deren Auswertung ist möglich. Kommunikativität Erhebung in natürlichen Alltagssituationen Interpretativität Interpretation und Typisierung von Deutungen der Alltagswelt
- Z.1.2. Was ist charakteristisch für den Forschungsprozess innerhalb des Qualitativen Paradigmas? Der Forschungsprozeß innerhalb des Qualitativen Paradigmas Populationsauswahl: Ein Theoretisches Sampling anstatt eines statistischen Samplings wird angewandt. Das bedeutet, dass je nach Fragestellung möglichst extreme, gegensätzliche oder ähnliche Einzelfälle ausgewählt werden. Hieraus will man dann gleichartige oder kontrastierende Handlungsmuster / Profile identifizieren. Datenerhebung: Erhebungstechniken mit kommunikativem Schwerpunkt: Interviews, Gruppendiskussion und auch Beobachtung. Ziele der Auswertung des Materials: Ziel ist es, neue Ideen und Theorien zu generieren. Komparative Kasuistik: Hypothesengenerierendes Verfahren, bei dem ein breites Feld interindividueller Unterschiede von Vorteil ist. Typen, gemeinsame Merkmale der Einzelfälle und neue Hypothesen werden gesucht und verglichen. Kommunikative Herausarbeitung in einem Forschungsteam.
- Abduktion Hypothetischer Schluss vom Einzelnen und einer Regel auf eine Regelmäßigkeit. Ich versuche einen einzelnen Sachverhalt zu klären, indem ich ihn mit einer Regel zusammen bringe, die dazu passt.
- 5.00. Überblick über alle empirisch analytischen Ansätze (Aufzählung 6 Ansätze) Naiver Empirismus / Induktivismus Logischer Empirismus Kritischer Rationalismus, Falsifikationismus (Popper) Raffinierter Falsifikationismus (Lakatos) Methodologie wissenschaftlicher Forschungsproramme (nach Imre Lakatos) Domain Programme und Quasi Paradigmen (Theo Herrmann)
- X.12.01 Welche Aufgaben haben Zuordnungsregeln bei der Messtheorie Zuordnungsregeln bei der Messtheorie dienen - der Ermittlung empirischer Relationen zwischen den zu messenden Objekten - Mit Hilfe geeigneter Zuordnungsregeln sollen Objekten Zahlen zugewiesen werden, deren Relationen den empirischen entsprechen. - Festzustellen: Welche Vorraussetzungen muss eine empirische Relation erfüllen, damit man überhaupt Zuordnungsregeln definieren kann? - Messtheorien erarbeiten auch die Zuordnungsregeln.
- X.12.02. Was ist ein empirisches Relativ? Empirisches Relativ: Besteht aus einer Menge von Objekten oder Personenund ihren Relationen zueinander.Diese Menge enthält die Objekte welche gemessen werden sollen. Bsp. Eine Menge an Probanden für die verschiedene Kriterien erhoben und gemessen werden sollen, zum Bsp. Einkommen und Bildungsstand.
- X.12.03. Welche beiden wichtigen Arten von Relationen zwischen Merkmalen sind beim Messen zu unterscheiden? Äquivalenzrelation und Ordnungsrelation Äquivalenzrelation: Verschiedene Objekte weisen hinsichtlich eines Merkmals eine gleichwertige Aussprägung auf. gekennzeichnet durch: ~ Ordnungsrelation: Ein Merkmal ist bei einem Objekt stärker ausgeprägt als bei einem anderen. (Rangordnung) Gekennzeichnet durch: > Bsp. für Emprirische Äquivalenzrelationen: gleich groß, gleich schwer Bsp- für Empirische Ordnungsrelationen: ist weniger extravertiert, länger, älter, schwerer...
- X.12.04. Was sind die drei Kardinalprobleme des Messens ? - Repräsentationsproblem: Kann eine homomorhe Abbildung gefunden werden? Ist das Merkmal überhaupt messbar? Kann für das jeweilige empirische Relativ eine homomorphe Abbildung gefunden werden? Die Repräsentation empirischer Objektrelationen erfolgt durch die Relationen der Zahlen, die den Objekten zugeordnet werden. Die Zuordnung der Zahlen zueinander soll die Objektrelationen des empirischen Relativs korrekt darstellen.Eine Abbildung mit dieser Eigenschaft nennt man homomorphe Abbildung. Z.B. Keine Rangfolge bei Intransitivität bzw. bei dichotomen Merkmalen, Namen...etc. Diese Repräsentation kann auf unterschiedlichen Skalenniveaus erfolgen. - Eindeutigkeitsproblem betrifft mögliche Transformationen Die Eindeutigkeit der Abbildungsfunktion muß bei Transformationen erhalten bleiben. Eine Transformation ist nur dann zulässig, wenn sich das Verhältnis der Messwerte durch die Transformation nicht ändert, also eindeutig bzw. invariant (unverändert) bleibt. Die Menge der zulässigen Transformationen ist bei Messungen auf Ordinalskalenniveau größer, weil nur der Rang erhalten bleiben muss. Multiplikation mit konstanten, positiven Zahlen ist möglich (auch Addition, Quadrieren) Lösung des Eindeutigkeitsproblems: Angabe der zulässigen Transformationen. Zulässige Transformationen sind abhängig vom Skalenniveau. - Bedeutsamkeitsproblem betrifft zulässige math. Operationen Welche mathematischen Operationen mit Messwerten führen zu empirisch sinnvollen Aussagen? Die Addition nominalskalierter Messwerte führt z.B. nicht zu sinnvollen Aussagen (Bsp.: CDU + CSU + FDP)Die Addition ordinalskalierter Messwerte führt auch nicht zu sinnvollen Aussagen, somit ist hier keine Mittelwertsbildung möglich.Die Addition verhältnisskalierter Messdaten führt dagegen schon zu sinnvollen Aussagen (Anzahl X gelöster Aufgaben von Person A + B..+ Z ~ Y gelöste Aufgaben) ~ : Aquivalent
- X.12.04.01. Was sind sogenannte "Per fiat- Messungen" ? Per fiat- Messungen Man vertraut darauf, dass ein Messinstrument das jeweilige Merkmal auf einem bestimmten Skalenniveau erfasst. Empirische Überprüfungen von Axiomen werden selten durchgeführt, da dies vom Verfahren her aufwendig und meistens kaum möglich ist. Messungen in der Psychologie beziehen sich meistens auf Konstrukte, auf latente Variablen, die nicht direkt beobachtbar sind, wie Persönlichkeitsdimensionen und IntelligenzEs kann keine Transitivität nachgewiesen werden
- X.12.04.02. Was ist Transitivität ? Transitivität / transitive Relation ist die Vorraussetzung für eine Äquivalenzrelation oder eine Ordnungsrelation. Transitivität muss gegeben sein, damit ein Merkmal mindestens auf Ordinalskalenniveau messbar ist. Bsp. A>b und b>c, also a>c Negativbeispiel: Messung der Spielstärke eines Fussballteams Team A schlägt Team B. Team B hat Team C geschlagen. Dies bedeutet jeddoch nicht, dass Team A auch Team C schlägt.
- X.12.04. Messen: Was sagt uns die Varianz? Die Varianz s² ist ein Streungsmaß und zeigt also die Unterschiedlichkeit oder Streuung von Werten an. Reliabilität wird theoretisch als das Verhältnis der Varianz der wahren Werte zur Varianz der Testwerte definiert.
- X.12.05. Psychometrische Tests Psychometrische Tests als geläufige psychologische Messinstrumente sind standardisierte Verfahren zur Erfassung latenter Variablen Die zu messenden Merkmale von Personen sind also nicht direkt beobachtbar. Beobachtbarer Indikator ist das Antwortverhalten der Probanden. Psychometrische Test bestehen aus sogenananten Items (einzelne Testfragen oder Testaufgaben)Unterscheiden werden Leistungstests und Persönlichkeitstests Ein Rohwert wird bei beiden Test ermittelt und entspricht der Anzahl der richtigen Lösungen bzw. dem Grad der zustimmenden /ablehnendenAntworten bei allen Items, die das selbe Merkmal messen sollen. Bei Rating-Skalen: Zuordnung von Zahlen zum Grad der Zustimmung / Ablehnung in Bezug auf eine Aussage. Rohwert = Summierung der Zahlen aller Items. Aus diesem Rohwert wird anhand von Normen z.B. ein IQ-Wert errechnet. Diese Normen wurden anhand von Stichproben mit sehr großer Anzahl anProbanden als Maßstäbe entwickelt.
- X.12.1.2. Welche Arten von Objektivität unterscheiden wir beim Messen und Testen ? Wie kann man sie sicherstellen ? Durchführungsobjektivität Sind die Testergebnisse von unabhängig von Verhaltensvariationen des Untersuchers während der Testdurchführung ? Sicherung durch: Präzise Manuals für die Testleiter (auch Verhalten u. Ausdruck betreffend) Minimale soziale Interaktionen zwischen Testleiter und Proband Auswertungsobjektivität Kommen verschiedene Anwender anhand der Auswertung der Antworten von Probanden jeweils zum gleichen Testergebnis ? Interpretationsobjektivität Können verschiedene Anwender aus dem gleichen Testergebnis die gleichen Schlüsse ziehen? Divergierende Interpretationen werden durch die Angabe von Normen vermieden. Normen werden anhand eines Vergleichsmaßstabs auf Grundlage repräsentativer Stichproben erhoben. Für Subgruppen gibt es eigene Normen zur detaillierteren Beurteilung der Testwerte. Repräsentative und differenzierte Normen reichen nicht zwingend aus, um eine hohe Interpretationsobjektivität zu gewährleisten. Standardisierte Interpretationsvorgaben (wie etwa zur Zuordnung eines bestimmten IQ-Werts in Bezug auf die Eingnung für einen spezifischen Studiengang) sind meistens nicht vorhanden. In Anbetracht der vielen möglichen Anwendungsbereiche vieler Tests, wäre dies auch kaum möglich.
-
- Y.01.6. Retest-Reliabilität Die Retest Reliabilität ist eine von mehreren Methoden zur Relaibilitätsmessung. Retest-Reliabilität bezeichnet den Grad der Übereinstimmung der Testergebnisse an den selben Probanden und mit dem selben Test bei mehreren Testungen.Der Wert für die Reliabilität wird ausgedrückt durch den Korrelationskoeffizienten der beiden Testungen. Hierbei sind Reliabilitäten größer als 0,80 erwünscht. Beeinflusst werden kann die Reliabilitätsmessung durch Lerneffekte und Reifungseffekte, welche die vorraussgesetzte Stabilität eines gemessenen Merkmals beeinflussen können.(Scheinreliabilität).Weitere Methoden zur Reliabilitätsmessung sind die Paralleltest-Reliabilität, die Split-Half-Methode und die Interne Konsistenz.
- X.12.000 Was ist Messen? Was ist das Ziel des Messens? Was ist Messen? - In allen emp. Untersuchungen erhobene Daten sind das Ergebnis von Messungen. - Messung beziehen sich auf Variablen. - Variable: Menge der möglichen Merkmalsausprägungen, mit mindestens zwei Ausprägungen (z.B.: Geschlecht, Anzahl richtiger Antworten etc.) bis hin zu unendlich vielen Ausprägungen eines Merkmals Ziel des Messens - Ziel ist Ermittlung der Ausprägung von Merkmalen, welche bei bestimmten Objekten zu (einem) bestimmten Zeitpunkt(en) gegeben sind. - Die jeweilige Merkmalsausprägung wird durch Zahlen ausgedrückt. Messen besteht also in der Zuordnung von Zahlen zu Personen oder Objekten. Zahlen können sehr präzise Darestellungen ermöglichen, denn sie ermöglichen feine Differenzierungen zwischen Merkmalsausprägungen. - Nur einzelne, definierte Eigenschaften werden gemessen- Jede Messung erfordert Zuordnungsregeln !
- X.12.02.1. Was ist ein numerisches Relativ ? Beim Messen soll die im empirischen Relativ vorhandene Ordnung in einem numerischen Relativ auszudrückt werden. Wenn dies gelingt, kann von einer homomorphen Abbildung gesprochen werden. Ein numerisches Relativ besteht aus einer Menge Zahlen und einer bestimmten Anzahl definierter Relationen zwischen diesen Zahlen. Es stellt eine also Menge von Zahlen dar, die über eine Relation definiert wird. Bsp. Zahlenwerte, die wie vorher festgelegt, den Grad der Ausprägung von Gewissenhaftigkeit ausdrücken, eine metrische Skala auf einem Lineal, die natürlichen Zahlen....
- X.12.02.2. Was ist eine Skala ? Als Skala bezeichnet man das numerische Relativ, (also eine Menge von Zahlen mit bestimmten, definierten Relationen zwischen diesen Zahlen) welches bei einer homomorphen Abbildung resultiert.
- x.12.002 Was ist die Grundannahme der klassischen Testtheorie / Messtheorie (Wenn wir an den Messfehler denken?) Grundannahme der klassischen Messtheorie X = T + E X = Messwert einer Person in einem Test T = der “wahre”, tatsächliche Wert E = Messfehler : ein Zufallsfehler bzw. unsystematischer Fehler Je größer der Messfehler, desto geringer ist der wahre Merkmalsanteil und desto weniger zuverlässig misst ein Test. Ausmitteln von Messfehlern: Durch Mehrfachmessung entweder bei vielen Individuen oder mehrfach bei ein und derselben Person mit jew. anschlisßender Mittelwertsbildung
- X.12.4.2. Beschreibung der drei Arten von Validität. Kontentvalidität (Inhaltsvalidität): (Können meine Items das Konstrukt fassen?) Erfassen die vielfältigen Items das Kontrukt, z.B. Intelligenz oder Rechenfähigkeit vollständig? Kontentvalidität soll theoriegeleitet durch den Experimentator beurteilt werden. Eine quantitative, objektive Feststellung ist nicht möglich. Die Güte der Kontentvalidität wird daher meist auf Basis subjektiver Expertenurteile abgeschätzt. Mögliches Vorgehen zur Entwicklung eines validen Tests: Zunächst erfolgt die Sammlung vieler Items, mit denen das interessierende Merkmal ausdrückt werden kann. Aus diesen Items wird eine repräsentative Teilmenge ausgewählt. Gerade bei komplexeren Konstruken ist es meist nicht möglich, ein repräsentatives Item-System zu erstellen, welches das Konstrukt vollständig und erschöpfend erfasst. Kriteriumsvalidität (man braucht ein Aussenkriterium) Hier verwendet man ein zusätzliches Außenkriterium zur Einschätzung der Validität. Der Zusammenhang mit den Testergebnissen und einem Kriterium außerhalb der Testsituation wird eingeschätzt, bzw. geschaut, ob beide hoch korrelieren. Die Übereinstimmung wird dann über den Korrelationskoeffizienten ausgedrückt. Problematisch ist häufig das Finden einer geeigneten Kriteriumsvariable Zur Sicherheit sollten daher mehrere Aussenkriterien angewendet werden.Bsp. Beim Messen des Konstrukts "Erschöpfung" kann zusätzlich zu einer Selbsteinschätzung im Fragebogen, auf psycho-physiologische Tests zurückgegriffen werden. Weiter kann z.B. die Übereinstimmung der ermitelten Werte, mit Kriterien schon vorhandener möglichst valider Test ermittelt werden. Hohe Korrelation ist erwünscht. Man unterscheidet die Kriteriumsvalidität zusätzlich danach, wann das gewählte Kriterium erhoben wurde: Kriteriumsvalidität: - Übereinstimmungs- oder Konkurrente Validität Wenn das zusätzliche Aussenkriterium zeitgleich mit der Testung vorliegt. (Depressionstest A mit Interwiev B) und - Prädiktiver oder prognostischer Validität / Vorhersagevalidität wenn das zusätzliche Aussenkriterium durch die Testung vorrausgesagt werden soll (Intelligenztestung ------ mit Schulabschluss, Abschlussnote: korrelieren) Konstruktvalidität: (Passt mein Verfahren zu gegebenen Theorien und zu anderen Verfahren?) Die Konstruktvalidität gibt an, inwieweit ein Test oder Erhebungsverfahren ein interessierendes Merkmal so misst, dass es mit bestehenden Konstruktdefinitionen und Theorien übereinstimmt. Ein Test oder ein Erhebungsverfahren sollte in ein theoretisches Konzept eingebettet sein und mit bestehenden Theorien übereinstimmen. Die Items des Testes das Merkmal erschöpfend erfassen. (s. a. Kontentvalidität) Je mehr Hypothesenprüfungen erfolgreich verlaufen sind, desto überzeugender ist die Annahme, der Test sei valide. Zusätzlich kann man Konstruktvalidität mittels folgendem Vergleich mit anderen Methoden und anderen Konstrukten ableiten: Diskriminante Konstruktvalidität: Zwei Methoden, messen unterschiedliche Konstrukte. Die Ergebnisse demnach auch wenig übereinstimmen, wenn aus diesem Vergleich heraus Konstruktvalidität ermittelt werden soll. Beispielsweise sollte ein IQ-Test ein anderes Konstrukt erfassen als ein Aufmerksamkeitstest. Konvergente Konstruktvalidität: Zwei Methoden messen dasselbe Konstrukt. Konvergente Konstruktvalidität besteht in diesem Fall dann, wenn sie dieses übereinstimmend messen. Zwei Konzentrationstest erfassen übereinstimmend das Konstrukt Konzentration.
- X12.02.3. Was ist eine Abbildung ? Als Abbildung wird innerhalb der der Messtheorie eine Zuordnung von Zahlen und Objekten bezeichnet.Beim Messen, wird ein empirisches Relativ in ein numerisches Relativ abgebildet.Jedem Objekt aus dem empirischen Relativ wird genau eine Zahl aus dem numerischen Relativ zugeordnet. Die Zuordnungsregel wird als Abbildungs-Funktion bezeichnet. Homomorphe Abbildung: Von dieser spricht man, wenn sich die Relationen zwischen den Messobjekten des empirischen Relativs in den Relationen zwischen den ihnen zugeordneten Zahlen wiederfinden.
- Y.2.06. Was versteht man unter Regression zur Mitte und wie ist diese zu erklären ? Die Regression zur Mitte wird auch statistische Regression genannt. Mn versteht darunter das Phänomen, dass nach einer Messen mit extremen Messwerten diese Werte bei der zweiten Messung meist wieder näher am Durchschnitt liegen. Besonders hohe und niedrige Messwerte sind auch durch Zufall und Messfehler beeinflusst.Durchschnittliche Ergebnisse sind auf Dauer wahrscheinlicher als Extremwerte. Besonders oft bei der Untersuchung von "Extremgruppen" Z.B. bei Schülern, die alle im Vortest eine extrem schlechte Deutscharbeit geschrieben hatten und nach einem Lerntraining eine bessere Note erreichten: Auch deshalb, weil es unwahrscheinlicher ist, ständig schlechte Noten zu schreiben. Das Ansteigen oder Absinken von Extremwerten im Posttest geht also nicht immer allein auf ein Treatment zurück.
- X.17.06.03. Was sind Ex-post-facto-Designs ? Sie kommen dann zum Einsatz, wenn in einer Untersuchung weder die Anforderung für experimentelle noch jene für quasi-experimentelle Untersuchungen erfüllt sind. Unabhängige wie abhängige Variablen werden gemessen und Störvariablen können nicht kontrolliert werden. Ex-post-facto-Designs machen daher nur korrelative Aussagen möglich. Methodik der Datenerhebung ist meistens die Befragung. Durch entsprechende Auswahlverfahren werden Generalisierungen möglich. Längsschnitt- und Querschnittstudien sind möglich. In denSozialwissenschaften sehr verbreitete Untersuchungsform.
- Z.1.3. In welchen primären Zielen zeigt sich die besondere Verantwortung der Psychologen in den ethischen Richtlinien der DGP und des BDP? (Präambel der ethischen Richtlinien) Das Berufliche Handeln von Psychologinnen u. Psychologen in Lehre und Forschung ist geprägt von Verantwortung gegenüber den Menschen. Würde und Integrität des Individuums sind zu beachten. Kenntnisse und Fähigkeiten sind zum Wohle des einzelnen und der Gesellschaft einzusetzen Das Wissen über den Menschen soll vermehrt werden. (Zuverlässiges, valides, wissenschaftlich fundiertes Wissen) Psychologen verpflichen sich zu Sachlichkeit und Objektivität Zur kontinuierlichen Fortbildung und Einhaltung des neuesten Stands wissenschaftlicher Erkenntnis. Und zur Verhinderung von Missbrauch eigener Kenntnisse und Fähigkeiten.
- Z.1.4. Gemeinsame ethische Richtlinien des BDP und der GDPs : Was besagt der erste ethische Grundsatz für die Forschung? Die Besondere Verantwortung von Psychologinnen u. Psychologen den Menschen gegenüber gilt auch in der Forschung. Verpflichtung, Würde und Integrität sowie Sicherheit und Wohl der Versuchspersonen sind zu gewährleisten und mögliche Risiken sind auszuschließen.
- 6.1.2. Empirischer Gehalt / Informationsgehalt einer Theorie (im kritischen Rationalismus) Empirischer Gehalt / Informationsgehalt einer Theorie: Die Menge ihrer Falsifikationsmöglichkeiten. Eindeutigkeit und Präzision sind Kriterien für die Falsifizierbarkeit einer Theorie.
- 6.1.3.Fortschritt in der Wissenschaft (im kritischen Rationalismus): Problem---Spekulation---Falsifikation---neue Spekulation---Falsifikation---neue Probleme und Spekulationen…
- 8.2.3. Vier Adäquatheitsbedingungen für Explikate (nach Carnap) : Vier Adäquatheitsbedingungen für Explikate (nach Carnap) : - Ähnlichkeit mit dem Explikandum: Explikat muss in den meisten Fällen, in denen bisher das Explikandum verwandt wurde, anwendbar sein - Exaktheit: präzise Gebrauchsregeln und Anwendungsvorschriften - Fruchtbarkeit: Explikat führt zu allgemeinen Aussagen und macht neue Beziehungen deutlich, die mit dem Explikandum nicht deutlich geworden wären - Einfachheit (nachgeordnet)
- 8.2.4. Wie unterscheiden sich Definition und Explikation voneinander? Wie unterscheiden sich Definition und Explikation voneinander? - Definition: Einem neuen Zeichen wird eine bestimmte Bedeutung zugeordnet. - Explikation: basiert auf bereits gebräuchlichen Zeichen, die eingegrenzt und präzisiert werden Definition und Explikation werden oft fälschlich synonym verwendet. Bsp. "Mehrere Definitionen" des Begriffs Persönlichkeit müsste eigentlich: "Mehrere Explikationen des Begriffes" heißen. Ein per definitionem eingeführter Begriff kann im Laufe der Zeit weiter expliziert werden, was evtl. zu einer Veränderung seiner Kernintension führt Für ein- und dasselbe Explikandum kann es mehrere Explikata geben, die zueinander in Konkurrenz stehen u. verschiedene theoretische Positionen widerspiegeln. Abweichende Explikata sind problematisch, wenn sie etwa für praktische Fragestellungen eine Rolle spielen u. Entscheidungen vorbereiten die unterschiedliche Konsequenzen bewirken. Im Extremfall können z.B. verschiedene med. Diagnosen resultieren.
- X12.3.1. Was ist Retest-Reliabilität (Testtheorie, Reliabilität, Schätzmethoden) Eine von vier Methoden zur Schätzung der Reliabilität Retest-Reliabilität: Ein und derselbe Test bei den gleichen Probanden. Besonders für die zeitliche differenzielle Stabilität und Transsituative Konsistenz, etwa bei Persönlichkeitstests. Ergebnisse dieser Schätzungen sind als Reliabilitäts-Koeffizienten quantifizierbar und liegen dann zwischen 0 und 1. Ein guter Wert liegt über 0,8. Störanfällig über die Zeit, durch Lern und Wachtsumseffekte. Eine von vier Methoden zur Schätzung der Reliabilität. Weitere: Interne Konsitenz/Cronbachs Alpha, Paralleltestmethode und Split Half Methode. (Testtheorie, Reliabilität, Schätzmethoden)
- X.12.3.2. Paralleltestmethode (Testtheorie, Eine von 4 Schätzmethoden zur Reliabilität) Paralleltestmethode: Ein ähnlicher Test wird mit gewissem zeitlichen Abstand der selben Probandengruppe vorgelegt. Die Test sind theoretisch dann parallel, wenn sie dieselben wahren Werte und Fehlervarianzen aufweisen Eine von vier Methoden zur Schätzung der Reliabilität, weitere: Interne Konsistent (Cronbachs Alpha), Split Half Methode und Retest Reliabilität.
- X.12.3.3. Split Half Methode (Eine von vier Methoden zur Schätzung der Reliabilität) Split Half Methode Der Test mit seinen Items wird in zwei gleich große Hälften aufgeteilt. Wie korrelieren die beiden Hälten miteinander? Eine von vier Methoden zur Schätzung der Reliabilität, weitere: Paralleltestmethode, Interne Konsistent (Cronbachs Alpha) und Retest Reliabilität.
-