Psychologie (Fach) / Forschungsmethoden der Psychologie (Lektion)

In dieser Lektion befinden sich 205 Karteikarten

Karten zu Kurs 3401

Diese Lektion wurde von Annkathete erstellt.

Lektion lernen

  • Hypothesenarten Welche 4 Grundtypen? (zum Kapitel: Idealtypischer Ablauf einer empirischen Untersuchung) 4 Typen von Hypothesen (nach Bortz/ Döring/Schuster)               (und zwei weitere Arten von Hypothesen) 1. Unterschiedshypothesen : Bsp: Männer und Frauen unterscheiden sich im Ausmaß sozialer Angst 2. Zusammenhangshypothesen: Bsp: Es besteht ein Zusammenhang zwischen sozialer Angst und Redeangst 3. Veränderungshypothesen: Bsp.: Redeangst läßt sich über ein Trainingsprogramm reduzieren. 4. Hypothesen in Einzelfall-Untersuchungen: Herr X hat Redeangst und zeigt deshalb Vermeidungsverhalten : dies ist gleichzeitig eine (Kausalhypothese): macht Aussagen über die Ursachen/Gründe (Aggregatshypothesen): machen Aussagen über Eigenschaften einer Population (Klasse, Kollektiv) als Ganzes Bsp: s. Unterschiedshypothese  
  • X.10.2. Tools-to-Theories Heuristik Kapitel: Heuristiken zur Generierung von Theorien und Hypothesen Tools-to-Theorie- Theorie von Gerd Gigerenzer Analogieschluss, methaphorische Übertragung eines Merkmals oder einer Struktur aus dem Bereich der "Tools" auf den Bereich der "Theories." Bsp: - In der Computer Analogie von Paul Thaggard (2005): Menschlicher Geist wird als informationverarbeitendes System konzipiert. - George A. Kellys Persönlichkeitstheorie: "Der Mensch als Wissenschaftler"  
  • X.10.0. Heuristiken: 5 Kategorien zur Generierung von Heuristiken als Findungsmethode für neue Theorien und Hypothesen. 1. Sensitivität gegenüber außergewöhnlichen und /oder provozierenden  Phänomenen                                                           Beispielhafte Frage: Manche Menschen entwickeln sich trotz Traumatisierungen in der Kindheit unerwartet stabil, warum? 2. Einfache konzeptuelle Analysen: Manipulationsmethoden an bestehenden Hypothesen. Gedankenexperimente, z.B. durch Inversion der Kausalitätsbeschreibung an einer bestehenden Hypothese: Bsp: Anstelle von: - Ein hoher Konsum gewalttätiger PC Spiele erhöhet die Agressivität -   / - Agressivität erhöht den Konsum gewalttätiger PC Spiele - 3. Komplexe konzeptuelle Analysen: Verbindungen innerhalb unterschiedlicher, heterogener Studien suchen etc. 4. Reinterpretation bestehender Forschungsergebnisse: Z.B. wenn sich Ergebnisse verschiedener Studien zu einer Fragestellung wiedersprechen. Methodiken interpretieren und bewerten. 5. Datensammlung und Reanalyse bestehender Datensätze            Eine Übersicht zu bestehenden Untersuchungen schreiben, diese zu einem Gesamtbild verbinden etc.  
  • Idealtyischer Ablauf einer empirischen Untersuchung (mit Vor- und Nachbereitung) : Überblick mit 7 Punkten 1. Wahl einer Forschungsfragestellung 2. Theoretische Einbettung und Ableitung von Hypothesen 3. Operationalisierung und Untersuchungsplanung 4. Durchführung der Untersuchung und Datenerhebung 5. Datenanalyse und Hypothesenprüfung 6. Interpretation und Diskussion 7. Präsentation und Publikation
  • Operationalisierung was ist das? Die Festlegung von Beobachtungs- und Meßvorschriften, mit denen Indikatoren für hypothetische Konstrukte erfasst werden können.
  • X.11.3. Diagnostische Instrumente und Test, wo finde ich Informationen ? Dokumentationen u. Informationen über diagnostische Instrumente und standardisierte psychlogische Tests findet man unter: -Brähler, Hollig, Leutner und Petermann (2002) - www.gesis.org Leibniz-Institut für Sozialwissenschaften                        ("Unser Angebot"  "Studien planen") - PSYNDEX-Tests - www.dgps.de/fachgruppen/diff-psy/frames/frame-instrumente.html (Deutsche Gesellschaft für Psychologie)
  • Treatments sind...? nicht nur Trainings- oder therapeutische Maßnahmen, Interventionsmaßnahmen, sondern ebenso alle Reizkonstellationen und situative Bedingungen die als unabhängige Varible wirken können.
  • Setting (was ist das?) (Festlegen eines Untersuchungsdesigns) Ort und Kontext einer Untersuchung: mit all seinen physikalischen, räumlichen ökologischen und sonstigen Bedingungen die potentiellen Einfluss auf die Durchführung der Datenerhebung haben könnten. Setting Labor, Setting im Feld (z.B. ein Fußballstadion)
  • Festlegen eines Untersuchungsdesigns Welche Punkte sind zu beachten? (6) Punkte: Probanden,Treatment, Setting, Zeitlicher Ablauf, Statistisches, Ethische Aspekte   Probanden:                                                                                                        Sollen Populationshypothesen geprüft werden? Welche Probanden repräsentieren am besten das Aggregat ?                   Kann ich auf eine sogennate Gelegenheitsstichprobe zurückgreifen?  (Studenten)                                                                                                      Sind, etwa für sozialpsychologische Fragestellungen, großangelegte Untersuchungen  einer Institution oder Organisation wie des Sozio-ökomenischen Panels (SOEP), das vom Deutschen Institut für Wirtschaftsforschung durchgeführt wird, nötig? Treatment:                                                                                                     Kann es systematisch variiert werden; Kontrollruppe / Gruppe mit Treatment? Oder ist das nicht möglich (aufgrund der Fragestellung etc.) Sind Störvariblen kontrolliert?                                                                   Ist Schulung der Versuchsleiter nötig / erfolgt? Setting:                                                                                                               Labor oder Feld?                                                                             Hoher/niedriger Kontrollfaktor, Künstlichkeit?                                             Ist Messäquavalenz gegeben? je nach Kontext, in dem untersucht wird? Zeitlicher Ablauf:                                                                  Wann zu welchen Zeitpunkten - nur zu einem oder zu mehreren- sollen Merkmale erhoben werden? Statistisches                                                                                          Wie werden die Daten analysiert? Ethische und rechtliche Aspekte  
  • Protokollvalidität 3 mögliche Probleme (zu Datenquellen, Datenerhebungsinstrumente, Datenaufbereitung) Protokollvalidität  (Kurtz u. Parrish 2001) Ein Problem, dass speziell bei Online Studien betrachtet werden muss. Die Protokollvalidität ist gefährdet, wenn: a)  Fragebogen wird oberflächlich und wenig aufmerksam bearbeitet b)  Proband schätzt sich absichtlich falsch ein c)  Proband verfügt nicht über die notwendigen sprachlichen Kompetenzen
  • Skalenhandbuch Erhobene Informationen müssen in einer Untersuchung so transformiert werden, dass sie in Auswertungsprogramme wie SPSS oder R eingegeben und weiter verarbeitet werden können. Hierzu erfolgt die Zuordnung von Symbolen (meist Zahlen) zu Variablen und Merkmalsausprägungen. Diesen Prozess nennt man Codierung, er ist oft mit einem Verlust an Detail-Informationen verbunden. Mittels Skalenhandbüchern ist die Bedeutung jedes Zeichens für andere Benutzer nachvollziehbar.  
  • MCAR Test (zu Datenquellen, Datenerhebungsinstrumente, Datenaufbereitung) (Little u. Rubin 1987) MCAR bedeutet:  "missing completely at random" Test um Probanden zu identifizieren, die Teile des Tests (ganze Abschnitte oder Seiten) eines Fragebogens nicht bearbeitet haben. Diese können dann bei der Auswertung herausselektiert werden Zufällig fehlende Werte können dagegen ersetzt werden: sie werden mit Hilfe von Algorythmen (z.B. über SPSS) geschätzt bzw. "imputiert".
  • Statistische Hypothese Statistischer Test Diese beeinhalten ein Hypothesenpaar: Nullhypothese: besagt, ein bestimmter Zusammenhang oder Unterschied besteht nicht und  Alternativhypothese: besagt, dass ein Zusammenhang / Unterschied besteht. Ziel eines statistischen Tests ist die Ablehnung bzw. zunächst vorläufige Verwerfung der Nullhypothese. Wenn diese nicht verworfen werden kann besteht aber kein Anlass, davon auszugehen, dass die Gültigkeit der Nullhypothese belegt werden konnte.   siehe auch: Signifikanz, Fehler 1.und 2. Art
  • Summenscore (Bildung von Skalenwerten) Mittel zur computergesteuerten Auswertung von Untersuchungen Ergebnisse von Einzelfragen geben Auskunft über einen Indikator. Summenscores decken dann ein Bedeutungs- bzw. Einstellungsfeld ab. Sie bilden also Variablen, die aus den Ergebnissen mehrerer Fragen zusammengestellt sind.   Für Psychologische Konstrukte, z.B. Persönlichkeitsmerkmale, werden meistens verschiedene Items zu einem Skalenwert aggregiert.
  • Interpretation und Diskussion der Ergebnisse von Untersuchungen - Zahlen interpretieren - Feststellen: wird die Nullhypothese verworfen? - Sprachliche Umformung der Ergebnisse - Interpretation im Rahmen des theoretsichen Bezugsrahmens - Vergleich der eigenen Befunde mit den Ergebnissen vorangegangener  Untersuchungen. - Die einzelnen Schritte der Untersuchung abschnittsweise abklopfen: a) Bezüglich möglicher Einfluss- und Störfaktoren b) Bezüglich der Unterschiede zu anderen Studien -  In Anbetracht der eigenen Ergebnisse Vorschläge zur Weiterentwicklung  des methodischen Vorgehens machen (Erhebungsinstrumenten, Untersuchungsdesign) - Vorschläge zur Modifikation des verwendeten theoretischen Bezugsrahmens machen  
  • Präsentation und Publikation, grobe Darstellungsstruktur Einführung Methodik Ergebnisse Diskussion Literaturverzeichnis  
  • X.12.00. Drei Kardialprobleme des Messens, Aufzählung. 1. Repräsentationsproblem 2. Eindeutigkeitsproblem 3. Bedeutsamkeitsproblem  
  • X.12.1. Drei Gütekriterien eines Tests / Untersuchung (Überblick) - Obkjektivität bezeichnet die intersubjektive Nachprüfbarkeit, die Unabhängigkeit von der Person, die den Test durchführt. Datenerhebungen werden durch Standardisierung und Transparenz. nachvollziehbar und wiederholbar /replizierbar.                                                                                   Unterschieden werden:                                                Durchführungsobjektivität                                                                             Auswertungsobjektivität                                                     Interpretationsobjektivität (basale Interpretation)                                                                        Erreichbar durch:                                                                               Standardisierung                                                                                 Archivierung Wiederholbarkeit (Transparenz)                                  Quantifizierung   - Reliabilität bezeichnet die Verlässlichkeit von Datenerhebungen, d.h. die Genauigkeit der Messung. Unterschieden werden Paralleltestreliabilität (u. Halbierungsmethode)                                    Interne Konsistenz (Cronbach AlphaKoeffizient)   Retestreliabilität                                                 - Validität gibt an, ob ein Verfahren die Merkmal misst, welches es messen soll.         Z B. das Merkmal Intelligenz beim Intelligneztest, Aufmerksamkeit beim Aufmerksamkeitstest etc. Es gibt allerdings hierfür kein quantitatives Maß. Weiter aufzuteilen ist sie in: Kontentvalidität / Inhaltliche Validität                                             Konstruktvalidität                                                                                             Kriteriumsvalidität   Validität ist wohl das wichtigste Testkriterium. Wenn ein Test nicht das Konstrukt misst, was er messen soll, ist auch nicht wichtig, ob er das objektiv und reliabel macht.
  • X.12.001. Drei Kardinalprobleme des Messens. Was bedeuten diese im Detail?   Repräsentationsproblem Messen soll eine homomorphe Abbildung eines empirischen Relativs in ein numerisches Relativ sein. -Wie läßt das empirische Relativ sich jeweils repräsentieren? Zunächst werden Axiome / Grundannahmen formuliert um die Eigenschaften des empirischen Relativs festzuhalten. Bildet das Empirische Relativ eine Rangfolge? Ist es transitiv oder nicht? (Transitiv: Wenn a größer b und b größer c, dann auch a größer c.) - Muss eine Rangfolge dargestellt werden? - Sind einfach dichotome Eigenschaften wie männl. weilbl. festzuhalten? (einfach durch die Zuordnung der Zahlen 1 und 2, Nominalskalenniveau)   Eindeutigkeitsproblem - Welche Transformationen der Messwerte sind möglich? - Je weniger Transformationen möglich sind, umso eindeutiger ist eine Messung - Die Möglichkeit der Transformation und das Skalennivea bedingen sich gegenseitig.   Bedeutsamkeitsproblem - betrifft den richtigen Umgang mit den Messdaten, die Interpretation und Weiterverwendung. - Wie komme ich mit den Meßwerten zu korrekten Aussagen ? - Welche statistische Verfahren können für die weitere Verwendung der Daten zum Einatz kommen? - Hängt eng mit dem verwendeten Skalenniveau zusammen.
  • 1. Fehler der Alltagspsychologie - Alltagssprache ist mehrdeutig und ungenau - Alltagspychologische Fehler beim Wahrnehmen - Alltagspychologische Fehler beim Erinnern - Alltagspychologische Fehler beim Denken   -Urteilsverzerrungen:                                                                                         Primacy Recency Effekt                                                                           Akteur Beobachter Fehler                                                                         Negativitätsbias (z.B. bei sozial ängstlichen Personen, "schwarzsehen")   - Fehler beim Umgang mit Wahrscheinlichkeiten                            Unzureichende Prüfung von Vermutungen                                             Suche v.a. nach Bestätigung bestehender Mutmaßungen, Überbewertung von Einzelfällen.  
  • 2. Abgrenzung Alltagspsychologie/Wissenschaft Psychologie Was macht die Psychologie anders? - Was versus Wie der Erkenntnisgewinnung Durch die Anwendung bestimmter Methoden werden bestimmte Aspekte der Realität in der Psychologie stärker hervorgehoben als in der Alltagspsychologie - Wissenschaftstheorie                                Wissenshaftstheorie: Was macht wissenschaftliches Arbeiten generell aus  Methologie: Teilgebiet, Fachspezifische Analyse und Lehre - Methologie der Psychologie                                                              Idealtypischer Anlauf mit Hypothesen und Ideengenerierung, Hypothesenableitung, Erfahrungsdaten-Erhebung,  Analyse und Interpretation der Daten.                                                                                        Es werden Methoden zur Ideengenese, zur Erhebung von Daten (Beobachtung, Befragung, Standardisierte Tests), Untersuchungsdesigns (Experiment, Korrelationsstudie, Einzelfallstudie) und Methoden zur Datenauswertung (beschreibende und schließende Statistik, Inhaltsanalyse) vorgestellt.
  • 3. Wissenschaftstheorie, dominierende Ansätze (drei) Als "Mainstream" dominieren: - Die analytische Wissenschaftstheorie - Der kritische Rationalismus seit einigen Jahren gewinnen auch - Sozial- Konstruktivistische Ansätze an Bedeutung
  • 5. Der naive Empirismus / Induktivismus Nenne 2 Prämissen und 3 Bedingungen Bei Vorliegen bestimmter Bedingungen kann von einzelnen Beobachtungsaussagen auf allgemeine Sätze geschlussfolgert werden. 2 Prämissen P1: Wissenschaft beginnt mit sorgfältiger BeobachtungP2: Beobachtungen beruhen auf sinnlicher Erfahrung 3 Bedingungen B1.Verallgemeinerungen müssen auf einer großen Anzahl von Beobachtungsaussagen beruhen.B 2. Die Beobachtungen müssen unter einer großen Vielfalt von    Bedingungen wiederholt worden sein.B 3. Keine Beobachtungsaussage darf im Widerspruch zu dem    entsprechenden allgemeinen Gesetz stehen Weg: -Beobachtungsaussagen                                                                             -Induktion -Gesetze und Theorien -Deduktion                                                                                                          -Erklärung und Vorhersage         
  • 4. Was ist Wissenchaft (Zitat nach Chalmers) "Wissenschaftliche Erkenntnis ist bewiesenes Wissen. Theorien werden nach einem strengen Verfahren aus der Erfahrung abgeleitet, die man durch Beobachtung und Experiment gewonnen hat. Wissenschaft beruht auf unserer Fähigkeit zu hören, zu sehen, zu fühlen usw. Persönliche Ansichten oder Vorlieben und Spekulationen sind in der Wissenschaft fehl am Platz. Wissenschaft ist objektiv. Wissenschaftliche Erkenntnis ist zuverlässiges Wissen, weil es objektiv überprüftes Wissen ist." (Chalmers)
  • 5.1. Kritik am naiven Empirismus / Induktivismus Was wird an den beiden Prämissen und an den drei Verallgemeinerungsbedingungen des Induktivismus kritisiert? Prämissen und Verallgemeinerungsbedingungen, des (naiven) Induktivismus sind falsch bzw. problematisch. P1: Wissenschaft beginnt nicht Beobachtung, sondern mit TheorieP2: Beobachtungen, die auf sinnlicher Erfahrung beruhen, sind keine sichere Basis für Erkenntnis. B1: Die Forderung nach einer möglichst großen Anzahl von Beobachtungsaussagen ist vage und zweifelhaft.B2: Die Forderung nach einer möglichst großen Bedingungsvariation der Beobachtungen ist ebenfalls vage.B3: Die Forderung, nach der keine Beobachtungsaussage im Widerspruch zu einem allgemeinen Satz stehen darf, ist unhaltbar. Das damit verbundene Induktionsprinzip lässt sich weder logisch noch erfahrungsbedingt begründen.
  • 6. Kritischer Rationalismus, 6 Bedingungen 1. Beobachtung ist theoriegeleitet und setzt Theorien voraus2. Theorien sind spekulative und vorläufige Vermutungen zur  Lösung von Problemen3.Theorien müssen nach strengen Kriterien durch Beobachtung und  Experiment überprüft werden4.Theorien, die der Überprüfung nicht standhalten, müssen durch neue Theorien ersetzt werden; nur die besten Theorien „überleben“5. Fortschritte durch Versuch und Irrtum; wir lernen aus Fehlern6. Grundsatz des Falsifikationismus: Durch Beobachtung kann nicht nachgewiesen werden, dass eine allgemeine Aussage wahr ist, aber es kann nachgewiesen werden, dass sie falsch ist!
  • 6.1. Falsifikation (Popper)  - Hypothesen können nicht verifiziert, aber falsifiziert werden-  Keine absolute Wahrheit und Gewissheit, aber mehr oder weniger     gute Bewährung einer Theorie (wird umso bewährter, je häufiger     Widerlegungsversuche scheitern) -  Voraussetzungen/Bedingungen: Theorien müssen falsifizierbar sein und empirischen Gehalt besitzen.       - Problem: Auch das Falsifikationsprinzip kann nur funktionieren, wenn     Beobachtungsaussagen / Basissätze zutreffend/sicher sind. Falsche     Beobachtungsaussage könnte eine möglicherweise richtige Theorie     widerlegen.    
  • 6.2. Raffininierter Falsifikationismus Imre Lakatos wollte Theorien gegen vorschnelle Falsifizierung absichern: Relativer statt absoluter FalsifizierbarkeitsgradDarum nicht mehr: „Wie falsifizierbar ist diese Theorie?“ oder „Ist diese Theorie falsifiziert worden?“ Sondern: „Ist diese neu vorgeschlagene Theorie ein tragfähiger Ersatz für die Theorie, die sie anficht?“ I.L. teilte zunächst Poppers Falsifikationismus mit 3 Phasen ein. Popper 0 (dogmatischer Falsifikationismus) Wissenschaft kann Theorien nur widerlegen. Voraussetzung sind wahre Basissätze Popper 1 (naiver Falsifikationismus):Theorien können nicht endgültig empirisch widerlegt werden.Aber: Basissätzen wird der Status „unproblematisch“ zugesprochen, d.h. sie sind zwar selbst nicht theoriefrei, gehören aber zu sicheren, unproblematischen, bewährten BeobachtungstheorienNaiv: Da auch Beobachtungstheorien unsicher sind. Die Falsifikation ist eigentlich nicht endgültig möglich. Popper 2 (raffinierter Falsifikationismus) enthält Lakotos Modifikationen - Eine Theorie T. ist wissenschaftlich, wenn sie gegenüber der Vorgängertheorie ein Mehr an empirischem Gehalt hat. - Die Vorgänger Theorie kann verworfen werde, sie ist falsifiziert wenn sich die  neue Theorie empirisch bewährt hat.      
  • 6.3. Methodologie wissenschaftlicher Forschungsprogramme nach Imre Lakatos Lakatos kritisierte Thomas Kuhns Paradigmen-Konzept. Paradigmen umgriffen mehr als einen Leitgedanken, seien komplex in ihrer Zusammensetzung. Verschiedene Forschungsprogramme können nach Lakatos rational verglichen werden und schliessen sich nicht aus. Der Ausdruck Paradigma sei zu ersetzten durch die treffendere Formulierung:                                                                                     Methodologie wissenschaftlicher Forschungsprogramme  Grundsätze: • Harter Kern: grundlegende theoretische Annahmen, die unfalsifizierbar gemacht werden                                                                      • Schutzgürtel: falsifizierbares Netz von Annahmen, die den harten Kern ergänzen (Hilfshypothesen, Beschreibung der Randbedingungen etc.) • Negative Heuristik: Forderung, dass während der Entwicklung eines Programms dessen harter Kern unangetastet bleibt. Konservatives, konventionelles Element. • Positive Heuristik: methodologische Hinweise zur Ergänzung des harten Kerns; was muss getan werden, um den widerlegbaren Schutzgürtel raffinierter zu gestalten: Hilfshypothesen, mathematische und experimentelle Techniken • Grund-Gedanke: Forschungsprogrammen muss Zeit und Gelegenheit gegeben werden, ihre Leistungsfähigkeit unter Beweis zu stellen. Strukturierung reduziert Falsifikationskomplexität.
  • 6.4. Welches sind die 6 Phasen der wissenschaftlichen Revolution nach Thomas Kuhn? 1. Protowissenschaft/ Vorparadigmatische Phase  Forschung eher als Einzelaktivität, gekennzeichnet durch Suche nach brauchbaren Methoden und Lösungswegen. 2. Normale Wissenschaft entweder nach einer wissenschaftlichen Revolution oder nach der Phase der Protowissenschaft:                   Starkes Netz begrifflicher, instrumenteller und methodologischer Art für die Scientific Community wird genutzt und nicht in Frage gestellt. Bestehende Paradigma liefert Probleme und Lösungswege mit. Paradigma legen aber auch die Sicht auf Phänomene fest. Dadurch werden lt. Kuhn aber auch v.a. die Phänomene gesehen, die in die Schubladen des Paradigmas passen. Wir lösen Rätsel und räumen auf im Sinne bestehender Paradigma. Aufmerksamkeitsfokus relativ klein. Aber Genauigkeit und umfassende Tiefe in den behandelten Teilgebieten. 3. Phase der Krise: Wichtige Rätsel können nicht mit dem bestehenden Paradigma gelöst werden. Hier und da werden Modifikationen am Paradigma angebracht. 4. Phase der Anomalien: Möglicherweise verläuft diese Phase schon parallel zur Phase der Krise. Man ist unzufrieden mit den Ad Hoc Modifikationen an der alten Theorie. (Modifikationen die angebracht werden, um zu verhindern, dass für Einzelfälle die ganze Therie verworfen wird) Zudem tauchen vermehrt Anomalien auf, Erscheinungen die mit bisherigen Paradigma nicht hinreichend zu erklären sind. Neue Theorien werden gesucht, neue Theorieanwärter  tauchen auf. 5. Wissenschaftliche Revolution: Krise des alten Paradigmas und neue Theorieanwärter ermöglichen die Revolution 6. Das Paradigma setzt sich durch und wird Grundlage einer neuen normalen Wissenschaft bis zur nächsten Revolution... Merke: die Krise kommt schon vor den Anomalien
  • 6.7. Was wurde an Thomas Kuhns Theorie kritisiert? Terminologie: Verwendung des Begriffs Pradigma mit verschiedensten Bedeutungen Zirkeldefinitionen: gemeinsames Paradigma ist was der Wissenschaftlergemeinschaft gemeinsam ist.  Eine Wissenschaftlergemeinschaft bildet, wer gemeinsam ein Paradigma hat. Kuhn reagierte und teilte auf in einen soziolgischen Begriff von Paradigma: disziplinäre Matrix und in einen wissenschaftlichen: Musterbeispiel Kuhns Theorie ist keine Historische Beschreibung sondern Wissenschaftstheoretisch: Dies wurde als Angriff auf die Rationalität der Wissenschaft gesehen: Ein Paradigma an sich kann lt. Kuhns Theorie innerhalb "normaler Wissenschaft" nicht korrigiert werden.
  • 6.8. Wo können in der Psychologiegeschichte Verbindungen zu Kuhns Phasenlehre hergestellt werden? Schmidt 1981, befürwortet eine Anwendung auf die Psychologiegeschichte: Geschichte der experimentellen physiologischen Psychologie beginnt mit einer Anomalie: Ende 18.jhdt. Astrononomische Beobachtungen in Greenwich, Abweichungen bei verschiedenen Beobachtern. Königsberger Astronom F.W. Bessel berechnete daraufhin die "persönliche Gleichung" - Mitte 19.Jhdt: Entwicklung genauerer Chronograph, Reaktionsexperimente - 1850 Helmholz: Leitungsgeschwindigkeit der Nerven - niederländischer Physiologe F. C. Donders: Reaktionsexperimente mit Lichreizen, Subtraktionsverfahren: Man zog Zeitunterschiede zwischen einfachen und komplizierten Reaktionen voneinander ab und glaubte so, die Zeiten rein physischer Prozesse berechnen zu können. - Wundt: Nutzte Subtraktionsverfahren weiter. Sein Verfahren der physiologischen Psychologie damals revolutionär. Schon Ende des 19.jhdt. etabliert. - Neuer Paradigmenwechsel erst wieder durch Gestaltpsychologie
  • 7. Begriff: Extension und Intension Extension: "Wie weit ertreckt sich der Begriff", d.h. welche Einheiten fallen unter diesen Begrif? Extension ist die Menge der Einheiten die unter den Begriff fallen. Intension: Der Begriffsinhalt, umfasst die Menge der Merkmale, die eine Einheit aufweisen muss, damit sie unter den Begriff fällt.  
  • 7.1. Vier mögliche Beziehungen zwischen Zeichen und Bedeutung 1. Ein- Eindeutig: ein bestimmtes Zeichen - eine bestimmte Bedeutung - Bsp.: Radium 2. Ein-Mehrdeutig: ein bestimmtes Zeichen - mehrere Bedeutungen, - Bsp.: Feder, Atlas (wie im Teekesselchen-Spiel) 3. Mehr-Eindeutigkeit: mehrere Zeichen - für eine Bedeutung (Synonyme) - Bsp.: Verstärkung und Bekräftigung, Ranzen und Schultasche 4. Mehr-Mehrdeutigkeit: mehrere Zeichen mit denselben, jeweils mehreren Bedeutungen Charakter, Selbst, Persönlichkeit, Ich-Identität, Ich, Identität (es kann problematisch werden, solche Konstrukte voneinander abzugrenzen)  
  • 7.2. Wann ist ein Begriff vage? Ein Begriff ist vage, wenn seine Extension und/oder seine Intension nicht genau bestimmt sind. - Extensionale Unbestimmtheit ist relativ unproblematisch, wenn ein ausreichendes Maß an intensionaler Bestimmtheit vorhanden ist. Die extensionale Ausweitung eines Begriffs kann eine Möglichkeit für die Wissenschaft bedeuten, neues Terrain sprachlich zu erfassen. Intensionale Unbestimmtheit würde bedeuten, dass die Attribute, Merkmale oder Eigenschaften, die eine Einheit aufweisen muss, um dem Begriff zugeordnet zu werden, eine zu große Menge bilden. Hier schlagen Groeben und Westermeyer ihr Konzept der Kern- und Randintension eines Begriffs vor.
  • 7.3. Kernintension und Randintension eines Begriffs Groeben und Westermeyer (1981) schlagen dieses Konzept zur Sicherung eines ausreichenden Maßes an intentionaler Bestimmtheit vor: Problematik: eine weite Extension eines Begriffs ist wissenschaftlich noch vertretbar, manchmal wünschenswert, eine weite Intension führt dagegen zur Vagheit eines Begriffs. Die Menge der Attribute die eine Einheit aufweisen muss, um unter den Begriff zu fallen wird dann zu groß, Begriffe werden vielfältig auslegbar. - Kernsintension: enthält die Attribute, die hinreichend sind, damit ein Element in die Extension eines Begriffs aufgenommen werden kann. - Randintension: enthält Attribute die zur weiter gefassten Intension eines Begriffs zählen können, jedoch nicht zur Kernintension. Groeben und Westermeyer: ".....Mehrdeutigkeit kann toleriert werden, wenn in jedem Kontext, in dem ein Zeichen begegnet, Eindeutigkeit gewährleistet ist. Vagheit im Sinne intensionaler Unbestimmtheit kann dagegen nur für die Randintension des betreffenden Begriffs toleriert werden. Für seine Kernintension ist völlige Bestimmtheit (zu jedem Zeitpunkt) unerlässlich."  
  • 8.0 Zwei Definitionskriterien nach Suppe Eliminierbarkeit: Das Definiendum kann durch das Definiens oder das Definiens durch das Definiendum ersetzt werden. Nicht Kreativität: bezieht sich auf das Einsetzten einer Definition in eine Theorie. Unter Hinzunahme der Definition zu einer Theorie darf nichts erschlossen werden, was nicht bereits ohne jene Definition erschließbar wäre. In die Theorie darf durch Hinzunahme der Definition keine zusätzliche Info "hineingeschmuggelt" werden. Sie soll die Theorie nicht erweitern, sondern zu ihrer Systamatisierung und besseren Strukturierung beitragen
  • 8.2. Explikation   Erklärung eines Begriffes durch Darstellung seiner Merkmale. Bei einer Explikation wird der Begriff weiterentwickelt, indem ein unexaktes Explikandum in ein exaktes Explikat überführt wird  
  • 8.1. Nenne zwei Definitionsgrundformen! Zwei Grundformen: 1. Vollstände Definitionen                                                             (darunter a) explizite Definitionen und  b) Kontextdefinitionen)                                                                                                                                   2. Partielle oder Bedingte Definitionen                                                             zu 1.: Vollständige Definitionen a) Explizite Definitionen Stellen Identität zwischen Definiendum und Definiens her, indem sie das neu eingeführte Zeichen mit bereits eingeführten Zeichen gleichsetzen. Bsp.: Belohnung ist per Definitionem: Die Anwendung eines positiven oder die Entfernung eines negativen Verstärkers. Bestimmte Begriffe wie z.B. hier "positiver / negativer Verstärker" werden als bekannt / bereits eingeführt vorausgesetzt. b) Kontextdefinitionen Geben adäquate Ausdrücke an, in denen das neue Zeichen vorkommt. In der Kontextdefinition tritt der definierte Begriff also nicht allein auf der linken Seite des Definitionsschemas auf, sondern in einem für ihn charakteristischen Kontext. Auch bei Kennzeichnungen, insbesondere Namensgebungen. Bsp.: „Sigmund Freud ist der Begründer der Psychoanalyse.“   zu 2.: Partielle und bedingte Definitionen Diese sind mit einer Bedingung verknüpft, die jeweils gelten muss, damit ein Begriff angewendet werden kann. Sie sind anwendbar, nur für den Fall, dass eine gewisse Vorbedingung erfüllt ist.  Bedingte und partielle Definitionen treten häufig in Form operationaler Definitionen auf.                            - operationale (bedingte) Definitionen   Begriff ist an eine (Prüf-) Bedingung geknüpft. Problem: Dabei weichen operationale Definitionen oft dem Problem der Bedeutungsgebung aus, indem sie Definitions- und  Feststellungsmethoden vermischen. Bsp.: HAWIE – Hamburg-Wechsler-Intelligenz-Test: Person X hat eine hohe HAWIE Intelligenz genau dann, wenn sie im HAWIE Test einen Wert über 110 Punkten erreicht.
  • 9.0. Theorie: Bildliche Beschreibung nach Hempel Verkürzt: Theorie schwebt als Netz mit Fäden und Knoten über der Ebene der Beobachtung. Knoten entsprechen theoretischen Begriffen, Fäden entsprechen zum Teil den Definitionen und sind zum Teil den Grundhypothesen und den abgeleiteten Hypothesen zugeordnet. Netz  theoretisches Netz, Theorie Durch Interpretationsregeln (Fäden die nicht zum Netz gehören) ist die Theorie mit der Beobachtungsebene verankert. Aufstieg von Beobachtungsdaten angefangen, über einen interpretativen Faden zu einem Punkt im theoretischem Netz, von da über Definitionen u. Hypothesen zu anderen Punkten und wieder hinab...
  • 9.1. Statement view / Aussagenkonzeption Welchen drei Sprachen werden drei Arten wisssenschaftlicher Aussagen zugeordnet ? Eine Theorie ist eine Menge von Aussagen (siehe hierzu auch: bildliche Beschreibung einer Theorie nach Hempel) Eine Theorie enthält gemäß der Aussagenkonzeption von Hempel theoretische (latente) Begriffe bzw. Konstrukte und Beobachtungsbegriffe. es werden drei Arten wissenschaftlicher Aussagen unterschieden, die sich drei Sprachen zuordnen lassen: Beobachtungssprache: zusätzlich zu logischen Zeichen enthält sie Aussagen mit Beobachtungsbegriffen (Ebene der Beobachtung) Theoretische Sprache: zusätzlich zu logischen Zeichen enthält sie Theoretische Begriffe, Konstrukte (bildet Netz mit Fäden und Knoten über der Beobachtungsebene) System der Zuordnungsregeln: zusätzlich zu logischen Zeichen enthält sie Aussagen mit Beobachtungsbegriffen und Theoretischen Konstrukten (bildet Interpretationsfäden zwischen Ebene der Beobachtung und theretischem Konstrukt)  
  • 9.3. Theorie: 10 Kriterien zu ihrer Bewertung nach Dennis u. Kitsch (2007) 1. Deskriptive Angemessenheit (DesriptiveAdequacy):                                              Stimmt die Theorie mit empirischen Daten überein? 2. Präzison u. Interpretierbarkeit (Precisoin an interpretability):                                           Ist sie gut verständlich? Keine Vagheiten und Mehrdeutigkeiten? 3. Kohärenz und Konsistenz (Coherence and consistency):                                             Innerer Zusammenhang und Widerspruchsfreiheit; entsteht ein zusammenhängendes / kohärentes Ganzes aus Theoriekomponenten?  Gibt es keine logischen Fehlschlüsse? Stimmt die Theroie mit anderen wichtigen Therien überein (biologische Gesetzmäßigkeiten) 4. Vorhersage und Falsifizierbarkeit (Prediction and Falsifiability):                                       Ist die Theorie falsifizierbar formuliert im Sinne des kritischen Rationalismus? Können empirische Ergebnisse sie theoretisch wiederlegen? 5. Erklärungswert (Postdiction and explanation):                                                               Vorhersagen für die Zukunft sind in der Psychologie nur eingeschränkt möglich.                 Jeddoch können dafür bereits eingetretene Phänomene erklärt werden? 6. Einfachkeit.(Parsimony)                                                                                         Phänomene sollten möglichst durch die einfachste theoretische Formulierung erklärt werden, wenn es funktioniert. Ockhams Rasiermesser, ein Sparsamkeitsprinzip aus der Scholastik des Mittelalters. 7. Originalität (Originality): Neu oder lediglich umformuliert? 8. Breite (Breadth): Anwendbar auf einen weiten oder nur engen Phänomenbereich  und ganz bestimmte Randbedingungen (Mini Theorie)? 9. Angewandte Relevanz (Usability): Nutzbar im angewandten Bereich der Psychologie? Für Lösungen sozialer und psychischer Probleme? 10. Rationalität: Werden sinnvolle Annahmen über den psychsichen Apparat gamacht, die einer evolutionären Sicht entsprechen? (Kriterium strittig, da die Evolutionstheorie vorausgesetzt wird)  
  • X.10. DN-Schmema (deduktiv nomologisches Modell) / Hempel Oppenheim Schema Das  DN Schema ist eine formale Struktur der wissenschaftlichen Erklärung eines Kausalzusammenhangs. Sowohl Gesetzmäßigkeiten wie auch Ereignisse lassen sich hiermit erklären.                                                 Fragestellung: Nach welchen allgemeinen Gesetzen und aufgrund welcher Vorbedingungen tritt das Phänomen auf? Das DN Schema besteht aus den Teilen: - Explanans  (Erklärung) Welsches sich aus allgemeinen Gesetzesaussagen und (empirischen)  Randbedingungen (Antecedensaussagen) als Prämissen zusammensetzt - Explanandum (dem durch Schließen zu erklärenden Satz)   * Gesetze und Theorien* Anfangsbedingungen/Randbedingungen-------------------------------------------------------------------------------------* Vorhersagen und Erklärungen
  • X.11. Modell probabilistischer Kausalerklärungen nach Humphreys (1989) Modell mit Listen von beitragenden und entgegenwirkenden Ursachen.   Y  in S zur Zeit t (tritt auf /liegt vor) aufgrund von F trotz I Y: bezieht sich auf eine Eigenschaft oder die Änderung Eigenschaft.          ( ähnlich wie die vorhergesagte "abhängige Variable") S: bezieht sich auf ein System F: bezieht sich auf zu Y beitragende Ursachen                                   (ähnl. "unabhängige Variable") I: bezieht sich auf ggf. Y entgegen wirkende Ursachen. Probabilistische Ursachen erzeugen Änderungen in der Auftretenswahrscheinlichkeit der Wirkung. F/I sind bedeutsam, denn sie tragen zur Auftretenswahrscheinlichkeit bei oder wirken ihr entgegen. F und I stehen für Listen, die nicht vollständig sein müssen und im Zuge weiterer Forschungen erweiterbar sind. I kann auch leer sein.
  • X.11.2. Multikausale Bedingtheit psychischer Phänomene/ Biopsychosoziales Modell In weiten Bereichen der Psychologie haben sich die Annahme multikausaler Bedingtheit und das Biopsychosoziale System durchgesetzt. - Das Biopsychosoziale Modell besagt, dass psychische Phänomene von  biologischen, psychologischen und sozialen Bedingungen abhängen können. - Diese Multikausalität passt zu Humphreys Modell der probabilistischen Kausalerklärungen mit Listen von beitragenden Ursachen (F-Liste) und entgegenwirkenden Ursachen (I-Liste). Beispiel für Listeninhalte nach Humphreys Modell: F Liste: Bedingungen, die zu Redeängstlichkeit (Y) beitragen. Bei Redeängstlichkeit z.B der Negativitätsbias.                                           I Liste: Bedingungen die Y entgegen wirken. Bei Redeängstlichkeit bspw. die Tatsache, dass eine Person eigentlich schon viele positive Redeerfahrungen gesammelt hat.  
  • 5.2. Der logische Empirismus Logischer Empirismus: (Wiener Kreis, u.a. Carnap) Wissenschaft beginnt NICHT mit der Erfahrung, sondern mit theoretischen Konzepten (Unterschied zum naiven Empirismus) Das Induktionsprinzip ist eingeschränkt Es wird nicht mehr aus Beobachtungen von Einzelfällen auf Naturgesetze geschlossen, sondern es soll die Gültigkeit von hypothetischen Vorhersagen aufgrund von früher gewonnenen Beobachtungen begründet werden. Verifikationsprinzip: Hypothesen sollen empirisch verifiziert werden. Je häufiger eine Hypothese bestätigt wird, desto höher ihr Vorhersagewert.
  • X.11.1. Wann kann ein Ereignis im Sinne des DN-Modells als Ursache betrachtet werden? (3 Punkte) Wir nehmen ein Ereignis A an, das auf Ereignis B wirkt. Von einer Ursache ist dann auszugehen, wenn. 1. A zeitlich vor B liegt 2. A und B kovarieren 3. Für das Auftreten von B nur das Eintreten von A verantwortlich ist.  
  • 8.0. Was ist eine Definition ? Definieren: Prozess bei dem einem sprachlichen Ausdruck eine exakte Bedeutung gegeben wird. Das Resultat heißt dann Definition.                   Die Kernintension eines Begriffs (siehe auch Kern und Randintension Groeben & Westmeyer 1981) kann durch eine Definition festgelegt werden. Das Definiendum ist der zu definierende Ausdruck. Das Definiens ist der Ausdruck, mit dem er definiert wird. Beide sollen äquivalent sein.
  • Interpretation empirischer Studien -Grundstruktur - Sprachlich erläutern, was die Zahlen bedeuten - Verwerfung oder Beibehaltung der Nullhypothese - Interpretation der Befunde im Kontext des theoretischen Bezugsrahmens - Vergleich der eigenen Befunde mit den Ergebnissen vorangegangener  Untersuchungen (die eigenen Schritte einzeln abklopfen)   - Aufgetretene Abweichungen von den eigenen Hypothesen - Einzelne Schritte der eigenen Untersuchung abklopfen auf mögliche Einfluss und Störfaktoren. - Vorschläge zur Weiterentwicklung der Methodik (z.B. Untersuchungsdesign, Erhebungsinstrumente) - Vorschläge zur Modifikation / Weiterentwicklung des theoretischen Bezugsrahmens    
  • X.12.00 Skalenniveaus und Bsp. Nominalskala Bsp: Geschlecht, Partei, - Zulässige Lagemaße: Modus - Zulässige Transformationen: ein-eindeutige   Ordinalskala Bsp: Rangreihen. Schulnoten, Akademische Abschlüsse Intervallskala: Bsp.. IQ test, auch Rating Skalen bei Test !! (Grade der Zustimmung, Ablehnung von Aussagen, etwa bei ser Selbsteinschätzung) - Zulässige Transformationen: lineare; y = a*x+b - Zulässige Lagemaße: Median, arithmetrisches Mittel Verhälnisskala: Bsp: Zeitmaße, Gewicht, Einkommen - Zulässige Transformationen: proportionale; y = a*x - Zulässige Lagemaße: Median, arithmetrischer Mittelwert, geometrisches Mittel Absolutskala: Bsp.: Stückzahlen, Häufigkeiten - Zulässige Transformationen: Keine (sonst sind der absolute Nullpunkt und die Maßeinheit weg) - Zulässige Lagemaße: Modus, Median, Mittelwert