Allgemeine Psychologie (Subject) / F2-Denken und Sprache (Lesson)

There are 48 cards in this lesson

Fragen zu der Vorlesungen Denken und Sprache

This lesson was created by casnic.

Learn lesson

  • Wesentliche Definitionsbestandteile "Denken" 1. komplexer, vielseitiger Prozeß – Vielzahl der Prozesse: Wahrnehmung, Gedächtnis, Wissen (deklarativ und prozedural), Regelanwendung, Bewertung, Abstraktion, Ordnungsleistungen, logisches Schließen, Analogien bilden ... 2. im wesentlichen intern ablaufend – Methodische Konsequenz: Denkprozesse können nicht direkt beobachtet, sondern nur aus (Verhaltens-) Beobachtungen erschlossen werden. 3. symbolische Repräsentation von Ereignissen und Objekten, die nicht unmittelbar gegenwärtig sind – Die Gegenstände, auf die sich Denken bezieht, müssen intern repräsentiert sein; Denkprozesse operieren auf diesen internen Repräsentationen 4. Funktion ist die Generierung und Kontrolle von Verhalten – „inneres Probehandeln“ – würde man heute als zu eng gefasst sehen. Ziel ist auch Generierung neuer Repräsentationen = „Erkenntnis“
  • Unterschiede deskriptive, normative und präskriptive Perspektive: • Normative Perspektive: – Wie sollte man denken? – Formale Regeln, die optimale Lösung ermöglichen (Logik, Wahrscheinlichkeitstheorie) – Begründung in Philosophie, Mathematik und Ökonomie • Deskriptive Perspektive: – Wie denken Menschen tatsächlich? – Genuin psychologisch-empirische Fragestellung • Präskriptive Perspektive: – Wie können Hilfsmittel und Verbesserungsmaßnahmen etabliert werden damit wir im Alltag den normativen Benchmarks genügen können? (Hilfsmittel um besser Problemlösungen zu erhalten)
  • Logik des resultatorientierten Vorgehens bei der Untersuchung von Denken, Vor- und Nachteile: • UV: Variationen von Aspekten der Aufgabenstellung • AV: Lösungshäufigkeit oder –menge oder –geschwindigkeit • Variation der Problemsituation→Beobachtung ob (+ggfs. wie schnell) Lösung gefunden wird • Bewertung: • Positiv: – Beschränkung auf objektiv beobachtbares Verhalten – Experimentelle Manipulation von Problemstellung möglich (z.B. förderliche/hinderliche Faktoren) – Keine problematischen Annahmen über Validität des erhobenen Maßes • Limitationen: – wenig bis keine direkten Informationen über die zwischengeschalteten Denkprozesse
  • Probleme der verbalen Methoden zur Untersuchung von Denkvorgängen: • Probleme der Introspektion – mangelnde Objektivität, – Reaktivität, – Gedächtnisverfälschung, – Nicht-Verbalisierbarkeit von Denkinhalten, – unbewusste Denkvorgänge etc. • Probleme vom „Lauten Denken“ – Ähnliche Probleme wie Introspektion mit Ausnahme der Gedächtnisverfälschung (Reaktivität, Nicht-Verbalisierbarkeit) – Extrem hoher Aufwand (Transkription, Auswertung) – Unter bestimmten Bedingungen sinnvoll zur Hypothesengenerierung, aber nicht geeignet zur Hypothesentestung über kognitive Prozesse
  • Vorteile des Nutzenkonzepts im Gegensatz zum Konzept des erwarteten Werts erläutern. Das Nutzenkonzept erklärt im Gegensatz zur Erwartungswerttheorie z.B. Risiko-Abneigung bei Gewinnen und andere Abweichungen von der Erwartungswertmaximierung: Die meisten Menschen ziehen einen sicheren Betrag x einer Lotterie mit sogar etwas höherem Erwartungswert vor („Risikoprämie“)
  • 3 Design-Features von Sprache nennen: – Unabhängigkeit der Bedeutung von physikalischen Eigenschaften des Stimulus(z.B. laut oder leise) – Willkürlichkeit der Zeichen-Bedeutung-Zuordnung – Diskretheit (Aufbau aus diskreten Einheiten) – Offenheit / Kreativität (= Kombinatorik der diskreten Einheiten) – Strukturiertheit: Erst die Kombination einzelner Einheiten kommuniziert Bedeutung (nicht die Einheiten selbst) – Tradierbarkeit – Kommunizierbarkeit vergangener/zukünftiger/verborgener Sachverhalte – Reflexivität / Metasprachliche Ebene
  • Was ist die „Syntax“? Die Syntax ist ein formales Regelsystem, das beschreibt, in welchen Anordnungen sprachliche Einheiten (Phoneme, Morpheme, Wörter, Phrasen) vorkommen können, z.B im Deutschen: kein Wort, dass mit 2 Verschlusslauten beginnt
  • Abgenzung Phonem (gegenüber Phon) Phon= elementarer Sprachlaut Phonem= kleinste bedeutungsunterscheidende Lauteinheit einer Sprache/Klasse elementarer Sprachlaute (z.B. Bsp.: Zungen-R und Rachen-R sind unterschiedliche Phone, gehören im Deutschen aber zum selben Phonem → beide haben selbe Bedeutung)
  • Problem definieren in Abgrenzung zu einer Aufgabe: Ausgangssituation: (unterwünschter) Anfangszustand, (erwünschter) Zielzustand → Problem: Barriere zwischen beiden, die nicht durch Routinehandlungen zu lösen ist (Abgrenzung zu Aufgabe)
  • Mouse Lab (Untersuchungsmöglichkeit für Denkvorgänge), Beschreibung und Bewertung: • Entscheidungsprobleme werden als Matrix aus Optionen x Attributen dargestellt, die Informationen können durch Anklicken aufgedeckt werden (Wie teuer ist das Fahrrad?, welche Attribute hat das Fahrrad?,...) • Alle Beobachtungen sowie deren Dauer werden vom Computer registriert und geben Auskunft über die Informationssuche. • Beobachtbare Parameter: – Anzahl eingeholter Informationen – Dauer der Inspektion jeder Information – relative Dauer, mit der bestimmte Attribute betrachtet werden – Suchrichtung (Vergleich Options- oder attributweise?) Bewertung: • Positiv – Einfache Methode, um automatisch viele Aspekte des Informationssuchverhaltens zu erfassen – Manche Annahmen über erhobene Maße unkritisch (relative Zeit pro Attribut = relative Wichtigkeit, Anzahl = Info über Ignorieren von Attributen) • Limitationen – Matrixformat mit Informationssuche kann Entscheidungsprozess selbst beeinflussen – Informationssuche sagt nur bedingt etwas über die Verarbeitung aus
  • Definitionen: bedingte Wahrscheinlichkeit, stochastische Unabhängigkeit (verbal oder Formel) bedingte Wahrscheinlichkeit: Die bedingte Wahrscheinlichkeit p(A|B) bezeichnet die Wahrscheinlichkeit von A unter der Voraussetzung, dass B eingetreten ist: p(A|B) = p(AundB)/p(B) stochastische Unabhängigkeit: Stochastische Unabhängigkeit der Ereignisse A und B liegt vor genau dann wenn p(A|B) = p(A|¬B) = p(A) und p(B|A) = p(B|¬A) = p(B)
  • Bayes-Theorem: grundlegende Logik und Bedeutung Logik: Das Bayes-Theorem gibt an, wie man die a-priori-Wahrscheinlichkeit einer Hypothese mit den bedingten Wahrscheinlichkeiten für eingetretene Ereignisse kombinieren muss, um die a-posteriori-Wahrscheinlichkeit einer Hypothese zu bestimmen. Bedeutung: Normatives Modell zur Revision von Wahrscheinlichkeiten, wenn zusätzliche Information ins Spiel kommt. Eines der wichtigsten Theoremen in der bedingten Wahrscheinlichkeitsberechnung: 
  • Wann ist ein Argument logisch valide? Ein Argument ist logisch valide (gültig) genau dann, wenn die Schlussfolgerung notwendigerweise wahr sein muss, wenn die Prämissen wahr sind.
  • logische Junktoren: – Verbindungszeichen zum Erstellen zusammengesetzter Aussagen – ∧ logisches und (Konjunktion) – ∨ logisches (inklusives) oder (Disjunktion) – ¬ logisches nicht (Negation) – ⇒ Implikation (wenn ... dann) – ⇔ Äquivalenz (genau dann, wenn) ⇒ Zusammengesetzte Aussagen und Argumente können mittels Junktoren in eine formale Sprache übersetzt werden •Prämisse 1: “Wenn es regnet, dann wird die Straße nass”. •Prämisse 2: “Es regnet” •Schluss: “Die Straße wird nass” •p = “Es regnet” •q = “Die Straße wird nass” • p → q ("Wenn es regnet, wird die Straße nass") • p ("Es regnet") • q (Ergo: "Die Straße wird nass") •oder: [(p → q) ^ p] → q • Formalismus, der die Beurteilung deduktiver Argumente ermöglicht • Grundlage der Implementierung von Logik in Computern
  • gültige und ungültige Schlussformen: gültige Schlussformen: Modus Ponens Modus Tollens  ungültige Schlussformen:  Bejahung der Konsequenz Verneinung der Antezendenz
  • Unterschiedliche Theorieklassen kurz definieren (deduktives Schlussfolgern): Frage: • Folgen Menschen beim Schlussfolgern den Regeln der Logik? • Wie sind die Kompetenzen – und ggf. die Fehler – erklärbar? • Abstrakte Regel-Theorien (syntaktische Theorien) – Menschen besitzen logische Kompetenz in Form logischer Regeln – Fehler entstehen durch Fehlverständnis der Prämissen und Anwendungsfehler der Regeln • Mentale Modelle (semantische Theorie) – Menschen interpretieren die Prämissen und repräsentieren sie semantisch als mentale Modelle – je komplexer die Modelle, desto wahrscheinlicher sind Fehler aufgrund von Gedächtnisbelastung • Domänenspezifische Theorien – Menschen besitzen bestimmte Standard-Schemata für Schlussfolgerungen je nach Inhaltsbereich • Probabilistische Modelle – Menschen betrachten Schlussfolgerung als Wahrscheinlichkeitsurteil → neuesten Modelle
  • Wason's Selektionsaufgabe: Verstehen und Hauptbefund → „the mother of all reasoning tasks“ • Vor Ihnen liegen vier Karten. Welche davon müssen Sie mindestens umdrehen, um folgende Regel zu prüfen: • „Wenn auf der einen Seite ein Vokal steht, steht auf der anderen eine gerade Zahl“ • (allgemeiner: Wenn P dann Q) → meistens wird P und Q aufgedeckt, aber Warum? → Erklärung u.a. durch Matching Bias (allerdings nicht komplette Erklärung) – Vpn nehmen einfach die in der Regel genannten Karten – Ball et al. (2003) zeigen, dass der MB eine Rolle spielt (negierte Aussagen) → es wurden weitere Experimente gemacht, einmal mit Reiseziel und Transportmittel und verschlossenen Briefumschlägen/Frankierung → daraus entstehende Frage: Warum hat der konkrete Inhalt einen erleichternden Effekt auf die Aufgabe?
  • Inhaltseffekte: Memory-Cueing-Hypothese: – Inhalte haben erleichternden Effekt, wenn Erfahrung mit gleichartigen Regeln/Inhalten vorliegt • Vorhersage: – Erleichterungseffekt sollte nur in Kultur auftreten, in der die Regel bekannt ist • Experiment 1: – Versuch einer Replikation der Studie von Johnson-Laird et al. mit amerikanischen Studenten – Ergebnis: keinerlei förderlicher Effekt der inhaltlichen Einbettung – Interpretation: Regel in USA unbekannt („persönliche Post versiegelt und teurer“), daher bleibt Erleichterungseffekt aus → man brauch Erfahrung mit einer bestimmten Regel • Experiment 2: Drinking Age Problem in USA (s. Zusammenfassung) Interpretation: beide Experimente bestätigen die memory-cueing Hypothese!
  • Inhaltseffekte: Pragmatische Schlussfolgerungsschemata: • Kritik an Memory-Cuing-Hypothese • Cheng & Holyoak (1985): Replizierbare Inhaltseffekte betreffen meist deontische Logik*(=Logik sozialer Normen, z.B. Verpflichtungen, Erlaubnis) • Inhaltseffekte mit anderen Materialien nicht immer replizierbar • Hypothese: – Vpn verwenden hier keine logischen Regeln, sondern pragmatische Schemata des deontischen Schließens – Wenn eine Situation zu einem Schema als passend erkannt wird, wird danach geschlussfolgert → z.B. Erlaubnisschema: „Wenn ich P tun will, muss ich Bedingung Q erfüllen“ → Ergebnis eines Experiments mit Erläuterung Regel/Nichterläuterung Regel: Es muss keine Erfahrung mit einer bestimmten Regel vorhanden sein, sondern man muss lediglich über sie informiert werden. (Bekanntheit der spezifischen Regel ist nicht notwendig für den Erleichterungseffekt, wenn der deontische Sinn der Regel erläutert wird.)
  • Inhaltseffekte: Theorie sozialer Verträge + Beispiele: • Versuch einer evolutionspsychologischen Erklärung der deontischen Erleichterungseffekte • Basiert auf der Theorie des reziproken Altruismus von Trivers (1971) – Genetische Basis für kooperatives Verhalten kann sich entwickeln, wenn gegenseitiger Nutzen größer als die Kosten – Dazu notwendig: Verhindern der eigenen Ausbeutung • Cosmides: Dazu braucht es effiziente Mechanismen der Betrügerentdeckung (schlägt „Alarm“, wenn die Gefahr ausgebeutet zu werden vorhanden ist) • These: Diese zeigen sich in den deontischen Wason-Selection-Task Aufgaben • Generelle Form eines Sozialen Vertrags: – „Wenn Du einen Nutzen N hast, zahlst Du dafür Kosten K“ • Erklärt: Briefmarken-Version; Drinking Age; Cholera-Version • „Umgedrehter“ Sozialer Vertrag: – „Wenn Du die Kosten K zahlst, darfst Du den Nutzen N haben“ • Vorhersagen (da ein „Betrüger“ immer N in Anspruch nimmt, ohne K zu zahlen): – Standard-SV: Wahl von N und nicht-K (= logisch richtige Lösung) – Switched-SV: Wahl von nicht-K und N (=logisch falsche und in abstrakter Version nie gewählte Kombination = neue Vorhersage) • Beispiel eines Sozialen Vertrags: – „Wenn Du Bier trinkst (N), musst Du 19 Jahre alt sein (K)“ –> Wenn P1, dann Q1 • Beispiel „Umgedrehter“ Sozialer Vertrag: – „Wenn Du 19 Jahre alt bist (K), darfst Du Bier trinken (N)“ –>Wenn P2, dann Q2 • Vorhersagen (da ein „Betrüger“ immer N in Anspruch nimmt, ohne K zu zahlen, deckt man nicht-K und N auf): – Standard-SC: Wahl von Bier (P1) und nicht 19 (nicht-Q1) – Switched-SC: Wahl von nicht 19 (nicht-P2) und Bier (Q2) → Empirische Prüfung in 9 Experimenten bestätigt die neuartigen Vorhersagen • Bsp: – Standard-SC: „Wenn ein Mann Cassava-Wurzel isst (p=Nutzen), hat er eine Tätowierung im Gesicht (q=Kosten)“ oder – Switched-SC: „Wenn ein Mann eine Tätowierung im Gesicht hat (p=Kosten), isst er Cassava-Wurzel (q=Nutzen) “
  • Idee des probabilistischen Modells der "optimalen Datenselektion": • Oaksford & Chater (1994): These: Das Verhalten der Vpn in der WST ist optimal! • Aber: Die Vpn betrachten sie nicht als Aufgabe deduktiven Schließens, sondern als Problem der optimalen Datenselektion in einer probabilistischen Aufgabe: – „Welche Karte ist für das Testen der Regel am informativsten?“ • Analog: Wissenschaftlerin, die zum Testen einer Hypothese ein möglichst informatives Experiment durchführt • Im Alltag sind Schlussfolgerungen niemals sicher. Evtl. wenden die Vpn eine sinnvolle Strategie an, wenn man die Aufgabe probabilistisch betrachtet. • Formales Modell des erwarteten Informationsgewinns jeder Karte (Welche Karten sind am informativsten?) Beispiel: • Folgende Regel soll geprüft werden: – „Wenn jemand diese Pilze gegessen hat, wird er krank“ • Beides sind relativ seltene Ereignisse. Welche Arten von Personen suchen sie, um die Hypothese zu prüfen? – Pilzesser? (p) – Personen, die keine Pilze gegessen haben? (¬p) – Kranke? (q) – Gesunde? (¬q) • Am informativsten ist es hier, Pilzesser (p) und Kranke (q) zu befragen, während von den vielen Gesunden (nicht-q) wenig nützliche Information zu erwarten ist! Verbale Formulierung der Theorie: Am meisten Information trägt die Karte, die am stärksten die Unsicherheit bzgl. der Hypothesen reduzieren kann. – stärkste Veränderung von einer a priori-Wahrscheinlichkeit von 0.5 zu einer a posteriori-Wahrscheinlichkeit näher bei 0 oder 1 • Mit Hilfe des Bayes-Theorems kann der erwartete Informationsgewinn (EIG) jeder Karte bestimmt werden • Unter der Seltenheitsannahme ergibt sich folgende Rangfolge der 4 Karten bzgl. EIG: • P > Q > nicht-Q > nicht-P • Das entspricht den empirischen Häufigkeiten gut! → sehr gute empirische Evidenz
  • Bedeutung der "Seltenheitsannahme": Seltenheitsannahme: typischer werden Wenn-Dann-Aussagen formuliert für relativ seltene Ereignisse → „Wenn jemand mehrmals durchfällt, bricht er das Studium ab“ (natürliche Formulierung) anstatt „Wenn jemand weiterstudiert, ist er nicht mehrmals durchgefallen“ (eher unnatürliche Formulierung)
  • Bedeutung des ODS (optimal data selection model) für die Interpretation logischen Schließens: • Radikal neue Sichtweise auf logisches Schlussfolgern: probabilistisches statt deduktives Denken • Verhalten der Vpn ist rational gemessen an diesem Standard (analog: Prüfen von Hypothesen durch Wissenschaftler), wenn die Seltenheitsannahme gilt • Bislang erfolgreichste Theorie der WST • Erweiterung auf andere Formen des deduktiven Schließens • Intuitiv einfach nachvollziehbar, aber Ableitung von Vorhersagen erfordert komplexe mathematische Herleitung • Aber: Modell zeigt zunächst nur, dass Vpn intuitiv rational sind (gemäß des postulierten neuen Standards), aber nicht, wie sie das erreichen (Prozessfrage ungeklärt) → ODS-Modell könnte vereinheitlichende Sichtweise sein
  • Konditionales Schließen: • Konditionalaussage = „Wenn..., dann...“-Aussage • Paradigma: – Vpn werden mit zwei Prämissen konfrontiert: – 1. Konditionalaussage „Wenn P, dann Q“ – 2. Prämisse, z.B. „P“, „Q“, „nicht-Q“ oder „nicht-P“ – Antwortformate: • Präsentation einer Schlussfolgerung und Validitätsurteil + Offenes Antwortformat (Was folgt?) • Typischer Befund: – Modus Ponens fast immer als korrekt akzeptiert – Modus Tollens nicht so oft akzeptiert – Bejahung der Konsequenz und Verneinung der Antezedenz zu häufig akzeptiert
  • Idee und Erklärungserfolg der Bikonditionalhypothese: • Früher Erklärungsansatz – Ein Teil der Vpn interpretiert die Implikation als Äquivalenz – Das ist für die Alltagsinterpretation oft angemessen: – z.B.: „Wenn Du Dein Zimmer aufräumst, darfst Du fernsehen“ Fazit: • Die Bikonditionalhypothese kann einen großen Anteil der Fehler beim konditionalen Schließen erklären, aber nicht alle. • Unklar bleibt, unter welchen Bedingungen die Prämissen bikonditional interpretiert werden. • Universellere Theorie? → Befunde zeigen: – Wird inhaltlich eine Kausalbeziehung nahegelegt, steigt die Anzahl der Vpn mit Bikonditional-interpretation der Prämissen (59% auf 77%; “Wenn der Schalter betätigt wird, geht das Licht an.”). – Rips & Marcus (1977): Die meisten Fehler konnten durch die Bikonditionalhypothese erklärt werden. • Aber: Zusätzliche Prämissen können auch zu selteneren validen Schlüssen führen! (Byrne, 1989) (zusätzliche Prämissen können die Antworttendenz manipulieren) – “Wenn sie einen Aufsatz schreiben muß, bleibt Clara lange in der Bibliothek.” – “Wenn die Bibliothek lange geöffnet hat, bleibt Clara lange in der Bibliothek.” – “Clara muß einen Aufsatz schreiben.” --- Schlußfolgerung? → Clara bleibt lange in der Bibliothek, wird allerdings nicht so häufig von Vpn angegeben
  • Grundannahmen und Vorhersagen der Theorie Mentaler Modelle (Johnson-Laird, 1983): • Bislang erfolgreichste und umfangreichste Theorie logischen Schließens • Schlussfolgern als erweiterter Verstehensprozess (semantische Theorie) • Annahmen: – Repräsentation: Die Prämissen werden enkodiert und in Form konkreter Instanzen (Vorstellung in einer bildlichen/symbolischen Art und Weise) repräsentiert – Validierung: Es wird geprüft, ob Schlüsse aus dem Modell auch mit anderen Modellen der Prämissen kompatibel sind – Kognitive Ökonomie: Wegen begrenzter kognitiver Ressourcen (Arbeitsgedächtnis) werden initial nur wahre Sachverhalte repräsentiert, erweiterte Modelle nur bei Bedarf • Vorhersagen: – Je mehr Modelle mit den Prämissen kompatibel sind, desto schwieriger das Problem (Belastung des Arbeitsgedächtnisses) – Durch Annahmen über initiales Modell auch Vorhersagen der Fehlerarten möglich → noch unklar ob Theorie Mentaler Modelle oder probabilistische Theorien die bessere ist, um Konditionalaussagen zu erklären (probabilistische ist bei WST-Aufgabe auf jeden Fall die beste Erklärung!) Fazit MM-Theorie • Positiv: – Erklärt das basale Befundmuster der Konditionalaussagen gut – Umfassende Theorie mit erfolgreicher Anwendung auch auf andere Schlussfolgerungsformen • Syllogismen, WST, räumliches Schlussfolgern, illusorische Schlussfolgerungen, Inhaltseffekte – Kompatibel mit anderen Konzepten/Theorien der kognitiven Psychologie • begrenztes Arbeitsgedächtnis, Relevanztheorie (Sprachverstehen) – keine Domänenspezifität • Limitationen: – Nicht immer klar, welche Vorhersagen a priori aus der Theorie folgen – Gefahr der Zirkularität
  • Fazit probabilistisches Modell zur Erklärung konditionalen Schließens: • Positiv: – Erfolgreiche Erklärung des Hauptbefundmusters konditionalen Schließens – Integrative Theorie (auch für WST) – Erfolgreiche neue Vorhersagen • Limitationen: – Prozesse unklar – Begründung, warum Rarity assumption hier nicht gelten soll, wirkt arbiträr (=nach Ermessen)
  • Taxonomie (Einordnung in Klassen) von Problemen: • Unterscheidung nach Art der Operation (Greeno, 1978) – Induktionsprobleme (Analogien, Reihenfolgen komplettieren) – Transformationsprobleme (Reihenfolge von Operatoren) – Ordnungsprobleme (Elemente ordnen, z.B. Anagramme) → Wenig hilfreich, da uneindeutig und unvollständig • Unterscheidung nach Art des Ist- und Sollzustands − offene (ill-defined) (z.B. Schreibe einen brillanten Aufsatz) − geschlossene (well-defined) (z.B. mathematische Beweise) → sehr breite Kategorisierung, aber hilfreicher, da voraussichtlich andere Denkprozesse nötig • Unterscheidung nach nötigem Vorwissen – wissensreiche Probleme (z.B. medizinische Diagnosen) – wissensarme Probleme (z.B. Knobelaufgaben) → Wichtige Unterscheidung für Expertiseforschung
  • Eigenschaften von Problemsituationen (Dörner, 1976): Ein Problem ist immer in einem Realitätsbereich eingebettet: • Realitätsbereich = Menge von Sachverhalten und Operatoren • Dimensionen eines Sachverhalts: – Komplexität • Anzahl der beteiligten Variablen (bei Klimawandel: ökologische Veränderungen, technische Veränderungen, ...) – Dynamik • Tendenz zur eigenständigen Veränderung des Sachverhalts – Vernetztheit • gegenseitige Abhängigkeit der Variablen – Transparenz • Durchschaubarkeit der Zusammenhänge (inwieweit sind mir die Zusammenhänge bekannt) • Dimensionen eines Operators: – Wirkungsbreite – Reversibilität (Rückgängigkeit, eher seltener möglich, wenn Schaden angerichtet) – Anwendungsbereich – Wirkungssicherheit – Kosten & Verfügbarkeit → Nützliche Dimensionen zur Beschreibung insbesondere realitätsnaher „komplexer“ Problem-situationen
  • • Behavioristische Theorie des Problemlösens (Vorteile, Nachteile) • Positiv: • Klare Begrifflichkeit • Recht präzise empirische Vorhersagen • Limitationen: • Beschränkung auf enge Problemklassen • Vernachlässigung produktiven und kreativen Denkens (Kritik der Gestaltpsychologen) • Empirisch nicht immer erfolgreich (Einsicht, latentes Lernen)
  • • Gestaltpsychologische Theorie des Problemlösens: • Ein Problem ist eine „defekte Gestalt“, die in einen „gute Gestalt“ transformiert werden muss • Problemlösung wird durch Umstrukturierung erreicht (= alternative Repräsentation der Situation) – Beispiel: „Bergsteigerproblem“ • Die Problemlösung erfolgt durch Einsicht und ist von einem „Aha-Erlebnis“ begleitet • Problemlösungen sind kreativ bzw. produktiv und nicht einfach reproduzierend (klare Abgrenzung von Behaviorismus) →Inspiriert von und orientiert an der gestaltpsychologischen Wahrnehmungspsychologie
  • Phasenmodell nach Wallas (nebst Kritik) • Entwickelt nicht auf Grund von Experimenten, sondern auf Grund von Fallberichten kreativer Wissenschaftler (Helmholtz, Poincaré, Kekulé, Einstein) 1. Vorbereitung – Intensive Beschäftigung mit Problem; Informationssuche; mehrere gescheiterte Lösungsversuche 2. Inkubation – Nichtbeschäftigung mit Problem; andere Tätigkeiten; Annahme unbewusster Weiterverarbeitung 3. Einsicht – Plötzliche Einsicht in die Lösung 4. Verifikation – Bewertung und Ausarbeitung der Lösung • KRITIK – Rein deskriptives (kein erklärendes) Modell des Problemlösevorgangs • die eigentlich interessierende Phase der Inkubation, in der die Problemlösung erfolgt, bleibt im Dunkeln! – Keine Prognosen möglich – kein Prozessmodell – nur anekdotische Evidenz • Sind die Konzepte des Modells dennoch heuristisch fruchtbar? (nutzen, um sich den Denkprozess genauer anzuschauen)
  • Förderliche Faktoren für Problemlösen: o Wirkungsfaktoren von Analogien und positiven Transfer • Vorherige erfolgreiche Problemlösung in strukturell ähnlichen Problemen verbessert Problemlöseleistung (Maier, 1945; Wertheimer, 1959) • Analogien mit strukturell ähnlicher Problemlösung können Problemlösung verbessern, wenn sie (a) erinnert werden, und (b) als relevant erkannt und angewendet werden →  Für Analogien müssen bewusster Abruf und Anwendung vorliegen → am Anfang des Problems:hohe Strukturähnlichkeit und Oberflächenähnlichkeit fördern die Lösungshäufigkeit → wenn jemand den Abruf vorweggenommen hat dann reicht Oberflächenähnlichkeit o Unbewusste Lösungshinweise: Wie untersucht man das heute? → umstritten, ob es sie überhaupt gibt frühere Untersuchung: Zwei-Seile Problem → allerdings: Problem: Evidenz anekdotisch und Experiment nicht gut kontrolliert neuere Untersuchungen: subliminale Hinweise (kurzzeitige Darbietung von Lösungshinweisen, die nicht bewusst wahrgenommen werden) → Ergebnis: hilft nur bei schwierigen Problemen, die Einsicht verlangen, empirische Überprüfung: Stellen vor Problem (z.b. neun Punkte Problem) dann sitzen vor Computer und Darstellung von chaotischer Bilder, zwischendrin wird allerdings die Lösung des Problems kurz präsentiert → schnellere und bessere Lösung des Problems nach Priming; potentielle Kritik: Primes wurden bewusst wahrgenommen
  • hinderliche Faktoren für Problemlösen: o Funktionale Gebundenheit (Beispiel, Zeitverlauf) Unfähigkeit sich von der Vorstellung eines Objektnutzen zu lösen (z.B. Kerzenproblem, die Box der Reißbrettstifte wird als Behälter wahrgenommen und nicht als Halterung für die Kerze) → 1h/1 Tag, nach max. 1 Woche vorbei o Einstellungseffekte Beispiel: „Wasser-Umfüllaufgabe“: gegeben sind die drei Behälter A, B und C, mit denen einen Zielmenge abzumessen ist → wenn man von 1-5 eine Serie von den selben Lösungen hatte, fällt es schwerer, eine leichtere Lösung zu finden → wenn Lösung mehrmals funktioniert neigt man dazu diese immer wieder anzuwenden → negativer Transfer → wenn anderer Lösungsweg gebraucht, wird man durch Routinisierung behindert
  • Heuristiken zur Suche im Problemraum (& Evidenz): • Uninformierte Heuristiken/Algorithmen – Trial and error – Tiefensuche • probiere in jedem Zustand Operatoren nach präferierter Reihenfolge, wende präferierten Operator an • bei Sackgasse: gehe einen Schritt zurück • merke dir den Zustand und Operator, der in die Sackgasse geführt hat und meide ihn künftig – Breitensuche • Generiere von jedem Zustand aus alle möglichen Folgezustände und prüfe, ob einer der Zielzustand ist • Probleme: – universell einsetzbar, aber bei großen Problemräumen mit unrealistischem Zeit- und/oder Speicherbedarf (exponentielles Wachstum bei größeren Problemräumen) • Informierte Heuristiken – Unterschiedsreduktion (“hill-climbing”) • Wende den Operator an, der den nächsten Zustand dem Zielzustand “ähnlicher” macht. • Probleme: • Definition der Ähnlichkeit • Möglichkeit von Sackgassen (“lokale Maxima”, s. Hobbits und Orcs) – Mittel-Ziel-Analyse • Bilde vom Ziel ausgehend Zwischenziele, die durch Operatoranwendung erreichbar sind. Evidenz für Unterschiedsreduktion: Hobbits & Orcs Problem: 3 Hobbits, 3 Orcs, 1 Fluss, 1 Boot mit Kapazität von jeweils 2 → wie bekommt man 3 auf jede Seite? → ein entscheidender Schritt, der augenscheinlich vom Ziel weg führt, fällt besonders schwer, ist allerdings notwendig für Lösung (wenn Unterschiedsreduktion angewendet wird)
  • Eigenschaften von "komplexen" Problemen: • Komplexität – Variablenzahl • Vernetztheit – bedingt Nebenwirkung von Operatoren • Dynamik – Veränderungen des Systems ohne Eingreifen • Intransparenz → d.h. Sehen von relevanten Größen, allerdings Unwissen über Verbundenheit • Polytelie (Vielzieligkeit) – teilweise widersprüchliche Ziele, z.B. „Sparen“ und „Zufriedenheit erhöhen“
  • Beobachtungen im Lohhausen-Experiment von Dörner et al. : Bürgermeistersimulation in einer fiktiven Stadt • „Intellektuelle Notfallreaktion“ bei Schwierigkeiten – stressartige Symptome – Senkung des intellektuellen Niveaus, schnelles Handeln, degenerierte Hypothesenbildung – Verschanzung (Fixierung auf Teilproblem und Fokusverlust auf großes, ganzes Problem) – Entkonkretisierung von Zielen – Problem: Interpretation von Beobachtungen; Systematik unklar • Umgang mit Zielen – Teilzielbildung bzw. Komponentenanalyse von Zielen fiel Vpn schwer – statt differenzierte Zielstruktur zu erarbeiten dagegen „Reparaturhandlungen“ (reaktive Handlung auf Probleme, statt vorausschauender Planung) • Umgang mit Dynamik – nichtlineare Dynamik wird linear extrapoliert – verzögerte Rückmeldungen behindern Systemsteuerung • Keine Korrelation Problemlösegüte/Testintelligenz! – stattdessen Korrelation mit Extraversion (wie bei echten Politikern :-))
  • methodische Kritik an Forschung mit Szenarien (wie z.B. Lohausen-Studie oder Schneiderwerkstatt) Kritik von Funke und anderen Wissenschaftlern: – Validität der AV: Ist Flüssigkapital ein adäquates Erfolgsmaß? – zu geringe IQ-Variabilität in der Stichprobe • Replikation: rechnergestützte Version der Schneiderwerkstatt – Selektion von Vpn aus breiterem IQ-Range – 2. AV: Anzahl der Monate, in denen das Gesamtkapital stieg • Ergebnis: – Korrelation IQ/Erfolg in beiden Bedingungen – kein Zusammenhang bei AV “Flüssigkapital“ • Schlußfolgerung: – Operationalisierungsproblematik (Messproblem: Validität, Reliabilität) in KPL Untersuchungen beachten! • Weitere Studien uneinheitlich, aber bei definiertem Erfolgskriterium meist Zusammenhang mit IQ → da so viele mögliche optimierbare Variablen in Lohhausen Experiment waren, war es unklar, welche den genau mit dem Zufriedenheitswert zusammenhängen • Zweifelhafte Repräsentativität der verwendeten Szenarien – repräsentativ für Alltagsprobleme? (Bürgermeister mit diktatorischen Vollmachten), Augenschein-Validität – adäquate Abbildung des Realitätsausschnitts? (sehr viele ad hoc-Annahmen über Struktur und Parameter des simulierten Systems nötig) • Operationalisierungsproblematik – AVn: wie wird “erfolgreiches” PL gemessen? Ad hoc-Indizes, zweifelhafte Kriterien (s.o.: Flüssigkapital vs. Gesamtkapital) – psychometrische Eigenschaften? (Reliabilität?, Validität?) • Mangelnde Vergleichbarkeit der Szenarien – wie ist “Komplexität” definiert? – inkompatible Ergebnisse: worauf zurückzuführen? • Theoriearmut -> besonders starke Kritik v. Funke – “Schrotschuss-Datensammlung”, deskriptiver Ansatz (hohe Datenmengen wurden interpretiert, statt anfangs eine Hypothese aufzustellen und dann zu testen) fehlende Annahmen über Lernprozesse und Repräsentation
  • Lösungsvorschlag von Funke für die Probleme der komplexen Problemlöseszenarien (Lohausen, Schneiderwerkstatt) • Funke (1992): Systeme müssen formal beschreibbar sein („etwas kleinere Brötchen backen“, mit Systemen arbeiten, die nicht so komplex sind) → kann auch mit bekannten Variablen oder in komplexerer Form durchgeführt werden • Vorteile: – System und beste Lösung klar formal beschreibbar (hier: lineare Gleichungen) – Vorwissen kann isoliert werden – Steuerungsgüte und expliziter Wissenserwerb untersuchbar → Kontrollierte Bedingungsvariation möglich (unterschiedliche Versuchsbedingungen, welche machen die Bearbeitung leichter, welche schwerer?)
  • Unterschiede Präferenz / Inferenz Inferenz = es gibt eine richtige und eine falsche Entscheidung (Arzt im Krankenhaus) Präferenz = es gibt keine richtige oder falsche Entscheidung (Apfel oder Birne?)
  • Unterschiede Urteil / Entscheidung: • URTEIL = Zuordnung eines Wertes einer Urteilsdimension zu einem Urteilsobjekt. – Bsp. Gewicht eines Steins (Gewicht = Dimension, Stein = Objekt) – Freundlichkeit einer Person – Gefährlichkeit einer Situation Antwortformate: kategorial (schwer, leicht), komparativ (schwerer als, freundlicher als), quantitativ (genaue Schätzung des Gewichts) • ENTSCHEIDUNG = Wahl zwischen mindestens zwei möglichen (Handlungs-) Optionen – Meist Ausdruck der Präferenz einer Person – daher Abhängigkeit von deren Zielen
  • Option, Attribut, dominante Option: Option / Alternative: zur Wahl stehendes Objekt oder Handlung Attribut: eine entscheidungsrelevante Eigenschaft der Option dominante Option: ist auf mindestens allen Attributen genauso gut wie die anderen Optionen und mindestens auf einem Attribut besser
  • Erwartungswertheorie + normative und deskriptive Probleme Dies bedeutet, dass bei jeder Entscheidung der optimale Nutzen für das Individuum zu ermitteln ist. Dies kann erzielt werden, indem man den Gesetzen der Logik, Mathematik und Statistik folgt und die Option mit dem höchsten Erwartungswert herausfindet und diese auswählt. Bei Entscheidungen unter Unsicherheit allerdings resultiert die Wahl der Option mit dem höchsten Erwartungsnutzen nicht unbedingt im besten Ergebnis, da man beispielsweise in einer Lotterie auch den eingesetzten Betrag verlieren oder mit seinem Einsatz wieder rausgehen kann. Die richtige Entscheidung ist daher immer von den subjektiven Nutzenswerten abhängig. Probleme der Erwartungswerttheorie • normativ – St. Petersburg-Spiel zeigt, dass EV-Maximierung nicht unbedingt rational ist. (unendlich hoher Erwartungswert, Wahrscheinlichkeit zu verlieren ist allerdings sehr hoch) • deskriptiv – Vpn wählen oft sichere Optionen mit geringerem EV als unsichere mit höherem EV – Menschen kaufen Versicherungen und Lotterielose mit negativem Erwartungswert • Fazit: EW-Theorie als deskriptive (psychologische) Theorie nicht geeignet und als normative nur bedingt
  • erwarteter Nutzen: • Nicht der Wert wird maximiert, sondern der (subjektive) erwartete Nutzen der Konsequenz • Der Nutzen ist eine negativ beschleunigte Funktion des Wertes („abnehmender Grenznutzen“) – Intuition: Je mehr Geld man schon hat, desto weniger nützt ein zusätzlicher Betrag x (s. Fechners Psychophysik) • Erklärt z.B. Risiko-Abneigung bei Gewinnen und andere Abweichungen von der Erwartungswertmaximierung Risikoabneigung: Die meisten Menschen ziehen einen sicheren Betrag x einer Lotterie mit sogar etwas höherem Erwartungswert vor („Risikoprämie“) Nützlichkeit des Nutzenkonzepts • Nutzen ist subjektiv definiert und kann individuell variieren (abhängig von individuellen Zielen) • Nutzen ≠ Vergnügen • Verallgemeinerung: Nutzen kann auch für nicht monetäre Outcomes definiert werden • Damit steht ein mächtiges Werkzeug zur Analyse von beliebigen riskanten Entscheidungen zur Verfügung – Bspe.: • Optionen: Wandern oder Fernsehen? • Ereignisse: Regen oder Sonne?
  • Axiome der Expected-Utility-Theorie (EU-Theorie) EU-Theorie normativ = • Wenn Präferenzen bestimmte Bedingungen erfüllen, entspricht das Verhalten der EU-Maximierung • Neben technischen Axiomen sind zwei zentral, die als Bedingungen der Rationalität angesehen werden können: • Transitivität der Präferenzen – (A ≻ B) ∧ (B ≻ C) → (A ≻ C)* – Verletzung gilt als irrational (Argument der „Geldpumpe“) • Unabhängigkeit der Präferenz von identischen Konsequenzen der Optionen (Fahrradladen: Entscheidung zwischen 2 Fahrrädern, dann kommt Händler: „sie bekommen egal welches Fahrrad sie nehmen noch einen Helm dazu“ → identische Konsequenz der Optionen → sollte Entscheidung nicht vereinfachen/beeinflussen – Wenn dieselbe Konsequenz bei allen Optionen mit gleicher Wahrscheinlichkeit auftritt, sollte sie die Präferenzordnung nicht beeinflussen * „≻“ ist die Präferenzrelation Folgerungen der EU-Rationalität • Konsequenzialismus – Präferenzen sollten nur von den möglichen Konsequenzen und deren (wahrgenommenen) Wahrscheinlichkeiten abhängen – anders ausgedrückt: alle entscheidungsrelevanten Gründe lassen sich im Konzept des Nutzens abbilden • deskriptive Invarianz – Präferenzen sollten unabhängig davon sein, wie die Konsequenzen beschrieben werden
  • Prospect Theory und Änderungen gegenüber der EU-Theorie: • Prospect Theory in Kahneman & Tversky (1979) und Tversky & Kahneman (1992) gehört zu meistzitierten Arbeiten der Sozialwissenschaften • Erweiterung der EU-Theorie um psychologische Annahmen zur Erklärung der „Anomalien“ • Beibehaltung der Idee, Wahrscheinlichkeiten und Werte von Outcomes zu verrechnen • Erfolgreiche neue Vorhersagen • Wirtschaftsnobelpreis 2002 für D.K. (zus. mit Vernon Smith) • Zentrale Neuerungen gegenüber EU: – Wertfunktion (value function) in Anlehnung an Bernoulli- Nutzenfunktion mit zusätzlichen Eigenschaften (s.u.) (vgl. Nutzenfunktion im EU-Modell) – Gewichtungsfunktion, die Wahrscheinlichkeiten in subjektive Entscheidungsgewichte übersetzt – Referenzpunkt – Gewinne und Verluste werden nicht absolut, sondern relativ zu einem „Anspruchsniveau“ codiert • Bsp.: Note „3“ kann als Gewinn verbucht werden, wenn man Durchfallen befürchtet hat oder als Verlust, wenn man eine „1“ angestrebt hat
  • Erklärungserfolge der Prospect Theory: • Framing-Effekt • Verlustaversion, Besitztumseffekt • Spiegelbildeffekt, Vierfachmuster • Certainty-Effect • Allais‘ Paradox • Glücksspiel und Versicherungen • Intransitivitäten können nicht erklärt werden • Insgesamt ein beachtlicher Erklärungserfolg!
  • Kritische Punkte Prospect Theory: • Keine Erklärung, warum die Werte- und Gewichtungsfunktionen die postulierte Form haben (ad hoc) • weiterhin „kühle Kalkulationslogik“ ohne Emotionen – Alternative Entwicklungen „Regret theory“, „Disappointment theory“ • Weit gehend (aber nicht ausschließlich) empirisch getestet mit Lotterieaufgaben – Ausnahmen: Framing, Besitztumseffekt → Untersuchungen bleiben häufig im ökonomischen Kontext, wenig Alltagsbeispiele • Kein kognitives Prozessmodell – i.W. Strukturmodell • G.Gigerenzer, R. Selten (2001): „Reparaturprogramm“, das die Hauptannahmen der rationalen EU-Theorie beibehält und notdürftig mittels psychologischer Annahmen „flickt“.