Allgemeine Psycho (Subject) / instrumentelle (operante) Konditionierung (Lesson)
There are 12 cards in this lesson
hiu
This lesson was created by tinestiere.
This lesson is not released for learning.
- Welche 4 Verstärkungspläne unterscheidet man? Fixed Ratio Vnach dem Verstärken findet postreinforcement (pause) statt, kurz vor Verstärkung ration run; Bsp: Fließbandarbeit, Prokrastination Variable Ratio bedeutet etwa: im Mittel wird jedes 10. Verhalten verstärkt, Stufenform verschwindet fast; Bsp: Glücksspielautomat Fixed interval girlandenförmig kommulatives Verhalten. FI4 bedeutet: alle 4 Minuten wird verstärkt Bsp: Waschmaschine:erst nach festgelegter Zeit wird mit sauberer Wäsche belohnt --> führt zu Abschwächung des Verhaltens nach Verstärkung und Ansteigen des Verhaltens gegen Ende des Intervalls Variable interval VI10 bedeutet. Im Mittel wird alle 10 Minuten das Verhalten belohnt: führt zu relativ konstantem Verhalten, da ja nicht genau feststeht, wann Belohnung stattfindet Bsp: Rufbereitschaft Zusammengefasst: Fixed Ratio: jedes 10. Mal wird verstärkt Variable Ratio: im Mittel jedes 10. Mal Fixed Intervall: alle 10 Minuten wird verstärkt Variable Intervall: im Mittel alle 10 Minuten
- Welche möglichen Assoziationen gibt es bei der instrumentellen Konditionierung? S-R Assoziation R-O Assoziation S-O Assoziation S= Stimulus O=Konsequenz (Verstärker) R= Verhalten/Reaktion
- Welches Experiment gibt es für die Evidenz von R-O Assoziationen? Effekt der US-Abwertung Ratte kann Hebel nach links oder rechts drücken: Rechts:Futter Links: sachharinhaltiges H20 Essen wird gezeigt, gefolgt bon Übelkeit auslösenden Injektion, um Aversion gegen diesen Verstärker auszulösen nun durften Ratten wieder Hebel drücken Ratten drückten öfter den Hebel der vorher das nicht aversiv gemachte Outcome auslöste Es kam also zu einer Assoziation von Verhalten (R) und Konsequenz (O)
- Welche Verhaltensregulation unterscheidet man? ?
- Was ist das Premack Prinzip? Nenne eine Experiment dazu! Technik zur Verhaltensveränderung sehr häufig vorkommende Verhaltensweisen als Verstäker für aufzubauendes Verhalten angewendet macht ein Verhalten für ein anders zu nutzen ein erwünschtes Verhalten, welches eine NIEDRIGE Auftrittswahrscheinlichkeit hat, wird an ein Verhalten mit großer Auttrittswahrscheinlchkeit gekoppelt wichtig: zuerst muss erwünschtes Verhalten gezeigt werden, um anderes Verhalten zeigen zu dürfen, dass gern ausgeführt wird anders herum nicht möglich! Experiment: eine Ratte, hat freien Zugang zu Wasser und kann nach Lust und Laune in einem Laufrad rennen (was sie lieber macht als Trinken) Trinken weist also eine geringere Auftretenswahrscheinlichkeit als Laufradrennen auf Wenn Ratte erst ins Laufrad darf, nachdem sie getrunken hat, erhöht dies die Zeit, die sie mit Trinken verbringt Andersherum bei einer Ratte, die lieber Trinkt als Läuft
- Beschreibe die grundsätzliche Anordnung der instrumentellen Konditionierung! Ein existierendes Verhalten, Reaktion R wird verstärkt dirch ShochR (reinforcing stimulus- verstärkender Stimulus) Ergebnis ist die Erhöhung der Verhaltenshäufigkeit RRR
- Was ist der Unterschied zwischeninstrumentellen Konditionieren und klassischen Konditionieren? Beim klassischen Konditionieren wird ein neutraler Reiz durch Kopplung mit einem unkonditionierten Reiz verhaltensrelevant.. auslösender Stimulus führt zur Reaktion Bei der instrumentellen Konditionierung , wird eine spontane (ungelernte) Reaktion durch Bekräftigung verfestigt. Diese Reaktion tritt dadurch auch in Zukunft ohne diese Verstärkung auf. Reaktion hängt von verstärkendem Stimulus ab
- Was versteht man unter dem "law of effect" von Thorndike? Wird in einer bestimmten Situation eine bestimmte Reaktion von befriedigenden Konsequenzen (Belohnung) gefolgt, dann wird die Assoziation zwischen der Situation (den anwesenden Reizen / Stimuli) und der Reaktion gefestigt bzw. verstärkt. Kommt der Organismus erneut in diese oder eine ähnliche Reizsituation, wird er die Reaktion mit einer größeren Wahrscheinlichkeit als zuvor zeigen. Assoziation zwischen Reiz und Reaktion verstärkt andersherum Negative Law of Effect: Wird ein Verhalten in einer bestimmten Situation von negativen (aversiven) Konsequenzen gefolgt, sinkt die Auftretenswahrscheinlichkeit dieser Reaktion in der Situation.
- Was versteht man unter Shaping? Man nutzt die natürliche Variabilität des Verhaltens: es werden Verhaltensweisen belohnt, die Hebeldrücken vorbereiten, z.B. Aufsitzen dann nur noch Aufsitzen vor Hebel schließlich nur noch Hebeldrücken selbst verstärkt vgl. Dressur
- Was versteht man unter sekundärem Verstärker? primäre Verstärker: befriedigen physiologische Bedürfnisse , z. B. Hunger stillen sekundäre Verstärker: Ankündigung bzw. das Versprechen eines primären Verstärkers (s. Token-reinforcement System) Bsp: Geld, das ursprünglich selbst keine Bedürfnisse befriedigt Sekundäre Verstärker sind durch klassische Konditionierung aus primären Verstärker entstanden und erlangen ihre Bedeutung durch Kontingenz mit diesen Verstärkern (z.B. Geld für Nahrung).
- Welche Arten von Verstärkung unterscheidet man und welchen Effekt haben sie? Positive Verstärkung: positiver Stimulus folgt einem positiven Verhalten, es kommt zur erhöhung der Auftrittswahrscheinlichkeit Negative Verstärkung: negativer Stimulus wird bei positivem Verhalten entfernt, Erhöhung der Auftrittswahrscheinlichkeit Bestrafung Typ I: Ein negativer Stimulus folgt einem neg. Verhalten, Senken der Auftrittswahrscheinlichkeit Bestrafung Typ II: positver Stimulus wird entfernt, wenn Verhalten neg., Senken der Auftrittswahrscheinlichkeit
- Was sind die grundlegenden Erkenntnisse von Banduras Modelllern-Experiment? beobachtbares Verhalten wird auch ohne beobachtbare Verstärkung erlernt, dies begünstigt nur das Auftreten des Verhaltens nötige Teilprozess: Aufmerksamkeits- und Behaltensprozess (durch z.b. rehersal) motorische Kontrolle Motivation Verhalten wird auch bei Filmvorführung oder Cartoon imitiert