Allgemeine Psychologie II: Lernen & Gedächtnis
Uni Hamburg (SoSe 2015)
Uni Hamburg (SoSe 2015)
Kartei Details
Karten | 198 |
---|---|
Sprache | Deutsch |
Kategorie | Psychologie |
Stufe | Universität |
Erstellt / Aktualisiert | 30.11.2024 / 19.12.2024 |
Weblink |
https://card2brain.ch/box/20241130_allgemeine_psychologie_ii_lernen_gedaechtnis
|
Einbinden |
<iframe src="https://card2brain.ch/box/20241130_allgemeine_psychologie_ii_lernen_gedaechtnis/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Was sind Alternativen zur Bestrafung?
- Induktion intrinsischer Motivation
- Intermittierende Verstärkung (nicht monetär), die langsam ausgeschlichen wird
- Verstärkung gewünschten Verhaltens
- Extinktion
- Überkorrektur --> Neben Entschädigung auch Einübung adäquaten Verhaltens
- Reaktionsblockierung
Welche Nachteile bringt Bestrafung mit sich?
- Emotionale Reaktion auf Verstärkung, Bestrafung führt zu Furcht
- reduziertes Interesse
- Beeinträchtigung der Aufmerksamkeit
- generelle Reaktionsabnahme
- bei häufiger Bestrafung: Gefahr erlernter Hilflosigkeit
- Förderung aggressiven Verhaltens
- Schmerz/Verletzung fördert Aggressivität
- effektive Bestrafung erfordert kontinuierliche Verhaltenskontrolle (Überwachung)
- Versuche, Verhalten zu vertuschen, auf das Strafe folgen würde
- sehr hohe Anzahl an zu bestrafenden Verhaltensweisen (Hausaufgaben nicht erledigt, weil ferngesehen, mit Freunden getroffen, Computer gespielt etc.)
Welche Faktoren beeinflussen die Effektivität von Bestrafung?
- Intensität --> von Anfang an maximale ist am wirkungsvollsten
- Unmittelbarkeit
- kontinuierliche Bestrafung ist wrkungsvoller
- Aufzeigen alternativer Verhaltensweisen
Welche Arten von Bestrafung kennen Sie?
- „positive“ Bestrafung: aversiver Reiz hinzugeführt (z.B. Schläge)
- „negative“ Bestrafung: angenehmer Reiz wird entfernt (z.B. Fernsehverbot)
Was wird als Depressiver Attribuationstrias bezeichnet?
internal, global, stabil
Gibt es das Phänomen der Gelernte Hilflosigkeit bei der negativen Verstärkung?
Ja, wenn (aversive) Reize nicht kontrolliert werden können (keine Vermeidung möglich), bildet sich die Erwartung, auch zukünftig die Umwelt nicht beeinflussen zu können
Was behauptet die Zwei-Faktoren-Theorie?
Eine Vermeidungsreaktion wird durch klassische Konditionierung erlernt und durch negative Verstärkung aufrechterhalten.
Beispiel:
1. Schritt: Dunkelheit+Schock resultiert in Furchtreaktion bei Dunkelheit
2. Schritt: durch Vermeidung der Dunkelheit, wird Furcht vermieden
Was wird als negative Verstärkung bezeichnet?
Das Ausbleiben/Entfernen unerwünschter Reize.
Führt die kontinuierliche oder intermittierende Verstärkung zu einem robusteren Verhalten?
Die Intermittierende. Ein Ausbleiben einer Verstärkung führt nicht schnell zur Extinktion, da ein Ausbleiben nicht überaschend ist sondern auch schon bei der Akquisition vorkam.
Warum kommt es bei fixen Plänen zur Nachverstärkerpause?
Sättigung?
niedrige Quote (wenige Reaktionen bis zum Futter) führt zu kürzerer Nachverstärkungspause
Ermüdung?
Nachverstärkungspause lässt sich nichtdurch Länge der vorhergehende Quote vorhersagen
Distanz zum Verstärker!
bevorstehende Quote sagt Länge der Nachverstärkungspause vorher
Was bezeichnet die sogenannte Nachverstärkerpause?
Die Nachverstärkerpause tritt nach einer Verstärkung auf. Nach ihr zeigen sich schnelle Reaktionen.
Welche Verstärkerpläne gibt es und was kennzeichnet sie?
Kontinuierlicher Verstärkerplan
- jedes gewünschte Verhalten wird verstärkt
- z.B. jedes Mal, wenn Hausaufgaben erledigt, 5 Euro als Belohnung
- Nachteil: Verhalten lässt sehr schnell nach, wenn einmal nicht mehr verstärkt (kein stabiler Verhaltensaufbau)
Intermittierender Verstärkerplan
- nicht jede Reaktion wird verstärkt
- Zeit-vvs. Häufigkeitskriterium
- fest vs. variabel
Darunter fallen:
Fester Quotenplan (fixed ratio, FR)
- jede n-te gewünschte Reaktion verstärkt
- häufig nach jedem Verstärker Reaktionspause (Nachverstärkungspause)
- z.B. Kind bekommt jedes dritte Mal, wenn Hausaufgaben erledigt wurden, 5 Euro
- Alltagsbeispiel: Akkordlohn
Variabler Quotenplan (variable ratio, VR)
- Zahl erforderlicher Reaktionen zwischen Verstärkern variiert
- im Durchschnitt jede n-te gewünschte Reaktion verstärkt
- führt zu schneller und kontinuierlicher Reaktionsrate
- z.B. Kind bekommt zunächst 5 Euro, wenn zweimal Hausaufgaben erledigt, dann wenn vier Mal Hausaufgaben erledigt etc.
- Alltagsbeispiel: Glücksspiel
fester Intervallplan (fix interval, FI)
- erste Reaktion nach festem Zeitintervall wird verstärkt (egal wie viele Reaktionen in der Zwischenzeit erfolgen)
- z.B. Kind erhält für jede Stunde, in der Hausaufgaben erledigt werden, 5 Euro
- Alltagsbeispiel: warten auf Bus
Variabler Intervallplan (variable interval, VI)
- Zeit, die zwischen zwei Verstärkern verstreichen muss, variiert
- im Durchschnitt wird alle x Minuten eine Reaktion verstärkt
- z.B. Kind erhält zunächst nach 1h 5Euro für das Erledigen von Hausaufgaben, dann nach 3h, dann nach 2h etc.
- Alltagsbeispiel: zum Briefkasten gehen
Was ist ein Verstärkerplan?
Die Festlegung unter welchen Bedingungen ein Verstärker verabreicht wird.
Welche Formen der Verstärkung undBestrafung kennen Sie?
- Positive Verstärkung: Kinobesuch, Lob etc. nach Erledigung von Hausaufgaben
- Negative Verstärkung: wenn Hausaufgaben regelmäßig erledigt, Entbindung von anderen unliebsamen Aufgaben
- Bestrafung: Tadel, Schläge etc., wenn Hausaufgaben nicht erledigt
- Negative Bestrafung: Fernsehverbot, wenn Hausaufgaben nicht erledigt
Beschreiben Sie das Premack'sche-Prinzip.
Das Premack'sche-Prinzip ist ein Konditionierungs- bzw. Verstärkungsprinzip.
Als Gesetz formuliert: Tritt eine Verhaltensweise spontan häufiger auf als eine andere, kann durch kontingenten Einsatz das häufigere Verhalten als Verstärker für das andere dienen. Das Premack-Prinzip kann als pädaogische bzw. verhaltenstherapeutische Technik gut eingesetzt werden (Verhaltenstherapie).
Beispiel: Ratten lernten, unter Wasserentzug schneller zu rennen, wenn sie hinterher Wasser erhielten. Dagegen lernten andere Ratten, die sich nicht bewegen durften, mehr zu trinken, wenn sie hinterher laufen durften. Damit war klar, daß nicht nur eine Substanz, sondern auch eine geschätzte Aktivität Verstärker sein kann und gezielt als Anreiz für andere Aktivitäten dienen kann.
Welcher Effekt wird als Auto-shaping bezeichnet?
Auch wenn die Futtergabe in keinem kausalen Zusammenhang mit dem Verhalten stand, entwickelten die Tiere bestimmte Verhaltensmuster, ähnlich wie vbei der operanten Konditionierung.
Welcher Effekt wird als Instinktneigung bezeichnet?
Mit zunehmender Erfahrung schwächt sich ein verstärktes Verhalten in Richtung eines instinktiven Verhaltens ab (Breland & Breland, 1961).
Nennen Sie einige Prinzipien der operanten Konditionierung.
- graduelle Akquisition
- Extinktion (auf Reaktion folgt kein Verstärker)
- Spontanerholung
- Diskrimination
- Generalisierung
- Wiederauflebung (resurgence) --> Wiederauftauchen einer ehemals verstärkten Reaktion, die aber eigentlich gelöscht wurde
- Verhaltensketten (chaining) --> Bildung komplexerer Verhaltensketten, die schrittweise durch Shaping antrainiert werden können
Was bezeichnet bei der Dreifachkontingenz die Konsequenz?
Einen Verstärker. Dieser kann entweder ein
- primäre Verstärker (Essen, Trinken, Schlaf, Sex) oder
- sekundäre (generalisierte oder konditionierte) Verstärker (z.B. Geld), der mit vielen primären Verstärkern assoziiert wird
sein.
Was wird als diskriminativer Hinweisreiz bezeichnet?
Ein Stimulus der in Anwesenheit des Verstärkers zu einer operanten Reaktion führt..
Was sind die 3 Komponenten der Kontingenz bei der operanten Konditionierung?
1) diskriminativer Hinweisreiz
2) Reaktion
3) Stimulus/Verstärker der auf eine Reaktion folgt
Welche 4 Faktoren sind nach Bandura Voraussetzung für Imitation?
- Aufmerksamkeit
- Gedächtnis
- Reproduktion
- Anreiz/ Motivation
Was ist eine aversive Gegenkonditionierung?
Eine Behandlung für Alkoholismus und andere Süchte, in der die suchterzeugende Substanz mit einem aversiven Reiz verbunden wird, wie z.B. einem krankmachendem Mittel, das eine aversive Reaktion auf die suchterzeugende Substanz konditionieren soll.
Was ist das Arbeitsgedächtnis?
Ein Gedächtnissystem, das Informationen nur für sehr kurze Zeit aufrechterhalten kann und nur eine begrenzte Kapazität hat. Annahme: Es hält die Aufgaben präsent, die das Individuum gerade verrichtet.
Was ist der a-Prozess in der Opponent-Process-Theorie?
Eine erste unmittelbare emotionale Reaktion auf einen Stimulus, auf die später der b-Prozess folgt, der zur gegensätzlichen Emotion führt.
Was ist die Akquisitionsphase?
Ein Zeitraum im Lernprozess, in dem ein Individuum ein neues Verhalten erlernt.
Was ist der b-Prozess in der Opponent-Process-Theorie?
Eine emotionale Reaktion, die das Gegenteil des a-Prozesses ist. Annahme: der b-Prozess wird nur als Reaktion auf die Aktivität des a-Prozesses ausgelöst und entsteht und vergeht schwerfälliger.
Was bezeichnete Skinner als freies, operantes Verfahren?
Eine Art der Konditionierung, bei der die Tiere wiederholt und jederzeit reagieren konnten. Die Konditionierung wird dabei nicht in einzelne Durchgänge unterteilt, was wiederum das Experiment erleichtert und beschleunigt.
Wofür wird shaping verwendet?
Um komplexe Konditionierungen zu erlernen, die nicht in einem Schritt erlernbar sind.
Was wird bei der operanten Konditionierung als konditionierter Verstärker bezeichnet?
Ein ursprünglich neutraler Stimulus, der Reaktionen verstärkt, indem er mit primären Verstärkern kombiniert wird
Was wird in der operanten Konditionierung als primärer Verstärker verstanden?
Ein Stimulus, der naturgemäß jede folgende Reaktion verstärkt (Futter, Wasser, Sex)
Was wird als shaping bezeichnet?
Beim Shaping wird nicht erst die vollständige Abfolge der erwünschten Verhaltensweisen verstärkt, sondern bereits jede Annäherung an die gewünschten Verhaltensweisen.
Was wird als "Adjunctive Behaviors" bezeichnet?
Sowohl das Interimsverhalten (weit von der Futtergabe weg) als auch das Endverhalten (kurz vor der Futtergabe) , wenn das Futter einfach in gleichen Zeitabständen (ohne Wirkung des Verhaltens) gegeben wurde.
Was besagt das stop-action-Prinzip?
Es wird das Verhalten gestärkt, dem unmittelbar ein positives Ergebnis folgt.
Bei einfachen Problemkäfigen wurde im Moment des Öffnens ein Foto gemacht. Was konnten die Forscher beobachten?
Von Versuch zu Versuch wurde die Körperhaltung der Katze immer ähnlicher.
Wer entwickelte das stop-action-Prinzip der operanten Konditionierung?
Guthrie & Horton, 1946
Erläutern Sie das Gesetz des Effekts der operanten Konditionierung.
Lernen wird durch seine Konsequenzen kontrolliert, d.h. Verhaltensweisen, auf die ein befriedigender Zustand folgt, werden wiederholt; andere geschwächt. Der „befriedigender Zustand“ ist hier der Verstärker.
Beschreiben Sie das Experiment von Thorndike.
Eine Katze wurde in ein Problemkäfig gesetzt. Nach bestimmten Verhalten (Drücken eines Hebels, ziehen an einer Schnur, Öffnen eines Schlosses) konnte diese Katze sich befreien. Die Katze löste dies zunächst nach dem Prinzip des trial and error. Bei wiederholtem Versuch mit der gleichen Katze in dem gleichen Käfig brauchte die Katze immer weniger Zeit zum Öffnen.
Mit welchen Tieren arbeitete Thorndike mit seinen Problemkäfigen?
Was bezeichnet Skinner als das Grundprinzip der operanten Konditionierung?
Wenn auf die „richtige“ Weise operiert (gehandelt) wird, wird dieses Verhalten verstärkt.