Gedächtnis, Lernen und Vergessen
Modul 3
Modul 3
Kartei Details
Karten | 83 |
---|---|
Sprache | Deutsch |
Kategorie | Psychologie |
Stufe | Universität |
Erstellt / Aktualisiert | 30.08.2016 / 05.07.2021 |
Weblink |
https://card2brain.ch/cards/gedaechtnis_lernen_und_vergessen1
|
Einbinden |
<iframe src="https://card2brain.ch/box/gedaechtnis_lernen_und_vergessen1/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Von welchen drei Bestandteilen des Gedächtnisses geht das Mehrspeichermodell des Gedächtnisses nach Atkinson und Shiffrin aus?
-Ultrakurzzeitgedächtnis
- Kurzzeitgedächtnis
- Langzeitgedächtnis
Wie (welchen Infofluss) durchlaufen die Infos diese verschiedenen Arten von Gedächtnissen nach dem Mehrspeichermodell?
-> sensorische Infos werden im Ultra-Kurzzeitgedächtnis kurzfristig gespeichert, zerfallen aber sehr schnell wieder
-> wird diesen Infos Aufmerksamkeit gewidmet, werden sie vom Ultra-Kurzzeitgedächtnis ins Kurzzeitgedächtnis überführt
-> dort kann aber nur eine gewisse Anzahl von Infos gespeichert werden, was dazu führt, dass alte Infos durch neuankommende ersetzt werden
-> durch Wiederholung der Infos im KZG können diese Infos dort gehalten werden und letztendlich ins LZG überführt werden
-> nur durch Interferenz (Üerlagerung verschiedener Gedächtnisspuren) können Infos aus dem LZG nicht mehr genutzt werden
Was beinhaltelt das Ultrakurzzeitgedächtnis im Mehrspeichermodell? Wie wird es charakterisiert und welche Merkmale kennzeichnen es?
- es ist modalitätsspezifisch (für sehr kurze Zeit können z.B. visuelle, auditive Infos behalten werden)
- es ist bewusstseinsunabhängig (Speicherung erfolgt automatisch, ohne Aufmerksamkeit)
- es hat eine große Speicherkapazität (es kann viel Info gespeichert werden)
- es besitzt eine kurze Haltedauer
- Funktion: es verlängert die Verfügbarkeit von Infos -> um sie weiterverarbeiten zu können
-> Ikonisches Gedächtnis (visuell) z.B. Lesen (Infos werden für ca. 500msec behalten) -> man könnte sonst nur einzelne Wörter behalten und könnte sie nicht zusammenfügen
-> Echoartiges Gedächtnis (auditiv) z.B. Gespräch (Infos werden für ca. 2 sek behalten) -> z.B. Lehrer stellt eine Frage während man sich mit Nachbar unterhalten hat, man kann sie trz noch beantworten, weil die Infos noch echoartig im UKZG abgespeichert sind und man sie bis zu ca. 2 sek nach Ankunft auslesen kann, ohne dass man ihnen Aufmerksamkeit zugewendet hat
- durch Zuwendung von Aufmerksamkeit gelangen die Infos von hier ins KZG
- ansonsten zerfallen sie sehr schnell wieder
Was beinhaltelt das Kurzzeitgedächtnis im Mehrspeichermodell? Wie wird es charakterisiert und welche Merkmale kennzeichnen es?
- hat eine Speicherkapazität für ca. 7 +- 2 Items (z.B. Zahlenfolge mit 7 Zahlen)
Erweiterung: nicht Items, sondern Chunks (= Gruppen von Infos, die aus mehreren Teilen zsmgesetzt sind, aber als Einheit verarbeitet werden können -> nicht nur einzelne Zahlen) TNTIBMUFO -> kann man sich nicht merken aber TNT IBM UFO schon
- zentrale Funktion: Infos werden weiterverarbeitet und ins LZG überführt
-> durch Wiederholung und Konsolidierung der Infos
-> durch bewusste, kontrollierte, elaborierte Verarbeitung
-> der Zerfall der Infos kann durch innere Wiederholung verhindert werden (dies führt zur Weiterleitung der Info zur unbefristeten Speicherung
- alte Infos werden durch neue Infos ersetzt (können aber auch durch Zerfall und Interferenz verloren gehen)
Was beinhaltelt das LZG im Mehrspeichermodell? Wie wird es charakterisiert und welche Merkmale kennzeichnen es?
- langfristige Speicherung
- unbegrenzte Kapazität sowie Behaltensdauer
- primär semantische Kodierung in einheitlichem Speicher (man speichert inhaltlich)
- Verlust der Infos: Interferenz -> nicht durch Zerfall
Was sind die Stärken und Schwächen des Mehrspeichermodells?
Stärken:
- es gibt Belege für die unterschiedlichen Gedächtnisspeicher
-> für die Dauer und die Kapazitäten
-> für die verschiedenen Vergessensmechanismen
-> Doppel-Dissoziation von KZG & LZG erlaubt die Annahme, dass die beiden verschiedene "Systeme" sind
Schwächen:
- das Modell ist zu stark vereinfacht: es geht von homogenen Speichern von LZG und KZG aus -> sie könnten aber auch intern uneinheitlich sein -> bestehen aus unterschiedlichen Teilspeichern
- das KZG ist nicht der einzige Weg zum LZG -> Infos sind schon mit LZG in Kontakt, bevor es im KZG ankommt -> Top-down Prozesse der Wahrnehmung & Bildung von Chunks bedingt die Nutzung des LZG
- das Modell erlaubt kein implizites Gedächtnis -> Inhalte werden im KZG immer bewusst verarbeitet, was in der Realität nicht der Fall ist
- die Annahme, dass alle Items im KZG gleich behandelt werden, ist nicht haltbar -> Es gibt keine Einheitlichkeit in diesen Items gegeben, nicht allen Items wird z.B. gleich Aufmerksamkeit gewidmet
- das Modell übertreibt die Rolle von Wiederholung für die Weiterleitung ins LZG
Das Einspeichermodell nach Jonides et al. stellt eine Alternavides Modell zum Mehrspeichermodell dar. Was beinhaltet es und wodurch ist es charaktersiert, von welcher Theorie geht es aus?
- bei Atkinson und Shiffrin liegt der Fokus auf den Unterschieden der verschiedenen Gedächtnisse
- bei Jonides et al. liegt der Fokus auf den Gemeinsamkeiten
- geht davon aus, dass es einen einheitlichen Gedächtnisspeicher gibt
- das KZG besteht aus temporären Aktivierungen von LZG Repräsentationen oder kürzlich wahrgenommenen Items (ein großes LZG in dem Infos gespeichert sind, KZG ist dann eine temporäre, stärkere Aktivation in einem Bereich des LZG)
-> diese Aktivierungen entstehen normalerweise durch fokussierte Aufmerksamkeit
- Annahme, dass das KZG in erster Linie vom Hippocampus und dem umgebenden medialen Temporallappen unterstützt wird -> zentral für die temporäre Aktivation
-> Modell kann erklären, warum Info im KZG bereits mit LZG in Berührung kommt sowie schnelle Top-Down Effekte der Wahrnehmung
-> Problem des Modells: amnestische Patienten die eine Störung des LZG haben, aber ein intaktes KZG (kann nicht sein, wenn KZG nur ein Teil des LZG ist)
Was beinhaltet die Studie zum Kurzzeitgedächtnis bei Hirnschädigung nach Race et al. und was sind ihre Befunde?
- Wiedererkennenstest von Gesichtern nach 8 oder 15 sec.
- Kontrollpersonen vs. Patienten mit Schädigung nur im Hippocampus
- Kontrollpersonen vs. Patienten mit Schädigung im Hippocampus und im medialen Temporallappen
Ergebnisse:
das KZG ist nur bei Patienten mit Schädigung mit Hippocampus und medialen Temporallappen gestört
-> kann bedeuten, dass medialer Temporallappen besonders wichtig für das Behalten im KZG ist
-> Hippocampus ist eher zuständig für LZG
Welche Stärken und Schwächen hat das Einspeichermodell?
Stärken:
- betont die enge Beziehung zwischen KZG und LZG -> es gibt gute Belege, dass das KZG wenigstens teilweise von LZG Aktivierungen abhängt
- funktionelle Bildgebung stützt die Annahme der Bedeutung des medialen Temporallappens
Schwächen:
- zu starke Vereinfachung, dass das KZG nur als Teil des LZG aktiviert wird
- keine starken Belege dafür, dass amnestische Patienten Leistungseinschränkungen bei Aufgabrn zum relationalen Gedächtnis aufweisen, die vor allem auf dem KZG beruhen
- Studien mit bildgebenden Verfahren unterstützten die Annahmen des Einspeichermodells eher nicht
Was beinhaltet das Arbeitsgedächtnismodell von Baddeley und Hitch? Durch welche Merkmale wird es charakterisiert?
- Grundidee: Arbeitsgedächtnis ersetzt ein einheitliches Kurzzeitgedächtnis
-> verarbeitet Infos weiter und speichert diese kurzfristig
- Annahme, dass das Arbeitsgedächtnis aus 4 Teilen besteht:
1. Zentrale Exekutive:
- modalitätsfreie zentrale Steuereinheit/ Leitung
- ähnelt der Aufmerksamkeit
- wird aktiviert bei der Bearbeitung aller kognitiv anspruchsvollen Aufgaben
- es verwendet Untersysteme zur Verteilung der Aufgaben der Verarbeitung
2. Phonoligische Schleife
- verarbeitet und speichert auditive Infos kurzzeitig in sprachbasierter Form
3. Räumlich-visueller Notizblock (VSSP) -> visuelle Infos
- ist spezialisiert auf die räumliche und visuelle Kodierung und Verarbeitung
(4. Episodischer Puffer-> im verbesserten Modell hinzugefügt)
- ist ein temporäres Speichersystem
- es enthält verbundene Infos aus phonologischer Schleife, VSSP und dem LZG bzw. erlaubt es diese zu verbinden/ integrieren und neue Repräsentationen zu bilden
Wie sieht der Infofluss im Arbeitsgedächtnismodell nach Baddley aus?
- räumliche, visuelle und haptische Infos werden im VSSP zwischengespeichert
- gleichzeitig oder auch alternativ werden auditive Infos, wie Sprache, Musik und Umweltgeräusch in der phonologischen Schleife zwischengespeichert
-> diese Infos werden an den episodischen Puffer geleitet, welche diese Infos miteinander verbindet und evtl. noch Infos wie Geruch oder Geschmack integriert
- die Zentrale Exekutive verarbeitet diese Infomartionen weiter und verteilt die Infos an die beiden Unterstützungsysteme
http://www.ku.de/fileadmin/_migrated/RTE/RTEmagicC_A.png.png
Von welchen Annahmen und Vorhersagen geht das Arbeitsgedächtnismodell aus?
- 3 Komponenten
-> haben begrenzte Verarbeitungskapazität
-> arbeiten relativ unabhängig voneinander
- Vorhersagen
-> Prozesse, die die gleichen Ressourcen verwenden, sollten sich gegenseitig behindern
-> Prozesse die unterschiedliche Ressourcen verwenden, sollten problemlos gleichzeitig ausgeführt werden können
-> Starke Stützung dieser Vorhersagen durch Dual-Task Aufgaben
Was beinhaltet die Studie von Robbins et al. zur Testung der Unabhängigkeit der Teil-Systeme des Arbeitsgedächtnisses?
- Aufgabe: Auswählen eines nächsten Schachzuges (Anfänger und Fortgeschrittene)
-> Aufgabe erfordert die zentrale Exekutive und den VSSP, aber nicht die phonologische Schleife
Bedingungen:
- Kontrollbedingung: mit dem Finger auf den Tisch klopfen -> sollte keine Einschränkung hervorrufen
- Artikulatorische Unterdrückung (Belastung der phonologischen Schleife): Wörter wiederholt aussprechen
- Unterdrückung des Notziblock (Weitere Belastung des VSSP) : Zahlen im Uhrzeigersinn drücken
- Unterdrückung der Zentralen Exekutive (Weitere Belastung): Zufallszahlen generieren
Ergebnisse:
- Verschlechterung der Leistung der Auswahl des nächsten Schachzuges insb. bei der Unterdrückung des VSSP und zentraler Exekutive
- kaum Verschlechterung der Leistung der Auswahl des nächsten Schachzuges bei der Unterdrückung der phonologischen Schleife
-> Stützt die Annahme, dass Prozesse, die unterschiedliche Ressourcen verwenden problemlos gleichzeitig ausgeführt werden können
Wie ist die phonologische Schleife des Arbeitsgedächtnisses aufgebaut?
- sie besteht aus zwei Komponenten
- dem phonologischen Speicher
-> dieser ist passiv und befasst sich mit der Sprachwahrnehmung
- artikulatorischen Kontrollprozessen
-> sind aktiv und befassen sich mit der Sprachproduktion
-> Wiederholung von Infos
-> Info aus phonologischen Speicher wird durch artikulatorische Kontrollprozesse behalten
-> artikulatorische Kontrollprozesse wirken mit phonologischen Speicher zsm, was dazu führt, dass die Info nicht sofort zerfällt
-> visuell präsentierte Wörter werden auditiv umgewandelt und im phonologischen Speicher abgespeichert
https://upload.wikimedia.org/wikipedia/commons/thumb/0/01/Phonologische_schleife.gif/300px-Phonologische_schleife.gif
Ob das Speicherformat in der phonologischen Schleife wirklich auditiv ist, wurde u.a. mit dem phonologischen Ähnlichkeitseffekt getestet. Wie sieht dieser aus und was sind die Befunde?
- Phonologischer Ähnlichkeitseffekt:
-> VP wurden gebeten verschiedene Listen von Wörtern zu lernen (1 Liste mit Wörtern, die ähnlich klingen + 1 Liste mit Wörtern, die nicht ähnlich klingen) und diese in der richtigen Reihenfolge wiederzugeben
Ergebnisse:
- Die Wiedergabe in der richtigen Reihenfolge war um 25% schlechter bei der Liste mit den phonologisch ähnlichen Wörtern, als bei der Liste mit den unähnlichen Wörtern
-> die Reihenfolge der Wörter wurde durch die phonologische Reihenfolge vertauscht
-> spricht dafür, dass das kurzzeitige Behalten der Infos in der phonoligischen Schleife, auf auditiven Merkmalen basiert -> sonst könnte die phonologische Ähnlichkeit nicht beeinflussen, ob man die Infos behalten kann
-> legt sprachbasierte rehearsal-Prozesse inhlb der phonologischen Schleife nahe
Ob das Speicherformat in der phonologischen Schleife wirklich auditiv ist, wurde u.a. mit dem Wortlängeneffekt getestet. Wie sieht dieser aus und was sind die Befunde?
- die Gedächtnisspanne ist kleiner für Wörter, die viel Zeit benötigen, um ausgesprochen zu werden
-> dies wurde in Aufgaben zur Messung der Gedächtnisspanne nachgewiesen:
- Präsentation von Wörtern
- Aufgabe: so viele Wörter wie möglich in der richtigen Reihenfolge abrufen
-> die Wiedergabe fällt den VP bei längeren schwerer, als bei kurzen Wörtern
also: wenn Personen Infos (Wörter) in ihrer phonologischen Schleife wiederholen, ist es bei zu langen Wörtern nicht mehr möglich den artikulatorischen Kontrollprozess (Wörter vor sich hinsagen) zu verwenden
- Studie von Baddlex et al.
-> artikulatorische Unterdrückung beseitgte den Wortlängeneffekt
-> Evidenz für auditorische Verarbeitung
-> legt nahe, dass die Kapazität der phonologischen Schleife von der zeitlichen Dauer der Artikulation bestimmt wird
Welche Annahmen werden zum VSSP gemacht?
- wird zum temporären Speichern und zur Verarbeitung räumlicher und visueller Infos verwendet
- Kontroverse, ob VSSP aus zwei seperaten Systemen besteht, die visuelle und räumliche Infos getrennt verarbeiten
- Annahme von Logie: es gibt zwei seperate Subsysteme
1. visueller Zwischenspeicher (Puffer)
-> speichert Infos über visuelle Form und Farbe
2. innerer Schreiber
-> verarbeitet räumliche und Bewegungs-Infos
-> ist an rehearsal von Infos im visuellen Zwischenspeicher beteiligt
-> gibt Infos aus dem Zwischenspeicher an die zentrale Exekutive
Evidenz: verschiedene Pfade für visuelle und räumliche Infos (ventraler vs. dorsaler Pfad)
Klauer und Zhao haben eine Studie zu der Frage entwickelt, ob das VSSP aus zwei Subsystemen besteht. Was beinhaltet sie und was sind die Befunde?
Primäraufgabe:
- Räumliche Aufgabe: Position von Punkten merken
- visuelle Aufgabe: Chinesische Schriftzeichen merken
Sekundäraufgabe:
- Farbdiskriminierungsaufgabe
- Bewegungsdiskriminierungsaufgabe
Ergebnisse:
- Störungen nur bei Kombination von
-> Dots-Bewegung
-> Zeichen-Farbe
-> stützt zumindest Teilweise Unabhängigkeit der Verarbeitung visueller und räumlicher Infos im VSSP
Welche Annahmen werden zu der zentralen Exekutiven des Arbeitsgedächtnis gemacht?
- es wird eine Lokalisierung im Frontallappen angenommen
-> rTMS des dorsolateralen präfrontalen Kortex stört komplexe kognitive Prozesse
- sie ist mit Steuerungsprozessen assoziiert wie:
-> Aufmerksamkeitsfokussierung oder Konzentration
-> Aufteilen von Aufmerksamkeit zwischen zwei Stimulusströmen
-> Aufmerksamkeitswechsel zwischen Aufgaben
-> Verbindung mit dem LZG
Weitere Befunde zur zentralen Exekutiven kommen aus der Untersuchung des Dysexekutiven Syndrom. Was ist das und welche Störungen liegen dabei vor?
- es ist ein Zustand in der Schädigung des Frontallappen der zur Störung der zentralen Exekutiven des Arbeitsgedächtnissen führt (manchmal haben Patienten stattdessen eine Schädigung posteriorer/ parietaler Regionen
- diese Störung äußert sich in Fähigkeiten der
-> Planung
-> Organisation
-> Kontrolle
-> Initiierung von Verhalten
Stuss und Alexander vertreten die Theorie der differenzierten Betrachtung der Teilfunktionen der zentralen exekutiven. Was beinhaltet diese?
- sie nehmen an, dass Patienten mit ausgedehnten frontalen Schädigungen zwar ein globales dysexekutives Syndrom haben,
- dass es aber effektiv drei exekutive Prozesse innerhalb des Frontallappens gibt -> Patienten mit selektiven Läsionen zeigen möglicherweise Probleme mit einem einzigen Prozesse (nicht mit allen)
-> gehen von 3 zentralen Prozessen aus, die durch die zentrale Exekutive des Arbeitsgedächtnisses gesteuert werden
1. Aufgabenstellung
- Planung -> wird generiert in der linken lateralen frontalen Region
2. Überwachung
- Kontrolle -> wird generiert in der rechten lateralen frontalen Region
3. Energetisierung
- Aufrechterhaltung der Aufmerksamkeit & Initiierung von Reaktionen -> wird generiert in superioren medialen Regionen des präfrontalen Kortex
Wie ist der episodische Puffer des Arbeitsgedächtnisses charakterisiert? Welche Merkmale hat er?
- er erklärt wie das LZG die Verarbeitung des KZG beeinflussen kann
- nach Baddeley und Wilson ist der episodische Puffer:
- ein System mit beschränkter Kapazität (4 Chunks)
- er integriert Infos aus unterschiedlichen Quellen -> fungiert als Vermittler zwischen der phonologischen Schleife und dem VSSP
- ein Prozess des aktiven Verbindens von Infos
Schwächen:
- unklar, wie alle unterschiedlichen Infos integriert werden
- eröht die Flexibilität des Modells - ist schwer testbar
- die Annahme der zusätzlichen Integration von Infos anderer Modalitäten ist nicht geprüft (z.B. Geruch, Geschmack)
Welche Stärken und Schwächen hat das Modell des Arbeitsgedächtnisses?
Stärken:
- es ist eine einflussreiche Erweiterung des Mehrspeichermodells
-> es beschreibt neben der Speicherung auch aktive Verarbeitung von Infos
-> es erklärt Daten von hirngeschädigten Patienten
-> die Rolle des verbalen rehearsals ist weniger zentral
Schwächen:
- in machen Teilen ist es etwas unspezifisch und erschwert dadurch die Testung
- die Anzahl der Teilfunktionen der zentralen Exekutiven ist noch umstritten
- das Zsmspiel zwischen den Kompnenten ist nicht ausreichend spezifiziert
Was beinhaltet die Theorie der Verarbeitungsebenen nach Craik & Lockhart?
- Annahme, dass die Ebene (Tiefe) der Stimulusverarbeitung die Einprägsamkeit einer Infos beeinflusst (vs. nur Wiederholung, wie im Mehrspeichermodell von Atkinson und Shiffrin)
-> tiefere Verarbeitungen produzieren elaboriertere, dauerhaftere und stärkere Gedächtnisspuren als oberflächliche Verarbeitung -> tiefgehende semantische Verarbeitung
Craik und Tulving haben eine Studie zur Testung der Theorie der Verarbeitungstiefe entwickelt. Was beinhaltet sie und was sind die Befunde?
- 3 verschiedene Aufgaben, die die verschiedenen Verarbeitungsebenen widerspiegeln
1. oberflächliche (graphemische) Aufgabe:
- entscheide, ob das Wort in Groß- oder Kleinbuchstaben geschrieben ist
2. mittlere phonemische Aufgabe:
- entscheide, ob das Wort sich mit einem Zielwort reimt
3. tiefe semantische Aufgabe:
- entscheide, ob das Wort in einen Lückensatz passt
-> ergab das beste Gesamterinnerungsergebnis
-> Stützung der Annamen der Verarbeitungsebenen- Theorie
Welche weiteren Befunde zur Theorie der Verarbeitungsebenen gibt es?
- explizite Gedächtnistests fanden Belege für den Einfluss von Verarbeitungstiefe
- implizite Gedächtnistests fanden eher schwächere Belege für die Verarbeitungstiefe
- die Besonderheit eines Stimulus beeinflusst die Erinnerung positiv
- Vorwissen hilft, Gedächtnis währed des Enkodierens zu organiseren
-> nicht nur Verarbeitungstiefe
Welche Stärken und Schwächen hat die Theorie der Verarbeitungsebenen?
Stärken:
- Einfluss von Verarbeitungstiefe auf Langzeitgedächtnisleistung wird zu recht hervorgehoben
- Lernen als Nebenprodukt von Wahrnehmung, Aufmerksamkeit und Verstehen
Schwächen:
- Verarbeitungstiefe ist schwierig zu beurteilen und zu messen
- unterschätzt die Wichtigkeit spezifischer Aspekte des Abrufs
- die Wechselwirkung zwischen Verarbeitungstiefe und Besonderheit wird nicht spezifiziert
Was war die klassische Perspektive von Lernen und warum wurde diese verändert?
- Lernen resultiert hauptsächlich aus Wiederholen und vertieftem Studium der Materialien
- Lerntests sind sinnvoll zur Evaluation des Lernfortschritts
-> Studien haben herausgestellt, dass diese Perspektive eine Unterschätzung von Lerntests für das Lernen darstellt
-> daraus hat sich Perspektive Lernen durch Gedächtnisabruf entwickelt
Studie zum Effekt des Testens von Roediger & Karpicke:
- Aufgabe: Erinnern des Inhalts einer Textpassage
- Bedingungen:
-> wiederholtes Studieren (4x Lesen)
-> einfacher Test: 3x Lesen und dann so viel wie möglich erinnern (recall)
-> mehrfacher: Text 1x Lesen und 3 mal erinnern (recall)
Ergebnisse:
- nach 5 min: wiederholtes Studieren hat die beste Leistung
- nach 1 Woche: mehrfacher Test ist 50% besser als wiederholtes Studieren
-> Abruf von Info, die erinnert werden soll, während des Lernens verbessert den Lernerfolg (stärker, als subjektiv erwartet)
-> Tests sind ausgesprochen wichtig, um Infos besonders lange zu behalten
Pyc & Rawson haben die Mediator-Effektivitäts Hypothese entwickelt, welche versucht, den Effekt des Testens beim Lernen zu begründen und zu erklären. Was beinhaltet sie und was sind die Befunde?
Mediator-Effektivitäts-Hypothese:
- Testung führt zu effektiverer Nutzung von "Mediatoren" (= vermittelnde Wörter die Cues und Zielreize verbinden -> Eselsbrücken)
Untersuchung dieser Hypothese:
- Personen, die englisch sprechen und suaheli lernen wollen
-> wingu (cue) bedeutet cloud (Zielreiz) ; mediator: plane (Flugzeug hat Flügel/ wings)
Empirische Befunde:
- Generierung von Mediatoren erfolgt eher bei Test-Restudy Bedingung, als bei einer Restudy-only-Bedingung
- die Erinnerung ist korrekter, wenn man sich einen Mediator zur Hilfe nimmt (sich an eine Eselsbrücke erinnert)
-> Stützung der Mediator-Effektivitäts Hypothese
Was beinhaltet die Abruf-Aufwands-Hypothese im Zusammenhang mit Lernen durch Gedächtnisabruf?
Testen ist besonders effektiv, wenn der Abruf schwierig ist -> wenn es einem schwer fällt, sich zu erinnern
-> bei längeren Intervallen zwischen Lernen und Abrufen
Welche neurowissenschaftlichen Befunde gibt es zu Lernen durch Gedächtnisabruf?
- Testen involviert aufwändigere semantische Verarbeitung
-> es gibt eine stärkere Aktivation von Hirnarealen die mit der Sprachverarbeitung assoziiert sind
Welche Stärken und Schwächen hat der Ansatz des Lernens durch Gedächtnisabruf bzw. durch Testen?
Stärken:
- es gibt empirische Belege für den starken Effekt der Testung während des Lernens auf den Lernerfolg
- er kann bei praktisch jedem Material angewandt werden
- der Effekt ist stärker, als von Lernenden erwartet
- die Gernerierung effektiverer Mediatoren ist zentral
Schwächen:
- vorwiegend Untersuchung zum Lernen paarweiser Assoziationen
-> die Generalisierung auf die Umwelt ist unklar
- es gibt mögliche weitere Einflussfaktoren, die über effektive Mediatoren und Schwierigkeit des Abrufs hinausgehen
Was beinhaltet implizites Lernen und wie definieren Cleeremans und Jiménez diesen Prozess?
- Lernen komplexer Inhalte ohne sich darüber bewusst zu sein, was (bzw. das) gelernt wurde
Cleeremans und Jiménez:
implizites Lernen ist ein Prozesse, durch den wir sensitiv für gewisse Regelmäßigkeiten in der Umwelt werden
> ohne die Absicht diese Regularitäten zu lernen
> ohne sich dessen bewusst zu sein, dass man lernt
> Lernen in einer Art, die es schwer macht das resultierende Wissen zu explizieren
Was ist ein Beispiel für implizites Lernen, was in der Vorlesung genannt wird?
- Tippen am Computer
-> wir tippen Millionen von Wörtern, haben aber nur ein vages Bewusstsein davon, wo sich die Buchstaben auf der Tastatur befinden
Studie:
- VP waren professionelle Typisten, die ca 70 Wörter pro Minute tippen können -> (wir) haben implizit abgespeichert, wo die Buchstaben liegen
Aufgabe: die Buchstaben in eine leere Tastatur eintragen
Ergebnisse: nur 57% der eingetragenen Buchstaen waren korrekt
Wodurch ist implizites Lernen nach Reber im Gegensatz zu expliziten Lernen charakterisiert?
- alterunabhängig -> implizit lernen kann man immer
- IQ-unabhängig
- Robustheit der abgespeicherten Infos -> unabhängig von Störungen, die explizite Systeme beeinflussen (z..B. Amnesie)
- geringe Variabilität -> geringe individuelle Unterschiede -> alle können das zum gewissen Grad
- Gemeinsamkeit des Prozesses -> implizit können auch Tiere lernen
-> Annahmen sind teilweise plausibel, aber vereinfacht und nicht alle empirisch stark gestützt
Welches Paradigma wird zur Untersuchung impliziten Lernens vorgeschlagen?
Zeichenfolgen / implizite Grammatik:
- man gibt VP eine Zeichfolge und sie sollen herausfinden, nach welcher Logik sie aufgebaut ist
-> naive Messung: VP werden danach gefragt, ob sie ein explizites Wissen haben, nach welcher bzw. ob die Zeichenfolge nach einer Logik aufgebaut ist
Problem: es kann verschiedene Ursachen geben, warum das explizite Wissen nicht berichtbar ist -> man kann z.B. vergessen haben,dass man explizit gelernt hat
-> schwierig implizites Wissen zu messen und inwieweit es von expliziten Wissen abtrennbar ist
Welche zwei Kriterien wurden vorgeschlagen, welche erfüllt sein müssen, um davon ausgehen zu können, dass eine Person wirklich implizit gelernt hat?
1. Informationskriterium:
- nach dem Wissen fragen, welches für die Leistung verantwortlich ist
2. Sensitivitätskriterium:
- vollständige Erfassung des relevanten Wissen
Das Verfahren der Prozess-Dissoziation wird eingesetzt, um implizites Lernen von explizitem Lernen abtrennen zu können. Wie funktioniert dieses Verfahren?
- VP wird eine wiederholte Abfolge von Stimuli präsentiert (A B C A B C A ?)
- Aufgabe: VP sollen den nächsten Stimuli erraten (Inklusion) oder vermeiden, den nächsten Stimulus zu erraten (Exklusion)
-> Exklusion erforderte eine bewusste Korrektur -> man musste sich bewusst machen, dass B nicht genannt werden soll -> explizites Lernen
- pur implizites Lernen zeigt sich in der äquivalenten Leistung in beiden Bedingungen
-> die Differenz von Inklusion - Exklusion = Anteil expliziten Lernens -> sollte gering sein
Mit Hilfe der seriellen Reaktionszeit Aufgabe, in der auch das Verfahren der Prozess-Dossoziation angewendet wurde, wurde implizites Lernen untersucht. Wie sah diese Aufgabe aus und was sind die Befunde?
-VP sollen auf Positionen mit gewissen Buchstaben reagieren
-> Präsentation einer komplexen, sich wiederholenden Sequenz der Positionen (A B C D)
-> wenn die ein Cue auf der ersten Position erscheint mit A antworten, wenn Cue auf der zweiten Position erscheint mit B antworten, etc. -> die Sequenz der Cues wird wiederholt, bis zu einem unterbrechenden Cue
- Befunde:
-> VP werden in ihrer Reaktion immer schneller, wenn sie die Sequenz implizit lernen
-> die Reaktionen werden wieder langsamer, wenn eine neue Sequenz auftritt
-> oft ist die Sequenz aber nicht explizit bekannt
danach wurde das Verfahren der Prozess-Dissoziation angewendet
-> VP haben die Sequenz doch nicht nur implizit gelernt
Was beinhaltet die Reaktions-Abfall Hypothese, wie wurde sie getestet und was beinhaltet sie? (Haider)
Hypothese:
- explizites Lernen führt zum abtrupten Abfall der Reaktionszeit
(Personen lernen erst implizit eine Sequenz und ab dem Zeitpunkt, an dem sie die Sequenz explizit erkennen fällt die Reaktionszeit abrupt (wird extrem schnell) -> implizites Lernen geht in explizites über)
- Evidenz aus Studie mit serieller Reaktionszeit Aufgabe
-> 34% zeigen abrupten Abfall + großen Unterschied in Prozess-Dissoziation (können die Sequenz auch explizit Beschreiben -> haben explizit gelernt, was mit dem abrupten Abfall zu tun hat)
-> 66% zeigen keinen abrupten Abfall + keinen Unterschied in der Prozess-Dissoziation (keiner war in der Lage Sequenz explizit zu beschreiben)
-> Hypothese gestützt