Modul 3
Wahrnehmung, Aufmerksamkeit und Bewusstsein
Wahrnehmung, Aufmerksamkeit und Bewusstsein
Kartei Details
Karten | 264 |
---|---|
Sprache | Deutsch |
Kategorie | Psychologie |
Stufe | Universität |
Erstellt / Aktualisiert | 22.08.2016 / 09.09.2023 |
Weblink |
https://card2brain.ch/box/modul_320
|
Einbinden |
<iframe src="https://card2brain.ch/box/modul_320/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Was beinhaltet die Störung der Auslöschung?
- ein Stimulus, der auf der ggü.liegenden Seite der Hirnläision (meistens rechts) präsentiert wird, wird nicht erfasst, wenn der Stimulus gleichzeitig auf der anderen Seite präsentiert wird
-> man sieht nicht generell nichts auf der linken Seite, aber wenn gleichzeitig ein Stimulus auf der rechten und auf der linken Seite präsentiert wird, wird der linke zugunsten des rechten ausgelöscht
-> Neglect und Auslöschung ähnlich, aber unterschiedliche Arten von Defiziten
-> Auslöschung ist problematischer (man kriegt Objekt auf der linken Seite gar nicht mit, bei Neglect, sieht man, dass Figur links endet)
Welche Hirnareal sind bei Neglect und Auslöschung beschädigt?
Neglect:
-> Neglect ist ein unterschiedlicher Zustand, bei dem die involvierten Hirnareale über verschiedene Patienten stark variieren
-> typischerweise sind aber die im stimulus-orientierten/ ventralen Aufmerksamkeits-Netzwerk lokalisierten Bereiche involviert
-> Neglect hängt nicht nur von einem Gehirnareal ab, sondern von Gehirn-Netzwerken
Auslöschung
-> typischerweise Schädigung des temporalen-parietalen Kreuzungsareals und des intraparietalen Sulcus (dorsales Netzwerk, top down)
Welche Befunde liefern Studien über Patienten mit Störungen der visuellen Aufmerksamkeit?
- es gibt eine unbewusste Wahrnehmung und Verarbeitung
-> Patienten verarbeiten für sie "unsichtbare" visuelle Stimuli ohne deren bewusste Wahrnehmung
Studie von McGlinchey-Berroth et al.
- schnelleres Erkennen von Wörtern in lexikalischer Entscheidungsaufgabe, wenn semantisch verwandtes Wort vorher präsentiert wurde
-> sowohl auf der wahrgenommen, als auch auf der nicht wahrgenommenen Seite
Welche Erklärungsansätze gibt es für Neglect und Auslöschung?
Neglect:
- Schädigung des ventralen Aufmerksamkeits-Netzwerk
- beeinträchtigt Funktion des unbeschädigten dorsalen Aufmerksamkeits-Netzwerks
-> Schädigung nicht-räumlicher Funktionen im gesamten visuellen Feld
-> Reduktion der Aktivation der rechten Hemisphäre -> reduziert linksseitige Wahrnehmung
-> bringt Aktivität des dorsalen Netzwer aus dem Gleichgewicht
Auslöschung:
- verzerrte Konkurrenz um Aufmerksamkeit (rechte Seite bekommt mehr Aufmerksamkeit)
- reduzierte aufmerksamkeitsbasierte Kapazität
- rechter Stimulus (der links-hemisphärisch verarbeitet wird) "uberschreibt" linken Stimulus
Was ist die visuelle Suche?
Eine Aufgabe die das schnelle Entdecken eines Zielstimulus in einer visuellen Darstellung betrifft
(z.B. potentiell gefährliche Gegenstände in der Gepäckkontrolle am Flughafen)
Was besagt die Feature Integration Theorie nach Treisman und Gelade?
- geht davon aus, dass bei der visuellen Suche zwischen Objekt-Features (=Eigenschaften; z.B. Farbe, Größe, Linienorientierung, Buchstabe) und den Objekten selbst unterschieden wird
-> sie werden in zwei unterschiedlichen Verarbeitungsphasen analysiert
- schnelle, prä-attentive und parallele Verarbeitung basaler visueller Features der gesamten Szene (wie bei dorsalen Strom)
-> das Erkennen von einzelnen Features gelingt schnell und unabhängig von der Gesamtzahl präsentierter Reize
- langsamere Verarbeitung mit gerichteter Aufmerksamkeit, um Objekte zu verbinden
-> das Erkennen von Objekten mit kombinierten Merkmalen gelingt langsamer und ist abhängig von der Anzahl der Reize
Welche Studie haben Treisman und Gelade zur Textung der zwei Phasen der Verarbeitung entwickelt und was sind die Befunde?
Studiendesign:
In einer Szene von mehreren Reizen (display size) wurde entweder ein feature (S) oder ein kombiniertes feature (blaues S) gezeigt
Aufgabe: so schnell wie möglich bestimmen, ob der Zielreiz vorhanden ist oder nicht
Ergebnisse:
- egal wie viele Reize im Display Size präsentiert wurden, die VP konnten konstant schnell bestimmten, ob das einfache Feature vorhanden war oder nicht
- bei dem kombinierten Feature hing die Reaktionszeit vom Display size ab, je mehr Reize sich darin befanden, desto schwerer fiel es den VP das kombinierte feature zu finden
Konklusion:
-> Stützung einer schnelleren Phase, in der nur features analysiert werden und die unabhängig von display size ist und einer langsamen Phase, in dem features und Objekte kombiniert werden und die abhängig von display size ist
Welche weitere Vorhersage macht die Feature-Integrations Theorie?
- ohne gerichtete Aufmerksamkeit können Merkmale von verschiedenen Objekten kombiniert werden und per Zufall eine illusiorische Verknüpfung bilden
-> führt zur Wahrnehmung von Objekte, die nicht vorhanden sind
-> nachgewiesen u.a. bei Patienten mit eingeschränkter Fähigkeit zur Lokation von Objekte (-> schieben Featuers übereinander)
Welche Stärken und Schwächen hat die Feature-Integrations Theorie?
Stärken:
- es ist eine einfache Theorie zur Differenzierung zentraler Prozesskomponenten
- die Kernannahmen bezgl. der Phasen ist empirisch gut gestützt
Schwächen:
- es wurden weitere Faktoren identifiziert, die die Reaktionszeit beeinflussen (z.B. Ähnlichkeit der Distraktoren (Ablenkungsreize) untereinander und zum Zielreiz)
- eine klare Trennung zwischen paralleler und serieller Verarbeitung ist nicht möglich
-> die Effekte der Display-Größe auf die Reaktionszeit (Anstieg) sind unterschiedlich (automatische Verarbeitung ist nicht immer gleich flach und bewusste Verarbeitung nicht immer gleich hoch)
- die parallele Verarbeitung wird mehr benutzt, als angenommen
-> Studie mit 29 visuellen Such-Aufgaben: 72% der Aufgaben wurden parallel verarbeitet, nur komplexe Aufgaben wurden seriell verarbeitet
- starke Nutzung von Textur und peripheren Cues in realen Situation werden nicht berücksichtigt (nur im Labor getestet)
Was besagt das Textur-Nutzungs-Modell von Rosenholtz et al.
- visuelle Infos in der Peripherie (insb. Textur-Regionen) sind zentral für die visuelle Suche in realen Situationen
- frühe Analyse von Textur und Aufteilung von Objekten führen zum Verständnis des Kerninhalts (Gist) -> man schaut sich Situation nur ganz grob an und hat sehr schnell ein Grundverständis der Situation (es handelt sich um diese oder jene Situation, hier sind die relevanten Reize, da muss ich meine Aufmerksamkeit hinbewegen)
-> neuronale Implementierung: gleiche Textur = verschiedene Neuronen reagieren (feuern) gleich auf die gleiche Textur
- verschwommene Teile werden in der Peripherie nicht wahrgenommen
-> sie sind irrelevant für die Gist Kontruktion und bekommen deshalb keine Aufmerksamkeit
-> Verwendung von top-down Prozessen, um ein klares Bild auch in der Peripherie zu konstruieren
Welche Studie haben Rosenholtz et al. für ihr Textur-Nutzungs-Modell entwickelt und was sind die Befunde?
Studiendesign:
- Visuelle Suchaufgaben, bei denen die Peripherie manipuliert wurde
Befunde:
- nur die zentral wahrgenommen Infos bedingen die Leistung in visuellen Suchaufgaben (ob ein Reiz gefunden wird)
- Aber: Reaktionszeit ist abhängig von Wahrnehmung der Peripherie (-> je besser wiir Peripherie wahrnehmen, desto schneller finden wir den Stimulus)
-> Periphere Warhnehmung ist in realer Welt sehr zentral um auf die visuelle Suche zu fokussieren
Was beinhaltet das Zwei-Pfad Modell von Wolfe et al.?
- reale Erfahrungen und Wissen haben hohe Bedeutung bei der visuellen Suche
-> Gebrauch von top-down Prozessen
-> unser Wissen über wahrscheinliche Lokationen von Objekten ist die wichtigste Determinante der visuellen Suche im realen Kontext
(Bsp.: Wo ist der Fußgänger -> man schaut auf Bereiche, wo man Fußgänger normalerweise vermutet: z.B auf Wegen und nicht in der Luft)
-> Person sucht nicht ganz vorne, weil sie anscheinend peripher sehr schnell wahrnehmen kann, dass dort niemand steht
Was beinhalten die zwei Pfade der visuellen Suche nach Wolfe et al.?
Zwei Pfade der visuellen Suche
1. selektiver Pfad
- limitierte Kapazität (kann nicht viel Infos gleichzeitig verarbeiten, wegen bottleneck)
- Objekte werden individuelle zur Wiedererkennung selektiert -> verbindet Feautures, wodurch die Objekte wiedererkannt werden
2. nicht-selektiver Pfad
- nur die Kernaussage einer Szenerie wird verarbeitet
- hilft die Verarbeitung inhlb. des selektiven Pfads zu leiten -> sagt selektiven Pfad, wo die Aufmerksamkeit hingeleitet werden soll
- wird im realen Kontext viel häufiger verwendet als in traditionellen Labor-Paradigmen
-> beide Pfade sind gleichzeitig aktiv, um effektive visuelle Suche zu ermöglichen
Welche Studien zum Zwei-Pfad Modell wurden entwickelt und welche Befunde liefern sie?
- Untersucht den Effekt des Allgemeinwissens bei der visuellen Suche
-> Aufgabe: suchen sie das Glas Marmelade in der Küche
-> 80% der Sezene wird kaum fixiert (man sucht z.B. nicht in der Spüle) -> Peripherie leitet einen direkt zu den Teilen, wo man das Marmeladenglas vermuten würde
- Spezifische Erfahrung/ implizites Lernen beeinflusst die visuelle Suche
-> Aufgabe: suche einen unsichtbaren Stimulus (Augenaufzeichnung)
-> wenn man in der richtigen Richtung bzw. sehr in der Nähe des versteckten Stimulus ist, erfolgt ein Ton
-> Personen lernen sehr schnell, wo sie suchen müssen -> wenn kein Ton kommt, schauen sie eher in andere Richtung
Was beinhaltet der Punkt Cross-modale Effekte im Zusammenhang mit der visuellen Suche?
Aufmerksamkeitssteuerung in unterschiedlichen Modalitäten (auditiv und visuell) ist nicht unabhängig voneinander
Was beinhalten corss-modale Effekte?
- sie sind die Koordaination der Aufmerksamkeit über zwei oder mehr Modalitäten hinweg
- in realem Kontext müssen/ können Infos aus zwei oder mehreren Sinnesmodalitäten often koordiniert werden (cross-modale Aufmerksamkeit
-> z.B. Lippenlesen
- wir verwenden die visuelle Info der Lippenbewegung eines Sprechers, um das Verstehen des Gesagten zu erleichtern
Was ist ein Beispiel für einen Cross-modalen Effekt?
Bauchrednereffekt -> sagt etwas darüber aus, wie die Aufmerksamkeit der verschiedenen Modalitäten zsmwirkt
- ist der Effekt der fälschlichen Wahrnehmung, dass Geräusche von einer scheinbaren Quelle kommen (Wie beim Bauchreden -> durch Lippenbewegung der Puppe denkt man sie spricht)
Was sind Voraussetzungen für die Bauchredner-Illusion?
- visuelle und akustische Stimuli müssen in zeitlicher Nähe auftreten
- Geräusch muss der Erwartung entsprechen, die durch die visuellen Stimuli hervorgerufen wurden (z.B. wenn Puppe eine Frau ist, sollte die Stimme der einer Frau ähneln)
- die Quellen der visuellen und akustischen Stimuli sollten räumlich beieinander liegen
Der Bauchredner Effekt ist ein Beispiel für die visuelle Dominanz (der visuelle Reiz (die Lippenbewegung, zieht mehr Aufmerksamkeit auf sich, als der auditive). Welche Studie wurde in diesem Zusammenhang entwickelt, um die visuelle Dominanz zu demonstrieren und was sind die Befunde?
Studie von Spence:
- es wurden zufällig akustische und visuelle Stimuli präsentiert
- VP sollten jeweils eine dem Reiz zugewiesene Tase drücken, wenn sie diesen wahrnehmen (beide Tasten, wenn beide Reize präsentiert wurden)
Befunde:
- VP reagieren fast immer auf den visuellen Stimulus, auf den akustischen jedoch manchmal nicht, weil dieser von dem visuellen dominiert wird, sodass der akustische nicht wahrgenommen wird
Was beinhaltet der Effekt des temporalen Bauchredens?
-> es besteht nicht eine generelle visuelle Dominanz,sondern:
- der Bauchredner Effekt stellt ggf. nur eine Demonstration eines Spezialfalls für die allgemeine Hypothese der Modalitäten-Angemessenheit und -Präzision dar
-> bei konfligierenden Infos dominiert die Modalität mit der höchsten Genauigkeit/ Schärfe
-> beim Bauchreden ist das visuelle Signal valider, weil die Lokation des akustischen Stimulus eher grober erfolgt und bei einer Lippenbewegung klar ist, dass diese Person wohl sprechen muss
- die akustische Modalität ist typischerweise präziser darin, zeitliche Relationen einzuschätzen als die visuelle Modalität
Hypothese: Urteile über das zeitliche Einsetzen visueller Stimuli wird durch asynchrone akustisch präsentierte Stimuli verzerrt, wenn sie kurz davor oder danach präsentiert werden
Der temporale Effekt des Bauchredens wurde anhand einer Studie von Chen & Vroomen demonstriert. Wie sah diese Studie aus und was sind die Befunde?
- physischer onset des Lichts (man schaltet das Licht ein)
- etwas später wird ein Ton präsentiert -> verschiebt die Wahrnehmung nach hinten (Person denkt, Licht geht später an)
-> das wahrgenommene/ scheinbare zeitliche Einsetzen eines Blitzes wird hin zu einem leicht verzögert präsentierten Geräusch verschoben (=Effekt des temporalen Bauchredens)
-> auch die Wahrnehmung der Präsentations-Dauer visueller Reize wird verzerrt
-> visuelle Dominanz liegt nicht immer vor, auch akustische Dominanz kann bestehen
Was ist MT und welche Besonderheiten treten mei häufigen im Gesensatz zu seltenen MTs auf?
MT = mehrere Aufgaben gleichzeitig erledigen -> Aufmerksamkeit auf mehrere verschiedene Aufgaben lenken
häufige MTs:
- sind empfänglicher für Ablenkung als seltene
-> bei gleichzeitiger Verfolgung mehrererMedien, wird eher eine großflächige kognitive Kontrolle genutzt / entwickelt / gestärkt
-> sie sind weniger selektiv in ihrer Aufgabenverteilung (fokussieren weniger stark auf einzelne Aufgaben)
-> sie sind besser im Wechsel zwischen den Aufgaben
seltene Mts:
- haben bessere top-down Steuerung von Aufmerksamkeit (sind konzeotgesteuert)
- können besser auf spezifische Stimuli reagieren
-> MT ist sowohl mit nützlichen als auch mit nachteiligen Effekten der Aufmerksamkeitskontrolle korreliert
intensives Multitasiking ist sowohl mit nützlichen als auch mit nachteiligen Effekten der Aufmerksamkeit korreliert. Welches Problem tritt allerdings bei der Interpretation dieser Korrelation auf?
- die Kausalrichtung der Korrelation ist unklar:
-> es könnte sein, dass intensive MT eine bessere Aufmerksamkeitskontrolle in einigen Aspekten und eine schlechtere Fokussierung in anderen Aspekten entwickelt
-> es könnte aber auch sein, dass die Fähigkeit der Aufmerksamkeitskontrolle den Grad des MTs bestimmt
Potentielle Lösung: experimentelle Manipulation
Welche Faktoren determinieren die Leistung bei Bearbeitung zweier simultaner Aufgaben?
- der Grad der Ähnlichkeit beider Aufgaben (es kommt oft zu einer Überlagerung -> eine Aufgabe stört die andere)
-> ähnliche Stimulusmodalitäten (visuell vs. auditiv) -> wenn beide Aufgaben auditiv schwieriger
-> ähnliche Reaktionsmöglichkeiten (manuell vs. verbal)
- Übung
Welche Möglichkeiten der Vorgehensweise (Strategie) von MT gibt es?
- serielle Verarbeitung
-> beinhaltet den Wechsel der Aufmerksamkeit zwischen zwei Aufgaben, wobei zu einem Zeitpunkt jeweils immer nur eine Aufgabe beachtet wird
- parallele Verarbeitung
-> beinhaltet die Aufmerksamkeitszuwendung (und Verarbeitung) beider Aufgaben gleichzeitig
Was beinhaltet die multiple-ressourcen-Theorie nach Wickens?
- versucht zu beschreiben, wie MT ohne Leistungsverlust funktioniert
- das Verarbeitungssystem besteht aus mehreren unabhängigen Verarbeitungsmechanismen oder Ressourcen
- Theorie unterscheidet 4 Hauptfaktoren
-> Verarbeitungsstadien (Wahrnehmung, Kognition, Antwortverhalten)
-> Verarbeitungscodes (räumlich oder verbal)
-> Modalitäten (inhlb. der visuellen Wahrnehmung unterscheidet das Modell: Fokales und peripheres Sehen) (visuell oder auditorisch)
-> Antwort-Typen (manuell, räumlich, durch Laute, verbal)
http://macs2.psychologie.hu-berlin.de/aio/images/modelle_aufmerksamkeit/wuerfelmodell.png
Was ist die Grundannahme des vierdimensionalen Multiplen Ressourcemodell nach Wickens?
- bei Aufgaben, die verschiedene Ressourcen erforden, wird besser abgeschnitten, als bei Aufgaben. doe dieselben Ressourcen erfordern
Was sind die Stärken und Schwächen des multiplen Ressourcenmodell?
Stärken:
- die Annahme unterschiedlicher, unabhängiger Ressourcen wird empirisch gestützt
Schwächen:
- Moordination und Organisation der Anforderungen der Aufgaben erfordert höhere Kognition
- Modell macht keine Aussagen über konkrete kognitives Prozesse
- die Verwendung komplexer Strategien wird nicht berücksichtigt
Was beinhaltet die Strang-Kognitions-Theorie nach Salvucci und Taatgen?
- Gedankenströme können als Verarbeitungsstränge/ - ketten repräsentiert werden (z.B. Verarbeitung zweier Aufgaben könnte zwei verschiedene Stränge involvieren
- zentrale theoretische Annahme:
- diese multiplen Stränge oder Ziele können zur selben Zeit aktiv sein
-> es gibt keine Überlappung der benötigten kognitiven Ressourcen
-> wenn mehrere Stränge die selbe Ressource zu einem Zeitpunkt erfordernm muss einer warten (Ressourcen begrenzte Kapazität) -> die Lesitung des Strangs, der warten muss, wird beeinträchtigt sein
Welche weiteren Annahmen macht die Strang-Kognitionstheorie?
- definiert verschiedene kognitive Ressoourcen (deklaratives Gedächtnis, Aufgabenkontrolle, visuelle Wahrnehmung) -> diese können parallel oder aber auch alle für eine Aufgaben eingesetzt werden (aber nicht gleichzeitig für verschiedene Aufgaben)
- die Fähigkeit, gleichzeitig zwei Aufgaben zu bearbeiten hängt davon ab, welche kognitiven Ressourcen benötigt werden
- Theorie verbindet Hirnregionen mit bestimmten kognitiven Ressourcen
- es gibt keine zentral Exekutive, die über die Aufteilung der Verarbeitungsressourcen entscheidet
-> jeder Strang kontrolliert die Ressourcen in einer gierigen, aber höflichen Art ( Stränge beanspruchen Ressourcen gierig, wenn sie erforderlich sind, entlassen sie aber höflich, wenn sie nicht mehr gebraucht werden)
-> Ähnlichkeit zu Wickens Multiple-Ressourcen Theorie:
- beide Theorien nehmen an, dass es mehrere unabhängige verarbeitende Ressourcen gibt (und keine übergreifende Exekutive)
- aber Strang-Kognitionstheorie viel präziser in der Definition, wie die verschiedenen Prozesse der Stränge ablaufen
Welche Studien zur Testung der Annahmen der Strang-Kognitions-Theorie gibt es und was sind die Befunde?
Studie zur Testung der Interfernrenz-Hypothese -> wenn mehrere Stränge dieselbe Ressource nutzen, muss einer warten, dessen Leistung beeinträchtigt wird
- Subtraktion mit Überbetrag (17-8) und Zählen von Tönen (beide Aufgaben verwenden Ressource Arbeitskapazität)
-> Leistung verschlechtert sich tatsächlich, weil sie beide um die gleiche Ressource konkurrieren
-> Leistungsverlust kam nicht vor, wenn die beiden Aufgaben eine unterschieliche Ressource benutzten
Studie zur Testung der Hypothese der Flexibilität -> Personen wechseln flexibel zwischen Aufgaben, um ihre Leistung zu maximieren
- Autofahren & auswendig gelernte 11-stellige Telefonnummer tippen
- Instruktion zur Priorisierung einer der beiden Aufgaben
-> es gab eine bessere Leistung und eine schnellere / häufigere Zuwendung der priorisierten Aufgabe
-> Befund für die flexible Ressourcen Nutzung (man entscheidet selber, welcher Strang benutzt wird)
Welche Stärken und Schwächen hat die Strang-Kognitions-Theorie?
Stärken:
- Fortschritt bei der Identifikation der wichtigsten kognitiven Ressourcen
- komputationale Modellierung ermöglichte die detaillierte Überprüfung theoretischer Vorhersagen
- Stützung der Felxibilität-Annahme
- Personen haben oft weniger Probleme bei der gleichzitigen Bearbeitung zweier Aufgaben als bisher angenommen
Schwächen:
- keine übergeordnete Koordination zwischen den Strängen
- getestet lediglich in einfachen, eher unnatürlichen Aufgaben
Wenn es, wie von der Strang-Kognitionstheorie vorhergesagt, zwei unabhängige Stränge gibt, die ohne s.g. Exekutive arbeiten, müsste man davon ausgehen, dass die erforderten Ressourcen von zwei gleichzeitig bearbeiteten Aufgaben gleich der Summe von zwei einzeln bearbeiteten Aufgaben ist (Additivitätsannahme)
-> Aktivation der Hirnareale müsste gleich sein.
Dies hat die kognitive Neurowissenschaft getestet. Welche Befunde liegen zu dieser Annahme vor?
- Solche Additivitätsannahmen werden nur sehr selten bestätigt
- Befunde von fMRI-Studien zeigen eher eine Subadditivität:
-> Hirnaktivität bei gleichzeitiger Ausführung von zwei Aufgaben ist geringer, als die Summe der Hirnaktivität beider einzeln bearbeiteten Aufgaben
Welche Studie zu dual-task Aufgaben haben Just et al. entwickelt, welche die Subadditivität von Hirnregionen zeigt?
- auditives Verstehen von Sätzen vs. mentale Rotation von 3-D Figuren
-> es wurden die Leistung der dual-task Bedingung mit der Leistung der:
1. auditiven Aufgabe verglichen
- Hirnaktivität in Regionen der Sprachverarbeitung:
-> 53% reduziert in dual-task-Bedingung
2. mentalen Aufgabe
- Hirnaktivität in Regionen der mentalen Rotation
-> 29% reduziert in dual-task-Bedingung
Wenn bei dual-task-Bedinungen eher Subaddititvität von Hirnregionen auftritt, gibt es dann vielleicht andere Aktivitätsmuster, die uns etwas darüber sagen können, was dort passiert? - Ob die Aktivation vielleicht auf andere Komponenten der kognitiven Prozesse umgeleitet wird?
In der Tat ist dies der Fall. Was beinhaltet die Studie von Schweizer zu diesem Thema und was sind die Befunde?
-> Untersuchung der Effekte einer auditiven Distraktionsaufgabe (Ablenkungsaufgabe) - auditive Allgemeinwissensfragen - auf die Hirnaktivität während einer Geradeaus-Fahr-Übung
Ergebnisse:
- es gab einen signifikanten Anstieg der Aktivierung im ventrolateralen Präfrontalkortex und im auditorischen Kortex
- es gab eine verringerte Aktivierung in visuell-okzipitalen Arealen
-> wenn die auditive Aufgabe hinzugefügt wurde
Konklusion:
-> die Befunde stützen die Annahme, dass dual-task-Bedingungen häufig exekutive Prozesse erfordern, die bei Einzelaufgaben nicht oder nur weniger wichtig sind (auch in anderen Studien ist bei dual-task-Bedingungen vorderer Bereich aktiviert -> dort sind bewusste, kontrollierende Prozesse angesiedelt) -> Hirnaktivität im Präfrontalkortex
- solche exekutive Prozesse beinhalten:
- die Koordination von Aufgabenanforderungen
- die bewusste Kontrolle der Aufmerksamkeit
- dual-task-Management/ Strategien
Was beinhaltet automatische Verarbeitung?
Übung hat häfuig großen Einfluss auf Leistung, da manche Prozesse durch dauerhafte Übung automatisiert werden (können)
Was beinhaltet der traditionelle Ansatz zur automatisierten Verarbeitung nach Shiffrin & Schneider?
- unterscheiden zwischen zwei Arten von Prozessen:
- kontrollierte Prozesse
-> haben begrenzte Kapazität
-> erfordern Aufmerksamkeit
-> können flexibel bei sich verändernden Umständen verwendet werden
- automatische/ automatisierte Prozesse
-> haben keine begrenzte Kapazität
-> erfordern keine Aufmerksamkeit
-> sind sie einmal erlernt, sind sie schwer zu modifizieren (unflexibel)
Was beinhaltet die Studie von Shiffrin und Schneider zur Testung der Theorie der zwei Prozesse (es gobt kontrollierte und automatisierte Prozesse) und was sind die Befunde?
Studiendesign:
- VP sollten eine Zeichenfolge auswendig lernen (memory-set)
- VP wurde eine zweite Folge (display-set) präsentiert
-> jeweils 1 oder 4 Buchstaben oder Zeichen
Aufgabe: entscheiden, ob eines der Zeichen in beiden Sets enthalten ist
-> dabei gab es zwei verschiedene Varianten
- consistent mapping
-> nur Buchstaben im Memory-Set und nur Zahlen als Disktraktion im Dispay-Set
-> VP kann schnell sehen, dass display set und memory set nicht übereinstimmen
- varied mapping
-> nur Buchstaben im Memory-Set aber flexible Distraktoren (Buchstaben und Zahlen) im Display set
-> VP muss differenzierter unterscheiden, ob ein Zeichen in beiden Sets vorkommt
Ergebnisse:
- Länge der Sets hatte keinen Einfluss auf die Reaktionszeit beim consistent mapping
- Reaktionszeit steigt mit der Länge des Sets an beim varied mapping
-> Buchstaben vs. Zahl Unterscheidung wird automatisch verarbeitet, egal wie viele man unterscheiden muss
-> differenzierte Unterscheidung wird kontrolliert / bewusst verarbeitet
Weitere Studie: Effekt von Lernen
- Sets: B-L; Q-Z
-> nach 2100 Lerndurchgängen, waren Personen in der Lage automatisch zwischen Set 1 und Set 2 zu unterscheiden
-> umlernen sehr langwierig
Welche alternative Theorie gibt es zur automatisierten Verarbeitung?
- sie (Vertreter dieser Theorie; z.B. Moors und Houwer) lehnen die Annahme einer klaren Abgrenzung zwischen automatischen und kontrollierten Prozessen ab (beinhalten Mischung
- gehen von vier Faktoren der Automatisierung aus, die aber nicht gleichzeitig auftreten müssen;
Automatisierung ist:
-> unbewusst: Mangel an bewusster Aufmerksamkeit des Prozessen
-> effizient: braucht wenig aufmerksamkeitsbezogene Kapazität
-> schnell
-> nicht zielgerichtet/ unflexibel: unbeeinflusst von aktuellen Zielen des Individuums
Welche neuronale Verbindungen gibt es zwischen Lernen und Automatisierung? Was ist ein möglicher Erklärungsansatz dafür?
- unterschiedliche Arten des Lernens (egal, wie man lernt z.B. prozedural, deklarativ) scheinen bei Automatisierung zu ähnlichen Hirnaktivationsmustern zu führen (z.B. prämotorischer Kortex)
möglicher Erklärungsansatz: Instanzen Theorie von Logan
- Übung einer Aufgabe führt zur Speicherung von Infos im LZG, die eine spätere Leistung dieser Aufgabe erleichtert
-> direkter Abruf vergangener Lösungen aus dem Gedächtnis
-> aber: unterschiedliche Arten automatischer Prozesse