Modul 3a

KOgnition

KOgnition


Kartei Details

Karten 431
Sprache Deutsch
Kategorie Psychologie
Stufe Universität
Erstellt / Aktualisiert 09.04.2022 / 12.08.2024
Weblink
https://card2brain.ch/box/20220409_modul_3a
Einbinden
<iframe src="https://card2brain.ch/box/20220409_modul_3a/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Satz-Kontext-Effekt

Forschung: Vorangegange Wörter werden zur Bestimmung der folgenden Wörter genutzt

Vorherige Wörter = Kontext

Frühe semantische Aktivation auf spätere Wörter schafft Erwartung, die oft zutreffend ist

Studie: Bild Apfel und danach Wort Apfel. Hirnmessung: Verstäkre Aktive Hinregion des Sprachzentrums schon bei Anschauen des Bildes -> Wort schon aktiviert

Lautes Lesen

Wir können gut echte aber auch Pseudo Wörter lesen (Buchstabenfolgen die man lesen kann aber kein Wort ergeben)

Herausforderung für lautes Sprechen: Aussprache von Pseudo und Wörtern muss man vorhersagen können

Aussrpache Probeme: Orthogoraphie und Phonologie ncht immer regulär

Lautes Lesen: Konnektionistisches Dreiecksmodell

Gesamte Info wird verwendet, um Wörter zu lesen (Aktivation von Orthographie, Semantik, Phonologie, Kontext)

Irregularitäten zw Orthogr. und Phonologie werden so gelöst: Mögliche Aussprachen werden gegeneinander gewichtet
 

Zwei Wege:
a) Direkter Weg: Orhographie zu Phonologie
b) Indirekter Weg: Indirektet Weg über Wortbedeutung

Simulation und Befunde:
Netzwerk wird trainiert mit 3000 Wörtern, die ausgesprochen werden müssen, Netzwerk bekommt Feedback, ob Aussprache richtig oer falsch war. Wenn Fehler vorlag, lernt Netzwerk von Fehler, beim nächsten Mal klener Fehler (Back Propagation: Lernen durch Feedback)
Ergebnis => 90% korrekte Aussprache für Pseudo Wörter des Netzwerks, die es vorher nicht gelernt hatte. Verhalten des Netzwerks ähnlich zu Erwachsenen

Konnektionistisches Dreiecksmodell: Bewertung

Stärken:
 

- Belege stützen Annahme des Modells, dass semantsiche, orthographische und phonologische Systeme parallel verarbeitet werden
- Modell betont korrekterweise zentrale Bedeutung der Semantik
- Es gitb aktiven Lernmechanismus in dem Modell der Realität formal nachbildet

Schwächen:

- Simulation fokussiiert auf einfache Wörter
- Verarbeitung auf semantischem Pfad nur grob ausgearbeitet

Lesen: Blickbewegungen

Bewegung beim Lesen nicht kontinuierlich -> Sakkaden (sprunghaft, schnelle Augenbewegungen) zw. Fixationen:

- ballistisch (Punkte die fixiert werden und springen, Richtung einmal initiiert kann nicht mehr verändert werden)
- benötigen 20 - 30 ms bis zur Vervollständigung
- sind ungefähr 8 Zeichen lang
- Durch Fixationen getrennt, die 200 bis 250 ms dauern
- Infos wird während der Sakkade nicht wahrgenommen, nur während der Fixation
- Nachwirkungseffekt (Spillover Effekt): Effekt, dass Wörter während des Lesens länger fixiert werden, wenn vorher unbekanntes Wort fixiert wurde, Fixationsdauer wirkt nach

 

Lesen: Wahrnehmungs-Spanne

Wenn wir einen Buchstaben anschauen, sehen wir auch den Buchstaben davor und danach, ca. 3-4 Buchstaben links und 15 Buchstaben rechts von der Fixation

Moving-Windows-Technique: PC erlaubt nur gewisse Berieche um die Fixation herum, das sichtbare Fenster bewegt sich damit, wo die Person gerade hinschaut -> Wozu? Man kann Größe des Fensters manipulieren, und wenn wir es sehr eng stellen, stellen wir fest, dass wir nicht mehr gut lesen können, ab gewisser GRÖßE bringt es aber auch nichts mehr

Theorie des Lesens:

Naive Theorie:
- Man fixiert Wort für Wort und verarbeitet

Stimmt aber nicht:
- Ausführung der Augenbewegung erfolgt zeitverzögert, sobald "Plan" gefasst ist
- Personen fixieren gar nicht alle Wörter, Hilfswörter wie "ein" wird systematisch ausgelassen

=> Naive Theorie stimmt also nicht!

EZ-Reader Modell (1998):
Programmierung der nächten Augewegegung wird schon vorgenommen, bevor Verabreiutng des letztrn Wortes abgeschlossen ist (Serielles Verabreitungsweise, nicht parallel sondern schrittweise)

EZ Reader Modell: Details

1. Phase: Schnelle Prüfung Bekanntheit des Wortes (Ist Prüfung abgeschlossen, kommt Signal, Augen zum nächsten Wort zu bewegen)

2. Phase: Lexikalische Phase: Abruf semantischer und phonologischer Formen eines Wortes aus dem Wörterbuch (Abschluss der Phase heißt Wechsel der internalen Aufmerksamkeit zum nächsten Wort, verdeckt, auch wenn altes Wort noch fixiert wird)

- Frequenz schneller für häufige als für seltene Wörter, bei lexikalischem Zugriff

Häufige Wörter werden kürzer fixiert, das ist empirisch erwiesen

Frequenzprüfung und Lexikalischer Zugriff schneller als für vorhersagbare als nicht vorhersagbare Wörter

 

EZ Reader Modell Bewertung

Strken:
- Erklärt EInflussfaktroen auf Fixation während des Lesens
- Stützt die Annahme, dass lexikalisch in 2 Phasen verarbeitet werden
- Verknüpft Augenbewegung mit Kognition
- Modell kann gut vorhersagen (besser als andere Modelle), auch auf andere Sprachen als Englisch anwendbar

Schwächen:
- Fokus liegt auf frühen Verarbeitungsprozess,ignoriert aber komplexere Ebene der Integration (Bsp Stze und Diskurse)
- Mangelnde Integration mit Modellen des Lesens
- Aktivation anderer assoziierter Wörter kann nicht erklärt werden

Sprachwahrnehmung

WIchtigste Form der auditiven Wahrnehmung

Zentrales Problem -> Segmentation: Aufteilung von konstantem Strom in Laute, Phoneme und Worte (Strom muss segmentiert werden)
=> Wichtig: Kategoriale Wahrnehmung

Wenn man Personen auditive Reize vorspielt (ba und da), nehmen Menschen kategorial wahr. Also zwischentöne werden in die eine oder andere Richtung kategorisiert => Gestalt-Effekt, die eine oder andere gute Gestalt

Sprachwahrnehmung: Sprach- und Musikwahrnehmung

Hirnregionen, die Musik und Sprache verarbeiten => Hypothese, dass Sprache spezielle Form von Musik ist Neuere Studien: Finden dass weniger stark vor.

Variabilität des Sprachsignals -> Koartikulation; Wahrnehmung der Sprache wird kompliziert, weil dasselbe Phonem nicht immer gleich klingt (Buchtstabe e kann immer anders klingen)

Sprachahrnehmung: Wichtigste Prozesse des Sprachverstehens

Systematik:

Wir hören Signal, gleichzeitig müssen wir auf 1 Signal fokussieren. Als nächstes müssen aus dem Signal diskrete Elemente (Phoneme) segmentiert werden.

Befunde: Einheiten sind gar nicht so fest wie man vermuten würde - eher flexibel und abh von Aufgabe, ob man Silben oder Phoneme extrahiet.

Nächster Schritt: Wortrekognition (Aktivation lexikalischer Kandidaten - dann Wettberwerb zw. den Möglichkeiten), das am stärksten gestütze Wort wird aktiviert. Dann kommt es zum Abruf von lexikalischer Info.

Nöchster Schritt: Interpretation der Äusserung. Syntaktisch, zu Sätzen.

Letzter Schritt: Integration in Diskurs, in Gesamtzusammenhang.

Sprachwahrnehmung: Cross Modaler Integraionseffekt

Frage: Wie nehmen wir Sprache wahr, wenn wir gemischte Infos erhalten -> Ausitiv, visuell?

Werden die unabhänggi verarbeitet oder schnell miteinander integriert?

Mc Gurk Effekt 1976: Bild einer Person, die "BA" sagt, Stimme sagt synchron "GA" -> passt nicht.

=> Es gibt integration. Die meisten nehmen "DA" wahr. Weder das eine noch das andere! Entsteht dritter Reiz.

=> FRÜHE INTEGRATION DER VSIUELLEN UND AUDITIVEN INFO DER SPRACHWAHRNEHMUNG!

Sprachwahrnehmung: TRACE MODELL

Interaktive Aktivation im Netzwerkmodell der Wortwahrnehmung (Struktur ähnlich)

Vorteil: Versch Modelle basieren auf dem immer selben Mechanismus

Untersch. zw. Modell oben und Trace Modell der Sprachwahrnehmung: Eines basiert auf Buchstaben und Wörter, das Trace Modell in Wörter und Phoneme (Features (Lautkomponenten) aktivieren Phoneme und WÖrter, und vice Versa)

Grundidee des Modells: Bottom Up und Tow Down (aktivierte Wörter beeinflussen Phoneme und Features) spielen eine ROlle wie beim interaktiven Aktivationsmodell.

Sprachwahrnehmung: Trace Modell - Bewertung

Stärken
- Effekte können sehr gut erklärt werden
- Ergänzen von Phonemen (Features die fehlen wird ergänzt)
- Wortüberlegenheitseffekt kann gut erklärt werden
- Fokus Interaktion zw Top Down und Bottom Up Prozessen

Schwächen:
- Ignoriert Sprachverständnis, also Semantik (Wortbedeutung)
- Annahme der Top Down Einflusse wird vom Model überbetont und überschätzt

Sprachproduktion

Man weiß mehr über Sprachverständnis als -produktion

Sprechen und Schreiben: Beim Diktieren nur 35 % schneller als beim Schreiben, das zeigt: 2/3 der Zeit benötigt man fürs PLANEN der Sprache (Studie Gould)

Sprechen

Vereinfachung komplexer Informationsverarbeitung:

1) 70% der Sprache wiederholte Wortkombination

2) Unterspezifikation ("und sowas")

Ebenen / Level der Sprachproduktion

1) Semantisches Level: Planung, was gesagt wird

2) Syntaktisches Level: Grammatik, wie wird es gesagt

3) Morphologisches Level: Morpheme, basale Beduetungsebenen

4) Phonologisches Level: Klänge werden ausgewählz

-> Nicht nacheinander, sondern parallel und interaktiv, beeinflussen sich gegenseitig

Planung von Sprache

WIe weit planen Mesnchen voraus, wenn sie sprechen?

Verschiedene Studien:

Studie Holmes -> Teilsätze (Subjekt und Verb) werden geplant, nach Teilsatz Pause, deuten auf Planung hin

Studie Martin -> Wortgruppen werden geplant (phrases), Wörter die eine Idee ausdrücken, Bsp. "Failing the exam was a major disappointmet to me", "failing the exam" wäre hier eine Wortgruppe, längere Pausen vor komplexeren Wortgruppen

Weitere Befunde -> Personen sind flexiblel bei Planung, können kürzer oder länger vorausplanen, bei weniger Zeit oder kognitivem Load sind Personen adaptiv, verkürzen dann die Planung je nach Ressourcen, wägen ab zwischen Fehlervermeidung und kogntiver Anforderung

 

Fehler beim Sprechen

Typen von Fehlern beim Sprechen:

1) Spoonerism: William Spooner, Prof, Anfangsbuchstaben werden vertauscht

2) Freudscher Versprecher: Legt unbewusste xesuelle Wünsche offen, errege Männer mehr sexuelle Spoonerismen

Hypothesen zum Entdecken von Fehlern - Monotoring von SPrache

Zwei große theoretische Ansätze:

1) 1983: Menschen nutzen zur Fehlerentdeckung das Verständnissystem - sie hören sich selber zu und versuchen dann, eigene Sprache un verstehen und Fehler zu identifizieren / korrigieren

2) 2011: Konfliktbasierte Orientierung: Fehler werden früher, durchs Sprachproduktionssystem selbst entdeckt (Überwachung von Konflikten, Unstimmingkeiten, Kohärenz)

Hypothesen zum Entdecken von Fehlern, 2 Hypothesen getestet:

Studie von Nozari et al, testen beide Hypothesen: Werden Fehler im Sprachverstehen (H1) oder in Sprachproduktion (H2) entdeckt?

Studie: Vpn mit Sprachfehlern, beide Typen (Verstehen und Produktion)

Befunde eindeutig: KEIN Zusammenhang mit Fehlerentdeckung Sprachverstehen! STARKEN Zusammenhang zw SPrachproduktion und Fehlerentdeckung

=> Befunde sprechen für konfliktbasierten Erklärungsansatz (Überwachung im Sprachproduktionsprozess)

2 Theorien zur Sprachproduktion:

1) Aktivationsausbreitungsmodell

Fällt in Klasse der Netzwerkmodelle (vgl, interaktives Aktivationsmodell der Sprachwahrnehmung aber breiter)
Modell geht davon aus, dass Personen sprechen indem sie auf Netzwerk zurückgreifen, das aus Knoten besteht, Knoten sind unt. stark verknüpft, dabei findet interaktive Aktivation statt (also in beide Richtungen), Aktivationsasubreitung in alle Richtugnen

Modell geht von 2 Grundprinzipien aus: Wir haben Kateogorien gespeichert, wie man Idee auf Eben Semantik, Syntax etc. ausdrückt, wir haben Regeln über all diese Ebenen vorliegen, bilden Rahmen für Sprachproduktion

Phoneme etc. müssen ausgewählt werden, dazu gibt es Wörtebuch, dass Wörter, Morpheme, Phoneme in Form von konnektionistischem Netzwerk verbindet (Aktivationsausbreitung über Semantik und Phonologie)

Enfügungsregel: AM stärksten verbundenes Item der benötigten Kategorie wird ind er Repräsentation eingefügt, wichtig dabei: Aktivation wird danach auf Null gesetzt, weil man sonst alles wiederholen würde

2) WEAVER Modell (nacheinander, von Bedeutung zu Phonem, zeigt Zeitabläufe durch aktive Hirnregionen)

Sprachproduktion Modell 1) Akitavtionsausbreitungsmodell

Verbindungen zwischen den folgenden Ebenen sind alle gleichzeitig aktiviert und beeinflussen sich gegenseitig:

Tactic Frames -> Syntax (Satzbau, nach Subjekt Prädikat etc.), Morphology (Wortbestandteile), Phonology (Laute)

Alle drei Ebenen finden in einem "Lexical Network" statt

Das immer nächste Wort wird geplant was zur Kategorialen Regel von Syntax, Morph und Phonology

=> PARALLELE AKTOVATION AUF DEN EBENEN, nicht NACHEINANDER

Aktivationsausbreitungssystem Befunde

Mixed Errors System: Es wurde gezeigt, dass Fehler beim Sprechen auftreten, in dem Falsches mit Richtigem Wort semantisch und phonologisch assoziiert ist. -> GEMISCHTE Fehler

Diese Fehler treten nur auf, wenn Semantik und Phonologie gleichzeitig aktiviert sind

Studie: Vpn musste Wörter ergänzen und danach Bilder bennenen (There were "NONE", und dann Bild des Priesters gezeigt, NUN, erhöhtes Auftreten von Fehlern, weil Nonne phonologisch Näher an NONE ist, nur durch phon. Ähnlichkeit

=> Spricht dafür, dass bei Sprachprod. .sowohl Semantik als auch Phonologie eine Rolle spielt welches Wort als nächstes produziert wird

 

Aktivationsausbreitungsmodell: Befunde 2

Lekikalische Verzerrung, lexical Bias: Sprechfehler sind eher so, dass wir bekannte Wörter nutzen als Nicht-Wörter oder -Laute:

=> Stützt Aktivationsausbreitungsmodell, man nutzt nicht komplett zusammenhanglos Buchstaben pder Phoneme

Aktivationsausbreitungsmodell: Bewertung

Stärken:

Es kann viele Fehler beim Sprechen erklären
Aktivationsausbreitungsmodell wird in vielen kognitiven Bereichen immer populärer
Plausible Erklärung von Fehlern erklärt geringe Zahl von Fehlern

Schwächen:
Zu geringer FOkus auf Konstruktion allgemeiner Botschaft (also Semantik), geht viel um Syntax, Morphologie, Phonologie
Keine Vorhersage von Zeit, die gebraucht wird um Worte zu produzieren
Zu wenig Fokus auf das Ausmaß der Interaktion und dessen Variabilität (
 

Sprachproduktion Modell 2): WEAVER MODELL

"Word form encoding by activation and verification"

Wieder Aktivationsausbreitungsmodell
Aber: "Feed Forward" Modell, nicht interaktiv und gleichzeitig, sondern Aktivation fließt in nur 1 Richtung

Verarbeitungsnetzwerk von bedeutug zu Klang: Menschen suchen Beduetugn aus, arbeiten sich Richtung Klang weiter

Verarbeitung beginnt auf Ebene der Lexikalischen Konzepte: Bedeutugn wird geklärt und Wörter werden ausgewählt, die das vermitteln können

Wichtig: Zuerst kommen Lemmas -> Lexikalische Konzepte, die Phonologisch noch nicht da sind ("liegt mir auf der Zunge")

Aus Lemmas werden dann Morpheme und Phoneme gebildet

Hier wird schrittweise disrket verabrietet, nacheinander, Ebene muss abgeshclossen sein bevor nächste kommt

Vermeidung von Fehlern durch Monitoring und Verifikation findet auf versch Ebenen statt

-> Schrittweise Lexikalisierung (Überfürhung von bBeduetung in Lauten, und das schrittweise

 

Weaver Modell: Zeit und Hirnregion

Kann präzise Aussagen über Zeit treffen

Modell kann Zeit und Hinregionen aufzeigen (Bildgebende Verfahren)

Nach wievielen ms ist welcher Bereich des Gehirns aktiviert?

126 ms: Okzipetalkortex (visueller Bereich)

Nach 190 ms: Temporrallappen (LEMMA Selection)

Nach 320-360 ms: Pariettalbereichen: Phonologische Kodierungen
Gleichzeitig. Aktivation des Self Monitorings (Überwachung der Sprachproduktion im Superioren Temporalen Gyrus

Nach 500ms : Sprachproduktion, Auswahl von Silben, im frontalen Bereich

Nach 600 ms: Artikulation, im motorischen und prämotorischen Bereich

 

 

Weaver Modell: Bewertung

STÄRKEN:
Sprachprod. beinhaltet Ebenen von Lexikalischer Auswahl, Morphologischem Encodieren und Phonologischem Enkodieren (gestützt und unstrittig)
Beobachtung von Fehlern hier nciht so wichtig, wichtig das Timing von Sprachproduktion (Modell weniger allgemein)
Modell ist einfach und elegant mit hohem empirischen gehalt da gut testbar

SCHWÄCHEN:
Fokus der Theorie störker auf Einzelwortproduktion als von Sätzen und Diskrus, Fokus also eng
Interaktion zwischen den Ebenen erklärt dieses Modell nciht, es denkt ja schrittweise
Kann Verpsrecher nicht erklären, die auf parallele Verarbeitung hinweisen
Neuro Befunde sind nicht 100% konsistent, einige Befunde passen nicht
 

Spachproduktion: Kognitive Neurospychologie

Schädigung von Hirnregionen und Auswirkungen, Lokalisation

Sprachproduktion: Kognitive Neuropsychologie: 2 Sprachstörungen

Broca Aphasie

Wernecke Aphasie

Broca Aphasie

Langsame, unflüssige Sprache

Versrändnis kein Problem, aber Produktion

Schädigung linker Frontallappen, Broca Areal BA 44, 45

 

Wernecke Aphasie

Gegenteil:

Personen können flüssig und korrekt sprechen, keine Grammatik-Fehler

Gesprochenem fehlt die Bedeutung, Semantik fehlt

Sprachverständnisprobleme massiv - Bedeutung auch nicht wahrnehmen

-> Schädigung linker posteriorer Temporallappen, BA 22 (Wernecke Areal für Sprachverständnis und Bedeutung)

Broca und Wernecke: Aktuelle Ansätze / Aktualisierung

Moderne Modelle: Unterscheiden verschiedene Pfade der Sprschproduktion

Klassische Unterscheidung nicht aufrechtzuerhalten - beide Areale aber entscheidende Rolle

Vereinfacht, Verarbeitung eher in Netzwerken und verbundenen Arealen

4 Verabreitungspfade:

1) Syntaktische Verarbeitung (44 Broca und 22 Wernecke verbunden) - dorsal

2) Verknüpfung sensorische und motorische Prozesse (Premotor Cortex) - dorsal

3) Semantische Pfade (Wernecke und Broca verbunden) - ventral

 

Kognitive Neuropsychologie heute: Differenziertere Störungen

 

1) Anomische Aphasie (Wortfindungsstörung, Weaver Modell: Verbindung zw. Semantik, Lemma und Phonol. gestört)

2) Agrammatismus (EInschr. Grammatik anzuwenden und zu verstehen, siehe Broca Aphasie, kurze Sätze und Endungen werden weggelassen)

3) Jargon Aphasie (Grammatik Korrekt aber Inhalt keinen Sinn, Wörter nichtgefunden, viele Neologismen, Verständnis Problem, siehe Wernecke Aphasie, Monitoring Problem bei Sprachprod., kein Erkennen keine Korrektur)

Sprache als Kommunikation

Bisher: Modelle denken Sprache als Monolog, dabei funktioniert Sprache als Dialog

Sprecher kann Sprache auf Zuhörer anpassen, geschulter Sprecher tut das

Spracverstehen und Sprachproduktion sind eng verknüpft

Sprache als Kommunikation: Maxime der effektiven Kommunikation (Grice)

1) Kooperationsprinzip
Sprecher und Zuhöhrer müssen für gemeinsames Ziel zusammen arbeiten

2) Maxime der Relevanz
Sprecher sagt für Situation relevante Dinge
Zuhörer denkt, dass Dinge die Sprecher sagt, relevant sind

3) Maxime der Quantität
Sprecher sollte so informativ wie nötig sein, nicht mehr und weniger

4) Maxime der Qualität
Sprecher sollte ehrlich sein und nichts erzählen, wofür er keine angemessene Gründe hat
Zuhörer denkt, Sprecher ist ehrlich und Behautpungen sind abgesichert

5) Maxime der Modalität  - Art und Weise
Sprecher so eindeutig und verständlich wie möglich

Adressat unterstellt, dass Sprecher sich an Maxime hält, das kann zu Verständigungsproblemen führen, wenn das nicht zutrifft

Maxime von Grice - Studien und Befunde

Maxime der Quantität wird nicht eingehalten

Neuere Studie:
Methode: Vpn sollen Person auf Bildschirm bitten, spez. Objekt zu reichen
Manipulation: Anzahl der Objekte (1 Reference (genau 1 Tasche gab es) und 2 Reference Objekte (zue und offene Tasche)
Ergebnis: 1 Referenz Bed -> "Reiche mir bitte die Tasche", 2 Referenz Bed. -> "Reiche mir bitte die geschlossene Tasche"
-> Vpn haben also Maxime der Quantität in beiden Bedingungen eingehalten
-> 8% der Fälle: Überflüssige Informationen

Sprache als Kommunikation: Audience Design

Audience Design -> Anpassung von Kommunikation an Zuhörerschaft

Commom Ground herstellen

Starke interindividuelle Unterschiede (hängt von Fähigkeit zur Perspektivübernahme an)