Methoden
Psychologie Uni Würzburg Methoden Vorlesung SS und WS
Psychologie Uni Würzburg Methoden Vorlesung SS und WS
Set of flashcards Details
Flashcards | 274 |
---|---|
Students | 28 |
Language | Deutsch |
Category | Psychology |
Level | University |
Created / Updated | 10.01.2021 / 07.06.2025 |
Weblink |
https://card2brain.ch/box/20210110_methoden
|
Embed |
<iframe src="https://card2brain.ch/box/20210110_methoden/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Welche Typen von Sätzen gibt es bei Hypothesen?
- Existenzsätze (existentielle Hypothesen--> sind verifizierbar, aber nicht falsifizierbar; "es gibt mindestens ein etwas, für das gilt...")
- Allsätze (universelle Hypothesen --> "für alle Dinge gilt: wenn sie ein... sind, sind sie..."; falsifizierbar, nicht verifizierbar--> deshalb Induktionsschlüsse ziehen, "Bewährung" (Bewährungsgrad) nicht Beweis)--> am häufigsten in der Psychologie!
- Hypothesen über Anteile (X% aller Menschen sind Rechtshänder; nicht verifizierbar oder falsifizierbar, bewährbar mit statistischen Methoden)
welche Variablen gibt es als Bestandteile von Hypothesen?
- qualitative Variablen (Nominalskalenniveau; Bsp. Geschlecht, Emotionstyp, Wählertyp)
- quantitative Variablen (Gewicht, Angstintensität etc., "mehr" oder "weniger"; diskrete vs. stetige Variablen)
- beobachtungsnahe (manifeste) Variablen
- beobachtungsferne Variablen (Konstrukte, latente Variablen, bedürfen Operationalisierung)
- Moderator (beeinflusst die Richtung/Stärke des Zusammenhangs zwischen UV und AV)
- Mediator („Zwischenglied“, bezieht sich auf ein zwischen UV und AV liegendes Kausalglied)
Was sind Vorbedingungen für die Überprüfbarkeit von Hypothesen?
- Empirischer Gehalt (nicht schon analytisch wahr, logisch widerspruchsfrei)
- Falsifizierbarkeit (Kritisierbarkeit --> es müssen Ereignisse denkbar sein, die die Hypothese falsifizieren)
- Non-Trivialität (wenn auch einiges für das Gegenteil der Hypothese spricht, Alternativen)
- Operationalisierbarkeit (Zuordnung beobachtbarer Daten, konkrete Definitionen der Konstrukte etc.)
- Aufstellung der Hypothese VOR der Datensicherung (keine post-hoc Rationalisierungen, "HARKing")
Was sind Qualitätskriterien für Hypothesen?
- möglichst hoher Informationsgehalt (leichter falsifizierbar, allgemeinerer Wenn-Teil der Hypothese, spezifischerer Dann-Teil)
- möglichst strenge Prüfung (neue Operationalisierungen)
- Hypothesenbezug
- Festlegung relevanter Effektgrößen
- Gerichtete vs. ungerichtete Hypothesen
Wie kann man eine empirische Vorhersage (EV) definieren?
konkretisierte Hypothese auf Basis der Operationalisierung, des Versuchsplans, SV-Kontrolle und SP
Bsp.:„Die Vergabe von 10g Wirkstoff des Medikaments XY bei 20 zufällig ausgewählten Probanden sollte deren Befindlichkeits-Rating erhöhen im Vergleich zu einer ebenso ausgewählten Kontrollgruppe mit Placeboeinnahme bei Konstanthaltung der Tablettenfarbe.“
Wie kann man eine statistische Hypothese (SH) definieren?
auf Basis eines statistischen Modells, Berücksichtigung von Messfehlern, Auswahl von geeigneten statistischen Verfahren, Formulierung der Null- und Alternativhypothese im Bezug auf Statistiken
Bsp.: „Der Befindlichkeits-Rating-Mittelwert in der Experimentalgruppe ist größer als der in der Kontrollgruppe.“ (H1)
Was sind e- und f-Fehlerwahrscheinlichkeiten? (Thema valide und ökonomische Hypothesenprüfung)
e: fälschliche Beurteilung der Sachhypothese als zutreffend --> Minimierung von e: höhere „Strenge“
f: fälschliche Beurteilung der Sachhypothese als nicht zutreffend --> Minimierung von f: höhere „Fairness“
Was sind statistische Fehlerwahrscheinlichkeiten alpha und beta?
bei statistischen Hypothesen
alpha: fälschliche Annahme der H1, obwohl H0 gilt (Unterschiedshypothese, die nicht immer der empirischen Hypothese entsprechen muss!)
beta: fälschliche Annahme der H0, obwohl H1 gilt (stat. Test ergibt keinen Unterschied, obwohl in Wirklichkeit vorhanden)
Was sind Bestandteile, Ergebnisse und das "Ideal" einer Operationalisierung?
Bestandteile:
– Erhebungsmethode
– Erhebungsinstrumente
– Art der Aufbereitung der Informationen für die weitere Analyse
Ergebnis der Operationalisierung: ein Messinstrument
Das „Ideal“ einer Operationalisierung:
Normierte und standardisierte Messinstrumente zur Weiterverwendung in anderen Untersuchungen (ermöglichen Vergleiche zwischen Ergebnissen verschiedener Untersuchungen, z.B. verbreitete IQ-Tests)
Wie kann man "Konstruktvalidität" definieren?
= Güte der Operationalisierung
Bsp.: „eingetragener Spendenbetrag geteilt durch Einkommen“ besser (konstruktvalider) als „eingetragener Spendenbetrag“ (zur Operationalisierung von Spendenbereitschaft)
Wie lassen sich Inhaltsvalidität und ökologische Validität definieren?
Inhaltsvalidität: repräsentiert die Operationalisierung die gesamte Variable (repräsentative Abbildung des Konstrukts)? (Ideal: versch. Instrumente, um ein Konstrukt zu messen)
ökologische Validität: wird das Gemessene so gemessen, dass Schlüsse auf alltägliches Erleben/Verhalten möglich sind? (oft problematisch bei Laborexperimenten)
Was könnten Probleme bei der AV-Operationalisierung sein?
- Sichern der Validität (konvergente/ diskriminante (Messinstrument kommt zu ähnlichen Ergebnissen wie andere Instrumente; Kriteriumsvalidität)
- Angemessenheit der AV-Auswahl (Abhängig von Ziel)
- AV-Menge (zu viel--> alpha-Komulierung)
Welches Problem beschreibt der Effekt-Diagnostikum-Fehlschluss?
Aus signifikantem Effekt wird unmittelbar diagnostische Qualität abgeleitet (ist aber FALSCH)
->signifikanter Unterschied reicht NICHT als Rechtfertigung zum diagnostischen Einsatz
Wie kann man "Messen" definieren und was sind die vier Problembereiche beim Messen?
Messen = strukturerhaltende Übersetzung eines empirischen in ein numerisches Relativ
- Repräsentationsproblem (ist Variable messbar?)
- Eindeutigkeitsproblem (welche Freiheiten hat man beim Zuordnen von Zahlen--> Transformation von Skalenwerten ohne Bedeutungsverlust; Unterscheidung zwischen Skalenniveaus)
- Bedeutsamkeitsproblem (Welche Schlüsse dürfen auf Basis der Skalenwerte gezogen werden; abhängig vom Skalenniveau)
- Skalierungsproblem (wie werden konkrete Skalen errichtet--> Bezug auf Gütekrieterien)
Welche Skalenniveaus gibt es?
- Nominalskala (Qualitative Variablen, kein mehr oder weniger, Geschlecht, jede Transformation möglich)
- Ordinalskala (Rangskala, größer kleiner, aber nicht um wie viel. Olympia Platzierung)
- Hyperordinalskala (wie Rang + Abstände, A>B>>C, aber nicht um welchen Betrag Abstände)
- Intervallskala (Verhältnis von Intervallen zw. Skalenwerten, Einheit und Nullpunkt willkürlich festgelegt, Bsp. Celsius, lineare Transformation mit Veränderung Einheit und Nullpunkt)
- Verhältnisskala (Rationalskala, Aussagen über Verhältnisse von Skalenwerten, Nullpunkt empirisch fundiert, Einheiten willkürlich, Bsp. Kelvin, Gewicht, RT, Transformationen nur mit Einheit, nicht mit Nullpunkt)
- Absolutskala (natürlicher Nullpunkt und Einheit, keine Freiheit)
Welche Tests sind beispielsweise mind. auf Intervallskalenniveau?
t-Tests/ Varianzanalysen --> Wilcoxon Vorzeichenrangtest (abhängige SP), Mann-Whitney U (unabhängige SP)
Rangalternativen für Anovas mit/ ohne Messwiederholung
Was sind Validität, Reliabilität und Obkektivität/ Standardisierung?
Validität: wird das gemessen, was gemessen werden soll? (Konstruktvalidität)
Reliabilität: wie genau/ zuverlässig misst der Test? (Split hilf- /Retest-/ Paralleltestreliabilität)
Objektivität: Unabhängigkeit der Ergebnisse von Versuchsleiter- und Durchführung; Standardisierung, bspw. durch Normen
Was sind Probleme von faktorenanalytischen Verfahren für differenzielle Persönlichkeitsdiagnostik?
Was sind mögliche Alternativen?
Bildung einer "Durchschnittspersönlichkeit" --> jede einzelne Person wird dann darauf projiziert
Fehlen eines Modelltests (geeignetheit der Struktur wird nicht überprüft, sondern nur ob Mensch darauf passt)
Alternativen:
- Clusteranalysen (ähnliche Personen zusammen und daraus Eigenschaften ableiten)
- Projektive Verfahren (mangelhafte Gütekriterien)
- Grid-Analysen (halb-halb)
Was sind Nachteile objektiver und projektiver Verfahren bei der Persönlichkeitsdiagnostik?
objektive Verfahren:
- Überstülpen von Muster auf alle Personen (suggestiv)
- Fälschbarkeit
- unbewusste Motive schwierig zu erfassen
projektive Verfahren:
- invalide Tests, nicht reliabel, nicht objektiv--> Gütekriterien meistens alle nicht erfüllt
Lösung: Kombi?
Wie funktioniert das Role Construct Repertory Grid nach Kelly (1955)?
(Persönlichkeitsdiagnostik)
Auswahl nahestehender Personen (Spalten) --> davon je 3 Personen auswählen (Zeilen)
Welche 2 der 3 sind ähnlich und bezüglich welcher Eigenschaft, welche unterscheiden sich?
Ergebnis: bipolare, verbalisierbare Kernkonstrukte, mit denen eine Person die soziale Umwelt strukturiert, wahrnimmt und antizipiert
Vorteil: Persönlichkeitsstruktur nicht schon a priori vorgegeben
Welche zwei Grundprobleme der Persönlichkeitspsychologie gibt es?
- Situationismus-Debatte: Meschen haben in versch. Situationen versch. "Persönlichkeiten"
- Konstruktivismus: Eigenschaften keine Merkmale, sondern sprachlich-sozial "konstruierte" (Selbst-)Zuschreibungen?
Wie hat sich die Intelligenzmessung in der Psychologie entwickelt über die Jahrzehnte?
-frühe Geschichte: Personalauswahl in china (vor >4000 Jahren) --> mündliche und schriftliche Tests Beamte; Anfang 19. Jh. von Briten übernommen
- Galton 1869: Intelligenz quantifizierbar, normalverteilt und durch objektive Tests messbar--> Korrelationsmessung, Eugenik (Paarung "überlegener" Menschen)
-Binet 1905: Lehrmethoden für entwicklungsgestörte Ki, objektiver Test zur Beurteilung der Leistungsfähigkeit, schlussfolgerndes Denken, Bestimmung Intelligenzalter
-USA Anfang 20. Jh.: Messung Leistung Schulkinder, Eignung für Militär, SAT, ACT--> flächendeckende Diagnostik!
Welche Intelligenztheorien gibt es und welchen Einfluss haben sie auf das Messergebnis?
Theorien:
- Spearman (1927): g-factor (g für „general“)
- Cattell (1963): flüssige vs. kristalline Intelligenz
- Guilford (1961): Intelligenzstrukturmodell (abh. v. Informationsinhalt, - Produkt/Form & -Operation)
- Gardner (1983): 8 Intelligenzen (inkl. musical, bodily, inter-/intrapersonal …
Einfluss: Theorie bestimmt das Messergebnis
Welche bioelektrischen, biochemischen und Biosignale gibt es im Körper?
bioelektrisch:
- Herzschlag (EKG)
- Hirnaktivität (EEG)
- muskuläre Systeme (EMG Elektromyographie; EOG Elektrookulographie)
biochemisch: Hautleitfähigkeit, Cortisolspiegel...
Biosignale: Blutdruck, Atemfrequenz
Beschreibe, wie das EEG (Elektroenzephalogramm) funktioniert!
- Elektrodenkappe auf Kopf--> Spannungen zwischen Elektroden werden gemessen (Bsp. 10-20-Methode)
- Verstärker nötig (AV: 5-100 Mikro-Volt, Schirmung gegen Störsignale --> elektrochemische Aktivität durch Muskelbewegung als Artefakte)
- Frequenzbänder (alpha, beta, gamma, delta)
- Fourier Transformation (Amplitude als Funktion der Frequenz)
- Ereigniskorrelierte Potentiale (nachdem es ge-averaged wurde)
- EKP: N400 Komponente, N100 (auditorische Simuli), N1 (visuelle Onsets/ offsets), ERN (error related negativity) P300 (wenn subj. Erwartungen nicht erfüllt wurden); pos. oder negativ, Hebungen/ Senkungen, wo am stärksten
- ERP
- Signal durch postsynaptische Potentiale (Ionenströme durch Repolarisation--> extrazellulärer Stromfluss messbar)
- bescheidene räumliche Auflösung (mehrere cm), zeitliche Auflösung super
Beschreibe die Funktionsweise des MEG (Magnetencephalogramm)!
- Messung magnetischer Aktivität des Gehirns (elektrische Ströme erzeugen Magnetfelder)
- 300 Sensoren; sehr teuer; gute zeitliche und bessere räumliche Auflösung als EEG
- Stromflüsse, die tangential zur Cortex-Oberfläche sind werden gemessen (Kombi mit EEG möglich)
- SQUID: superconducting qzantum interference devide
Erkläre die Funktionsweise einer PET (Positronenemissionstomographie)!
- Positronen = "positive" Elektronen; Moleküle werden mit radioaktivem Element markiert --> Verteilung in spezifischen Arealen
- Positron wird von markiertem Molekül abgegeben --> Kollision mit freiem Elektron --> Energie-Materietransformation
- Gamma Strahlung wird im Winkel von 180° abgegeben
- invasive Methode!!!
- Vorteil: Messung von Verbrauch best. Moleküle im Hirn (+ Verteilung best. Rezeptorsysteme)
Erkläre die Funktionsweise von fMRT (Funktionelle Kernspintomographie)!
auch: funktionelle Magnet-Resonanz-Tomographie/ functional magnetic resonance imaging (fMRI)
- Wasserstoffatome mit Dipol-Charakter drehen sich zufällig im Raum (spin)
- starkes Magnetfeld--> Ausichtung der Spins entlang einer Achse (LARMOR Frequenz = proportional zur Feldstärke des externen Magnetfelds)
- RF (radiofrequenter) Puls (im rechten Winkel zu anderem Magnetfeld) beeinflusst Spin-aktivität --> Kippen der Protone (Spin) --> phasengleiches Rotieren von allen Atomen (gepulste Kernresonanz)
- RF-Puls wird wieder ausgeschaltet--> Atome kippen zurück (T1 Signal --> longitudinale Relaxation, 63% der Längsmagnetisierung wieder erreicht) und rotieren in individueller Phase (T2 bzw. T2* dephasing, spin-spin/transversale Relaxation) --> Geschwindigkeit T2 sagt was über Sauerstoffgehalt im Blut aus => gemessenes Signal
- Oxygeniertes und desoxygeniertes Blut haben unterschiedliche magnetische Eigenschaften --> Oxygeniertes Blut: diamagnetisch; Desoxygeniertes Blut: paramagnetisch
- BOLD Response (blood oxygen level dependent) --> Signal summiert sich auf und muss durch lineare Regression wieder "zurückgerechnet" werden
- Endbild als Kontrast zw. zwei Versuchsbedingungen!
Was ist das SPM (statistical parametric Mapping)?
Standardverfahren zur Auswertung von fMRT-Daten:
lineares Modell (Regression), Anpassung BOLD an gemessene Daten, Schätzung Modell-Parameter, Voxelweise t-Tests, Erstellung von z-Maps
alternative zu fMRI --> fNIRS (near infrared spectroskopy) --> billiger, einfacher, höhere zeitliche Auflösung, aber geringere räumliche Auflösung
Wie funktionieren Einzelableitungen?
Methode: (Bsp. Studie Moran & Desimone)
- Einzelzellableitung bei Affen im ventralen System
- Präsentation von zwei Reizen: einer löst Neuron aus (effektiv), der andere nicht (ineffektiv)
- Aufmerksamkeit entweder auf effektiven oder ineffektiven Reiz gelenkt
- Aktivitätsmessung in V4 und IT
- Ergebnis: Feuerrate bezügl. effektiven Reizes verringert durch Aufmerksamkeit auf den anderen Reiz --> räumliche Aufmerksamkeitsausrichtung moduliert Neuronenaktivität in V4 und IT
Beschreibe das Vorgehen und den Zweck von Läsionsstudien!
Weiterführung von Einzelableitungen (Aufmerksamkeit moduliert lokale Hirnaktivität) --> aber wie/ warum?
Bsp.: Neglect Patienten
Läsion im rechten inferioren posterioren Parietalcortex (PPC) --> können Aufmerksamkeit nicht auf linke Seite lenken bei intakter Sehkraft
Fazit: PPC (und auch superiorer Temporalcortex) spielt Rolle bei kontralateraler Aufmerksamkeitsausrichtung
Problem: natürliche Läsionen oft sehr unspezifisch
Beschreibe die TMS (transcranielle Magnetstimulation)!
Kann als UV genutzt werden
- kurzer, starker Magnetimpuls -> induziert elektrischen Stromfluss im Gehirn --> Exzitation oder Inhibition von entsprechenden Neuronenpopulationen
- Arten der Stimulation:
- single pulse-TMS (Erregung von Neuronen, motorisch evozierte Potentiale)
- rTMS (repetitive--> Habituation von Neuronen)
- Genauigkeit (bspw. Fingerzucken)
- transcranial ultrasound
- transcranial direct-current stimulation
Wie funktioniert Eye Tracking?
- Aufmerksamkeit und Blickbewegung: coverte vs. overte, passive (öfter) vs. active
- Bsp. Posners Cueing, visual search
- Blickpfad: Abfolge von Fixationen & Sakkaden
- Augenbewegungen:
- konjugierte Augenbewegungen(langsame x kleine -> Driftbewegungen; langsame x große -> Blickfolgebewegungen; schnelle x kleine -> Fixationstremor, Mikrosakkaden; schnelle x große-> Sakkaden); OKN = Optokinetischer Nystagmus (aus Zug schauen)
- Konvergenzbewegungen (Konvergenz/ Divergenz der Sehachsen)
- methodische Probleme bei der Messung (Genauigkeit, Kalibrierung), Identifikation von Blickbewegungen, Integration von Daten, Interpretation von Blickbewegung und Kognition
- moderne Eye-Tracker messen meistens Pupillenposition, stationäre Tracker können Sakkaden udn Fixationen unterscheiden, mobile Tracker schlechtere zeitliche Auflösung, große Unterschiede zw. Herstellern, billig, aber kaum räumliche Info
Was sind räumliche und zeitliche Parameter beim Eye-Tracking?
räumliche:
- Fixationswahrscheinlichkeit (vs. skipping probability, rel. Hkeit mit der Objekt mind. 1 mal fixiert wird)
- Sakkadenamplitude/- länge (Distanz zw. der mittleren Position zweier aufeinanderfolgender Fixationen)
- Fixationsposition (Innerhalb eines Objektes)
- Fixationshäufigkeit (mittlere absolute Hkeit)
- Refixationshäufigkeit
zeitliche:
- initiale Fixationsdauer
- Refixationsdauer
- Blickzeit (summierte Dauer aller Fixationen innerhalb des ersten Blicks)
- Gesamtblickzeit
Wie kann man Blickbewegungen im Bezug auf Kognitionen interpretieren? (Eye Tracking)
Fixationen: Aufnahme visueller Information
Blickdauern (allg.): objektbezogene Fixationsdauern
Allgemeine Annahmen:
• Blickbewegungen reflektieren Ort und dynamische Abfolge der Informationsverarbeitung
• Fixationsdauer/Blickdauer hängt mit dem mentalen Verarbeitungsaufwand zusammen
Was sind zwei Grundannahmen der Eye-Tracking Forschung?
Immediacy-Assumption:
Die kognitive Verarbeitung beginnt unmittelbar nachdem der visuelle Input verfügbar ist und umfasst alle Operationen, bis eine Interpretation möglich wird.
Eye-Mind-Assumption:
Der aktuelle Fixationsort wird bis zum Ende der Verarbeitung beibehalten. Damit entspricht der Ort der Fixation dem Gegenstand der Verarbeitung. Die Verarbeitungszeit ist bestimmt durch die Blickzeit.
ABER: problematisch
Aus welchen Gründen ist die Validität von Blickbewegungsparametern eingeschränkt?
- auch perzeptive und motorische (statt kognitive) Faktoren wirken bei der Selektion von Sakkadenzielen mit
- da Fixationspositionen (unsystematisch und systematisch) vom selektierten Ziel abweichen können (mislocated fixations)
- da Aufmerksamkeit auch covert verlagert werden kann
- da innerhalb des funktionalen visuellen Feldes verschiedene Elemente selektiv und/oder parallel verarbeitet werden können (foveale vs. parafoveale/periphere Verarbeitung)
Welche Steuerungsniveaus gibt es bei visueller Selektion und Okulomotorik?
- reflexiv-automatisches Niveau
- automatisierte Routinen, erlernte visuelle Strategien
- kognitive („willentliche“) Steuerung
Was sind die Haupt- und was die Nebengütekriterien?
Hauptgütekriterien:
- Objektivität (Durchführung, Auswertung, Interpretation)
- Reliabilität (Konsistenzkoeffizienten, Paralleltestkoeffizienten, Retestkoeffizienten)
- Validität (Inhalt, Knónstrukt (divergent, konvergent, faktoriell) und Kriterium (Vorhersage, Übereinstimmung, retrospektiv, inkrementell)
- Skalierbarkeit
Nebengütekriterien: Normierung, Vergleichbarkeit, Ökonomie Zumutbarkeit, Nützlichkeit, Fairness, Nicht-Verfälschbarkeit
Was sind Möglichkeiten der quantitativen Messung (nach Bortz und Döring)?
1. Zählen (qualitative Merkmale --> Nominalskala, Kategorien, Indexbildung)
2. Urteilen (Mensch als Messinstrument; Rangordnungen/ Ranking --> direkt, zukzessive Intervalle, Law of Categorial judgement; Dominanz-Paarvergleich, indirekt, law of comparative judgement; Ähnlichkeitspaarvergleich, MDS(multidimensionale Skalierung), NMDS; SDT (Signalentdeckungstehorie); Rating-Skalen --> semantisches Differential, Grid-Technik)
3. Testen (Gütekriterien, KTT (Klassische Testtheorie)-- >Testergebnis = wahre Merkmalsausprägung bei Person plus unabhängiger/unsystematischer Messfehler; PTT (probabilistische Testtheorie, ICC) --> Wkeit einer Itemantwort basiert auf latent vorhandener Merkmalsdimension; Entscheidungen: Itemformat, Ratekorrekturmaßnahmen, Skalenkonstruktion, Itemanalyse, Testanalyse; Thurstone-Skala, Likert-Skala, Skalogramm-Analyse, Rasch-Skalierung; Effekt-Diagnostikum-Fehlschluss)
4. Befragen (häufigste Methode! mündlich (Interview) vs. schriftlich (Fragebogen); Delphi-Methode)
5. Beobachten (Alltag vs. systematisch; Trainings; Abstraktion, Selektion, Klassifikation, Systematisierung, Relativierung; teilnehmend vs. nicht, offen vs. verdeckt, Selbst vs. fremd, ereignis vs. zeitstichprobe)