Definitionen


Set of flashcards Details

Flashcards 157
Language Deutsch
Category Psychology
Level University
Created / Updated 20.06.2023 / 13.07.2023
Weblink
https://card2brain.ch/box/20230620_methodenlehre_ss23
Embed
<iframe src="https://card2brain.ch/box/20230620_methodenlehre_ss23/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Interpretation der Odds Ratio bei ordinalen und metrischen Prädiktoren:

OR von 1,05 bedeutet, dass...

...für den Anstieg der Prädiktorvariable um eine Einheit, die Odds, dass das Ereignis eintritt, auf 1,05 ansteigen, also um 5% 

Interpretation der Odds Ratio bei kategorialen Prädiktoren:

Eine OR von 1,12 bedeutet, dass...

...für SPD-Wähler im Vergleich zu CDU-Wählern die Odds, dass das Ereignis eintritt, auf 1,12 steigt (um 12%)

--> kategoriale Prädiktorvariable wird in dichotome Variablen bzgl. einer Refenrenzkategorie zerlegt (SPD vs CUD, Linke vs CDU, Grüne vs CDU)

Interpretation der Odds Ratio bei multinomialer Kriterumsvariable:

Eine OR von 1,15 im Modell CDU vs. Grüne bedeutet...

 

...dass bei Erhöhung der Prädiktorvariable um eine Einheit (Einkommen), sich die Odds, CDU (vs Grüne) zu wählen um 15% erhöhen (auf 1,15)

---> alle Ausprägungen werden mit einer Referenzkategorie verglichen und entsprechend viele Modelle gerechnet

Ausgangspunkt der MEM

die meisten anderen Verfahren setzen Unabhängigkeit der Daten bzw. der Residuen voraus --> dem ist nicht immer so

Kontextuelle Variablen erhöhen die Dependenz zwischen Residuen (=Abweichungen der einzelnen Werte vim Mittelwert)

MEM

besondere Art von linearen Regressionen, die bei hierarchischen Daten (geschachtelt/genestet) eingesetzt werden können, um Abhängigkeit von Residuen zu berücksichtigen 

Synonyme MEM

  • Lineare gemischte Modelle
  • Multilevel-Modelle
  • Hierarchische lineare Modelle

Intraclass Correlation Coefficient (ICC)

Varianz auf Level 2 / Gesamtvarianz

gibt an, wie ähnlich sich die Werte aus der gleichen Level 2-Einheit sind

ab .1 mittlere Intraclass-Korrelation, ab .2 hohe 

Vorteile MEM

Weniger Anforderungen:

  • Abhängigkeiten durch höhere Levels kann modelliert werden
  • Sphärizität bei repeated measures kann modelliert werden

Umgang mit Missing Data

  • Dropt out bei Interventionsstudien
  • ungleiche Zellenbesetzungen
  • keine ganzen Fälle bei fehlenden Werten ausschließen und keine Interpolation der fehlenden Werte nötig

Flexibel und mächtig

  • Prädiktoren verschiedener Skalenniveaus, ebeneso deren Interaktion

Voraussetzungen MEM

  • min. intervallskalierte AV
  • Unabhängigkeit (abgesehen von den angenommenen Abhängigkeiten)
  • linearer Zusammenhang
  • große Stichprobe (20 Ausprägungen der Level 2 Variablen bei Interaktion zwischen den Levels)
  • NV Residuen 
  • Outlier anschauen und entfernen 
  • keine Multikollinearität (Zentrierung hilft) 

Fixed coefficients in einer Regressionsanalyse

Intercept und Slope sind für alle Personen bzw. Level 1-Daten gleich 

Random coefficients in einer Regressionsanalyse

Koeffizienten können je nach Level2-Kontext variieren 

  • random intercepts: Ausgangspunklte (wenn Prädiktoren 0 sind) können sich je nach Level2-Gruppe unterscheiden
  • random slope: Stärke des Zusammenhangs Prädiktor und Kriterium kann je nach Level2-Gruppe unterschiedlich sein

Was machen MEM?

  • schätzen die Regressionsparameter
  • UND deren Variabilität: Wie variabel ist der Intercept und wie variabel ist der Slope?
  • --> Variabilität von Intercept und Slope wird in der Regressionsgleichung modelliert

Level 1 Modellgleichung

was gilt für Personen innerhalb einer Gruppe?

Varianz zB individueller Mitarbeiter in einer Firma

Level 2 Modellgleichung

wie variieren Firmen um Gesamtmittel?

Devianz (als Parameter der Modellgüte bei MEM)

= -2LL = -2 * LogLikelihood = -2 * ln (L)

Passung des Modells auf die Daten

AIC

Aikaike Information Criterion

= DEV + 2 * q (q = Anzahl Parameter)

AICC

AIC für kleine Stichproben

CAIC

AIC korrigiert nicht nur für Komplexität sondern auch für Stichprobengröße

BIC

Bayesian Information Criterion

Schwarz-Index

= Dev + q * ln(n)        n = Stichprobengrüße, q = Anzahl Parameter

integrative Forschung

systematische Anstrengung, Erkenntnisse aus Primärstudien zu integrieren

auch: Sekundärforschung

Metaanalysen

Spezialfall der integrativen Forschung, bei der man versucht, den wissenschaftlichen Kenntnisstand möglichst systematisch, nachvollziehbar und unter Verwendung statistischer Verfahren zu integrieren

Hintergrund Metanalyse

  • explodierende Publikationszahlen
  • widersprüchliche Befunde
  • Bedarf einer integrativen Zusammenfassung für Praxis, Wissenschaft und Öffentlichkeit
  • eingeschränkte Aussagekraft von Primärstudien (Idiosynkrasien)

Ablauf Metaanalyse

  1. Forschungsfrage/Problemstellung
  2. Datenerhebung 
  3. Datenstrukturierung und evaluation
  4. Datenanalyse und Integration
  5. Datenpräsentation 

Fragestellung Metaanalyse: was macht man alles bei diesem Schritt?

Welche Fragestellung soll konkret untersucht werden?

Welche Hypothesen?

Wie definieren wir die Konstrukte? Wovon grenzen wir sie ab?

Nach welchen Kriterien suchen wir nach Primärstudien?

Äpfel und Birnen Problem

Fragestellungen, Definitionen, Manipulationen, Stichproben, Messinstrumente und methodische Qualität der Primärstudien sind sehr heterogen

weil: konkurrierende Definitionen von Begriffen und Konstrukten fächerübergreifend, international, historisch...

weil: unterschiedliche methodische Zugänge 

Lösung des Äpfel und Birnen Problems

Finden des kleinsten gemeinsamen Nenners der Operationalisierung in Primärstudien

Festlegung der Fragestellung basierend auf Generalisierungsabsicht 

Garbage in garbage out Problem

Qualität der Metaanalyse ist abhängig von der Qualität der eingeschlossenen Primärstudien

Eine Primärstudien mit schlechter Qualität kann die Qualität der ganzen Metaanalyse reduzieren

Lösungen Garbage in garbage out

  • Methodische Qualität als Moderator miteinbeziehen
  • Für methodische Qualität kontrollieren (gewichten)
  • klare Dokumentation und Begründung aller Schritte
  • klare Auswahlkrtierien bei den Primärstudien
  • Präzise Kodierung der nethodischen Qualität

Auswahlkriterien Metaanalyse

  • Inhaltliche Konstrukte: was werten wir als "Vorurteil", was nicht?
  • methodische Merkmale
  • sonstige: Art der Stichprobe, Sprache, Zeitraum
  • wichtig: klar und transparent formulieren

Wo findet man Primärliteratur?

  • Literaturdatenbanken
  • Kontakt zu einschlägigen Wissenschaftler*innen im Feld 
  • vorliegende Reiews und Metanalysen
  • Literaturverzeichnis vorliegender Studien
  • Datenbanken von Review-Organisationen
  • Monographien

Herausforderungen Literaturrecherche Metaanalyse

  • finden von: alten, fremdsprachigen, von Studierenden verfassten Arbeiten
  • publication bias: höhrere Publikationswahrscheinlichkeit hypothesenkonformer Forschungsergebnisse

Lösungen Probleme bei der Literaturrecherche für Metaanalysen

Breitestmöglich einschlägige Wissenschaftler*innen anschreiben

Detaillierter Bericht über die Suchkriterien, Suchbegriffe, die Datenbanken, den Zeitraum und die gefundenen Arbeiten

Kodiermerkmale

  • Merkmale der Stichprobe
  • Merkmale der Intervention/Manipulation
  • methodische Merkmale
  • Ergebnisse

Herausforderungen bei der Kodierung

- uneinheitlich verwendete Begriffe und Konstruke

- hohe inhaltliche Variabilität zwischen den Studien 

- nicht genug oder fehlende Angaben 

- variierende methodische Qualität

Lösungen für die variable methodische Qualität

  • Methodische Bewertung der Primärstudien
  • Methodischen Mindeststandard für Einschluss festlegen (z.B. nur randomized controlled trials) •
  • Untersuchung methodischer Einflussfaktoren (methodische Qualität als Moderator einbeziehen,
  • Korrektur oder Gewichtung der Ergebnisse nach methodischer Qualität 

Wie kann man methodische Qualität kodieren?

Methodische Globalbewertung z.B. Maryland Scale

Summenscore methodischer Einzelkriterien 

Wie kann man Ergebnisse kodieren?

  • deskriptive Parameter notieren
  • statistische Kennwerte notieren
  • einheitliche Effektsärke/Effektgröße berechnen

Effektstärke

Die Effektstärke (oder Effektgröße) gibt die Größe eines statistischen Effekts an und kann die praktische Relevanz verdeutlichen

Effekte können verglichen werden, auch wenn verschiedene Messemethoden genutzt wurden

geradlinig interpretierbar 

Effektstärke-Maße

  • Cohens d
  • Hedges g
  • Odds ratio
  • r-Index

d-Index / Cohens d

kann alle Werte einnehmen

0.2 klein, 0,5 mittel, 0,8 groß

standardisiertes Mittelwertsunterschied: MW-Unterschied/Gemeinsame Streuung

d=1 --> KG liegt einen SD über MW der EG