Metaanalyse
Karten zum Thema "Metaanalyse" für den Kurs "Methoden der Skalierung"
Karten zum Thema "Metaanalyse" für den Kurs "Methoden der Skalierung"
Kartei Details
Karten | 48 |
---|---|
Sprache | Deutsch |
Kategorie | Psychologie |
Stufe | Universität |
Erstellt / Aktualisiert | 02.07.2020 / 24.07.2023 |
Weblink |
https://card2brain.ch/box/20200702_metaanalyse
|
Einbinden |
<iframe src="https://card2brain.ch/box/20200702_metaanalyse/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Lernkarteien erstellen oder kopieren
Mit einem Upgrade kannst du unlimitiert Lernkarteien erstellen oder kopieren und viele Zusatzfunktionen mehr nutzen.
Melde dich an, um alle Karten zu sehen.
Was tun wenn es mehrere ES in einer Studie gibt?
- Problem statistischer Abhängigkeit der ES
- Lösungsmöglichkeiten: Zusammenfassung innerhalb der Studie
- Mittelwert aller ES oder
- Auswahl einer konkreten ES nach inhaltlichen Kriterien
Was sind Ziele der Datenanalyse und Datenintegration?
- Zusammenfassung / Integration der Ergebnisparameter (Effektstärken)
- Analyse der Varianz der Effektstärken (Homogenitätsanalysen)
- Analyse von Moderatoren
- Gibt es Publikationsverzerrungen
Was ist die Vote-Counting Methode?
Man zählt die signifikaten und nicht-signifikanten Studien und macht einen Test wie wahrscheinlich dieses Ergebnis ist (über Verteilungsverfahren). Welcher Effektstärkenbereich würde am wahrscheinlichsten dafür rauskommen?
Was sollte mit Korrelationen bzw. Odds Ratios passieren bevor man sie integriert?
- Korrelationen: Fisher-Z-Transformation
- Odds Ratio: Logarithmieren
- Methoden der Wahl: Integration nach Hedges & Olkin (z.B. 1985) oder nach Hunter & Schmidt (z.B. 2004)
- Einfachste Methode: Bestimmung der durchschnittlichen ES
- Berechnung eines Gewichtungsfaktors der Effektstärke pro Studie (oder Vergleich)
- z.B. Stichprobengröße (Hunter & Schmidt, einfach Variante), inverse Varianz (Hedges & Olkin), weiteres methodische Aspekte (Hunter & Schmidt)
- Integration der gewichteten Effektstärken nach fixed- oder randomeffects-Modell, um mittlere Effektstärke zu erhalten (inkl. Angabe des Konfidenzintervalls)
Wie funktioniert die Hunter & Schmidt Methode der Integration der Ergebnisparameter?
- Diese Methode erlaubt Korrektur der ES für viele mögliche Fehlerquellen (z.B. sampling error/Stichprobenfehler, Reliabilität der Maße, Dichotomisierung von Variablen, etc.)
- Einfachste Form: r (=ES) wird gewichtet durch die Stichprobengröße
Wie funktioniert die Hedges & Olkin Methode der Integration der Ergebnisparameter?
- Diese Methode korrigiert die ES für Varianz in den jeweiligen Studien
- Fixed-effects Modell: z-standardisierte r aus jeder Studie werden durch die inverse within-study Varianz der entsprechenden Studie gewichtet
- Random-effects Modell: neben der Gewichtung durch die inverse within-study Varianz wird die between-study Varianz in die Gewichtung eingerechnet
Was ist ein fixed-effects Modell?
- Beruht auf der Annahme, dass alle integrierten Studien sich auf die gleiche Population beziehen
- Annahme: Variabilität kommt allein durch Stichprobenfehler zustande
- Angemessen bei Homogenität der Befunde
- Erlaubt geringen Generalisierungsgrad der Befunde
Was ist ein random-effects Modell?
- Beruht auf der Annahme, dass Einzelstudien unterschiedliche Populationseffekte schätzen
- Annahme: Variabilität der Ergebnisse kommt durch Stichprobenfehler und durch zusätzliche Varianzquellen zustande • Angemessen bei Heterogenität der Befunde
- Erlaubt hohen Generalisierungsgrad der Befunde
- Field (2010): Random-effects Modelle in den allermeisten Fällen in social/life sciences besser!
Was ist eine Homogenitätsanalyse?
- Berechnung auf Basis der Effektstärken-Variabilität: Ist die ESVariabilität über Studien allein durch Stichprobenfehler zu erklären oder gibt es weitere Varianzquellen?
- Prinzip: Variabilität zwischen Studien wird verglichen mit Variabilität innerhalb der Studien
- Die beiden Integrations-Methoden (Hunter & Schmidt/Hedges & Olkin) haben jeweils spezifische Formeln für Homogenitätsanalyse (siehe Field, 2010)
- Das Ergebnis hat Einfluss auf Auswahl des Modells der Integration (fixed versus random effects) und auf Annahme von Moderatoren --> ob fixed oder random sollte eher auf Basis von inhaltlichen Überlegungen entschieden werden
Was sind Moderatoren?
Inhaltliche (z.B. Dauer des Treatments) und methodische Aspekte (z.B. random assignment), die die Effektstärke signifikant beeinflussen
Wie können Moderatoren untersucht werden?
- Varianzanalytisch (bei kategorialen-Variablen)
- Regressionsanalytisch (bei kontinuierlichen Moderator-Variablen); multiple Regression erlaubt Einschluss kategorialer und kontinuierlicher Moderatorvariablen
- Q-Statistik (als Homogenitätsprüfung)
Wie können Publikationsverzerrungen identifiziert werden?
- Vergleich nicht publizierter und publizierter Arbeiten: gibt es eine Tendenz zu geringeren Effektstärken in nicht publizierten Arbeiten?
- Berechnung des Fail-safe N (Anzahl an Studien mit ES = 0 die es bräuchte, um den mittleren Effekt gerade nicht signifikant werden zu lassen)
- Funnel-Plots zeigen den Zusammenhang zwischen Stichprobengröße und den Effektstärken in den Primärstudien
- → ohne Publikationsverzerrung sieht der funnel plot trichterförmig aus mit Gleichverteilung um die mittlere Effektstärke
- Rangkorrelationstest (Begg & Mazumdar‘s, 1994) für Publikationsverzerrung: korreliert Stichprobengröße mit Effektstärke?
Wie können Publikationsverzerrungen korrigiert werden?
- Definition eines cut-offs (z.B. basierend auf SD)
- Removal oder Rückkodierung der Outlier auf „realistische“ Werte (z.B. auf MW +/- 3 SD) („Winsorizing“)
- Korrektur durch Trim-and-Fill-Analyse: Ergänzung des funnelplots um fiktive komplementäre (kleine/negative) ES-Werte. Dann wird die mittlere ES neu geschätzt
Welche weiterführenden Analysen können mit ES berechnet werden?
- Binomial Effect Size Display (BESD): Umrechnung der ES in prozentuale Verbesserungschancen (z.B. d=.2, BESD=10%)
- Klinische Signifikanz: Effektstärken werden anhand von Normgruppen (statt Kontrollgruppen) berechnet
Was ist integrative Forschung?
Integrative Forschung sind systematische Anstrengungen, Erkenntnisse aus Primärstudien zu integrieren (alternative Bezeichnung: Sekundärforschung)
Was sind Metaanalysen?
- ein Spezialfall der integrativen Forschung, die den wissenschaftlichen Kenntnisstand zu einer Fragestellung möglichst systematisch, nachvollziehbar und unter Verwendung statistischer Verfahren zu integrieren versucht (Lösel, 1987)
- Eine Besonderheit ist dabei die Berechnung einheitlicher Effektstärken zur Integration und zum Vergleich der Ergebnisse über und zwischen Primärstudien
Was sind narrative Reviews?
Narrative Reviews sind ein Grundtyp integrativer Forschung und stellen eine mehr oder weniger systematische Auflistung und Diskussion von Befunden zu einem Thema dar.
Welche Typen von Metaanalysen gibt es?
Es gibt Metaaanalyse, die sich mit korrelativen Zusammenhängen und beschäftigen und solche, die sich mit Gruppenkontrasten beschäftigen.
In die Gruppe der korrelativen Zusammenhänge fallen Testvalidierung und Merkmalskovariation.
In die Gruppe der Gruppenkontraste fallen Gruppendifferenzen und Interventionswirkungen.
Welche Gründe/Notwendigkeiten gibt es für Metaanalysen?
- Explosion von Publikationszahlen
- Eingeschränkte Aussagekraft von Einzelergebnissen (Idiosynkrasien in Primärstudien)
- Vielzahl sich widersprechender Befunde
- Bedarf an integrativen Zusammenfassungen für Wissenschaft, Praxis und Öffentlichkeit
Wie gestaltet sich der Ablauf einer Metaanalyse?
- Forschungsfrage/Problemstellung
- Datenerhebung (Daten = Forschungsberichte)
- Datenstrukturierung und -evaluation
- Datenanalyse und -integration
- Datenpräsentation
Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 1, Forschungsfrage/Problemstellung, auf einen zu?
Aufgabenstellung
- Exploration des Bedarfs an integrativer Forschung
- Genaue Festlegung der Fragestellung und Hypothesen
- Definition der Konstrukte und Abgrenzung zu anderen Themenbereichen
- Festlegung grundlegender Selektionskriterien (z.B. Inhalte, Publikationssprache, Publikationszeitraum)
Maßnahmen/Problemstellungen
- intensives Literaturstudium, langjährige Forschungserfahrung
- Uniformitätsprobleme (inhaltliche Heterogenität, Inkommensurabilität, "Äpfel-Birnen"-Problem
Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 2, Datenerhebung, auf einen zu?
Aufgabenstellung
- Identifikation von Suchbegriffen und Suchstrategien
- umfassende Literatursuche
Maßnahmen/Problemstellungen
- Multiple Suchstrategien
- Berücksichtigung "nicht-publizierter" Literatur (publication-bias)
Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 3, Datenstrukturierung und -evaluation, auf einen zu?
Aufgabenstellung
- Kodierung der Forschungsberichte/Studien nach inhaltlichen und methodischen Merkmalen (ggf. neue/veränderte Selektionskriterien)
- Festlegung der Analyseebenen
Maßnahmen/Problemstellung
- Erstellung eines einheitlichen Auswertungschemas (Kodiersystems)
- Überprüfung der Kodierübereinstimmung
Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 4, Datenanalyse und -integration, auf einen zu?
Aufgabenstellung
- Zusammenfassung der Befunde; Auswertung nach inhaltlichen/methodischen Merkmalen
- bei empirischer Forschung: Nutzung statistischer Integrationsmethoden (Meta-Analyse)
Maßnahmen/Problemstellung
- Berechnung integrativer Ergebnisparameter
- Einfluss methodischer Merkmale
- Identifikation differentieller Ergebnisse
- Feststellung von Konfundierungen
Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 5, Datenpräsentation, auf einen zu?
Aufgabenstellung
- detaillierte Dokumentation des methodischen Vorgehens, Berichtlegung und Beantwortung der Forschungsfragen
Maßnahmen/Problemstellungen
- je nach Adressat (Wissenschaft, Praxis, Gesellschaft, Politik) unterschiedliche Darstellungsformen
Was ist das Uniformitätsproblem bzw. das "Äpfel-und-Birnen-Problem"? Nennen Sie ein Beispiel.
Fragestellungen, aber auch Definitionen, Stichproben, Umsetzung der Manipulation, Messinstrumente, Kontext, methodische Qualität der Primärstudien sind oft heterogen
- Konkurrierende Definitionen von Begriffen und Konstruktionen besonders bei fachübergreifenden Fragestellungen
- Historische Veränderungen von Konstrukten/Begriffen und deren Definitionen
- International uneinheitliche Definitionen/Forschungstraditionen
Beispiel: Spieltherapie
- im angelsächsischen Raum: verknüpft mit Psychoanalyse, Spiel als Medium der Angst- und Konfliktbewältigung
- in deutscher Tradition: verknüpft mit klientenzentrierter Therapie, Spiel als Medium zur Selbstaktualisierung
- in der Entwicklungspsychologie: Spiel als zentraler Aspekt der kognitiven Entwicklung
Worauf sollte die Festlegung der Fragestellung basieren?
- Generalisierungsabsicht (z.B. Wirkung von Psychotherapie vs. Wirkung von Hypnose zur Operationsvorbereitung)
- Potentielle Moderatorvariablen (z.B. Alter der Klientel, Art der Intervention)
Wie sollten die Konstrukte in einer Metaanalyse definiert werden?
Als "kleinster gemeinsamer Nenner" der Operationalisierungen der Primärarbeiten.
Was ist das "garbage in, garbage out"-Problem?
Die Qualität der Metaanalyse ist abhängig von der Qualität der eingeschlossenen Primärstudien.
-
- 1 / 48
-