Metaanalyse

Karten zum Thema "Metaanalyse" für den Kurs "Methoden der Skalierung"

Karten zum Thema "Metaanalyse" für den Kurs "Methoden der Skalierung"


Kartei Details

Karten 48
Sprache Deutsch
Kategorie Psychologie
Stufe Universität
Erstellt / Aktualisiert 02.07.2020 / 24.07.2023
Weblink
https://card2brain.ch/box/20200702_metaanalyse
Einbinden
<iframe src="https://card2brain.ch/box/20200702_metaanalyse/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Was ist integrative Forschung? 

Integrative Forschung sind systematische Anstrengungen, Erkenntnisse aus Primärstudien zu integrieren (alternative Bezeichnung: Sekundärforschung) 

Was sind Metaanalysen?

  • ein Spezialfall der integrativen Forschung, die den wissenschaftlichen Kenntnisstand zu einer Fragestellung möglichst systematisch, nachvollziehbar und unter Verwendung statistischer Verfahren zu integrieren versucht (Lösel, 1987)
  • Eine Besonderheit ist dabei die Berechnung einheitlicher Effektstärken zur Integration und zum Vergleich der Ergebnisse über und zwischen Primärstudien

Was sind narrative Reviews? 

Narrative Reviews sind ein Grundtyp integrativer Forschung und stellen eine mehr oder weniger systematische Auflistung und Diskussion von Befunden zu einem Thema dar. 

Welche Typen von Metaanalysen gibt es? 

Es gibt Metaaanalyse, die sich mit korrelativen Zusammenhängen und beschäftigen und solche, die sich mit Gruppenkontrasten beschäftigen. 

In die Gruppe der korrelativen Zusammenhänge fallen Testvalidierung und Merkmalskovariation. 

In die Gruppe der Gruppenkontraste fallen Gruppendifferenzen und Interventionswirkungen. 

Welche Gründe/Notwendigkeiten gibt es für Metaanalysen?

  • Explosion von Publikationszahlen
  • Eingeschränkte Aussagekraft von Einzelergebnissen (Idiosynkrasien in Primärstudien)
  • Vielzahl sich widersprechender Befunde
  • Bedarf an integrativen Zusammenfassungen für Wissenschaft, Praxis und Öffentlichkeit 

Wie gestaltet sich der Ablauf einer Metaanalyse? 

  1. Forschungsfrage/Problemstellung 
  2. Datenerhebung (Daten = Forschungsberichte) 
  3. Datenstrukturierung und -evaluation 
  4. Datenanalyse und -integration 
  5. Datenpräsentation

 

 

Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 1, Forschungsfrage/Problemstellung, auf einen zu? 

Aufgabenstellung 

  • Exploration des Bedarfs an integrativer Forschung 
  • Genaue Festlegung der Fragestellung und Hypothesen 
  • Definition der Konstrukte und Abgrenzung zu anderen Themenbereichen 
  • Festlegung grundlegender Selektionskriterien (z.B. Inhalte, Publikationssprache, Publikationszeitraum)

Maßnahmen/Problemstellungen

  • intensives Literaturstudium, langjährige Forschungserfahrung
  • Uniformitätsprobleme (inhaltliche Heterogenität, Inkommensurabilität, "Äpfel-Birnen"-Problem  

Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 2, Datenerhebung, auf einen zu? 

Aufgabenstellung 

  • Identifikation von Suchbegriffen und Suchstrategien 
  • umfassende Literatursuche 

Maßnahmen/Problemstellungen 

  • Multiple Suchstrategien 
  • Berücksichtigung "nicht-publizierter" Literatur (publication-bias) 

Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 3, Datenstrukturierung und -evaluation, auf einen zu? 

Aufgabenstellung

  • Kodierung der Forschungsberichte/Studien nach inhaltlichen und methodischen Merkmalen (ggf. neue/veränderte Selektionskriterien) 
  • Festlegung der Analyseebenen

Maßnahmen/Problemstellung

  • Erstellung eines einheitlichen Auswertungschemas (Kodiersystems) 
  • Überprüfung der Kodierübereinstimmung 

Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 4, Datenanalyse und -integration, auf einen zu? 

Aufgabenstellung 

  • Zusammenfassung der Befunde; Auswertung nach inhaltlichen/methodischen Merkmalen 
  • bei empirischer Forschung: Nutzung statistischer Integrationsmethoden (Meta-Analyse) 

Maßnahmen/Problemstellung 

  • Berechnung integrativer Ergebnisparameter
  • Einfluss methodischer Merkmale
  • Identifikation differentieller Ergebnisse 
  • Feststellung von Konfundierungen 

Welche Aufgabenstellung und welche Maßnahmen bzw. Problemstellungen kommen beim Schritt 5, Datenpräsentation, auf einen zu? 

Aufgabenstellung 

  • detaillierte Dokumentation des methodischen Vorgehens, Berichtlegung und Beantwortung der Forschungsfragen 

Maßnahmen/Problemstellungen 

  • je nach Adressat (Wissenschaft, Praxis, Gesellschaft, Politik) unterschiedliche Darstellungsformen

Was ist das Uniformitätsproblem bzw. das "Äpfel-und-Birnen-Problem"? Nennen Sie ein Beispiel. 

Fragestellungen, aber auch Definitionen, Stichproben, Umsetzung der Manipulation, Messinstrumente, Kontext, methodische Qualität der Primärstudien sind oft heterogen

  • Konkurrierende Definitionen von Begriffen und Konstruktionen besonders bei fachübergreifenden Fragestellungen
  • Historische Veränderungen von Konstrukten/Begriffen und deren Definitionen
  • International uneinheitliche Definitionen/Forschungstraditionen

Beispiel: Spieltherapie 

  • im angelsächsischen Raum: verknüpft mit Psychoanalyse, Spiel als Medium der Angst- und Konfliktbewältigung 
  • in deutscher Tradition: verknüpft mit klientenzentrierter Therapie, Spiel als Medium zur Selbstaktualisierung
  • in der Entwicklungspsychologie: Spiel als zentraler Aspekt der kognitiven Entwicklung 

Worauf sollte die Festlegung der Fragestellung basieren?

  • Generalisierungsabsicht (z.B. Wirkung von Psychotherapie vs. Wirkung von Hypnose zur Operationsvorbereitung) 
  • Potentielle Moderatorvariablen (z.B. Alter der Klientel, Art der Intervention) 

Wie sollten die Konstrukte in einer Metaanalyse definiert werden? 

Als "kleinster gemeinsamer Nenner" der Operationalisierungen der Primärarbeiten. 

Was ist das "garbage in, garbage out"-Problem?

Die Qualität der Metaanalyse ist abhängig von der Qualität der eingeschlossenen Primärstudien. 

Was sind Lösungsstrategien für das "garbage in, garbage out"-Problem? 

  • Klarheit bei Auswahlkriterien der Primärstudien
  • Präzise Kodierung der methodischen Qualität
  • Methodische Qualität als Moderatorvariable testen
  • auf methodische Qualität kontrollieren
  • Klare Dokumentation und Begründung aller Schritte
  • Wichtig: „Data-analysis is an aid to thought, not substitute!“ (Green & Hall, 1984)

Was sind Auswahlkriterien für Primärstudien? 

  • Inhaltliche Konstrukte (zentrale Aspekte der Forschungsfrage wie Intervention und Erfolgskriterien: Was gehört zu Psychotherapie? Welcher Operationalisierungen der Effekte von Interventionen sollen ausgewählt werden?)
  • Methodische Merkmale der Forschungsarbeiten (z.B. nur Studie mit kontrolliertem Design und randomisierter Zuordnung, nur Längsschnittstudien, bestimmte Stichprobengröße, unabhängiges funding (!), etc.)
  • Art der Stichprobe (z.B. Kinder- und Jugendliche, Menschen mit bestimmten klinischen Diagnosen etc.)
  • Publikationssprache, Publikationsjahr und Ort der Durchführung
  • Abgrenzungen zu verwandten Forschungsfeldern (explizite Ausschlusskriterien)

Wichtig: Auswahlkriterien müssen transparent formuliert werden!

Was können Probleme bei der Datenerhebung sein? 

  • Identifikation und Beschaffung älterer Forschungsarbeiten schwierig (z.T. nicht in Datenbanken)
  • Identifikation und Beschaffung fremdsprachiger Arbeiten oft schwierig
  • Identifikation und Beschaffung nicht publizierter Arbeiten schwierig
  • Publication bias: höhere Publikationswahrscheinlichkeit hypothesenkonformer Forschungsergebnisse

Wie können Probleme, die bei der Datenerhebung auftreten, gelöst werden? 

Arten nicht publizierter Arbeiten und Möglichkeiten der Beschaffung 

  • Dissertationen (mittlerweile über Dissertation Abstracts und Online Dienste zu identifizieren und beschaffen)
  • Diplom-, BA- und MA-Arbeiten (schwierig zu beschaffen, Betreuer anfragen)
  • Dokumentationen von Studien aus Ministerien, außeruniversitären Forschungseinrichtungen (über Internet mittlerweile zu beschaffen)
  • Studien mit erwartungs-diskonformen Ergebnissen (schwierig zu beschaffen, bekannte Forscher anschreiben)
  • Studien zu internen Zwecken (Auftragsforschung: kaum identifizierbar, i.d.R. nicht beschaffbar

Dokumentation ist wichtig: Screening Datei mit Studien und Selektionskriterien erstellen (inklusive Dokumentation der ausgeschlossenen Arbeiten)

Was sind Kriterien für die Ermittlung eines Erhebungsumfangs? 

Recall (Vollständigkeitsquote) 

  • Ziel: Identifikation sämtlicher relevanter Quellen ("positive Treffer")
  • Zahl der gefundenen relevanten Dokumente/ (unbekannte) Gesamtzahl der relevanten Dokumente 

Precision (Genauigkeitsquote) 

  • Ziel: Ergebnismenge ohne irrelevante Quellen ("negative Treffer") 
  • Zahl der gefundenen relevanten Dokumente/Gesamtzahl der gefundenen Dokumente

Ziel: Maximierung von Recall und Precision

Was sind Aufgaben und Ziel der Datenstrukturierung und -evaluation? 

Aufgaben 

  • Festlegung der Analyse-Ebenen und der Analyse-Einheit
  • Erstellung eines detaillierten Kodierplans für inhaltliche, methodische und ergebnisbezogene Informationen (einschl. detaillier Beschreibungen)
  • Training der Kodierer und Kodierungsdurchführung
  • Überprüfung der Kodierungsreliabilität (Interkodierer-Übereinstimmung)

Ziel

  • Schaffung einer zuverlässigen und einheitlichen Auswertungsbasis unter Einschluss relevanter Beurteilungs- und Integrationsaspekte

Was sind Kodierungsmerkmale? 

  • Merkmale der Intervention/Manipulation (Art, Intensität, Administrator, theoretische Ausrichtung, Setting, etc.)
  • Merkmale der Stichprobe/Klientel (Alter, Geschlecht, Diagnose, Belastungsgrad, etc.)
  • Methodische Merkmale (Design, methodische Qualität, Reliabilität, Stichprobengröße, Dropout-Rate, Reaktivität, Standardisierungsgrad, etc.)
  • Ergebnisse (Mittelwerte, SD, Teststatistiken, Signifikanzniveaus, etc.)
  • Identifikations-/Publikationsmerkmale (Autoren, Publikationsland und – jahr, -art, -status, - organ, etc.)
  • Rahmenbedingungen der Forschung (Finanzierung, Interessenskonflikte der Autoren, etc.)

Was ist der Unterschied zwischen "low inference codings" und "high inference codings"?

  • High inference codings: methodische Qualität, Stichprobe, Dauer der Intervention 
  • Low inference codings: Publlikationsjahr

Welche Probleme können bei der Datenstrukturierung und -evaluation auftreten und wie können sie gelöst werden? 

  • Uneinheitlich verwendete Begriffe und Konstrukte →Rückkopplung Arbeitsschritte 1/2
  • (Zu) große inhaltliche und/ oder methodische Variabilität zwischen den Studien → Rückkopplungsschleife zu Arbeitsschritte 1/2
  • Keine oder ungenaue Beschreibungen in den Studien (fehlende Werte, Angaben) →Autoren kontaktieren

Wie kann methodische Qualität sichergestellt werden? 

  1. Methodische Bewertungen der Primärstudien
  2. Methodischen Mindeststandard für Einschluss festlegen (z.B. nur randomized controlled trials)
  3. Untersuchung methodischer Einflussfaktoren (methodische Qualität als Moderator, siehe nächster Schritt)
  4. Korrektur oder Gewichtung der Ergebnisse nach methodischer Qualität (siehe nächster Schritt, z.B. Hunter & Schmidt , 2004)

Wie können Evaluationsstudien methodisch bewertet werden?

  • Globalbewertungen (z.B. Maryland-Scale von Sherman et al., 1997) (Studien werden nach Kriterium in Punktekategorie eingestuft)
  • Summenscores (Studien erhalten jeweils einen Wert-Punkt für zutreffendes Kriterium)

Wie sieht die Maryland Scale aus? 

  • 1 = Nur Post-Design ohne Kontrollgruppe
  • 2 = Prä-Post-Design ohne vergleichbare Kontrollgruppe
  • 3 = Prä-Post-Design mit nicht äquivalenter Kontrollgruppe (nicht randomisiert)
  • 4 = Prä-Post-Design mit Kontrollgruppe (nicht randomisiert, aber mit zusätzlicher Kontrolle der Vergleichbarkeit der Gruppen)
  • 5 = Prä-Post Design mit randomisierter Kontrollgruppe

Welche Schritte sollten bei der Kodierung von Ergebnissen unternommen werden? 

  1. Registrierung der deskriptiven Ergebnisparameter: M, SD, df
  2. Registrierung der statistischen Kennwerte: Parameter und Signifikanzniveau
  3. Berechnung einheitlicher Effektstärken: d-Index (standardisierter Mittelwertunterschied), Produkt-Moment-Korrelation r, Odd Ratio

Was kann als standardisiertes Maß für die Differenz zwischen Effektgrößen verwendet werden? 

Die Effektstärke! ES = (Ma-Mb)/s

M = Mittelwert 

s = Standardabweichung

Was sind Voraussetzungen dafür die ES als standardisiertes Maß für die Differenz zwischen EG zu verwenden? 

Bekannt sein müssen…

  • Versuchsdesign (Kontrollgruppe, Prä-Post)
  • Stichprobengröße in EG und KG
  • Mittelwerte
  • Standardabweichungen in EG und KG (oder F-,t-Werte, um SD zu schätzen)

Wie werden Effektstärken interpretiert? 

In Standardabweichungen. Habe ich zum Beispiel eine Effekstärke von 0,5 bei der Behandlergruppe, sp weiß ich, dass die Behandlergruppe eine halbe Standardabweichung über der Kontrollgruppe liegt. 

Wie werden Effektstärken geschätzt (Schritte)?

  1. Berechnung der Effektstärken pro Studie
  2. Berechnung der gesamten Effektstärke als Mittelwert dieser Effektstärken (evtl. mit Korrektur der erwartungstreuen Schätzer) a) Gewichtung der ES mit dem Stichprobenumfang (ESxN) b) Berücksichtigung nur solcher Effektstärken, die laut Homogenitätstest nicht durch Moderatorvariablen beeinflusst sind.
  3. Interpretation der Effektstärken in Einheiten der gemittelten Standardabweichung.

Wie berechnet man Effektstärken, wenn es prä-post-Bedingungen gibt? 

Durch gepoolte Standardabweichung aus den Prä-Messungen. 

!T-Shirt-Größen können nur bei der Standardformel interpretiert werden! 

Was tun wenn es mehrere ES in einer Studie gibt?

  • Problem statistischer Abhängigkeit der ES
  • Lösungsmöglichkeiten: Zusammenfassung innerhalb der Studie
    • Mittelwert aller ES oder
    • Auswahl einer konkreten ES nach inhaltlichen Kriterien

Was sind Ziele der Datenanalyse und Datenintegration? 

  • Zusammenfassung / Integration der Ergebnisparameter (Effektstärken)
  • Analyse der Varianz der Effektstärken (Homogenitätsanalysen)
  • Analyse von Moderatoren
  • Gibt es Publikationsverzerrungen

Was ist die Vote-Counting Methode? 

Man zählt die signifikaten und nicht-signifikanten Studien und macht einen Test wie wahrscheinlich dieses Ergebnis ist (über Verteilungsverfahren). Welcher Effektstärkenbereich würde am wahrscheinlichsten dafür rauskommen? 

Was sollte mit Korrelationen bzw. Odds Ratios passieren bevor man sie integriert? 

  • Korrelationen: Fisher-Z-Transformation
  • Odds Ratio: Logarithmieren

Wie werden die Ergebnisparameter integriert? 

  • Methoden der Wahl: Integration nach Hedges & Olkin (z.B. 1985) oder nach Hunter & Schmidt (z.B. 2004)
  • Einfachste Methode: Bestimmung der durchschnittlichen ES
  • Berechnung eines Gewichtungsfaktors der Effektstärke pro Studie (oder Vergleich)
    • z.B. Stichprobengröße (Hunter & Schmidt, einfach Variante), inverse Varianz (Hedges & Olkin), weiteres methodische Aspekte (Hunter & Schmidt)
  • Integration der gewichteten Effektstärken nach fixed- oder randomeffects-Modell, um mittlere Effektstärke zu erhalten (inkl. Angabe des Konfidenzintervalls)

Wie funktioniert die Hunter & Schmidt Methode der Integration der Ergebnisparameter? 

  • Diese Methode erlaubt Korrektur der ES für viele mögliche Fehlerquellen (z.B. sampling error/Stichprobenfehler, Reliabilität der Maße, Dichotomisierung von Variablen, etc.)
  • Einfachste Form: r (=ES) wird gewichtet durch die Stichprobengröße

Wie funktioniert die Hedges & Olkin Methode der Integration der Ergebnisparameter? 

  • Diese Methode korrigiert die ES für Varianz in den jeweiligen Studien
  • Fixed-effects Modell: z-standardisierte r aus jeder Studie werden durch die inverse within-study Varianz der entsprechenden Studie gewichtet
  • Random-effects Modell: neben der Gewichtung durch die inverse within-study Varianz wird die between-study Varianz in die Gewichtung eingerechnet