VL22
Set of flashcards Details
Flashcards | 162 |
---|---|
Language | Deutsch |
Category | Psychology |
Level | University |
Created / Updated | 10.07.2022 / 27.07.2024 |
Weblink |
https://card2brain.ch/box/20220710_methoden_der_skalierung
|
Embed |
<iframe src="https://card2brain.ch/box/20220710_methoden_der_skalierung/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Welche Annahmen gibt es über die Varianz-Kovarianzen Matrix?
- Kovarianzenstruktur für random effects- und repeated measures Variablen
- 3 Strukturtypen
- Variance components
- alle Ausprägungen sind unabhängig voneinander
- Varianzen bei allen Ausprägungen gleich
- bei random intercept Modellen
- AR(1)
- Varianzen sind gleich, aber Ausprägungen korrelieren miteinander in abnehmender Form
- bei repeated measures im Längsschnitt
- Unstructuredd
- keine Annahmen über Varianzen/Kovarianzen
- bei random slopes
- Variance components
In welcher Reihenfolge werden die Modelle anhand ihrer Fit-Indizes und Modelle verglichen?
- Nullmodell 1 (nur lineare Regressionsgleichung)
- Einfluss von PV auf KV in verschiedenen Level-2 Ausprägungen
- ist Varianz auf Unterschiede innerhalb oder zwischen den Gruppen zurückzuführen?
- gibt es systematische Varianz in y
- Modell 2: random intercept (unterschiedliche Ausgangsbedingungen unabhängig vom Prädiktor)
- gibt es systematische Varianz in y jenseits der PV?
- Modell 3 = random intercept und slope (unterschiedliche Ausgangsbedingungen und unterschiedliche Steigungen zwischen den Gruppen (=Level2))
- Modell 4 = Cross-Level Interaction noch mit aufnehmen
Welche Parameter messen die Modellgüte?
Zuwachs aufgeklärter Varianz R2 durch Prädiktoren oder deren Interaktion
Devianzen werden nicht interpretiert sondern dienen nur dem Vergleich zwischen den Modellen!
- Devianz (= Abweichung Daten von Modell)
- = -2 ln(L)(-2*logLikelihood)
- AIC: Dev + 2*q
- q = Anzahl Parameter
- AICC: Version für kleine Stichproben
- CAIC: korrigiert für Komplexität und Stichprobengröße
- BIX: Dev + q*ln(n)
- n = Stichprobengröße
Wie kann man dann die Modelle vergleichen?
- mithilfe der Devianzen (Chi2-Test)
- passt neues Modell besser als altes Modell?
- Voraussetzungen
- neues Modell hat alle Effekte des alten Modells
- Maximum-Likelihood Schätzung
- X2change = (-2LLold) - (-2LLnew)
- dfchange = kold - knew
Wie werden die Parameter überhaupt geschätzt?
- Maximum-Likelihood Schätzung
- Schrittweise Schätzung, sodass W'keit der beobachteten Daten maximal ist
- Verwendung bei Vergleichen von Modellen
- Restricted Maximum-Likelihood Methode (REML)
- schätzt nur zufällige Effekte
- Verwendung bei Schätzung von random slope und random intercept
- Nachteil: Modellvergleiche nur möglich, wenn Modelle sich in random effect unterscheiden
Wie können die Regressionsparameter interpretiert werden?
- Zentrierung der PV
- Grund: Verbesserung der Interpretation und Reduktion der Multikollinearität
- v.a. wenn sie keinen sinnvollen Nullpunkt haben (z.B. Herzrate, Körpergröße)
- Grund: das Gewicht des PV1 gibt den Wert von y an, wenn PV2 nicht ausgeprägt ist
Welche Arten der Zentrierung gibt es?
- Grant-Mean Zentrierung
- Zentrierung der Variablen am Gesamtmittelwert
- Abzug des MW von PV1 von allen Einzelwerten (für PV1 und PV2)
- wenn Fokus auf Einfluss des L2-Prädiktors liegt
- Interpretation:
b1 gibt Wert von y an, wenn z (Prädiktor 2) bei seinem Mittelwert liegt
- Group Mean Zentrierung
- Zentrierung der Variablen am Gruppenmittelwert
hier getrennt für alle Level 2 Ausprägungen Gruppenmittelwert abziehen - Fokus auf Einfluss des L1-Prädiktors und/oder cross-Level Interaktionen
- Zentrierung der Variablen am Gruppenmittelwert
Welche Fragen versucht die Metaanalyse zu klären?
- Integration der Befunde
- sucht nach Vorhersagen für recht komplexe Verhaltensweisen
- Ziel: herausfinden, wie wirksam etwas ist, welche Moderatoren eine Rolle spielen etc.
- Frage nach dem "wie stark"
= einheitliche Effektstärke
Welche Art der Forschung ist die Metaanalyse?
- Spezialfall integrative Forschung
- Integration der Erkenntnisse aus Primärstudien
- Sekundärforschung
- Ziel:
- wissenschaftliche Kenntnisse zu Frage systematisch, nachvollziehbar und unter Verwendung statistischer Verfahren zu integrieren
- Berechnung von einheitlichen Effektstärken
Was ist Integrative Forschung?
- subjektiv
- narrative Reviews
- ± systematische Auflistung und Diskussion von Befunden eines Themas
- Metaanalysen
- umfassende Integration von Forschungsbefunden mittel statistischer Integrationsmethoden (einheitliche Vorgehensweise und Methoden)
- korrelative Zusammenhänge (= Testvalidierung vs. Merkmals-Kovariation)
- Gruppenkontraste (= Gruppendifferenzen vs. Interventionswirkungen)
Was sind Gründe für die Durchführung von Metaanalysen?
- Explosition von Publikationszahlen
- eingeschränkte Aussagekraft von Einzelergebnissen (da oft im Labot etc.)
- Vielzahl sich widersprechender Befunde (durch Moderatoren o.ä.)
- Bedarf an integrativen Zusammenfassungen für Wissenschaft, Praxis, Öffentlichkeit
Wie ist der Ablauf einer Metaanalyse?
- Forschungsfrage/Problemstellung
- Datenerhebung (Forschungsberichte)
- Datenstrukturierung und -evaluation
- Datenanalyse und -integration
- Datenpräsentation
Beschreibe kurz Schritt 1: Forschungsfrage und Problemstellung
- Exploration des Bedarfs an integrativer Forschung
- genaue Festlegung der Fragestellung und Hypothesen
- Definition der Konstrukte und Abgrenzung zu anderen Themenbereichen
- Festlegung von Selektionskriterien
- Inhalte, Publikationssprache und -zeitraum
Welche Herausforderungen birgt der erste Schritt der Metaanalyse?
- Äpfel-Birnen Problem
- Heterogenität: Fragen, Definitionen, Stichproben, Manipulationen, Messinstrumente, methodische Qualität der Primärstudien
- konkurrierende Definitionen durch Interdisziplinarität
- historische Veränderungen von Konstrukten und Begriffen
- international uneinheitliche Definitionen
- unterschiedliche methodische Zugänge
- Garbage-in-garbage-out Problem (rote Socken Problematik)
- Qualität ist abhängig von Qualität der eingeschlossenen Primärstudien
Welche Lösungsstrategien gibt es?
- Äpfel-Birnen
- Festlegung Fragestellung basierend auf Generalisierungsabsicht
- kleinster gemeinsamer Nenner der Operationalisierungen in Primärstudien
- Garbage-in-garbage-out
- klare Auswahlkriterien
- präzise Kodierung der methodischen Qualität
- Gewichtung basierend auf Stichprobengröße und Qualität
- methodische Qualität als Moderatorvariable testen
- für methodische Qualität kontrollieren
- klare Dokumentation und Begründung
Welche Auswahlkriterien gibt es?
- inhaltliche Konstrukte
- zentrale Aspekte der Forschungsfrage
- methodische Merkmale
- bsp. kontrolliertem Design und randomisierter Zuteilung, unabhängiges funding
- sonstige
- Art der Stichprobe
- Publikationssprache und -zeitraum
- Umdefinitionen eines Konstrukts (dann erst ab Neudefinition die Studien inkludieren)
Beschreibe kurz Schritt 2 der Metaanalyse
- Datenerhebung/Literatursuche
- in Reviews, Metaanalysen, Literaturdatenbanken, Datenbanken von "Review"-Organisationen, Literaturlisten, Monografien, durch Kontakte
- Identifikation von Suchbegriffen und -strategien
- umfassende, systematische Literatursuche
- Konkretisieren der Forschungsfrage
Welche Herausforderungen gibt es bei der Datenerhebung?
- multiple Suchstrategien
- Berücksichtigen von nicht-publizierter Literatur (publication bias)
- ca. 97% der Studien berichten Effekt
- Identifikation und Beschaffung älterer, fremdsprachiger und von Studis durchgeführter Forschungsarbeiten
Welche Lösungsstrategien gibt es?
- breitestmöglich einschlägige Wissenschaftler anschreiben
- detaillierter Bericht über Suchkriterien, Suchbegriffe, Datenbanken, Zeitraum und gefundene Arbeitem
Beschreibe kurz Schritt 3
Datenstrukturierung und -evaluation
- Ziel: Schaffung zuverlässiger und einheitlicher Auswertungsbasis unter Einschluss relevanter Beurteilungs- und Integrationsaspekte
- Kodierung der Forschungsberichte/Studien nach inhaltlichen, methodischen und ereignisbezogenen Merkmalen
- Erstellung eines detaillierten Kodierplans
- Training der Kodierer
- Überprüfen der Kodierungsreliabilität (Interkodierer-Übereinstimmung)
- Dokumentation der Kodiermerkmale und -kriterien
- Anzahl und Art der Kodierungen = abhängig von inhaltlichem Interessen
- Festlegung der Analyseebenen und -einheiten
Welche Kodiermerkmale gibt es?
- Merkmale der Intervention/Manipulation
- Art, Intensität, Administrator, theoretische Ausrichtung, Setting
- Merkmale der Stichprobe/Klientel
- Alter, Klassenstufe, Schulart, Geschlecht
- Methodische Merkmale
- Design, methodische Qualität, Stichprobengröße, Dropout-Rate, Standardisierungsgrad
- Ergebnisse
- MW, Streuung, Teststatistiken, Signifkanzniveaus
Welche Herausforderungen gibt es bei der Datenstrukturierung und -evaluation?
- uneinheitlich verwendete Begriffe und Konstrukte
--> Lösung: Rückkopplung zu Schritt 1 und 2 - (zu) große inhaltliche Variabliität zwischen Studien
--> Lösung: Schritt 1 und 2 - keine oder ungenaue Beschreibungen in Studien (fehlende Werte)
--> Lösung: Autoren kontaktieren - Variabilität der methodischen Qualität
- methodische Bewertung der Primärstudien
- methodische Mindeststandards für Einschluss festlegen
- Untersuchung methodischer Einschlussfaktoren (methodische Qualität als Moderator)
- Korrektur oder Gewichte der Ergebnisse nach methodischer Qualität
Wie kann man die methodische Qualität kodieren?
- methodische Globalbewertung (Maryland Scale)
- 1-5 (nur Post-Design ohne Kontrollgruppe, ..., Prä-Post Design mit randomisierter Kontrollgruppe
- Summenscore methodischer Einzelkriterien (MacLeod und Weisz)
- vergeben je einen Punkt für:
1) geringe Drop-out
2) Stichprobengröße > 30
3) Placebo-Gruppe
4) Blinde Teilnehmende
5) Blinde Untersuchende
6) objektive Daten
- vergeben je einen Punkt für:
Wie kann man die Ergebnisse kodieren?
- deskriptive Parameter notieren
- statistische Kennwerte notieren
- einheitliche Effekststärke berechnen
- Größe des statistischen Effekts
- kann praktische Relevanz verdeutlichen
- Effekte sind vergleichbar (auch bei unterschiedlichen Messmethoden)
Speaking of Effektstärke - wie kann man sie angeben?
- d-Index (Cohen's d)
- d kann jede Größe annehmen
- 0.0 = kein Effekt, 0.2 = kleiner Effekt, 0.5 = mittlerer Effekt, 0.8 = starker Effekt
- 1 = Trainingsgruppe liegt eine SD über Mittelwert der Kontrollgruppe
- Hedges'g
- Streuung wird über gepoolte Varianz berechnet --> somit wird Stichprobengröße miteinbezogen
- am häufigsten berichtetes Effektstärkemaß
- empfohlen bei ungleichen Gruppengrößen
- r-Index
- Produkt-Moment-Korrelation
- geteilte Varianz zwischen -1 und 1
- Odds Ratio
- Chancenverhältnis
- Werte zwischen 0 bis unendlich
- 1 = kein Effekt
Wie werden die Effektstärken berechnet?
- für jeden relevanten Vergleich/jede Studie wird Effektstärke berechnet
- problematisch, weil aus einer Stichprobe ggf. mehr Effekte gezogen werden (d.h. Fehler, Verzerrungen etc. fließen alle mit ein)
- daher: wenn es mehrere Effektstärken in einer Studie gibt, zusammenfassen:
- Mittelwerte aller Effektstärken
- Auswahl einer konkreten Effektstärke nach inhaltlichen Kriterien
Beschreibe Schritt 4: Datenanalyse und -integration
- Zusammenfassung der Befunde
- Auswertung nach inhaltlich-methodischen Merkmalen
- Nutzung statistischer Integrationsmethoden
- Integration der Ergebnisse
- Integration der Ergebnisparameter (Effektstärken)
- Analyse der Varianz von Effektstärken (Homogenitätsanalysen)
- suche nach Moderatoren
- Suche nach Publikationsverzerrungen
Wie kann man die Ergebnisparameter integrieren?
- einfachste Methode: aus jeweiligen Effektstärkenmaße aller Studien wird Mittelwert gebildet
- Infoverlust: kleine Studien werden gleich gewichtet wie große etc.
- daher: Effekstärken der Studien gewichten
- Wie kann man die Effektstärkenmaße gewichten
- basierend auf Stichprobengröße, inverse Varianz oder andere methodische Aspekte
- Schätzmodelle der Effekstärke
- Fixed-Effects Modell
- Random-Effects Modell
- Hedges und Olkin
- Hunter und Schmidt
Wie kann man die Effektstärke nun gewichten?
- Bsp.: Effekststärke gewichten durch Stichprobe:
- Korrelkoeff r * Stichprobengröße n/Gesamtstichprobengröße
Was sind fixed-Effect Models?
- Annahme: alle integrierten Studien beziehen sich auf gleiche Population und Variabilität kommt durch Stichprobenfehler zustande (interindividuelle Variabilität)
- nur Varianz innerhalb Studien zur Gewichtung
- Anwendung: bei Homogenität der Befunde
- erlaubt geringen Generalisierungsgrad
Was sind random-Effect Models?
- Annahme: Einzelstudien schätzen unterschiedliche Populationseffekte
Variabilität durch Stichprobenfehler + zusätzliche Varianzquellen- Varianz innerhalb und zwischen Studien wird zur Gewichtung herangezogen
- Verwendung: bei Heterogenität der Befunde
- hoher Generalisierungsgrad
- v.a. in social Sciences verwendet
Wie integriert Hunter und Schmidt die Effekstärken?
- Korrektur der Effektstärken für mögliche Fehlerquellen
- Stichprobenfehler, Reliabilität der Maße, Dichotomisierung von Variablen
- r(=ES) = gewichtet durch Stichprobengröße
Wie integriert Hedges und Olkin die Effekstärken?
- korrigiert Effektstärken für Varianz in jeweiligen Studien
- fixed-Effect Models: z-standardisierte Korrelkoeff aus jeder Studie werden durch inverse within-study Varianz der entsprechenden Studie gewichtet
- random-effect Models: inverse within-Study Varianz + between Varianz wird einberechnet
- weitere Random-Effekt Modelle: REML (Residual Maximum Likelihood)
Wie werden Homogenitätsanalysen durchgeführt?
- fragt, ob es noch weitere Varianzquellen neben dem Stichprobenfehler gibt
- Prinzip:
- Variabilität zwischen Studien vgl. mit Variabilität innerhalb der Studien
- innerhalb größer = Hinweis auf Systematik (Homogenität nicht gegeben)
- verschiedene Integrationsmethoden haben spezifische Formeln für Homogenitätsanalysen
- Ergebnis hat Einfluss auf Annahme von Moderatoren
- Nullhypothese: Homogenität wird abgelehnt
> signifikant = keine Homogenität
Wie werden Moderatoren identifiziert (hängt ES von Alter etc. ab)?
- testen mittels t-Tests
- welche inhaltlichen und methodischen Aspekte beeinflussen ES signifikant
- Varianzanalytisch (Q-Statistik) bei kategorialen Moderator-Variablen
- Regressionsanalytisch bei kontinuierlichen Moderatorvariablen
- Problem::
- konfundierung zwischen inhaltlich und/oder methodisch
- inhaltlich: z.B. Dauer des Treatments
- methodisch: zufällige Zuteilung zu Treatment/Kontrollgruppe
- methodisch klärt ca. genauso großen Teil an Varianz auf wie inhaltlich
- konfundierung zwischen inhaltlich und/oder methodisch
We werden Publikationsverzerrungen identifiziert?
- publication bias?
- Fail-Safe N
- Anzahl an Studien mit ES = 0, die es braucht, um mittleren Effekt gerade nicht signifikant werden zu lassen
- Funnel-Plots
- zeigen Zusammenhang zwischen Stichprobengröße und ES in Primärstudien
- wie groß ist die Studie, wie wenig Varianz hat sie und wie groß ist Effekt
- ohne Verzerrung: trichterförmiger Funnelplot (gleichverteilt um mittlere ES)
- y-Achse: Stichprobengröße/Standardfehler
- Rangkorrelationstest
- korreliert Stichprobengröße mit Effektstärke
- kleinere Studien könnten z.B. besser sein wenn bessere Intervention
Wie kann für publication bias korrigiert werden?
- Definition eines Cut-Offs
- Studien über Cut-Off = eliminieren
- Removal/Rückkodierung der Outlier auf "realistische Werte"
- z.B. MW ± 3SD
- "Winsorizing"
- großen Wert entfernen oder durch Maximalwert innerhalb des Cut-Offs setzen
- Trim-and-Fill Analysen
- Ergänzung Funnel Plot um fiktive komplementäre (kleine/negative) ES-Werte und neue Schätzung der mittleren ES
Beschreibe Schritt 5
- Dokumentation des methodischen Vorgehens
- Berichtlegung
- Beantwortung Forschungsfragen
- je nach Adressaten unterschiedliche Darstellung
- Wissenschaft, Poilitk, Gesellschaft etc.
Was sind ethische Richtlinien der Deutschen Gesellschaft für Psychologie (DGPS)?
- Aufgabe: Wissen über Menschen vermehren
- Kenntnisse zum Wohl des Einzelnen und der Gesellschaft einsetzen
- Würde und Integrität des Individuums achten
- Einsetzen für Erhaltung und Schutz fundamentaler menschlicher Rechte
- Anerkennung des Rechts des Individuums, in eigener Verantwortung und nach eigenen Überzeugungen zu leben
- Wachsam gegenüber persönlichen, sozialen, institutionellen, wirtschaftlichen und politischen Einflüssen sein
- sachlich und objektiv sein
- kontinuierliche Fortbilden
- Dienstleistungen nur dann anbieten, wenn sie qualifiziert sind (durch fachliche Ausbildung oder Erfahrung)
- Orientieren am Grundsatz wissenschaftlicher Redlichkeit und Überprüfen des Erfolgs der Interventionen
Was sind Grundsätze guter wissenschaftlicher Praxis?
- Unterwerfung der Forschungstätigkeit der allgemein gültigen Regeln methodischen Vorgehens und Überprüfbarkeit von Ergebnissen
- Bereit sein, wissenschaftliches Vorgehen darzustellen, zu begründen und rationaler Kritik zugänglich machen
- Berücksichtigung aller verfügbarer Infos und Gegenargumente
- Offenheit für Kritik und konsequentes Anzweifeln der eigenen Erkenntnisse