HLM

HLM

HLM

Alexander Wurm

Alexander Wurm

Kartei Details

Karten 28
Sprache Deutsch
Kategorie Philosophie
Stufe Mittelschule
Erstellt / Aktualisiert 02.06.2020 / 10.02.2021
Weblink
https://card2brain.ch/box/20200602_hlm
Einbinden
<iframe src="https://card2brain.ch/box/20200602_hlm/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Warum sollte man HLM benutzen statt z.B. einfach eine multiple Regression zu rechnen?

1.Zusammenhänge auf unterschiedlichen Analyseebenen sind mathematisch voneinander unabhängig


2.Disaggretion und Aggregation sind als Auswertungsstrategie suboptimal


3.Single-level Analysen basieren auf der Annahme unabhängiger Beobachtungen --> hat bei hierarchischen Daten Konsequenzen

 

HLM ermöglicht die simultane Analyse von Zusammenhängen auf unterschiedlichen Analyseebenen

  • Vermeidung ökologischer und atomistischer Fehlschlüsse
  • Unverzerrte Schätzung von Standardfehlern
  • Auch aus inhaltlichen Gründen stellen HLM eine wichtige Verfahrensgruppe dar

Was gilt für Zusammenhänge auf unterschiedlichen Analyseebenen?

Zusammenhänge auf unterschiedlichen Analyseebenen
 --> Zusammenhänge auf unterschiedlichen Analyseebenen sind mathematisch voneinander unabhängig, d.h. findet man auf Schülerebene einen Zusammenhang (in einer multiplen Regression), muss dieser nicht automatisch auch für die Klassenebene gelten, hier könnte z.b. auch ein negativer linearer Zusammenhang bestehen, während auf Schülerebene ein positiver linearer Zusammenhang festgestellt wurde
 --> jeder Zusammenhang auf individueller Ebene kann in Kombination mit jedem Zusammenhang auf Gruppenebene auftreten

 

Gefahr von Fehlschlüssen, wenn von einem Zusammenhang auf einer Analyseebene auf einen Zusammenhang auf einer anderen Ebene geschlossen wird
--> ökologischer Fehlschluss
--> atomistischer Fehlschluss

Was ist ein ökologischer Fehlschluss?

Man hat z.B. einen Zusammenhang auf einer höheren Ebene festgestellt, interpretiert diesesn Zusammenhang aber auf einer unteren Ebene (z.B. Klassen- vs. Schülerebene)

 

Beispiel „Big-Fish-Little-Pond-Effect“ --> Folie 12

Zusammenhang zw. Schulleistung und akademischem Selbstkonzept

auf Schülerebene = positiver Zusammenhang --> je besser ein Schüler ist, desto besser ist sein akademisches SK

auf Schulebene = negativer Zusammenhang --> je Leistungsstärker eine Schule ist, desto geringer ist im Mittel (schwarze Dreiecke) das akademische Selbstkonzept

 

Was ist ein atomistischer Fehlschluss?

Umkehrung des ökologischen Fehlschlusses, fehlerhafte Schlussfolgerung von Beziehungen, welche zw. den Daten auf der Ebene von Individuen beobachtet werden, auf Beziehungen zw. Kollektiven von Individuen. 


Was ist Disaggregation? Welcher Probleme/Nachteile gehen damit einher?

Disaggregation

  • Eigenschaften der Analyseeinheiten der übergeordneten Ebene (z.B. Schulen) werden den Analyseeinheiten der unteren Ebene (z.B. SchülerInnen) zugeordnet

 

  • Analysen auf der untergeordneten Ebene

 

  • Hauptnachteil: Annahme, dass die Zusammenhänge zwischen den Variablen der unteren Ebene für alle Einheiten auf der übergeordneten Ebene gleich sind (--> s. random slope)

 

  • Überschätzung der statistischen Power (man tut so, als seien die Schülermerkmale (z.B. N = 987) auch Schulmerkmale (z.B. N = 10), dadurch wird eine höhere Power für die Schulen angenommen, die aber de facto nicht gegeben ist

Was ist Aggregation? Welches Problem tritt damit evt. auf?

Aggregation

  • Variablen werden für jede übergeordnete Analyseeinheit (z.B. Schule) zusammengefasst (Schülerdaten werden auf Schulebene zusammengefasst, das tatsächliche N wird unterschätzt)

 

  • Analysen werden auf der übergeordneten Analyseeinheit durchgeführt

 

  • Problem: Verlust an Power und Verlust an Information, dadurch, dass man Daten auf Schülerebene (z.B. N = 987) gesammelt/vorliegen hat, sie aber auf einer höheren Ebene analysiert (man hat z.B. nur 10 Schulen, aber N = 987 Schüler)

Bei hierarchischen Daten kommt es meist zu Abhängigkeiten unter den Beobachtungen und man darf nicht einfach unabhängige Beobachtungen annehmen, weil:

 

  • Abhängigkeit der Daten: SchülerInnen aus einer Schule sind einander ähnlicher als SchülerInnen aus anderen Schulen

 

  • Intraklassenkorrelation als Maß der Abhängigkeit: Anteil der Varianz auf der höheren Ebene an der Gesamtvarianz
    • Sigma2 U0 (= Varianz zwischen den Schulen) / Sigma2 U0 + Sigma2 e (= Varianz innerhalb der Schulen)
    • s. Folie 15 HLM I
    • wenn die IC = 0 ist, dann liegt Unabhängigkeit der Beobachtungen vor
    • ist sie > 0, dann liegen Abhängigkeiten vor

 

  • Aber: Übliche statistische Verfahren beruhen auf der Annahme unabhängiger Beobachtungen

 

  • Keine Berücksichtigung der Abhängigkeit: Schätzer der Standardfehler verzerrt (zu klein) --> Fehldeutungen!
    • durch zu kleinen SE werden die Prüfgrößen größer und auf diesen basiert der Signifikanztest

Wo ist das Kriterium bei HLM IMMER angesiedelt?

auf der untersten Analyseebene, also betrachtet man z.B. Schulen, Klassen und Schüler der einzelnen Klassen, bezieht sich das Kriterium immer auf die Schüler

Was ist ein random intercept und was zeigt er an?

unterschiedliche Intercepts, Mittelwert (Mittelintercept) im Intercept für alle Klassen zusammen, die Varianz des random intercepts gibt an, in welchem Ausmaß die Popularität (ist mein Kriterium Y) unsystematisch von Klasse zu Klasse variiert

 

 

Was ist ein random slope und was zeigt er an?

unterschiedliche (klassenspezifische) slopes werden gemittelt, Mittelwert (Mittelslope) im Slope für alle Klassen zusammen, die Varianz des random slopes gibt an, in welchem Ausmaß der Effekt des Geschlechts (Prädiktor auf Schülerebene) auf die Popularität unsystematisch zwischen den Klassen variiert

 

 

Was gibt die Abweichung des yij-Wertes einer/s SchülerIn i in Schule j vom vorhergesagten
Wert ŷij (= Level-1-Residuum; eij) an?

Abweichung des yij-Wertes einer/s SchülerIn i in Schule j vom vorhergesagten
Wert ŷij (= Level-1-Residuum; eij)


Die Varianz der Level-1-Residuen zeigt an, in welchem Ausmaß die Popularität innerhalb einer Klasse unsystematisch zwischen den SchülerInnen variiert

wann spricht man von einer Cross-Level-Interaction?

Wenn man den random slope mit einem Level 2 Merkmal vorhersagt (oder mit einem aggregierten Level 1 Merkmal als ein Mittelwert)

 

Der Slope ist ein Zusammenhang von zwei Level 1 Merkmalen (Geschlecht + Popularität), der Moderator (Berufserfahrung der Lehrer, die für die Interaktion zwischen Popularität der Schüler (= Kriterium) und dem Geschlecht verantwortlich ist) befindet sich allerdings auf Level 2, deshalb ist es eine Cross-Level- Interaktion

 Wie erfolgt bei HLM die Schätzung der Modellparameter? (Was ist FML, REML)

 

Wie lautet das Maß für die Devianz?

Iterative Schätzung der Modellparameter:

  •  „Full Maximum Likelihood“ (FML): Simultane Schätzung aller festen und zufälligen Effekte

 

  •  „Restricted Maximum Likelihood“ (REML): Zunächst Schätzung der zufälligen, dann der festen Effekten --> führt zu einer exakteren Schätzung der zufälligen Effekte als FML

 

Maß für die Modellanpassung: Devianz D = –2 · log(L)     L = Wert der Likelihoodschätzung --> je größer L, desto schlechter

der Wert an sicih sagt nichts über die Modellanpassung, aber man kann die Devianz für den Modellvergleich verwenden, Chi2 = D1 - D2 (gilt nur für geschaltete Modelle)

  •  Informationskriterien: AIC, BIC, CAIC (man nimmt immer das Modell, dass den kleinsten AIC, BIC, CAIC hat)
  • Bei geschachtelten Modellen ist ein direkter Modellvergleich möglich: Chi² = D1 – D2
  • Anteil der durch hinzugenommene feste Effekte aufgeklärten Varianz (R2 auf Level 1 und auch R2 auf Level 2) --> für Hox in Kapitel 4 nachlesen, ist wichtig, wurde extra betont)

Welche drei Parameter werden im Intercept only Modell geschätzt?

  1. random intercept (ist bei HLM immer random geschätzt = zufälliger Effekt)
  2. Varianz innerhalb der Klassen (= gepoolte Varianz über alle Klassen hinweg)
  3. Varianz zwischen (= Varianz im Intercept = u0)

 

2 + 3 zusammen ergeben die Gesamtvarianz im Kriterium (aufgeteilt auf die Varianz innerhalb und die Varianz zwischen)

Was ist die ICC? Bezieht sie sich auf die untereste Ebene oder eine höhere?

Intra-Klassen-Korrelation

Anteil der Varianz auf der höheren Ebene an der Gesamtvarianz

Wie erfolgt die inferenzstatistische Absicherung der Modellparameter?

Jeder geschätzte Modellparameter (egal ob im festen oder im zufälligen Teil des Modells) kann inferenzstatistisch (gegen 0) abgesichert werden.

  • Hierzu wird die Schätzung durch ihren Standardfehler dividiert; der resultierende Quotient ist approximativ t-verteilt (feste Effekte) bzw. Chi²-verteilt (zufällige Effekte).

 

  • Voraussetzung für die Testdurchführung:
    • Unabhängigkeit und Normalverteilung der Level-1-Residuen (innerhalb der Klassen ist alles unabhängig)
    • Unabhängigkeit und multivariate Normalverteilung der Level-2-Residuen mit Varianz-Kovarianz-Matrix  Sigma u
    • Bei Verletzungen der Normalverteilungsannahme können die Standardfehler korrigiert werden („robuste Standardfehler“, z.B. in HLM). Das setzt aber eine ausreichend hohe Anzahl von Level-2-Einheiten (> 100) voraus!

Was ist bei der Anwendung von HLM zu beachten?

  • Ausreichende“ Anzahl von Untersuchungseinheiten pro Analyseebene:
    • Ergebnisse aus Simulationsstudien: Auf Ebene 2 mind. N = 50, besser N = 100
  • Feste vs. zufällige Effekte
    • Effekte sollten in den meisten Fällen als zufällig modelliert werden
  • Frage der Zentrierung (s. Vl „HLM II“)
    • Ebene 1: Keine Zentrierung, Group Mean-, Grand Mean-Zentrierung
    • Ebene 2: Keine Zentrierung, Grand-Mean-Zentrierung

Was gibt das Intercept nach der CGM (=centering grand mean) an?

Wert in der AV für eine Person, deren Ausprägung in dem Prädiktor dem Gesamtmittelwert entspricht

adjustierter Mittelwert für Cluster j = geschätzer Mittelwert in der AV, wenn man für den Slope kontrolliert und für die Unterschiede (z.B. in der Arbeitszeit (das war das Beispiel) zwischen den Clustern kontrolliert

Welches Problem kann die Grand Mean Zentrierung mit sich bringen?

 

  • Es kann zu einer verzerrten Schätzung der Varianz des Slopes kommen

 

  • Interpretation des Zusammenhangs zwischen dem zentrierten Prädiktor und der AV (Prädiktor enthält sowohl Varianz auf Level 1 als auch auf Level 2 und die Varianz beider Level fließt in die Schätzung des Prädiktors mit ein)

Ändert man bei der Grand-Mean-Zentrierung (gmc) oder bei der Gruppenmittelwert-Zentrierung (cwc) etwas an der Rangreihe?

bei der Gruppenmittelwertzentrierung (s. Folie 12, VL 2 zu HLM)

Man zentriert am jeweiligen Gruppenmittelwert und das kann, wenn man alle Individuen betrachtet, dazu führen, dass sich die Gesamtreihenfolge ändern kann

Wie interpretiert man das Intercept nach Gruppenmittelwertzentrierung?

Intercept für Cluster j
•Wert in der AV für eine Person, deren Ausprägung in dem Prädiktor dem Gruppenmittelwert entspricht
•Nicht-adjustierter Mittelwert für Cluster j

 

Welche inhaltiche Aussage erhählt man durch 1. cgm und 2. cwc?

Relation einer Person zum Gesamtmittelwert (= cgm)

Relation einer Person zum Gruppenmittelwert (= cwc)

2 Vorteile der Gruppenmittelwertzentrierung?

  1. akkuratere Schätzung der Slopevarianz im Vergleich zur Grand-Mean-Zentrierung
  2. man erhält eine Schätzung der reinen Level-1-Beziehung, es gibt nur noch Varianz innerhalb der Gruppen und keine Varianz zwischen den Gruppen (man zieht, durch Abzug der Gruppenmittelwerte quasi diese Level-2-Varianz heraus, weil alle Varianz von Level 2 in den Gruppenmittelwerten steckt)

Wann ist CGM und wann ist CWC sinnvoll?

centering within clusters = CWC sinnvoll…

  • …wenn ein within(Level 1)-Effekt geschätzt werden soll
  • …wenn eine cross-level-Interaktion geschätzt werden soll (hier fragt man sich ja, wie ein Level-1-Zusammenhang abhängt von der Ausprägung in einem Moderator (der auf Level 2 liegt), also auch bei der Cross-Level-Interaktion geht es immer um den reinen within-Effekt und dessen Ausprägung vom Moderator auf Level 2)

 

centering grand mean = CGM sinnvoll…

  • …wenn lediglich für Level 1-Prädiktoren kontrolliert werden soll (und eine Level 2-Beziehung von Interesse ist)

Mediation bei HLM: Wann sollte CWC für die Level-1-Prädiktorvariablen verwendet werden ? also bei welchen modellen? 2-1-1, 2-2-1 oder 1-1-1

  • Bei 2-1-1- und 1-1-1-Modellen sollte für die Level 1-Prädiktorvariablen CWC verwendet werden! Sonst Gefahr der Konfundierung zwischen Level 1- und Level 2-Effekten (Zahlen 2-1-1 stehen in der Reihenfolge immer für Prädiktor, Mediator, Kriterium)

 

  • 2-1-1-Modell: Mediation ist vollständig auf Level 2
    • Verwendung von Rohwerten oder CGM kann zu einer Über- oder Unterschätzung des Mediationseffektes führen in Abhängigkeit von der Größe des Level-1-Effektes.

 

  • 1-1-1-Modell: Mediation ist vollständig auf Level 1
    • Auch hier kann bei Verwendung der Rohwerte oder CGM der Mediationseffekt über- oder unterschätzt werden in Abhängigkeit von der Größe des Level-2-Effektes

Was sind bei Wiederholungsmessungen die Vorteile von HLM gegenüber einer MANOVA?

  • Anzahl an Wiederholungsmessungen und Zeitintervallen zwischen den Wiederholungsmessungen können variieren (im Gegensatz zur MANOVA)

 

  • Interindividuelle Unterschiede in der Veränderung können geschätzt werden

 

  • Kovarianzstruktur für die Wiederholungsmaße kann vorgegeben werden (weniger restriktive Kovarianzstrukturen im Vergleich zur ANOVA mit Messwiederholung sind möglich)

 

  • Höhere Analyseebenen können ohne größere Probleme hinzugefügt werden

Woran erkennt man, dass eine Cross-Level-Interaktion bei Längsschnittdaten vorliegt?

Gamma 11 ist signifikant/hat einen signifkanten Einfluss auf beta1i (=random slope auf Level 1)

Zentrierung von Prädiktorvariablen auf Level 1

Wiederum zwei Möglichkeiten im Falle von zeitvarianten Prädiktorvariablen (gemessen auf Level 1)

  • CGM
  • CWC: Zentrierung am personenspezifischen Mittelwert (nicht wie bei querschnittlichen Modellen der gruppenspezifische Mittelwert)

 

Auch hier gelten ähnliche „Regeln“ wie bei HLM mit querschnittlichen Daten

  • Disaggregation von within-person und between-person Effekten sind wichtig! --> wenn man sich für die reinen witihin- und between-person Effekte interessiert, dann nimmt man immer CWC!!
  • Vorsicht beim Vorliegen eines random slopes! (Curran & Bauer, 2011), bei fixed-effect-Models ist die Zentrierung kein Problem, nur bei random slopes (ist das der Fall in der MA, dann muss man das angegebene paper lesen)

 

--> Beispiel: Die Wahrscheinlichkeit eines Herzinfarkts ist für Individuen höher, wenn sie Sport treiben (Level 1), aber geringer für sporttreibende Individuen im Vergleich zu nicht-sporttreibenden Individuen (Level 2)