Strukturgleichungsmodelle - UNIBE

FS23 Methodenseminar: Strukturgleichungsmodelle mit R bei Prof. Dr. Ulrich Orth

FS23 Methodenseminar: Strukturgleichungsmodelle mit R bei Prof. Dr. Ulrich Orth


Set of flashcards Details

Flashcards 41
Language Deutsch
Category Psychology
Level University
Created / Updated 26.06.2023 / 09.06.2024
Weblink
https://card2brain.ch/box/20230626_strukturgleichungsmodelle_unibe
Embed
<iframe src="https://card2brain.ch/box/20230626_strukturgleichungsmodelle_unibe/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

SEM steht für:

Structural equation modeling

SEM basiert auf der Analyse von

Varianzen, Kovarianzen und Mittelwerten anhand von Strukturgleichungen

SEM verbindet

regressionsanalytische Methodik mit der faktroenanalytischen Methodik

Empirischer Test von Modellen

  • Geht über Deskription hinaus
  • Berechnung statistischer Gütekriterien von Modellen
  • Statistischer Vergleich alternativer Modelle
  • Restriktionen von Parametern sind häufig empitisch testbar

Gründe für SEM (3)

  • Empirischer Test von Modellen
  • Explizite Unterscheidung von Konstrukten (latente Variablen) und Indikatoren (manifeste Varibalen)
  • Zwang zur präzisierung theoretischer Aussagen (kausale vs korrelative Zusammenhänge)

Arten der SEM Anwendung (3)

  • Pfadanalyse (ausschliesslich manifeste Variablen)
  • Konfirmatorische Faktorenanalyse
  • Strukturgleichungsmodelle im engeren Sinne (Kombination aus Mess- und Strukturmodellen)

Ungerichtete Pfade

  • zwei Pfeilspitzen
  • Pfadkoeffizient = Kovarianz (zwei Dinge hängen miteinander zusammen)
  • standartisierte Form = Korrelation
  • Theoretischer Zusammenhang korrelativ (= sie beeinflussen sich nicht gegenseitig, sie hängen nur zusammen)

Gerichtete Pfade

  • 1 Pfeilspitze
  • Pfadkoeffizient = Regressionskoeffizient
  • standartisierte Form = beta-Gewicht
  • Theoretischer Zusammenhang = kausal (Variable 1 beeinflusst Variable 2)

2 Arten von latenten Variablen 

  1. Inhaltliche Konstrukte, welche die gemeinsame Varianz der Indikatoren erklärt
  2. Messfehler (Residuen, nicht-erklärte Varianz der Indikatoren)

Unterschied exploratorische Faktorenanalyse und konfirmatorische Faktorenanalyse

EFA berechnet alle Ladungen
 

Konvention: das Weglassen von Pfaden in SEM-Grafiken bedeutet, dass die entsprechenden Pfadkoeffizienten auf 0 gesetzt sind (heisst nicht dass sie in Realität 0 sind, sondern dass sie in diesem Modell 0 sind).

Gefahren bei der Interpretation von SEM-Ergebnissen (3)

  • Übergeneralisierung der Ergebnisse (nicht auf Population übertragbar)
  • Confirmation Bias (bei gutem Modellfit wird oft nich nach besserem gesucht)
  • Unzulässige Kausalinterpretation gerichteter Pfade

Arten von Parametern (3)

  • Feste Parameter (Wert ist numerisch festgelegt - nicht eingezeichnete Parameter auf 0 fixiert)
  • Eingeschränkte Parameter (zwei oder mehr Parameter sind durch eine mathematische Funktion verbunden, werden vom Programm geschätzt)
  • Freie Parameter

Mögliche Gründe für fehlende Werte (4)

  • Item fehlt fälschlicherweise im Test
  • Item wird (nicht) absichtlich nicht beantwortet
  • VP fehlt bei Messwiederholung
  • Bestimmte Variablen werden aus ökonomischen oder logischen Gründen nur bei einer Stichprobe erfasst

missing not at random (MNAR) oder non-ignorable

Ob ein Wert fehlt oder nicht, ist abhängig vom wahren Wert der Variable, selbst wenn andere Variablen im Datensatz statistisch kontrolliert sind (Taboo-Themen, der wahre Wert der Person beeinflussst, ob es fehlende Daten gibt)

missing at random (MAR)

Ob ein Wert fehlt oder nicht, ist unabhängig vom wahren Wert der Variable, wenn andere Variablen im Datensatz statistisch kontrolliert sind (Beispiel: Frauen geben ihr Alter seltener an als Männer, ist unabhängig vom Alter der Frau)

missing completely at random (MCAR)

Ob ein Wert fehlt oder nicht, ist nicht nur unabhängig vom wahren Wert der Variable, sondern auch unabhängig von den Werten anderer Variablen im Datensatz (kann ignoriert werden)

Beispiele für mögliche Strategien bei fehlende Werte (4)

  • ersetzen durch Mittelwert -> nicht empfohlen
  • Paarweiser Fallausschluss -> nicht empfohlen
  • Listenweiser Fallausschluss: Schätzwert bei MCAR unverzerrt, aber bei MAR verzerrt -> vertretbar wenn nur wenige Fälle verlroen gehen
  • Maximum Likelihood/FIML: die vorhande Information wird vollständig ausgewertet, Schätzwerte unverzerrt -> empfehlenswert

Auxiliary Variables

Hilfsvariablen, die erklären warum ein bestimmter Wert fehlt, kann BIAS im Fall von MNAR weiter reduzieren und die Power verbessern

Root Mean Square Error of Approximation (RMSEA)

  • sollte unter .06 liegen
  • Vorteil: Verteilungseigenschften des Indikators bekannt, so dass ein Konfidenzintervall bestimmt werden kann

Standardized Root Mean Square Residual (SRMR)

  • sollte unter .08 liegen
  • basiert auf durchschnittlichen quadrierten Differenz der beobachteten und modelimplizierten Kovarianzen

Comparative Fit Index (CFI)

  • sollte grösser als oder gleich .95 sein
  • auch Wertevon grösser als oder gleich 0.90 können als akzeptabel angesehen werden

Tucker-Lewis Index (TLI)

  • sollte grösser als oder gleich .95 sein
  • auch Wertevon grösser als oder gleich 0.90 können als akzeptabel angesehen werden

Chi- Quadrat Test:

  • Modellimplizierte Kovarianzmatrix: Geschätzte Parameter werden verwendet, um die modellimplizierte Kovarianzmatrix zu berechnen
  • Chi-Quadrat-Wert: gibt an, wie sehr die beobachtete Kovarianzmatrix (Alternativhypothese) von der modellimplizierten Kovarianzmatrix (Nullhypothese) abweicht
  • Verteilung der Werte liegt zwischen 0 und unendlich 
  • Verteilung ist abhängig von Zahl der Freiheitsgrade (df) 
  • Ein Chi-Quadrat-Wert ist statistisch signifikant, wenn er im oberen 5%-Bereich der Verteilung liegt
  • in lavaan als "Test statistic" bezeichnet
  • Nullhypothese = Modell ist richtig-> signifikant = nicht gut!

Probleme des Chi-Quadrat Tests:

  • Die Power des Signifikanztest ist abhängig von Stichprobengrösse (kleine Werte die unwichtig sind, werden bei genug grosser Stichprobe signifikant)
  • In der Psychologie wird jedoch von vornherein keine perfekte Übereinstimmung zwischen Modell und Realität angestrebt: Ein Modell dient der Vereinfachung der Realität
  • Ein Modell soll eine relativ gute Erklärung der Realität ermöglichen, aber sparsam in der Zahl der Variablen und zu beachtenden Zusammenhänge sein -> berücksichtig nur Präzision und ignoriert Einfachheit
  • Bei einer kleinen Stichprobe ist hingegen kein signifikanter Chi-Quadrat-Wert zu erwarten; dies lässt jedoch keinen Rückschluss auf einen guten Modellfit zu -> Signifikanztest nicht beachten!
     

Chi-Quadrat-Different-Test

  • Voraussetzung: Die zu vergleichenden Modelle sind "genestet"
  • Definition: ein Modell ist in einem anderen Modell genestet, wenn es ein Spezialfall des anderen Modells ist
  • Beispiel: im genesteten Modell ist ein Parameter fixiert, während der Parameter im anderen Modell frei geschätzt wird
  • Logik: Der Vorteil des genesteten Modells besteht in der höheren Parsimonität (Sparsamkeit) des Modells.
  • Der Nachteil des genesteten Modells besteht in einem schlechteren Modellfit auf der Basis des Chi-Quadrat-Werts (enthält mehr a priori festgelegte Parameter)

Probleme des Chi-Quadrat-Differenz Tests

  • Power des Chi-Quadrat-Differenz-Tests hängt wie beim Chi-Quadrat-Test von der Stichprobengrösse ab
    - Wenn die Stichprobe ausreichend gross ist, schneidet das genestete (sparsamere) Modell immer schlechter ab als das allgemeinere Modell

Voraussetzungen zur Erstellung von Messmodellen

  • Operationale Definition von Konstrukten
  • Verfügbarkeit valider Indikatoren (Items, Skalen etc.)
  • Korreliertheit der Indikatoren, die demselben Konstrukt zugeordnet sind (konvergente Validität)
  • Geringere Korreliertheit von Indikatoren, die verschiedenen Konstrukten zugeordnet sind (diskriminante Validität)

Identifizierbarkeit

  • Definition: Ein Modell ist identifizierbar, wenn bei der Modellschätzung eine eindeutige Lösung für die Parameter des Modells gefunden werden kann
  • Bedingung 1: Jede latente Variable muss eine Skala haben
  • Bedingung 2: Die Zahl der beobachteten Werte muss mindestens so gross sein wie die Zahl der zu schätzenden Parameter

Zwei Möglichkeiten zu Bedingung 1 - latente Variable muss Skala haben

  1. Möglichkeit: Unstandartisierte Ladung von mindestens einem Indikator festlegen (meist 1)
    Nachteil: kein Signifikanztest für fixierte Ladung möglich
  2. Varianz der latennte Variablen festelgen (meist 1)
    Nachteil: nicht möglich bei endogenen latenten Variablen

Formel - Anzahl beobachteter Werte

k x (k+1) / 2

k = Anzahl beobachteter Variablen (manifeste Variablen, Items)

Anzahl der zu schätzenden Parameter

Zahl der zu schätzenden Varianzen, Kovarianzen und Regressionskoeffizienten 

Anzahl Freiheitsgrade

Zahl der beobachteten Werte - Zahl der zu schätzenden Werte/Parameter

Theoretische vs. empirische Identifizierbarkeit

Ein Modell kann trotz theoretisch gegebener Identifizierbarkeit empirisch unteridentifiziert sein, z.B. bei hoher Multikollinearität der beobachteten Variablen

Definition Parcel

Ein Parcel ist ein Indikator, der als Aggregat von 2 oder mehr Items gebildet wird

Argumente fürs Parceling

  • bessere psychometrische Eigenschaften: höhere Reliabilität, höhere Kommunalität, besseres Intervallskalenniveau, weniger Verltzungen der Normalverteilungsannahme
  • bessere Modelleigenschaften: Besserer Modellfit, aufgrund der höheren Reliabilität bessere Replizierbarkeit

Argeumente gegen Parceling

  • Parceling kann die Multidimensionalität von Konstrukten verschleiern
  • Modellschätzung liefert keine itemspezifischen Informationen

Parceling-Strategien bei eindimensionalen Messinstrumenten

  • Zufällige Zuteilung der Items zu Parcels - Unproblematisch
  • ausbalancierung der Parcels in Bezug auf Ladungen - Einbezug weiterer Itemkennwerte bei der Ausbalancierung der Parcels möglich (z.B. Itemschwierigkeit)

Parceling-Strategien bei mehrdimensionalen Messinstrumenten

  • Bedingung: Die Dimension dürfen nicht völlig unabhängig sein, ansonsten ist die Modellierung einer übergreifenden Konstrukts nicht sinnvoll
  • Dimensions-spezifisches Parceling: internal-consistency approach - Parceling gemäss vorgegebenen Dimension (Subskalen)
  • Dimensions-übergreifendes Parceling: domain-representative approach - Jedes Percel erhält systematisch Items aus alle Dimensionen zugewiesen

Parceling Schlussfolgerung

  • Parceling ist empfehlenswert, wenn die Indikatoren als Hilfsmittel zur Erstellung des Messmodells verstanden werden und die Zusammenhänge der latenten Variable das eigentliche Ziel der Analyse sind
  • Vorgehensweise: jeweils 3 Subskalen mit je 6 Items werden auf 3 Parcels aufgeteilt, dass jedes Parcel zufällig 2 Items jeder Subskala erhält

Step 1 der Two Step Strategie

  • Test des Messmodells (= simultaner Test der Messmodelle aller Konstrukte)
  • Test des Gesamtmodells ohne kausale Pfade zwischen den Konstrukten, aber mit sämtlichen möglichen Korrelationen zwischen den Konstrukten
  • Gesamte Diskrepanz zwischen Modell und Daten ist dann auf Messmodell zurückzuführen