Kurs 03421, Kapitel 4

Luise Lotte

Luise Lotte

Fichier Détails

Cartes-fiches 120
Utilisateurs 13
Langue Deutsch
Catégorie Psychologie
Niveau Université
Crée / Actualisé 29.05.2013 / 06.06.2019
Lien de web
https://card2brain.ch/box/m6_grundlagen_der_testkonstruktion8
Intégrer
<iframe src="https://card2brain.ch/box/m6_grundlagen_der_testkonstruktion8/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Wann werden Verfahren der Explorativen Faktorenanalyse (EFA) eingesetzt?

  • Wenn KEINE präzisen theoretischen Vorstellungen über die interne Struktur in der Gesamtstruktur der Daten existieren.

Wann wird die Konfirmatorische Faktorenanalyse eingesetzt?

  • Es existieren präzise theoretische Vorstellungen über die interne Struktur in der Gesamtstruktur der Daten existieren.

Wo hat die Faktorenanalyse ihren Ursprung?

  • In der theoretischen Intelligenzforschung (Spearman, 1904)

  • ableitbar aus dem Allgemeinen Linearen Modell

  • rechnerisch verwandt mit anderen multivariaten Verfahren

Prinzipien der Faktorenanalyse

  • Untersuchen der internen Struktur eines Satzes von Variablen auf latente Zusammenhänge zwischen den Variablen (Korrelationsmuster von manifesten Variablen)

  • Ziel: Datenstrukturierung, Zusammenfassen vieler manifester Variablen zu wenigen latenten Variablen (zwei Varianzquellen: p Variablen über n Vpn)

Kovariationsschema nach Catell (1957)

  • drei Varianzquellen: Variablen, Vpn, Situationen

  • sechs mögliche Arten von Korrelationsmatrizen

  • „R-Technik“

Was lässt sich in der „trimodalen Faktorenanalyse“ berücksichtigen?

 

 

  • Drei Varianzquellen simultan

Welche zentralen Zwecke der Faktorenanalyse unterscheidet Thompson (2004)?

  • Prüfung der Gültigkeit (Validität) theoretischer Modellannahmen („faktorielle Validität“)

  • Entwicklung von Theorien über die interne Struktur psychologischer Konstrukte (oder messbarer Manifestationen)

  • Datenreduktion bzw. Zusammenfassen

Wofür eignet sich die EFA besonders?

  • Entdeckung theoretischer Modellvorstellungen im Rahmen eines theoriebildenden Vorgehens

  • Vereinfachung eines Datensatzes

  • stellt für induktive Testkonstruktion zentrale empirische Informationen zur Verfügung

  • Exploration der internen Struktur eher atheoretisch konstruierter externaler Tests

Wie lautet ein wichtiger Grundgedanke der Faktorenanalyse?

 

  • Die Ausprägung eines Individuums auf beobachteten Variablen wird ursächlich durch dahinter stehende, latente Konstrukte beeinflusst (Faktoren – ungleich (!) Faktoren der Varianzanalyse)

Was steht im Mittelpunkt der Faktorenanalyse?

 

  • Simultaner Einfluss jedes Faktors auf mehrere beobachtete Variablen = „Effektindikatorenmodell“ (Gegensatz – mehrfaktorielle Varianzanalyse und multiple Regression: simultaner Einfluss mehrerer unabhängiger Variablen)

Welche Aussagen gelten für das Effektindikatorenmodell nach Bollen und Lennox (1991)?

  • verwendet bei der Faktorenanalyse

  • dem Messmodell der KTT liegt ein faktorenanalytisches Modell zugrunde – unterstellt, dass die Indikatoren (Items) untereinander korrelieren (mindestens zwischen drei, i.d.R. Mehr Variablen / Inidikatoren)

  • betrachtet die Ausprägungen auf den Items als lineare Funktion dahinter stehender Faktoren (= Grund für Korrelation)

  • Kovarianzen auf manifester Ebene

  • Anzahl latenter Konstrukte und inhaltlicher Zusammenhang aus Stärke der Korrelationen

Welche Aussagen gelten für das Kausalindikatorenmodell nach Bollen und Lennox (1991)?

  • verwendet bei der Regressionsanalyse / Varianzanalyse

  • gilt bei strikter Orientierung am Zusammenhang der Items mit einem Außenkriterium im Rahmen der externealen Testkonstruktion → Homogenität / Korreliertheit der Items kann NICHT unterstellt werden

Wann erfolgen die Interpretation und Zusammenfassung bei der EFA, beziehungsweise der CFA?

  • EFA: die erhobenen Daten bilden die Grundlage

  • vor Beginn der Datenanalyse

Welches sind die (beiden) am häufigsten verwendeten Varianten der EFA nach Thompson (2004)?

  • Hauptachsenanalyse (PAF, principal axis factor analysis)

  • Hauptkomponentenanalyse (PCA, principal components analysis)

  • (sieben Extraktionsmethoden in SPSS) implementiert

Warum zählt die PCA streng genommen nicht zu den faktorenanalytischen Methoden?

  • Dient nur der Datenreduktion und Beschreibung

  • latente Variablen heißen Komponenten (nicht Faktoren)

 

Was gilt für die PCA hinsichtlich ihrer Verwendung?

  • Häufige Verwendung (Voreinstellung SPSS)

  • geringe Unterschiede in Berechnung und Ergebnissen zur PAF

  • wichtigster Unterschied zu faktorenanalytischen Methoden im Anwendungszweck: reine Datenreduktion

Was geschieht bei einer Faktorenanalyse?

  • Untersuchung der Kovarianz- bzw. Korrelationsmatrix eines Satzes beobachtbarer Variablen

  • zuerst: Extraktion kleinerer Anzahl latenter Variablen (Faktoren) – gewichtete Summe

  • Rotation vorläufiger Faktoren (Informationserhalt und Interpretationsgrundlage) → endgültige Faktoren

  • Zuweisung Messwerten (Faktorwerten) für Vpn auf den endgültigen Faktoren (Beschreibung der Ausprägung auf latenten Merkmalen)

Schritte zur Durchführung einer EFA:

  • Prüfung der Voraussetzungen einer EFA

  • Auswahl der faktorenanalytischen Methode (und Kommunalitätenschätzung, Methode Faktorextraktion)

  • Festlegung Anzahl der extrahierten Faktoren

  • Festlegung Rotationsmethode

  • Inhaltliche Interpretation der Faktoren

  • Festlegung der Methode Ermittlung der Faktorwerte (u.U. Faktoranalyse höherer Ordnung)

Welches sind die wichtigsten Voraussetzungen, die für die EFA geprüft werden sollten?

  • Substanzielle Korrelation der Items

  • Stichprobengröße

  • uni- und multivariate Verteilungseigenschaften der Items bzw. manifesten Variablen

  • (Wechselwirkungen)

Prüfung substanzieller Korrelation der Items (EFA)

  • Mindestvoraussetzung: beobachtete Korrelationsmatrix weicht signifikant von der vollständigen Unabhängigkeit der Variablen in der Population (Diagonal- bzw. Identitätsmatrix) ab

    → Signifikanztest: Bartlett-Test auf Sphärizität

    → KMO-Koeffizient (Kaiser-Meyer-Olkin-Koeffizient)

  • Kommunalitäten (>=.20)

  • MSA-Koeffizient (measure of sample adequacy) – ähnlich KMO zu interpretieren, bezieht sich jedoch auf einzelne Items

Was ist der KMO-Koeffizient?

  • Kaiser-Meyer-Olkin-Koeffizient, Prüfung der Itemkorrelation (EFA)

  • gemeinsamer Varianzanteil der Items relativ zu deren spezifischen Varianzanteilen

  • sollte möglichst hoch (>=.50) sein

Was ist der MSA-Koeffizient?

  • measure of sample adequacy, Prüfung der Itemkorrelation (EFA)

  • ähnlich KMO zu interpretieren, bezieht sich jedoch auf einzelne Items

Was gilt für die Anforderungen an die Stichprobengröße für die EFA?

  • Minimalgröße = Anzahl der Variablen (praktisch aber nie ausreichend)

  • je mehr Items eingehen, je weniger Items je Faktor zusammegefasst werden und je weniger reliabel die Items sind, desto größer sollte die Stichprobengröße sein

  • abhängig von der Extraktionsmethode (PCA relativ geringe Anforderungen, ML-Faktorenanalyse erfordert große Stichproben)

  • nach MacCallum et al. 1999: N = 60 Untergrenze für Faktorenanalyse (unter besten Bedingungen)

Was ist ein Indikator für die Reliabilität von Items?

  • Die Kommunalität

Was wird von den Verteilungseigenschaften gefordert (EFA, CFA)?

  • Kontinuierliche Messung mindestens auf Intervallskalenniveau

  • (multivariate) Normalverteilung

Was deutet auf Methodenartefakte aufgrund von ungünstigen Verteilungseigenschaften hin?

 

  • Innerhalb eines Faktors vorwiegend Items mit ähnlichen Verteilungseigenschaften, die sich zwischen den Faktoren über alle Items je Faktor aber auffällig unterscheiden

Welche Methoden können bei ungünstigen Verteilungseigenschaften eingesetzt werden?

  • Transformation der Items vor der Analyse (z.B. log-linear)

  • Zusammenfassung von Items („Päckchen“, parcels)

  • Miniskalen vor der Faktorisierung (auch Verbesserung der Reliabilität) – theoretische Vorannahmen erforderlich → vor allem bei CFA

  • EFA: Faktorenanalyse höherer Ordnung

  • anstelle der Matrix der Produkt-Moment-Korrelationen Analyse der tetrachorischen (für dichitome Items) bzw. polychorischen (für Ratingskalen) Korrelationen

  • alternative faktorenanalytische Methoden, beruhend auf der PPT

Was zeichnet tetrachorische / polychorische Korrelationen aus?

  • Kategoriale Daten werden als indirekte Indikatoren kontinuierlicher und normalverteilter Variablen aufgefasst

Was ist dass Modell mehrerer gemeinsamer Faktoren?

 

  • Ausprägung auf einer beobachtbaren Variable (z.B. einem Item) setzt sich aus einer gewichteten Kombination von Ausprägungen auf latenten Variablen plus einem Fehlerterm zusammen

Was bezeichnet das Komponentenmodell?

 

  • Liegt PCA zugrunde: Kombination von Ausprägungen OHNE Fehlerterm → Interesse nur bei Informationen direkt aus empirischen Daten, nicht an dahinter liegenden „wahren“ Konstrukten

Was sind Ladungen?

  • Standardiesierte Gewichte je Item und Faktor („Ladung des Items auf Faktor“)

  • Begriff kann mehrdeutig sein

  • interpretierbar als Korrelation zwischen Item und Faktor (solange Faktoren untereinander nicht korrelieren)

  • quadrierte Ladung = Anteil gemeinsamer Varianz an der Gesamtvarianz der beteiligten Variablen

Welche Größen beinhaltet das Modell gemeinsamer Faktoren?

 

  • z z-Werte einer Person auf Items

  • f Faktorwerte der Person auf Faktoren

  • a Ladungen der Items auf Faktoren

  • q Anzahl der Faktoren

  • e Fehlerkomponente, die durch extrahierte Faktoren nicht erklärt werden kann

Wie sieht eine Ladungsmatrix aus?

  • Variablen in den Zeilen

  • Faktoren in den Spalten

  • Ladungen in den Zellen

Was sind Kommunalitäten?

  • h² Zeilensumme der quadrierten Ladungen der Ladungsmatrix

  • Anteil der Varianz eines Items, der durch alle extrahierten Faktoren gemeinsam aufgeklärt werden kann

  • Untergrenze für Schätzung der Reliabilität des Items

  • werden in die Hauptdiagonale der Korrelationsmatrix eingesetzt

Wie werden Kommunalitäten bestimmt?

  • Schätzung VOR der Durchführung der Faktorenanalyse, d.h. Bevor Anzahl der Faktoren und deren Ladungen bekannt sein können (ein Grundproblem der Faktorenanalyse)

  • Lösung des Problems für PCA grundsätzlich verschieden von anderen faktorenanalytischen Methoden

 

Wie werden in der PCA die Kommunalitäten geschätzt?

 

  • Zunächst werden Einsen in die Hauptdiagonale eingesetzt (entspricht vollständiger Aufklärung der Varianz des Items durch die Summe der Faktoren)

  • erste unrotierte Faktorenlösung nach methodenabhängigem Algorithmus, unendlich viele Lösungen des Gleichungssystems – Optimierung nach methodenspezifischen Abbruchkriterien – „Konvergenz des Algorithmus“
  • PCA konvergiert (ohne weitere Restriktionen) immer, PAF u.a. nicht immer

Was wird als Anfangsschätzung der Kommunalitäten bei der PAF meist eingesetzt?

 

  • Die quadrierten multiplen Korrelationskoeffizienten R² zwischen dem jeweiligen Item und anderen Items (konservativ, da in jedem Item auch ein Anteil spezifischer Varianz S (Spezifität), der zur Reliabilität beiträgt aber von anderen Items nicht erfasst wird)

Welche Werte kann die Reliabilität annehmen?

 

  • alle Werte zwischen Kommunalität und Eins

Wovon hängt die Reliabilität ab?

 

  • von der Varianz, die die Faktoren des Modells erklären (= Kommunalität)
  • von der spezifischen Varianz (= Varianz, die nur durch das betrachtete Item erklärt wird)
  • eventuell von Faktoren, die im Modell nicht enthalten sind

Prinzip der PCA

  • aus dem Variablensatz wird ein Satz neuer Variablen (Komponenten) extrahiert, die nach ihrer Bedeutung geordnet sind
  • jede Komponente klärt ein Maximum der gesamten (verbleibenden) Varianz aller beteiligten Variablen auf
  • Gerade wird gesucht, die von allen Punkten (Vpn) im n-dimensionalen Raum in der Summe die geringste Entfernung hat = 1. Hauptkomponente, bildet Maximum an Gemeinsamkeiten aller beteiligten Variablen ab
  • Minimum an Komplexität, Maximum an Information → datenreduzierendes Verfahren; möglichst sparsame Beschreibung der ursprünglichen Daten