M6 Grundlagen der Testkonstruktion
Kurs 03421, Kapitel 4
Kurs 03421, Kapitel 4
Set of flashcards Details
Flashcards | 120 |
---|---|
Students | 13 |
Language | Deutsch |
Category | Psychology |
Level | University |
Created / Updated | 29.05.2013 / 06.06.2019 |
Weblink |
https://card2brain.ch/box/m6_grundlagen_der_testkonstruktion8
|
Embed |
<iframe src="https://card2brain.ch/box/m6_grundlagen_der_testkonstruktion8/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Wann werden Verfahren der Explorativen Faktorenanalyse (EFA) eingesetzt?
-
Wenn KEINE präzisen theoretischen Vorstellungen über die interne Struktur in der Gesamtstruktur der Daten existieren.
Wann wird die Konfirmatorische Faktorenanalyse eingesetzt?
-
Es existieren präzise theoretische Vorstellungen über die interne Struktur in der Gesamtstruktur der Daten existieren.
Wo hat die Faktorenanalyse ihren Ursprung?
-
In der theoretischen Intelligenzforschung (Spearman, 1904)
-
ableitbar aus dem Allgemeinen Linearen Modell
-
rechnerisch verwandt mit anderen multivariaten Verfahren
Prinzipien der Faktorenanalyse
-
Untersuchen der internen Struktur eines Satzes von Variablen auf latente Zusammenhänge zwischen den Variablen (Korrelationsmuster von manifesten Variablen)
-
Ziel: Datenstrukturierung, Zusammenfassen vieler manifester Variablen zu wenigen latenten Variablen (zwei Varianzquellen: p Variablen über n Vpn)
Kovariationsschema nach Catell (1957)
-
drei Varianzquellen: Variablen, Vpn, Situationen
-
sechs mögliche Arten von Korrelationsmatrizen
-
„R-Technik“
Was lässt sich in der „trimodalen Faktorenanalyse“ berücksichtigen?
- Drei Varianzquellen simultan
Welche zentralen Zwecke der Faktorenanalyse unterscheidet Thompson (2004)?
-
Prüfung der Gültigkeit (Validität) theoretischer Modellannahmen („faktorielle Validität“)
-
Entwicklung von Theorien über die interne Struktur psychologischer Konstrukte (oder messbarer Manifestationen)
-
Datenreduktion bzw. Zusammenfassen
Wofür eignet sich die EFA besonders?
-
Entdeckung theoretischer Modellvorstellungen im Rahmen eines theoriebildenden Vorgehens
-
Vereinfachung eines Datensatzes
-
stellt für induktive Testkonstruktion zentrale empirische Informationen zur Verfügung
-
Exploration der internen Struktur eher atheoretisch konstruierter externaler Tests
Wie lautet ein wichtiger Grundgedanke der Faktorenanalyse?
-
Die Ausprägung eines Individuums auf beobachteten Variablen wird ursächlich durch dahinter stehende, latente Konstrukte beeinflusst (Faktoren – ungleich (!) Faktoren der Varianzanalyse)
Was steht im Mittelpunkt der Faktorenanalyse?
-
Simultaner Einfluss jedes Faktors auf mehrere beobachtete Variablen = „Effektindikatorenmodell“ (Gegensatz – mehrfaktorielle Varianzanalyse und multiple Regression: simultaner Einfluss mehrerer unabhängiger Variablen)
Welche Aussagen gelten für das Effektindikatorenmodell nach Bollen und Lennox (1991)?
-
verwendet bei der Faktorenanalyse
-
dem Messmodell der KTT liegt ein faktorenanalytisches Modell zugrunde – unterstellt, dass die Indikatoren (Items) untereinander korrelieren (mindestens zwischen drei, i.d.R. Mehr Variablen / Inidikatoren)
-
betrachtet die Ausprägungen auf den Items als lineare Funktion dahinter stehender Faktoren (= Grund für Korrelation)
-
Kovarianzen auf manifester Ebene
-
Anzahl latenter Konstrukte und inhaltlicher Zusammenhang aus Stärke der Korrelationen
Welche Aussagen gelten für das Kausalindikatorenmodell nach Bollen und Lennox (1991)?
-
verwendet bei der Regressionsanalyse / Varianzanalyse
-
gilt bei strikter Orientierung am Zusammenhang der Items mit einem Außenkriterium im Rahmen der externealen Testkonstruktion → Homogenität / Korreliertheit der Items kann NICHT unterstellt werden
Wann erfolgen die Interpretation und Zusammenfassung bei der EFA, beziehungsweise der CFA?
-
EFA: die erhobenen Daten bilden die Grundlage
-
vor Beginn der Datenanalyse
Welches sind die (beiden) am häufigsten verwendeten Varianten der EFA nach Thompson (2004)?
-
Hauptachsenanalyse (PAF, principal axis factor analysis)
-
Hauptkomponentenanalyse (PCA, principal components analysis)
-
(sieben Extraktionsmethoden in SPSS) implementiert
Warum zählt die PCA streng genommen nicht zu den faktorenanalytischen Methoden?
-
Dient nur der Datenreduktion und Beschreibung
-
latente Variablen heißen Komponenten (nicht Faktoren)
Was gilt für die PCA hinsichtlich ihrer Verwendung?
-
Häufige Verwendung (Voreinstellung SPSS)
-
geringe Unterschiede in Berechnung und Ergebnissen zur PAF
-
wichtigster Unterschied zu faktorenanalytischen Methoden im Anwendungszweck: reine Datenreduktion
Was geschieht bei einer Faktorenanalyse?
-
Untersuchung der Kovarianz- bzw. Korrelationsmatrix eines Satzes beobachtbarer Variablen
-
zuerst: Extraktion kleinerer Anzahl latenter Variablen (Faktoren) – gewichtete Summe
-
Rotation vorläufiger Faktoren (Informationserhalt und Interpretationsgrundlage) → endgültige Faktoren
-
Zuweisung Messwerten (Faktorwerten) für Vpn auf den endgültigen Faktoren (Beschreibung der Ausprägung auf latenten Merkmalen)
Schritte zur Durchführung einer EFA:
-
Prüfung der Voraussetzungen einer EFA
-
Auswahl der faktorenanalytischen Methode (und Kommunalitätenschätzung, Methode Faktorextraktion)
-
Festlegung Anzahl der extrahierten Faktoren
-
Festlegung Rotationsmethode
-
Inhaltliche Interpretation der Faktoren
-
Festlegung der Methode Ermittlung der Faktorwerte (u.U. Faktoranalyse höherer Ordnung)
Welches sind die wichtigsten Voraussetzungen, die für die EFA geprüft werden sollten?
-
Substanzielle Korrelation der Items
-
Stichprobengröße
-
uni- und multivariate Verteilungseigenschaften der Items bzw. manifesten Variablen
-
(Wechselwirkungen)
Prüfung substanzieller Korrelation der Items (EFA)
-
Mindestvoraussetzung: beobachtete Korrelationsmatrix weicht signifikant von der vollständigen Unabhängigkeit der Variablen in der Population (Diagonal- bzw. Identitätsmatrix) ab
→ Signifikanztest: Bartlett-Test auf Sphärizität
→ KMO-Koeffizient (Kaiser-Meyer-Olkin-Koeffizient)
-
Kommunalitäten (>=.20)
-
MSA-Koeffizient (measure of sample adequacy) – ähnlich KMO zu interpretieren, bezieht sich jedoch auf einzelne Items
Was ist der KMO-Koeffizient?
-
Kaiser-Meyer-Olkin-Koeffizient, Prüfung der Itemkorrelation (EFA)
-
gemeinsamer Varianzanteil der Items relativ zu deren spezifischen Varianzanteilen
-
sollte möglichst hoch (>=.50) sein
Was ist der MSA-Koeffizient?
-
measure of sample adequacy, Prüfung der Itemkorrelation (EFA)
-
ähnlich KMO zu interpretieren, bezieht sich jedoch auf einzelne Items
Was gilt für die Anforderungen an die Stichprobengröße für die EFA?
-
Minimalgröße = Anzahl der Variablen (praktisch aber nie ausreichend)
-
je mehr Items eingehen, je weniger Items je Faktor zusammegefasst werden und je weniger reliabel die Items sind, desto größer sollte die Stichprobengröße sein
-
abhängig von der Extraktionsmethode (PCA relativ geringe Anforderungen, ML-Faktorenanalyse erfordert große Stichproben)
-
nach MacCallum et al. 1999: N = 60 Untergrenze für Faktorenanalyse (unter besten Bedingungen)
Was ist ein Indikator für die Reliabilität von Items?
-
Die Kommunalität
Was wird von den Verteilungseigenschaften gefordert (EFA, CFA)?
-
Kontinuierliche Messung mindestens auf Intervallskalenniveau
-
(multivariate) Normalverteilung
Was deutet auf Methodenartefakte aufgrund von ungünstigen Verteilungseigenschaften hin?
-
Innerhalb eines Faktors vorwiegend Items mit ähnlichen Verteilungseigenschaften, die sich zwischen den Faktoren über alle Items je Faktor aber auffällig unterscheiden
Welche Methoden können bei ungünstigen Verteilungseigenschaften eingesetzt werden?
-
Transformation der Items vor der Analyse (z.B. log-linear)
-
Zusammenfassung von Items („Päckchen“, parcels)
-
Miniskalen vor der Faktorisierung (auch Verbesserung der Reliabilität) – theoretische Vorannahmen erforderlich → vor allem bei CFA
-
EFA: Faktorenanalyse höherer Ordnung
-
anstelle der Matrix der Produkt-Moment-Korrelationen Analyse der tetrachorischen (für dichitome Items) bzw. polychorischen (für Ratingskalen) Korrelationen
-
alternative faktorenanalytische Methoden, beruhend auf der PPT
Was zeichnet tetrachorische / polychorische Korrelationen aus?
-
Kategoriale Daten werden als indirekte Indikatoren kontinuierlicher und normalverteilter Variablen aufgefasst
Was ist dass Modell mehrerer gemeinsamer Faktoren?
-
Ausprägung auf einer beobachtbaren Variable (z.B. einem Item) setzt sich aus einer gewichteten Kombination von Ausprägungen auf latenten Variablen plus einem Fehlerterm zusammen
Was bezeichnet das Komponentenmodell?
-
Liegt PCA zugrunde: Kombination von Ausprägungen OHNE Fehlerterm → Interesse nur bei Informationen direkt aus empirischen Daten, nicht an dahinter liegenden „wahren“ Konstrukten
Was sind Ladungen?
-
Standardiesierte Gewichte je Item und Faktor („Ladung des Items auf Faktor“)
-
Begriff kann mehrdeutig sein
-
interpretierbar als Korrelation zwischen Item und Faktor (solange Faktoren untereinander nicht korrelieren)
-
quadrierte Ladung = Anteil gemeinsamer Varianz an der Gesamtvarianz der beteiligten Variablen
Welche Größen beinhaltet das Modell gemeinsamer Faktoren?
-
z z-Werte einer Person auf Items
-
f Faktorwerte der Person auf Faktoren
-
a Ladungen der Items auf Faktoren
-
q Anzahl der Faktoren
-
e Fehlerkomponente, die durch extrahierte Faktoren nicht erklärt werden kann
Wie sieht eine Ladungsmatrix aus?
-
Variablen in den Zeilen
-
Faktoren in den Spalten
-
Ladungen in den Zellen
Was sind Kommunalitäten?
-
h² Zeilensumme der quadrierten Ladungen der Ladungsmatrix
-
Anteil der Varianz eines Items, der durch alle extrahierten Faktoren gemeinsam aufgeklärt werden kann
-
Untergrenze für Schätzung der Reliabilität des Items
-
werden in die Hauptdiagonale der Korrelationsmatrix eingesetzt
Wie werden Kommunalitäten bestimmt?
-
Schätzung VOR der Durchführung der Faktorenanalyse, d.h. Bevor Anzahl der Faktoren und deren Ladungen bekannt sein können (ein Grundproblem der Faktorenanalyse)
-
Lösung des Problems für PCA grundsätzlich verschieden von anderen faktorenanalytischen Methoden
Wie werden in der PCA die Kommunalitäten geschätzt?
-
Zunächst werden Einsen in die Hauptdiagonale eingesetzt (entspricht vollständiger Aufklärung der Varianz des Items durch die Summe der Faktoren)
- erste unrotierte Faktorenlösung nach methodenabhängigem Algorithmus, unendlich viele Lösungen des Gleichungssystems – Optimierung nach methodenspezifischen Abbruchkriterien – „Konvergenz des Algorithmus“
- PCA konvergiert (ohne weitere Restriktionen) immer, PAF u.a. nicht immer
Was wird als Anfangsschätzung der Kommunalitäten bei der PAF meist eingesetzt?
-
Die quadrierten multiplen Korrelationskoeffizienten R² zwischen dem jeweiligen Item und anderen Items (konservativ, da in jedem Item auch ein Anteil spezifischer Varianz S (Spezifität), der zur Reliabilität beiträgt aber von anderen Items nicht erfasst wird)
Welche Werte kann die Reliabilität annehmen?
- alle Werte zwischen Kommunalität und Eins
Wovon hängt die Reliabilität ab?
- von der Varianz, die die Faktoren des Modells erklären (= Kommunalität)
- von der spezifischen Varianz (= Varianz, die nur durch das betrachtete Item erklärt wird)
- eventuell von Faktoren, die im Modell nicht enthalten sind
Prinzip der PCA
- aus dem Variablensatz wird ein Satz neuer Variablen (Komponenten) extrahiert, die nach ihrer Bedeutung geordnet sind
- jede Komponente klärt ein Maximum der gesamten (verbleibenden) Varianz aller beteiligten Variablen auf
- Gerade wird gesucht, die von allen Punkten (Vpn) im n-dimensionalen Raum in der Summe die geringste Entfernung hat = 1. Hauptkomponente, bildet Maximum an Gemeinsamkeiten aller beteiligten Variablen ab
- Minimum an Komplexität, Maximum an Information → datenreduzierendes Verfahren; möglichst sparsame Beschreibung der ursprünglichen Daten