M6 - Grundlagen der Testkonstruktion
Kapitel 4 - Skalenbildung: Faktorenanalyse, Aggregation von Items und Normierung
Kapitel 4 - Skalenbildung: Faktorenanalyse, Aggregation von Items und Normierung
Kartei Details
Karten | 59 |
---|---|
Lernende | 13 |
Sprache | Deutsch |
Kategorie | Psychologie |
Stufe | Grundschule |
Erstellt / Aktualisiert | 11.12.2011 / 10.09.2017 |
Weblink |
https://card2brain.ch/box/m6_grundlagen_der_testkonstruktion5
|
Einbinden |
<iframe src="https://card2brain.ch/box/m6_grundlagen_der_testkonstruktion5/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Auf was kommt es bei der Wahl des faktorenanalytischen Verfahrens an?
ob über die interne Struktur präzise theoretische Vorstellungen exostieren oder nicht:
- falls nicht kommen Verfahren der explorativen Faktorenanalyse zum Einsatz (EFA)
- falls ja, ist die konfirmatorische Faktorenanalyse die Methode der Wahl (CFA)
Wozu dient die Faktorenanalyse?
- zur Untersuchung von Tests und anderen Diagnostika
- und sie besitzt eine Vielzahl sehr breiter Anwendungsgebiete
- dient zur Reduktion von vielen manifesten Variablen zu wenigen latenten Variablen
- Zusammenhänge zwischen Items auf latente Variablen zurückzuführen
- einen komplexen Merkmalsbereich in homogenere Teilbereiche zu untergliedern oder auszudifferenzieren
Wo hat die Faktorenanalyse ihren Ursprung?
in der theoretischen Intelligenzforschung
Was ist das Prinzip der Faktorenanalyse?
- das ist eine Gruppe statistischer Verfahren, mit denen die interne Struktur eines Satzes von Variablen auf deren nicht offen zutage tretende (latente) Zusammenhänge untersucht wird
- mit ihr kann man versuchen, viele manifeste Variablen (z.B. Items eines Tests) zu wenigen latenten Variablen (den diesen Items zugrunde liegenden Konstrukten) zusammenzufassen
Was hat Cattell unterschieden?
- unterschied zwischen drei Varinazquellen und sechs möglichen Arten von Korrelationsmatrizen
- R-Technik
Was ist die trimodale Faktorenanalyse?
- eine Variante der EFA, mit der sich drei Varianzquellen simultan berücksichtigen lassen
Welche drei zentralen Zwecke der Faktorenanalyse unterscheidet Thompson?
1. Prüfung der Gültigkeit (Validität) theoretischer Modellannahmen über die Struktur eines vorhandenen Variablensatzes oder Messinstruments
2. die Entwicklung von Theorien über die interne Struktur psychologischer Konstrukte bzw. deren messbare Manifestation
3. die Datenreduktion bzw. die vereinfachende Beschreibung eines Datensatzes durch Zusammenfassung von Variablen zu übergeordneten Faktoren
Wozu eignet sich die CFA besonders gut?
- zur Modellprüfung
Wozu eignet sich die EFA besonders gut?
- sie setzt keine theoretischen Modellvorstellungen voraus und eignet sich deshalb dazu, solche Modellvorstellungen im Rahmen eines theoriebildenden Vorgehens zu entdecken und den vorliegenden Datensatz entsprechend zu vereinfachen
Welches sind nach Thompson die am häufigsten verwendeten Varianten der EFA?
- Hauptachsenanalyse (principal axis factor analysis: PAF)
- Hauptkomponentenanalyse (principal components analysis: PCA)
Die PCA ist keine EFA i. e. S.. Was unterscheidet sie von den anderen faktorenanalytischen Modellen (wie z.B. PAF)?
- die PCA dient vorwiegend der Datenreduktion, während die PAF dem Ziel der Aufdeckung latenter Strukturen im Datensatz dient
Welche Schritte lassen sich im Rahmen einer EFA unterscheiden?
1. Prüfung der Voraussetzung einer EFA
2. Auswahl der faktorenanalytischen Methode und damit Festlegung der Methode der sog. Kommunalitätenschätzung und der Faktorextraktion
3. Festlegung der Anzahl der extrahierten Faktoren
4. Festlegung der Methode der Rotation und deren Durchführung
5. inhaltliche Interpretation der Faktoren
6. Festlegung der Methode zur Ermittlung der Faktorwerte und ggf. Faktorenanalyse höherer Ordnung
Was sind die wichtigsten Voraussetzungen für eine EFA?
- Korrelation der Items
--> sollten substanziell korrelieren
- Stichprobengröße
--> sollte sehr groß sein
- uni- und multivariate Verteilungseigenschaften der Items bzw. manifesten Variablen
Was ist die Mindestvoraussetzung für eine substantielle Korrelation bei einer EFA?
dass die beobachtete Korrelationsmatrix signifikant von der vollständigen Unabhängigkeit der Variablen in der Population abweichen sollte
--> kann mit Bartlett-Test auf Sphärizität und mit Kaiser-Meyer-Olkin-Koeffizient (KMO-Koeffizient) geprüft werden
Was sollte beim KMO-Koeffizienten zutreffen?
er sollte möglichst hoch sein --> keinesfalls unter .50
Was ist ein weiteres Indiz für die Eignung auch einzelner Items zur Faktorisierung?
- deren Kommunalitäten, die einen Wert von .20 nicht unterschreiten sollten
- der MSA-Koeffizient --> ähnlich wie KMO-Koeffizient, bezieht sich jedoch auf einzelne Items
Wann steigen die Anforderungen an die Stichprobengröße generell bei einer EFA?
- je mehr Items insgesamt in die Analyse eingehen
- je weniger Items je Faktor zusammengefasst werden
- je weniger reliabel die einzelnen Faktoren sind (Indikator dafür ist Kommunalität)
Wie groß sollte eine Stichprobe nach MacCallum, Widaman, Zhang und Hong mindestens sein?
N = 60
Welche Anforderungen stellt die Faktorenanalyse an die Verteilungseigenschaften?
- kontinuierliche Messung mindestens auf Intervallskalenniveau
- Normalverteilung
--> das ist bei Fragebogenitems in aller Regel nicht oder bestenfalls näherungsweise erfüllt ist
Welche Möglichkeiten zur Überprüfung der Einflüsse von unterschiedlich verteilten Items gibt es ?
Inspektion der deskriptiven Itemstatistiken: wenn sich innerhalb desselben Faktors vorwiegend Items mit ähnlichen Verteilungseigenschaften finden. sich diese Eigenschaften zwischen den Faktoren über alle Items je Faktor gemittelt aber auffällig unterscheiden, deutet dies darauf hin, dass die Faktoren lediglich Methodenartefakte abbilden und daher inhaltlich nicht interpretiert werden sollten
Welche Methoden zum Umgang mit ungünstigen Verteilungseigenschaften gibt es?
- die Items vor der Analyse so transformieren, dass die Normalverteilung besser angenähert wird
- Faktorenanalyse höherer Ordnung
- Analyse der tetrachorischen (für dichotome Items) bzw. der polychorischen (für Ratingskalen) Korrelationen, bei denen kategoriale Daten als indirekte Indikatoren kontinuierlicher und normalverteilter Variablen aufgefasst werden
Welche Annahme vertritt das Modell mehrerer gemeinsamer Faktoren?
dass sich die Ausprägung einer Person auf einer beobachteten Variable aus einer gewichteten Kombination von Ausprägungen auf latenten Variablen plus einem Fehlerterm zusammensetzt
Welche Annahme vertritt das Komponentenmodell, das der PCA zugrunde liegt, im Gegensatz zum Modell mehrerer gemeinsamer Faktoren?
hier entfällt der Fehlerterm
--> dies kann man inhaltlich so interpretieren, dass sich die PCA nur für die im empirischen Datensatz vorliegende Information und nicht für dahinter liegende "wahre" Konstrukte interessiert
Was ist die Kommunalität?
der Anteil der Varianz eines Items, der durch alle extrahierten Faktoren gemeinsam aufgeklärt werden kann
- lässt sich auch als Untergrenze für die Schätzung der Reliabilität des Items auffassen
Wie werden die Kommunalitäten ermittelt?
durch Schätzung
Was wird bei der PAF und anderen Varianten der Faktorenanalyse als Schätzung der Anfangskommunalitäten eingesetzt?
meist die quadrierten multiplen Korrelationskoeffizienten R(Quadrat) zwischen dem jeweiligen Item und allen anderen Items
--> dies ist eine konservative Schätzung der Kommunalität, da man davon ausgehen kann, dass in jedem Item auch ein Anteil spezifischer Varianz S steckt, der - weil systematisch - zwar zur Reliabilität beiträgt, aber von den anderen Items nicht erfasst wird
Wann spricht man von der Konvergenz des Algorithmus?
in den Algorithmen der verschiedenen Methoden wird eine eindeutige und nach den jeweiligen Kriterien optimale Lösung gesucht. wenn diese gefunden ist, wird die suche nach ebenfalls methodenspezifischen Kriterien abgebrochen und man spricht von der Konvergenz des Algorithmus
Wie konvergieren die PCA und die PFA?
die PCA konvergiert ohne weitere Restriktionen immer, die PAF und andere faktorenanalytische Methoden dagegen nicht zwingend
Was ist das Prinzip der OCA?
aus dem Variablensatz einen Satz neuer Variablen zu extrahieren, die nach ihrer Bedeutung geordnet sind, indem jede Komponente ein Maximum der gesamten Varianz aller beteiligten Variablen aufklärt
Wie ist der Algorithmus der PAF?
iterativ
Was ist das Prinzip der PAF?
- es geht um die Entdeckung theoretischer Variablen, die hinter den beobachteten stehen
- PAF ist ein theoriebildendes oder hypothesengenerierendes Verfahren
Wie lassen sich PCA vs. PAF bewerten?
- Wahl der Methode hängt von Stichprobengröße ab, wobei der Zweck die wichtigste Determinante sein sollte
Wann sollte die Extraktion von Faktoren abgebrochen werden?
dafür gibt es kein allgemeingültiges Kriterium, es existieren jedoch einige gebräuchliche Verfahren bzw. Praktiken
Was spielt bei der EFA eine zentrale Rolle für die Bestimmung der Faktorenzahl?
die Eigenwerte
Welche drei Vorgehensweisen stehen zur Verfügung um zu entscheiden, ab welchem Punkt es sich nicht mehr lohnt, zusätzliche Varianz durch die Extraktion zusätzlicher Faktoren aufzuklären?
- Kaiser-Guttman-Kriterium: alle Komponenten extrahieren, deren Eigenwert >1 ist (bei PCA)
- Scree-Test
- Faktorenzahl nach statist. Kriterien
Was ist der Scree-Test?
grafische Analyse des Eigenwerteverlaufs über alle Faktoren in einem entsprechenden Diagramm. Für den Scree-Test werden alle Eigenwerte der Größe nach sortiert in einem Eigenwertediagramm (Scree-Plot, s. Abb. 4.9) abgetragen und
durch eine geknickte Linie miteinander verbunden. Wenn man, von links mit dem
größten Eigenwert beginnend, feststellt, dass die Linie auffällig abknickt, ist dies
ein Hinweis darauf, nur die Faktoren vor dem Knick (d.h. links davon) zu extrahieren, vorausgesetzt das KG-Kriterium ist gleichzeitig erfüllt.
Was ist eine Parallelanalyse?
Dafür wird eine Matrix bzw. eigentlich viele Matrizen produziert,
die den gleichen Rang (gleiches p) wie die empirische Matrix besitzen, aber
auf Zufallswerten beruhen. Aus diesen Zufallskorrelationen werden dann Faktoren
bzw. Komponenten extrahiert und wieder nach ihren Eigenwerten geordnet.
Was ist ein weiteres Verfahren zur Klärung der Extraktionsnotwendigkeit?
Minimum-Average-Partial-Test (MAP-Test)
Was ist orthogonale Rotation?
die ursprüngliche Unabhängigkeit der Faktoren bleibt erhalten
Was ist oblique Rotation?
die Unabhängigkeit der Faktoren wird aufgegeben