Testtheorie und Fragebogenkonstruktion
Testtheorie und Fragebogenkonstruktion
Testtheorie und Fragebogenkonstruktion
Set of flashcards Details
Flashcards | 71 |
---|---|
Language | Deutsch |
Category | Psychology |
Level | University |
Created / Updated | 24.04.2017 / 27.12.2024 |
Weblink |
https://card2brain.ch/box/20170424_testtheorie_und_fragebogenkonstruktion
|
Embed |
<iframe src="https://card2brain.ch/box/20170424_testtheorie_und_fragebogenkonstruktion/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Was passiert bei der Verdopplung der Testlänge?
DIe Fehlervarianz verdoppelt sich + eine Vervierfachung der wahren Varianz
Welche zwei Arten der Testwertinterpretation gibt es ?
Normorientiert und kriteriumsorientiert
Was besagt der Prozentrang einer Testperson?
Prozentualer Flächenanteil der Häufigkeitsverteilung der Bezugsgruppe vom unteren Skalenende bis zum Testwert. --> wie viel Prozent der Bezugsgruppe hat einen Testwert erzielten der niedriger oder ebenso hoch ist wie der Wert der Testperson
Was gibt das Perzentil an?
Welcher Testwert dem korrepsondierenden Prozentrang entspricht
Vorteil und Nachteil von Prozenträngen?
+-auch für nicht normalverteilte Variablen ermittelbar
-- immer ordinalskaliert --> PR-Differenzen sind nicht aussagekräftig
Wofür braucht man den Standardmessfehler und Standardschätzfehler?
Um das Vertrauens/Konfidenzintervall zu berechnen (Statistische Absicherung von beobachteten Testwerten)
Was ist der Unterschied zwischen dem Standardmessfehler und dem Standardschätzfehler?
Standardmessfehler: Ausgangspunkt: Äquivalenzhypothese: Beobachteter Wert des Probanden ist gute Annährerung an den wahren Wert des Probanden (Keine Korrektur zur Mitte, aber ein breiteres KI bei Extremwerten = bessere Schätzung des KI für Extremwerte)
Standardschätzfehler: Ausgangspunkt: Regressionshypothese: Wahrer Wert des Probanden muss aus beobachtetem Wert erst geschätzt werden, Korrektur zur Mitte: bei extremen beob. Werten ist bei Messwiederholung weniger extremer Wert zu erwarten
Vertrauensintervall nach Regressionshypothese schmaler als nach Äquivalenzhypothese --> aber bei hohen Reliabilität = ähnliche Ergebnisse
Erforderliche Festlegungen der EFA:
1). Art der Extraktionsmethode (z.B. Hauptskomponenten- oder Hauptachsenmethode)
2). die Wahl des Abbruchkriteriums (z.B. Scree-Test oder Parallelanalyse)
3). die Methode der Faktorenrotation (z.B. orthogonal oder oblique Rotation)
Was sind Faktorladungen?
Ausmaß, wie stark die Ausprägung der Itemantwort von einem oder mehreren Faktoren beeinflusst wird (wie stark hängt individuelles Item mit Faktor zusammen.
-zwischen -1 und +1
-Bei unkorrelierten Faktoren: Korrelation: Item-Faktor
-Bei korrelierten Faktoren: semipartielles Regressionsgewicht
Was ist der Faktorwert?
Ausprägung einer Person auf einem Faktor
Was ist der Eigenwert eines Faktors und was bedeutet er im Kontext der PFA und der PCA?
Die durch den Faktor erklärte Varianz aller Items --> zeigt die Wichtigkeit des Faktors
-bei unkorrelierten Faktoren: quadierte Faktorladungen aller Variablen aufsummiert (spaltenweise)
-Variablen sind z-standardisert: Varianz von 1, dementsprechend immer wenn > 1, dann erklärt Faktor mehr Varianz als eine einzelne Variable
Was ist die Kommunalität einer Variable und was bedeutet sie im Kontext der PFA und PCA
die durch alle Faktoren aufgeklärte Varianz einer Variable
-bei unkorrelierten Faktoren: Summe der quadrierten Ladungen über alle Faktoren (zeilenweise)
PCA: max. 1, da die Variablen z-standardisiert sind
PFA: max. so groß wie die Reliabilität der Variablen
bei niedriger Kommunlalität: misst etwas anderes als das Konstrukt, jängt nicht gut den anderen Faktoren zusammen
Was ist die Einzigartigkeit ?
- 1-h2
- Varianz eines Items, die das Item mit keinem anderen teilt
- Setzt sich aus Spezifität (systematischer Varianzanteil, der nicht durch andere Faktoren erklärt werden kann) und Messfehler des Items zusammen)
Extraktionsmethoden (3)
-Hauptkomponentenanalyse, PCA
- Hauptachsenanalyse PFA
- Maximum-Likelihood-Faktorenanalyse
Hauptkomponentenanalyse
Annahme: messfehlerfreie Erhebung
• Ziel: Dimensionsreduktion --> Entstehung von nicht erklärter Varianz (Uniqueness)
• Hauptkomponenten enthalten aber tatsächlich Messfehler
• Aufzuklärende Varianz jeder einzelnen stand. Variablen = 1 --> zu erklärende Gesamtvarianz = Zahl der Variablen
Hauptachsenanalyse
• Annahme: Variablen enthalten auch Varianz durch Messfehler
• Ziel: Identifikation latenter Konstrukte
• Faktoren erklären Beziehung der Variablen („wahre Varianz“)
• Schätzung der wahren Varianz (= Reliabilität) einer Variable
• unerklärter Varianzanteil enthält systematische und unsystematische Varianz
Maximum-Likelihood (ML):
• Ziel: latente Faktoren als Ursache für Korrelation in der Population aufdecken
• Schätzt aus Stichprobenkorrelationsmatrix Populationsmatrix
• Erfordert große Stichprobe und multivariate Normalverteilung der Variablen
• Möglichkeit zu Modelltest (χ2-Test)
• H0: Das Modell passt zu den Daten
Abbruchkriterien + Beschreibung derer
Kaiser-Kriterium:
- alle Faktoren mit Eigenwert > 1, erklären mehr Varianz als eine Variable
- Problem: häufig Überschatzung der Faktorenzahl, da zufällig Eigenwerte > 1 möglich
• Scree-Test/ Screeplot:
- Eigenwerte der Faktoren gegen Faktorenzahl abgetragen (nach Größe) -->alle Faktoren vor dem Knick extrahiert
Parallelanalyse
Vorgehen:
1. Zufallsdaten generiert - die den empirischen Daten entsprechen
2. Extrahieren von Faktoren
3. Alle Faktoren extrahieren, wenn Eigenwerten > gemittelte Eigenwerte
Was ist der MAP-Test?
- Durchführung einer Hauptkomponentenanalyse
- Bestimmung der Komponentenwerte der Personen
- Auspartialisieren aus Ausgangskorrelationsmatrix (durch diese Komponente erklärte Varianz eliminiert) --> übrig bleibt Residualmatrix (enthält Partialkorrelationen)
– Quadrieren und Mitteln der Partialkorrelationen oberhalb der Diagonale --> mittlere quadrierte Partialkorrelation (MAP)
- Wiederholen der Schritte (angefangen mit Residualmatrix) bis sich die mittlere quadrierte Partialkorrelation nicht mehr reduzieren lässt
- Extraktion der Zahl an Komponenten, bei der MAP am geringsten ist (hier ist systematische Varianz der Korrelationsmatrix ausgeschöpft)
- Auch im Rahmen der ML oder Hauptachsenanalyse verwendbar
Was sind die Unterschiede zwischen der Obliquen und Orthoginalen Rotationsmethode
Nenne die 4 Anwendungsvoraussetzung der Exploratorischen Faktor Analyse (EFA)
1). Substantielle Korrelationen der Items (KMO-Koeffizient, MSA-Koeffizient, Bartlett´s Test auf Sphärizität)
2). Unverzerrte Zusammenhänge (z.b: Ausreißer)
3). Ausreichende Itemanzahl und ausreichende Itemreliabilität (mind. 4 Items pro Faktor, Achten auf Reliabilitäten)
4.) Ausreichende Stichprobengröße (Abhängig von der Kommunalität und Anzahl der Items pro Faktor)
Was sind endogene oder exogene Variablen ?
Endogene Variablen: abhängige Variablen, auf die ein Pfeil zeigt
Exogene Variablen: unabhängige Variablen, auf die kein Pfeil zeigt / vin denen ein oder mehrere Pfeile ausgehen
Definition hierarchisch geschachtelter Modelle
= Modelle, welche dieselbe Modellstruktur aufweisen und sich nur dadurch unterscheiden, dass einzelne Parameter zusätzlich fixiert oder freigesetzt werden. (Modellstruktur bleibt ansonsten aber erhalten)
Welche drei Möglichkeiten gibt es um ein identifizierbares Modell zu erhalten ?
1. Pro Faktor fixieren einer Faktorladung auf 1
2. Fixieren der Varianz der latenten Variablen auf 1 (NICHT für Längsschnittstudien oder Multigruppenanalysen)
3. Parameterfixierung durch Modellannahmen
Welche drei Modellidentifikationen gibt es ? Welches ist besonders sinnvoll?
1. gerade identifizierte Modell (eine einzige Lösung für den zu schätzenden Parameter, df=0, kein Modellfit möglich)
2. unteridentifiziertes Modell (es gibt unendlich viele Möglichkeiten, mehr zu schätzende als bekannte Parameter --> nicht für Analysen mit Strukturgleichungsmodellen anwendbar)
3. überidentifizierte Modell (mehr bekannte als zu schätzende Parameter --> kann näherungsweise gelöst werden)
Beschreibe inkrementelle/ komparative Fit-Indizes
hier wird das Zielmodell mit einem Null- oder Independencemodell verglichen
• Null- oder Independence Modell: nur die Varianzen der Variablen werden geschätzt und alle anderen Parameter auf 0 fixiert
Tucker Lewis Index (TLI, oder auch NNFI)
NFI (Normed Fit Index), sollte groß sein (≥ .95)
CFI (Comparative Fit Index), sollte groß sein (≥ .97)
• Wertebereich zwischen 0 und 1, wobei ein höherer Wert für einen besseren Modell Fit steht
Was bedeutet Sparsamkeit im Zusammenhang mit Fit-Indizes?
a) Sparsamkeit Fit-Indizes beziehen den Faktor der Sparsamkeit eines Modells mit in die Bewertung der Modellgüte ein
• Sparsam = Modelle mit wenigen zu schätzenden Parametern
1. Akaike Information Criterion (������): Abgleich anhand der Freiheitsgrade / frei zu schätzenden Parameter
2. Bayesian Information Criterion (BIC): bezieht die Stichprobengröße mit ein und bestraft Anzahl Parameter noch stärker als der ������
• niedriger Wert = besserer Modellfit
• alleine können die Kennwerte keine Aussage über den Modellfit machen, sie dienen nur zum Vergleich von Modellen
Äquivalenz von Messungen: welche Arten der Messungen werden unterschieden?
• Paralleles Modell
- Die Messfehler beider Messungen sind unkorreliert
- Die wahren Werte beider Messungen sind gleich
- Die Fehlervarianzen beider Messungen sind gleich
• Essenziell paralleles Modell
- Die Messfehler beider Messungen sind unkorreliert
- Die wahren Werte beider Messungen unterscheiden sich lediglich um eine additive Konstante für jede Person
- Die Fehlervarianzen beider Messungen sind gleich
• Tau-äquivalentes Modell
- Die Messfehler beider Messungen sind unkorreliert
- Die wahren Werte beider Messungen sind gleich
• Essenziell Tau-äquivalentes Modell
- Die Messfehler beider Messungen sind unkorreliert
- Die wahren Werte beider Messungen unterscheiden sich lediglich um eine additive
Konstante für jede Person
• Tau-kongenerisches Modell
- Die Messfehler beider Messungen sind unkorreliert
- Die wahren Werte beider Messungen unterscheiden sich lediglich um eine additive und eine multiplikative Konstante für jede Person
Definition Konstruktvalidität
Konstruktvalivität umfasst die empirischen Befunde, mit denen die Zuverlässigkeit der Interpretation von Testergebnissen im Sinne erklärender Konzepte gestützt wird.
Konstruktvalidierung (Ziele, Ursachen für Inkonsistenzen zw. Theorie und Beobachtung)
Ziele:
• .berprüfung der Korrektheit des nomologischen Netzes
• Beobachtete Testwerte zulässige Indikatoren für nicht beobachtbares Konstrukts?
--> Prüfen empirischer Gesetze mittels empirischer Beobachtung
• Ursachen für Inkonsistenzen zw. Theorie und Beobachtung:
- Fehler in Axiomen
- Falsche Ableitung der Korrespondenzregeln
- Verwendetes Testverfahren
• Hypothetisch-deduktiver Ansatz:
- Kein endgültiger Beleg, nur Falisifikation
Kritik der Konstruktvalidität
• Kein einzelner Wert zur Validitätsangabe
• Nur vorläufiger Charakter
• Vorgehen praktisch schwer umzusetzen
• Keine Formalisierung psychologischer Theorien
Stärke der Konstruktvalidität
Stärke
• exakte und theoriebasierte Aussagen darüber, wie die Testergebnisse interpretiert werden können
- Formulierung expliziter Annahmen über Zusammenhänge des untersuchten Konstrukts mit anderen Konstrukten
- Überprüfung anhand empirisch beobachtbarer Sachverhalte
Hypothetisch-deduktiver Ansatz (Inferenzstatistische Testung theoretischer Annahmen anhand empirischer Daten: Vorgehen
- Theoretische Annahmen
- Festlegung Effektgröße, a - und b - Fehler
- Berücksichtigung des statischen Verfahrens --> ANOVA, Regression, T-Test etc.
- Bestimmung der optimalen Stichprobengröße
- Durchführung der empirischen Untersuchung
• Formulierung spezifischer Null- und Alternativhypothesen --> entsprechen exakt der Fragestellung der Validitätsuntersuchung