Testtheorie und Fragebogenkonstruktion

Testtheorie und Fragebogenkonstruktion

Testtheorie und Fragebogenkonstruktion


Set of flashcards Details

Flashcards 71
Language Deutsch
Category Psychology
Level University
Created / Updated 24.04.2017 / 27.12.2024
Weblink
https://card2brain.ch/box/20170424_testtheorie_und_fragebogenkonstruktion
Embed
<iframe src="https://card2brain.ch/box/20170424_testtheorie_und_fragebogenkonstruktion/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Was passiert bei der Verdopplung der Testlänge? 

DIe Fehlervarianz verdoppelt sich + eine Vervierfachung der wahren Varianz 

Wie wird das Konfidenzintervall der Fehler bei Normalverteiung ermittelt ? 

Durch die Standardnormalverteilung (z-Verteilung) 

Welche zwei Arten der Testwertinterpretation gibt es ? 

Normorientiert und kriteriumsorientiert

Was besagt der Prozentrang einer Testperson?

Prozentualer Flächenanteil der Häufigkeitsverteilung der Bezugsgruppe vom unteren Skalenende bis zum Testwert. --> wie viel Prozent der Bezugsgruppe hat einen Testwert erzielten der niedriger oder ebenso hoch ist wie der Wert der Testperson

Was gibt das Perzentil an? 

Welcher Testwert dem korrepsondierenden Prozentrang entspricht

Vorteil und Nachteil von Prozenträngen?

+-auch für nicht normalverteilte Variablen ermittelbar 

-- immer ordinalskaliert --> PR-Differenzen sind nicht aussagekräftig

Wofür braucht man den Standardmessfehler und Standardschätzfehler?

Um das Vertrauens/Konfidenzintervall zu berechnen (Statistische Absicherung von beobachteten Testwerten) 

Was ist der Unterschied zwischen dem Standardmessfehler und dem Standardschätzfehler? 

Standardmessfehler: Ausgangspunkt: Äquivalenzhypothese: Beobachteter Wert des Probanden ist gute Annährerung an den wahren Wert des Probanden (Keine Korrektur zur Mitte, aber ein breiteres KI bei Extremwerten = bessere Schätzung des KI für Extremwerte) 

Standardschätzfehler: Ausgangspunkt: Regressionshypothese: Wahrer Wert des Probanden muss aus beobachtetem Wert erst geschätzt werden, Korrektur zur Mitte: bei extremen beob. Werten ist bei Messwiederholung weniger extremer Wert zu erwarten

Vertrauensintervall nach Regressionshypothese schmaler als nach Äquivalenzhypothese --> aber bei hohen Reliabilität = ähnliche Ergebnisse

Erforderliche Festlegungen der EFA:

1). Art der Extraktionsmethode (z.B. Hauptskomponenten- oder Hauptachsenmethode) 

2). die Wahl des Abbruchkriteriums (z.B. Scree-Test oder Parallelanalyse)

3). die Methode der Faktorenrotation (z.B. orthogonal oder oblique Rotation)

Was sind Faktorladungen?

Ausmaß, wie stark die Ausprägung der Itemantwort von einem oder mehreren Faktoren beeinflusst wird (wie stark hängt individuelles Item mit Faktor zusammen. 

-zwischen -1 und +1 

-Bei unkorrelierten Faktoren: Korrelation: Item-Faktor 

-Bei korrelierten Faktoren: semipartielles Regressionsgewicht

Was ist der Faktorwert? 

Ausprägung einer Person auf einem Faktor

Was ist der Eigenwert eines Faktors und was bedeutet er im Kontext der PFA und der PCA? 

Die durch den Faktor erklärte Varianz aller Items --> zeigt die Wichtigkeit des Faktors 

-bei unkorrelierten Faktoren: quadierte Faktorladungen aller Variablen aufsummiert (spaltenweise) 

-Variablen sind z-standardisert: Varianz von 1, dementsprechend immer wenn > 1, dann erklärt Faktor mehr Varianz als eine einzelne Variable 

Was ist die Kommunalität einer Variable und was bedeutet sie im Kontext der PFA und PCA

die durch alle Faktoren aufgeklärte Varianz einer Variable

-bei unkorrelierten Faktoren: Summe der quadrierten Ladungen über alle Faktoren (zeilenweise) 

PCA: max. 1, da die Variablen z-standardisiert sind 

PFA: max. so groß wie die Reliabilität der Variablen 

bei niedriger Kommunlalität: misst etwas anderes als das Konstrukt, jängt nicht gut den anderen Faktoren zusammen

Was ist die Einzigartigkeit ? 

- 1-h2

- Varianz eines Items, die das Item mit keinem anderen teilt

- Setzt sich aus Spezifität (systematischer Varianzanteil, der nicht durch andere Faktoren erklärt werden kann) und Messfehler des Items zusammen) 

Extraktionsmethoden (3)

-Hauptkomponentenanalyse, PCA

- Hauptachsenanalyse PFA

- Maximum-Likelihood-Faktorenanalyse

Hauptkomponentenanalyse

Annahme: messfehlerfreie Erhebung

• Ziel: Dimensionsreduktion --> Entstehung von nicht erklärter Varianz (Uniqueness)

• Hauptkomponenten enthalten aber tatsächlich Messfehler

• Aufzuklärende Varianz jeder einzelnen stand. Variablen = 1 --> zu erklärende Gesamtvarianz = Zahl der Variablen

Hauptachsenanalyse

• Annahme: Variablen enthalten auch Varianz durch Messfehler

• Ziel: Identifikation latenter Konstrukte

• Faktoren erklären Beziehung der Variablen („wahre Varianz“)

• Schätzung der wahren Varianz (= Reliabilität) einer Variable

• unerklärter Varianzanteil enthält systematische und unsystematische Varianz

Maximum-Likelihood (ML):

• Ziel: latente Faktoren als Ursache für Korrelation in der Population aufdecken

• Schätzt aus Stichprobenkorrelationsmatrix Populationsmatrix

• Erfordert große Stichprobe und multivariate Normalverteilung der Variablen

• Möglichkeit zu Modelltest (χ2-Test)

• H0: Das Modell passt zu den Daten

Abbruchkriterien + Beschreibung derer 

Kaiser-Kriterium:

- alle Faktoren mit Eigenwert > 1, erklären mehr Varianz als eine Variable

- Problem: häufig Überschatzung der Faktorenzahl, da zufällig Eigenwerte > 1 möglich

• Scree-Test/ Screeplot:

- Eigenwerte der Faktoren gegen Faktorenzahl abgetragen (nach Größe) -->alle Faktoren vor dem Knick extrahiert

Parallelanalyse

Vorgehen:

1. Zufallsdaten generiert - die den empirischen Daten entsprechen

2. Extrahieren von Faktoren

3. Alle Faktoren extrahieren, wenn Eigenwerten > gemittelte Eigenwerte

Was ist der MAP-Test? 

- Durchführung einer Hauptkomponentenanalyse

- Bestimmung der Komponentenwerte der Personen

- Auspartialisieren aus Ausgangskorrelationsmatrix (durch diese Komponente erklärte Varianz eliminiert) --> übrig bleibt Residualmatrix (enthält Partialkorrelationen)

– Quadrieren und Mitteln der Partialkorrelationen oberhalb der Diagonale --> mittlere quadrierte Partialkorrelation (MAP)

- Wiederholen der Schritte (angefangen mit Residualmatrix) bis sich die mittlere quadrierte Partialkorrelation nicht mehr reduzieren lässt

- Extraktion der Zahl an Komponenten, bei der MAP am geringsten ist (hier ist systematische Varianz der Korrelationsmatrix ausgeschöpft)

- Auch im Rahmen der ML oder Hauptachsenanalyse verwendbar

Was sind die Unterschiede zwischen der Obliquen und Orthoginalen Rotationsmethode

--> Orthogonal immer bei unkorrelierten (wenn es keine anderen theoretischen Annahmen über Korreliertheit gibt (laut Moosbrugger) 

-> Eid: Standard Oblique, da in der Psychologie immer von Korreliertheit ausgegangen werden muss

Nenne die 4 Anwendungsvoraussetzung der Exploratorischen Faktor Analyse (EFA)

1). Substantielle Korrelationen der Items (KMO-Koeffizient, MSA-Koeffizient, Bartlett´s Test auf Sphärizität)

2). Unverzerrte Zusammenhänge (z.b: Ausreißer) 

3). Ausreichende Itemanzahl und ausreichende Itemreliabilität (mind. 4 Items pro Faktor, Achten auf Reliabilitäten)

4.) Ausreichende Stichprobengröße (Abhängig von der Kommunalität und Anzahl der Items pro Faktor)

Zusammenfassung der EFA (Bild)X$

Vergleich EFA - CFA 

Was sind endogene oder exogene Variablen ? 

Endogene Variablen: abhängige Variablen, auf die ein Pfeil zeigt 

Exogene Variablen: unabhängige Variablen, auf die kein Pfeil zeigt / vin denen ein oder mehrere Pfeile ausgehen

Was ist der Unterschied zwischen einem Messmodell und einem Strukturmodell? 

Definition hierarchisch geschachtelter Modelle

= Modelle, welche dieselbe Modellstruktur aufweisen und sich nur dadurch unterscheiden, dass einzelne Parameter zusätzlich fixiert oder freigesetzt werden. (Modellstruktur bleibt ansonsten aber erhalten) 

Welche drei Möglichkeiten gibt es um ein identifizierbares Modell zu erhalten ? 

1. Pro Faktor fixieren einer Faktorladung auf 1 

2. Fixieren der Varianz der latenten Variablen auf 1 (NICHT für Längsschnittstudien oder Multigruppenanalysen) 

3. Parameterfixierung durch Modellannahmen 

Welche drei Modellidentifikationen gibt es ? Welches ist besonders sinnvoll? 

1. gerade identifizierte Modell (eine einzige Lösung für den zu schätzenden Parameter, df=0, kein Modellfit möglich) 

2. unteridentifiziertes Modell (es gibt unendlich viele Möglichkeiten, mehr zu schätzende als bekannte Parameter --> nicht für Analysen mit Strukturgleichungsmodellen anwendbar) 

3. überidentifizierte Modell (mehr bekannte als zu schätzende Parameter --> kann näherungsweise gelöst werden) 

Beurteilung von FIt-Maßen bei der Modellevaluation (CFA)

Beschreibe inkrementelle/ komparative Fit-Indizes 

hier wird das Zielmodell mit einem Null- oder Independencemodell verglichen

• Null- oder Independence Modell: nur die Varianzen der Variablen werden geschätzt und alle anderen Parameter auf 0 fixiert

Tucker Lewis Index (TLI, oder auch NNFI)

NFI (Normed Fit Index), sollte groß sein (≥ .95)

CFI (Comparative Fit Index), sollte groß sein (≥ .97)

• Wertebereich zwischen 0 und 1, wobei ein höherer Wert für einen besseren Modell Fit steht

Was bedeutet Sparsamkeit im Zusammenhang mit Fit-Indizes? 

a) Sparsamkeit Fit-Indizes beziehen den Faktor der Sparsamkeit eines Modells mit in die Bewertung der Modellgüte ein

• Sparsam = Modelle mit wenigen zu schätzenden Parametern

1. Akaike Information Criterion (������): Abgleich anhand der Freiheitsgrade / frei zu schätzenden Parameter

2. Bayesian Information Criterion (BIC): bezieht die Stichprobengröße mit ein und bestraft Anzahl Parameter noch stärker als der ������

niedriger Wert = besserer Modellfit

• alleine können die Kennwerte keine Aussage über den Modellfit machen, sie dienen nur zum Vergleich von Modellen

Äquivalenz von Messungen: welche Arten der Messungen werden unterschieden? 

• Paralleles Modell

- Die Messfehler beider Messungen sind unkorreliert

- Die wahren Werte beider Messungen sind gleich

- Die Fehlervarianzen beider Messungen sind gleich

• Essenziell paralleles Modell

- Die Messfehler beider Messungen sind unkorreliert

- Die wahren Werte beider Messungen unterscheiden sich lediglich um eine additive Konstante für jede Person

- Die Fehlervarianzen beider Messungen sind gleich

• Tau-äquivalentes Modell

- Die Messfehler beider Messungen sind unkorreliert

- Die wahren Werte beider Messungen sind gleich

• Essenziell Tau-äquivalentes Modell

- Die Messfehler beider Messungen sind unkorreliert

- Die wahren Werte beider Messungen unterscheiden sich lediglich um eine additive

Konstante für jede Person

• Tau-kongenerisches Modell

- Die Messfehler beider Messungen sind unkorreliert

- Die wahren Werte beider Messungen unterscheiden sich lediglich um eine additive und eine multiplikative Konstante für jede Person

Welche Arten von Validität gibt es ? 

Definition Konstruktvalidität

Konstruktvalivität umfasst die empirischen Befunde, mit denen die Zuverlässigkeit der Interpretation von Testergebnissen im Sinne erklärender Konzepte gestützt wird. 

Nomologisches Netz

Konstruktvalidierung (Ziele, Ursachen für Inkonsistenzen zw. Theorie und Beobachtung)

Ziele:

• .berprüfung der Korrektheit des nomologischen Netzes

• Beobachtete Testwerte zulässige Indikatoren für nicht beobachtbares Konstrukts?

--> Prüfen empirischer Gesetze mittels empirischer Beobachtung

• Ursachen für Inkonsistenzen zw. Theorie und Beobachtung:

- Fehler in Axiomen

- Falsche Ableitung der Korrespondenzregeln

- Verwendetes Testverfahren

• Hypothetisch-deduktiver Ansatz:

- Kein endgültiger Beleg, nur Falisifikation

Kritik der Konstruktvalidität

• Kein einzelner Wert zur Validitätsangabe

• Nur vorläufiger Charakter

• Vorgehen praktisch schwer umzusetzen

• Keine Formalisierung psychologischer Theorien

Stärke der Konstruktvalidität

Stärke

exakte und theoriebasierte Aussagen darüber, wie die Testergebnisse interpretiert werden können

- Formulierung expliziter Annahmen über Zusammenhänge des untersuchten Konstrukts mit anderen Konstrukten

- Überprüfung anhand empirisch beobachtbarer Sachverhalte

Hypothetisch-deduktiver Ansatz (Inferenzstatistische Testung theoretischer Annahmen anhand empirischer Daten: Vorgehen

- Theoretische Annahmen

- Festlegung Effektgröße, a - und b - Fehler

- Berücksichtigung des statischen Verfahrens --> ANOVA, Regression, T-Test etc.

- Bestimmung der optimalen Stichprobengröße

- Durchführung der empirischen Untersuchung

• Formulierung spezifischer Null- und Alternativhypothesen --> entsprechen exakt der Fragestellung der Validitätsuntersuchung