Testtheorie und Fragebogenkonstruktion

Testtheorie und Fragebogenkonstruktion

Testtheorie und Fragebogenkonstruktion


Fichier Détails

Cartes-fiches 71
Langue Deutsch
Catégorie Psychologie
Niveau Université
Crée / Actualisé 24.04.2017 / 27.12.2024
Lien de web
https://card2brain.ch/box/20170424_testtheorie_und_fragebogenkonstruktion
Intégrer
<iframe src="https://card2brain.ch/box/20170424_testtheorie_und_fragebogenkonstruktion/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Konstruktvalidierung: Berücksichtigung der Reliabilität

Konstruktvalidierung: Berücksichtigung der Reliabilität

• Psych. Tests: fast nie optimale (messfehlerbehaftet)

• Korrelation kann max. so groß sein wie Korrelation der

wahren Werte und der zugrunde liegenden Konstrukte

• Strukturgleichungsmodelle/CFA

- Explizite Berücksichtigung der Messfehler

- Direkte Schätzung der wahren Werte

• Doppelte Minderungskorrektur (Kristof, 1983; Spearman, 1904)

- Manifeste Korrelationen

- Korrektur des beobachtbaren Zusammenhangs nach oben

Welchen Koeffizienten gibt die Validitätsdiagonale an ? 

Welchen Koeffizienten gibt die diskriminante Validität an ? 

Heterotrait-Heteromethod-Koeffizient 

Heterotrait-Monomethod-Koeffizient

Wie soll mit dem Problem der Interpretation der diskriminanten Validität umgegangen werden? 

Umgang a priori: 

-Dezidierte Annahmen über Höhe der max. Korrelation 

-Festlegung der optimalen Stichprobengröße 

-a und ß Fehler

--> dies verringert die Wahrscheinlichkeit, Verletzungen der Annahmen der diskriminanten Validität aufgrund zu geringer Stichprobengröße zu übersehen

Definition eines Methodeneffekt: 

= verschiedene systematische Varianzquellen, die sich über den Trait hinaus auf die Validität der Messung auswirken können

Quellen: 

-Messinstrument 

-Beurteiler 

-Kontext

Welche Analysemethoden der MTMM gibt es ? 

-korrelationsbasierte Analyse

-Varianzanalytische Analyse 

-Exploratorisch faktorenanalytische Analyse 

-konformatorisch faktorenanalytische Analyse

Welcher Hinweis spricht für korrelierte Methoden? 

Erhöhte Korrelationen versch. Traits mit unterschiedlichen Methoden (spricht gegen Validität) 

Welche Kritk kann man an der korrelationsbasierten Methode üben? (MTMM)

• Häufigkeitsauszählungen und Einzelvergleiche--> nur grober Überblick, kein zufallskritisches Vorgehen

• Inspektion manifester Variablen (nicht latente Traits)

• Keine unabhängige Bestimmung konvergenter und diskriminanter Validität

• Keine exakten Entscheidungsregeln --> subjektive Auswertung

--> Lösung: konfirmatorische Analyse (CFA)

Vorteile der konfimatorischen MTMM-Analysen

• Analyse der Korrelationsmatrizen mit konfirmatorischen Faktorenanalysen

• Erlaubt Trennung von Trait-, Methoden- und Messfehleranteilen

• Erlaubt .berprüfung der Gültigkeit der zugrunde liegenden Annahmen, z. B. .berprüfung der Eindimensionalität der einzelnen Traits und der Unkorreliertheit oder Korreliertheit von Methoden- oder Traitfaktoren

• Möglichkeit, die latenten Traitfaktoren mit Kriterien in Beziehung zu setzen --> Kriteriumsvalidität auf latenter Ebene überprüfen

Arten von Modellen:

--> Modelle mit Trait- und Methodenfaktoren

--> Modelle mit Traitfaktoren und korrelierten Messfehlern

Wie sieht die das CFA-Modell in dem Traits und Methoden als Faktoren spezifiziert werden gernauer aus ? 

Aufbau des Modells

- mindestens drei Traits

- mindestens drei Methoden

- mindestens 9 (3 Å~ 3) Indikatoren (Messvariablen)

- jeder Indikator lädt jeweils auf einem Traitfaktor und auf einem Methodenfaktor, nicht aber auf den anderen Faktoren

- Traitfaktoren und die Methodenfaktoren können jeweils untereinander korrelieren, es dürfen jedoch keine Beziehungen zwischen diesen beiden Faktorengruppen bestehen

Wovon geht die Item-Response-Theorie aus ? (Bild) 

•Testtheorie: Zusammenhang von Testverhalten und dem zu erfassenden psychischen Merkmal

•Psychologische Konstrukte nicht direkt beobachtbar

Was bedeutet lokale stochastische Unabhängigkeit ? 

Korrelation zwischen den Antwortvariablen verschwindet, wenn man die lantente Variable auf einem bestimmten Wert (auf einer lokalen Stufe = eine Gruppe von Personen die die gleichen Werte auf der Latenten Variable hat) konstant hält 

--> Korrelationsmuster: bei heterogener Gruppe Korrelation zwischen den Items, bei homogener Gruppe (lokal), keine Korrelation --> Hinweis dass die Items das latente Konstrukt messen. 

 

 

Wie sind die IRT-Modelle eingeteilt (Bild)

Bechreibe das Guttman-Modell

Annahme: es gibt für jedes dichotim beantwortete Item einen bestimmten Wert auf der Ksi-Skale, ab dem das Item gelöst bzw. bejaht wird. (je weiter rechts desto schwieriger das Item) Lösungwahrscheinlichkeit springt von 0 auf 1 (wenn Person höhere Fähigkeit als die Aufgabenschwierigkeit besitzt) -> keine reellen Daten entsprechen diesem Modell

Kritik: Modellverletzung z.B. beim Abschreiben 

Wie sehen die Kurvenverläufe Rasch-homogener Items aus ? (bei unterschiedlicher Schwierigkeit) 

-haben alle den gleichen Anstieg/Kurvenverlauf, aber der Start ist verschoben, wenn sich nur die Schwierigkeit unterscheidet

Eigenschaften des Rasch-Modells

- lokale stochastische Unabhängigkeit

- Eindimensionalität & Itemhomogenität

- Anzahl gelöster Aufgaben als „erschöpfende Statistik“

- spezifische Objektivität der Vergleiche

- Stichprobenunabhängigkeit

- Prüfbarkeit

--> Diese Eigenschaften folgen aus der Modelldefinition des Rasch-Modells; sie gelten nur für Items, für die das Rasch-Modell gilt!

Was bedeutet Itemhomogenität? 

Antwortverhalten nur von der latenten Variablen und keinem anderen Merkmal abhängig

• Konsequenz:

Manifeste Variablen müssen Bedingung der lokalen stochastischen Unabhängigkeit genügen, damit man von Itemhomogenität ausgehen kann

• Untersuchbar anhand von Korrelationen

- Latente Variable ξ wird auf einem bestimmten Wert (der lokalen Stufe ξv) konstant gehalten

- Wenn dann die Korrelationen zwischen den Antwortvariablen verschwinden: lokale stochastische Unabhängigkeit --> Itemhomogenität

Wie sieht die Lösungswahrscheinlichkeit für eine Gruppe mit einer bestimmten Fähigkeit aus, bei der entweder das Item zum Raschmodell passt oder nicht passt

Was bedeutet spezifische Objektivität? (Rasch-Modell) 

-Vergleiche zwischen Aufgaben/Personen immer unabhängig von Personen/Aufgabe 

--> 

-Unterschied zwischen 2 Itemschwierigkeiten ist immer gleich, egal mit welcher Person 

-Unterschied zwischen 2 Personenfähigkeiten immer gleich, egal mit welcher Aufgabe

Überprüfung: Produkt der Einzelwahrscheinlichkeit muss Wahrscheinlichkeit entsprechen beide Items zusammen zu lösen

Was bedeutet die Item-Informations-Funktion und wo ist ihr Maximum ? -

-Ableitung der IC-Funktion: Stärkster Zuwachs, wenn Itemschwierigkeit = Merkmalsausprägung

Wie kann die individuelle Testgenauigkeit gesteigert werden? 

-Steigerung der Itemzahl 

-Geeignete Itemauswahl (Items mit hohen individuellen Informationsbeiträgen)

Wie sehen die ICCs des 1PL-Modell aus ? 

-alle Itemfunktionen haben den gleichen Anstieg und sind parallel auf der x-Achse verschoben

Wie sieht das Birnbaum-Modell ("2PL"-Modell) aus und inwiefern unterscheidet es sich vom dichotomen Raschmodell ("1PL"-Modell)

Es hat noch einen weiteren Parameter bis auf die Schwierigkeit, nämlich den Itemdiskriminationsparameter

Wie sehen die ICC´s des 3PL-Modell aus ? Inwiefern unterscheidet sich das 3PL-Modell vom Raschmodell? 

-besitzt im Gegensatz zum Raschmodell noch den Itemdiskriminationsparameter und den Rateparameter 

Was sind Vorteile und Nachteile der Birnbaum-Modell? 

• In den Birnbaum-Modellen werden „vorteilhafte“ Eigenschaften aufgegeben (z.B. spezifische Objektivität), das könnte aber auch realistischer in der Abbildung von Itemeigenschaften sein.

• Empirische .berprüfung ausschließlich mit „Anpassungstests“ (sog. Goodness-of-Fit-Maßen), die feststellen, wie gut die beobachteten Daten zum postulierten Modell passen, ohne aber einen sicheren Rückschluss auf die Geltung der Modellimplikationen zu erlauben.

• Beim Raschmodell können diese Implikationen (z.B. spezifische Objektivität, Stichprobenunabhängigkeit, Intervallskalierung, Summenwerte als erschöpfende Statistik) teilweise mit Modelltests überprüft werden.

Definition adaptives Testen

- expliziter, vorab festgelegter adaptiver Algorithmus zur Itemauswahl

- Items entsprechen den Annahmen eines ad.quaten Messmodells

Voraussetzung für das Nutzen der Items zum adaptivem Testen? 

• Menge aller Testitems (der sog. Itempool) weist Konformität mit den Annahmen des verwendeten IRT-Modells auf

• für IRT-konforme Items wird lokale stochastische Unabhängigkeit angenommen

Mehrstudige Strategien des adaptiven Testens, welche 2 Formen gibt es ? + Beschreibe sie

- fest verzweigte Strategie (.fixed-branched strategy.)

• Beginn: Item mittlerer Schwierigkeit für alle

• Danach: je nach Antwort schwierigeres oder leichteres Item (bereits vor Testbeginn festgelegt, welches)

• Ende: Schätzung der individuellen Merkmalsauspr.gung (Schwierigkeit des Items, das als nächstes vorgelegt worden w.re oder mittlere Schwierigkeit aller im Testverlauf vorgelegten Items inkl. des Items, das als nächstes vorgelegt worden w.re, aber ohne das erste Item, das für alle Probanden identisch war)

- maßgeschneiderte Strategien (.tailored strategy.)

• Sehr feine Anpassung der vorzugebenden Items an das Antwortverhalten der Probanden möglich

• Setzt Computer voraus

• Verzweigung ergibt sich erst w.hrend der Testung (.variable branched tests.)

Welche sind mögliche Abbruchkriterium für eine Beedigung eines adaptiven Testes? 

- eine bestimmte Anzahl von Items vorgelegt wurde und/oder

- der Standardfehler der Personenparametersch.tzung hinreichend klein ist und/oder

- eine maximale Testzeit erreicht wurde oder

- alle im Itempool verfügbaren Items vorgelegt wurden

Vorteile computerbasierte Testadministraion 

+ hohe Testsicherheit

+ standardisierter Testablauf

+ probandenbestimmte Testgeschwindigkeit

+ schnelle und fehlerfreie Testwertbestimmung

+ Auswertung ohne psychometrisches Fachwissen

+ schnelle Ergebnisrückmeldung

+ Möglichkeit zur Verwendung innovativer Itemformate

Nachteile computerbasierter Testadministration 

- hoher Entwicklungsaufwand

- Aufwand durch die Bereitstellung von Computern am Testort

- teilweise höhere Kosten

- problematische Fairness hinsichtlich computerbezogener Personenmerkmale (z. B. Erfahrung, .ngstlichkeit)