Diagnostik selbstgenerierte Fragen
Bachelor Psychologie Uni Würzburgselbstgenerierte Fragen basierend auf Vorlesungs- & Tutoriumsfolien des SS21super VL um Überblick über Gütekriterien zu behalten: https://videoonline.edu.lmu.de/de/node/593
Bachelor Psychologie Uni Würzburgselbstgenerierte Fragen basierend auf Vorlesungs- & Tutoriumsfolien des SS21super VL um Überblick über Gütekriterien zu behalten: https://videoonline.edu.lmu.de/de/node/593
Kartei Details
Karten | 501 |
---|---|
Lernende | 50 |
Sprache | Deutsch |
Kategorie | Psychologie |
Stufe | Universität |
Erstellt / Aktualisiert | 22.07.2021 / 21.06.2025 |
Weblink |
https://card2brain.ch/box/20210722_diagnostik_selbstgenerierte_fragen
|
Einbinden |
<iframe src="https://card2brain.ch/box/20210722_diagnostik_selbstgenerierte_fragen/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Welche Annahmen folgen aus der essentiellen \(\tau\)-Äquivalenz bei der Retest-Methode?
Welche Folgen hat eine Verletzung der Annahmen der absoluten zeitlichen Stabilität des True-Scores & dass keine keine Testwiederholungseffkte gibt?
- Verletzung (beider Annahmen oder nur der 1.?): unsystematische Veränderung des True-Scores
-> Reduktion der \(Cov(Y_1,Y_2)\) -> Unterschätzung von \(Var(\tau)\) -> Unterschätzung von \(Rel(Y_i)\) - Verletzung der Annahme, dass es keine Testwiederholungseffekte gibt: systamtische Veränderung des True-Scores
-> Erhöhung der \(Cov(Y_1,Y_2)\) -> Überschätzung von \(Var(\tau)\) -> Überschätzung von \(Rel(Y_i)\)
Welche Annahmen folgen aus der Annahme des unkorrelierten Fehlers bei den unterschiedlichen Methoden zur doppelten Messung?
Welche Auswirkung hat eine Verletzung der Annahme, dass die Fehler unkorreliert sind bei der Reliabilitätsschätzung?
(Gilt für alle Methoden zur doppelten Messung)
Verletzung der Annahme unkorrelierter -> (positiv) korrelierte Fehler
-> Erhöhung der \(Cov(Y_1,Y_2)\) -> Überschätzung von \(Var(\tau)\) -> Überschätzung von \(Rel(Y_i)\)
Überschätzung der Reliabilität, weil Messfehler mit reingerechnet wird (Probleme mit der Validität)
Welche Realiabilitätsschätzung wird als hoch, mittel, niedrig bewertet?
- niedrig < .80
- mittel: .80 -.90
- hoch > .90
Beschreibe das Dilemma der Wahl des Zeitintervalls bei der Retest-Methode.
- langes Zeitintervall
- vermeidet Wiederholungseffelte (Erinnerungs- & Übungseffekte)
- kurzes Zeitintervall
- vermeidet Veränderung des True-Scores
-> gerade bei Leisungstest ist kurzes Intervall problematisch (für die ist Retest-Methode deswegen oft nicht die beste Wahl)
Für welche Art von Tests ist die Retest-Methode sinnvoll?
Welche Annahmen folgen aus der essentiellen \(\tau\)-Äquivalenz bei der Paralleltest-Methode?
Was folgt aus einer Verletzung der Annahme, dass beide Tests exakt denselben True-Score messen bei der Pralleltest-Methode?
Bei welchen Methoden zur doppelten Messung können Übungs- & Lerneffekte auftreten?
Wie läuft die Paralleltest-Methode ab?
Jeder Proband wird einmal mit zwei "parallelen" Formen des Tests untersucht
Fehlerübertragung = error propagation
wenn durch gleichen Testzeitpunkt systematische Fehler in beiden Tests/ Testhälften auftreten & dadurch Annahme der Unkorreliertheit der Fehler verletzt ist
Wann sind Testformen parallel?
Wann ist die Erstellung paralleler Testformen besonders schwierig?
Welche Art von Tests können leicht mit der Pralleltest-Methode doppelt gemessen werden?
reine Speed-Tests, da hier Items der beiden Tests sehr ähnlich/identisch sein können
ist dann de facto das selbe wie Retest-Methode
Wie ist der Ablauf bei der Testhalbierungs.Methode?
- Jeder Proband wird einmal mit einem Test untersucht
- Items werden auf 2 gleichgroße Testhälften aufgeteilt
Welche Aufteilungsmethoden gibt es bei der Testhalbierungs-Methode?
- Split-Half
1. & 2. Testhäfte (Problem: Ermüdungseffekte) - Odd-Even-Split
gerade & ungerade Itemsnummern - Random Split
zufällige Aufteilung - Aufteilung über Itemkennwerte
Paarlinge von Items mit gleicher Schwierigkeit / Trennschärfe
zufällige Zuweisung von jeweiligen Item aus Paarlingen auf die Tetshälften
Wie funktioniert die Aufteilung der Items bei der Testhalbierungs-Methode für Speed-Tests?
- Testscore = Anzahl der gelösten Items
-> werden nach der Testzeit halbiert
Welche Annahme folgt aus der essentiellen \(\tau\)-Äquivalenz bei der Testhalbierungs-Methode?
Welche Folgen hat die Verletzung der Annahme, dass beide Testhälften exakt denselben True-Score messen bei der Testhalbierungs-Methode?
Problematisch an der Testhalbierungsmethode ist, dass sie an sich nur eine Schätzung _____
der Reliabilität der TesHÄLFTEN gestattet (nicht des gesamten Tests)
Wie kann man die Problematik der Testhalbierungs-Methode (dass sie nur die Reliabilität für die Testhälften schätzt) lösen?
Hochrechnung der Reliabilität für den gesamten Test: Spearman-Brown-Formel
\(Rel(S)={{2*Rel(Y_1)}\over{1+Rel(Y_1)}}\)
Formel: Spearman-Brown-Formel
Allgemeine Formel: \(Rel(S) ={{k*Rel(Y)}\over{1+(k-1)*Rel(Y)}}\)
speziell für Verdopplung: \(Rel(S)={{2*Rel(Y_1)}\over{1+Rel(Y_1)}}\)
Rel(Y) = Reliabilität eines Tests
Rel(S) = Reliabilität des verlängerten Tests
k = Verlängerungsfaktor
Die ____-Methode kommt der Beschreibung einer instrumentellen Messgenauigkeit sehr nahe.
Wie wird die prophecy formula auch genannt?
Spearman-Brown-Formel
Welche Vorraussetzungen müssen erfüllt sein, damit man die Spearman-Brown-Formel anwenden darf?
zugefügten Testteile müssen homogen & äquivalent zum bestehenden Test sein
Wie sieht die Spearman-Brown-Formel nach k aufgelöst aus?
\(k={{Rel(S)*(1-Rel(Y))}\over{Rel(Y)*(1-Rel(S))}}\)
Welches Wort wird für den Schätzer der Reliabilität durch die Retest-Korrelation verwendet?
Was ist an den Begriffen der Retest-Reliabilität, Wiederholungreliabilität, Paralleltest-Reliabilität & Split-Half-Reliabilität problematisch?
Die unterschiedlichen Begriffe sind irreführend, da sie suggerieren es gäbe unterschiedliche Formen der Reliabilität, obwohl es nur eine gibt
Es geht bei den unterschiedlichen Namen eigentlich um die unterschiedlichen Shcätzmethoden, um die Reliabilität zu ermitteln
Wofür ist Teststabilität ein Synoym?
Was ist problematisch an der Retest-Korrelation (Methode zur Schätzung der Reliabilität)?
Problem: zeitliche Stabilität ist nicht = Reliabilität, kann sehr reliable State-Maße geben, die nicht sehr stabil sind
-> Konfusion von Reliabilität & Stabilität
(Retest-Korrelation wird sogar auch als Teststabilität bezeichnet)
Was bedeutet kongenerisch aus dem Lateinischen übersetzt?
Unterschiedliche Methoden führen meist zu unterschiedlichen Reliabilitätsschätzungen!
Die _____ dieser Schätzungen kommt dabei vermutlich der "wahren" Reliabilität am nächsten (solange die Annahme der unkorrelierten Fehlervariablen erfüllt ist).
Kann die Verträglichkeit der Annahmen der KTT mit empirischen Daten überprüfen?
Ja, mit Strukturgleichungsmodellen
strenge Überprüfung: min. 3 Y-Variablen müssen gemessen werden (wird in der Praxis nur selten gemacht)
Wie funktionieren Strukturgleichungsmodelle?
Sind Sonderform von Faktorenanalysen
Schätzen korrelative Zusammenhänge von Variablen
Einfacher: man versucht die Zusammenhänge vieler Variablen zu ermitteln, in ein "Netz zu betten" und zu organisieren / Struktur rein zu bringen
Damit kann man überprüfen, ob für das Modell aufgestellte Hypothesen zu den empirischen Daten passen
Wie lässt sich die Varianz des Testscores mit Hilfe der Konsistenzanalyse berechnen?
\(Var(S)=\sum Var(Y_i)+\sum Cov(Y_i,Y_j)\)
Varianz des Testscores = Summer der Itemvarianzen + Summe der Kovarianzen aller Items miteinander
Wie funktioniert die Konsistenzanalyse?
im Prinzip wie die Testhalbierungs-Methode, allerdings wird der Test in so viele Teile aufgeteilt wie er Items hat
-> Schätzung der Reliabilität der Items = Korrelationen zwischen allen Items
(Annahme, dass alle Items dieselbe True-Score-Variable messen muss gegeben sein)
Konsistenzanalyse: Wann ist die Konsistenz der Items hoch?
wenn alle Items etwas sehr ähnliches messen, weil dann \(\sum Cov(Y_i,Y_j)\) einen großen Anteil an \(Var(S)\) hat -> großes \({{\sum Cov(Y_i, Y_j)}\over{Var(S)}}\)
Zur Erinnerung:
\(Var(S) = \sum Var(Y_i)+\sum Cov(Y_i,Y_j)\)
Konsistenzanalyse: Wann ist die Konsistenz von Items niedrig?
wenn alle Items unterschiedliches messen, weil dann \(\sum Cov(Y_i,Y_j)\) einen geringeren Anteil an \(Var(S)\) ausmacht, somit ist \({{\sum Cov(Y_i,Y_j)}\over{Vars(S)}}\) klein
Formel: einfaches Konsistenzmaß
\(Kon(Y_i)={{\sum Cov(Y_i,Y_j)}\over{Var(S)}} = {{Var(S)-\sum Var(Y_I)}\over{Var(S)}}\)
= Anteil der Kovarianz der Items an der Varianz des Testscores