Diagnostik selbstgenerierte Fragen
Bachelor Psychologie Uni Würzburgselbstgenerierte Fragen basierend auf Vorlesungs- & Tutoriumsfolien des SS21super VL um Überblick über Gütekriterien zu behalten: https://videoonline.edu.lmu.de/de/node/593
Bachelor Psychologie Uni Würzburgselbstgenerierte Fragen basierend auf Vorlesungs- & Tutoriumsfolien des SS21super VL um Überblick über Gütekriterien zu behalten: https://videoonline.edu.lmu.de/de/node/593
Kartei Details
Karten | 501 |
---|---|
Lernende | 50 |
Sprache | Deutsch |
Kategorie | Psychologie |
Stufe | Universität |
Erstellt / Aktualisiert | 22.07.2021 / 21.06.2025 |
Weblink |
https://card2brain.ch/box/20210722_diagnostik_selbstgenerierte_fragen
|
Einbinden |
<iframe src="https://card2brain.ch/box/20210722_diagnostik_selbstgenerierte_fragen/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Wie kann die Varianz eines Items bei dichotomen Items berechnet werden?
\(Var(Y_i)=p*q={{N_R}\over{N}}*1-p\)
Formel: K-R-Formula 20
\(Kon(Y_i)_{R-K-20}={{m}\over{m-1}}*({{Var(S)-\sum p*q)}\over{Var(S)}})\)
Konsistenmaß + Korrekturfaktor (gilt nur für dichtotome Items, weil bei denen \(Var(Y_i)=p*q\) gilt
m - Anzahl der Items
Formel: Cronbachs \(\alpha\)
\(\alpha = {{m}\over{m-1}}*(1-{{\sum Var(Y_i)}\over{Var(s)}})\)
einfaches Konsistenzmaß + Korrekturfaktor (& etwas umgeformt)
m- Anzahl der Items / Testhälften
gilt auch für nicht dichotome Items im Gegensatz zur K-R-Formula 20
Konsistenzmaße können als ______ des Testscores interpretiert werden
Reliabilitätsschätzer
weil es sich um eine hochgerechnete, standardisierte Kovarianz handelt was = Korrelation ist
Die Konsistenzmaße sind eine ____ Schranke der Reliabilität des Testscores.
untere
Welchen Wertebereich haben die K-R-Formula 20 & Cronbachs \(\alpha\)?
0 - 1
Eine hohe Konsistenz spricht für
Was sind die Nachteile der KTT gegenüber einer stochastischen Definition?
Was sind Gegenartgumente für den folgenden Kritikpuknt an der KTT?
Axiome der KTT sind nicht empirisch überprüfbar
- viele sind aber Konsequenzen aus stochastischen Defis & können nicht falsch sein
- notwendige Annahmen lassen sich mit SEM (Strukturgleichungsmodellen) überprüfen
Was sind Gegenargumente für den folgenden Kritikpunkt an der KTT?
Annahme einer absoluten Stabilität von True-Scores ist nur bei kurzen Messintervallen vertretbar.
- Die Annahme ist nur bei der Retest-Methode zur Reliabilitätsschätzung nötig
Paralleltest-Methode & Testhalbierungsmethode lösen das Problem
Was sind Gegenargumente für den folgenden Kritikpunkt an der KTT?
KTT setzt mindestens Intervallskalenqualität der Testscores voraus.
- stimmt laut vielen Statistikern nicht
- "the numbers do not know where they came from"
Was sind Gegenargumente für den folgenden Kritikpunkt an der KTT?
Reliabilitätsschätzungen sind stichprobenabhängig
Problem bei Generalisierbarkeit / Verbindlichkeit der Resultate
- ja, aber es wird Repräsentativität angenommen
Was sind Gegenargumente für den folgenden Kritikpunkt an der KTT?
Gruppenstatistiken klassen sich logisch nicht auf den Einzelfall übertragen (der True-Score des diagnostischen Einzelfalls ist unbekannt)
- ja, aber Reliabilitätskoeffizient als heuristische Abschätzung der Messgenauigkeit
Was bedeutet eine Reliabilität von .80?
80% der Unterschiede in den Testwerten sind auf die tatsächliche Merkmalsausprägung zurückzuführen, die restlichen 20 % sind Fehlervarianz
Wie sind Messfehler verteilt?
Normalverteilt
Die Kovarianz einer Variable mit sich selbst, ist das gleiche wie___
die Varianz dieser Variablen
\(Cov(x,x) = Var(x)\)
Welche Testarten haben eine mittlere Retest-Reliabilität?
Was bedeutet es, wenn Kronbachs \(\alpha\) nahe 0 ist?
Geringe Reliabilität oder geringe Konsistenz oder beides
Wie verändert sich Cronbachs \(\alpha\), wenn die Anzahl der Testitems steigt?
Was muss man beachten, wenn man Cronbachs alpha zur Bewertung des Tests /der Skala heranzieht?
Die Itemzahl, da Cronbachs Alpha mit der Itemzahl automatisch ansteigt
Erklären: Reliabilität-Validität-Dilemma
Ein Test muss genau messen, um Vorhersagen machen zu können = reliabel zu sein
Test muss reliabel sein, um valide sein zu können (das zu messen, was er messen soll)
ABER je reliabler, desto enger misst man auch das Konstrukt
je enger man misst, desto wahrscheinlicher ist es, dass man nicht das ganze Konstrukt misst
& je enger man misst, desto schlechter kann man Vorhersagen machen -> weniger Validität
Welche der Formulierungen ist /sind Teil der KTT Modell 1?
(MC-Frage aus Tutorium)
Die Reliabilität...?
(MC-Frage aus Tutorium)
Die Spearman-Brown-Formel...?
(MC-Frage aus Tutorium)
Welche Aussage/n zur internen Konsistenz ist / sind richtig?
(MC-Frage aus Tutorium)
Defi: Validität
Ausmaß mit dem ein Test tatsächlich das Konstrukt misst, ds er messen soll / zu messen vorgibt.
~ Gültigkeit
Eine hohe Validität erlaubt eine Generalisierung vom _____ Relativ auf das ______ Relativ
vom numerischen auf das empirische
also: hohe Validität = das gemessen haben was man messen wollte -> man kann von Gemessenen auf Welt Rückschlüsse ziehen
____ & _____ schaffen günstige Voraussetzungen für Validität
Objektivität & Reliabilität
Die Repräsentationstheorie der Messung besagt, dass die Messung eine linkstotale & rechtseindeutige Abbildung einer Objektmenge (= empiriesches Relativ ) in eine Wertmenge (numerisches Relativ) ist
Defi Inhaltsvalidität
Ausmaß, mit dem mittels Repräsentationsschluss vom Test auf das Zielmerkmal geschlossen werden kann
(Repräsentationsschluss: Stichprobe die man mit dem Test gemacht hat ist repräsentativ für die Population die die Verhaltensweisen des Zielmerkmals zeigt)
ALSO kann man (immer) von dem was der Test misst auf das gewünschte Zielmerkmal (Population von Verhaltensweisen) schließen
Ist die Berechnung der inhaltlichen Validität immer notwendig?
Nein, bei augenscheinlich gegebener inhalticher Validität ist keine formale Bestimmung notwendig
Wie kann die inhaltliche Validität quantitativ bestimmt werden?
- Defi des zu messenden Konstrukts (bergifflich / theorretisch)
- Testitems unabhängigen Experten vorlegen, damit die bewereten, ob sie mit der Definition aus 1. übereinstimmen
- Ratingskalen gringe Übereinstimmung - hohe Übereinstimmung
- Quantifizierung der Übereinstimmungen zwischen den Experten
Intraklassenkorrelation, Konkordanzkoeffizient, Ü-Koeffizient
-> Inhaltvalidität = durchschnittliches Expertenurteil
-> Genauigkeit der Inhaltsvalidität = Berurteilungsübereinstimmung
Wie kann die inhaltliche Validität experimentell bestimmt werden?
- Defi des zu messenden Konstrukts (begrifflich / theoretisch)
- 2 unabhängige Expertengruppen erstellen Items anhand der Defi (rationale Methode)
- beide Itemsammlungen / Tests werden VPn vorgelegt
- Quantifizieren der Übereinstimmung zwischen den Testergebnissen
Pearson-Korrelation
Testübereinstimmung = Maß der Inhaltsvalididtät
Was passt zur experimentellen Art der Bestimmung der Inhaltlsvalidität?
Was passt zur quantitativen Bestimmung der Inhaltsvalidität?
Was kann im Prozess der experimentellen Bestimmung der Inahltsvalidität vorkommen?
Was kann im Prozess der quantitativen Bestimmung der Inhaltsvalidität vorkommen?
Defi: Kriteriumsbezogene Validität
Ausmaß, mit dem mittels Korrelationsschluss vom Test auf das Zielmerkmal geschlossen werden kann
(Korrelationsschluss: muss empirisch ermittelt werden, indem Testwerte mit Außenkriterium korreliert werden (Außenkriterium: individuelle Unterschiede im Zielmerkmal, die unabhängig vom Test bestimmt werden können))
Was passt zum Korrelationsschluss?
Wie berechnet man den Validitätskoeffizienten?
= \(r_{tc}\)= Korrelation zwischen Test & Kriterium