Diagnostik selbstgenerierte Fragen

Bachelor Psychologie Uni Würzburgselbstgenerierte Fragen basierend auf Vorlesungs- & Tutoriumsfolien des SS21super VL um Überblick über Gütekriterien zu behalten: https://videoonline.edu.lmu.de/de/node/593

Bachelor Psychologie Uni Würzburgselbstgenerierte Fragen basierend auf Vorlesungs- & Tutoriumsfolien des SS21super VL um Überblick über Gütekriterien zu behalten: https://videoonline.edu.lmu.de/de/node/593


Kartei Details

Karten 501
Lernende 50
Sprache Deutsch
Kategorie Psychologie
Stufe Universität
Erstellt / Aktualisiert 22.07.2021 / 21.06.2025
Weblink
https://card2brain.ch/box/20210722_diagnostik_selbstgenerierte_fragen
Einbinden
<iframe src="https://card2brain.ch/box/20210722_diagnostik_selbstgenerierte_fragen/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Wie kann die Varianz eines Items bei dichotomen Items berechnet werden?

\(Var(Y_i)=p*q={{N_R}\over{N}}*1-p\)

Formel: K-R-Formula 20

\(Kon(Y_i)_{R-K-20}={{m}\over{m-1}}*({{Var(S)-\sum p*q)}\over{Var(S)}})\)

Konsistenmaß + Korrekturfaktor (gilt nur für dichtotome Items, weil bei denen \(Var(Y_i)=p*q\) gilt

m - Anzahl der Items

Formel: Cronbachs \(\alpha\)

\(\alpha = {{m}\over{m-1}}*(1-{{\sum Var(Y_i)}\over{Var(s)}})\)

einfaches Konsistenzmaß + Korrekturfaktor (& etwas umgeformt)

m- Anzahl der Items / Testhälften

gilt auch für nicht dichotome Items im Gegensatz zur K-R-Formula 20

Konsistenzmaße können als ______ des Testscores interpretiert werden

Reliabilitätsschätzer

weil es sich um eine hochgerechnete, standardisierte Kovarianz handelt was = Korrelation ist

Die Konsistenzmaße sind eine ____ Schranke der Reliabilität des Testscores.

untere

Welchen Wertebereich haben die K-R-Formula 20 & Cronbachs \(\alpha\)?

0 - 1

Eine hohe Konsistenz spricht für

Was sind die Nachteile der KTT gegenüber einer stochastischen Definition?

Was sind Gegenartgumente für den folgenden Kritikpuknt an der KTT?

Axiome der KTT sind nicht empirisch überprüfbar

  • viele sind aber Konsequenzen aus stochastischen Defis & können nicht falsch sein
  • notwendige Annahmen lassen sich mit SEM (Strukturgleichungsmodellen) überprüfen

Was sind Gegenargumente für den folgenden Kritikpunkt an der KTT?

Annahme einer absoluten Stabilität von True-Scores ist nur bei kurzen Messintervallen vertretbar.

  • Die Annahme ist nur bei der Retest-Methode zur Reliabilitätsschätzung nötig
    Paralleltest-Methode & Testhalbierungsmethode lösen das Problem

Was sind Gegenargumente für den folgenden Kritikpunkt an der KTT?

KTT setzt mindestens Intervallskalenqualität der Testscores voraus.

  • stimmt laut vielen Statistikern nicht
  • "the numbers do not know where they came from"

Was sind Gegenargumente für den folgenden Kritikpunkt an der KTT?

Reliabilitätsschätzungen sind stichprobenabhängig

Problem bei Generalisierbarkeit / Verbindlichkeit der Resultate

  • ja, aber es wird Repräsentativität angenommen

Was sind Gegenargumente für den folgenden Kritikpunkt an der KTT?

Gruppenstatistiken klassen sich logisch nicht auf den Einzelfall übertragen (der True-Score des diagnostischen Einzelfalls ist unbekannt)

  • ja, aber Reliabilitätskoeffizient als heuristische Abschätzung der Messgenauigkeit

Was bedeutet eine Reliabilität von .80?

80% der Unterschiede in den Testwerten sind auf die tatsächliche Merkmalsausprägung zurückzuführen, die restlichen 20 % sind Fehlervarianz

Wie sind Messfehler verteilt?

Normalverteilt

Die Kovarianz einer Variable mit sich selbst, ist das gleiche wie___

die Varianz dieser Variablen

\(Cov(x,x) = Var(x)\)

Welche Testarten haben eine mittlere Retest-Reliabilität?

Was bedeutet es, wenn Kronbachs \(\alpha\) nahe 0 ist?

Geringe Reliabilität oder geringe Konsistenz oder beides

Wie verändert sich Cronbachs \(\alpha\), wenn die Anzahl der Testitems steigt?

Was muss man beachten, wenn man Cronbachs alpha zur Bewertung des Tests /der Skala heranzieht?

Die Itemzahl, da Cronbachs Alpha mit der Itemzahl automatisch ansteigt

Erklären: Reliabilität-Validität-Dilemma

Ein Test muss genau messen, um Vorhersagen machen zu können = reliabel zu sein

Test muss reliabel sein, um valide sein zu können (das zu messen, was er messen soll)

ABER je reliabler, desto enger misst man auch das Konstrukt

je enger man misst, desto wahrscheinlicher ist es, dass man nicht das ganze Konstrukt misst

& je enger man misst, desto schlechter kann man Vorhersagen machen -> weniger Validität

Welche der Formulierungen ist /sind Teil der KTT Modell 1?

(MC-Frage aus Tutorium)

Die Reliabilität...?

(MC-Frage aus Tutorium)

Die Spearman-Brown-Formel...?

(MC-Frage aus Tutorium)

Welche Aussage/n zur internen Konsistenz ist / sind richtig?

(MC-Frage aus Tutorium)

Defi: Validität

Ausmaß mit dem ein Test tatsächlich das Konstrukt misst, ds er messen soll / zu messen vorgibt.

~ Gültigkeit

Eine hohe Validität erlaubt eine Generalisierung vom _____ Relativ auf das ______ Relativ

vom numerischen auf das empirische

also: hohe Validität = das gemessen haben was man messen wollte -> man kann von Gemessenen auf Welt Rückschlüsse ziehen

____ & _____ schaffen günstige Voraussetzungen für Validität

Objektivität & Reliabilität

Die Repräsentationstheorie der Messung besagt, dass die Messung eine linkstotale & rechtseindeutige Abbildung einer Objektmenge (= empiriesches Relativ ) in eine Wertmenge (numerisches Relativ) ist

Defi Inhaltsvalidität

Ausmaß, mit dem mittels Repräsentationsschluss vom Test auf das Zielmerkmal geschlossen werden kann

(Repräsentationsschluss: Stichprobe die man mit dem Test gemacht hat ist repräsentativ für die Population die die Verhaltensweisen des Zielmerkmals zeigt)

ALSO kann man (immer) von dem was der Test misst auf das gewünschte Zielmerkmal (Population von Verhaltensweisen) schließen

Ist die Berechnung der inhaltlichen Validität immer notwendig?

Nein, bei augenscheinlich gegebener inhalticher Validität ist keine formale Bestimmung notwendig

Wie kann die inhaltliche Validität quantitativ bestimmt werden?

  1. Defi des zu messenden Konstrukts (bergifflich / theorretisch)
  2. Testitems unabhängigen Experten vorlegen, damit die bewereten, ob sie mit der Definition aus 1. übereinstimmen
    1. Ratingskalen gringe Übereinstimmung - hohe Übereinstimmung
  3. Quantifizierung der Übereinstimmungen zwischen den Experten
    Intraklassenkorrelation, Konkordanzkoeffizient, Ü-Koeffizient

-> Inhaltvalidität = durchschnittliches Expertenurteil

-> Genauigkeit der Inhaltsvalidität = Berurteilungsübereinstimmung

Wie kann die inhaltliche Validität experimentell bestimmt werden?

  1. Defi des zu messenden Konstrukts (begrifflich / theoretisch)
  2. 2 unabhängige Expertengruppen erstellen Items anhand der Defi (rationale Methode)
  3. beide Itemsammlungen / Tests werden VPn vorgelegt
  4. Quantifizieren der Übereinstimmung zwischen den Testergebnissen
    Pearson-Korrelation

Testübereinstimmung = Maß der Inhaltsvalididtät

Was passt zur experimentellen Art der Bestimmung der Inhaltlsvalidität?

Was passt zur quantitativen Bestimmung der Inhaltsvalidität?

Was kann im Prozess der experimentellen Bestimmung der Inahltsvalidität vorkommen?

Was kann im Prozess der quantitativen Bestimmung der Inhaltsvalidität vorkommen?

Defi: Kriteriumsbezogene Validität

Ausmaß, mit dem mittels Korrelationsschluss vom Test auf das Zielmerkmal geschlossen werden kann

(Korrelationsschluss: muss empirisch ermittelt werden, indem Testwerte mit Außenkriterium korreliert werden (Außenkriterium: individuelle Unterschiede im Zielmerkmal, die unabhängig vom Test bestimmt werden können))

Was passt zum Korrelationsschluss?

Wie berechnet man den Validitätskoeffizienten?

= \(r_{tc}\)= Korrelation zwischen Test & Kriterium