Statistik
Eigene Fragen
Eigene Fragen
Set of flashcards Details
Flashcards | 116 |
---|---|
Language | Deutsch |
Category | Psychology |
Level | University |
Created / Updated | 10.07.2024 / 17.07.2024 |
Weblink |
https://card2brain.ch/box/20240710_statistik
|
Embed |
<iframe src="https://card2brain.ch/box/20240710_statistik/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Create or copy sets of flashcards
With an upgrade you can create or copy an unlimited number of sets and use many more additional features.
Log in to see all the cards.
Welche Aussagen zu Fabricated Data sind korrekt?
Nennen sie mindestens drei Ursachen, die fabricated data begünstigen.
- Publikationsdruck (Publish or Perish)
- steile Hierarchien
- Konkurrenzdruck
- keine Kontrollinstanzen
- Wirtschaftliche Interessen der Publisher
Welche Aussagen zu Sloppy Science sind korrekt?
Nennen Sie mindestens 5 Gründe, wieso die meisten veröffentlichten Befunde falsch sein könnten.
- Kleine Stichproben und kleine Effekte
- geringe Teststärke/Power
- große Anzahl an AVs bzw. cherry-picking/p-fishing/HARKing
- zu große Freiheitsgrade der Forschenden (ermöglicht p-hacking, data drenching)
- große Anzahl an Teams, die zeitgleich die gleiche Frage beforschen
- File Drawer Problem/Publication Bias (nur positive/signifikante Befunde veröffentlicht)
Welche Rolle spielen die Medien bei falsch-positiven Befunden?
- Eine Studie von Bohannan et al. (2015) zeigte, dass Ergebnisse einer offensichtlich falschen/methodisch unsauberen Studie von den Medien blind veröffentlicht wurde (Schokolade hilft beim Abnehmen, aber: keine Kontrolle des Alters/Gewichts/Baseline/keine gemachteten Stichproben etc.)
Wie kann man fabricated data erkennen und verhindern? Nennen Sie je Beispiele, woran man fabricated data a) erkennen kann und b) welche Lösungsansätze es gibt.
- Erkennen: z.B. wurde fabricated data mithilfe des Simulationsansatzes aufgedeckt, indem z.B. bei einer Studie unwahrscheinlich ähnliche Standardabweichungen (Sanna et al., 2011) oder unwahrscheinlich ähnliche Mittelwerte (Smeesters & Liu, 2011) erkannt und die Wahrscheinlichkeit dieser Werte simuliert wurde
- Erkennen: Rohdaten anfordern und inspizieren (Maxima, Minima, Mittelwerte, überzufällig häufige/seltene Werte?)
- Lösung: Just Post It (Forderung, dass alle Rohdaten mit publizierten Artikeln veröffentlicht werden sollten)
- Lösung: Simulationsansatz nutzen, um auffällige Werte zu überprüfen
Welche Vorteile und Hindernisse kann es geben, wenn man fordert, dass Rohdten mit veröffentlichten Artikeln publiziert werden sollten?
- Daten bleiben länger erhalten und sind von z.B. Brand im Labor oder Umzügen unberührt
- mehrere Wissenschaftler können den Datensatz nutzen
- Betrug geschieht seltener und kann besser aufgedeckt werden
- Datenschutzprobleme (v.a. bei speziellen Studien)
- aufwändige und große Datensätze werden noch lange bearbeitet, daher wäre eine Veröffentlichung Hindernis
- Zusatzarbeit für Forschende (z.B. Kommentare machen) + wenig Zeit/Erfahrung
- Sorge vor negativen Folgen (Scooping, Anklagen)
- Keine Entlohnung für Zusatzarbeit
Was sollte man tun, wenn man den Verdacht hat, dass jemand Daten gefälscht hat?
- Keine Hexenjagd: Autoren privat und transparent kontaktieren und Zeit/Chance zur Erklärung geben
- Versuchen, die Analyse über mehrere Studien zu replizieren
- Vergleich von auffälligen Studien mit a) Studien anderer Autoren zu ähnlichen Maßen und b) mit Studien desselben Autors
- Rohdaten einfordern und anschauen + mit unbefangenen Dritten diskutieren
Wieso ist Sloppy Science ein Problem und was könnten Ursachen dafür sein?
- Problem: Falsch-Positive Ergebnisse bleiben in der Literatur und im Gedächtnis haften und verschwenden Ressourcen, inspirieren Forschung in diese Richtung und führen evtl. zu politischen Veränderungen
- Problem: viele Journals veröffentlichen keine Nullresultate und deshalb werden diese auch seltener untersucht (Publication Bias)
- Ursache: Forschende haben zu viele Freiheitsgrade bezüglich z.B.:
- Umgang mit Outliern (Ausschluss von Personen oder Trials nach eigenem Ermessen),
- Auswahl der Analyse/Methoden frei
- Auswahl der AV/UV,Stichprobe, Kovariaten ist frei
- Systematisch Weitererheben frei, HARKing möglich, p-hacking möglich
Welche Lösungsansätze gibt es, um Sloppy Science zu reduzieren/verhindern?
Welche Aussagen zur Sloppy Science sind korrekt?
Welche Tipps würde man Reviewern geben, um Sloppy Science zu verhindern?
- Sicherstellen, dass sich Autoren an Richtlinien halten
- imperfekte Ergebnisse tolerieren
- Transparente Dokumentation von den Autoren erwarten (Erhebung/Analyse)
- Replikationen von den Autoren einfordern, wenn Argumente nicht stichhaltig
Was ist eine p-Curve? Wie können Publikationsverzerrungen mittels der p-Curve (Simonsohn et al.) dargestellt und erkannt werden?
- Die p-Kurve zeigt die Verteilung der p-Werte signifikanter Befunde verschiedener Studien zu einer Fragestellung an
- Bei einem tatsächlichen Effekt (ES > 0) ist die Kurve von links nach rechts positiv abgeschrägt und je größer die Effektstärke, desto steiler ist die Kurve
- ungefälschte Ergebnisse erkennt man daran, dass hauptsächlich viele Studien effekte mit p = 0.01 oder 0.02 finden und nur wenige mit 0.05 oder 0.04
- bei gefälschten Studien ist dies umgekehrt (Forscher suchen so lange herum, bis etwas gerade so signifikant ist)
Welche Aussagen zur Replikationskrise sind korrekt?
Welche Arten der Präregistrierung gibt es und welche Vorteile haben sie?
- Präregistrierung: Forschende spezifizieren Hypothesen/Methode/Auswertung bevor sie die Studie durchführen (siehe z.B. OSF), was die Planung des Experiments verbessert aber v.a. HARKing, p-hacking etc. reduziert und detailliert aufzeigt, was explorativ und was konfirmatorisch ist
- Preregistered Report: Forschende spezifizieren Einleitung/Fragestellung/Hypothesen/Methode/Auswertung, bevor sie das Experiment durchführen und senden dies an eine Zeitschrift, was Publication Bias verhindert
- Result-Blind Review: Forschende senden Einleitung/Fragestellung/Hypothesen/Methode/Auswertung einer bereits durchgeführten Studie an eine Zeitschrift
Welche Aussagen zum wissenschaftlichen Kreislauf sind korrekt?
Welche Aussagen zu Variablen sind korrekt?
Geben Sie ein Bespiel für eine Mediator- und eine Moderatorvariable.
Mediator: Die Mediatorvariable 'Körperliche Gesundheit' vermittelt den Einfluss von Yoga auf Lebenszufriedenheit. Yoga kann zur Verbesserung der körperlichen Gesundheit führen, was wiederum zu höherer Lebenszufriedenheit führt.
Moderator: Die Moderatorvariable 'Alter' verändert den Einfluss von Yoga auf Lebenszufriedenheit. Bei einem höheren Alter kann der Zusammenhang zwischen Yoga und Lebenszufriedenheit stärker sein, z.B. weil man mit höherer Lebenszufriedenheit einen besseren Zugang zu Weisheiten im Yoga hat. Andere Moderatoren könnten Persönlichkeit oder Yoga-Erfahrung sein.
Welche Aussagen zu Experimentformen und -designs sind korrekt?
Welche Aussagen sind korrekt?
Welche Aussagen sind korrekt?
Welche Aussagen zur Inferenzstatistik sind korrekt?
Welche Aussagen zum Alpha- und Beta-Fehler sind korrekt?
Welche Aussagen zu multivariaten Verfahren sind korrekt?
Welche Aussagen zur Faktorenanalyse sind richtig?
Beschreiben Sie kurz den Ablauf einer Faktorenanalyse
- Variablenauswahl und Errechnung der Korrelationsmatrix
- Extraktion der Faktoren
- Bestimmung der Kommunalitäten
- Zahl der Faktoren
- Faktorinterpretation
- Bestimmung der Faktorwerte
Welche Vorraussetzungen gibt es für die (Variablenauswahl der) Faktorenanalyse?
Wie wählt man die Stichprobengröße für eine Faktorenanalyse aus?
Welche Aussagen zur Korrelationsmatrix der Faktorenanalyse sind korrekt?
Was bedeutet es, wenn sich in der Korrelationsmatrix einer Faktorenanalyse wenige große und ein paar kleine Korrelationen zeigen, im Bartlett-Test der p-Wert unter .05 liegt und das KMO-Kriterium einen Wert von .8 hat?
Welches dieser drei Verfahren ist am besten geeignet?
Die Güte der Korrelationsmatrix ist gut; mit dem Bartlett-Test kann man die H0 abweisen, dass die Stichprobe aus einer Grundgesamtheit stammt, in der die Variablen unkorreliert sind und kann H1 annehmen, dass die Variablen korreliert sind. KMO-Kriteriumswerte über .7 zeigen kann, dass die Variablen in einem hohen Maße Varianz teilen. Das KMO gilt als bestes Verfahren.
-
- 1 / 116
-