.
Set of flashcards Details
Flashcards | 387 |
---|---|
Language | Deutsch |
Category | Psychology |
Level | University |
Created / Updated | 08.07.2023 / 20.07.2023 |
Weblink |
https://card2brain.ch/box/20230708_methoden_statistik
|
Embed |
<iframe src="https://card2brain.ch/box/20230708_methoden_statistik/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Das OR ist das Verhältnis der Odds für das Eintreten eines Ereignisses in einer Gruppe im Vergleich zu einer anderen (siehe Fleiss, 1973). Wenn beispielsweise die Wahrscheinlichkeit, nach der Behandlung symptomfrei zu sein, 10 beträgt und die Wahrscheinlichkeit, nach der Aufnahme in die Warteliste symptomfrei zu sein, 2, dann ist die OR..?
Das OR ist das Verhältnis der Odds (Wahrscheinlichkeit des Eintretens des Ereignisses geteilt durch die Wahrscheinlichkeit des Nichteintretens des Ereignisses) für das Eintreten eines Ereignisses in einer Gruppe im Vergleich zu einer anderen (siehe Fleiss, 1973). Wenn beispielsweise die Wahrscheinlichkeit, nach der Behandlung symptomfrei zu sein, 10 beträgt und die Wahrscheinlichkeit, nach der Aufnahme in die Warteliste symptomfrei zu sein, 2, dann ist die OR 10/2 = 5. Das bedeutet, dass die Wahrscheinlichkeit, nach der Behandlung symptomfrei zu sein, fünfmal größer ist als nach der Aufnahme in die Warteliste. Das OR kann zwischen 0 und unendlich variieren, und ein Wert von 1 bedeutet, dass die Chancen für ein bestimmtes Ergebnis in beiden Gruppen gleich sind.
- Was versteht man unter dem Dunning-Kruger-Effekt?
- Tendenz sich in Bereichen zu verschätzen, in denen man sich nicht besonders gut auskennt. Auf Personen übertragen: das Muster, dass diejenigen die sich am wenigsten auskennen sich oft am meisten zutrauen; intraindividuellen Effekt: wenn wir uns in einem Thema nicht auskennen neigen wir dazu unser Wissen zu überschätzen
- Geben Sie ein Beispiel für eine Moderatorvariable beim Einfluss von Meditation auf die Lebenszufriedenheit.
Körperliche Gesundheit
- Geben Sie ein Beispiel für eine Mediatorvariable beim Einfluss von Meditation auf die Gesundheit.
Stress
- Was sagt Ihnen ein p-Wert von 0.02?
Signifikant. Wahrscheinlichkeit mein Ergebnis zu finden, wenn in Wirklichkeit die Nullhypothese zutrifft, liegt bei 2%. Unter 5% also lehnen wir Nullhypothese ab und nehmen Alternativhypothese
- Wie können Sie den Typ-1-Fehler reduzieren?
- Alpha Fehler = Typ 1 Fehler
- Signifikanzniveau absenken, zb p < .01
- Alpha Fehler liegt dann vor, wenn die Nullhypothese fälschlicherweise verworfen wird und die Alternativhypothese angenommen wird.
- Was sind Ziele der Faktorenanalyse?
- Datenreduktion, und Klassifizieren/Gruppieren/Zusammenfassen, zugrunde liegende Dimensionen, latente Faktoren, finden
- Was sind Voraussetzungen für die Faktorenanalyse?
- Vielfältige Voraussetzungen, Items sollen relevant sein, reliable Erfassung, möglichst homogene Stichprobe (v.a. bei erster Faktorenanalyse), jeder Fall/jede Person soll unabhängig Fragen beantworten, mindestens intervallskalierte Daten (keine Kategorien), Normalverteilte Daten (für eines der Prüfkriterien), systematische Zusammenhänge gute Korrelationsstruktur, Stichprobengröße nach Güte der Merkmale (bei Variablen die nicht so gut geeignet sind brauchen wir mehrere VPs, 10-15 VPs pro Variable)
- Was besagt das Fundamentaltheorem?
- beobachtete Werte als lineare Kombination der dahinterliegenden Faktoren
- additives Model hinsichtl. Zustandekommen der Messwerte
- Wert einer Person auf einer ganz konkreten Variable (Ratings, Reaktionszeit), setzt sich additiv zusammen aus der Summe aller Faktoren. Dabei werden die Faktoren gewichtet Faktorladung wie stark hängt dieses eine Item mit Faktor zusammen + Faktorwert wie stark ausgeprägt ist der Faktor bei VP ganz konkret
- Was ist ein Faktorwert und was ist die Faktorladung?
- Faktorwert: wie hoch ausgeprägt ganz bestimmte Person oder Objekt auf einem Faktor ist z.B. wie offen sind Sie/wie hoch ist Ihre fluide Intelligenz?
- Faktorladung: wie hoch lädt ein Item auf einen Faktor. Wie viel hat die konkrete Aufgabe z.B. lösen Sie dieses Quiz mit fluider Intelligenz zu tun?
- Was sind Kommunalitäten und was Eigenwerte?
- Kommunalitäten: beschreiben einzelne Variablen, geben an wie viel Varianz einer Variable durch die Faktoren erklärt werden? Wie gut bilden die Faktoren eine Variable ab? Kennwert, ob bestimmte Variable sich gut eignet für die Faktorenlösung
- Eigenwerte: Eigenschaft des Faktors, wie viel Varianz an allen Variablen erklärt ein konkreter Faktor Faktor der viel Varianz erklärt ist ein besserer Faktor als einer der weniger Varianz erklärt
- Welche Entscheidungen müssen Sie beim Durchführen einer Faktorenanalyse treffen?
- Am Anfang: Welche Variablen (Items, Merkmale) schließe ich ein? Sollten relevant sein, reliabel erfasst worden sein, basierend auf Korrelationsmatrix Variablen ausschließen (die zu hoch oder gar nicht korrelieren mit anderen Variablen)
- Kommunalitäten von Variablen: Basis um Variablen auszuschließen wenn nicht genug Varianz vorhanden ist
- Auf Basis der Extraktion: Gruppierung von Merkmalen (Hauptkomponentenanalyse) oder Faktorenanalyse?
- Entscheidung bezüglich Rotation (orthogonal vs. Schiefwinklig/Korrelation erlauben)
- Entscheidung wie viele Faktoren ausgewählt werden auf Basis des Scree Plots, Kaiser Kriterium oder Parallelanalyse
- Wie man Faktoren benennt und interpretiert
- Welche Infos sollten Sie in einem Artikel finden, der eine Faktorenanalyse beschreibt?
- Alle Entscheidungen sollten beschrieben und begründet werden wenn nicht der default gewählt wird ganz besonders (zB. Wenn varimax/orthogonale Rotation gemacht wird)
- Tabelle mit Ladungen der Variablen auf den Faktoren, Benennung der Faktoren, Eigenwerte und Varianz der Faktoren, und möglichst eine Korrelationsmatrix der ganzen Variablen
- Welche Fragen können Sie mithilfe der logistischen Regression beantworten?
- Welchen Einfluss haben verschieden Prädiktoren auf eine Variable? AV = kategorial also zb Rückfall ja/nein
- Log. Regression kann beantworten wie viele Prädiktoren beitragen zur Eintrittswahrscheinlichkeit bezogen auf das Kriterium bspw. welche Faktoren tragen bei zu einer Depression/Gesundung/Rückfall?
- Erlaubt Vorhersagen für Einzelfälle bei denen wir die Ausprägungen auf den einzelnen Prädiktoren kennen
- Welche Vorteile hat die logistische Regression?
- Wenige Voraussetzungen an die Daten
- Sehr gute Interpretierbarkeit der Regressionsgewichte
- Warum können Sie bei einer dichotomen AV die Wahrscheinlichkeit für y=1 nicht durch eine lineare Regression errechnen?
- 2 Gründe:
- Bei linearer Regression herrscht eine lineare Beziehung: es kommen unsinnige Werte aus, es können auch Ausprägungen der AV unter 0 und 1 geben was bei einer Wahrscheinlichkeit komplett sinnlos ist
- Anforderungen werden verletzt: NV der Residuen, da wir nur Ausprägung 0 und 1 haben sind diese nichtnormalverteilt ist
- Was müssen Sie prüfen, wenn Sie die logistische Regression durchgeführt haben?
- 3 Dinge:
- Modellgüte insgesamt: Wie gut erklärt das Modell mit den Prädiktoren die erhobenen Daten?
- Gibt es Ausreißer?
- Wie viel tragen die einzelnen Parameter bei, um das Kriterium/die AV vorherzusagen?
- Was bedeutet eine Odds Ratio von 1.2 (z.B. für die Prädiktorvariable „Wochen ohne Rückfall“ für das Kriterium „Rückfall (ja/nein)“?
- Für jede zusätzliche Woche ohne Rückfall steigt in diesem Fall die Chance für einen Rückfall um 20% oder auf 120%; es geht nicht um Wahrscheinlichkeit, sondern die Chance
Wie können bei der Logistischen Regression verschiedene Modelle verglichen werden?
- Modell mit Prädiktoren aus Literatur vergleichen, was trägt unser erweitertes Modell bei? Verschiedene Modelle als verschiedene Blöcke einbeziehen in SPSS und dann Vergleich anhand Ihrer Devianz möglich (wie viel besser passt das Modell zu den Daten?)
- Was bedeutet Multikollinearität?
- Dass die Prädiktorvariablen sehr stark miteinander korrelieren
- Wie kann man das testen? Es wird für jede UV ein Regressionsmodell erstellt (laut Internet), durch Korrelation prüfen + durch Toleranz/VIF (logistische Regression)
- Warum sind Mehrebenenmodelle so nützlich?
- 3 Punkte:
- Ganz gezielt dafür entwickelt um mit hierarchischen/genesteten Daten umzugehen diese gibt es in der Psychologie sehr häufig bspw. Patient*innen aus versch. Kliniken, Schülis in Schulklassen
- Können mit unbalancierten Designs umgehen, bei mehreren Faktoren müssen diese nicht in jeder Kombination vorliegen bspw haben wir verschiedene Schulformen (Hauptschule, Real, Gymnasium) aber wir haben nicht in jeder Schulform 5./6./7./8./9. Klassen, sondern in einer Schulform nur 7./8./9.
- Können mit missing data umgehen bspw mit Drop outs bei einem Längsschnitt Design
- Was ist die Grundidee hinter den random coefficients?
- Regressionskeffizienten sind damit gemeint, bspw. den Intercept, Regressionskonstante, Slopes/Steigung. Können zwischen Ausprägung höherer Levels (also zwischen Schulklassen, Firmen, Kliniken) variieren genau diese Variabilität wird geschätzt (Mehrebenenmodelle)
- Welches Modell ist das: yij = v00 + u0j + (v10 + u1j)∙xij + rij
- Was bedeuten die verschiedenen Teile der Gleichung?
- AV einer konkreten Person/Firma yij ist also..
- v00 das Gesamtmittel des Intercepts plus..
- u0j die Gruppenspezifische Abweichung vom Intercept plus..
- das Regressionsgewicht mit dem durchschnittlichen Slope / das durchschnittliche Einflussgewicht dieses (v10) Prädiktors xij plus + die Gruppenspezifische Abweichung u1j
- mal die Ausprägung des Prädiktors xij +plus..
- ein individueller Rest / Residuum rij
- es ist also ein random intercept und random slope Modell
- Wie können Sie prüfen, ob Ihr komplexeres Modell besser zu den Daten passt als Ihr einfaches Modell?
- Über Vergleich der Devianzen der beiden Modelle
- Wir schauen, wie viel unterscheiden die beiden Modelle sie sich
- Einfacheres Modell hat meist höhere Devianz als komplexeres Modell im erwünschten Fall
- Wir ziehen Devianz vom einfachen Modell vom komplexeren Modell ab, diese Differenz ist der Chi Quadrat Wert
- Dann müssen wir Freiheitsgrade bestimmen, was wir tun indem wir die Parameter vergleichen der beiden Modelle. Wir ziehen Anzahl der Parameter de einfachen Modells von Anzahl der Parameter des komplexen Modells ab = Freiheitsgrade
- Wir errechnen mit Differenz der Devianzen und Freiheitsgraden, ob komplexeres Modell signifikant besser ist als einfacheres Modell (Mehrebenenmodelle)
- Was sind die Vorteile, wenn Variablen in einem MEM zentriert werden?
- 1. Vorteil: bessere Interpretierbarkeit der Regressionsparameter:
- Variablen/Prädiktoren zu zentrieren erlaubt eine bessere Interpretierbarkeit der Regressionsgewichte der anderen Prädiktoren und der Regressionskonstante bei Variablen, die keinen natürlichen Nullpunkt haben - (zB bei Herzfrequenz/Körpergröße gibt es keinen natürlichen Nullpunkt) ist Aussagekraft eingeschränkt; zentrieren hilft dann kann man zB mittlere HF/Körpergröße angeben
- 2. Vorteil: Multikollinearität verringern (Korrelation untereinander)
- Durch MW abziehen, dass 0 dann Teil ist/enthalten ist in den Variablen, verringert sich die Multikollinearität
- Wann brauchen Sie kein Mehrebenenmodell?
- Wenn es gar keine Abhängigkeit zwischen den Daten auf höherer Stufe gibt (zB. Schülis, Klassen…) + diese nicht relevant sind
- Vorteil von MEM war guter Umgang bei fehlenden Daten und unbalancierten Designs: Wenn man keine fehlende Werte hat, braucht man auch nicht unbedingt ein Mehrebenenmodell (MEM)
- Wozu können Sie Metaanalysen nutzen?
- 3 Aspekte:
- Studien zu integrieren und die durchschnittliche Effektgröße zu ermitteln (Effekte von Interventionen, Manipulationseffekte, Zusammenhänge)
- Ermitteln von Moderatoren: wovon hängt Größe des Effektes ab?
- Publikationsverzerrungen identifizieren
- offen: Was müssen Sie beachten bei Metaanalysen? Herausforderungen
- 3 Herausforderungen:
- Äpfel und Birnen Problem (diverse Operationalisierungen, Definition von Konstrukten, einbezogene Stichproben etc.) kleinsten gemeinsamen Nenner zu finden, genau zu kodieren, Moderatoren beachten
- Garbage in garbage out/rote Socken Problem: klare Kriterien welche Studien eingeschlosse werden, und nach Qualität gewichten (mindestens aber nach Stichprobengröße oder inverser Varianz)
- Publication bias: Tendenz dass viele Studien aus pragmatischen Gründen in der Schublade verschwinden, schwer an unveröffentlichte Literatur ranzukommen
- Wie können Sie Publikationsverzerrungen feststellen?
- Effektstärken der publizierten und nicht publizierten Studien vergleichen
- Funnel Plots anschauen
- Korrelationen zwischen Effektstärke und Eigenschaften der Stichprobe (besonders kleine Studien haben größere Effekte, drastisch wenn dann keine kleinen Studien mit niedrigem oder umgekehrtem Effekt dabei sind)
- fail safe n: Fail-Safe N ist ein Kennwert der in Metaanalysen verwendet wird. Er gibt an wie viele Studien mit einer Effektstärke von Null gefunden werden müssten, damit die Metaanalyse nicht mehr signifikant wäre. Der Fail-Safe N ist jedoch keine Teststatistik, sondern nur ein grober Richtwert.
- Was kann die Ergebnisse Ihrer Metaanalyse verfälschen?
- Großer Aspekt ist methodische Qualität der Primärstudien, unwissentlicher Bezug von methodisch minderwertigen Studien
- Wenn man Moderatoren ignoriert, dann sind Effektgrößen wenig/nicht aussagekräftig (Bspw. wenn man Therapie hat die bei manchen klappt bei manchen nicht und wir im Mittel dann eine mittlere Effektgröße haben, die aber im Endeffekt auf keine der beiden Gruppen zutrifft)
- Wann nutzen Sie Integrationsmethoden mit random effects?
- Eigentlich immer, wenn wir generalisieren möchten über den Studien hinaus (was bei Metaanalysen der Fall ist)
- Wir erkennen an, dass systematische Varianz zwischen den Studien existieren, VPs Populationen kommen aus unterschiedlichen Grundgesamtheiten
- Warum scheinen kleine Studien oft größere Effekte zu haben?
- Kleine Studien können oft intensive Interventionen/Betreuungen realisieren als größere Studien darauf wollte Raettig aber nicht aus
- Kleine Studien sind unzuverlässiger, weichen weiter vom wahren Mittelwert ab aber in beide Richtungen! Größere Variation, aber es gibt zusätzlich den Publikationsbias (wir finden seltener kleine Studien mit wenig Effekten oder sogar umgekehrten Effekten, weil diese in der Schublade verschwinden)
- Worin besteht die Krise der psychologischen Forschung?
- 2 Dinge maßgeblich
- Betrug + Fälschung von Datensätzen
- Sloppy Science, sehr viel größerer Teil, unzuverlässige und unsaubere Forschung
- Zentrale Frage über den Umgang damit, dass hunderte von Psychologie Studien unwahr sind (welche zum Teil auch in Lehrbüchern vorhanden sind)
- Was sind Beispiele für p-hacking?
- Alle Unternehmungen im Forschungsprozess die Wahrscheinlichkeit erhöht, falsch positive Befunde (von denen 5% schon da sind) zu erhalten
- Datensatz auszuwerten und weitere VPs zu erheben, bis es signifikant wird
- Erheben sehr vieler AVs, von denen nur die signifikanten berichtet werden
- Geringe experimentelle Kontrolle: beliebige Gruppen, ungematchte Gruppen, zu kleine Gruppen
- Verschiedene statistische Verfahren auszuprobieren bis es signifikant wird, VPs gezielt ausschließen
- An welchen Stellen investieren wissenschaftliche Personen und Institutionen in Verlage wissenschaftlicher Zeitschriften
- Forschende/Unis bezahlen die wissenschaftliche Forschung und die Forschenden selbst
- Leistungen wie Editoren Arbeit + Gutachter für Zeitschriften werden unentgeltlich übernommen in Freizeit oder Arbeitszeit
- Forschende zahlen selbst für farbige Abbildungen, open Access, teils für den Druck
- Dann wiederum zahlen Unis/Forschende die Verlage wieder, damit auf die Ergebnisse/Artikel überhaupt zugegriffen werden kann, Artikel gelesen werden können
Welche Aussage über Hypothesen ist falsch?
Welche Aussage ist falsch?
Die Faktorenanalyse zählt zu den
Welche Aussage zur Kommunalität ist richtig?
Was trifft auf den Likelihood Ratio Test nicht zu?