Statistik

Eigene Fragen

Eigene Fragen


Kartei Details

Karten 116
Sprache Deutsch
Kategorie Psychologie
Stufe Universität
Erstellt / Aktualisiert 10.07.2024 / 17.07.2024
Weblink
https://card2brain.ch/box/20240710_statistik
Einbinden
<iframe src="https://card2brain.ch/box/20240710_statistik/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Welche Aussagen zur Interpretationskoeffizienten sind korrekt?

Welche Aussagen zu 'Odds Ratio' sind korrekt?

Nehmen wir dazu folgendes Beispiel an: zk = 3.528 + (-1.943*Streichfähigkeit) + (1.119*Haltbarkeit). Setzen wir z in die eulersche Zahl ein erhalten wir

= e hoch (-1.943) = 0.143

= e hoch (1.119) = 3.062

Wie kann man diese Ergebnisse interpretieren?

  • Odds Ratio werden genutzt, um die Chance zu berechnen, dass das Ereignis eintritt, wenn der Prädiktor um eine Einheit steigt 
  • Ein Wert von 0.143 bei Streichfähigkeit zeigt an, dass die Wahrscheinlichkeit sinkt, wenn Streichfähigkeit um eine Einheit steigt = Erhöhung um eine Einheit verringert die Odds auf 0.143 des ursprünglichen Werts
  • Ein Wert von 3.065 bei Haltbarkeit zeigt an, dass die Wahrscheinlichkeit steigt, wenn Haltbarkeit um eine Einheit steigt = Erhöhung um eine Einheit erhöht die Odds auf 3.065 des ursprünglichen Werts 
  • Werte zwischen 0 und 1 weisen auf negativen Einfluss des Prädiktors hin, > 1 auf positiven Einfluss

Wie kann man die Güte des Gesamtmodells einer logistischen Regression prüfen? Welche Gütekriterien gibt es?

Wie geht man bei einer logistischen Regression mit Ausreißern um? Welchen Kennwert muss man dabei in Betracht ziehen?

  • Man schaut sich zur Ausreißeranalyse die individuellen Residuen einer Person an, d.h. die Abweichung einer Person von ihrer Vorhersage) und berechnet den beobachteten Wert minus den vorhergesagten Wert 
  • yk-pk(y)
  • Überschreiten die Abweichungen den Betrag von 0.5, sind Verzerrungen sehr wahrscheinlich

Welche Aussagen zum fünften Schritt einer logistischen Regression 'Prüfung der Merkmalsvariablen' sind korrekt?

Welche Aussagen bezüglich Odds Ratio sind korrekt?

Wie sind die Odds Ratio bei kategorialen Prädiktorvariablen zu interpretieren? Kreuzen Sie die richtigen Antworten an. 

Was ist eine multinominale Regression?

Was sollte man tun, bevor man eine logistische Regression in SPSS rechnet? Was ist der erste Schritt einer logistischen Regression? 

Woran kann man erkennen, ob das vollständige Modell in einer logistischen Regression besser ist als das Nullmodell?

  • In Block 0 erkennt man die richtig klassifizierten Fälle 
  • In Block 1 (vollständiges Modell) sieht man in der Omnibus-Tabelle die Differenz in der LogLikelihood zwischen dem Nullmodell und dem vollständigen Modell (Chi²). Ist dieser Wert signifikant, ist das vollständige Modell besser
  • In Block 1 sieht man in der Modellzusammenfassung einen Wert für -2 Loglikelihood (Devianz), welcher die Anpassung des Modells an die Daten beschreibt - ist dieser Wert für das vollständige Modell niedriger, ist es besser angepasst
  • In Block 1 sieht man in der Modellzusammenfassung Cox-und-Snell R² und Negelkerkes R², sind die Werte hier > 0.4 ist das Modell gut 
  • In Block 1 testet der Hosmer-Lemeshow-Test die H0, dass es keinen Unterschied zwischen den beobachteten und den vorhergesagten Daten gibt; ist der p-Wert > 0.5, passt das Modell gut zu den Daten
  • In Block 1 in der Klassifizierungstabelle kann man die richtig klassifizierten Fälle erkennen; ist der Prozentsatz höher als im Nullmodell, ist das vollständige Modell besser 

Wie kann man metrische und kategoriale Prädiktoren anhand der SPSS-Tabelle interpretieren? Kreuzen Sie richtige Antworten an. 

Wie kann man metrische und kategoriale Prädiktoren anhand der SPSS-Tabelle interpretieren? Kreuzen Sie richtige Antworten an. 

 

Wo kann man in SPSS Ausreißer oder Fehlklassifikationen einer logistischen Regression erkennen? Welcher Kennwert ist dafür wichtig?

  • Fehlklassifikationen kann man in der Tabelle 'Fallweise Liste' erkennen 
  • Im Datenfile muss eine neue Variable für den Ausschluss von Ausreißern erstellt werden, und zwar Cook-Distanzen und Z-Residuen
  • Cook-Distanzen geben an, um wie viel sich das Modell verbessert, wenn diese Person ausgeschlossen wird = sollte unter 1 oder 0.5 liegen 
  • Z-Residuen sollten unter +/- 2 liegen

Woran kann man Multikollinearität in SPSS bei einer logistischen Regression erkennen? Welche Werte sollte man idealerweise vorfinden?

Wo kann ich bei Jamovi erkennen, ob das vollständige Modell einer logistischen Regression besser ist als das Nullmodell?

  • In der Tabelle 'Multinominal Logistic Regression' sieht man die Werte des vollständigen Modells verglichen mit dem Nullmodell 
  • Erreicht die Deviance/Chi² Signifikanz, so ist das vollständige Modell besser 
  • Der Chi² (X²)-Wert gibt an, um wie viel das Nullmodell schlechter ist 

Wo kann ich bei Jamovi erkennen, welchen Einfluss die einzelnen Prädiktoren haben?

  • In der Tabelle 'Omnibus Likelihood Ratio Tests' wird abgebildet, ob die einzlenen Prädiktoren einen signifikanten Beitrag leisten 
  • hierzu wurde das vollständige Modell mit einem Modell verglichen, bei dem ein einzelner Prädiktor herausgenommen wurde 
  • Ist der Prädiktor signifikant, leistet er einen Beitrag zur Unterscheidung der Gruppen

Wo kann ich bei Jamovi die Odds Ratip der Koeffizienten/Prädiktoren erkennen? Worauf muss man achten und was sagt z.B. ein Odds Ratio von 1.6403 bei einem metrischen Prädiktor aus?

  • Tabelle 'Model Coefficients'
  • Hier werden Modelle für einzelne Prädiktorenvergleiche aufgelistet
  • Man darf die Odds Ratio nur interpretieren, wenn der Prädiktor signifikant ist!
  • Ein Odds Ratio von 1.6403 sagt aus, dass für einen Anstieg des Prädiktors um eine Einheit, die Odds, dass das Ereignis eintritt, um 64% bzw. auf 164% steigen
  • d.h. für den Anstieg des Prädiktors Streichfähigkeit um eine Einheit steigen die Odds, Rama statt Flora (Referenz) zu kaufen, auf 64%

Was muss der Ergebnistext einer logistischen Regression beinhalten?

  • Art und Anzahl der Prädiktoren und Probanden
  • Annahmen/Bedingungen verletzt?
  • Multikollinearität 
  • Entscheidungen und Begründungen 
  • Gütekriterien für das gesamte Modell und für Prädiktoren 
  • Tabelle mit Regressionsgewichten, Wald-Statistik, ORs und Konfidenzintervalle

Wieso sind Mehrebenenmodelle sinnvoll bzw. bei welchen Fragestellungen bieten sie aufgrund welcher Probleme Abhilfe? 

Mehrebenenmodelle sind sinnvoll, weil sie bei der Beantwortung von Fragestellungen, bei denen der Kontext hinter den Variablen entscheidenend ist (Level 2-Variablen). 

Ein Beispiel, um dies zu verdeutlichen, wäre die Frage nach dem Zusammenhang zwischen Intelligenz und Geburtenreihenfolge. Würde man den Kontext missachten, nämlich dass Geschwister, die aus einer Familie stammen, mehr Varianz teilen als Geschwister aus unterschiedlichen Familien, so würde die Berechnung auch missachten, dass die Dependenz der Residuen erhöht würde.

Ein anderes Beispiel wäre der Zusammenhang zwischen Leistung und Selbstsicherheit der Schüler. Würde man nur die Schüler untersuchen, und die Klasse, in der sie unterrichtet werden, missachten, so kann es systematische Unterschiede zwischen den Schülern geben (bezüglich des Selbstwerts insg. aber auch bezüglich des ZUsammenhangs), die nicht in die Berechnung mit einfließen.  

Nehmen wir das Beispiel, dass der Zusammenhang zwischen Verantwortungsübernahme in einem Unternehmen und die Arbeitszufriedenheit der Mitarbeiter untersucht wird. 

Wieso sollte man hier ein Mehrebenenmodell rechnen und keine z.B. lineare Regression?

Mit einer linearen Regression würde man missachten, dass die Firma, in der die Mitarbeiter arbeiten (d.h. der Kontext) auch entscheidened ist. So würde das Ergebnis der linearen Regression vielleicht zeigen, dass ein negativer Zusammenhang zwischen Verantwortungsübernahme und Arbeitszufriedenheit besteht, aber rechnet man ein MEM, so erkennt man, dass die Intercepts (Regressionskonstante = Wert von Y, wenn der Prädiktor 0 ist) und die Slopes (Regressionsgewicht = Veränderung von Y, wenn der Prädiktor um eine Einheit steigt) sich in den Firmen unterscheiden. Das bedeutet, dass a) jede Firma ein eigenes Intercept, d.h. generell ein unterschiedliches Niveau der Arbeitszufriedenheit hat, und b) jede Firma eine eigene Slope hat, d.h. dass der Einfluss der Verantwortungsübernahme in jeder Firma einen unterschiedlich großen Einfluss hat. Bei einem MEM wird daher der Kontext/das Level-2 der jeweiligen Firma beachtet und es zeigt sich, dass der Zusammenhang eigentlich positiv ist.  

Nennen Sie mindestens 5 Beispiele für eine Fragestellung für ein Mehrebenenmodell bzw. für hierarchische Daten (in Stichpunkten).

  • Welchen Einfluss hat Schulleitung auf Lehrerzufriedenheit (Macro: Schule, Micro: Lehrer)
  • Welchen Einfluss hat Lehrverhalten auf Leistung der Schüler (Macro: Klasse, Micro: Schüler)
  • Welchen Einfluss hat die Qualität des Zusammenhalts auf das Erziehungsverhalten (Macro: Nachbarschaft, Micro: Familien) 
  • Within-Designs: Welchen Einfluss hat die experimentelle Bedingung auf die Probanden (Macro: Proband, Micro: experimentelle Bedingung)
  • Welchen Einfluss hat Firmenpolitik auf Arbeitszufriedenheit (Macro: Firma, MIcro: Mitarbeitende) 

Welche Aussagen zu Mehrebenenmodellen sind korrekt?

Wann sind Mehrebenenmodelle indiziert? Was sind Voraussetzungen der MEM?

Welche Grundbegriffe der MEM sind richtig erklärt?

Welche Aussagen zu Gleichungen der Mehrebenenmodelle sind korrekt?

Woran kann man erkennen, dass es sich um eine Gleichung für Haupteffekte zweier Level-1 Variablen (x;z) vs. um eine Gleichung für die Interaktion zweier Level-1 Variablen (x;z) handelt? 

Haupteffekte zweier Level-1 Variablen listen in der normalen Level-2 Gleichung Y00 + Y10*xij + u0j + u1j*xij + rij noch die Variable z auf. D.h.

yij = Y00 + Y10*xij + Y20*Zij + u0j + u1j*xij + u2j*zij + rij. 

Eine Interaktion zweier Level-1 Variablen haben noch die Multiplikation zwischen X und Z in der Gleichung. D.h. 

yij = Y00 + Y10*xij + Y20*Zij + Y30*XZij + uoj + u1j*xij + u2j*Zij + u3j*XZij + rij

Woran kann man eine Interaktion zwischen einer Level-1 Variablen (x) und einer Level-2 Variablen (w) erkennen?

Die Gleichung sähe wie folgt aus: 

yij = Y00 + Y10*Xij + Y01*Wj + Y11*Xij*Wj + u0j + u1j*Xij + rij 

Welche Arten der Kovarianzstrukturen gibt es und was sagen sie aus?

Wie geht man bei Mehrebenenmodellen bei der Datenanalyse vor? 

  • Zunächst testet man das leere Modell, d.h. man nimmt nur das Intercept mit rein, ohne Prädiktoren (yij = boj+rij mit b0j = Y00 + u0j
  • dann fügt man schrittweise die Level-1 und Level-2 Prädiktoren hinzu
  • Zunächst Level-1 Prädiktoren (random intercepts, fixed slopes; dann random intercepts und random slopes)
  • Bei Random Intercept Modell ist Frage, ob es systematische Varianz in Y jenseits der Prädiktoren X gibt, unabhängig vom Einfluss des Prädiktors (fixed slope) 
  • Bei Random Intercept und Random Slope Modell kann der Effekt des Prädiktors in den unterschiedlichen Gruppen unterschiedlich stark sein 
  • Dann werden Modelle mit Level-2 Prädiktoren getestet
  • Dann werden Modelle mit Cross-Level Interaktionen getestet

Wie kann man erkennen, welches getestete Mehrebenenmodell (leeres Modell vs. Random Intercept, Fixed Slope vs. etc) das beste ist? 

Man betrachtet dazu die Fit-Indizes, d.h. Parameter der Modellgüte 

  • Man kann sich anschauen, ob die aufgeklärte Varianz R² zugenommen hat 
  • Man kann sich anschauen, ob die Devianz, d.h. die Passung des Modells an die Daten, gesunken ist 
  • Man kann sich den AIC, AICC, CAIC und den BIC anschauen (abhängig von Stichprobengröße) 
  • Wichtig: es werden nicht die absoluten Werte interpretiert, sondern immer nur z.B. Devianz im Vergleich zur Devainz des letzten Modells 

Wie kann man zwei Modelle (MEM) miteinander vergleichen? Welcher Kennwert zeigt an, welches Modell besser ist? Wie kann man den Vergleich händisch berechnen?

Mittels eines Chi²-Tests können die Devianzen zweier Modelle verglichen werden und die Frage beantworten, welches der beiden Modelle besser zu den Daten passt. 

Berechnung:

X²change = Devianz(old) - Devianz(new) = (-2LogLikelihood(old)) - (-2LogLikelihood(new))

dfchange = k(old) - k(new) 

Voraussetzung für diesen Vergleich ist, dass das neue Modell alle Parameter (+ evtl. ein paar mehr) des alten Modells besitzt

Welche Aussagen zu Mehrebenenmodellen sind korrekt? 

Wann braucht man keine Mehrebenenmodelle? Nennen Sie mindestens 3 Gründe. 

  • Wenn es keine hierarchische Datenstruktur gibt, d.h. die Beobachtungen unabhängig voneinander sind 
  • Wenn homogene Daten vorliegen, d.h. keine Verschachtelung oder Gruppierung
  • Wenn eine geringe Interclass Correlation (siehe ICC) vorliegt, d.h. wenn die Varianz innerhab der Gruppen gering ist 
  • Wenn die Stichprobe sehr klein ist
  • Wenn man ein primäres Interesse an einer Ebene hat

Geben Sie den allgemeinen Ablauf bzw. die Schritte an, die man in SPSS nutzen würde, um ein Mehrebenenmodell zu berechnen. 

Beispiel: Untersuchung, ob eine kosmetische Operation die Lebenszufriedenheit erhöht und welche Rolle die Klinik, die Lebenszufriedenheit vor der OP und der Grund für die OP dabei spielen 

  1. Daten inspizieren: Ausreißer? U-förmige Zusammenhänge? Multikollinearität?
  2. Ignorieren der hierarchischen Struktur (keine Level-2 Prädiktoren), nur Einfluss von OP und Lebenszufriedenheit vor der OP auf Lebenszufriedenheit betrachtet 
  3. Random Intercept Modell, d.h. Level-2 Prädiktor miteinbezogen, Kliniken dürfen sich im Intercept (aber nicht im Slope, fixed slope) unterscheiden 
  4. Random Intercept und Random Slope Modell, Kliniken dürfen sich in Intercept und Slope unterscheiden 
  5. Hinzuziehen des Grundes für die OP als weiterer Level-2 Prädiktor und Interaktion zwischen OP und Grund für OP
  6.  

Welche Aussagen zur Berechnung von Mehrebenenmodellen in SPSS sind korrekt? 

Wie kann man die Beta-Gewichte in einem MEM interpretieren? 

Parameter werden nie absolut interpretiert, sondern immer in Abhängigkeit zu den Modellvergleichen. Prädiktoren (wenn sie signifikant sind!) mit einem positiven Vorzeichen zeigen einen positiven, mit einem negativen Vorzeichen einen negativen Einfluss an. 

Bei kategorialen Prädiktoren muss auf die Kodierung geachtet werden. Beispielsweise Grund der OP (Schönheit: 0, Gesundheit: 1) hat ein negatives Beta-Gewicht. Das negative Vorzeichen gibt an, dass der Zusammenhang von Grund für die OP und der Zufriedenheit negativ ist, wenn ein Wechsel von Kategorie 0 (Schönheit) zu Kategorie 1 (Gesundheit) stattfinden würde. Daher bedeutet das negative Vorzeichen, dass es Menschen, die aus gesundheitlichen Gründen eine OP vornehmen lassen, schlechter geht.   

Was muss in einen Ergebnistext eines MEM?

Man kann MEM auf zwei Arten berichten: 

  1. Model Fit und Random Effects (bei zunehmend komplexen Modellen sollte dieser Ansatz gewählt werden und zentrale Ergebnisse aller Modelle berichtet werden, sowie den Vergleich der Modellgüte des Vorgängermodells + komplexerem Modell) + Random effects für das finale Modell berichten
  2. Fixed Effects des finalen Modells (F-Werte, beta-Gewichte berichten und in Tabelle darstellen) 

Welche Aussagen zur integrativen Forschung sind korrekt?

Wie kann man den Ablauf einer Metaanalyse beschreiben? 

  1. Forschungsfrage/Problemstellung konkretisieren (d.h. Frage+Hypothesen festlegen, Abgrenzung zu anderen Themenbereichen, Selektionskriterien festlegen)
  2. Datenerhebung (Daten = Forschungsberichte, indem Suchstrategien und - begriffe identifiziert und Literatursuche betrieben wird) 
  3. Datenstrukturierung und -evaluation (Kodierung der Daten, Analyseebenen festlegen) 
  4. Datenanalyse und -integration (Zusammenfassung der Befunde, Auswertung)
  5. Datenpräsentation (Dokumentation des methodischen Vorgehens, Beantwortung der Forschungsfragen)

Welche Herausforderungen gibt es bei Metaanalysen (v.a. im Schritt der Fragestellung)?

  1. Äpfel-Birnen Problem: Fragestellungen/Definitionen/Stichproben/Methodische Qualität etc. sind in den Primärstudien oft sehr heterogen, was die Intergration in eine Metaanalyse erschwert. Lösung: Fragestellung basierend auf Generalisierungsabsicht festlegen + kleinen gemeinsamen Nenner der Primärstudien finden
  2. Garbage-In-Garbage-Out/Rote Socken-Problem: die Qualität der Metaanalyse ist abhängig von der Qualität der einfließenden Primärstudien, sodass schlechte Primärstudien die Metaanalyse ruinieren können. Lösung: Auswahlkriterien, Kodierung, Dokumentation sehr sauber und 'streng' gestalten. methodische Qualität als Moderator testen oder kontrollieren, indem man bessere Studien stärker gewichtet