Premium Partner

M2_Statistik II

B. Sc. Psychologie Fernuniversität Hagen

B. Sc. Psychologie Fernuniversität Hagen


Set of flashcards Details

Flashcards 20
Students 18
Language Deutsch
Category Psychology
Level University
Created / Updated 20.01.2014 / 16.10.2019
Licencing Not defined
Weblink
https://card2brain.ch/box/m2statistik_ii
Embed
<iframe src="https://card2brain.ch/box/m2statistik_ii/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Sonderfälle zu R2:

Wenn SQResidual=0, dann R2= SQRegression / SQTotal = 1

--> Alle Punkte liegen auf der Regressionsgeraden = perfekte Anpassung

 

Wenn R2=0 (Null-Anpassung) (bei SQRegression = 0 bzw. SQResidual = SQTotal --> Die Regressionsgerade verläuft parallel zur x-Achse, somit zu jedem x-Wert derselbe y-Wert --> X hat überhaupt keinen Einfluss auf Y

Was wird mit R2 ausgedrückt?

Die Güte der Anpassung der Regression and die Daten. Je größer R2, desto stärker ist eine lineare Beziehung zw. X und Y ausgeprägt.

Wann verwendet man die zentrierte Regression (Zentrierungstransformation)?

Wenn man am Vergleich von relativen Entwicklungen (bezogen auf die Mittelwerte) und nicht an den Originaldaten interessiert ist.

x-schlange= -arithmetisches Mittel von X+X y-schlange=-arithmetisches Mittel von Y+Y  

Regressionsgerade läuft durch Ursprung

--> Multikollinearität wird dadurch vermieden!

Dummy - Effektkodierung:

Dummy: die Parameter sind als durchschnittliche Abweichung der Referenzkategorie zu verstehen

Effekt: die Parameter sind als Abweichung zum Gesamtmittelwert y-Strich zu verstehen

Bei z-Transformation:

werden die Variablen vom Maßstab unabhängig gemacht. Daraus ergibt sich:

x-mittel (x-strich) = 0, s2x=1

y-mittel (y-strich) = 0, s2y=1

Regressionsgerade läuft durch den ursprung

(wenn in versch. Grundgesamtheiten gemessen, oder mit verschiedenen Messinstrumenten und man das aber vergleichen will)

Welche Punkte liegen immer auf der Regressionsgeraden?

die Mittelwerte! (x-Strich und y-Strich)

Prädiktorselektionsstrategien:

Ziel: mit möglichst wenigen Prädiktorvariabeln ein gute Vorhersage der AV zu erzielen

  • Rückwärtsverfahren: nach und nach werden Prädiktoren entfernt, solange es nicht zu einem signifikanten Wert von F-Change (R2 überprüfen) führt. Am Ende stehen nur die notwendigen Prädiktoren im Modell.
  • Vorwärtsverfahren: nach und nach werden Prädiktoren aufgenommen und geprüft, welcher eine max. Veränderung von F-Change führt. Endet, wenn alle Prädiktoren aufgenommen sind, oder wenn keiner der noch nicht im Modell befindlichen Prädiktoren eine signifikante Steigerung von F-Change bewirkt.
  • Schrittweise Verfahren: Kombination von Vorwärts und Rückwärts

Problem der Multikollinearität:

Korrelation: stellen bivariate Zusammenhänge dar

multiple Regression: Zusammenhang zw. einer AV und einer (2-oder mehrdimensionalen) Prädiktormatrix

Wenn lineare Beziehung sehr hoch (also wenn ein Prädiktor nahezu perfekt aus einem anderen vorhergesagt werden kann), dann ist die numerische Lösung bei der Schätzung der Koeffizienten nicht möglich. (Liefern kaum Beitrag)

Wenn nicht so stark, aber doch deutliche lineare Abhängigkeit, ist Gleichungssystem zwar lösbar, Schätzung der einzelnen Koeffizienten jedoch evtl. sehr ungenau, da die Varianzen groß sind.

wichtige Prüfgröße: Variance Inflation Factor (VIF)

VIFj= 1 / 1-Rj2

Werte größer als 10: Hinweis auf ernsthafte Probleme mit Multikollinearität.

Werte zentrieren um Multikollinearität zu vermeiden