Statistik
Klausurvorbereitung
Klausurvorbereitung
Fichier Détails
Cartes-fiches | 48 |
---|---|
Langue | Deutsch |
Catégorie | Psychologie |
Niveau | École primaire |
Crée / Actualisé | 07.04.2013 / 01.09.2018 |
Lien de web |
https://card2brain.ch/box/statistik5
|
Intégrer |
<iframe src="https://card2brain.ch/box/statistik5/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Vorteile und Annahmen multivariater Verfahren
- keine alpha-fehler Inflation
- testung komplexer Zusammenhänge
- berücksichtigung Clusterung der Daten
- aufdecken redundanter Informationen EFA
Annahmen: fehler unabhängig, homoskedastisch , normalverteilt
Dimension Matrix
Zeilen und Spaltenanzahl
Produkt 2 Vektoren
Skalarprodukt
Spur einer Matrix
Summe der Diagonalelemente
Rang einer Matrix
Anzahl der abhängigen Spaltenvektoren
Determinante
Maß für Kollinerität, je kleiner desto kolinerarer
Kovarianzmatrix, was ist in der diagonalen und der nebendiagonalen?
diagonale: Varianz
nebendiagonale: Kovarianz
Korrelationsmatrix
standartisierte Kovarianzmatrix,
- diagnale m einsen
- nebendiagonale Korrelation
Determinante einer Kovarianzmatrix
Maß für Variabilität der Daten, wenn Variablen hoch korreliert ist der Wert der Determinante klein
Normalverteilung
Maß für zentrale Tendenz und Streuung, bi der multivariaten auch Maß für Zusammenhang der p Variablen
Missing Date
- Completely at Random: übersehen
- at Random: zusammenhang mit anderen Variablen die auch erhoben wurden
- not at random: fallen auf ausprägung dieser Variable zurück
Umgang mit Missing Data
- schlecht: Personen raus, fehlende Werte durch Mittelwerte ersetzen
reduntant = unnötig
x
Vorrausetzung für Schätzung Multiple Regression
- residuuen normalverteilt
- corr (X) = 0
- Homeskedaszität
- x und y Zusammenhang linear
- zufallstichprobe (personen unabhängig)
Partialkorrelation:
aus Korrelation von x und y der Einfluss von z herauspartialisiert
seminpartialkorrelation
Berechnung des inkremellen Erklärungsanteil des neu hinzukommenden Prädiktors über die Varianzaufklärung von x hinaus
Multikollinarität
= hohe Korrelation zwischen Prädiktoren, führen zu kleinen geschätzen ß und großen Standartfehlern, verbesster durch zusammenfassen/entfernen redundanter Prädiktoren
Man kann einzelne durch 1/(1-R²) testen
zusätzlicher Außreisserdiagnostik
- leverage: abweichung Person vom Mittelwert
- Cooks Distance: wie ändern sich Regressionsgewichte wenn Person entefernt wird
Um over oder underfitting zu vermeiden Mellows Cp berechenen
x
Nachteile Forward selection
- Gefahr alpha-Fehler Inflation
- exploratives tool
- Kreuzvalidierung (prädiktoren sind in einem datensatz signifikatn, in andrem nicht mehr)
Moderatoreffekte (intervallskalenniveau) = interaktionseffekte (bei nominalskalliert)
Zusammenhang Schulleistung und Intelligenz durch Motvation variiert
- uvs haben kombinierte Effekte auf Av der stärker ist als Effekt beider einzelnd
Annahmen für ML-Schätzung
- bedingte Binominalverteilung von Y
- unabhängige Beobachtungen
- korrekte spezifizierung des Modells
- signifikanzbestimmung durch t wert
Güte einer log. Regression: Modelltests
- Likelyhodd Schätzung
- Klassifikationstabelle (wie viele korekt? 4 Felder!)
- Pseudo R²
Eigenschaften einer log. Regression
- nur gut wenn viele Personen mit mittleren Werten, im extremwertbreich keine zuverlässigen Schätzungen
- meist verwendet für dichotome variablen
Aggregation
- auf gruppenebene, indivuduelle Daten pro Cluster zusammengefasst (Mittelwerte), kleine Stichprobe, individuelle Zusammenhänge verdeckt
- aggregationsvariable = klassengröße
(man kann anstatt MLM varianzanalysen oder regression aber nur wenn daten aggre oder diaggregiert werden, weil beobachtungen sonst nicht unabhängig)
Disagregation
Clusterinfo jeder Person zugeteilt, alpha-fehler-inflation und standartfehler zu klein geschätzt
Icc-Schätzung
über Varianz innerhalb und zwischen der Cluster
Random Intercept
x
Random Slope
- varianz des Slope zeigt wie sich Regressionsgraden er Gruppen unterscheiden, je höher desto heterogener die Steigung der Graden, will unspezifische CLustervarianz erklären
Datenvorraussetzungen für MLM
- cluster und personen zufällig gezogen
- können unterschiedlich groß sein
- zuerst Icc berechnen um zu schauen ob Datencluster vorliegen!
t-test, Hostelings und Manova
- t-test: 2 unabhängige Gruppe, eine AV
- Hosteling: 2 unabhängige Gruppen, p AVs
- Manova: k Gruppen, p AVs (Wilks alpha test)
Vorraussetzungen Wilks dreieck
multivariate normalverteilunf der y in den Gruppen und homogenität der Kovarianzamtrix
Post Hoc analyse der Manova
- zur identifikationen der Avs die für die Mittelwertsunterscheide verantwortlich sind
- wenn manova signifitkant dann p Anovas mit alpha = 5
-
Diskrininazanalyse
- Infos über relevante Variablen für Gruppenunterschiede, Bildung neuer Scores die optimal zwischen k Gruppen trennen (k-1 max Anzahl an Funktionen)
Probleme Dichtomisierung
- Infoverlust
- weniger Power
- Alphafehler könnte erhöht sein
Zentrierung
- wenn Prädiktorvariable keinen Mittelpunkt hat
1. zentriertung über Person hinweg = Grand mean centeringxi-mittelwert xi (besser!)
2. group mean centering xi-gruppenmittelwert (ja nach gruppe bedeutet wert etwas anderes! fish pond!)
Bonferoni Korrektur reduziert power!
x
Diskriminanzanalyse SPSS
1. Eigenwerte: kummulierte % 84 = 1. D-Funktion erklärt 84,6 % Gesamtvariation
2. Wilks Lamda
- 1 bis 2 signi 0,000 -> beide zusammen signi
- 2 signo 0.060 --> wenn erste weg zweiter nicht mehr signi
Diskriminanzanalyse Zentroide
Mittelwerte jeder Gruppe auf der Diskriminanzachse
Signiprüfung mit wilk lamda
- gruppen mit unterschiedlichen vorzeichen werden durch Zentroiden getrennt
- standartisierte Koeffizienten zeigen an welchen Beitrag Uvs zu Diskri leisten, hohe Wert =wichtig
Residual
nicht erklärte Varian 16 = wert 16 -> individualwerte schwankgen unkontrolliert um die Weurzel aus 16 =
Residial sind zufällige Individualunterschiede