Statistik

Klausurvorbereitung

Klausurvorbereitung

Chritine G.

Chritine G.

Set of flashcards Details

Flashcards 48
Language Deutsch
Category Psychology
Level Primary School
Created / Updated 07.04.2013 / 01.09.2018
Weblink
https://card2brain.ch/box/statistik5
Embed
<iframe src="https://card2brain.ch/box/statistik5/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Vorteile und Annahmen multivariater Verfahren

- keine alpha-fehler Inflation
- testung komplexer Zusammenhänge
- berücksichtigung Clusterung der Daten
- aufdecken redundanter Informationen EFA

Annahmen: fehler unabhängig, homoskedastisch , normalverteilt

 

Dimension Matrix

Zeilen und Spaltenanzahl

Produkt 2 Vektoren

Skalarprodukt

Spur einer Matrix

Summe der Diagonalelemente

Rang einer Matrix

Anzahl der abhängigen Spaltenvektoren

Determinante

Maß für Kollinerität, je kleiner desto kolinerarer

Kovarianzmatrix, was ist in der diagonalen und der nebendiagonalen?

diagonale: Varianz
nebendiagonale: Kovarianz
 

Korrelationsmatrix

standartisierte Kovarianzmatrix,
- diagnale m einsen
- nebendiagonale Korrelation

Determinante einer Kovarianzmatrix

Maß für Variabilität der Daten, wenn Variablen hoch korreliert ist der Wert der Determinante klein

Normalverteilung

Maß für zentrale Tendenz und Streuung, bi der multivariaten auch Maß für Zusammenhang der p Variablen

Missing Date

- Completely at Random: übersehen
- at Random: zusammenhang mit anderen Variablen die auch erhoben wurden
- not at random: fallen auf ausprägung dieser Variable zurück
 

Umgang mit Missing Data

- schlecht: Personen raus, fehlende Werte durch Mittelwerte ersetzen

reduntant = unnötig

x

Vorrausetzung für Schätzung Multiple Regression

- residuuen normalverteilt
- corr (X) = 0
- Homeskedaszität
- x und y Zusammenhang linear
- zufallstichprobe (personen unabhängig)

Partialkorrelation:

aus Korrelation von x und y der Einfluss von z herauspartialisiert

seminpartialkorrelation

Berechnung des inkremellen Erklärungsanteil des neu hinzukommenden Prädiktors über die Varianzaufklärung von x hinaus

Multikollinarität

= hohe Korrelation zwischen Prädiktoren, führen zu kleinen geschätzen ß und großen Standartfehlern, verbesster durch zusammenfassen/entfernen redundanter Prädiktoren
Man kann einzelne durch 1/(1-R²) testen

zusätzlicher Außreisserdiagnostik

- leverage: abweichung Person vom Mittelwert
- Cooks Distance: wie ändern sich Regressionsgewichte wenn Person entefernt wird

Um over oder underfitting zu vermeiden Mellows Cp berechenen

x

Nachteile Forward selection

- Gefahr alpha-Fehler Inflation
- exploratives tool
- Kreuzvalidierung (prädiktoren sind in einem datensatz signifikatn, in andrem nicht mehr)

Moderatoreffekte (intervallskalenniveau) = interaktionseffekte (bei nominalskalliert)

Zusammenhang Schulleistung und Intelligenz durch Motvation variiert
- uvs haben kombinierte Effekte auf Av der stärker ist als Effekt  beider einzelnd

Annahmen für ML-Schätzung

- bedingte Binominalverteilung von Y
- unabhängige Beobachtungen
- korrekte spezifizierung des Modells

- signifikanzbestimmung durch t wert

Güte einer log. Regression: Modelltests

- Likelyhodd Schätzung
- Klassifikationstabelle (wie viele korekt? 4 Felder!)
- Pseudo R²
 

Eigenschaften einer log. Regression

- nur gut wenn viele Personen mit mittleren Werten, im extremwertbreich keine zuverlässigen Schätzungen
- meist verwendet für dichotome variablen

Aggregation

- auf gruppenebene, indivuduelle Daten pro Cluster zusammengefasst (Mittelwerte), kleine Stichprobe, individuelle Zusammenhänge verdeckt
- aggregationsvariable = klassengröße

(man kann anstatt MLM varianzanalysen oder regression  aber nur wenn daten aggre oder diaggregiert werden, weil beobachtungen sonst nicht unabhängig)

Disagregation

Clusterinfo jeder Person zugeteilt, alpha-fehler-inflation und standartfehler zu klein geschätzt

Icc-Schätzung

über Varianz innerhalb und zwischen der Cluster

Random Intercept

x

Random Slope

- varianz des Slope zeigt wie sich Regressionsgraden er Gruppen unterscheiden, je höher desto heterogener die Steigung der Graden, will unspezifische CLustervarianz erklären

Datenvorraussetzungen für MLM

- cluster und personen zufällig gezogen
- können unterschiedlich groß sein

- zuerst Icc berechnen um zu schauen ob Datencluster vorliegen!

t-test, Hostelings und Manova

- t-test: 2 unabhängige Gruppe, eine AV

- Hosteling: 2 unabhängige Gruppen, p AVs

- Manova: k Gruppen, p AVs (Wilks alpha test)

Vorraussetzungen Wilks dreieck

multivariate normalverteilunf der y in den Gruppen und homogenität der Kovarianzamtrix

Post Hoc analyse der Manova

- zur identifikationen der Avs die für die Mittelwertsunterscheide verantwortlich sind
- wenn manova signifitkant dann p Anovas mit  alpha = 5
-

Diskrininazanalyse

- Infos über relevante Variablen für Gruppenunterschiede, Bildung neuer Scores die optimal zwischen k Gruppen trennen (k-1 max Anzahl an Funktionen)

Probleme Dichtomisierung

- Infoverlust
- weniger Power
- Alphafehler könnte erhöht sein

Zentrierung

- wenn Prädiktorvariable keinen Mittelpunkt hat
1. zentriertung über Person hinweg = Grand mean centeringxi-mittelwert xi (besser!)
2. group mean centering xi-gruppenmittelwert (ja nach gruppe bedeutet wert etwas anderes! fish pond!)

Bonferoni Korrektur reduziert power!

x

Diskriminanzanalyse SPSS

1. Eigenwerte: kummulierte % 84 = 1. D-Funktion erklärt 84,6 % Gesamtvariation

2. Wilks Lamda
- 1 bis 2  signi 0,000 -> beide zusammen signi
- 2 signo 0.060 --> wenn erste weg zweiter nicht mehr signi

Diskriminanzanalyse Zentroide

Mittelwerte jeder Gruppe auf der Diskriminanzachse

Signiprüfung mit wilk lamda

- gruppen mit unterschiedlichen vorzeichen werden durch Zentroiden getrennt

- standartisierte Koeffizienten zeigen an welchen Beitrag Uvs zu Diskri leisten, hohe Wert =wichtig

Residual

nicht erklärte Varian 16 = wert 16 -> individualwerte schwankgen unkontrolliert um die Weurzel aus 16 =

Residial sind zufällige Individualunterschiede