C1

Versuchsplanung und Auswertung

Versuchsplanung und Auswertung


Kartei Details

Karten 76
Sprache Deutsch
Kategorie Psychologie
Stufe Universität
Erstellt / Aktualisiert 20.11.2014 / 08.02.2024
Weblink
https://card2brain.ch/box/c13
Einbinden
<iframe src="https://card2brain.ch/box/c13/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Ausgewählte Versuchspläne:

- Vergleich zweier Treatments mit KG

- Prä-Post-Test mit KG

- Solomon 4 Gruppen Plan (Veränderung durch Prätest??) 

- Längsschnittdesign mit Intervention und KG

- Switching Replications

- x=Treatment; o=Observation 

Wie kann man die Teststärke steigern?

- Bei großem N (n1+n2)

- großer Diskrepanz zu H0

- abnehmender Fehlervarianz

- bei einseitiger Testung und großem Alpha

Was ist der Nonzentralitätsparameter?

= Ausmaß der Verletzung der H0 (wie weit ist die H1 nach rechts verschoben?)

- unter H0 ist die t-Verteilung symmetrisch um den Nullpunkt (zentrale Verteilung); E=0

- unter H1 ist die t-Verteilung von Nullpunkt "verschoben" (non-zentrale Verteilung); E>0

-> Power = Wahrscheinlichkeit den Effekt zu finden (zB 25%)

- (Wurzel(2 duch n) )x Sigma

Effektstärkemaß:

- unabhängig von Stichprobengröße

- (müh1-müh2)(Differenz der beiden Mittelwert) durch Delta

- d=.2 klein; d=.5 mittel; d=.8 groß

- d größer je größer Power

Tabelle: n=Stichprobe pro Bedingung, d=Effektstärke, Alpha wichtig, dcrit unwichtig

Zweiseitig: mehr n als einseitig für gleiche Teststärke

Einseitig: Teststärke steigt mit steigender Effektstärke

 

Poweranalyse a priori:

Festlegung von Allpha(1,2-seitig), d und 1-Beta für geplante Untersuchung

-> Ermittlung Stichprobengröße

(d auf Grund von vorheriger Studien annehmen (Cohens Tabellen))

(einseitig: Entwicklung Teststärke mit zunehmender Effektstärke; zweiseitig: mehr n als für einseitig notwendig bei gleicher Teststärke)

Poweranalyse post hoc:

Ermittlung Alpha (1,2-seitig), d und n für bageschlossene Untersuchung

-> Berechnung 1-Beta (Teststärke)

D auf Grund von vorheriger Studien annehmen -> Cohens Tabellen

Varianzanalyse:

SSTO=SSBG (Treatment, Abweichung gruppenspezifischer Mittelwert von Gesamtmittelwert, systematisch) + SSWG (Unterschiede von Werten zu jeweiligen Gruppenmittelwerten, nicht-systematisch)

Summe aller Treatmenteffekte=0

Freiheitsgrade:  b: p-1; w:p(n-1)

Modellgleichung: Gesamtmittelwert plus Treatmenteffekt plus Fehler (E=0, normalverteilt, homogen)

Hypothesen: H0 -> alle Treatmenteffekte=0; H1 -> mind 1 Treatment ungleich Null, folglich zwei Abweichungen weil Aufsummierung zu Null!

F-Statistik für ANOVA:

feste Faktoren: MSBG (p-1) durch MSWG (p(n-1)), Erwartungswert ist Varianz auf Populationsebene 

Zufallsfaktoren: MSBG (plus syst. Anteil) durch MSWG

H0=1; H1>1

Eig keine Änderung bei einfaktoriell

1. Verteilungsannahme

Unabhängigkeit der Residuen:

- voneinander (zentral sonst Messwiederholungen)

- von Treatment-Effekten (zentral sonst Annäherung durch Transformation)

2. Verteilungsannahme

Normalverteilung von Y innerhalb der p Populationen:

- F-Test robust gegen gleichgerichteten Abweichungen von NV für großes n

- starke Verletzung: Transformation

3. Verteilungsannahme

Homogenität der Varianzen:

- robust gegen kleine Abweichungen bei Normalverteilung

- moderate oder starke Heterogenität verzerrt statistische Entscheidung

Approximation aller Annahmen durch lineare Transformation von Y möglich

Multiple Mittelwertsvergleiche:

- für jedes Mittelwertspaar separater unabhängiger t-Test als Ergänzung der Varianzanalyse 

- für p Mittelwerte gibt es p(p-1)/2 Paare von Mittelwerten

 

Probleme der multiplen Mittelwertsvergleiche:

1. Schätzung der Fehlervarianz: durch MSWG auf Basis der p Gruppen besser als bei einzelnen Paaren -> je größer Freiheitsgrade, desto kleiner sign. T-Wert -> Power steigt) -> gemeinsam geschätzte Fehlervarianz für alle Paarvergleiche 

2. Abhängigkeiten zwischen Mittelwertsunterschieden: bei p Mittelwerten nur p-1 unabhängige Mittelwertsdifferenzen, Übrigen abhängig vom ersten  -> Beschränkung auf non-redundante Vergleiche

3. Inflation des Alpha-Fehlers: 1-(1-Alpha)hochk k=Mittelwertsvergleiche; steigt einmal fälschlicherweise die H0 zurück zuweisen -> Kontrolle von Alpha(familywise)

Post-hoc Tests allgemein:

- Nutzung gemeinsamer Fehlervarianz

- spez. non-redundante Mittelwertsvergleiche ???

- Vermeidung Alphakumulation

 

Dunnett's Multiple Comparison Test:

 

- höhere Teststärke als Tukey

- 2 Mittelwerte durch geschätzte Varianz über alle Bedingungen

- 1 Referenzgruppe gegen alle (bei 4 Gruppen nur 3 gegen eine testen)

- df: p(n-1)

- Treatment Mean p-1

- Adjustierung Alpha-Niveau

Tukey's HSD:

- Test aller paarweisen Unterschiede

- 3 EG und 1 KG -> 6 Bedingungen ( p(p-1)/2) 

- df p(n-1)

- Berücksichtigung Alpha durch Adjustierung des kritischen Wetes q für jeden Einzelvergleich in Abhängigkeit von Anzahl der Mittelwerte

Geplante Vergleiche:

- hypothesengeleitete Tests auf Mittelwertsunterschiede zwischen Bedingungen

- Gewichte summieren sich auf null, mindestens einer nicht gleich Null 

- höherer empirischen Gehalt und höhere Teststärke

- orthogonale, unabhängige Kontraste: Produkte der Gewichte aufsummiert gleich Null

- Kontrast für Erwartungswerte, mit Dach Kontrast für beobachtete Mittelwerte

Helmert-Kontrast:

4 Kontraste, 5 Bedingungen

Polynomiale Kontraste:

Bei linearer Vorhersage wird linearer signifikant, bei quadratischer die quadratische und bei kurvilinear beide

Effektstärke bei p Mittelwertsunterschieden:

- bei H0 ist Varianz Null, Treatment Null

- klein: .1 Mittel: .25 und groß: .4

Effektstärke und Assoziationsmass

R(hoch2) gemessen in Stichprobe und überschätzt somit wahre Varianz in der Population!!!!

Nonzentralitätsparameter bei p Mittelwerten

- pnf(hoch2)

Teststärke bei F-Tests:

- a priori und Post Hof, einziger Unterschied f anstatt d!

- Effektstärke von .05 bis .8

- Zählerfreiheitsgrad: u=p-1

- ungleiche Zellbesetzung anstatt n nehme N/p

Teststärke bei geplanten Vergleichen:

- nicht Tabellen übernehmen weil Zähler hier nen anderen Freiehietsgrad hat! also umrechnen (können wir nicht)

Zweifaktorielle Varianzanalyse:

Varianzzerlegung

SSTO=SSA+SSB+SS(AxB)+SSWG

Haupteffekt A bei festen Faktoren

...

Haupteffekt B bei festen Faktoren

...

Interaktion bei festen Faktoren

...

Haupteffekt Zufallsfaktor A

...

Haupteffekt Zufallsfaktor B

...

Interaktion der Zufallsfaktoren AxB

...

Haupteffekt fester Faktor A (B Zufallsfaktor)

...

Haupteffekt Zufallsfaktor B (a fester Faktor)

...

Interaktion fester Faktor A und Zufallsfaktor B

....

A+E für festen Faktor A respektive B

...

A+E für Interaktion

...