Statistik IV
Fragen zur Prüfungsvorbereitung
Fragen zur Prüfungsvorbereitung
Set of flashcards Details
Flashcards | 45 |
---|---|
Language | Deutsch |
Category | Psychology |
Level | University |
Created / Updated | 18.05.2023 / 29.05.2023 |
Weblink |
https://card2brain.ch/box/20230518_statistik_iv
|
Embed |
<iframe src="https://card2brain.ch/box/20230518_statistik_iv/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Welche Aussagen zu EDA-Verfahren sind richtig?
- EDA-Verfahren ist, dass sie „robust“ oder unempfindlich gegenüber „außergewöhnlichen“ Datenpunkten oder Verteilungen von Daten sind. Diese Eigenschaft kann man gut anhand von Box-Plots verdeutlichen.
- EDA-Verfahren sind nützlich, weil sich mit ihrer Hilfe Muster oder Zusammenhänge in der Regel auf einen Blick erkennen lassen.
- EDA- Verfahren sind vergleichsweise leicht verständlich, robust gegenüber Anomalien in den Daten und sie bewegen sich in der Regel auf einem niedrigen Abstraktionsniveau, das heißt, nicht weit weg von den Originaldaten.
- EDA-Verfahren benutzen sehr häufig robuste Maße wie Median und Interquartilsabstand und so gut wie nie leicht beeinflussbare Maße wie Mittelwert und Standardabweichung.
- Nicht hypothesengeleitet, meist robust gegenüber Anomalien, meist grafische Verfahren
- Es gibt keine empirische Fragestellung, deren Untersuchung nicht von der Anwendung von EDA-Verfahren profitieren könnte
Wie unterscheiden sich Influence-Plots von Bubble-Plots?
- Influence-Plot: Die Größe der Kreise steht für das Ausmaß, in dem sich die Korrelation verändern würde, wenn man den entsprechenden Punkt aus den Daten entfernte. Ein ungefüllter Kreis bedeutet, dass sich die Korrelation durch Entfernen des Punktes verringern, ein gefüllter, dass die Korrelation ansteigen würde, wenn man den Datenpunkt entfernte. Die Legende zeigt an, wie groß die Veränderung in der Korrelation jeweils wäre.
- Bubble-Plot: Vermutung, dass der Zusammenhang zwischen zwei Variablen von einer dritten mit beeinflusst sein könnte. Der Einfluss dieser dritten Variable kann in einem Streuungsdiagramm durch die Größe der „Bubbles“ (Kreise) sichtbar gemacht werden.
- Beispiel bezogen: Es könnte also sein, dass die unverhältnismäßig hohe Reaktionszeit durch die Angst mitverursacht wurde (grössere Bubbles).
Welche Aussagen zur Lowess-Kurve (Locally weighted scatterplot smoother) sind richtig?
- Sehr aufwendig, ermöglicht Beschreibung nicht-linearen Zusammenhang
- Glättungsverfahren mittels einer lokal gewichteten Regressionsfunktion
- Unterschiede lineare Regression
- Ungleiche Gewichte der Punkte
- Weniger beeinflusst durch Ausreisser (nur wenn Zusammenhang exakt linear ist, bekommt man gleiche Ergebnisse wie bei linearen Regression)
- Sehr nützlich, weil sie jede Art von bivariaten Zusammenhängen sichtbar machen kann. Zusammenhang zwischen zwei Variablen = perfekt linear = Lowess Gerade, die identisch zur Regressionsgeraden bei der linearen Regression ist. Aber auch jede Art von nichtlinearem Zusammenhang wird mithilfe einer Lowess-Kurve aufgedeckt. Vor allem bei kleinen Stichproben (mit Ausreisser), kann es sein, dass die Regressionsgerade eine völlig falsche Beschreibung des bivariaten Zusammenhangs liefert, auch wenn der Zusammenhang zwischen den beiden Variablen tatsächlich grundsätzlich linear ist. Die Lowess-Kurve wird von solchen Anomalien in den Daten jedoch kaum beeinflusst.
Wie würde man in der Praxis einen nicht-linearen Zusammenhang begradigen, wenn der Zusammenhang positiv ist, die Steigung der Kurve aber monoton abnimmt
- Geradebiegen erfolgt indem eine der beiden Variablen durch Potenzieren mit einem bestimmten Exponenten transformiert wird (z.B. ����2, ����3, ����0.5, ����2, ����3, ����0.5etc).
- Anschliessend können Verfahren, die Linearität voraussetzen (z.B. lineare Regression), wie gewohnt angewendet werden.
- --> Ob eine monotone Krümmung vorhanden ist, kann man zuvor durch eine Lowess-Kurve herausfinden. Die Vorhersagekraft eines linearen Regressionsmodels (multiples R-Quadrat) verbessert sich in der Regel durch die Begradigung
Angenommen im Data.frame «dat» befinden sich die Variablen «size», «weight» und «age». Welcher R-Befehl erzeugt ein Bubble-Plot, bei dem «size» auf der x-Achse ist, «weight» auf der «y-Achse» ist, und die Grösse der Kreise mit «age» variieren?
--> # Erzeugung des Bubble-Plots mit ggplot
ggplot(dat, aes(x = size, y = weight, size = age)) +
geom_point()
Warum ist es keine gute Idee, den empirisch gefundenen Effekt als Schätzung des Populationseffekts für eine Post-Hoc-Poweranalyse zu verwenden?
- Man erhält bei einer Post-Hoch Poweranalyse maximal eine Power von 50% à steht immer schon im vorher fest.
Wie kann man Effektgrössen berechnen, wenn nur der exakte p-Wert, die Stichprobengrösse und das verwendete statistische Verfahren angegeben ist?
- Freiheitsgrad bestimmen (z.B. df = N – 2 für T-test bei unabhängigen Stichproben)
- Prüfgrösse bestimmen, die zu Freiheitsgerade und p-Wert korrespondiert (z.B. mit R oder anderer App)
- Formel anwenden: Effektgrösse = Signifikanztestergebnis (Funktion der Prüfgrösse (T-, F-, X2-Wert))/ Grösse der Studie (Ausgedrückt in Freiheitsgeraden)
Welche Effektstärkeschätzungen könnte man vornehmen, wenn lediglich bekannt ist, dass ein Ergebnis signifikant bzw. nicht signifikant war?
Signifikant:
- Prüfgrösse/ Teststatistik (t-, F-, X2-Wert) für das max. Mögliche p bestimmen à Untergrenze der Effektgrösse (wie gross der Effekt mind. Sein muss)
Nicht signifikant:
- Prüfgrösse/ Teststatistik (t-, F-, X2-Wert) für das min. Mögliche p bestimmen à Obergrenze der Effektgrösse (wie gross der Effekt max. sein kann)
Wenn Effektgrössen aus unterschiedlichen Versuchsdesigns stammen, kann man sie durch Transformationen vergleichbar machen. Welche der folgenden Transformationen sind sinnvoll?
- Z.B. durch die Umrechnung von Korrelationskoeffizienten in Standardisierte Effektgrößen (z.B. Cohen's d) oder durch die Transformation von Regressionskoeffizienten in Standardisierte Effektgrößen (z.B. β in Cohen's d).
Korrelationsmasse von Kontingenztafeln/ Kreuztabelle:
- Gebräuchlichestes effektestärkemass: Cramers phi
- Anzahl der Spalten/ Zeilen in Kreuztabellen ebeeinflusst jedoch Höhe von Cramers phi
- Bessere vergelichsbarkeit durch Effektgrösse W = Crames phi * Wurzel(dfkleiner)
Korrelationsmasse aus Mittelwertsunterschieden:
- Werden als punktbiseriale Korrelation (rpb) bezeichnet
- rpb unterschätzt Korrelation bei künstlicher Dichotomosierung der UV
- Unterschätzung kann durch korrektur (r = 1.256 * rpb) ausgelglichen werden
Wie unterscheiden sich approximative und exakte Schätzungen des Konfidenzintervalls von g?
- Bei der approximativen Schätzung wird die Standardnormalverteilung als Annäherung für die Stichprobenverteilung verwendet, bei der exakten Schätzung wird die nonzentrale t-Verteilung verwendet.
- Bei der approximativen Schätzung ist das Konfidenzintervall immer symmetrisch (d.h. g ist genau in der Mitte der oberen und unteren Grenze des Konfidenzintervalls), bei der exakten Schätzung hingegen ist das Konfidenzintervall in der Regel leicht
Asymmetrisch (Asymmetrie nimmt mit zunehmender Stichprobengrösse bzw. Freiheitsgrade und zunehmender Grösse des Effekts zu). à Die Intervalle unterscheiden sich unter den üblichen Bedingungen (nicht zu kleine Stichprobe und «normale» Effekte) nicht wesentlich von exakten Konfidenzintervallen
- Die approximative Methode hat der exakten Methode gegenüber keine Vorteile, ausser, dass diese von Hand leichter zu berechnen ist
- Der Nonzentralitätsparameter wird nur bei der exakten Schätzung verwendet à t-Werte = Schätzung der entsprechenden Populationswerte; die beiden extremsten Populationsparameter, die bei einem zweiseitigen Signifikanztest
- mit alpha gerade noch signifikant wären, stellen die Grenzen des Konfidenzintervalls dar
- Bei der approximativen Schätzung benutzt man eine Schätzung für den Standardfehler von g; bei der exakten Schätzung wird der empirische t-Wert für g bestimmt
- Approximative und exakte Schätzungen liefern bei nicht zu kleinen Stichproben und bei «normalen» Effekten ähnliche Ergebnisse. Am grössten sind die Unterschiede bei kleinen Stichproben und grossen Effekten.
Welche Aussagen zur Schätzung von Konfidenzintervallen mit der Bootstrap-Methode sind richtig?
Bootstrapping gehört zur Gruppe der sog. Resampling-Verfahren
Stichprobenverteilung wird nicht theoretisch bestimmt, sondern empirisch durch wiederholtes Ziehen von Stichproben aus der Originalstichprobe.
Stichproben werden durch «Ziehen mit Zurücklegen» gezogen
Vorteile
- Keine Voraussetzung der Normalverteilung
- Kann auf Effektgrössen beliebiger Art angewendet werden (auch solche mit unbekannten theoretischen Verteilungen)
Nachteile
- Rohdaten müssen vorhanden sein
- Ungenaue Schätzung bei sehr kleinen Stichproben
Wie kann man sich bei der Schätzung von Konfidenzintervallen von Korrelationen, Relativen Risiken (RR) und Odds Ratios (OR) die Normalverteilung zu Nutze machen?
- Korrelationen kann man mit Hilfe der Fishers-z-Transformation in normalverteilte Werte umwandeln und Relative Risiken und Odds Ratios kann man durch natürliches Logarithmieren in normalverteilte Werte umwandeln. Die Grenzen des Konfidenzintervalls werden für die transformierten Werte mit Hilfe der Normalverteilung bestimmt und anschliessend werden die Grenzen wieder zurücktransformiert in RRug/RRog oder in ORug/ORog.
- RR (relatives Risiko) = 1 bedeutet kein Unterschied zw. Den beiden Gruppen àStichprobenverteilung für RR ist schwierig zu bestimmen aber logarithmierte RRs sind annähernd normalverteiltOdds Ratio
- logarithmierte Odds Ratio sind annährend normalverte
Angenommen es wurde mit einem t-Test für unabhängige Stichproben geprüft, ob zwei Stichproben den gleichen Mittelwert haben. Beide Stichproben hätten eine Grösse von 50 und der empirische t-Wert wäre 2.2. Welche der folgenden R-Befehle führen zu einer exakten Bestimmung des 95%-Konfidenzintervalls des Abstandsmasses d?
- t_to_d(2.2, 98)
- t_to_d (res$statistic, df_error = res$parameter)
- Als erstes gibt man den empirischen t-Wert an, anschliessend die Freiheitsgrade (Bei t-Test für unabhängige Stichproben (n1+n2-2) = df
Wie unterscheiden Sich metaanalytische Modelle mit «festen Effekten» (fixed effects) von solchen mit «Zufallseffekten» (random effects)?
fixed-Efects-Modell:
- Alle Studien untersuchen den gleichen Populationseffekt (oder dass alle unterscuhten Populationseffekte gleich sind)
- Unterschiedlichkeit der Effektgrössen zwischen den Studien geht allein auf Stichprobenfehler („sampling error“) zurück
- Studie mit geringer Stichprobengrösse hat wenig Gewicht
Random-Effects-Modell
Jede Studie drückt einen anderen Populationseffekt aus.
Nicht nur Stichprobenfehler sondern auch Unterschiedlichkeit zwischen Studien (Heterogenität) wird berücksichtigt.
→ Konfidenzintervall des Populations- effekts wird tendenziell breiter geschätzt
- Gewicht einer Studie hängt nicht nur von Grösse sondern auch von Abweichung von anderen Studien ab.
Welche Gründe sprechen dafür, in eine Metaanalyse auch sog. «graue» Literatur einzuschliessen?
- «Graue» Literatur = unpublizierte Masterarbeiten, Institutsberichte etc.
· Eine Metaanalyse kann nur sinnvoll durchgeführt werden, wenn die Untersucher sich schon eingehend mit dem inhaltlichen Gebiet befasst haben oder zumindest willens sind, das zu tun.
Insgesamt kann die Einbeziehung von grauer Literatur in eine Metaanalyse dazu beitragen, ein ausgewogeneres und vollständigeres Bild der Forschungslage zu erhalten.
Was gilt es bei der Extrahierung bzw. Bestimmung von Effektgrössen aus Primärstudien zu beachten, wenn diese später für eine Metaanalyse verwendet werden sollen?
- Konsistenz der Effektgröße: Wichtig, dass Effektgröße in allen Primärstudien auf die gleiche Weise gemessen wird, um eine Vergleichbarkeit der Ergebnisse zu gewährleisten. --> richtige Wahl, hängt von der Art der untersuchten Variablen ab (z.B. dichotome, stetige oder kategoriale Variablen).
- Messfehlerkorrektur: Messfehler können den berechneten Effekt verzerrt darstellen. -->Maßnahmen zur Messfehlerkorrektur, um die Genauigkeit der Effektgröße zu verbessern.
- Berücksichtigung von Stichprobengröße und Varianz: --> können einen erheblichen Einfluss auf die berechnete Effektgröße haben. Daher sollten diese Variablen bei der Berechnung der Effektgröße berücksichtigt werden.
- Publikationsbias: --> wichtiges Problem in der Metaanalyse, da es dazu führen kann, dass Studien mit signifikanten Ergebnissen eher veröffentlicht werden. Es ist daher wichtig, Methoden zur Identifizierung und Korrektur von Publikationsbias anzuwenden.
- Verwendung der richtigen Software: Es gibt verschiedene Software-Tools zur Durchführung einer Metaanalyse. Es ist wichtig, diejenige auszuwählen, die den Bedürfnissen und Anforderungen der Forschungsfrage am besten entspricht.
Insgesamt ist es wichtig, bei der Extrahierung bzw. Bestimmung von Effektgrößen aus Primärstudien sorgfältig vorzugehen und alle relevanten Faktoren zu berücksichtigen, um eine zuverlässige Metaanalyse durchzuführen
Welche Aussagen zur Analyse potenzieller Moderatorvariablen sind richtig?
Studienergebnisse variieren in der Regel nicht nur zufällig, sondern auch systematisch.
Systematische Einflüsse können mittels korrelations- und regressionsanalytischer Verfahren analysiert werden
Ergebnisse dieser Analysen können Aufteilung in Untergruppen nahelegen.
Beispiele für Moderatorvariablen aus Metaanalyse von Smith und Glass (1977)
- kein Zusmenhang mit Wirksamkeit:
Dauer der Therapie
Einzel vs. Gruppentherapie
Erfahrung des Therapeuten
Pos. Zusammenhang mit Wirksamkeit
IQ der Klienten
Ähnlichkeit des sozialen Hintergrunds
Reaktivität der abhängigen Masse
Wie unterscheidet sich die psychometrische Metaanalyse vom HO-Modell?
DIE PSYCHOMETRISCHE METAANALYSE:
- Random-Effects-Modell u
- Die Varianz der gefundenen Effektgrößen sollte also nur auf die Fehlervarianz zurückzuführen sein. Wenn aber o^2p >> 0 („>>“ steht für „deutlich größer“) ,in diesem Fall sollten getrennte Analysen für plausible Subgruppen durchgeführt werden. Sind die Populationsvarianzen für die Subgruppen dann deutlich kleiner als in der ursprünglichen Analyse, spricht das für eine unzulässige ursprüngliche Zusammenfassung und liefert die Grundlage für eine spezifischere Interpretation: Die Subgruppen repräsentieren unterschiedliche Populationen mit unterschiedlichen Effektgrößen
DAS HO-MODELL:
- Fixed Effects aber auch Random Effects
- Während man bei der psychometrischen Metaanalyse keine Annahmen über die Verteilung der Populationseffekte macht , beginnt das HO-Modell schon mit einer Vorannahme: Die Populationseffekte (oder „wahren Werte“) bilden ein Kontinuum und sind normalverteilt. Es handelt sich also um prinzipiell vergleichbare „Apfelsorten“ oder, in anderen Worten, um eine Stichprobenverteilung aus einer „Superpopulation“.13 Das zentrale Ergebnis ist dann auch der Mittelwert dieser Superpopulation, wobei in der Regel auch deren Streuung berichtet wird.
Wie kann beim HO-Modell die Heterogenität der Populationseffekte beurteilt werden
- Q = Heterogenitätsmass (wird bei T^2 (Verteilung der Populationsparameter) mit Freeiheitsgeraden verglichen)
Man kann das Heterogenitätsmass I2 bestimmen, welches angibt, wie gross das Ausmass der nicht erklärten Varianz der Stichprobeneffekte ist.
Was kann man aus der Form der p-Curve u.a. ablesen?
- Die p-Kurve kann verwendet werden, um p-Hacking (verschiedene „Tricks“ benutzt werden, um nicht signifi- kanten Testergebnissen doch noch über die Signifikanzschwelle zu „helfen“) zu erkennen.
- Die Autoren definieren diese Kurve als "die Verteilung statistisch signifikanter p-Werte für eine Reihe unabhängiger Befunde. Ihre Form ist ein Indikator für die Beweiskraft dieser Gruppe von Befunden"
- Die p-Curve ist ein statistisches Werkzeug, das verwendet wird, um zu untersuchen, ob eine Gruppe von p-Werten aus mehreren Studien, die eine bestimmte Hypothese testen, statistisch signifikant sind oder nicht
Was kann man aus einem Forest-Plot von einem HO-Modell u.a. ablesen?
Ein Forest-Plot = grafische Darstellung von Schätzwerten und Konfidenzintervallen aus verschiedenen Studien, die eine bestimmte Fragestellung untersuchen.
--> Im Kontext des HO-Modells können Forest-Plots verwendet werden, um die Effektgrößen von Studien zu visualisieren, die verschiedene Untergruppen von Teilnehmern oder verschiedene Behandlungsbedingungen vergleichen.
Ein Forest-Plot kann verschiedene Informationen liefern, darunter:
- Die Größe des Effekts: Die Punktschätzungen in jedem Balken des Forest-Plots geben eine Schätzung der Größe des Effekts in jeder Studie an. Wenn der Balken länger ist, deutet dies auf einen größeren Effekt hin.
- Die Präzision der Schätzung: Die Breite jedes Balkens gibt die Breite des Konfidenzintervalls an. Ein schmaler Balken deutet darauf hin, dass die Schätzung präziser ist und das Konfidenzintervall enger ist.
- Heterogenität der Ergebnisse: Der I²-Wert, der auf dem Forest-Plot angegeben ist, gibt Auskunft darüber, wie heterogen die Ergebnisse der Studien sind. Ein hoher I²-Wert deutet darauf hin, dass die Ergebnisse der Studien stark voneinander abweichen, während ein niedriger I²-Wert darauf hinweist, dass die Ergebnisse ähnlicher sind.
- Subgruppenanalysen: Wenn der Forest-Plot verschiedene Untergruppen von Studien enthält, können diese mithilfe von Farben oder Symbolen gekennzeichnet werden, um anzuzeigen, welche Gruppe welchen Effekt hatte.
Ein Forest-Plot kann daher eine nützliche Zusammenfassung von Studienergebnissen sein und helfen, die Stärke und Konsistenz von Effekten in verschiedenen Untergruppen zu beurteilen.
Welche zwei zentralen Probleme gefährden die Aussagekraft von Metaanalysen?
«Äpfel-und- Birnen-Problem», also die potenzielle Vermischung von Populationseffekten, und die selektive Auswahl von Studien
Welche Aussagen zum Fail-safe-N sind richtig?
- file-drawer problem“
- Frage, wie viele wissenschaftliche Manuskripte wegen nicht signifikanter Ergebnisse nicht publiziert wurden
- Liegt Populationseffekt vor, welcher sich von 0 unterscheidet
- Mit diesem Maß kann man berechnen, wie viele Studien mit einem Nulleffekt in den Schubladen der Forscher liegen müssten, damit der über alle Studien berechnete p- Wert über 5% käme (Rosenthal, 1979):
- Wenn das Fail-safe N groß ist im Vergleich zur Anzahl der Studien, die in die Metaanalyse eingingen – Rosenthal empfiehlt eine Untergrenze von 5k + 10 – dann kann das Ergebnis als unterschiedlich von 0 betrachtet werden.
- Nur für eine Fragestellung: ob überhaupt ein Effekt in der Population vorliegt.
- Fail-safe N wurde früher sehr häufig angewandt, wird jedoch heutzutage aufgrund seiner eingeschränkten Aussagekraft kaum mehr benutzt
Was würde es bedeuten, wenn man unten links auf einem Funnel-Plot keine oder nur sehr wenige Punkte sieht?
es fehlen kleinere Effektgrlssen ais kleineren Stichproben (--> Überschätzung des Effekts)
Wozu dient die Trim-and-fill-Methode?
- . = diagnostiziert diese Methode das Ausmaß der Asymmetrie der Verteilung der Effekte im Funnel-Plot und fügt neue Effektgrößen hinzu, die diese Verteilung symmetrischer machen.
- Die Trim-and-fill-Methode identifiziert asymmetrische Verteilungen in einem sogenannten Funnel-Plot und schätzt, wie viele Studien möglicherweise fehlen, um das Diagramm symmetrisch zu machen. Dann werden diese fehlenden Studien ergänzt und eine neue Meta-Analyse durchgeführt.
- Die Methode kann dazu beitragen, eine realistischere Schätzung des Effektmaßes und seiner Präzision zu erhalten und die Verzerrung aufgrund von Publikationsbias zu reduzieren.
Welche Definitionen von Missing-Data-Mechnismen sind zutreffend?
- Missing completely at random (MCAR):
- Ausfall ist komplett unsystematisch und «zufällig»
- Die Ausfallwahrscheinlichkeit ist unabhängig von anderen gemessenen Variablen und den fehlenden Werten selbst
- Missing at random (MAR)
- «nur» zufällig fehlen Daten einer Variable Y, wenn das Feheln nicht von der Ausprägung der Y-Werte selbst abhängt, sonder nur von der Ausprägung mindestens einer weiteren Variable Y. (wie MCAR)
- Für jeden Wert von X repräsentieren die entsprechend Y-Werte im MAR-Fall zwar eine Zufallsstichprobe, aber insgesamt sind die Y-Werte nicht notwendigerweise eine Zufallstichprobe aus der (hypothetischen) Gesamtstichprobe von Y-Werten.
- Not missing at random (NMAR)
- Die Ausfallwahrscheinlichkeit hängt (auch nach Korrektur mit anderen Variablen) von den fehlenden Werten selbst ab.
Welche Nachteile hat fallweises Löschen gegenüber modernen Behandlungsmethoden für fehlende Werte, wie Multiple Imputation und Maximum-Likelihood-basierte Verfahren?
- Teststärke (für entsprechende Signifikanztest) und Schätzgenauigkeit (für Konfidenzintervalle, aber auch für Effektgrössen) sinken, weil die Stichprobe kleiner wird
- Wenn Daten «nur» zufällig fehlen (MAR) auch Parameterschätzungen (z.B. Mittelwerte) systematisch verzerrt sein. à Aber bei manchen Analysen, wie etwa Regressionsanalysen mit fehlenden Y-Werten sollte man allerdings, wenn die MAR-Annahme zutrifft, keine systematischen Verfälschungen erwarten
- Verlust der Power, wenn die fehlenden Werte MCAR sind
- Nur im Allgemeinen vertretbar, wenn:
- MCAR- Annahme plausibel
- Anteil der fehlenden Werte gering
Was ist der Vorteil der Multiplen Imputation gegenüber einer einfachen Imputation mittels stochastischer Regressionsimputation?
Sie ist flexibler und lässt sich z.B. auch auf kategoriale Variablen anwenden
Angenommen wir hätten einen Datensatz «dat», der die abhängige Variable «y» und
die unabhängigen Variablen «x1», «x2» und «x3» enthält. Zudem würde der Datensatz fehlende Werte enthalten, die Missing at random sind. Welcher der folgenden R-Codes führt eine Multiple Imputation mit anschliessender multipler Regression durch?
# Annahme: Der Datensatz heißt "dat" und enthält die abhängige Variable "y" sowie die unabhängigen Variablen "x1", "x2" und "x3".
# Laden des Pakets für Multiple Imputation
library(mice)
# Durchführung der Multiple Imputation
imp <- mice(dat, m = 5, method = "pmm", seed = 123)
# Durchführung der multiplen Regression auf jedem der vervollständigten Datensätze
models <- with(imp, lm(y ~ x1 + x2 + x3))
# Zusammenführung der Regressionskoeffizienten aus den verschiedenen Datensätzen
pooled_models <- pool(models)
# Ausgabe der zusammengeführten Ergebnisse
summary(pooled_models)
Welche Konsequenzen hat es, wenn eine Stichprobe aufgrund von Ergebnissen oder Auswirkungen erhoben wird?
- Keine Repräsentativität vorhanden
- Valide Schätzung des Zusammenhangs zwischen Ergebnis und Ursache nicht möglich
- Untersuchungen zur differentiellen Wirksamkeit einer Intervention bei Gruppe mit und ohne Ergebnis jedoch immer noch möglich.
- Für Kausalaussage muss die Einteilung in Gruppen nicht bezüglich Ergebnis (abhängige Variable), sondern bezüglich der Ursache (unabhängige Variable) vorgenommen werden.
- Ähnliches Problem: Bei erwachsenen Patienten (z.B. Autismus) wird rückblickend nach potentiellen Ursachen (z.B. gefühlskalte Mutter) in der Kindheit gefragt
Wie geht man bei der Randomized-Response-Technik gemäss dem ursprünglichen Ansatz von Warner (beschrieben in Sedlmeier Kapitel 29.3.1) vor, um den tatsächlichen Ja-Anteil auf eine sensible Frage zu schätzen?
- Über eine Zufallsmechanismus (z.B. Würfelwurf) wird bestmmt, ob eine Frage wahrheitsgemäss beantwortet werden soll oder ob gelogen werden soll.
- Bsp. "haben Sie bei der prüfung geschummlet?"
- VP würfelt & (p =1/6) --> VP soll Wahrheit sagen
- VP würfel keine 6 (1 - p) --> VP soll lügen
- Anteil von Ja-Antworten: --> Formel...
- Der Umformung, erhalten wir den geschätzen tatsächlichen Anteil von Schummlern: (Formel)
Wie geht man bei der Randomized-Response-Technik für Mittelwerte vor?
- zwei gruppen müssen jeweils eine heikle und eine nicht-heikle Frage beantworten, z.B.
- Wie hoch ist ihr EInkommen? (beantwortet von gruppe 1 mit Wahrscheinlichkeit p1 und von Gruppe 2 mit Wahrscheinlichkeit p2)
- Was ist das Durchschnittseinkommen in ihrem Beruf? (beantwortet von gruppe 1 mit Wahrscheinlichkeit 1 - p1 und von Gruppe 2 mit Wahrschienlichkeit 1 -p2=
- Der gesuchte Mittelwert wird dann geschätz mit: û = (1-p1=<2- (1-p2)x1/ p2 - p1
- Nachteile diese methode:
- Beid eGruppen müssen sich in der Schätzung des Durchsncittseinkommens einig sein
- Anonymität gefährdet, wenn sensible und nihct-senisble Werte sich stark unterschieden
Welche Vor- und Nachteile hat die Randomized-Response-Technik?
- Die Randomized-Response-Technik (RRT) führt zu weniger Power, da Fehlervarianz hinzugefügt wird.
- Der Aufwand und die kognitive Belastung der Befragten ist bei der RRT höher.
- Landsheer et al. (1999) konnten zeigen, dass Befragte mit einem geringen Verständnis der RRT-Prozedur auch weniger häufig der Methode vertrauen, als Befragte mit einem besseren Verständnis.
- Ostapczuk et al. (2009) konnten zeigen, dass ein nicht zu vernachlässigender Anteil der Befragten die RRT-Instruktionen missachtet und ausweichende „Nein“-Antworten gibt, selbst wenn das Ergebnis des Zufallsexperiments eine „Ja“-Antwort erfordert.
- Es existieren mehrere R-Packages zur Analyse von Randomized-Response- Daten, z.B. RRreg, rr, und RRTCS
Wie unterscheidet sich die Bayesianische Statistik von der klassischen Inferenzstatistik?
- In der klassischen Inferenzstatistik versteht man unter Wahrscheinlichkeiten relative Häufigkeiten von unendlich oft wiederholbarer Zufallsexperimente, während in der Bayesianischen Statistik die Wahrscheinlichkeiten den Grad der Überzeugung ausdrücken.
- In der klassischen Inferenzstatistik kann man keine Wahrscheinlichkeitsaussagen über die Korrektheit von Hypothesen machen, in der Bayesianischen Statistik jedoch schon.
- In der Bayesianischen Statistik kann bei der Schätzung von Populationsparameter Vorwissen besser genutzt werden.
- In der klassischen Inferenzstatistik wird nur eine Nullhypothese getestet, in der Bayesianischen Statistik hingegen können viele Hypothesen gleichzeitig getestet bzw. beurteilt werden.
- Die Bayesianische Statistik arbeitet mit Priorverteilungen, Likelihoods und Posteriors, während die klassische Inferenzstatistik auf Signifikanztests und Konfidenzintervalle setzt.
- Die Bayesianische Statistik betrachtet auch Wahrscheinlichkeiten von Hypothesen, bevor Daten vorliegen, während die klassische Inferenzstatistik dies nicht tut.
- Die Bayesianische Statistik verwendet Bayes-Theorem, während die klassische Inferenzstatistik dies nicht tut.
- Die Bayesianische Statistik kann konjugierte Priors verwenden, um Berechnungen zu vereinfachen, während die klassische Inferenzstatistik dies nicht tut.
- Die Interpretation von Wahrscheinlichkeiten ist in der Bayesianischen Statistik anders als in der klassischen Inferenzstatistik.
Welche Aussagen zum Bayes-Theorem sind richtig?
- Das Verhältnis der Likelihoods der H1- und H0-Hypothesen ist relevant für das Bayes-Theorem.
- Das Verhältnis von Posterior-Odds zu Prior-Odds ist relevant für das Bayes-Theorem.
- Wie viel wahrscheinlicher (oder unwahrscheinlicher) unser Stichprobenergebnis unter H1 ist als unter H0, ist relevant für das Bayes-Theorem.
- Das Bayes-Theorem liefert die Regel zur rationalen Revision von Wahrscheinlichkeiten im Lichte neuer Evidenz.
- Das Bayes-Theorem ermöglicht es, die Wahrscheinlichkeit einer Hypothese zu aktualisieren, wenn neue Daten vorliegen.
- Das Bayes-Theorem berücksichtigt unterschiedliche Überzeugungen von Personen und kann daher auch bei unterschiedlichen Meinungen zu einer Hypothese angewendet werden.
- Das Bayes-Theorem ist ein wichtiger Bestandteil der Bayesianischen Statistik und wird verwendet, um Posteriors aus Priors und Likelihoods zu berechnen.
Was versteht man unter Priors, Likelihoods und Posteriors?
- Priors (oder Priorverteilungen) sind Wahrscheinlichkeitsverteilungen, die die Ausgangsüberzeugungen für alle betrachteten Hypothesen vorliegender Daten darstellen.
- Likelihoods geben für jede Hypothese an, wie wahrscheinlich die beobachteten Daten sind, wenn die Hypothese zutrifft.
- Posteriors (oder Posteriorverteilungen) werden durch die Kombination von Priors und Likelihoods gebildet. Sie repräsentieren die aktualisierten Wahrscheinlichkeiten für alle betrachteten Hypothesen nach Berücksichtigung der beobachteten Daten.
- Zusammen bilden Priors, Likelihoods und Posteriors den Kern des Bayes-Theorems in der Bayesianischen Statistik.
Wie unterscheidet sich das 95%-Glaubwürdigkeitsintervall vom 95%-Konfidenzintervall?
- Das 95%-Konfidenzintervall ist ein Intervall, das auf der Grundlage von Stichproben aus einer Population berechnet wird. Es gibt an, mit welcher Wahrscheinlichkeit ein solches Intervall den wahren Wert des Populationsparameters enthält. Konfidenzintervalle basieren auf dem frequentistischen Wahrscheinlichkeitskonzept und geben keine Wahrscheinlichkeitsaussage über den Populationsparameter selbst ab.
- Das 95%-Glaubwürdigkeitsintervall hingegen ist ein Intervall, das auf der Grundlage von Bayes'schen Analysen berechnet wird. Es gibt an, mit welcher Wahrscheinlichkeit ein solches Intervall den wahren Wert des Parameters enthält, unter Berücksichtigung der beobachteten Daten und der Priorverteilung. Glaubwürdigkeitsintervalle basieren auf dem Bayes'schen Wahrscheinlichkeitskonzept und geben eine direkte Aussage über die Wahrscheinlichkeit des Populationsparameters ab.
- Zusammenfassend kann man sagen, dass das 95%-Konfidenzintervall angibt, wie wahrscheinlich es ist, dass ein zufällig ausgewähltes Konfidenzintervall den wahren Wert des Parameters enthält. Das 95%-Glaubwürdigkeitsintervall hingegen gibt an, wie wahrscheinlich es ist, dass der Parameter innerhalb eines bestimmten Intervalls liegt, basierend auf den beobachteten Daten und der Priorverteilung.
- Das Glaubwürdigkeitsintervall gibt mit einer Wahrscheinlichkeit von 95% an, in welchem Bereich sich der wahre Populationswert befindet, während das 95%-Konfidenzintervall lediglich eine Aussage darüber trifft, dass in 95% aller Stichproben das Intervall den wahren Populationswert enthält
Wie unterscheidet sich eine stetige Priorverteilung von einer diskreten Priorverteilung?
- Eine stetige Priorverteilung ordnet allen möglichen Populationsparametern eine Wahrscheinlichkeit zu.
- Eine stetige Priorverteilung ist geeignet, wenn wir alle möglichen Werte eines Parameters berücksichtigen möchten.
- Eine stetige Priorverteilung kann unendlich viele mögliche Werte annehmen, während eine diskrete Priorverteilung nur endlich viele mögliche Werte hat.
- Stetige Priorverteilung Wenn sich die Hypothesen auf Parameter beziehen, die auf einem Kontinuum liegen (z.B. Mittelwertsunterschiede, Korrelationskoeffizient etc.), gibt es theoretisch unendlich viele a-priori-Hypothesen
- Streuung der stetigen Priorverteilung widerspiegelt die Stärke der Überzeugung, wenn sehr sicher 60%, dann sehr schmalgipflige Verteilung, wenn unsicher breitgipflige Verteilung
- Eine diskrete Priorverteilung ist nur für bestimmte Werte geeignet.
- Eine diskrete Priorverteilung ordnet nur einer begrenzten Anzahl von Parametern eine Wahrscheinlichkeit zu.
- Eine wird durch eine Wahrscheinlichkeitsdichte beschrieben, während eine diskrete Priorverteilung durch eine Wahrscheinlichkeitsfunktion beschrieben wird.
- Die Wahrscheinlichkeit, dass ein bestimmter Wert in einer stetigen Priorverteilung auftritt, ist immer Null. Stattdessen gibt die Dichte an, wie wahrscheinlich es ist, dass der Wert in einem bestimmten Intervall auftritt. In einer diskreten Priorverteilung hat jeder Wert eine positive Wahrscheinlichkeit.
Welche Bedeutung haben Mittelwert und Standardabweichung bei einer stetigen Priorverteilung (vorausgesetzt die Verteilungsform der Priorverteilung sei eine Normalverteilung)?
- Der Mittelwert entspricht demjenigen Wert des Populationsparameters, der uns aufgrund unseres Vorwissens und Vorüberzeugungen am plausibelsten erscheint.
- Mit der Standardabweichung legen wir fest, wie sicher wir uns sind, dass der Populationsparameter in der Nähe der besten Schätzung liegt.
- Für den Bereich Mittelwert ± 1 Standardabweichung ordnen wir eine Wahrscheinlichkeit von 68% zu, dass der Populationsparameter in diesem Bereich liegt.
Welche Aussagen zum Einfluss der Priorverteilung und Stichprobengrösse auf die Posteriorverteilung sind richtig?
Wenn der Gipfel der Priorverteilung sehr schmal und hoch ist und die Stichprobe gleichzeitig relativ klein ist, weist die Posteriorverteilung eine relativ grosse Ähnlichkeit zur Priorverteilung auf.