Statistik IV
Fragen zur Prüfungsvorbereitung
Fragen zur Prüfungsvorbereitung
Set of flashcards Details
Flashcards | 45 |
---|---|
Language | Deutsch |
Category | Psychology |
Level | University |
Created / Updated | 18.05.2023 / 29.05.2023 |
Weblink |
https://card2brain.ch/box/20230518_statistik_iv
|
Embed |
<iframe src="https://card2brain.ch/box/20230518_statistik_iv/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Create or copy sets of flashcards
With an upgrade you can create or copy an unlimited number of sets and use many more additional features.
Log in to see all the cards.
Wie geht man bei der Randomized-Response-Technik gemäss dem ursprünglichen Ansatz von Warner (beschrieben in Sedlmeier Kapitel 29.3.1) vor, um den tatsächlichen Ja-Anteil auf eine sensible Frage zu schätzen?
- Über eine Zufallsmechanismus (z.B. Würfelwurf) wird bestmmt, ob eine Frage wahrheitsgemäss beantwortet werden soll oder ob gelogen werden soll.
- Bsp. "haben Sie bei der prüfung geschummlet?"
- VP würfelt & (p =1/6) --> VP soll Wahrheit sagen
- VP würfel keine 6 (1 - p) --> VP soll lügen
- Anteil von Ja-Antworten: --> Formel...
- Der Umformung, erhalten wir den geschätzen tatsächlichen Anteil von Schummlern: (Formel)
Wie geht man bei der Randomized-Response-Technik für Mittelwerte vor?
- zwei gruppen müssen jeweils eine heikle und eine nicht-heikle Frage beantworten, z.B.
- Wie hoch ist ihr EInkommen? (beantwortet von gruppe 1 mit Wahrscheinlichkeit p1 und von Gruppe 2 mit Wahrscheinlichkeit p2)
- Was ist das Durchschnittseinkommen in ihrem Beruf? (beantwortet von gruppe 1 mit Wahrscheinlichkeit 1 - p1 und von Gruppe 2 mit Wahrschienlichkeit 1 -p2=
- Der gesuchte Mittelwert wird dann geschätz mit: û = (1-p1=<2- (1-p2)x1/ p2 - p1
- Nachteile diese methode:
- Beid eGruppen müssen sich in der Schätzung des Durchsncittseinkommens einig sein
- Anonymität gefährdet, wenn sensible und nihct-senisble Werte sich stark unterschieden
Welche Vor- und Nachteile hat die Randomized-Response-Technik?
- Die Randomized-Response-Technik (RRT) führt zu weniger Power, da Fehlervarianz hinzugefügt wird.
- Der Aufwand und die kognitive Belastung der Befragten ist bei der RRT höher.
- Landsheer et al. (1999) konnten zeigen, dass Befragte mit einem geringen Verständnis der RRT-Prozedur auch weniger häufig der Methode vertrauen, als Befragte mit einem besseren Verständnis.
- Ostapczuk et al. (2009) konnten zeigen, dass ein nicht zu vernachlässigender Anteil der Befragten die RRT-Instruktionen missachtet und ausweichende „Nein“-Antworten gibt, selbst wenn das Ergebnis des Zufallsexperiments eine „Ja“-Antwort erfordert.
- Es existieren mehrere R-Packages zur Analyse von Randomized-Response- Daten, z.B. RRreg, rr, und RRTCS
Wie unterscheidet sich die Bayesianische Statistik von der klassischen Inferenzstatistik?
- In der klassischen Inferenzstatistik versteht man unter Wahrscheinlichkeiten relative Häufigkeiten von unendlich oft wiederholbarer Zufallsexperimente, während in der Bayesianischen Statistik die Wahrscheinlichkeiten den Grad der Überzeugung ausdrücken.
- In der klassischen Inferenzstatistik kann man keine Wahrscheinlichkeitsaussagen über die Korrektheit von Hypothesen machen, in der Bayesianischen Statistik jedoch schon.
- In der Bayesianischen Statistik kann bei der Schätzung von Populationsparameter Vorwissen besser genutzt werden.
- In der klassischen Inferenzstatistik wird nur eine Nullhypothese getestet, in der Bayesianischen Statistik hingegen können viele Hypothesen gleichzeitig getestet bzw. beurteilt werden.
- Die Bayesianische Statistik arbeitet mit Priorverteilungen, Likelihoods und Posteriors, während die klassische Inferenzstatistik auf Signifikanztests und Konfidenzintervalle setzt.
- Die Bayesianische Statistik betrachtet auch Wahrscheinlichkeiten von Hypothesen, bevor Daten vorliegen, während die klassische Inferenzstatistik dies nicht tut.
- Die Bayesianische Statistik verwendet Bayes-Theorem, während die klassische Inferenzstatistik dies nicht tut.
- Die Bayesianische Statistik kann konjugierte Priors verwenden, um Berechnungen zu vereinfachen, während die klassische Inferenzstatistik dies nicht tut.
- Die Interpretation von Wahrscheinlichkeiten ist in der Bayesianischen Statistik anders als in der klassischen Inferenzstatistik.
Welche Aussagen zum Bayes-Theorem sind richtig?
- Das Verhältnis der Likelihoods der H1- und H0-Hypothesen ist relevant für das Bayes-Theorem.
- Das Verhältnis von Posterior-Odds zu Prior-Odds ist relevant für das Bayes-Theorem.
- Wie viel wahrscheinlicher (oder unwahrscheinlicher) unser Stichprobenergebnis unter H1 ist als unter H0, ist relevant für das Bayes-Theorem.
- Das Bayes-Theorem liefert die Regel zur rationalen Revision von Wahrscheinlichkeiten im Lichte neuer Evidenz.
- Das Bayes-Theorem ermöglicht es, die Wahrscheinlichkeit einer Hypothese zu aktualisieren, wenn neue Daten vorliegen.
- Das Bayes-Theorem berücksichtigt unterschiedliche Überzeugungen von Personen und kann daher auch bei unterschiedlichen Meinungen zu einer Hypothese angewendet werden.
- Das Bayes-Theorem ist ein wichtiger Bestandteil der Bayesianischen Statistik und wird verwendet, um Posteriors aus Priors und Likelihoods zu berechnen.
Was versteht man unter Priors, Likelihoods und Posteriors?
- Priors (oder Priorverteilungen) sind Wahrscheinlichkeitsverteilungen, die die Ausgangsüberzeugungen für alle betrachteten Hypothesen vorliegender Daten darstellen.
- Likelihoods geben für jede Hypothese an, wie wahrscheinlich die beobachteten Daten sind, wenn die Hypothese zutrifft.
- Posteriors (oder Posteriorverteilungen) werden durch die Kombination von Priors und Likelihoods gebildet. Sie repräsentieren die aktualisierten Wahrscheinlichkeiten für alle betrachteten Hypothesen nach Berücksichtigung der beobachteten Daten.
- Zusammen bilden Priors, Likelihoods und Posteriors den Kern des Bayes-Theorems in der Bayesianischen Statistik.
Wie unterscheidet sich das 95%-Glaubwürdigkeitsintervall vom 95%-Konfidenzintervall?
- Das 95%-Konfidenzintervall ist ein Intervall, das auf der Grundlage von Stichproben aus einer Population berechnet wird. Es gibt an, mit welcher Wahrscheinlichkeit ein solches Intervall den wahren Wert des Populationsparameters enthält. Konfidenzintervalle basieren auf dem frequentistischen Wahrscheinlichkeitskonzept und geben keine Wahrscheinlichkeitsaussage über den Populationsparameter selbst ab.
- Das 95%-Glaubwürdigkeitsintervall hingegen ist ein Intervall, das auf der Grundlage von Bayes'schen Analysen berechnet wird. Es gibt an, mit welcher Wahrscheinlichkeit ein solches Intervall den wahren Wert des Parameters enthält, unter Berücksichtigung der beobachteten Daten und der Priorverteilung. Glaubwürdigkeitsintervalle basieren auf dem Bayes'schen Wahrscheinlichkeitskonzept und geben eine direkte Aussage über die Wahrscheinlichkeit des Populationsparameters ab.
- Zusammenfassend kann man sagen, dass das 95%-Konfidenzintervall angibt, wie wahrscheinlich es ist, dass ein zufällig ausgewähltes Konfidenzintervall den wahren Wert des Parameters enthält. Das 95%-Glaubwürdigkeitsintervall hingegen gibt an, wie wahrscheinlich es ist, dass der Parameter innerhalb eines bestimmten Intervalls liegt, basierend auf den beobachteten Daten und der Priorverteilung.
- Das Glaubwürdigkeitsintervall gibt mit einer Wahrscheinlichkeit von 95% an, in welchem Bereich sich der wahre Populationswert befindet, während das 95%-Konfidenzintervall lediglich eine Aussage darüber trifft, dass in 95% aller Stichproben das Intervall den wahren Populationswert enthält
Wie unterscheidet sich eine stetige Priorverteilung von einer diskreten Priorverteilung?
- Eine stetige Priorverteilung ordnet allen möglichen Populationsparametern eine Wahrscheinlichkeit zu.
- Eine stetige Priorverteilung ist geeignet, wenn wir alle möglichen Werte eines Parameters berücksichtigen möchten.
- Eine stetige Priorverteilung kann unendlich viele mögliche Werte annehmen, während eine diskrete Priorverteilung nur endlich viele mögliche Werte hat.
- Stetige Priorverteilung Wenn sich die Hypothesen auf Parameter beziehen, die auf einem Kontinuum liegen (z.B. Mittelwertsunterschiede, Korrelationskoeffizient etc.), gibt es theoretisch unendlich viele a-priori-Hypothesen
- Streuung der stetigen Priorverteilung widerspiegelt die Stärke der Überzeugung, wenn sehr sicher 60%, dann sehr schmalgipflige Verteilung, wenn unsicher breitgipflige Verteilung
- Eine diskrete Priorverteilung ist nur für bestimmte Werte geeignet.
- Eine diskrete Priorverteilung ordnet nur einer begrenzten Anzahl von Parametern eine Wahrscheinlichkeit zu.
- Eine wird durch eine Wahrscheinlichkeitsdichte beschrieben, während eine diskrete Priorverteilung durch eine Wahrscheinlichkeitsfunktion beschrieben wird.
- Die Wahrscheinlichkeit, dass ein bestimmter Wert in einer stetigen Priorverteilung auftritt, ist immer Null. Stattdessen gibt die Dichte an, wie wahrscheinlich es ist, dass der Wert in einem bestimmten Intervall auftritt. In einer diskreten Priorverteilung hat jeder Wert eine positive Wahrscheinlichkeit.
Welche Bedeutung haben Mittelwert und Standardabweichung bei einer stetigen Priorverteilung (vorausgesetzt die Verteilungsform der Priorverteilung sei eine Normalverteilung)?
- Der Mittelwert entspricht demjenigen Wert des Populationsparameters, der uns aufgrund unseres Vorwissens und Vorüberzeugungen am plausibelsten erscheint.
- Mit der Standardabweichung legen wir fest, wie sicher wir uns sind, dass der Populationsparameter in der Nähe der besten Schätzung liegt.
- Für den Bereich Mittelwert ± 1 Standardabweichung ordnen wir eine Wahrscheinlichkeit von 68% zu, dass der Populationsparameter in diesem Bereich liegt.
Welche Aussagen zum Einfluss der Priorverteilung und Stichprobengrösse auf die Posteriorverteilung sind richtig?
Wenn der Gipfel der Priorverteilung sehr schmal und hoch ist und die Stichprobe gleichzeitig relativ klein ist, weist die Posteriorverteilung eine relativ grosse Ähnlichkeit zur Priorverteilung auf.
Was kann man aus einer stetigen Posteriorverteilung ablesen bzw. Ableiten?
- Aus einer stetigen Posteriorverteilung kann man die Schätzung des Populationsparameters ableiten
- Die Schätzung entspricht in der Regel dem Erwartungswert der Posteriorverteilung Die Unsicherheit in der Schätzung kann durch die Standardabweichung oder Varianz der Posteriorverteilung ausgedrückt werden
- Es können Intervalle mit einer bestimmten Wahrscheinlichkeit abgeleitet werden, innerhalb derer sich der wahre Wert des Populationsparameters mit einer bestimmten Wahrscheinlichkeit befindet (z.B. 95%-Konfidenzintervall)
- Diese Informationen können genutzt werden, um Entscheidungen zu treffen oder Hypothesen zu testen.
Was beschreibt der Bayes-Faktor?
- Das Verhältnis der Likelihoods der H1 ‑ und H0 ‑Hypothesen.
- Das Verhältnis von Posterior‑Odds zu Prior‑Odds.
- Wie viel wahrscheinlicher (oder unwahrscheinlicher) unser Stichprobenergebnis unter H1 ist als unter H0.
- ein Mass dafür, wie stark die Daten für eine bestimmte Hypothese im Vergleich zu einer anderen Hypothese sprechen
- Er wird berechnet, indem man die Likelihoodfunktionen beider Hypothesen an der Stelle der beobachteten Daten auswertet und das Verhältnis der beiden Werte bildet.
Wie berechnet sich die Wahrscheinlichkeit der Daten unter H1 bzw. M1, wenn sich H1 bzw. M1 nicht auf eine Punkthypothese bezieht, sondern auf mehrere Werte, die eine unterschiedliche Priorwahrscheinlichkeit haben?
Wenn H1 oder M1 nicht auf eine Punkthypothese, sondern auf mehrere Werte mit unterschiedlicher Priorwahrscheinlichkeit bezogen sind, dann muss man die Wahrscheinlichkeit der Daten unter jeder dieser Werte berechnen und diese dann gewichten, um die Gesamtwahrscheinlichkeit der Daten unter H1 bzw. M1 zu erhalten. Dies kann durch Integration der Likelihoodfunktion über den gesamten Bereich der möglichen Werte erfolgen, wobei die Priorverteilung als Gewichtsfunktion verwendet wird.
Die genaue Berechnung hängt von der spezifischen Form der Likelihood- und Priorverteilungen ab und erfordert in der Regel numerische Methoden wie Monte-Carlo-Simulationen oder Markov-Chain-Monte-Carlo-Verfahren.
- Wenn H1 oder M1 nicht auf eine Punkthypothese, sondern auf mehrere Werte mit unterschiedlicher Priorwahrscheinlichkeit bezogen sind, dann ist es wichtig zu berücksichtigen, dass die Gesamtwahrscheinlichkeit der Daten unter H1 bzw. M1 von der Wahl der Priorverteilung abhängt. Eine uninformative Priorverteilung kann dazu beitragen, dass die Posteriorverteilung bereits bei einer relativ kleinen Datenmenge von der Likelihoodfunktion dominiert wird.
- eine informative Priorverteilung kann dazu führen, dass die Posteriorverteilung stärker von den ursprünglichen Überzeugungen des Wissenschaftlers beeinflusst wird.
Es ist daher wichtig, die Wahl der Priorverteilung sorgfältig zu begründen und zu dokumentieren und gegebenenfalls alternative Priorverteilungen zu testen, um sicherzustellen, dass die Ergebnisse robust gegenüber unterschiedlichen Annahmen sind.
Ein zentraler Kritikpunkt an der Bayesianischen Statistik ist, dass die Konstruktion der Priorverteilungen subjektiv sei. Welche Einwände lassen sich gegen diese Kritik vorbringen?
- Subjektive Ausgangsüberzeugungen werden – wenn über die Zeit immer mehr Datengesammelt werden – immer weniger relevant.
- Durch eine Sensitivitätsanalyse lässt sich prüfen, wie sensitiv ein Ergebnis für unterschiedlicheVorannahmen ist.
- Die Bayes-Statistik macht es unvermeidbar, dass alle Vorannahmen explizit formuliert werden.Damit werden die Vorannahmen auch kritisierbar.
Warum wurde die Bayesianische Statistik in den letzten Jahren vermehrt angewendet?
- Einer der Hauptvorteile ist, dass sie Unsicherheit und Vorwissen in die Analyse einbeziehen kann.
- Die Bayesianische Statistik kann auch bei kleinen Stichproben oder komplexen Modellen eingesetzt werden.
- Die Bayesianische Statistik bietet eine Möglichkeit zur Modellierung von Hierarchien und Abhängigkeiten zwischen Variablen.
- Die Bayesianische Statistik hat viele Anwendungen in verschiedenen Bereichen gefunden, wie z.B. der Medizin, der Ökologie oder der Finanzwissenschaft.
- Die Verfügbarkeit von leistungsfähigen Computern und Software hat die Anwendung der Bayesianischen Statistik erleichtert.
- Die Bayesianische Statistik bietet eine Möglichkeit zur Integration von verschiedenen Datenquellen und zur Berücksichtigung von Unsicherheit in den Daten.
- Die Bayesianische Statistik kann auch bei der Modellierung komplexer Prozesse oder Systeme eingesetzt werden, wie z.B. bei der Vorhersage von Klimaveränderungen oder der Modellierung von biologischen Systemen.
- Die Bayesianische Statistik bietet eine Möglichkeit zur Modellierung von zeitabhängigen Prozessen und zur Vorhersage zukünftiger Ereignisse.
- Die Bayesianische Statistik kann auch bei der Entscheidungsfindung eingesetzt werden, indem sie verschiedene Optionen bewertet und die beste Option auswählt.
Welche Aussagen zu EDA-Verfahren sind richtig?
- EDA-Verfahren ist, dass sie „robust“ oder unempfindlich gegenüber „außergewöhnlichen“ Datenpunkten oder Verteilungen von Daten sind. Diese Eigenschaft kann man gut anhand von Box-Plots verdeutlichen.
- EDA-Verfahren sind nützlich, weil sich mit ihrer Hilfe Muster oder Zusammenhänge in der Regel auf einen Blick erkennen lassen.
- EDA- Verfahren sind vergleichsweise leicht verständlich, robust gegenüber Anomalien in den Daten und sie bewegen sich in der Regel auf einem niedrigen Abstraktionsniveau, das heißt, nicht weit weg von den Originaldaten.
- EDA-Verfahren benutzen sehr häufig robuste Maße wie Median und Interquartilsabstand und so gut wie nie leicht beeinflussbare Maße wie Mittelwert und Standardabweichung.
- Nicht hypothesengeleitet, meist robust gegenüber Anomalien, meist grafische Verfahren
- Es gibt keine empirische Fragestellung, deren Untersuchung nicht von der Anwendung von EDA-Verfahren profitieren könnte
Wie unterscheiden sich Influence-Plots von Bubble-Plots?
- Influence-Plot: Die Größe der Kreise steht für das Ausmaß, in dem sich die Korrelation verändern würde, wenn man den entsprechenden Punkt aus den Daten entfernte. Ein ungefüllter Kreis bedeutet, dass sich die Korrelation durch Entfernen des Punktes verringern, ein gefüllter, dass die Korrelation ansteigen würde, wenn man den Datenpunkt entfernte. Die Legende zeigt an, wie groß die Veränderung in der Korrelation jeweils wäre.
- Bubble-Plot: Vermutung, dass der Zusammenhang zwischen zwei Variablen von einer dritten mit beeinflusst sein könnte. Der Einfluss dieser dritten Variable kann in einem Streuungsdiagramm durch die Größe der „Bubbles“ (Kreise) sichtbar gemacht werden.
- Beispiel bezogen: Es könnte also sein, dass die unverhältnismäßig hohe Reaktionszeit durch die Angst mitverursacht wurde (grössere Bubbles).
Welche Aussagen zur Lowess-Kurve (Locally weighted scatterplot smoother) sind richtig?
- Sehr aufwendig, ermöglicht Beschreibung nicht-linearen Zusammenhang
- Glättungsverfahren mittels einer lokal gewichteten Regressionsfunktion
- Unterschiede lineare Regression
- Ungleiche Gewichte der Punkte
- Weniger beeinflusst durch Ausreisser (nur wenn Zusammenhang exakt linear ist, bekommt man gleiche Ergebnisse wie bei linearen Regression)
- Sehr nützlich, weil sie jede Art von bivariaten Zusammenhängen sichtbar machen kann. Zusammenhang zwischen zwei Variablen = perfekt linear = Lowess Gerade, die identisch zur Regressionsgeraden bei der linearen Regression ist. Aber auch jede Art von nichtlinearem Zusammenhang wird mithilfe einer Lowess-Kurve aufgedeckt. Vor allem bei kleinen Stichproben (mit Ausreisser), kann es sein, dass die Regressionsgerade eine völlig falsche Beschreibung des bivariaten Zusammenhangs liefert, auch wenn der Zusammenhang zwischen den beiden Variablen tatsächlich grundsätzlich linear ist. Die Lowess-Kurve wird von solchen Anomalien in den Daten jedoch kaum beeinflusst.
Wie würde man in der Praxis einen nicht-linearen Zusammenhang begradigen, wenn der Zusammenhang positiv ist, die Steigung der Kurve aber monoton abnimmt
- Geradebiegen erfolgt indem eine der beiden Variablen durch Potenzieren mit einem bestimmten Exponenten transformiert wird (z.B. ����2, ����3, ����0.5, ����2, ����3, ����0.5etc).
- Anschliessend können Verfahren, die Linearität voraussetzen (z.B. lineare Regression), wie gewohnt angewendet werden.
- --> Ob eine monotone Krümmung vorhanden ist, kann man zuvor durch eine Lowess-Kurve herausfinden. Die Vorhersagekraft eines linearen Regressionsmodels (multiples R-Quadrat) verbessert sich in der Regel durch die Begradigung
Angenommen im Data.frame «dat» befinden sich die Variablen «size», «weight» und «age». Welcher R-Befehl erzeugt ein Bubble-Plot, bei dem «size» auf der x-Achse ist, «weight» auf der «y-Achse» ist, und die Grösse der Kreise mit «age» variieren?
--> # Erzeugung des Bubble-Plots mit ggplot
ggplot(dat, aes(x = size, y = weight, size = age)) +
geom_point()
Warum ist es keine gute Idee, den empirisch gefundenen Effekt als Schätzung des Populationseffekts für eine Post-Hoc-Poweranalyse zu verwenden?
- Man erhält bei einer Post-Hoch Poweranalyse maximal eine Power von 50% à steht immer schon im vorher fest.
Wie kann man Effektgrössen berechnen, wenn nur der exakte p-Wert, die Stichprobengrösse und das verwendete statistische Verfahren angegeben ist?
- Freiheitsgrad bestimmen (z.B. df = N – 2 für T-test bei unabhängigen Stichproben)
- Prüfgrösse bestimmen, die zu Freiheitsgerade und p-Wert korrespondiert (z.B. mit R oder anderer App)
- Formel anwenden: Effektgrösse = Signifikanztestergebnis (Funktion der Prüfgrösse (T-, F-, X2-Wert))/ Grösse der Studie (Ausgedrückt in Freiheitsgeraden)
Welche Effektstärkeschätzungen könnte man vornehmen, wenn lediglich bekannt ist, dass ein Ergebnis signifikant bzw. nicht signifikant war?
Signifikant:
- Prüfgrösse/ Teststatistik (t-, F-, X2-Wert) für das max. Mögliche p bestimmen à Untergrenze der Effektgrösse (wie gross der Effekt mind. Sein muss)
Nicht signifikant:
- Prüfgrösse/ Teststatistik (t-, F-, X2-Wert) für das min. Mögliche p bestimmen à Obergrenze der Effektgrösse (wie gross der Effekt max. sein kann)
Wenn Effektgrössen aus unterschiedlichen Versuchsdesigns stammen, kann man sie durch Transformationen vergleichbar machen. Welche der folgenden Transformationen sind sinnvoll?
- Z.B. durch die Umrechnung von Korrelationskoeffizienten in Standardisierte Effektgrößen (z.B. Cohen's d) oder durch die Transformation von Regressionskoeffizienten in Standardisierte Effektgrößen (z.B. β in Cohen's d).
Korrelationsmasse von Kontingenztafeln/ Kreuztabelle:
- Gebräuchlichestes effektestärkemass: Cramers phi
- Anzahl der Spalten/ Zeilen in Kreuztabellen ebeeinflusst jedoch Höhe von Cramers phi
- Bessere vergelichsbarkeit durch Effektgrösse W = Crames phi * Wurzel(dfkleiner)
Korrelationsmasse aus Mittelwertsunterschieden:
- Werden als punktbiseriale Korrelation (rpb) bezeichnet
- rpb unterschätzt Korrelation bei künstlicher Dichotomosierung der UV
- Unterschätzung kann durch korrektur (r = 1.256 * rpb) ausgelglichen werden
Wie unterscheiden sich approximative und exakte Schätzungen des Konfidenzintervalls von g?
- Bei der approximativen Schätzung wird die Standardnormalverteilung als Annäherung für die Stichprobenverteilung verwendet, bei der exakten Schätzung wird die nonzentrale t-Verteilung verwendet.
- Bei der approximativen Schätzung ist das Konfidenzintervall immer symmetrisch (d.h. g ist genau in der Mitte der oberen und unteren Grenze des Konfidenzintervalls), bei der exakten Schätzung hingegen ist das Konfidenzintervall in der Regel leicht
Asymmetrisch (Asymmetrie nimmt mit zunehmender Stichprobengrösse bzw. Freiheitsgrade und zunehmender Grösse des Effekts zu). à Die Intervalle unterscheiden sich unter den üblichen Bedingungen (nicht zu kleine Stichprobe und «normale» Effekte) nicht wesentlich von exakten Konfidenzintervallen
- Die approximative Methode hat der exakten Methode gegenüber keine Vorteile, ausser, dass diese von Hand leichter zu berechnen ist
- Der Nonzentralitätsparameter wird nur bei der exakten Schätzung verwendet à t-Werte = Schätzung der entsprechenden Populationswerte; die beiden extremsten Populationsparameter, die bei einem zweiseitigen Signifikanztest
- mit alpha gerade noch signifikant wären, stellen die Grenzen des Konfidenzintervalls dar
- Bei der approximativen Schätzung benutzt man eine Schätzung für den Standardfehler von g; bei der exakten Schätzung wird der empirische t-Wert für g bestimmt
- Approximative und exakte Schätzungen liefern bei nicht zu kleinen Stichproben und bei «normalen» Effekten ähnliche Ergebnisse. Am grössten sind die Unterschiede bei kleinen Stichproben und grossen Effekten.
Welche Aussagen zur Schätzung von Konfidenzintervallen mit der Bootstrap-Methode sind richtig?
Bootstrapping gehört zur Gruppe der sog. Resampling-Verfahren
Stichprobenverteilung wird nicht theoretisch bestimmt, sondern empirisch durch wiederholtes Ziehen von Stichproben aus der Originalstichprobe.
Stichproben werden durch «Ziehen mit Zurücklegen» gezogen
Vorteile
- Keine Voraussetzung der Normalverteilung
- Kann auf Effektgrössen beliebiger Art angewendet werden (auch solche mit unbekannten theoretischen Verteilungen)
Nachteile
- Rohdaten müssen vorhanden sein
- Ungenaue Schätzung bei sehr kleinen Stichproben
Wie kann man sich bei der Schätzung von Konfidenzintervallen von Korrelationen, Relativen Risiken (RR) und Odds Ratios (OR) die Normalverteilung zu Nutze machen?
- Korrelationen kann man mit Hilfe der Fishers-z-Transformation in normalverteilte Werte umwandeln und Relative Risiken und Odds Ratios kann man durch natürliches Logarithmieren in normalverteilte Werte umwandeln. Die Grenzen des Konfidenzintervalls werden für die transformierten Werte mit Hilfe der Normalverteilung bestimmt und anschliessend werden die Grenzen wieder zurücktransformiert in RRug/RRog oder in ORug/ORog.
- RR (relatives Risiko) = 1 bedeutet kein Unterschied zw. Den beiden Gruppen àStichprobenverteilung für RR ist schwierig zu bestimmen aber logarithmierte RRs sind annähernd normalverteiltOdds Ratio
- logarithmierte Odds Ratio sind annährend normalverte
Angenommen es wurde mit einem t-Test für unabhängige Stichproben geprüft, ob zwei Stichproben den gleichen Mittelwert haben. Beide Stichproben hätten eine Grösse von 50 und der empirische t-Wert wäre 2.2. Welche der folgenden R-Befehle führen zu einer exakten Bestimmung des 95%-Konfidenzintervalls des Abstandsmasses d?
- t_to_d(2.2, 98)
- t_to_d (res$statistic, df_error = res$parameter)
- Als erstes gibt man den empirischen t-Wert an, anschliessend die Freiheitsgrade (Bei t-Test für unabhängige Stichproben (n1+n2-2) = df
Wie unterscheiden Sich metaanalytische Modelle mit «festen Effekten» (fixed effects) von solchen mit «Zufallseffekten» (random effects)?
fixed-Efects-Modell:
- Alle Studien untersuchen den gleichen Populationseffekt (oder dass alle unterscuhten Populationseffekte gleich sind)
- Unterschiedlichkeit der Effektgrössen zwischen den Studien geht allein auf Stichprobenfehler („sampling error“) zurück
- Studie mit geringer Stichprobengrösse hat wenig Gewicht
Random-Effects-Modell
Jede Studie drückt einen anderen Populationseffekt aus.
Nicht nur Stichprobenfehler sondern auch Unterschiedlichkeit zwischen Studien (Heterogenität) wird berücksichtigt.
→ Konfidenzintervall des Populations- effekts wird tendenziell breiter geschätzt
- Gewicht einer Studie hängt nicht nur von Grösse sondern auch von Abweichung von anderen Studien ab.
Welche Gründe sprechen dafür, in eine Metaanalyse auch sog. «graue» Literatur einzuschliessen?
- «Graue» Literatur = unpublizierte Masterarbeiten, Institutsberichte etc.
· Eine Metaanalyse kann nur sinnvoll durchgeführt werden, wenn die Untersucher sich schon eingehend mit dem inhaltlichen Gebiet befasst haben oder zumindest willens sind, das zu tun.
Insgesamt kann die Einbeziehung von grauer Literatur in eine Metaanalyse dazu beitragen, ein ausgewogeneres und vollständigeres Bild der Forschungslage zu erhalten.
-
- 1 / 45
-