Epidemiologie & Biostatistik

Zu den Themen Daten, Hypothesen, Evidence, Studien, Tests & Ausbruch (Für Veterinärmediziner/innen)

Zu den Themen Daten, Hypothesen, Evidence, Studien, Tests & Ausbruch (Für Veterinärmediziner/innen)


Fichier Détails

Cartes-fiches 292
Langue Deutsch
Catégorie Médecine
Niveau Université
Crée / Actualisé 27.01.2015 / 18.06.2020
Lien de web
https://card2brain.ch/box/epidemiologie_biostatistik
Intégrer
<iframe src="https://card2brain.ch/box/epidemiologie_biostatistik/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

β, β-Fehler, Fehler 2. Art

Der Fehler besteht darin, die Nullhypothese anzunehmen, obwohl diese nicht zutrifft.
Spielt meist im Kontext von Stärke einer Studie (Power – siehe später) bei Stichprobenberechnungen eine Rolle.

Power oder Güte eines Tests

Die Power, Güte (oder auch Trennschärfe oder Teststärke genannt), gibt eine Aussage darüber, wie gut ein statistischer Test erkennt, ob ein Unterschied existiert (die Alternativhypothese zutrifft). Gewünscht ist eine Power von mindestens 0.8. Es besteht eine Beziehung zum Fehler 2. Art (Power= 1- β). Die Power wird kleiner, wenn die Differenz zwischen Mittelwerten oder Medianen kleiner wird. Sie wird ebenfalls kleiner wenn der Stichprobenumfang sinkt oder wenn die Streuung (Varianz) zunimmt.

Beschreiben Sie den β-Fehler in Abhängigkeit zur Grösse des Unterschieds zwischen zwei Mittelwerten oder Medianen

Der β-Fehler wird grösser, wenn der Unterschied zwischen zwei Mittelwerten oder Medianen kleiner wird

Anders ausgedrückt bedeutet dies, es ist umso leichter einen signifikanten Unterschied zwischen zwei Mittelwerten oder Medianen zu finden, je grösser der Unterschied ist.

Signifikanztest

Diese Bezeichnung wird ähnlich verwendet wie „statistischer Test“, dabei liegt die Betonung hier auf dem Signifikanzniveau. In der Regel wird ein Signifikanzniveau (α) vom 0.05 gewählt.

Parametrisch

Für einen parametrischen Test gilt mindestens die Annahme/Voraussetzung, dass die Messwerte der Zielvariablen („Daten“) innerhalb der Vergleichsgruppen normalverteilt sind.

Nicht-parametrisch

Für einen nicht parametrischen Test ist die Annahme, dass die Daten normalverteilt sind, nicht nötig (allerdings sollten sie von einer symmetrischen Verteilung kommen).

Unabhängig versus abhängige Messwerte

Messwerte sind voneinander unabhängig, wenn es sich um verschiedene Tiere handelt (z.B. verschiedene Rassen). Messwerte sind voneinander abhängig, wenn sie vom gleichen Tier oder bezüglich verschiedener Kriterien „gepaarter“ Tiere handelt (z.B. vor und nach einem Versuch).

Eine andere Bezeichnung für unabhängig ist unverbunden; und abhängig wird auch als verbunden bezeichnet.

t-Test für unabhängige oder ungepaarte Stichproben

Vorraussetzungen? (4 Punkte)

Vergleicht Mittelwerte von zwei voneinander unabhängigen Stichproben (Gruppen).

Voraussetzungen für einen unabhängigen t-Test sind
* Daten sind kontinuierlich (Intervall-Skala)
* Normalverteilung der Daten in beiden Gruppen (v.a. bei kleinen Gruppen n < 30) bzw. der Residuen
* Die Varianzen (oder Standardabweichungen) der beiden Gruppen unterscheiden sich nicht signifikant
* Die beiden Gruppen sind unabhängig voneinander (nicht die gleichen Individuen)

Wenn die Voraussetzungen nicht erfüllt sind (müssen überprüft werden mit weiteren geeigneten Tests) kann es passieren, dass der Test nicht valide bzw. die Resultate nicht zuverlässig sind.

Formel des t-Tests für unabhängige Stichproben

Zur Bestimmung der Testgrösse t:

\(t = {Differenz.der.Mittelwerte \over \sqrt{gepoolte.s.e.der.beiden.Stichproben}}\)

\(t = {x1-x2\over \sqrt{(n1-1)s1^2+(n2-1)s2^2\over n1+n2-2}} * \sqrt{n1*n2\over n1+n2}\) 

wobei x1 und s1 = Mittelwert und Standardfehler der ersten Gruppe / x2 und s2 = " " der zweiten Gruppe / n1 und n2 = Stichprobenumfänge der beiden Gruppen

(Heute lässt sich ein t-Test schneller und bequemer mit einer Statistiksoftware wie z.B. NCSS)

t-Test für abhängige oder gepaarte Stichproben

Voraussetzungen? (3 Punkte)

Vergleicht Mittelwerte von zwei voneinander abhängigen Stichproben (Gruppen).

Voraussetzungen für einen abhängigen t-Test sind
* Daten sind kontinuierlich
* Normalverteilung der Differenzen zwischen den Wertepaaren
* Die Varianzen der beiden Gruppen unterscheiden sich nicht signifikant

Formel des t-Tests für abhängige Stichproben

\(t = {x\over \sqrt{{1\over n}*{1\over n-1}{Summe(d-x)^2} }} \)

wobei d = x1-x2 = Differenz innerhalb jedes Messwertepaares / x = Mittelwert / n = Stichprobenumfang

Wilcoxon-Rangsummen-Test (=Mann-Whitney-U-Test)

Vergleicht Mediane von zwei voneinander unabhängigen Stichproben (Gruppen).

Rangsummentests werden auch als nicht-parametrisch oder verteilungsfreie Tests bezeichnet. Sie sind geeignet für ordinale Daten (z.B. Schmerzgrade) und für kontinuierliche Daten (Intervalldaten) auch wenn diese nicht die nötigen Voraussetzungen für die parametrischen t-Tests (Normalverteilung) erfüllen. Die zu berechnende Testgrösse wird  dabei aus den nach Grösse rangierten Werten (wie bei den Perzentilen) bestimmt, daher kommt die Bezeichnung „Rang…“. Die beobachteten Werte selber werden nicht verwendet, ihre „Ordnung“ bleibt aber erhalten. Dadurch werden ordinale Informationen genutzt und letztendlich Gruppen-Mediane (50%tile) verglichen.

(Auch beim Wilcoxon-Rangsummen-Test gibt es die Möglichkeit ihn mithilfe einer Statistiksoftware durchzuführen.)

Wilcoxon-Vorzeichen-Rangsummen-Test

Vergleicht Mediane von zwei voneinander abhängigen Stichproben (Gruppen).

(Beispiel Vergleich Gestationsdauer bei 10 schwangeren Frauen bestimmt durch zwei verschiedene Methoden: LMP und US (von Hüsler und Zimmermann 2006) Die Dauer der Schwangerschaft wird bei 10 zufällig ausgewählten Frauen mit der Methode der letzten Menstruationsperiode (LMP) und mit der Ultraschall- Methode (US) bestimmt. Die Frage ist nun, ob die bestimmte Gestationsdauer von der Bestimmungsmethode abhängt.)

Chiquadrat Test, X2

Dieser Test wird verwendet zur Prüfung der Unabhängigkeit zweier nominaler (kategorischer) Merkmale (Variablen) (z.B. Rasse,  Geschlecht, Krankheitsstatus im Sinne von infiziert und nicht infiziert, Therapie erfolgreich oder nicht erfolgreich).

! Siehe Formel & Berechnung Skrip 2 Seite 21 !

* für grosse Zahlen

Beispiel eines Chiquadrat-Tests

z.B.eine Studie in der je Hundert Katzen mit Laborwerten, die für eine geringgradige Nierenerkrankung sprechen, aber laut Besitzer sonst unauffällig sind, und entweder ein Nierendiätfuttermittel oder ein anderes übliches Futtermittel bekommen haben. Nach einem Jahr werden alle Tiere erneut untersucht. Von den 100 Katzen, die das Diätfutter erhielten, haben 81 Tiere Laborwerte im Referenzbereich und 19 Tiere erhöhte Werte. Bei den Tieren mit dem handelsüblichen Futter werden 68 Tiere aufgrund der Laborwerte als gesund und 32 als krank eingestuft.

                        Erkrankt           Nicht Erkrankt         Total                                                                         Diätfuttermittel  19                        81                      100

Handelsprodukt   32                       68                       100

Es geht nun um die Frage, ob sich der Anteil der Tiere in der Gruppe mit dem Diätfuttermittel, die erkranken, signifikant unterscheidet vom Anteil der erkrankten Tiere in der anderen Gruppe. Hier könnte genauso gut gefragt werden, ob sich der Anteil der Tiere, die gesund bleiben in beiden Gruppen signifikant unterscheidet. Die berechnete Testgrösse ist hier Prüfgrösse χ2 („Chiquadrat“). Der p-Wert von 0.03 < 0.05 und wird daher als „signifikant“ betrachtet und H0 abgelehnt.

exakter Test nach Fisher

Dieser Test kann ebenfalls wie der Chiquadrat-Test zur Prüfung der Unabhängigkeit zweier nominaler (kategorischer) Variablen  verwendet werden.

Der exakte Test nach Fisher kann auch verwendet werden, wenn in einer Vierfeldertafel in einer der Zellen weniger als 5 Fälle vorhanden sind, oder wenn es einzelne leere Zellen gibt. Dieser Test heisst „exakt“, weil der p-Wert als  Testgrösse direkt aus den Stichprobenwerten berechnet wird. Wichtigfür diesen Test ist die sogenannte  hypergeometrische Verteilung (eine „Verwandte“ der Binomial-Verteilung). Wenn in einer Vierfeldertafel die Randsummen als fest vorgegeben und die beobachteten Werte in den Feldern (a, b, c, d) als zufälliges Ereignis aller möglichen Vierfelder-Verteilungen betrachtet werden, dann kann die Wahrscheinlichkeit für die beobachteten Daten
direkt über die hypergeometrische Verteilung bestimmt werden.

! Siehe Formel & Berechnung Skrip 2 Seite 25 !

* für kleine Zahlen

Mc Nemar Test

Dieser Test wird Prüfung der Unabhängigkeit zweier Merkmale bei zwei abhängigen oder verbundenen (gepaarten) Stichproben verwendet (ebenfalls nominale Daten).

Dieser Test beruht wie der Chiquadrat-Test ebenfalls auf der X2- Verteilung. Dabei werden in der Vierfeldertafel nur die „Wechsler“, d.h. b und c berücksichtigt. Die Formel ist daher eine gekürzte Version der Formel zur Berechnung des Chiquadrat-Tests.

! Siehe Formel & Berechnung Skrip 2 Seite 26 !

Welcher Test wird verwendet wenn das Datenformat nominal ist und die Daten voneinander unabhängig sind?

Welcher Test wird verwendet wenn das Datenformat nominal ist und die Daten voneinander abhängig sind?

Welcher Test wird verwendet wenn das Datenformat ordinal ist und die Daten voneinander unabhängig sind?

Welcher Test wird verwendet wenn das Datenformat ordinal ist und die Daten voneinander abhängig sind?

Welcher Test wird verwendet wenn es sich um voneinander unabhängige Intervall-Daten handet die normalverteilt sind?

Welcher Test wird verwendet wenn es sich um voneinander unabhängige Intervall-Daten handet die nicht normalverteilt sind?

Welcher Test wird verwendet wenn es sich um voneinander abhängige Intervall-Daten handet die normalverteilt sind?

Welcher Test wird verwendet wenn es sich um voneinander abhängige Intervall-Daten handet die nicht normalverteilt sind?

Evidenz

Im wissenschaftlichen Kontext beschreibt diese Evidenz die “objektiven” Ergebnisse (ohne eine tiefergehende Interpretation), die gewonnen wurden aus der Analyse von „objektiven“ Daten, die wiederum aus   Beobachtungsstudien oder Experimenten stammen. Die Studien oder Experimente sind dabei grundsätzlich  wiederholbar und entsprechen den heutigen Standards für Design, Durchführung und Analyse.

Empirische Evidenz

Empirische Evidenz (Fakten) liegt vor, wenn die getroffene Aussage durch in der Vergangenheit gesammelte Daten bzw. Erfahrungen belegt wird. Oft werden dafür statistische Methoden herangezogen, um die Signifikanz der Daten, also deren Verlässlichkeit, zu bestimmen.

Evidenz per Analogie

Diese Evidenz basiert auf Analogieschlüssen. Dabei wird ein Wissen über Ähnlichkeiten zwischen zwei Systemen dahingehend ausgenutzt, dass die Beziehung, die bisher nur in dem einen System nachgewiesen wurde, vermutlich auch in dem anderen System gilt.

"Vergleich 2er (od.mehr) Systemen"

Wenn beispielsweise das Medikament X sich als wirksam erwiesen hat gegen die Krankheit Y in der Spezies Z, dann werden vermutlich vergleichbare Beziehungen zwischen ähnlichen Medikamenten oder ähnlichen Spezies bestehen. Evidenz per Analogiebildung kommt häufig in der Medizin vor und sie ist unerlässlich wenn eine (Be-)Handlung notwendig ist ohne verfügbare empirische Evidenz.

 

Anekdotische Evidenz

Beschreibt das Auftreten einzelner Fälle wie beispielsweise auch Wunder- oder Spontanheilungen.

Im Falle der zweifelsfreien Dokumentation dieser Fälle kann der Grund für Auftreten der Heilungen in einer unüblichen Therapie gesehen werden, die dann wiederum die Theorie bestätigt aufgrund derer die Therapie angewendet wurde. Die Wahrscheinlichkeit aussergewöhnlicher Ereignisse ist oft deutlich höher als wir intuitiv vermuten würden. Weitere unbekannte Faktoren (Confounder) können die ursprünglich schlechte Prognose beeinflusst haben, so dass die Heilung nicht mehr so aussergewöhnlich ist.

Anekdote

Eine Anekdote ist eine sehr schwache Evidenz einer Theorie. Eine Anhäufung von Anekdoten wird die Theorie nicht wesentlich besser unterstützen und kann bestenfalls als Grundlage für ein wissenschaftliches Experiment oder einen Tierversuch dienen, um die Theorie empirisch zu testen.

Prävalenz

Die Prävalenz ist der Anteil von Individuen in einer Population, die Fälle (von einer Krankheit betroffen) sind. Die Prävalenz bezieht sich auf einen bestimmten Zeitpunkt, zu dem sie berechnet wurde (Beobachtungspunkt).

Die Prävalenz kann auch als Prozentzahl ausgedrückt werden.

Inzidenz

Die Inzidenz beschreibt die Anzahl neuer Fälle, die in einer Population im Verhältnis zur „Population at risk“ aufgetreten sind.

Inzidenz drückt die Wahrscheinlichkeit aus, dass gesunde Individuen eine Krankheit (in einem bestimmten Zeitabschnitt) entwickeln werden. Die Inzidenz wird für einen bestimmten Zeitraum berechnet, erfordert also mindestens zwei Beobachtungspunkte. Der Zeitraum ist flexibel. Es kann sich um einen Tag, eine
Woche, Monate oder Jahre handeln. Es ist deshalb wichtig, dass der Zeitpunkt angegeben wird, da die Inzidenz bei zunehmender Zeitdauer natürlich steigt.

Risikopopulation

Die „Population at risk“ setzt sich aus allen Individuen zusammen, die zu Beginn der Beobachtung theoretisch erkranken könnten (biologische Plausibilität) minus aller Tiere, die bereits erkrankt sind.

!Die „Population at risk“ bei der Prävalenz und bei der Inzidenz ist unterschiedlich definiert!

Rate

Sie gibt die Anzahl der Individuen der Risikopopulation an, die pro Zeiteinheit erkranken (pro Stunde, Tag, Woche, Monat, Jahr, …).
Die Rate besteht aus dem Verhältnis der Ereignisse (Krankheitsfälle) in einer Risikopopulation (Gruppe von Individuen die erkranken könnten) dividiert durch die aufaddierte Zeit aller Individuen der Risikopopulation.

Mortalitätsrate

Auch als Sterblichkeit oder Sterblichkeitsrate bezeichnet. Sie bezeichnet die Anzahl Todesfälle bezogen auf die Gesamtzahl Individuen der Population pro Zeiteinheit. Mortalitätsraten lassen sich auch für spezifische Populationen bestimmen und vergleichen (z.B. altersspezifische Mortalität wie Säuglings- oder Müttersterblichkeit).

"rohe Mortalität"

Die « crude death rate », die rohe Mortalität entspricht der Anzahl der Todesfälle pro Gesamtbevölkerung pro Zeit, z.B. pro 1000 Personen und Jahr.

Morbidität

Masszahl für Erkrankungshäufigkeit; die gebräuchlichsten Masszahlen sind dabei Inzidenz und Prävalenz.

"Erkrankungszahl"

Letalität

Die Letalitätsrate ist das Verhältnis der Anzahl der an einer bestimmten Krankheit Verstorbenen zur Anzahl (neuer) Fälle.

\( {Anz.Tote.durch.Krankheit.X \over Anz.neu.Erkrankter}\)

Eine möglichst zuverlässige Schätzung der Letalität (case-fatality rate), ist wichtig in der Pandemieplanung.

Die geschätzten Letalitätsraten für frühereGrippepandemien schwankten zwischen 0.1 % (1957 und 1968) und 2.5 %
(1918). Die offizielle Schätzung der WHO für den Ausbruch von 2008 lag bei 60 %.

Endemie

Dauernde Anwesenheit oder normale Prävalenz einer Krankheit in einer bestimmten Gegend.

"Normale Krankheitshäufigkeit"

Beispiel: Euterentzündung beim Rind.

Epidemie

Auftreten einer Krankheit über der erwarteten (endemischen) Häufigkeit.

"abnormal grosse Krankheitshäufigkeit"

Beispiel: Maul-und-Klauenseuche