Epidemiologie & Biostatistik

Zu den Themen Daten, Hypothesen, Evidence, Studien, Tests & Ausbruch (Für Veterinärmediziner/innen)

Zu den Themen Daten, Hypothesen, Evidence, Studien, Tests & Ausbruch (Für Veterinärmediziner/innen)


Fichier Détails

Cartes-fiches 292
Langue Deutsch
Catégorie Médecine
Niveau Université
Crée / Actualisé 27.01.2015 / 18.06.2020
Lien de web
https://card2brain.ch/box/epidemiologie_biostatistik
Intégrer
<iframe src="https://card2brain.ch/box/epidemiologie_biostatistik/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Pandemie

Weit verbreitete, häufig globale Epidemie.

Sporadisches Auftreten

Einzelne, gelegentlich auftretende Krankheitsfälle.

z.B.Sporadische CJD (Jakob-Creutzfeld-Erkrankung in Kanada. Diese Krankheit tritt unvorhersehbar auf (dies ist eine seltene Erkrankung).

Epidemische Kurve

Zeigt den Verlauf einer Epidemie mit den Krankheitsfällen über Zeit an.

z.B. eine graphische Darstellung einer epidemischen Kurve, die nur ein paar Tage lang andauert. Eine übliche Erkältung im 1. JK Tiermedizin könnte einem solchen Muster folgen. Zu Beginn sind alle Studierenden empfänglich und die ersten Fälle treten kurz nach Eintrag des Virus auf. Wenn Studierende nun Kontakt mit dem Virus haben und eine Immunantwort aufbauen, die sie schützt, wird die Zahl der empfänglichen Individuen sinken, und die Epidemie hört möglicherweise auf.

Eine epidemische Kurve kann jedoch auch jahrelang bestehen bleiben. Dies hängt von der Erkrankung und dem verantwortlichen Krankheitserreger ab.

z.B. die bovine spongiforme Enzephalopathie in England: Die Zahl der BSE-Fälle begann abzunehmen nachdem entdeckt worden war, dass der Krankheitserreger (ein Prion) über Tierverwertung und Verfütterung von Tiermehl in der Rinderpopulation zirkuliert war. Nachdem dieser Prozess durch ein Verbot der Tiermehlfütterung gestoppt war, traten zunehmend weniger Fälle auf. Aufgrund der langen Latenzzeit/Inkubationszeit wurden weiterhin auch viele Jahre nach dem Peak oder dem Höhepunkt der epidemischen Kurve Fälle gefunden.

importierte Fälle

Krankheitsfälle die z.B. von Touristen in ein Land gebracht werden.
 

autochthone Fälle

Krankheitsfälle innerhalb der lokalen Bevölkerung

Interaktion Wirt-Umwelt-Erreger

Epidemiologisches Dreieck:

Erreger– der Grund (oder die ätiologische Ursache) der Erkrankung
Wirt –das Tier das die Krankheit “beherbergt”
Umwelt– externe Faktoren, die dazu führen, dass sich die Krankheit entwickelt oder dass sie übertragen werden kann

Das Krankheitsmuster innerhalb der Population oder die Wahrscheinlichkeit, dass ein Individuum von einer bestimmten Erkrankung betroffen ist, hängt von den Faktoren im Zusammenhang mit allen drei Ecken des epidemiologischen Dreiecks zusammen.

Krankheitsmuster, Krankheitsbild

Geographische und/oder zeitliche Muster im Auftreten von Krankheitsfällen. Die Betrachtung dieser Muster kann hilfreich
sein, um Hypothesen zur Ätiologie (Entstehung), Übertragung und Risikofaktoren zu formulieren.

z.B. Frühsommer-Meningoenzephalitis (FSME) in Europa: Regionen mit nachgewiesenen Fällen werden auf einer Karte schwarz markiert. Grün gefärbt werden Regionen, die ein günstiges Habitat für Zecken darstellen und Rot markiert solche Regionen, die kein günstiges Habitat für Zecken bieten.

Vertikale Übertragung

Übertragung diaplazentar oder über das Ei vom Muttertier auf die Nachkommen.

Horizontale Übertragung

Übertragung zwischen den Individuen einer Population von Tier zu Tier.

z.B.Grippe wird horizontal durch Tröpfchen (Aerosol) übertragen (Tröpfcheninfektion).

Direkte Übertragung

Übertragung durch physikalischen Kontakt oder über Ausscheidungen (Harn, Kot, Aerosol).

Übertragung durch Vektoren

Übertragung durch lebende Vektoren wie z.B. Insekten.

Das Blauzungenvirus kann mithilfe von Stechmücken auf Rinder übertragen werden. Malaria kann mithilfe von Moskitos zwischen Menschen übertragen werden. Stechmücken und Moskitos können Vektoren sein.

Transmissions- oder Übertragungsmodell (SIR)

Modell, das die Ausbreitung einer Infektion beschreibt.

Das SIR Model kann dazu genutzt werden, epidemische Kurven zu modellieren.

z.B. eine graphische Darstellung eines einfachen SIR Models (Susceptible – Infected – Recovered). Zu Beginn ist die gesamte Bevölkerung empfänglich. Nach dem Eintrag des Krankheitserregers treten die ersten Fälle auf. Die Zahl der Fälle steigt rasch an, weil die Population empfänglich ist und weil infektiöse Individuen Kontakt haben mit empfänglichen Individuen. Wenn Individuen die Krankheit überstehen und immun werden, sinkt die Anzahl der empfänglichen Individuen und die Zahl der neuen Fälle. Schliesslich sind nur noch wenige oder gar keine empfänglichen Individuen mehr übrig und es treten nur noch sehr wenige neue Fälle auf. Das SIR Model kann mathematisch mit Differentialgleichungen dargestellt werden. Diese können Variationen beinhalten wie das Auftreten neuer empfänglicher Individuen durch Geburt, Verschwinden von infizierten Individuen durch Tod (auch durch andere Gründe) oder auch der Wechsel von wieder gesundeten Individuen zu erneut empfänglichen Individuen. (Siehe Skript 3 Seite 15)

Assoziation

Mit Assoziation wird das Verhältnis zwischen zwei Variablen ausgedrückt: zwischen Variablen, die (statistisch) assoziiert sind, gibt es eine Abhängigkeit zwischen den beiden. Der Begriff “Assoziation” bezieht sich auf verschiedene Arten der Abhängigkeit.

Eine Assoziation wäre zum Beispiel zu finden bei einer Lebensmittelvergiftung im Zusammenhang mit verzehrtem Poulet: diejenigen, die Poulet gegessen haben, erkrankten einen Tag später (Erbrechen). Diejenigen, die kein Poulet gegessen hatten, blieben gesund.

Korrelation

Die Korrelation beschreibt die lineare Beziehung zwischen zwei oder mehreren kontinuierlichen Variablen (Intervalldaten). Sinnvoll ist die Korrelation zum Feststellen von Zusammenhängen nur, wenn keine Aussage über die vermutete Richtung des Zusammenhangs zweier Variablen gemacht werden kann (x->y oder y->x). Wenn dies der Fall ist sollten andere Verfahren wie zB. Lineare Regressionen angewendet werden.

Mit dem Begriff Korrelation ist nur eine lineare Abhängigkeit gemeint.

Die Korrelation setzt einen linearen Zusammenhang zwischen zwei intervallskalierten variablen voraus. Für andere als lineare Zusammenhänge sind Korrelationsanalysen und Koeffizienten nicht geeignet.

Welche zwei "Arten" von Korrelationen gibt es?

Es gibt positive und negative Korrelationen.

Ein Beispiel für eine positive Korrelation (je mehr, desto mehr) ist: Je mehr Futter, desto dickere Kühe.

Ein Beispiel für eine negative Korrelation (wenn mehr, dann weniger) ist: „Mehr zurückgelegte Strecke mit dem Auto, weniger Treibstoff im Tank.“

Korrelationskoeffizient nach Pearson oder Spearman

Der Korrelationskoeffizient ist ein Mass für den Grad des Zusammenhangs zwischen zwei numerischen Variablen. Er kann Werte zwischen −1 und +1 annehmen.

Der Korrelationskoeffizient nach Pearson wird für normalverteilte Variablen verwendet.

Der Korrelationskoeffizient nach Spearman für nichtnormalverteilte oder ordinale Variablen.

Lineare Regression

In der linearen Regression wird eine abhängige numerische Variable (Y) erklärt durch eine unabhängige numerische Variablen (X). Die Beziehung zwischen diesen beiden Variablen kann mit einer Geraden beschrieben werden. Diese Gerade wird mithilfe der Methode der kleinsten Quadrate durch die Punktewolke gezogen.

(Es ist möglich, dass zahlreiche Faktoren einen Einfluss auf das Verhältnis zwischen der abhängigen Variable (Y) und der unabhängigen Variablen (X) haben. Beispielsweise kann der Eindruck wie warm Ihnen an einem kalten Tag ist, abhängig sein von der Temperatur, der Windgeschwindigkeit, der Feuchtigkeit und der Schichtdicke Ihrer Kleidung. Im Sinne einer multivariaten Regression könnte dieses Beispiel in einer Gleichung beschrieben werden.)

Mit welcher Gleichung kann eine einfache lineare Regression beschrieben werden?

\(y = αx + c + ε\)

α = Steigung der Geraden / c = Schnittpunkt mit der y-Achse / ε = Fehlerterm an jedem Punkt / y = abhängige Variable Y / x = unabhängige Variable X

Multivariate Analysen

Gleichung?

Multivariate Analysen werden benutzt um komplexe Beziehungen zwischen Krankheitsauftreten und zahlreichen Faktoren des Wirtes, des Krankheitserregers und der Umwelt.

\(y = αx + βy + ... + δy + c + ε\)

unabhängige Variable

Die unabhängige Variable ist üblicherweise die Variable, die verändert oder manipuliert werden kann (x).

abhängige Variable

Die abhängige Variable sind die beobachteten, gemessenen Werte wenn die unabhängige Variable manipuliert wird (y).

So kann beispielsweise in der Ernährung die Menge an täglich eingenommenen Vitamin C die Lebenserwartung (durchschnittliches Alter das erreicht wird) beeinflussen.

R2, Bestimmtheitsmass

Das Bestimmtheitsmass (Determinationskoeffizient) ist ein Mass für den erklärten Anteil der Variabilität einer abhängigen Variablen Y durch ein statistisches Modell.

Anova, Varianzanalyse

Statistischer Test zum Vergleich der Mittelwerte mehrerer Gruppen.

einfaktoriellen Anova

Bei einer einfaktoriellen Anova untersucht man den Einfluss einer unabhängigen nominalen Variablen auf eine abhängige numerische Variable, welche die Messwerte enthält. Es werden dabei die Gruppenmittelwerte verglichen. Die einfaktorielle Anova lässt sich auch als Generalisierung eines t-Tests auf mehr als zwei Gruppen verstehen.

Wenn man mehrere Gruppenmittelwerte vergleichen möchte und jeweils paarweise t-Tests (für den Vergleich von zwei Gruppen anwenden würde), würde sich die Wahrscheinlichkeit eines Fehlers 1. Art erhöhen. Deshalb sollte eine Anova zum Vergleich von drei und mehr Gruppenmittelwerten verwendet werden.

Auf welchen vier Annahmen beruht die ANOVA?

* Die Messfehler für x sind null.
* Die Fehlerkomponenten sind normalverteilt. Normalverteilung der Messwerte in der jeweiligen Grundgesamtheit.
* Die Fehlervarianzen zwischen den Gruppen sind gleich bzw. homogen
* Die Messwerte bzw. Faktorstufen müssen unabhängig voneinander sein.

Kruskall-Wallis ANOVA

Die Kruskall-Wallis ANOVA ist eine nichtparametrische Variante der ANOVA. Sie kann verwendet werden, wenn die Daten nicht normalverteilt sind.

Konditionale oder bedingte Wahrscheinlichkeiten

Die Wahrscheinlichkeit des Eintretens eines Ereignisses unter der Bedingung (auch Konditionalität), dass das Eintreten eines anderen Ereignisses bereits bekannt ist. Bedingte Wahrscheinlichkeiten können genutzt werden, um alle relevante Evidenz ins Hypothesen testen mit einzubeziehen.

Bedingte Wahrscheinlichkeiten werden routinemässig (auch unbewusst) in der Tiermedizin genutzt. Zum Beispiel ist die Wahrscheinlichkeit Tollwut bei einem zufällig ausgewählten Hund zu finden sehr klein. Wenn zusätzliche Informationen verfügbar sind, sieht die Situation anders aus: angenommen, der Hund kommt aus Afrika und zeigt zentralnervöse Symptome. Nun ist mit dieser Information, dass der Hund aus Afrika kommt UND zentralnervöse Symptome zeigt, die Wahrscheinlichkeit einen Hund mit Tollwut zu finden sehr hoch.

 

Bayesianische Statistik

Bayesianische Statistik ist ein Fachgebiet innerhalb der Statistik, das die Voraussetzungen bereit hält, um mit bedingten Wahrscheinlichkeiten rechnen zu können. Sie wird häufig beim diagnostischen Testen benutzt.

Exposition

Exposition beschreibt den vermuteten Faktor, welcher den Endpunkt beeinflusst. Beispiele von  Expositionen sind bakterielle Erreger (z.B. Salmonellen), Toxische Substanzen (z.B. Dioxine), Managementvorgänge (z.B. bestimmte Fütterung) oder Verhalten (bspw. Rauchen).

Risiko- und Schutzfaktor

Wenn die Exposition das Krankheitsrisiko erhöht, handelt es sich um einen Risikofaktor, wenn das Krankheitsrisiko erniedrigt wird, ist es ein Schutzfaktor.

Endpunkt

Als Endpunkt wird ein (meist) gesundheitsrelevantes Ereignis (Krankheit, Tod etc.) bezeichnet, das von einer Exposition beeinflusst werden kann.

multifaktoriell

Viele Krankheiten sind multifaktoriell bedingt. Das bedeutet, dass Faktoren der Umwelt, des Wirts und des Erregers (Agens) einzeln oder gemeinsam den Endpunkt beeinflussen. Oft gibt es dabei verschiedene, zum Teil komplizierte Kombinationen, die zum gleichen Endpunkt (Krankheit) führen können.

kausales Netz

Das Zusammenspiel verschiedener Risikofaktoren.

Intrinsische Faktoren

Intrinsische Faktoren sind (biologischen) Faktoren, welche dem Individuum „gegeben“ (bspw. vererbt) sind oder welche sich das Indiviuum aneignet (Risiko-Verhalten, Gewohnheiten).

Extrinische Faktoren

Extrinische Faktoren kommen aus der Umwelt (Environment) und dem Umfeld (andere Indiviuen, Population).

kausaler Zusammenhang/Kausalität

Ein kausaler Zusammenhang kann am besten in einem Experiment bewiesen werden, wo alle Faktoren ausser dem vermuteten Risikofaktor kontrolliert sind. In der Realität ist dies oft nicht möglich, sodass Kausalität nicht direkt bewiesen, sondern in epidemiologischen Studien mehrere Indizien dafür gesammelt werden müssen.

analytischen Epidemiologie

Unterschied zur deskriptiven Epidemiologie?

Das Prüfen der Kausalität gehört zum Gebiet der analytischen Epidemiologie. Während die deskriptive Epidemiologie die Häufigkeit von Krankheiten (und ggf. Risikofaktoren) in Populationen erfasst und beschreibt, ist die analytische Epidemiologie ein Mittel, die Ursache dieser Krankheiten zu erforschen. Im Gegensatz zur deskriptiven Epidemiologie genügt dazu jedoch das einfache Sammeln von Daten nicht, sondern der Epidemiologe muss in die Population, um dort Kontrolluntersuchungen an nicht-erkrankten Tieren oder Beständen vorzunehmen.

Nennen Sie 6 Merkmale, die auf Kausalität hinweisen

* Konsistenz
* Stärke der Abhängigkeit
* Dose-Response-Abhängigkeit
* Zeitliche Chronologie
* Mehrere Studien
* Biologisch plausibel

(Manche epidemiologische Studien sind für den Nachweis der Kausalität besser geeignet als andere.)

Ist eine statistisch gesicherte (signifikante) Assoziation gleichbedeutend mit einem realen kausalen Mechanismus?

NEIN.

Eine statistisch gesicherte (signifikante) Assoziation ist nicht gleichbedeutend mit einem realen kausalen Mechanismus – er beschreibt nur den numerischen Zusammenhang der zwei Faktoren in der entsprechenden Studie!

Assoziationsmasse

Epidemiologische Assoziationsmasse vergleichen die Krankheits- oder Todeshäufigkeit (Endpunkt) zwischen zwei oder mehr Expositions- (Risikofaktor-) Klassen. Sie sind damit per Definition (relative) Verhältnisse (Ratios).

Ratios aus positiven Zahlen haben immer einen möglichen Wertebereich zwischen 0 und + ∞ (positiv unendlich). Wenn Nenner und Zähler eines Ratios gleich gross sind, ist das Ergebnis 1.