4 banner

 

28. Epidemiologie und Statistik

Kapitel-Editoren:  Franco Merletti, Colin L. Soskolne und Paolo Vineis


Inhaltsverzeichnis

Tabellen und Abbildungen

Epidemiologische Methode für Arbeitssicherheit und Gesundheitsschutz
Franco Merletti, Colin L. Soskolne und Paolo Vineis

Expositionsbewertung
M. Gerald Ott

Zusammenfassung der Expositionsmaßnahmen im Arbeitsleben
Colin L. Soskolne

Messung der Auswirkungen von Expositionen
Shelia Hoar Zahm

     Fallbeispiel: Maßnahmen
     Franco Merletti, Colin L. Soskolne und Paola Vineis

Optionen im Studiendesign
Sven Herberg

Validitätsprobleme im Studiendesign
Annie J. Sasco

Einfluss zufälliger Messfehler
Paolo Vineis und Colin L. Soskolne

Statistische Methoden
Annibale Biggeri und Mario Braga

Kausalitätsbewertung und Ethik in der epidemiologischen Forschung
Paolo Vineis

Fallstudien zur Veranschaulichung methodischer Probleme bei der Überwachung von Berufskrankheiten
Jung-Der Wang

Fragebögen in der epidemiologischen Forschung
Steven D. Stellman und Colin L. Soskolne

Asbest Historische Perspektive
Laurent Garfinkel

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Fünf ausgewählte zusammenfassende Maßnahmen zur Exposition im Berufsleben

2. Maße für das Auftreten von Krankheiten

3. Assoziationsmaße für eine Kohortenstudie

4. Assoziationsmaße für Fall-Kontroll-Studien

5. Allgemeines Häufigkeitstabellenlayout für Kohortendaten

6. Musterlayout von Fallkontrolldaten

7. Layout-Fallkontrolldaten – eine Kontrolle pro Fall

8. Hypothetische Kohorte von 1950 Individuen zu T2

9. Indizes der zentralen Tendenz und Streuung

10 Ein binomiales Experiment & Wahrscheinlichkeiten

11 Mögliche Ergebnisse eines binomialen Experiments

12 Binomialverteilung, 15 Erfolge/30 Versuche

13 Binomialverteilung, p = 0.25; 30 Versuche

14 Fehler XNUMX. Art & Leistung; x = 12, n = 30, a = 0.05

15 Fehler XNUMX. Art & Leistung; x = 12, n = 40, a = 0.05

16 632 Arbeitnehmer, die 20 Jahre oder länger Asbest ausgesetzt waren

17 O/E Zahl der Todesfälle unter 632 Asbestarbeitern

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

EPI110F1EPI110F2


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Epidemiologie

Die Epidemiologie ist sowohl als wissenschaftliche Grundlage der Präventivmedizin als auch als Grundlage für den Prozess der öffentlichen Gesundheitspolitik anerkannt. Es wurden mehrere operative Definitionen der Epidemiologie vorgeschlagen. Die einfachste ist, dass Epidemiologie die Untersuchung des Auftretens von Krankheiten oder anderen gesundheitsbezogenen Merkmalen in Menschen- und Tierpopulationen ist. Epidemiologen untersuchen nicht nur die Häufigkeit von Krankheiten, sondern ob sich die Häufigkeit zwischen Personengruppen unterscheidet; dh sie untersuchen die Ursache-Wirkungs-Beziehung zwischen Exposition und Krankheit. Krankheiten treten nicht zufällig auf; sie haben Ursachen – sehr oft menschengemachte Ursachen – die vermeidbar sind. So könnten viele Krankheiten verhindert werden, wenn die Ursachen bekannt wären. Die Methoden der Epidemiologie waren entscheidend für die Identifizierung vieler ursächlicher Faktoren, die wiederum zu einer Gesundheitspolitik geführt haben, die darauf abzielt, Krankheiten, Verletzungen und vorzeitigen Tod zu verhindern.

Welche Aufgabe hat die Epidemiologie und wo liegen ihre Stärken und Schwächen, wenn Definitionen und Konzepte der Epidemiologie auf den betrieblichen Gesundheitsschutz übertragen werden? Dieses Kapitel befasst sich mit diesen Fragen und den Möglichkeiten, wie arbeitsbedingte Gesundheitsgefahren mit epidemiologischen Methoden untersucht werden können. Dieser Artikel stellt die Ideen vor, die in aufeinanderfolgenden Artikeln in diesem Kapitel zu finden sind.

Berufsepidemiologie

Berufsepidemiologie ist definiert als die Untersuchung der Auswirkungen von Expositionen am Arbeitsplatz auf die Häufigkeit und Verbreitung von Krankheiten und Verletzungen in der Bevölkerung. Sie ist damit eine expositionsorientierte Disziplin mit Bezügen sowohl zur Epidemiologie als auch zur Arbeitsmedizin (Checkoway et al. 1989). Als solche verwendet sie Methoden, die denen der Epidemiologie im Allgemeinen ähneln.

Das Hauptziel der Arbeitsepidemiologie ist die Prävention durch die Ermittlung der gesundheitlichen Folgen von Expositionen am Arbeitsplatz. Dies unterstreicht den präventiven Fokus der Arbeitsepidemiologie. Tatsächlich sollte jede Forschung auf dem Gebiet des Arbeitsschutzes präventiven Zwecken dienen. Daher kann und sollte epidemiologisches Wissen leicht umsetzbar sein. Während das Interesse der öffentlichen Gesundheit immer das Hauptanliegen der epidemiologischen Forschung sein sollte, können Interessengruppen Einfluss nehmen, und es muss darauf geachtet werden, diesen Einfluss auf die Formulierung, Durchführung und/oder Interpretation von Studien zu minimieren (Soskolne 1985; Soskolne 1989).

Ein zweites Ziel der Berufsepidemiologie ist es, Ergebnisse aus spezifischen Settings zu nutzen, um Gefährdungen in der Bevölkerung insgesamt zu reduzieren oder zu eliminieren. Daher spielen die Ergebnisse aus berufsepidemiologischen Studien nicht nur Informationen über die gesundheitlichen Auswirkungen von Expositionen am Arbeitsplatz, sondern auch eine Rolle bei der Einschätzung des Risikos, das mit denselben Expositionen verbunden ist, jedoch auf dem niedrigeren Niveau, das die allgemeine Bevölkerung allgemein erfährt. Umweltverschmutzung durch industrielle Prozesse und Produkte würde normalerweise zu geringeren Expositionsniveaus führen als am Arbeitsplatz.

Die Anwendungsebenen der Berufsepidemiologie sind:

  • Überwachung, um das Auftreten von Krankheiten in verschiedenen Kategorien von Arbeitnehmern zu beschreiben und so Frühwarnsignale für unerkannte Berufsgefahren zu liefern
  • Generierung und Prüfung einer Hypothese, dass eine bestimmte Exposition schädlich sein kann, und die Quantifizierung einer Wirkung
  • Bewertung einer Intervention (z. B. einer vorbeugenden Maßnahme wie der Reduzierung von Expositionswerten) durch Messung der Veränderungen des Gesundheitszustands einer Bevölkerung im Laufe der Zeit.

 

Die ursächliche Rolle, die berufsbedingte Expositionen bei der Entstehung von Krankheiten, Verletzungen und vorzeitigem Tod spielen können, wurde schon vor langer Zeit erkannt und ist Teil der Geschichte der Epidemiologie. Hinzuweisen ist auf Bernardino Ramazzini, Begründer der Arbeitsmedizin und einer der ersten, der die hippokratische Tradition der Abhängigkeit der Gesundheit von identifizierbaren natürlichen äußeren Faktoren wiederbelebte und ergänzte. Im Jahr 1700 schrieb er in seinem „De Morbis Artificum Diatriba“ (Ramazzini 1705; Saracci 1995):

Der Arzt muss den Patienten viele Fragen stellen. Hippokrates erklärt in De Affectionibus: „Wenn Sie einem Kranken gegenüberstehen, sollten Sie ihn fragen, woran er leidet, aus welchem ​​Grund, seit wie vielen Tagen, was er isst und wie sein Stuhlgang ist. Zu all diesen Fragen sollte noch eine hinzugefügt werden: ‚Welche Arbeit macht er?‘.“

Dieses Wiedererwachen der klinischen Beobachtung und der Aufmerksamkeit für die Umstände des Auftretens von Krankheiten veranlasste Ramazzini, viele Berufskrankheiten zu identifizieren und zu beschreiben, die später von Arbeitsmedizinern und Epidemiologen untersucht wurden.

Mit diesem Ansatz berichtete Pott erstmals 1775 (Pott 1775) über die mögliche Verbindung zwischen Krebs und Beruf (Clayson 1962). Seine Beobachtungen zum Hodensackkrebs bei Schornsteinfegern begannen mit einer Beschreibung der Krankheit und setzten sich fort:

Das Schicksal dieser Menschen scheint einzigartig hart: In ihrer frühen Kindheit werden sie am häufigsten mit großer Brutalität behandelt und vor Kälte und Hunger fast ausgehungert; sie werden in enge und manchmal heiße Schornsteine ​​geschoben, wo sie verletzt, verbrannt und fast erstickt werden; und wenn sie die Pubertät erreichen, werden sie besonders anfällig für eine höchst lästige, schmerzhafte und tödliche Krankheit.

Über diesen letzten Umstand gibt es nicht den geringsten Zweifel, obgleich vielleicht nicht ausreichend darauf geachtet wurde, um ihn allgemein bekannt zu machen. Andere Menschen haben Krebs der gleichen Teile; und so haben andere, außer Bleiarbeitern, die Poitou-Kolik und die daraus resultierende Lähmung; aber es ist dennoch eine Krankheit, für die sie besonders anfällig sind; und Schornsteinfeger zu Hoden- und Hodenkrebs.

Die Krankheit scheint bei diesen Menschen ihren Ursprung in einer Rußablagerung in der Hodensackfalte zu haben und zunächst keine Gewohnheitskrankheit zu sein … aber hier sind die Probanden jung, im Allgemeinen zumindest bei guter Gesundheit zunaechst; die Krankheit, die ihnen durch ihren Beruf zugefügt wurde, und aller Wahrscheinlichkeit nach lokal; welcher letzte Umstand kann, denke ich, ziemlich davon ausgegangen werden, dass er immer dieselben Teile ergreift; All dies macht es (zunächst) zu einem ganz anderen Fall als ein Krebs, der bei einem älteren Mann auftritt.

Dieser erste Bericht über einen Berufskrebs bleibt immer noch ein Musterbeispiel an Klarheit. Die Art der Krankheit, der betroffene Beruf und der wahrscheinliche Erreger sind klar definiert. Es wird eine erhöhte Inzidenz von Hodenkrebs bei Schornsteinfegern festgestellt, obwohl keine quantitativen Daten zur Untermauerung dieser Behauptung vorgelegt werden.

Weitere fünfzig Jahre vergingen, bis Ayrton-Paris 1822 (Ayrton-Paris 1822) die häufige Entwicklung von Hodenkrebs bei den Kupfer- und Zinnhütten von Cornwall bemerkte und vermutete, dass Arsendämpfe die Ursache sein könnten. Von Volkmann berichtete 1874 von Hauttumoren bei Paraffinarbeitern in Sachsen, und kurz darauf schlug Bell 1876 vor, dass Schieferöl für Hautkrebs verantwortlich sei (Von Volkmann 1874; Bell 1876). Berichte über die berufliche Entstehung von Krebs wurden dann relativ häufiger (Clayson 1962).

Zu den frühen Beobachtungen von Berufskrankheiten gehörte das vermehrte Auftreten von Lungenkrebs bei Schneeberger Bergleuten (Harting und Hesse 1879). Es ist bemerkenswert (und tragisch), dass eine aktuelle Fallstudie zeigt, dass die Lungenkrebsepidemie in Schneeberg mehr als ein Jahrhundert nach der ersten Beobachtung im Jahr 1879 immer noch ein großes Problem für die öffentliche Gesundheit darstellt. Ein Ansatz zur Identifizierung einer „Zunahme“ von Krankheiten und sogar zu quantifizieren, war in der Geschichte der Arbeitsmedizin präsent. Wie beispielsweise Axelson (1994) betonte, untersuchte WA Guy 1843 die „Lungenschwindsucht“ bei Buchdruckern und fand ein höheres Risiko bei Setzern als bei Druckern; Dies geschah durch Anwendung eines dem Fall-Kontroll-Ansatz ähnlichen Designs (Lilienfeld und Lilienfeld 1979). Dennoch begann sich die moderne Berufsepidemiologie und ihre Methodik erst in den frühen 1950er Jahren zu entwickeln. Wichtige Beiträge zu dieser Entwicklung waren die Studien über Blasenkrebs bei Färbereiarbeitern (Case und Hosker 1954) und Lungenkrebs bei Gasarbeitern (Doll 1952).

Probleme der Berufsepidemiologie

Die Artikel in diesem Kapitel stellen sowohl die Philosophie als auch die Werkzeuge der epidemiologischen Untersuchung vor. Sie konzentrieren sich auf die Bewertung der Expositionserfahrung von Arbeitnehmern und auf die Krankheiten, die in diesen Bevölkerungsgruppen auftreten. Probleme beim Ziehen gültiger Schlussfolgerungen über mögliche ursächliche Zusammenhänge auf dem Weg von der Exposition gegenüber gefährlichen Stoffen bis zur Entstehung von Krankheiten werden in diesem Kapitel behandelt.

Den Kern der Berufsepidemiologie bildet die Erhebung der individuellen Expositionserfahrung im Arbeitsleben. Die Aussagekraft einer epidemiologischen Studie hängt in erster Linie von der Qualität und dem Umfang der verfügbaren Expositionsdaten ab. Zweitens müssen die gesundheitlichen Auswirkungen (oder die Krankheiten), die für den Berufsepidemiologen von Belang sind, für eine klar definierte und zugängliche Gruppe von Arbeitnehmern genau bestimmbar sein. Schließlich sollten dem Epidemiologen Daten über andere potenzielle Einflüsse auf die interessierende Krankheit zur Verfügung stehen, damit alle aus der Studie ermittelten Wirkungen der beruflichen Exposition der beruflichen Exposition zugeschrieben werden können an sich eher als auf andere bekannte Ursachen der betreffenden Krankheit. In einer Gruppe von Arbeitnehmern, die möglicherweise mit einer Chemikalie arbeiten, von der vermutet wird, dass sie Lungenkrebs verursacht, haben einige Arbeitnehmer möglicherweise auch eine Vorgeschichte des Tabakrauchens, einer weiteren Ursache für Lungenkrebs. In der letzteren Situation müssen Arbeitsepidemiologen feststellen, welche Exposition (oder welcher Risikofaktor – die Chemikalie oder der Tabak oder sogar beides in Kombination) für eine Erhöhung des Lungenkrebsrisikos in der Gruppe der Arbeitnehmer verantwortlich ist studiert.

Expositionsabschätzung

Wenn eine Studie nur Zugriff auf die Tatsache hat, dass ein Arbeitnehmer in einer bestimmten Branche beschäftigt war, können die Ergebnisse einer solchen Studie gesundheitliche Auswirkungen nur mit dieser Branche in Verbindung bringen. Auch wenn für die Berufe der Arbeitnehmer Kenntnisse über die Exposition vorliegen, können nur in Bezug auf die Berufe direkt Rückschlüsse gezogen werden. Es können indirekte Rückschlüsse auf chemische Expositionen gezogen werden, aber ihre Zuverlässigkeit muss von Situation zu Situation bewertet werden. Wenn eine Studie jedoch Zugang zu Informationen über die Abteilung und/oder Berufsbezeichnung jedes Arbeitnehmers hat, können Rückschlüsse auf diese feinere Ebene der Arbeitsplatzerfahrung gezogen werden. Wenn dem Epidemiologen (in Zusammenarbeit mit einem Industriehygieniker) Informationen über die tatsächlichen Substanzen bekannt sind, mit denen eine Person arbeitet, dann wäre dies die beste verfügbare Ebene von Expositionsinformationen, da selten verfügbare Dosimetrien fehlen. Darüber hinaus können die Ergebnisse solcher Studien der Industrie nützlichere Informationen zur Schaffung sicherer Arbeitsplätze liefern.

Die Epidemiologie war bisher eine Art „Black Box“-Disziplin, weil sie die Beziehung zwischen Exposition und Krankheit (den beiden Extremen der Kausalkette) untersuchte, ohne die mechanistischen Zwischenschritte zu berücksichtigen. Dieser Ansatz war trotz seines offensichtlichen Mangels an Verfeinerung äußerst nützlich: Tatsächlich wurden beispielsweise alle bekannten Ursachen von Krebs beim Menschen mit den Werkzeugen der Epidemiologie entdeckt.

Die epidemiologische Methode basiert auf verfügbaren Aufzeichnungen – Fragebögen, Berufsbezeichnungen oder anderen „Proxies“ der Exposition; dies macht die Durchführung epidemiologischer Studien und die Interpretation ihrer Ergebnisse relativ einfach.

Die Grenzen des groberen Ansatzes zur Expositionsbewertung sind jedoch in den letzten Jahren deutlich geworden, da Epidemiologen vor komplexeren Problemen stehen. Beschränken wir unsere Betrachtung auf die berufliche Krebsepidemiologie, so wurden die meisten bekannten Risikofaktoren aufgrund der hohen Exposition in der Vergangenheit entdeckt; eine begrenzte Anzahl von Aufnahmen für jeden Job; große Populationen exponierter Arbeiter; und eine eindeutige Übereinstimmung zwischen „Proxy“-Informationen und Expositionen gegenüber Chemikalien (z. B. Schuharbeiter und Benzol, Werften und Asbest usw.). Heutzutage ist die Situation wesentlich anders: Die Expositionsniveaus sind in den westlichen Ländern erheblich niedriger (diese Einschränkung sollte immer betont werden); Arbeitnehmer sind in derselben Berufsbezeichnung vielen verschiedenen Chemikalien und Mischungen ausgesetzt (z. B. Landarbeiter); homogene Populationen exponierter Arbeitnehmer sind schwieriger zu finden und in der Regel zahlenmäßig klein; und die Übereinstimmung zwischen „Proxy“-Informationen und tatsächlicher Exposition wird zunehmend schwächer. In diesem Zusammenhang haben die Werkzeuge der Epidemiologie aufgrund der Fehlklassifizierung der Exposition eine reduzierte Sensitivität.

Darüber hinaus hat sich die Epidemiologie in den meisten Kohortenstudien auf „harte“ Endpunkte wie den Tod verlassen. Arbeitnehmer ziehen es jedoch möglicherweise vor, etwas anderes als „Körperzahlen“ zu sehen, wenn die potenziellen gesundheitlichen Auswirkungen beruflicher Expositionen untersucht werden. Daher hätte die Verwendung direkterer Indikatoren sowohl für die Exposition als auch für die frühe Reaktion einige Vorteile. Biologische Marker können nur ein Werkzeug sein.

Biologische Marker

Die Verwendung von biologischen Markern, wie beispielsweise Bleiwerten in Blut- oder Leberfunktionstests, ist in der Arbeitsepidemiologie nicht neu. Der Einsatz molekularer Techniken in epidemiologischen Studien hat jedoch die Verwendung von Biomarkern zur Bewertung der Exposition gegenüber Zielorganen, zur Bestimmung der Anfälligkeit und zur Feststellung früher Erkrankungen ermöglicht.

Einsatzmöglichkeiten von Biomarkern im Rahmen der Berufsepidemiologie sind:

  • Expositionsbewertung in Fällen, in denen traditionelle epidemiologische Instrumente nicht ausreichen (insbesondere bei niedrigen Dosen und niedrigen Risiken)
  • die ursächliche Rolle einzelner chemischer Agenzien oder Substanzen bei Mehrfachexposition oder Mischungen zu entwirren
  • Abschätzung der Gesamtbelastung durch Chemikalien mit demselben mechanistischen Ziel
  • Untersuchung pathogenetischer Mechanismen
  • Untersuchung der individuellen Anfälligkeit (z. B. metabolische Polymorphismen, DNA-Reparatur) (Vineis 1992)
  • Exposition und/oder Krankheit genauer zu klassifizieren und damit die Aussagekraft der Statistik zu erhöhen.

 

In der wissenschaftlichen Gemeinschaft ist große Begeisterung über diese Verwendungen entstanden, aber, wie oben erwähnt, sollte die methodische Komplexität der Verwendung dieser neuen „molekularen Werkzeuge“ dazu dienen, vor übermäßigem Optimismus zu warnen. Biomarker für chemische Belastungen (wie DNA-Addukte) haben mehrere Mängel:

  1. Sie spiegeln in der Regel aktuelle Expositionen wider und sind daher in Fall-Kontroll-Studien von begrenztem Nutzen, während sie für die Verwendung in Kohortenuntersuchungen wiederholte Probenahmen über längere Zeiträume erfordern.
  2. Obwohl sie sehr spezifisch sein können und somit die Fehleinstufung der Exposition verbessern, bleiben die Ergebnisse oft schwer zu interpretieren.
  3. Wenn komplexe chemische Belastungen untersucht werden (z. B. Luftverschmutzung oder Tabakrauch in der Umwelt), ist es möglich, dass der Biomarker eine bestimmte Komponente des Gemischs widerspiegelt, während die biologische Wirkung auf eine andere zurückzuführen sein könnte.
  4. In vielen Situationen ist nicht klar, ob ein Biomarker eine relevante Exposition, ein Korrelat der relevanten Exposition, eine individuelle Anfälligkeit oder ein frühes Krankheitsstadium widerspiegelt, wodurch kausale Rückschlüsse eingeschränkt werden.
  5. Die Bestimmung der meisten Biomarker erfordert einen teuren Test oder ein invasives Verfahren oder beides, wodurch Einschränkungen für eine angemessene Studiengröße und statistische Aussagekraft entstehen.
  6. Ein Biomarker der Exposition ist nur ein Stellvertreter für das eigentliche Ziel einer epidemiologischen Untersuchung, die in der Regel auf eine vermeidbare Umweltexposition abzielt (Trichopoulos 1995; Pearce et al. 1995).

 

Noch wichtiger als die methodischen Mängel ist die Überlegung, dass molekulare Techniken uns dazu veranlassen könnten, unseren Fokus von der Identifizierung von Risiken in der exogenen Umgebung auf die Identifizierung von Personen mit hohem Risiko umzulenken und dann personalisierte Risikobewertungen durch Messung von Phänotyp, Adduktbelastung und erworbenen Mutationen vorzunehmen. Dies würde unseren Fokus, wie von McMichael angemerkt, auf eine Form der klinischen Bewertung lenken, anstatt auf eine Epidemiologie der öffentlichen Gesundheit. Die Konzentration auf Einzelpersonen könnte uns von dem wichtigen Ziel der öffentlichen Gesundheit ablenken, eine weniger gefährliche Umgebung zu schaffen (McMichael 1994).

Zwei weitere wichtige Fragen ergeben sich in Bezug auf die Verwendung von Biomarkern:

  1. Der Einsatz von Biomarkern in der Berufsepidemiologie muss von einer klaren Politik der informierten Einwilligung begleitet werden. Der Arbeitnehmer kann mehrere Gründe haben, die Zusammenarbeit abzulehnen. Ein sehr praktischer Grund ist, dass die Identifizierung von beispielsweise einer Veränderung eines frühen Reaktionsmarkers wie Schwesterchromatidaustausch die Möglichkeit einer Diskriminierung durch Kranken- und Lebensversicherer und durch Arbeitgeber impliziert, die den Arbeitnehmer möglicherweise meiden, weil er oder sie möglicherweise anfälliger ist zu Krankheit. Ein zweiter Grund betrifft das genetische Screening: Da die Verteilung von Genotypen und Phänotypen je nach ethnischer Gruppe unterschiedlich ist, könnten die Beschäftigungsmöglichkeiten für Minderheiten durch das genetische Screening behindert werden. Drittens können Zweifel an der Vorhersagbarkeit von Gentests geäußert werden: Da der Vorhersagewert von der Prävalenz der Erkrankung abhängt, die der Test identifizieren soll, ist der Vorhersagewert gering, wenn letztere selten ist, und der praktische Nutzen des Screenings Test wird fraglich sein. Bisher wurde keiner der genetischen Screening-Tests als im Feld anwendbar beurteilt (Ashford et al. 1990).
  2. Vor dem Einsatz von Biomarkern müssen ethische Grundsätze beachtet werden. Diese Grundsätze wurden von einer interdisziplinären Arbeitsgruppe des Technischen Büros der Europäischen Gewerkschaften mit Unterstützung der Kommission der Europäischen Gemeinschaften für Biomarker zur Identifizierung individueller Krankheitsanfälligkeit evaluiert (Van Damme et al. 1995); Ihr Bericht hat die Ansicht bekräftigt, dass Tests nur mit dem Ziel durchgeführt werden können, Krankheiten bei einer Belegschaft vorzubeugen. Unter anderem müssen Tests verwendet werden hört niemals .

 

  • dienen als Mittel zur „Auswahl der Stärksten“
  • verwendet werden, um die Umsetzung wirksamer Präventivmaßnahmen zu vermeiden, wie z. B. die Identifizierung und Substitution von Risikofaktoren oder Verbesserungen der Bedingungen am Arbeitsplatz
  • soziale Ungleichheit schaffen, bestätigen oder verstärken
  • eine Kluft zwischen den am Arbeitsplatz befolgten ethischen Grundsätzen und den ethischen Grundsätzen schaffen, die in einer demokratischen Gesellschaft aufrechterhalten werden müssen
  • eine Person, die eine Stelle sucht, dazu verpflichten, personenbezogene Daten offenzulegen, die nicht unbedingt für die Erlangung der Stelle erforderlich sind.

 

Schließlich mehren sich die Hinweise darauf, dass die metabolische Aktivierung oder Inaktivierung gefährlicher Substanzen (insbesondere von Karzinogenen) in menschlichen Populationen sehr unterschiedlich und teilweise genetisch bedingt ist. Darüber hinaus kann die interindividuelle Variabilität der Anfälligkeit gegenüber Karzinogenen bei geringer beruflicher und umweltbedingter Exposition besonders wichtig sein (Vineis et al. 1994). Solche Erkenntnisse können Regulierungsentscheidungen stark beeinflussen, die den Risikobewertungsprozess auf die anfälligsten Personen konzentrieren (Vineis und Martone 1995).

Studiendesign und Validität

Hernbergs Artikel über epidemiologische Studiendesigns und ihre Anwendung in der Arbeitsmedizin konzentriert sich auf das Konzept der „Studienbasis“, definiert als die Morbiditätserfahrung (in Bezug auf eine bestimmte Exposition) einer Bevölkerung, während sie im Laufe der Zeit verfolgt wird. Die Untersuchungsgrundlage ist also nicht nur eine Population (also eine Personengruppe), sondern die Erfahrung des Krankheitsgeschehens dieser Population in einem bestimmten Zeitraum (Miettinen 1985, Hernberg 1992). Wenn dieses vereinheitlichende Konzept einer Studienbasis übernommen wird, ist es wichtig zu erkennen, dass die unterschiedlichen Studiendesigns (z. B. Fall-Kontroll- und Kohortendesigns) einfach unterschiedliche Arten der „Ernte“ von Informationen sowohl über die Exposition als auch über die Krankheit aus derselben Studie sind Base; es handelt sich nicht um diametral unterschiedliche Ansätze.

Der Artikel zur Validität im Studiendesign von Sasco befasst sich mit Definitionen und der Bedeutung von Confounding. Studienforscher müssen bei berufsbezogenen Studien immer die Möglichkeit von Confounding berücksichtigen, und es kann nie genug betont werden, dass die Identifizierung potenziell verwirrender Variablen ein integraler Bestandteil jedes Studiendesigns und jeder Analyse ist. Zwei Aspekte des Confounding müssen in der Berufsepidemiologie adressiert werden:

  1. Negative Confounding sollte untersucht werden: Beispielsweise sind einige industrielle Bevölkerungsgruppen aufgrund eines rauchfreien Arbeitsplatzes nur gering mit lebensstilbedingten Risikofaktoren konfrontiert; Glasbläser neigen dazu, weniger zu rauchen als die allgemeine Bevölkerung.
  2. Wenn Confounding in Betracht gezogen wird, sollte eine Schätzung seiner Richtung und seiner potenziellen Auswirkung bewertet werden. Dies gilt insbesondere dann, wenn die Daten zur Kontrolle des Confounding spärlich sind. Beispielsweise ist Rauchen ein wichtiger Confounder in der Berufsepidemiologie und sollte immer berücksichtigt werden. Wenn jedoch keine Daten zum Rauchen verfügbar sind (was häufig in Kohortenstudien der Fall ist), ist es unwahrscheinlich, dass das Rauchen einen großen Risikoüberschuss erklären kann, der in einer Berufsgruppe gefunden wird. Dies wird in einem Artikel von Axelson (1978) schön beschrieben und von Greenland (1987) weiter diskutiert. Als in der Literatur detaillierte Daten sowohl zum Beruf als auch zum Rauchen verfügbar waren, schien Confounding die Schätzungen zum Zusammenhang zwischen Lungenkrebs und Beruf nicht stark zu verzerren (Vineis und Simonato 1991). Darüber hinaus führt eine vermutete Verwechslung nicht immer zu ungültigen Assoziationen. Da die Forscher auch Gefahr laufen, durch andere unentdeckte Beobachtungs- und Auswahlverzerrungen in die Irre geführt zu werden, sollten diese beim Design einer Studie ebenso viel Gewicht erhalten wie die Frage der Verwirrung (Stellman 1987).

 

Zeitliche und zeitbezogene Variablen wie Risikoalter, Kalenderzeitraum, Zeit seit Einstellung, Zeit seit erster Exposition, Expositionsdauer und deren Behandlung in der Analysephase gehören zu den komplexesten methodischen Fragestellungen der Arbeitsepidemiologie. Sie werden in diesem Kapitel nicht behandelt, aber es wird auf zwei relevante und neuere methodische Referenzen hingewiesen (Pearce 1992; Robins et al. 1992).

Statistiken

Der statistische Artikel von Biggeri und Braga sowie der Titel dieses Kapitels weisen darauf hin, dass statistische Methoden nicht von epidemiologischer Forschung getrennt werden können. Dies liegt daran, dass: (a) ein solides Verständnis der Statistik wertvolle Einblicke in das richtige Design einer Untersuchung liefern kann und (b) Statistik und Epidemiologie ein gemeinsames Erbe teilen und die gesamte quantitative Grundlage der Epidemiologie auf dem Begriff der Wahrscheinlichkeit basiert ( Clayton 1992; Clayton und Hills 1993). In vielen der folgenden Artikel werden empirische Beweise und Beweise für hypothetische kausale Zusammenhänge mit probabilistischen Argumenten und geeigneten Studiendesigns bewertet. Beispielsweise wird der Schwerpunkt auf die Schätzung des Risikomaßes von Interesse gelegt, wie Zinssätze oder relative Risiken, und auf die Konstruktion von Konfidenzintervallen um diese Schätzungen herum, anstatt statistische Wahrscheinlichkeitstests durchzuführen (Poole 1987; Gardner und Altman 1989; Greenland 1990 ). Es wird eine kurze Einführung in das statistische Denken unter Verwendung der Binomialverteilung gegeben. Statistik sollte ein Begleiter des wissenschaftlichen Denkens sein. Aber es ist wertlos, wenn es an richtig konzipierter und durchgeführter Forschung mangelt. Statistiker und Epidemiologen sind sich bewusst, dass die Wahl der Methoden bestimmt, was und in welchem ​​Umfang wir Beobachtungen machen. Die wohlüberlegte Auswahl der Gestaltungsmöglichkeiten ist daher von grundlegender Bedeutung, um valide Beobachtungen zu gewährleisten.

Ethik

Der letzte Artikel von Vineis befasst sich mit ethischen Fragen in der epidemiologischen Forschung. Die in dieser Einführung zu erwähnenden Punkte beziehen sich auf die Epidemiologie als eine Disziplin, die per Definition präventive Maßnahmen impliziert. Spezifische ethische Aspekte im Hinblick auf den Schutz der Arbeitnehmer und der Bevölkerung insgesamt erfordern die Anerkennung, dass:

  • Epidemiologische Studien im betrieblichen Umfeld sollten Präventionsmaßnahmen am Arbeitsplatz keinesfalls verzögern.
  • Berufsepidemiologie bezieht sich nicht auf Lebensstilfaktoren, sondern auf Situationen, in denen bei der Wahl der Exposition normalerweise keine oder nur eine geringe persönliche Rolle gespielt wird. Dies impliziert ein besonderes Engagement für eine wirksame Prävention und die unverzügliche Übermittlung von Informationen an die Arbeitnehmer und die Öffentlichkeit.
  • Forschung deckt Gesundheitsgefahren auf und liefert das Wissen für vorbeugende Maßnahmen. Die ethischen Probleme, wenn es möglich ist, keine Forschung durchzuführen, sollten berücksichtigt werden.
  • Die Benachrichtigung der Arbeitnehmer über die Ergebnisse epidemiologischer Studien ist sowohl ein ethisches als auch ein methodisches Problem in der Risikokommunikation. Der Forschung zur Bewertung der potenziellen Auswirkungen und Wirksamkeit der Benachrichtigung sollte hohe Priorität eingeräumt werden (Schulte et al. 1993).

 

Ausbildung in Berufsepidemiologie

In die Spezialisierung Berufsepidemiologie finden Menschen mit unterschiedlichsten Hintergründen den Weg. Medizin, Krankenpflege und Statistik sind einige der wahrscheinlicheren Hintergründe, die unter Fachleuten auf diesem Gebiet zu finden sind. In Nordamerika hat etwa die Hälfte aller ausgebildeten Epidemiologen einen naturwissenschaftlichen Hintergrund, während die andere Hälfte den Weg zum Doktor der Medizin eingeschlagen hat. In Ländern außerhalb Nordamerikas haben die meisten Spezialisten für Berufsepidemiologie den Doktortitel erreicht. In Nordamerika werden Menschen mit medizinischer Ausbildung eher als „Inhaltsexperten“ betrachtet, während diejenigen, die auf dem wissenschaftlichen Weg ausgebildet wurden, als „methodische Experten“ gelten. Oft ist es für einen Inhaltsexperten von Vorteil, sich mit einem Methodenexperten zusammenzuschließen, um die bestmögliche Studie zu konzipieren und durchzuführen.

Für das Fach Berufsepidemiologie sind nicht nur Kenntnisse in epidemiologischen Methoden, Statistiken und Computern erforderlich, sondern auch Kenntnisse in Toxikologie, Arbeitshygiene und Krankheitsregistern (Merletti und Comba 1992). Da große Studien eine Verknüpfung mit Krankheitsregistern erfordern können, ist die Kenntnis von Quellen für Bevölkerungsdaten hilfreich. Auch Kenntnisse der Arbeits- und Unternehmensorganisation sind wichtig. Diplomarbeiten auf Master-Ebene und Dissertationen auf Doktorats-Ausbildungsebene statten die Studierenden mit dem Wissen aus, das für die Durchführung umfangreicher datensatzbasierter und interviewbasierter Studien unter Arbeitnehmern erforderlich ist.

Anteil der berufsbedingten Erkrankungen

Der Anteil der Erkrankungen, der entweder bei einer Gruppe exponierter Arbeitnehmer oder in der Allgemeinbevölkerung auf berufliche Expositionen zurückzuführen ist, wird zumindest im Hinblick auf Krebs in einem anderen Teil davon erfasst Enzyklopädie. Hier sollten wir bedenken, dass, wenn eine Schätzung berechnet wird, diese für eine bestimmte Krankheit (und einen bestimmten Ort im Fall von Krebs), einen bestimmten Zeitraum und ein bestimmtes geografisches Gebiet gelten sollte. Darüber hinaus sollte es auf genauen Messungen des Anteils exponierter Personen und des Expositionsgrads beruhen. Dies impliziert, dass der Anteil der berufsbedingten Erkrankungen von sehr niedrig oder null in bestimmten Bevölkerungsgruppen bis zu sehr hoch in anderen in Industriegebieten reichen kann, wo beispielsweise bis zu 40 % der Lungenkrebsfälle auf berufliche Exposition zurückzuführen sind (Vineis und Simonato 1991). Schätzungen, die nicht auf einer detaillierten Überprüfung gut konzipierter epidemiologischer Studien beruhen, können bestenfalls als fundierte Vermutungen angesehen werden und sind von begrenztem Wert.

Übertragung gefährlicher Industrien

Die meisten epidemiologischen Forschungen werden in den Industrieländern durchgeführt, wo die Regulierung und Kontrolle bekannter Berufsgefahren das Krankheitsrisiko in den letzten Jahrzehnten verringert hat. Gleichzeitig fand jedoch eine große Verlagerung gefährlicher Industrien in die Entwicklungsländer statt (Jeyaratnam 1994). Chemikalien, die zuvor in den Vereinigten Staaten oder Europa verboten waren, werden jetzt in Entwicklungsländern hergestellt. Beispielsweise wurde die Asbestzerkleinerung von den USA nach Mexiko verlagert und die Benzidinproduktion aus europäischen Ländern in das ehemalige Jugoslawien und nach Korea (Simonato 1986; LaDou 1991; Pearce et al. 1994).

Ein indirektes Zeichen für das Berufsrisiko und die Arbeitsbedingungen in den Entwicklungsländern ist die Epidemie akuter Vergiftungen, die in einigen dieser Länder auftritt. Einer Schätzung zufolge gibt es jedes Jahr weltweit etwa 20,000 Todesfälle durch akute Pestizidvergiftung, aber dies ist wahrscheinlich eine erhebliche Unterschätzung (Kogevinas et al. 1994). Schätzungen zufolge ereignen sich 99 % aller Todesfälle durch akute Pestizidvergiftung in Entwicklungsländern, wo nur 20 % der weltweiten Agrochemikalien verwendet werden (Kogevinas et al. 1994). Das heißt, selbst wenn die epidemiologische Forschung auf eine Verringerung der Berufsrisiken hinzuweisen scheint, könnte dies einfach darauf zurückzuführen sein, dass der größte Teil dieser Forschung in den Industrieländern durchgeführt wird. Die berufsbedingten Gefahren könnten einfach auf die Entwicklungsländer übertragen worden sein, und die Belastung durch die berufsbedingte Exposition insgesamt könnte weltweit gestiegen sein (Vineis et al. 1995).

Veterinärepidemiologie

Aus offensichtlichen Gründen ist die Veterinär-Epidemiologie nicht direkt relevant für Arbeitsmedizin und Berufsepidemiologie. Dennoch können epidemiologische Studien an Tieren aus mehreren Gründen Hinweise auf umweltbedingte und berufliche Ursachen von Krankheiten liefern:

  1. Die Lebensspanne von Tieren ist im Vergleich zu der von Menschen relativ kurz, und die Latenzzeit für Krankheiten (z. B. die meisten Krebsarten) ist bei Tieren kürzer als bei Menschen. Dies impliziert, dass eine Krankheit, die bei einem Wild- oder Haustier auftritt, als Sentinel-Ereignis dienen kann, um uns auf das Vorhandensein eines potenziellen Umweltgiftes oder Karzinogens für den Menschen aufmerksam zu machen, bevor es auf andere Weise identifiziert worden wäre (Glickman 1993).
  2. Expositionsmarker wie Hämoglobinaddukte oder Absorptions- und Ausscheidungsniveaus von Toxinen können bei Wild- und Heimtieren gemessen werden, um die Umweltkontamination durch industrielle Quellen zu bewerten (Blondin und Viau 1992; Reynolds et al. 1994; Hungerford et al. 1995). .
  3. Tiere werden einigen Faktoren nicht ausgesetzt, die in Studien am Menschen als Störfaktoren wirken können, und Untersuchungen an Tierpopulationen können daher ohne Berücksichtigung dieser potenziellen Störfaktoren durchgeführt werden. Beispielsweise könnte eine Studie über Lungenkrebs bei Haushunden signifikante Zusammenhänge zwischen der Krankheit und der Exposition gegenüber Asbest erkennen (z. B. über die asbestbezogenen Berufe der Besitzer und die Nähe zu industriellen Asbestquellen). Natürlich würde eine solche Studie die Wirkung des aktiven Rauchens als Confounder beseitigen.

 

Tierärzte sprechen von einer epidemiologischen Revolution in der Veterinärmedizin (Schwabe 1993) und es sind Lehrbücher über das Fach erschienen (Thrusfield 1986; Martin et al. 1987). Sicherlich stammen Hinweise auf Umwelt- und Berufsgefahren aus den gemeinsamen Bemühungen von Human- und Tierepidemiologen. Unter anderem die Wirkung von Phenoxyherbiziden bei Schafen und Hunden (Newell et al. 1984; Hayes et al. 1990), von Magnetfeldern (Reif et al. 1995) und mit asbestähnlichen Verbindungen kontaminierten Pestiziden (insbesondere Flohpräparaten) bei Hunden (Glickman et al. 1983) sind bemerkenswerte Beiträge.

Partizipative Forschung, Ergebnisvermittlung und Prävention

Es ist wichtig anzuerkennen, dass viele epidemiologische Studien auf dem Gebiet der Gesundheit am Arbeitsplatz durch die Erfahrung und Besorgnis der Arbeitnehmer selbst initiiert werden (Olsen et al. 1991). Oft glaubten die Arbeiter – diejenigen, die historisch und/oder gegenwärtig exponiert waren –, dass etwas nicht stimmte, lange bevor dies durch die Forschung bestätigt wurde. Berufsepidemiologie kann als eine Möglichkeit betrachtet werden, die Erfahrungen der Arbeitnehmer „zu verstehen“, die Daten systematisch zu sammeln und zu gruppieren und Rückschlüsse auf die beruflichen Ursachen ihrer Krankheit zu ziehen. Darüber hinaus sind die Arbeitnehmer selbst, ihre Vertreter und die für die Gesundheit der Arbeitnehmer zuständigen Personen die am besten geeigneten Personen, um die gesammelten Daten zu interpretieren. Sie sollten daher immer aktiv an allen am Arbeitsplatz durchgeführten Ermittlungen teilnehmen. Nur ihre direkte Beteiligung garantiert, dass der Arbeitsplatz auch nach der Abreise der Forschenden sicher bleibt. Das Ziel jeder Studie ist die Nutzung der Ergebnisse zur Prävention von Krankheiten und Behinderungen, und der Erfolg davon hängt zu einem großen Teil davon ab, sicherzustellen, dass die Exponierten an der Gewinnung und Interpretation der Studienergebnisse teilnehmen. Die Rolle und Verwendung von Forschungsergebnissen in Rechtsstreitigkeiten, wenn Arbeitnehmer Entschädigung für Schäden verlangen, die durch Exposition am Arbeitsplatz verursacht wurden, geht über den Rahmen dieses Kapitels hinaus. Für diesbezügliche Einblicke wird der Leser an anderer Stelle verwiesen (Soskolne, Lilienfeld und Black 1994).

Partizipative Ansätze zur Sicherstellung der Durchführung berufsepidemiologischer Forschung sind mancherorts gängige Praxis in Form von Lenkungsausschüssen geworden, die die Forschungsinitiative von der Anfänge bis zum Abschluss begleiten. Diese Ausschüsse sind in ihrer Struktur mehrteilig, darunter Arbeitnehmer, Wissenschaft, Verwaltung und/oder Regierung. Mit Vertretern aller Stakeholder-Gruppen im Forschungsprozess wird die Ergebniskommunikation durch ihre erhöhte Glaubwürdigkeit effektiver, da „einer aus der eigenen“ die Forschung beaufsichtigt und die Ergebnisse an die jeweiligen Personen kommuniziert Wahlkreis. Auf diese Weise ist wahrscheinlich das größte Maß an wirksamer Prävention zu erwarten.

Diese und andere partizipative Ansätze in der arbeitsmedizinischen Forschung werden unter Einbeziehung derer durchgeführt, die von dem besorgniserregenden expositionsbedingten Problem betroffen oder anderweitig davon betroffen sind. Dies sollte häufiger in der gesamten epidemiologischen Forschung beobachtet werden (Laurell et al. 1992). Es ist wichtig, sich daran zu erinnern, dass das Ziel der Analyse in der epidemiologischen Arbeit die Abschätzung des Ausmaßes und der Verteilung des Risikos ist, in der partizipativen Forschung aber auch die Vermeidbarkeit des Risikos ein Ziel ist (Loewenson und Biocca 1995). Diese Komplementarität von Epidemiologie und effektiver Prävention ist Teil der Botschaft davon Enzyklopädie und dieses Kapitels.

Wahrung der Relevanz für die öffentliche Gesundheit

Obwohl neue Entwicklungen in der epidemiologischen Methodik, in der Datenanalyse und in der Expositionsabschätzung und -messung (wie neue molekularbiologische Techniken) willkommen und wichtig sind, können sie auch zu einem reduktionistischen Ansatz beitragen, der sich auf Einzelpersonen statt auf Bevölkerungsgruppen konzentriert. Es wurde gesagt, dass:

… Epidemiologie hat weitgehend aufgehört, als Teil eines multidisziplinären Ansatzes zum Verständnis der Krankheitsursachen in Bevölkerungen zu fungieren, und ist zu einer Reihe generischer Methoden zur Messung von Zusammenhängen zwischen Exposition und Krankheit bei Einzelpersonen geworden. … Derzeit werden soziale, wirtschaftliche und kulturelle Aspekte vernachlässigt , historische, politische und andere Bevölkerungsfaktoren als Hauptursachen für Krankheiten … Die Epidemiologie muss sich wieder in die öffentliche Gesundheit integrieren und die Bevölkerungsperspektive neu entdecken (Pearce 1996).

Arbeits- und Umweltepidemiologen spielen eine wichtige Rolle, nicht nur bei der Entwicklung neuer epidemiologischer Methoden und Anwendungen für diese Methoden, sondern auch bei der Sicherstellung, dass diese Methoden immer in die richtige Bevölkerungsperspektive integriert werden.

 

Zurück

Montag, Februar 28 2011 21: 01

Expositionsbewertung

Die Bewertung von Expositionen ist ein entscheidender Schritt bei der Identifizierung von Gefahren am Arbeitsplatz durch epidemiologische Untersuchungen. Der Expositionsbeurteilungsprozess kann in eine Reihe von Tätigkeiten unterteilt werden. Diese beinhalten:

  1. Zusammenstellung eines Verzeichnisses potenziell toxischer Stoffe und Mischungen, die in der angestrebten Arbeitsumgebung vorhanden sind
  2. Bestimmung, wie Expositionen auftreten und wie wahrscheinlich es ist, dass sie zwischen den Mitarbeitern variieren
  3. Auswahl geeigneter Messgrößen oder Indizes zur Quantifizierung von Expositionen
  4. Sammeln von Daten, die es den Studienteilnehmern ermöglichen, qualitative oder quantitative Expositionswerte für jede Maßnahme zuzuordnen. Wenn möglich, sollten diese Tätigkeiten unter Anleitung eines qualifizierten Industriehygienikers durchgeführt werden.

 

Arbeitsmedizinische Studien werden oft wegen Unzulänglichkeiten bei der Bewertung von Expositionen kritisiert. Unzulänglichkeiten können zu einer differentiellen oder nicht differentiellen Fehlklassifizierung der Exposition und daraus resultierender Verzerrung oder Präzisionsverlust in den Expositions-Wirkungs-Analysen führen. Bemühungen zur Verbesserung der Situation werden durch mehrere kürzlich durchgeführte internationale Konferenzen und Texte zu diesem Thema belegt (ACGIH 1991; Armstrong et al. 1992; Proceedings of the Conference on Retrospective Assessment of Occupational Exposures in Epidemiology 1995). Offensichtlich bieten technische Entwicklungen neue Möglichkeiten zur Verbesserung der Expositionsbewertung. Diese Entwicklungen umfassen Verbesserungen bei der analytischen Instrumentierung, ein besseres Verständnis pharmakokinetischer Prozesse und die Entdeckung neuer Expositions-Biomarker. Da arbeitsmedizinische Studien häufig auf historischen Expositionsinformationen beruhen, für die keine spezifische Überwachung durchgeführt worden wäre, fügt die Notwendigkeit einer rückwirkenden Expositionsbewertung diesen Studien eine zusätzliche Dimension der Komplexität hinzu. Es werden jedoch weiterhin verbesserte Standards für die Bewertung und die Gewährleistung der Zuverlässigkeit solcher Bewertungen entwickelt (Sieemiatycki et al. 1986). Prospektive Expositionsabschätzungen können natürlich leichter validiert werden.

Die Belichtung bezeichnet die Konzentration eines Agens an der Grenze zwischen Individuum und Umwelt. Eine Exposition wird normalerweise angenommen, wenn bekannt ist, dass ein Arbeitsstoff in einer Arbeitsumgebung vorhanden ist, und eine vernünftige Erwartung besteht, dass ein Mitarbeiter mit diesem Arbeitsstoff in Kontakt kommt. Expositionen können als zeitgewichtete durchschnittliche 8-Stunden-Konzentration (TWA) ausgedrückt werden, die ein Maß für die Expositionsintensität ist, die über eine 8-stündige Arbeitsschicht gemittelt wurde. Spitzenkonzentrationen sind Intensitäten, die über kürzere Zeiträume, z. B. 15 Minuten, gemittelt werden. Die kumulative Exposition ist ein Maß für das Produkt aus durchschnittlicher Intensität und Dauer (z. B. eine mittlere 8-Stunden-TWA-Konzentration multipliziert mit den Jahren, in denen bei dieser mittleren Konzentration gearbeitet wurde). Abhängig von der Art der Studie und den interessierenden Gesundheitsergebnissen kann eine Bewertung der Spitzen-, Durchschnittsintensitäts-, kumulativen oder verzögerten Expositionen wünschenswert sein.

Im Gegensatz, empfohlen bezieht sich auf die Abscheidung oder Absorption eines Mittels pro Zeiteinheit. Die Dosis oder die tägliche Aufnahme eines Mittels kann abgeschätzt werden, indem Umgebungsmessdaten mit Standardannahmen bezüglich unter anderem Atemfrequenzen und dermaler Penetration kombiniert werden. Alternativ kann die Aufnahme auf der Grundlage von Biomonitoring-Daten geschätzt werden. Die Dosis würde idealerweise an dem interessierenden Zielorgan gemessen.

Wichtige Faktoren der Expositionsbeurteilung sind:

  1. Identifizierung der relevanten Agenten
  2. Bestimmung ihres Vorhandenseins und ihrer Konzentration in geeigneten Umweltmedien (z. B. Luft, Kontaktflächen)
  3. Bewertung der wahrscheinlichen Aufnahmewege (Inhalation, Aufnahme über die Haut, Verschlucken), des zeitlichen Verlaufs der Exposition (tägliche Schwankungen) und der kumulativen Expositionsdauer, ausgedrückt in Wochen, Monaten oder Jahren
  4. Bewertung der Wirksamkeit von technischen und persönlichen Kontrollen (z. B. die Verwendung von Schutzkleidung und Atemschutz kann Expositionen vermitteln) und schließlich
  5. Wirt und andere Erwägungen, die Zielorgankonzentrationen modulieren können.

 

Dazu gehören das körperliche Niveau der Arbeitstätigkeit und der vorherige Gesundheitszustand von Personen. Bei der Beurteilung der Exposition gegenüber Stoffen, die persistent sind oder zur Bioakkumulation neigen (z. B. bestimmte Metalle, Radionuklide oder stabile organische Verbindungen), ist besondere Sorgfalt geboten. Bei diesen Materialien können die inneren Körperbelastungen selbst bei scheinbar niedrigen Umweltkonzentrationen schleichend zunehmen.

Auch wenn die Situation recht komplex sein kann, ist sie es oft nicht. Sicherlich stammen viele wertvolle Beiträge zur Identifizierung von Berufsgefahren aus Studien, die vernünftige Ansätze zur Expositionsbewertung verwenden. Zu den Informationsquellen, die bei der Identifizierung und Kategorisierung von Expositionen hilfreich sein können, gehören:

  1. Mitarbeitergespräche
  2. Personal- und Produktionsaufzeichnungen des Arbeitgebers (dazu gehören Arbeitsaufzeichnungen, Stellenbeschreibungen, Anlagen- und Prozesshistorien und Chemikalieninventare)
  3. Experten Urteil
  4. Arbeitshygieneaufzeichnungen (Bereichs-, Personen- und Compliance-Überwachung und Oberflächenwischproben zusammen mit Gesundheitsgefährdungs- oder umfassenden Untersuchungsberichten)
  5. Interviews mit langjährigen oder pensionierten Mitarbeitern und
  6. Biomonitoring-Daten.

 

Eine möglichst detaillierte Kategorisierung einzelner Engagements hat mehrere Vorteile. Die Aussagekraft einer Studie wird natürlich in dem Maße gesteigert, in dem die relevanten Expositionen angemessen beschrieben wurden. Zweitens kann die Glaubwürdigkeit der Befunde erhöht werden, da dem Confounding-Potenzial zufriedenstellender begegnet werden kann. Beispielsweise unterscheiden sich Referenten und exponierte Personen im Expositionsstatus, können sich aber auch in Bezug auf andere gemessene und nicht gemessene erklärende Faktoren für die interessierende Krankheit unterscheiden. Wenn jedoch innerhalb der Studienpopulation ein Expositionsgradient festgestellt werden kann, ist es weniger wahrscheinlich, dass derselbe Grad an Confounding innerhalb der Expositionsuntergruppen bestehen bleibt, wodurch die Studienergebnisse insgesamt gestärkt werden.

Job-Exposure-Matrizen

Einer der praktischeren und häufiger verwendeten Ansätze zur Expositionsbewertung war die indirekte Schätzung der Exposition auf der Grundlage von Berufsbezeichnungen. Die Verwendung von Job-Exposure-Matrizen kann effektiv sein, wenn vollständige Arbeitsverläufe verfügbar sind und sowohl die Aufgaben als auch die Expositionen, die mit den zu studierenden Jobs verbunden sind, eine angemessene Konstanz aufweisen. Im weitesten Sinne wurden standardmäßige Branchen- und Berufsbezeichnungsgruppierungen aus routinemäßig erhobenen Volkszählungsdaten oder Berufsdaten auf Sterbeurkunden entwickelt. Leider beschränken sich die in diesen großen Aktensystemen geführten Informationen oft auf den „aktuellen“ oder „üblichen“ Beruf. Da die Standardgruppierungen außerdem die Bedingungen an bestimmten Arbeitsplätzen nicht berücksichtigen, müssen sie in der Regel als grobe Expositionssurrogate betrachtet werden.

Für gemeinschafts- und registerbasierte Fall-Kontroll-Studien wurde eine detailliertere Expositionsbewertung erreicht, indem Expertenmeinungen verwendet wurden, um Daten aus dem beruflichen Werdegang, die durch persönliche Interviews erhalten wurden, in halbquantitative Bewertungen wahrscheinlicher Expositionen gegenüber bestimmten Wirkstoffen zu übersetzen (Sieemiatycki et al. 1986 ). Experten wie Chemiker und Industriehygieniker werden aufgrund ihres Wissens und ihrer Vertrautheit mit verschiedenen industriellen Prozessen ausgewählt, um bei der Expositionsbewertung zu helfen. Durch die Kombination der detaillierten Fragebogendaten mit dem Wissen über industrielle Prozesse war dieser Ansatz hilfreich bei der Charakterisierung von Expositionsunterschieden zwischen Arbeitsstätten.

Der Job-Exposure-Matrix-Ansatz wurde auch erfolgreich in branchen- und unternehmensspezifischen Studien eingesetzt (Gamble und Spirtas 1976). Individuelle Jobverläufe (eine chronologische Auflistung früherer Abteilungs- und Jobzuweisungen für jeden Mitarbeiter) werden häufig in den Personalakten des Unternehmens aufbewahrt und bieten, sofern verfügbar, einen vollständigen Jobverlauf für die Mitarbeiter, während sie in dieser Einrichtung arbeiten. Diese Daten können durch persönliche Befragungen der Studienteilnehmer ergänzt werden. Im nächsten Schritt werden alle während der Studienzeit verwendeten Berufsbezeichnungen und Abteilungs- bzw. Arbeitsbereichsbezeichnungen inventarisiert. Diese können in großen Anlagen mit mehreren Prozessen oder in Unternehmen innerhalb einer Branche leicht in die Hunderte oder sogar Tausende gehen, wenn Produktion, Wartung, Forschung, Engineering, Anlagenunterstützungsdienste und Verwaltungsaufgaben alle über einen Zeitraum (oft mehrere Jahrzehnte) betrachtet werden. Änderungen in industriellen Prozessen ermöglichen. Die Datenkonsolidierung kann erleichtert werden, indem eine Computerdatei aller Aufzeichnungen des Arbeitsverlaufs erstellt wird und dann Bearbeitungsroutinen verwendet werden, um die Berufsbezeichnungsterminologie zu standardisieren. Diese Jobs mit relativ homogenen Expositionen können kombiniert werden, um den Prozess der Verknüpfung von Expositionen mit einzelnen Jobs zu vereinfachen. Die Gruppierung von Arbeitsplätzen und Arbeitsorten sollte jedoch nach Möglichkeit durch Messdaten gestützt werden, die nach einer fundierten Stichprobenstrategie erhoben wurden.

Auch bei computergestützten Arbeitsverläufen kann eine nachträgliche Zuordnung von Expositionsdaten zu Personen eine schwierige Aufgabe sein. Sicherlich werden sich die Bedingungen am Arbeitsplatz ändern, wenn sich Technologien ändern, sich die Produktnachfrage ändert und neue Vorschriften eingeführt werden. In vielen Branchen kann es auch zu Änderungen bei Produktformulierungen und saisonalen Produktionsmustern kommen. Über einige Änderungen können dauerhafte Aufzeichnungen geführt werden. Es ist jedoch weniger wahrscheinlich, dass Aufzeichnungen über saisonale und andere marginale Prozess- und Produktionsänderungen aufbewahrt werden. Mitarbeiter können auch geschult werden, um mehrere Jobs auszuführen, und dann zwischen den Jobs wechseln, wenn sich die Produktionsanforderungen ändern. All diese Umstände erhöhen die Komplexität der Expositionsprofile der Mitarbeiter. Dennoch gibt es auch Arbeitsumgebungen, die seit vielen Jahren relativ unverändert geblieben sind. Letztendlich muss jede Arbeitseinstellung für sich bewertet werden.

Letztendlich wird es notwendig sein, die Arbeitslebens-Expositionsgeschichte jeder Person in einer Studie zusammenzufassen. Es wurde ein beträchtlicher Einfluss auf die endgültigen Expositions-Wirkungs-Risikomaße nachgewiesen (Suarez-Almazor et al. 1992), und daher muss bei der Auswahl des am besten geeigneten zusammenfassenden Expositionsmaßes große Sorgfalt walten.

Arbeitshygiene – Umweltmessung

Die Überwachung der Arbeitsbelastung ist eine grundlegende kontinuierliche Aktivität zum Schutz der Gesundheit der Mitarbeiter. So können zum Zeitpunkt der Planung einer epidemiologischen Studie bereits arbeitshygienische Aufzeichnungen vorliegen. Wenn dies der Fall ist, sollten diese Daten überprüft werden, um festzustellen, wie gut die Zielpopulation abgedeckt ist, wie viele Jahre Daten in den Dateien vertreten sind und wie einfach die Messungen mit Jobs, Arbeitsbereichen und Personen verknüpft werden können. Diese Feststellungen werden sowohl bei der Beurteilung der Durchführbarkeit der epidemiologischen Studie als auch bei der Identifizierung von Datenlücken hilfreich sein, die durch zusätzliche Probenahmen der Exposition geschlossen werden könnten.

Besonders wichtig ist die Frage, wie Messdaten am besten mit bestimmten Jobs und Personen verknüpft werden können. Probenahmen aus Bereichen und Atemzonen können für Industriehygieniker hilfreich sein, um Emissionsquellen für Korrekturmaßnahmen zu identifizieren, könnten jedoch weniger nützlich sein, um die tatsächliche Exposition der Mitarbeiter zu charakterisieren, es sei denn, es wurden sorgfältige Zeitstudien der Arbeitsaktivitäten der Mitarbeiter durchgeführt. Beispielsweise kann eine kontinuierliche Bereichsüberwachung zu bestimmten Tageszeiten Exkursionsbelastungen erkennen, es bleibt jedoch die Frage, ob sich Mitarbeiter zu diesem Zeitpunkt im Arbeitsbereich aufgehalten haben oder nicht.

Personenbezogene Probenahmedaten liefern im Allgemeinen genauere Schätzungen der Mitarbeiterexposition, solange die Probenahme unter repräsentativen Bedingungen durchgeführt wird, die Verwendung persönlicher Schutzausrüstung angemessen berücksichtigt wird und die Arbeitsaufgaben und Prozessbedingungen von Tag zu Tag relativ konstant sind. Personenbezogene Proben können durch die Verwendung persönlicher Identifikatoren leicht mit dem einzelnen Mitarbeiter verknüpft werden. Diese Daten können nach Bedarf auf andere Mitarbeiter in denselben Jobs und auf andere Zeiträume verallgemeinert werden. Aufgrund ihrer eigenen Erfahrung haben Rappaport et al. (1993) haben davor gewarnt, dass die Expositionskonzentrationen selbst bei Mitarbeitern, die als homogene Expositionsgruppen eingestuft sind, sehr unterschiedlich sein können. Auch hier ist Expertenmeinung erforderlich, um zu entscheiden, ob von homogenen Expositionsgruppen ausgegangen werden kann oder nicht.

Forscher haben erfolgreich einen Arbeitsplatz-Expositions-Matrix-Ansatz mit der Nutzung von Umweltmessdaten kombiniert, um die Expositionen innerhalb der Zellen der Matrix abzuschätzen. Bei fehlenden Messdaten können ggf. Datenlücken durch Expositionsmodellierung geschlossen werden. Im Allgemeinen beinhaltet dies die Entwicklung eines Modells zur Zuordnung von Umweltkonzentrationen zu leichter zu beurteilenden Determinanten von Expositionskonzentrationen (z. B. Produktionsvolumen, physische Eigenschaften der Anlage einschließlich der Verwendung von Abluftsystemen, Flüchtigkeit der Wirkstoffe und Art der Arbeitstätigkeit). Das Modell wird für Arbeitsumgebungen mit bekannten Umweltkonzentrationen konstruiert und dann verwendet, um Konzentrationen in ähnlichen Arbeitsumgebungen abzuschätzen, denen Messdaten fehlen, die jedoch Informationen über solche Parameter wie Bestandteile und Produktionsmengen haben. Dieser Ansatz kann insbesondere für die retrospektive Schätzung von Expositionen hilfreich sein.

Ein weiteres wichtiges Bewertungsthema ist der Umgang mit der Exposition gegenüber Gemischen. Erstens liegt aus analytischer Sicht der separate Nachweis chemisch verwandter Verbindungen und die Eliminierung von Interferenzen durch andere in der Probe vorhandene Substanzen möglicherweise nicht innerhalb der Möglichkeiten des Analyseverfahrens. Die verschiedenen Limitationen der Analyseverfahren zur Bereitstellung von Messdaten müssen evaluiert und die Studienziele entsprechend angepasst werden. Zweitens kann es sein, dass bestimmte Wirkstoffe fast immer zusammen verwendet werden und daher in ungefähr den gleichen relativen Anteilen in der gesamten untersuchten Arbeitsumgebung vorkommen. In diesem Fall interne statistische Auswertungen an sich nicht hilfreich bei der Unterscheidung, ob Wirkungen auf einen oder die anderen Wirkstoffe oder auf eine Kombination der Wirkstoffe zurückzuführen sind. Solche Beurteilungen wären nur auf der Grundlage externer Studien möglich, in denen die gleichen Wirkstoffkombinationen nicht aufgetreten sind. Schließlich kann es in Situationen, in denen je nach Produktspezifikation verschiedene Materialien austauschbar verwendet werden (z. B. die Verwendung verschiedener Farbstoffe, um gewünschte Farbkontraste zu erhalten), unmöglich sein, Wirkungen einem bestimmten Mittel zuzuschreiben.

Biologische Überwachung

Biomarker sind molekulare, biochemische oder zelluläre Veränderungen, die in biologischen Medien wie menschlichem Gewebe, Zellen oder Flüssigkeiten gemessen werden können. Ein Hauptgrund für die Entwicklung von Expositions-Biomarkern ist die Bereitstellung einer Schätzung der internen Dosis für einen bestimmten Wirkstoff. Dieser Ansatz ist besonders nützlich, wenn mehrere Expositionswege wahrscheinlich sind (z. B. Einatmen und Hautabsorption), wenn Schutzkleidung zeitweise getragen wird oder wenn die Expositionsbedingungen unvorhersehbar sind. Biomonitoring kann besonders vorteilhaft sein, wenn bekannt ist, dass die interessierenden Wirkstoffe relativ lange biologische Halbwertszeiten haben. Aus statistischer Sicht kann ein Vorteil des biologischen Monitorings gegenüber dem Luftmonitoring bei Wirkstoffen mit einer Halbwertszeit von nur zehn Stunden gesehen werden, abhängig vom Grad der Umweltvariabilität (Droz und Wu 1991). Die außerordentlich langen Halbwertszeiten von Materialien wie chlorierten Dioxinen (gemessen in Jahren) machen diese Verbindungen zu idealen Kandidaten für die biologische Überwachung. Wie bei Analysemethoden zur Messung von Luftkonzentrationen muss man sich möglicher Interferenzen bewusst sein. Bevor beispielsweise ein bestimmter Metabolit als Biomarker verwendet wird, sollte bestimmt werden, ob andere gängige Substanzen, wie die in bestimmten Medikamenten und im Zigarettenrauch enthaltenen, zum selben Endpunkt metabolisiert werden könnten oder nicht. Im Allgemeinen sind grundlegende Kenntnisse der Pharmakokinetik eines Wirkstoffs erforderlich, bevor das biologische Monitoring als Grundlage für die Expositionsbewertung verwendet wird.

Die häufigsten Messpunkte sind Alveolarluft, Urin und Blut. Alveolarluftproben können hilfreich sein, um kurzfristige hohe Lösungsmittelbelastungen zu charakterisieren, die innerhalb von Minuten oder Stunden nach der Entnahme der Probe aufgetreten sind. Typischerweise werden Urinproben gesammelt, um die Ausscheidungsraten für Metaboliten der interessierenden Verbindung zu bestimmen. Blutproben können zur direkten Messung der Verbindung, zur Messung von Metaboliten oder zur Bestimmung von Protein- oder DNA-Addukten (z. B. Albumin- oder Hämoglobin-Addukte und DNA-Addukte in zirkulierenden Lymphozyten) entnommen werden. Zugängliche Gewebezellen, wie z. B. Epithelzellen aus dem bukkalen Bereich des Mundes, können ebenfalls zur Identifizierung von DNA-Addukten entnommen werden.

Die Bestimmung der Cholinesterase-Aktivität in roten Blutkörperchen und Plasma veranschaulicht die Verwendung biochemischer Veränderungen als Maß für die Exposition. Organophosphor-Pestizide hemmen die Cholinesterase-Aktivität, und daher kann die Messung dieser Aktivität vor und nach einer wahrscheinlichen Exposition gegenüber diesen Verbindungen ein nützlicher Indikator für die Expositionsintensität sein. Je weiter man jedoch durch das Spektrum der biologischen Veränderungen fortschreitet, desto schwieriger wird es, zwischen Expositions- und Wirkungsbiomarkern zu unterscheiden. Im Allgemeinen sind Wirkungsmaße in der Regel unspezifisch für den interessierenden Stoff, und daher müssen möglicherweise andere mögliche Erklärungen für die Wirkung bewertet werden, um die Verwendung dieses Parameters als Expositionsmaß zu unterstützen. Expositionsmessungen sollten entweder direkt mit dem interessierenden Agens verbunden sein oder es sollte eine solide Grundlage für die Verknüpfung jeglicher indirekten Messung mit dem Agens geben. Trotz dieser Einschränkungen ist die biologische Überwachung viel versprechend als Mittel zur Verbesserung der Expositionsabschätzung zur Unterstützung epidemiologischer Studien.

Schlussfolgerungen

Bei Vergleichen in berufsepidemiologischen Studien muss eine Gruppe von Arbeitnehmern mit Exposition gegenüber einer Gruppe von Arbeitnehmern ohne Exposition verglichen werden. Solche Unterscheidungen sind grob, können aber hilfreich sein, um Problembereiche zu identifizieren. Je verfeinerter die Expositionsmessung ist, desto nützlicher wird die Studie jedoch sein, insbesondere im Hinblick auf ihre Fähigkeit, angemessen zielgerichtete Interventionsprogramme zu identifizieren und zu entwickeln.

 

Zurück

Forscher können sich glücklich schätzen, wenn ihnen eine detaillierte Chronologie der Arbeitserfahrung von Arbeitnehmern zur Verfügung steht, die einen historischen Rückblick auf ihre Jobs im Laufe der Zeit bietet. Für diese Arbeitnehmer a Job-Exposure-Matrix kann dann so eingerichtet werden, dass jeder einzelne Arbeitsplatzwechsel, den ein Arbeitnehmer durchlaufen hat, mit spezifischen Expositionsinformationen verknüpft werden kann.

Detaillierte Expositionsgeschichten müssen zu Analysezwecken zusammengefasst werden, um festzustellen, ob Muster erkennbar sind, die mit Gesundheits- und Sicherheitsproblemen am Arbeitsplatz zusammenhängen könnten. Wir können eine Liste von beispielsweise 20 Stellenwechseln visualisieren, die ein Arbeitnehmer in seinem oder ihrem Arbeitsleben erlebt hat. Es gibt dann mehrere alternative Möglichkeiten, wie die Expositionsdetails (für jeden der 20 Arbeitsplatzwechsel in diesem Beispiel) unter Berücksichtigung von Dauer und/oder Konzentration/Dosis/Grad der Exposition zusammengefasst werden können.

Es ist jedoch zu beachten, dass je nach gewählter Methode unterschiedliche Schlussfolgerungen aus einer Studie gezogen werden können (Suarez-Almazor et al. 1992). Ein Beispiel für fünf zusammenfassende Expositionsmessungen während des Arbeitslebens ist in Tabelle 1 dargestellt.

Tabelle 1. Formeln und Dimensionen oder Einheiten der fünf ausgewählten zusammenfassenden Maße der Exposition während des Arbeitslebens

Belichtungsmaß

Formel

Abmessungen/Einheiten

Kumulativer Expositionsindex (CEI)

Σ (Grad x Belichtungszeit)

Klasse und Zeit

Durchschnittsnote (MG)

Σ (Grad x Expositionszeit)/Gesamtzeit der Exposition

Klasse

Bestnote aller Zeiten (HG)

höchste Klasse, der ≥ 7 Tage ausgesetzt waren

Klasse

Zeitgewichteter Durchschnitt (TWA) Note

Σ (Grad x Expositionszeit)/Gesamtbeschäftigungszeit

Klasse

Gesamtzeit ausgesetzt (TTE)

Σ Zeit ausgesetzt

Zeit

Adaptiert von Suarez-Almazor et al. 1992.

Kumulativer Expositionsindex. Der kumulative Expositionsindex (CEI) entspricht in toxikologischen Studien der „Dosis“ und stellt die Summe der Produkte aus Expositionsgrad und Expositionsdauer für jede aufeinanderfolgende Berufsbezeichnung über ein Arbeitsleben dar. Es enthält die Zeit in seinen Einheiten.

Mittlere Note. Die mittlere Note (MG) kumuliert die Produkte aus Expositionsnote und Expositionsdauer für jede aufeinanderfolgende Berufsbezeichnung (dh den CEI) und dividiert durch die Gesamtzeit, die bei einer Note größer als null verbracht wurde. MG ist in seinen Einheiten zeitunabhängig; Die zusammenfassende Maßnahme für eine Person, die über einen langen Zeitraum einer hohen Konzentration ausgesetzt ist, ist ähnlich wie die für eine Person, die über einen kurzen Zeitraum einer hohen Konzentration ausgesetzt ist. Innerhalb jedes Matched Sets in einem Fall-Kontroll-Design ist MG ein durchschnittlicher Expositionsgrad pro exponierter Zeiteinheit. Es handelt sich um eine Durchschnittsnote für die tatsächliche Expositionszeit gegenüber dem betrachteten Mittel.

Höchste Note aller Zeiten. Die Bestnote aller Zeiten (HG) wird ermittelt, indem der Arbeitsverlauf nach der höchsten Notenaufgabe im Beobachtungszeitraum gescannt wird, der der Arbeitnehmer mindestens sieben Tage lang ausgesetzt war. Das HG könnte die berufliche Exposition einer Person falsch darstellen, da es seiner Formulierung nach auf einem Maximierungs- und nicht auf einem Mittelungsverfahren basiert und daher in seinen Einheiten unabhängig von der Expositionsdauer ist.

Zeitgewichteter Notendurchschnitt. Die zeitgewichtete Durchschnittsnote (TWA) ist der kumulative Expositionsindex (CEI) dividiert durch die Gesamtbeschäftigungszeit. Innerhalb jedes Matched Sets in einem Fall-Kontroll-Design ergibt sich der TWA-Grad als Durchschnitt über die gesamte aufgewendete Zeit. Sie unterscheidet sich von MG, die nur über die tatsächlich exponierte Gesamtzeit mittelt. Somit kann die TWA-Klasse unabhängig von der Exposition als durchschnittliche Exposition pro Zeiteinheit während der gesamten Beschäftigungsdauer angesehen werden an sich.

Gesamtzeit ausgesetzt. Die Total Time Exposure (TTE) summiert alle mit der Exposition verbundenen Zeiträume in Zeiteinheiten. TTE besticht durch seine Einfachheit. Es ist jedoch allgemein anerkannt, dass gesundheitliche Auswirkungen nicht nur von der Dauer der Exposition gegenüber Chemikalien, sondern auch von der Intensität dieser Exposition (dh der Konzentration oder dem Grad) abhängen müssen.

Die Nützlichkeit eines zusammenfassenden Expositionsmaßes wird eindeutig durch das jeweilige Gewicht bestimmt, das es entweder der Dauer oder der Konzentration der Exposition oder beiden beimisst. Daher können unterschiedliche Maßnahmen zu unterschiedlichen Ergebnissen führen (Walker und Blettner 1985). Idealerweise sollte das ausgewählte zusammenfassende Maß auf einer Reihe von vertretbaren Annahmen bezüglich des postulierten biologischen Mechanismus für den untersuchten Erreger oder Krankheitsverband beruhen (Smith 1987). Dieses Verfahren ist jedoch nicht immer möglich. Sehr oft ist die biologische Wirkung der Expositionsdauer oder der Konzentration des untersuchten Agens unbekannt. In diesem Zusammenhang kann die Verwendung verschiedener Expositionsmaße nützlich sein, um einen Mechanismus vorzuschlagen, durch den die Exposition ihre Wirkung entfaltet.

Es wird empfohlen, dass in Ermangelung bewährter Modelle zur Bewertung der Exposition eine Vielzahl von zusammenfassenden Expositionsmessungen im Berufsleben zur Risikoabschätzung verwendet werden. Dieser Ansatz würde den Vergleich von Ergebnissen über Studien hinweg erleichtern.

 

Zurück

Dienstag, 01 März 2011 01: 58

Messung der Auswirkungen von Expositionen

Die Epidemiologie umfasst die Messung des Auftretens von Krankheiten und die Quantifizierung von Zusammenhängen zwischen Krankheiten und Expositionen.

Maßnahmen zum Auftreten von Krankheiten

Das Auftreten von Krankheiten kann gemessen werden durch Frequenzen (zählt), wird aber besser beschrieben durch Preise, die sich aus drei Elementen zusammensetzen: der Anzahl der Betroffenen (Zähler), der Anzahl der Personen in der Ausgangs- bzw. Grundgesamtheit (d. h. der Risikopopulation), aus der die betroffenen Personen stammen, und dem abgedeckten Zeitraum. Der Nenner der Rate ist die gesamte Personenzeit, die von der Quellpopulation erfahren wird. Raten ermöglichen aussagekräftigere Vergleiche zwischen Populationen unterschiedlicher Größe als Zählungen allein. Risiko, die Wahrscheinlichkeit, dass eine Person innerhalb eines bestimmten Zeitraums eine Krankheit entwickelt, ist ein Anteil zwischen 0 und 1 und keine Rate an sich. Angriffsgeschwindigkeit, der Anteil der Personen in einer Bevölkerung, die innerhalb eines bestimmten Zeitraums betroffen sind, ist technisch gesehen ein Risikomaß, keine Rate.

Krankheitsspezifische Morbidität umfasst Häufigkeit, die sich auf die Anzahl der Personen bezieht, bei denen die betreffende Krankheit neu diagnostiziert wird. Prävalenz bezieht sich auf die Anzahl der bestehenden Fälle. Sterblichkeit bezieht sich auf die Zahl der Verstorbenen.

Häufigkeit ist definiert als die Anzahl neu diagnostizierter Fälle innerhalb eines bestimmten Zeitraums, während die Inzidenzrate ist diese Zahl geteilt durch die gesamte Personenzeit, die von der Quellpopulation erfahren wird (Tabelle 1). Bei Krebs werden die Raten normalerweise als jährliche Raten pro 100,000 Personen ausgedrückt. Die Raten für andere häufigere Krankheiten können für eine kleinere Anzahl von Personen ausgedrückt werden. Beispielsweise werden Geburtsfehlerraten normalerweise pro 1,000 Lebendgeburten ausgedrückt. Kumulative Inzidenz, der Anteil der Personen, die innerhalb eines bestimmten Zeitraums zu Fällen werden, ist ein Maß für das durchschnittliche Risiko für eine Bevölkerung. 

Tabelle 1. Maße für das Auftreten der Krankheit: Hypothetische Population, die über einen Zeitraum von fünf Jahren beobachtet wurde

Neu diagnostizierte Fälle

10

Zuvor diagnostizierte lebende Fälle

12

Todesfälle, alle Ursachen*

5

Todesfälle, Krankheit von Interesse

3

Personen in der Bevölkerung

100

Jahre beobachtet

5

Häufigkeit

10 Personen

Jährliche Inzidenzrate

Punktprävalenz (am Ende des 5. Jahres)

(10 + 12 - 3) = 19 Personen

Periodenprävalenz (Fünfjahreszeitraum)

(10 + 12) = 22 Personen

Jährliche Todesrate

Jährliche Sterblichkeitsrate

*Um die Berechnungen zu vereinfachen, wird in diesem Beispiel davon ausgegangen, dass alle Todesfälle am Ende des Fünfjahreszeitraums eingetreten sind, sodass alle 100 Personen in der Bevölkerung die vollen fünf Jahre am Leben waren.

Prävalenz Dazu gehören Punkt Prävalenz, die Anzahl der Krankheitsfälle zu einem bestimmten Zeitpunkt und Periodenprävalenz, die Gesamtzahl der Fälle einer Krankheit, von denen bekannt ist, dass sie irgendwann während eines bestimmten Zeitraums aufgetreten sind.

Sterblichkeit, die sich eher auf Todesfälle als auf neu diagnostizierte Krankheitsfälle bezieht, spiegelt Faktoren wider, die Krankheiten verursachen, sowie Faktoren im Zusammenhang mit der Qualität der medizinischen Versorgung, wie z. B. Screening, Zugang zu medizinischer Versorgung und Verfügbarkeit wirksamer Behandlungen. Folglich können hypothesengenerierende Bemühungen und ätiologische Forschung informativer und leichter zu interpretieren sein, wenn sie auf Inzidenzdaten statt auf Mortalitätsdaten basieren. Allerdings sind Sterblichkeitsdaten für große Populationen oft leichter verfügbar als Inzidenzdaten.

Die Todesrate wird allgemein akzeptiert, um die Rate für Todesfälle aus allen Ursachen zusammen zu bezeichnen, wohingegen Sterblichkeitsrate ist die Todesrate aufgrund einer bestimmten Ursache. Für eine bestimmte Krankheit, die Fallsterblichkeitsrate (technisch gesehen ein Anteil, keine Rate) ist die Anzahl der Personen, die während eines bestimmten Zeitraums an der Krankheit sterben, dividiert durch die Anzahl der Personen mit der Krankheit. Das Komplement der Sterblichkeitsrate ist die Überlebensrate. Die Fünf-Jahres-Überlebensrate ist ein allgemeiner Maßstab für chronische Krankheiten wie Krebs.

Das Auftreten einer Krankheit kann zwischen Untergruppen der Bevölkerung oder im Laufe der Zeit variieren. Ein Krankheitsmaß für eine ganze Bevölkerung ohne Berücksichtigung von Untergruppen wird als a bezeichnet Rohsatz. Beispielsweise ist eine Inzidenzrate für alle Altersgruppen zusammen eine grobe Rate. Die Preise für die einzelnen Altersgruppen sind die altersspezifische Tarife. Um zwei oder mehr Populationen mit unterschiedlichen Altersverteilungen zu vergleichen, altersangepasst (oder, altersstandardisiert) Raten sollten für jede Population berechnet werden, indem jede altersspezifische Rate mit dem Prozentsatz der Standardpopulation (z. B. einer der untersuchten Populationen, der US-Bevölkerung von 1970) in dieser Altersgruppe multipliziert und dann über alle Altersgruppen summiert wird eine altersbereinigte Gesamtrate ergeben. Die Tarife können um andere Faktoren als das Alter, wie Rasse, Geschlecht oder Raucherstatus, angepasst werden, wenn die kategoriespezifischen Tarife bekannt sind.

Die Überwachung und Auswertung von deskriptiven Daten kann Hinweise auf die Krankheitsätiologie liefern, Untergruppen mit hohem Risiko identifizieren, die für Interventions- oder Screening-Programme geeignet sein könnten, und Daten über die Wirksamkeit solcher Programme liefern. Zu den Informationsquellen, die für Überwachungstätigkeiten verwendet wurden, gehören Sterbeurkunden, Krankenakten, Krebsregister, andere Krankheitsregister (z. B. Geburtsfehlerregister, Register für Nierenerkrankungen im Endstadium), Verzeichnisse der beruflichen Exposition, Kranken- oder Berufsunfähigkeitsversicherungsunterlagen und Arbeitnehmerentschädigungen Aufzeichnungen.

Maßnahmen der Assoziation

Die Epidemiologie versucht, Faktoren zu identifizieren und zu quantifizieren, die Krankheiten beeinflussen. Im einfachsten Ansatz wird das Auftreten von Krankheiten bei Personen, die einem verdächtigen Faktor ausgesetzt sind, mit dem Auftreten von Personen verglichen, die nicht exponiert sind. Das Ausmaß eines Zusammenhangs zwischen Exposition und Krankheit kann in beiden ausgedrückt werden Absolute or relativ Bedingungen. (Siehe auch „Fallbeispiel: Maßnahmen“).

Absolute Effekte werden gemessen durch Tarifunterschiede und Risikounterschiede (Tabelle 2). EIN Tarifunterschied ist eine Rate minus einer zweiten Rate. Wenn zum Beispiel die Inzidenzrate von Leukämie unter Benzol-exponierten Arbeitern 72 pro 100,000 Personenjahre und die Rate unter nicht exponierten Arbeitern 12 pro 100,000 Personenjahre beträgt, dann beträgt die Ratendifferenz 60 pro 100,000 Personenjahre. EIN Risiko Unterschied ist ein Unterschied in den Risiken oder der kumulativen Inzidenz und kann von -1 bis 1 reichen. 

 


Tabelle 2. Assoziationsmaße für eine Kohortenstudie

 

 

Projekte

Personenjahre gefährdet

Preis pro 100,000

Ausgesetzt

100

20,000

500

Unbelichtet

200

80,000

250

Gesamt

300

100,000

300

Ratendifferenz (RD) = 500/100,000 - 250/100,000

= 250/100,000 pro Jahr

(146.06/100,000 - 353.94/100,000)*

Ratenverhältnis (oder relatives Risiko) (RR) =  

Zurechenbares Risiko bei Exponierten (ARe) = 100/20,000 - 200/80,000

= 250/100,000 pro Jahr

Zurechenbares Risiko in Prozent der Exponierten (ARe%) =

 Bevölkerungsbezogenes Risiko (PAR) = 300/100,000 - 200/80,000

= 50/100,000 pro Jahr

Bevölkerungsbezogenes Risiko in Prozent (PAR%) =

 * In Klammern 95-%-Konfidenzintervalle, berechnet mit den Formeln in den Kästchen.


 

Relative Effekte basieren auf Quotenverhältnissen oder Risikomaßen statt auf Differenzen. EIN Ratenverhältnis ist das Verhältnis einer Rate in einer Population zu der Rate in einer anderen. Das Ratenverhältnis wurde auch als das bezeichnet Risikoverhältnis, relatives Risiko, relative Rate und Häufigkeit (oder Sterblichkeit) Ratenverhältnis. Das Maß ist dimensionslos und reicht von 0 bis unendlich. Wenn die Rate in zwei Gruppen ähnlich ist (dh es gibt keine Wirkung von der Exposition), die Ratenverhältnis gleich Eins (1) ist. Eine Exposition, die das Risiko erhöht, würde ein Ratenverhältnis größer als eins ergeben, während ein Schutzfaktor ein Verhältnis zwischen 0 und 1 ergeben würde übermäßiges relatives Risiko ist das relative Risiko minus 1. Beispielsweise kann ein relatives Risiko von 1.4 auch als ein zusätzliches relatives Risiko von 40 % ausgedrückt werden.

In Fall-Kontroll-Studien (auch Fall-Referenz-Studien genannt) werden Personen mit Krankheit identifiziert (Fälle) und Personen ohne Krankheit identifiziert (Kontrollen oder Referenzen). Vergangene Expositionen der beiden Gruppen werden verglichen. Die Wahrscheinlichkeit, ein exponierter Fall zu sein, wird mit der Wahrscheinlichkeit, eine exponierte Kontrolle zu sein, verglichen. Vollständige Zählungen der Quellpopulationen von exponierten und nicht exponierten Personen sind nicht verfügbar, daher können keine Krankheitsraten berechnet werden. Stattdessen können die exponierten Fälle durch Berechnung von mit den exponierten Kontrollen verglichen werden relative ChancenOder das Wahrscheinlichkeit (Tisch 3). 

 


Tabelle 3. Assoziationsmaße für Fall-Kontroll-Studien: Exposition gegenüber Holzstaub und Adenokarzinom der Nasenhöhle und der Nasennebenhöhlen

 

 

Projekte

Steuergriffe

Ausgesetzt

18

55

Unbelichtet

5

140

Gesamt

23

195

 

Relative Quoten (Odds Ratio) (OR) =

Zurechenbares Risiko in Prozent der exponierten () =

Bevölkerungsbezogenes Risiko in Prozent (PAR%) =

woher = Anteil der exponierten Kontrollen = 55/195 = 0.28

 

* In Klammern 95-%-Konfidenzintervalle, berechnet mit den Formeln im Kasten auf der Rückseite.

Quelle: Adaptiert von Hayes et al. 1986.


 

Relative Wirkungsmaße werden häufiger als absolute Maße verwendet, um die Stärke eines Zusammenhangs zu beschreiben. Absolute Maße können jedoch einen besseren Hinweis auf die Auswirkungen einer Assoziation auf die öffentliche Gesundheit geben. Ein kleiner relativer Anstieg bei einer häufigen Krankheit wie Herzerkrankungen kann mehr Personen betreffen (großer Risikounterschied) und stärkere Auswirkungen auf die öffentliche Gesundheit haben als ein großer relativer Anstieg (aber kleiner absoluter Unterschied) bei einer seltenen Krankheit wie z Angiosarkom der Leber.

Signifikanztest

Das Testen auf statistische Signifikanz wird häufig an Wirkungsmaßen durchgeführt, um die Wahrscheinlichkeit zu bewerten, dass die beobachtete Wirkung von der Nullhypothese abweicht (dh keine Wirkung). Während viele Studien, insbesondere in anderen Bereichen der biomedizinischen Forschung, ihre Bedeutung zum Ausdruck bringen können p-Werte, typischerweise epidemiologische Studien vorhanden Vertrauensintervalle (CI) (auch genannt Grenzen des Selbstvertrauens). Ein 95-%-Konfidenzintervall ist beispielsweise ein Bereich von Werten für das Effektmaß, das das aus den Studiendaten erhaltene geschätzte Maß und dasjenige umfasst, das mit 95-%-Wahrscheinlichkeit den wahren Wert enthält. Bei Werten außerhalb des Intervalls ist es unwahrscheinlich, dass sie das wahre Maß der Wirkung enthalten. Wenn das KI für ein Ratenverhältnis Eins enthält, gibt es keinen statistisch signifikanten Unterschied zwischen den verglichenen Gruppen.

Konfidenzintervalle sind aussagekräftiger als p-Werte allein. Die Größe eines p-Werts wird durch einen oder beide von zwei Gründen bestimmt. Entweder ist das Assoziationsmaß (z. B. Rate Ratio, Risikodifferenz) groß oder die untersuchten Populationen sind groß. Beispielsweise kann ein kleiner Unterschied in den Krankheitsraten, der in einer großen Population beobachtet wird, zu einem hochsignifikanten p-Wert führen. Aus dem p-Wert allein lassen sich die Gründe für den großen p-Wert nicht erkennen. Konfidenzintervalle ermöglichen es uns jedoch, die beiden Faktoren voneinander zu trennen. Erstens ist die Größe des Effekts durch die Werte des Effektmaßes und die vom Intervall umfassten Zahlen erkennbar. Größere Risikokennzahlen weisen beispielsweise auf eine stärkere Wirkung hin. Zweitens beeinflusst die Größe der Grundgesamtheit die Breite des Konfidenzintervalls. Kleine Populationen mit statistisch instabilen Schätzungen erzeugen breitere Konfidenzintervalle als größere Populationen.

Das zum Ausdrücken der Variabilität der Ergebnisse gewählte Konfidenzniveau (die „statistische Signifikanz“) ist willkürlich, liegt jedoch traditionell bei 95 %, was einem p-Wert von 0.05 entspricht. Ein Konfidenzintervall von 95 % enthält mit einer Wahrscheinlichkeit von 95 % das wahre Maß des Effekts. Gelegentlich werden auch andere Konfidenzniveaus wie 90 % verwendet.

Expositionen können dichotom sein (z. B. exponiert und nicht exponiert) oder können viele Expositionsniveaus beinhalten. Wirkungsmaße (dh Reaktion) können je nach Expositionsgrad variieren. Auswerten Expositions-Antwort Beziehungen ist ein wichtiger Teil der Interpretation epidemiologischer Daten. Das Analogon zur Expositions-Wirkung im Tierversuch ist die „Dosis-Wirkung“. Wenn die Reaktion mit der Expositionshöhe zunimmt, ist ein kausaler Zusammenhang wahrscheinlicher, als wenn kein Trend beobachtet wird. Zu den statistischen Tests zur Bewertung von Expositions-Wirkungs-Beziehungen gehören der Mantel-Erweiterungstest und der Chi-Quadrat-Trendtest.

Standardisierung

Um andere Faktoren als die interessierende primäre Exposition und die Krankheit zu berücksichtigen, können Assoziationsmaße verwendet werden standardisiert B. durch Schichtungs- oder Regressionstechniken. Schichtung bedeutet die Einteilung der Populationen in homogene Gruppen in Bezug auf den Faktor (z. B. Geschlechtsgruppen, Altersgruppen, Rauchergruppen). Risikokennzahlen oder Quotenverhältnisse werden für jede Schicht berechnet und gewichtete Gesamtdurchschnitte der Risikokennzahlen oder Quotenverhältnisse werden berechnet. Diese Gesamtwerte spiegeln den um den Stratifizierungsfaktor bereinigten Zusammenhang zwischen der primären Exposition und der Erkrankung wider, dh den Zusammenhang mit den Effekten des Stratifizierungsfaktors herausgerechnet.

A standardisiertes Ratenverhältnis (SRR) ist das Verhältnis zweier standardisierter Zinssätze. Mit anderen Worten, ein SRR ist ein gewichteter Durchschnitt von schichtspezifischen Ratenverhältnissen, wobei die Gewichtungen für jede Schicht die Personen-Zeit-Verteilung der nicht exponierten oder Bezugsgruppe sind. SRRs für zwei oder mehr Gruppen können verglichen werden, wenn dieselben Gewichte verwendet werden. Konfidenzintervalle können für SRRs wie für Ratenverhältnisse konstruiert werden.

Der standardisierte Sterblichkeitsrate (SMR) ist ein gewichteter Durchschnitt von altersspezifischen Quotenverhältnissen, wobei die Gewichtungen (z. B. Person-Time-at-Risk) von der untersuchten Gruppe und die Quoten von der Referenzpopulation stammen, das Gegenteil der Situation in einer SRR. Die übliche Bezugspopulation ist die allgemeine Bevölkerung, deren Sterblichkeitsraten möglicherweise leicht verfügbar sind und auf großen Zahlen basieren und daher stabiler sind als die Verwendung von Raten aus einer nicht exponierten Kohorte oder Untergruppe der untersuchten Berufsgruppe. Die Verwendung der Gewichte der Kohorte anstelle der Referenzpopulation wird als indirekte Standardisierung bezeichnet. Die SMR ist das Verhältnis der beobachteten Anzahl von Todesfällen in der Kohorte zur erwarteten Anzahl, basierend auf den Raten der Referenzpopulation (das Verhältnis wird zur Darstellung typischerweise mit 100 multipliziert). Wenn kein Zusammenhang besteht, beträgt die SMR 100. Es sollte beachtet werden, dass zwei oder mehr SMRs tendenziell nicht vergleichbar sind, da die Raten von der Referenzpopulation und die Gewichtungen von der Studiengruppe stammen. Diese Nicht-Vergleichbarkeit wird bei der Interpretation epidemiologischer Daten oft vergessen und es können falsche Schlussfolgerungen gezogen werden.

Healthy-Worker-Effekt

Berufskohorten haben sehr häufig eine niedrigere Gesamtmortalität als die allgemeine Bevölkerung, selbst wenn die Arbeitnehmer einem erhöhten Risiko für ausgewählte Todesursachen aufgrund von Expositionen am Arbeitsplatz ausgesetzt sind. Dieses Phänomen, genannt die gesunder Arbeitereffekt, spiegelt die Tatsache wider, dass jede Gruppe von Erwerbstätigen im Durchschnitt wahrscheinlich gesünder ist als die allgemeine Bevölkerung, zu der Arbeitnehmer und Personen gehören, die aufgrund von Krankheiten und Behinderungen nicht arbeiten können. Die Gesamtsterblichkeitsrate in der Allgemeinbevölkerung ist tendenziell höher als die Rate bei Arbeitnehmern. Die Wirkung ist je nach Todesursache unterschiedlich stark. Beispielsweise scheint es bei Krebs im Allgemeinen weniger wichtig zu sein als bei chronisch obstruktiven Lungenerkrankungen. Ein Grund dafür ist, dass sich die meisten Krebserkrankungen wahrscheinlich nicht aus einer Prädisposition für Krebs entwickelt hätten, die der Berufswahl in einem jüngeren Alter zugrunde liegt. Der Gesunde-Arbeiter-Effekt in einer bestimmten Gruppe von Arbeitnehmern nimmt im Laufe der Zeit tendenziell ab.

Proportionale Sterblichkeit

Manchmal ist eine vollständige tabellarische Aufstellung einer Kohorte (dh gefährdete Personenzeit) nicht verfügbar, und es gibt nur Informationen zu den Todesfällen oder einer Teilmenge von Todesfällen in der Kohorte (z. B. Todesfälle unter Rentnern und aktiven Angestellten, aber nicht unter Arbeitnehmern). die ihre Erwerbstätigkeit aufgegeben haben, bevor sie Anspruch auf eine Rente hatten). Die Berechnung von Personenjahren erfordert spezielle Methoden zur Erfassung der Personenzeit, einschließlich Sterbetafelmethoden. Ohne Angaben zur gesamten Personenzeit aller Kohortenmitglieder, unabhängig vom Krankheitsstatus, können SMRs und SRRs nicht berechnet werden. Stattdessen, proportionale Sterblichkeitsverhältnisse (PMRs) verwendet werden. Ein PMR ist das Verhältnis der beobachteten Anzahl von Todesfällen aufgrund einer bestimmten Ursache im Vergleich zu der erwarteten Anzahl, basierend auf dem Anteil der Gesamttodesfälle aufgrund der spezifischen Ursache in der Referenzpopulation, multipliziert mit der Anzahl der Gesamttodesfälle in der Studie Gruppe, multipliziert mit 100.

Da der Anteil der Todesfälle aus allen Todesursachen zusammen 1 (PMR = 100) betragen muss, scheinen einige PMRs zu hoch zu sein, sind aber tatsächlich künstlich aufgeblasen aufgrund echter Defizite bei anderen Todesursachen. In ähnlicher Weise können einige offensichtliche Defizite lediglich tatsächliche Exzesse bei anderen Todesursachen widerspiegeln. Wenn beispielsweise Pestizidausbringer aus der Luft einen großen realen Überschuss an Todesfällen aufgrund von Unfällen haben, kann die mathematische Anforderung, dass der PMR für alle Ursachen zusammen gleich 100 ist, dazu führen, dass die eine oder andere Todesursache mangelhaft erscheint, selbst wenn die Sterblichkeit zu hoch ist. Um dieses potenzielle Problem zu lindern, können Forscher, die sich hauptsächlich für Krebs interessieren, kalkulieren proportionale Krebssterblichkeitsraten (PCMR). PCMRs vergleichen die beobachtete Zahl der Krebstodesfälle mit der erwarteten Zahl basierend auf dem Anteil der gesamten Krebstodesfälle (anstelle aller Todesfälle) für den interessierenden Krebs in der Referenzpopulation multipliziert mit der Gesamtzahl der Krebstodesfälle in der Studiengruppe, multipliziert mit 100. Somit wird die PCMR nicht durch eine Abweichung (Überschuss oder Mangel) bei einer nicht krebsbedingten Todesursache wie Unfällen, Herzerkrankungen oder nicht bösartigen Lungenerkrankungen beeinflusst.

PMR-Studien können besser analysiert werden mit Sterblichkeit Odds Ratios (MORs), wobei die Daten im Wesentlichen so analysiert werden, als ob sie aus einer Fall-Kontroll-Studie stammen würden. Die „Kontrollen“ sind die Todesfälle aus einer Untergruppe aller Todesfälle, von denen angenommen wird, dass sie in keinem Zusammenhang mit der untersuchten Exposition stehen. Wenn beispielsweise das Hauptinteresse der Studie Krebs war, könnten die Sterblichkeitswahrscheinlichkeitsverhältnisse berechnet werden, indem die Exposition bei den Krebstoten mit der Exposition bei den kardiovaskulären Todesfällen verglichen wird. Dieser Ansatz vermeidet wie die PCMR die Probleme mit der PMR, die entstehen, wenn eine Schwankung bei einer Todesursache das offensichtliche Risiko einer anderen beeinflusst, einfach weil die Gesamt-PMR gleich 100 sein muss. Die Wahl der Kontrolltodesursachen ist jedoch kritisch . Wie oben erwähnt, müssen sie nicht mit der Exposition zusammenhängen, aber die mögliche Beziehung zwischen Exposition und Krankheit ist möglicherweise für viele potenzielle Kontrollkrankheiten nicht bekannt.

Zurechenbares Risiko

Es stehen Maßzahlen zur Verfügung, die das Krankheitsausmaß ausdrücken, das einer Exposition zuzuschreiben wäre, wenn der beobachtete Zusammenhang zwischen der Exposition und der Krankheit kausal wäre. Das zurechenbares Risiko im Exponierten (ARe) ist die Krankheitsrate bei den Exponierten minus der Rate bei den Nicht-Exponierten. Da Krankheitsraten in Fall-Kontroll-Studien nicht direkt gemessen werden können, ist der ARe ist nur für Kohortenstudien berechenbar. Eine verwandte, intuitivere Maßnahme, die zurechenbaren Risikoprozentsatz im Exponierten (ARe%), können aus beiden Studiendesigns gewonnen werden. Die ARe% ist der Anteil der in der exponierten Bevölkerung aufgetretenen Fälle, der auf die Exposition zurückzuführen ist (Formel siehe Tabelle 2 und Tabelle 3). Die ARe% ist das Quotenverhältnis (oder Odds Ratio) minus 1, geteilt durch das Quotenverhältnis (oder Odds Ratio), multipliziert mit 100.

Der der Bevölkerung zuzurechnendes Risiko (PAR) und die der Bevölkerung zuzurechnendes Risiko in Prozent (PAR%) oder ätiologische Fraktion, drücken das Ausmaß der Erkrankung in der Gesamtbevölkerung aus, die sich aus exponierten und nicht exponierten Personen zusammensetzt, die auf die Exposition zurückzuführen ist, wenn der beobachtete Zusammenhang kausal ist. Der PAR kann aus Kohortenstudien erhalten werden (Tabelle 28.3) und der PAR% kann sowohl in Kohorten- als auch in Fall-Kontroll-Studien berechnet werden (Tabelle 2 und Tabelle 3).

Repräsentativität

Es gibt mehrere Risikomaße, die beschrieben wurden. Jeder übernimmt zugrunde liegende Methoden zum Zählen von Ereignissen und in die Repräsentanten dieser Ereignisse zu einer definierten Gruppe. Wenn Ergebnisse studienübergreifend verglichen werden, ist ein Verständnis der verwendeten Methoden unerlässlich, um beobachtete Unterschiede zu erklären.

 

Zurück

Dienstag, 01 März 2011 01: 48

Optionen im Studiendesign

Der Epidemiologe interessiert sich für Beziehungen zwischen Variablen, hauptsächlich Expositions- und Ergebnisvariablen. Typischerweise möchten Epidemiologen feststellen, ob das Auftreten einer Krankheit mit dem Vorhandensein eines bestimmten Erregers (Exposition) in der Bevölkerung zusammenhängt. Die Art und Weise, wie diese Beziehungen untersucht werden, kann sehr unterschiedlich sein. Man kann alle Personen identifizieren, die diesem Agens ausgesetzt sind, und sie nachverfolgen, um das Auftreten der Krankheit zu messen, indem man dieses Auftreten mit dem Auftreten der Krankheit in einer geeigneten, nicht exponierten Population vergleicht. Alternativ kann man einfach unter den Belichteten und Unbelichteten Proben nehmen, ohne eine vollständige Aufzählung von ihnen zu haben. Oder man kann als dritte Alternative alle Personen identifizieren, die in einem definierten Zeitraum eine interessierende Krankheit entwickeln („Fälle“) und eine geeignete Gruppe von krankheitsfreien Personen (eine Stichprobe der Quellpopulation von Fällen) und ermitteln ob sich die Expositionsmuster zwischen den beiden Gruppen unterscheiden. Eine Möglichkeit ist die Nachbeobachtung der Studienteilnehmer (in sogenannten Längsschnittstudien): In dieser Situation besteht eine zeitliche Verzögerung zwischen dem Auftreten der Exposition und dem Ausbruch der Erkrankung. Eine alternative Möglichkeit ist ein Bevölkerungsquerschnitt, bei dem sowohl die Exposition als auch die Erkrankung zum gleichen Zeitpunkt gemessen werden.

In diesem Artikel wird auf die gängigen Studiendesigns – Kohorte, Fall-Referent (Fall-Kontrolle) und Querschnitt – eingegangen. Betrachten Sie als Grundlage für diese Diskussion eine große Viskosefabrik in einer kleinen Stadt. Eine Untersuchung, ob eine Schwefelkohlenstoffbelastung das Risiko für Herz-Kreislauf-Erkrankungen erhöht, wird eingeleitet. Die Untersuchung hat mehrere Gestaltungsmöglichkeiten, einige mehr und andere weniger offensichtlich. Eine erste Strategie besteht darin, alle Arbeiter zu identifizieren, die Schwefelkohlenstoff ausgesetzt waren, und sie auf kardiovaskuläre Mortalität zu verfolgen.

Kohortenstudien

Eine Kohortenstudie umfasst Forschungsteilnehmer, die ein gemeinsames Ereignis teilen, die Exposition. Eine klassische Kohortenstudie identifiziert eine definierte Gruppe von exponierten Personen, und dann werden alle weiterverfolgt und ihre Morbiditäts- und/oder Mortalitätserfahrungen registriert. Neben einer gemeinsamen qualitativen Exposition sollte die Kohorte auch auf andere Weise definiert werden AuswahlkriterienB. Altersgruppe, Geschlecht (männlich oder weiblich oder beides), Mindestdauer und -intensität der Exposition, Freiheit von anderen Expositionen und dergleichen, um die Aussagekraft und Effizienz der Studie zu verbessern. Bei der Aufnahme sollten alle Kohortenmitglieder frei von der zu untersuchenden Krankheit sein, gemäß dem empirischen Kriterienkatalog, der zur Messung der Krankheit verwendet wird.

Wird beispielsweise in der Kohortenstudie zu den Auswirkungen von Schwefelkohlenstoff auf die koronare Morbidität eine koronare Herzkrankheit empirisch als klinischer Infarkt gemessen, müssen diejenigen, die zu Studienbeginn einen Koronarinfarkt in der Vorgeschichte hatten, aus der Kohorte ausgeschlossen werden. Im Gegensatz dazu können elektrokardiographische Anomalien ohne Infarktanamnese akzeptiert werden. Wenn jedoch das Auftreten neuer elektrokardiographischer Veränderungen das empirische Ergebnismaß ist, sollten die Kohortenmitglieder auch normale Elektrokardiogramme zu Studienbeginn haben.

Die Morbidität (in Bezug auf die Inzidenz) oder die Mortalität einer exponierten Kohorte sollte mit einer Referenzkohorte verglichen werden, die der exponierten Kohorte idealerweise in allen relevanten Aspekten, mit Ausnahme der Exposition, so ähnlich wie möglich sein sollte, um das relative Risiko zu bestimmen Krankheit oder Tod durch Exposition. Die Verwendung einer ähnlichen, aber nicht exponierten Kohorte als Anbieter der Referenzerfahrung ist der üblichen (Fehl-)Praxis vorzuziehen, die Morbidität oder Mortalität der exponierten Kohorte mit altersstandardisierten nationalen Zahlen zu vergleichen, da die allgemeine Bevölkerung selbst die meisten nicht erfüllt elementare Anforderungen an die Vergleichsvalidität. Das standardisierte Morbiditäts- (oder Mortalitäts-)Verhältnis (SMR), das sich aus einem solchen Vergleich ergibt, führt normalerweise zu einer Unterschätzung des wahren Risikoverhältnisses, da in der exponierten Kohorte eine Verzerrung auftritt, was zu einer mangelnden Vergleichbarkeit zwischen den beiden Populationen führt. Diese Vergleichsverzerrung wird als „Healthy Worker Effect“ bezeichnet. Es handelt sich jedoch nicht wirklich um einen echten „Effekt“, sondern um eine Verzerrung durch negatives Confounding, das wiederum durch gesundheitsselektive Fluktuation in einer erwerbstätigen Bevölkerung entstanden ist. (Menschen mit schlechter Gesundheit neigen dazu, „exponierte“ Kohorten zu verlassen oder nie in sie einzutreten, da ihr Endziel oft der arbeitslose Teil der Allgemeinbevölkerung ist.)

Denn eine „exponierte“ Kohorte ist nur definiert als eine bestimmte Exposition Wirkungen, die durch diese einzelne Exposition verursacht wurden (oder Mischung von Expositionen) können gleichzeitig studiert werden. Andererseits erlaubt das Kohortendesign die Untersuchung von mehrere Krankheiten gleichzeitig. Man kann auch gleichzeitig verschiedene Manifestationen derselben Krankheit untersuchen – zum Beispiel Angina pectoris, EKG-Veränderungen, klinische Myokardinfarkte und koronare Mortalität. Eine Kohortenstudie ist zwar gut geeignet, um spezifische Hypothesen zu testen (z. B. „Einwirkung von Schwefelkohlenstoff verursacht koronare Herzkrankheit“), liefert aber auch Antworten auf die allgemeinere Frage: „Welche Krankheiten werden durch diese Einwirkung verursacht?“

Beispielsweise werden in einer Kohortenstudie, die das Risiko von Gießereiarbeitern untersucht, an Lungenkrebs zu sterben, die Mortalitätsdaten aus dem nationalen Todesursachenregister bezogen. Obwohl die Studie klären sollte, ob Gießereistaub Lungenkrebs verursacht, gibt die Datenquelle bei gleichem Aufwand auch Auskunft über alle anderen Todesursachen. Daher können gleichzeitig andere mögliche Gesundheitsrisiken untersucht werden.

Der Zeitpunkt einer Kohortenstudie kann entweder retrospektiv (historisch) oder prospektiv (gleichzeitig) sein. In beiden Fällen ist die Designstruktur dieselbe. Eine vollständige Zählung der exponierten Personen erfolgt zu einem bestimmten Zeitpunkt oder Zeitraum, und das Ergebnis wird für alle Personen bis zu einem definierten Endpunkt gemessen. Der Unterschied zwischen prospektiv und retrospektiv liegt im Zeitpunkt der Studie. Wenn rückwirkend, ist der Endpunkt bereits eingetreten; wenn Interessent, muss man darauf warten.

Beim retrospektiven Design wird die Kohorte zu einem bestimmten Zeitpunkt in der Vergangenheit definiert (z. B. diejenigen, die am 1. Januar 1961 exponiert waren oder zwischen 1961 und 1970 eine exponierte Arbeit übernommen haben). Die Morbidität und/oder Mortalität von alle Kohortenmitglieder wird dann bis in die Gegenwart verfolgt. Obwohl „alle“ bedeutet, dass auch die Ausgeschiedenen erfasst werden müssen, ist eine 100-prozentige Erfassung in der Praxis selten zu erreichen. Je vollständiger jedoch das Follow-up ist, desto aussagekräftiger ist die Studie.

Beim prospektiven Design wird die Kohorte zum gegenwärtigen Zeitpunkt oder während eines zukünftigen Zeitraums definiert, und die Morbidität wird dann in die Zukunft verfolgt.

Bei der Durchführung von Kohortenstudien muss genügend Zeit für die Nachverfolgung eingeplant werden, damit die Endpunkte der Bedenken genügend Zeit haben, sich zu manifestieren. Da historische Aufzeichnungen möglicherweise nur für einen kurzen Zeitraum in der Vergangenheit verfügbar sind, ist es manchmal dennoch wünschenswert, diese Datenquelle zu nutzen, da dies bedeutet, dass ein kürzerer Zeitraum der prospektiven Nachverfolgung erforderlich wäre, bevor Ergebnisse aus der Studie vorliegen könnten erhältlich. In diesen Situationen kann eine Kombination aus retrospektivem und prospektivem Kohortenstudiendesign effizient sein. Das allgemeine Layout von Häufigkeitstabellen mit Kohortendaten ist in Tabelle 1 dargestellt.

Tabelle 1. Das allgemeine Layout von Häufigkeitstabellen mit Kohortendaten

Komponente der Krankheitsrate

Exponierte Kohorte

Nicht exponierte Kohorte

Krankheits- oder Todesfälle

c1

c0

Anzahl der Personen in der Kohorte

N1

N0

 

Der beobachtete Anteil an Erkrankten in der exponierten Kohorte wird berechnet als:

und die der Referenzkohorte als:

Das Ratenverhältnis wird dann ausgedrückt als:

N0 und N1 werden in der Regel in Personen-Zeit-Einheiten und nicht als Anzahl der Personen ausgedrückt die Bevölkerungen. Personenjahre werden für jede Person separat berechnet. Verschiedene Personen treten oft während eines bestimmten Zeitraums in die Kohorte ein, nicht zum selben Zeitpunkt. Daher beginnen ihre Nachverfolgungszeiten zu unterschiedlichen Zeitpunkten. Ebenso sind sie nach ihrem Tod oder nach Eintreten des interessierenden Ereignisses nicht mehr „gefährdet“ und sollten nicht weiterhin Personenjahre zum Nenner beitragen.

Wenn die RR größer als 1 ist, ist die Morbidität der exponierten Kohorte höher als die der Referenzkohorte und umgekehrt. Die RR ist eine Punktschätzung, für die ein Konfidenzintervall (KI) berechnet werden sollte. Je größer die Studie, desto schmaler wird das Konfidenzintervall. Wenn RR = 1 nicht im Konfidenzintervall enthalten ist (z. B. das 95 %-KI 1.4 bis 5.8 beträgt), kann das Ergebnis auf dem gewählten Wahrscheinlichkeitsniveau (in diesem Beispiel α = 0.05) als „statistisch signifikant“ angesehen werden.

Wird die allgemeine Bevölkerung als Referenzbevölkerung verwendet, c0 wird durch die „erwartete“ Zahl ersetzt, E (c1 ), abgeleitet von den altersstandardisierten Morbiditäts- oder Mortalitätsraten dieser Population (dh der Anzahl der Fälle, die in der Kohorte aufgetreten wären, wenn die interessierende Exposition nicht stattgefunden hätte). Dies ergibt das standardisierte Mortalitäts- (oder Morbiditäts-) Verhältnis, SMR. Daher,

Auch für die SMR sollte ein Konfidenzintervall berechnet werden. Es ist besser, dieses Maß in einer Veröffentlichung anzugeben als einen p-Wert, da statistische Signifikanztests bedeutungslos sind, wenn die allgemeine Bevölkerung die Referenzkategorie ist. Ein solcher Vergleich bringt eine beträchtliche Verzerrung mit sich (die gesunder Arbeitereffekt oben erwähnt) und statistische Signifikanztests, die ursprünglich für die experimentelle Forschung entwickelt wurden, sind bei Vorliegen systematischer Fehler irreführend.

Angenommen, die Frage lautet, ob Quarzstaub Lungenkrebs verursacht. Üblicherweise tritt Quarzstaub zusammen mit anderen Karzinogenen auf – etwa Radon-Tochterprodukte und Dieselabgase in Bergwerken oder polyaromatische Kohlenwasserstoffe in Gießereien. Granitsteinbrüche setzen die Steinarbeiter diesen anderen Karzinogenen nicht aus. Daher wird das Problem am besten unter Steinarbeitern untersucht, die in Granitsteinbrüchen beschäftigt sind.

Nehmen wir dann an, dass alle 2,000 Arbeiter, die zwischen 20 und 1951 in 1960 Steinbrüchen beschäftigt waren, in die Kohorte aufgenommen werden und ihre Krebsinzidenz (alternativ nur Mortalität) ab zehn Jahren nach der ersten Exposition verfolgt wird (um eine Induktionszeit zu ermöglichen) und bis 1990. Dies ist eine 20- bis 30-jährige (je nach Eintrittsjahr) oder, sagen wir, durchschnittlich 25-jährige Nachbeobachtung der Krebsmortalität (oder -morbidität) unter 1,000 der Steinbrucharbeiter, die waren speziell Granitarbeiter. Die Expositionsgeschichte jedes Kohortenmitglieds muss aufgezeichnet werden. Diejenigen, die die Steinbrüche verlassen haben, müssen aufgespürt und ihre spätere Expositionsgeschichte aufgezeichnet werden. In Ländern, in denen alle Einwohner eindeutige Registrierungsnummern haben, ist dies ein einfaches Verfahren, das hauptsächlich durch nationale Datenschutzgesetze geregelt wird. Wo kein solches System existiert, kann es äußerst schwierig sein, Mitarbeiter zu Nachverfolgungszwecken aufzuspüren. Wo entsprechende Todes- oder Krankheitsregister existieren, kann die Sterblichkeit aus allen Ursachen, allen Krebsarten und spezifischen Krebsherden aus dem nationalen Register der Todesursachen abgerufen werden. (Für die Krebssterblichkeit ist das nationale Krebsregister eine bessere Quelle, da es genauere Diagnosen enthält. Außerdem können auch Inzidenz- (oder Morbiditäts-) Daten abgerufen werden.) Die Todesraten (oder Krebsinzidenzraten) können verglichen werden mit „ erwartete Zahlen“, berechnet aus nationalen Raten unter Zugrundelegung der Personenjahre der exponierten Kohorte.

Nehmen wir an, dass 70 tödliche Fälle von Lungenkrebs in der Kohorte gefunden werden, während die erwartete Zahl (die Zahl, die aufgetreten wäre, wenn es keine Exposition gegeben hätte) 35 ist. Dann:

c1 = 70, E (c1) = 35

Somit ist die SMR = 200, was auf eine zweifache Erhöhung des Risikos, an Lungenkrebs zu sterben, unter den Exponierten hinweist. Wenn detaillierte Expositionsdaten verfügbar sind, kann die Krebssterblichkeit in Abhängigkeit von verschiedenen Latenzzeiten (z. B. 10, 15, 20 Jahre), Arbeit in verschiedenen Arten von Steinbrüchen (verschiedene Granitsorten), verschiedenen historischen Perioden und verschiedenen Expositionen untersucht werden Intensitäten und so weiter. Allerdings lassen sich 70 Fälle nicht in zu viele Kategorien unterteilen, da die Zahl der Fälle für eine statistische Auswertung schnell zu gering wird.

Beide Arten von Kohortendesigns haben Vor- und Nachteile. Eine retrospektive Studie kann in der Regel nur die Mortalität messen, da Daten für mildere Manifestationen meist fehlen. Eine Ausnahme bilden Krebsregister und vielleicht einige andere, wie Schlaganfallregister und Krankenhausentlassungsregister, in denen auch Inzidenzdaten verfügbar sind. Die Bewertung früherer Expositionen ist immer ein Problem, und die Expositionsdaten sind in retrospektiven Studien normalerweise eher schwach. Dies kann zu einer Effektmaskierung führen. Andererseits liegen die Ergebnisse der Studie viel früher vor, da die Fälle bereits aufgetreten sind; in, sagen wir, zwei bis drei Jahren.

Eine prospektive Kohortenstudie kann besser geplant werden, um den Bedürfnissen des Forschers gerecht zu werden, und Expositionsdaten können genau und systematisch gesammelt werden. Es können mehrere unterschiedliche Manifestationen einer Krankheit gemessen werden. Sowohl Expositions- als auch Ergebnismessungen können wiederholt werden, und alle Messungen können standardisiert und ihre Gültigkeit überprüft werden. Wenn die Krankheit jedoch eine lange Latenz hat (wie Krebs), wird viel Zeit – sogar 20 bis 30 Jahre – vergehen müssen, bevor die Ergebnisse der Studie vorliegen können. In dieser Zeit kann viel passieren. Zum Beispiel Fluktuation von Forschern, Verbesserungen der Techniken zur Messung der Exposition, Umbau oder Schließung der für die Untersuchung ausgewählten Anlagen und so weiter. All diese Umstände gefährden den Studienerfolg. Auch die Kosten einer prospektiven Studie sind in der Regel höher als die einer retrospektiven Studie, dies liegt aber meist an der deutlich höheren Anzahl an Messungen (wiederholte Expositionsüberwachung, klinische Untersuchungen etc.) und nicht an der teureren Sterberegistrierung. Deshalb, die Kosten pro Informationseinheit nicht notwendigerweise über die einer retrospektiven Studie hinausgehen. Vor diesem Hintergrund eignen sich prospektive Studien eher für Erkrankungen mit eher kurzer Latenz, die ein kurzes Follow-up erfordern, während retrospektive Studien besser für Erkrankungen mit langer Latenz geeignet sind.

Fallkontrollstudien (oder fallbezogene Studien).

Kommen wir zurück zur Viskosefabrik. Eine retrospektive Kohortenstudie ist möglicherweise nicht durchführbar, wenn die Dienstpläne der exponierten Arbeiter verloren gegangen sind, während eine prospektive Kohortenstudie erst nach sehr langer Zeit solide Ergebnisse liefern würde. Eine Alternative wäre dann der Vergleich zwischen den in der Stadt im Laufe eines definierten Zeitraums an koronarer Herzkrankheit Verstorbenen und einer Stichprobe der Gesamtbevölkerung in der gleichen Altersgruppe.

Das klassische fallkontrollierte (oder fallbezogene) Design basiert auf der Stichprobenziehung aus einer dynamischen (offenen, durch einen Mitgliederwechsel gekennzeichneten) Population. Diese Bevölkerung kann die eines ganzen Landes, eines Bezirks oder einer Gemeinde sein (wie in unserem Beispiel), oder es kann die administrativ definierte Bevölkerung sein, aus der Patienten in ein Krankenhaus aufgenommen werden. Die definierte Population stellt sowohl die Fälle als auch die Kontrollen (oder Referenzen) bereit.

Die Technik besteht darin, alle Fälle der fraglichen Krankheit zu sammeln, die bei a existieren Punkt in der Zeit (häufige Fälle) oder während eines definierten Zeitraums aufgetreten sind Zeit der Zeit (Ereignisfälle). Die Fälle können somit Morbiditäts- oder Mortalitätsregistern entnommen werden oder direkt von Krankenhäusern oder anderen Quellen mit gültiger Diagnostik gesammelt werden. Die Steuerelemente werden als gezeichnet Sample aus derselben Population, entweder aus Nicht-Fällen oder aus der Gesamtpopulation. Eine andere Möglichkeit ist wählen Patienten mit einer anderen Krankheit als Kontrollen, aber dann müssen diese Patienten repräsentativ für die Bevölkerung sein, aus der die Fälle stammen. Für jeden Fall kann es eine oder mehrere Kontrollen (dh Referenten) geben. Der Stichprobenansatz unterscheidet sich von Kohortenstudien, die die gesamte Bevölkerung untersuchen. Es versteht sich von selbst, dass die Vorteile in Bezug auf die geringeren Kosten von Fall-Kontroll-Designs beträchtlich sind, aber es ist wichtig, dass die Stichprobe es ist Vertreter der gesamten Population, aus der die Fälle stammen (dh die „Studienbasis“) – andernfalls kann die Studie verzerrt sein.

Wenn Fälle und Kontrollen identifiziert wurden, werden ihre Expositionsgeschichten durch Fragebögen, Interviews oder in einigen Fällen aus bestehenden Aufzeichnungen (z. B. Gehaltslisten, aus denen Arbeitsverläufe abgeleitet werden können) gesammelt. Die Daten können entweder von den Teilnehmern selbst oder, falls sie verstorben sind, von nahen Angehörigen erhoben werden. Um einen symmetrischen Rückruf zu gewährleisten, ist es wichtig, dass der Anteil von toten und lebenden Fällen und Referenten gleich ist, da nahe Verwandte normalerweise eine weniger detaillierte Expositionsgeschichte als die Teilnehmer selbst angeben. Informationen über das Expositionsmuster bei den Fällen werden mit denen bei den Kontrollen verglichen, was eine Schätzung der Wahrscheinlichkeit (OR), ein indirektes Maß für die Risiko unter den Exponierten, an der Krankheit zu erkranken relativ zu dem der Unbelichteten.

Da das Fall-Kontroll-Design auf den Expositionsinformationen beruht, die von Patienten mit einer bestimmten Krankheit (dh Fällen) zusammen mit einer Stichprobe von nicht erkrankten Personen (dh Kontrollen) aus der Population, aus der die Fälle stammten, erhalten wurden, ist die Verbindung mit Expositionen gegeben kann nur recherchiert werden eine Krankheit. Im Gegensatz dazu ermöglicht dieses Design die gleichzeitige Untersuchung der Wirkung von mehrere unterschiedliche Belichtungen. Die fallbezogene Studie ist gut geeignet, um spezifische Forschungsfragen zu beantworten (z. B. „Wird eine koronare Herzkrankheit durch die Exposition gegenüber Schwefelkohlenstoff verursacht?“), aber sie kann auch helfen, die allgemeinere Frage zu beantworten: „Welche Expositionen können diese Krankheit verursachen? ?”

Die Frage, ob die Exposition gegenüber organischen Lösungsmitteln primären Leberkrebs verursacht, wird (als Beispiel) in Europa aufgeworfen. Fälle von primärem Leberkrebs, einer vergleichsweise seltenen Erkrankung in Europa, werden am besten aus einem nationalen Krebsregister erfasst. Angenommen, alle Krebsfälle, die während drei Jahren auftreten, bilden die Fallserie. Die Bevölkerungsbasis für die Studie ist dann ein dreijähriges Follow-up der gesamten Bevölkerung in dem betreffenden europäischen Land. Die Kontrollen werden als Stichprobe von Personen ohne Leberkrebs aus der gleichen Population gezogen. Aus Gründen der Bequemlichkeit (d. h. dass dieselbe Quelle für die Probenahme der Kontrollen verwendet werden kann) können Patienten mit einer anderen Krebsart, die nicht mit Lösungsmittelexposition in Verbindung steht, als Kontrollen verwendet werden. Dickdarmkrebs hat keinen bekannten Zusammenhang mit Lösungsmittelexposition; daher kann dieser Krebstyp zu den Kontrollen gezählt werden. (Die Verwendung von Krebskontrollen minimiert Erinnerungsverzerrungen, da die Genauigkeit der Anamnese von Fällen und Kontrollen im Durchschnitt symmetrisch ist. Wenn jedoch später ein derzeit unbekannter Zusammenhang zwischen Dickdarmkrebs und Lösungsmittelexposition aufgedeckt würde, würde diese Art der Kontrolle zu Problemen führen eine Unterschätzung des wahren Risikos – keine Übertreibung davon.)

Für jeden Fall von Leberkrebs werden zwei Kontrollen gezogen, um eine größere statistische Aussagekraft zu erreichen. (Man könnte noch mehr Kontrollen ziehen, aber verfügbare Mittel können ein limitierender Faktor sein. Wenn die Mittel nicht begrenzt wären, wären vielleicht bis zu vier Kontrollen optimal. Über vier hinaus gilt das Gesetz des abnehmenden Ertrags.) Nach Einholung einer entsprechenden Erlaubnis von Daten Schutzbehörden, die Fälle und Kontrollen oder ihre nahen Angehörigen werden kontaktiert, in der Regel mittels eines per Post zugesandten Fragebogens, in dem um eine detaillierte Berufsgeschichte mit besonderem Schwerpunkt auf einer chronologischen Liste der Namen aller Arbeitgeber, der Arbeitsabteilungen, der Arbeitsaufgaben in unterschiedlichen Beschäftigungen und die Dauer der Beschäftigung in der jeweiligen Tätigkeit. Diese Daten sind nur schwer von Verwandten zu bekommen; An bestimmte Chemikalien oder Handelsnamen erinnern sich Verwandte jedoch normalerweise nicht gut. Der Fragebogen sollte auch Fragen zu möglichen Stördaten wie Alkoholkonsum, Kontakt mit aflatoxinhaltigen Lebensmitteln und Hepatitis-B- und -C-Infektionen enthalten. Um eine ausreichend hohe Responsequote zu erreichen, werden zwei Reminder im Abstand von drei Wochen an Nicht-Responder versendet. Dies führt in der Regel zu einer endgültigen Rücklaufquote von über 70 %. Die berufliche Vorgeschichte wird dann von einem Arbeitshygieniker überprüft, ohne Kenntnis des Falls oder des Kontrollstatus des Befragten, und die Exposition wird in hohe, mittlere, niedrige, keine und unbekannte Exposition gegenüber Lösungsmitteln eingeteilt. Die zehnjährige Exposition unmittelbar vor der Krebsdiagnose werden nicht berücksichtigt, da es biologisch nicht plausibel ist, dass Karzinogene vom Initiatortyp bei einer so kurzen Latenzzeit die Ursache des Krebses sein können (obwohl Promotoren dies tatsächlich könnten). In diesem Stadium ist es auch möglich, zwischen verschiedenen Arten der Lösungsmittelbelastung zu unterscheiden. Da eine vollständige Erwerbshistorie vorgelegt wurde, ist es auch möglich, andere Expositionen zu untersuchen, obwohl diese in der ursprünglichen Studienhypothese nicht enthalten waren. Odds Ratios können dann für die Exposition gegenüber einem beliebigen Lösungsmittel, bestimmten Lösungsmitteln, Lösungsmittelgemischen, verschiedenen Kategorien der Expositionsintensität und für verschiedene Zeitfenster in Bezug auf die Krebsdiagnose berechnet werden. Es ist ratsam, Personen mit unbekannter Exposition von der Analyse auszuschließen.

Die Fälle und Kontrollen können als Proben entnommen und analysiert werden eigenständige Serie or passende Gruppen. Matching bedeutet, dass Kontrollen für jeden Fall basierend auf bestimmten Merkmalen oder Attributen ausgewählt werden, um Paare (oder Sätze, wenn mehr als eine Kontrolle für jeden Fall ausgewählt wird) zu bilden. Der Abgleich erfolgt normalerweise auf der Grundlage eines oder mehrerer solcher Faktoren, wie Alter, Vitalzustand, Rauchergeschichte, Kalenderzeit der Falldiagnose und dergleichen. In unserem Beispiel werden Fälle und Kontrollen dann nach Alter und Vitalstatus abgeglichen. (Vitalstatus ist wichtig, da Patienten selbst in der Regel eine genauere Expositionsgeschichte angeben als nahe Verwandte, und Symmetrie aus Validitätsgründen unerlässlich ist.) Heute wird empfohlen, beim Matching restriktiv vorzugehen, da dieses Verfahren negative (Effektmaskierung) einführen kann ) verwirrend.

Wenn ein Steuerelement einem Fall zugeordnet ist, wird das Design a genannt Matched-Pair-Design. Vorausgesetzt, die Kosten für die Untersuchung weiterer Kontrollen sind nicht unerschwinglich, verbessert mehr als ein Referent pro Fall die Stabilität der Schätzung des OR, wodurch die Studie größeneffizienter wird.

Die Aufteilung der Ergebnisse einer ungepaarten Fall-Kontroll-Studie ist in Tabelle 2 dargestellt.

Tabelle 2. Musterlayout von Fallkontrolldaten

Expositionsklassifizierung

 

Ausgesetzt

Unbelichtet

Projekte

c1

c0

Nicht-Fälle

n1

n0

 

Aus dieser Tabelle können die Expositionswahrscheinlichkeiten unter den Fällen und die Expositionswahrscheinlichkeiten unter der Population (den Kontrollen) berechnet und geteilt werden, um das Expositionswahrscheinlichkeitsverhältnis OR zu erhalten. Für die Fälle ist die Expositionswahrscheinlichkeit c1 / c0, und für die Kontrollen ist es n1 / n0. Die Abschätzung des OR ist dann:

Wenn relativ mehr Fälle als Kontrollen exponiert wurden, liegt das OR über 1 und umgekehrt. Konfidenzintervalle müssen für das OR auf die gleiche Weise wie für das RR berechnet und bereitgestellt werden.

Als weiteres Beispiel dient ein arbeitsmedizinisches Zentrum eines großen Unternehmens für 8,000 Mitarbeiter, die einer Vielzahl von Stäuben und anderen chemischen Arbeitsstoffen ausgesetzt sind. Uns interessiert der Zusammenhang zwischen Mischstaubbelastung und chronischer Bronchitis. Die Studie umfasst eine einjährige Nachbeobachtung dieser Population. Als diagnostisches Kriterium für eine chronische Bronchitis haben wir „Morgenhusten und Schleimproduktion für drei Monate in zwei aufeinanderfolgenden Jahren“ festgelegt. Kriterien für eine „positive“ Staubexposition werden vor Studienbeginn festgelegt. Jeder Patient, der das Gesundheitszentrum besucht und diese Kriterien während eines Zeitraums von einem Jahr erfüllt, ist ein Fall, und der nächste Patient, der wegen nicht pulmonaler Probleme ärztlichen Rat einholt, wird als Kontrolle definiert. Angenommen, während des Studienzeitraums werden 100 Fälle und 100 Kontrollen aufgenommen. Es seien 40 Fälle und 15 Kontrollen als staubexponiert einzustufen. Dann

c1 = 40, c0 = 60, n1 = 15 und n0 = 85.

Folglich

Im vorstehenden Beispiel wurde die Möglichkeit einer Verwechslung nicht berücksichtigt, die aufgrund systematischer Unterschiede zwischen Fällen und Kontrollen in einer Variablen wie dem Alter zu einer Verzerrung des OR führen kann. Eine Möglichkeit, diese Verzerrung zu reduzieren, besteht darin, die Kontrollen den Fällen nach Alter oder anderen verdächtigen Faktoren zuzuordnen. Daraus ergibt sich ein in Tabelle 3 dargestelltes Datenlayout.

Tabelle 3. Layout der Fallkontrolldaten, wenn jedem Fall eine Kontrolle zugeordnet wird

Referenten

Projekte

Belichtung (+)

Belichtung (-)

Belichtung (+)

f+ +

f+ -

Belichtung (-)

f- +

f- -

 

Die Analyse konzentriert sich auf die diskordanten Paare: „Fall exponiert, Kontrolle nicht exponiert“ (f+–); und „Fall unbelichtet, Kontrolle belichtet“ (f–+). Wenn beide Mitglieder eines Paares exponiert oder nicht exponiert sind, wird das Paar nicht berücksichtigt. Das OR in einem Matched-Pair-Studiendesign ist definiert als

In einer Studie zum Zusammenhang zwischen Nasenkrebs und Holzstaubbelastung gab es insgesamt 164 Fall-Kontroll-Paare. Bei nur einem Paar waren sowohl der Fall als auch die Kontrolle exponiert worden, und bei 150 Paaren waren weder der Fall noch die Kontrolle exponiert worden. Diese Paare werden nicht weiter betrachtet. Das Gehäuse, aber nicht die Kontrolle, wurde in 12 Paaren exponiert, und die Kontrolle, aber nicht das Gehäuse, in einem Paar. Somit,

und da die Einheit in diesem Intervall nicht enthalten ist, ist das Ergebnis statistisch signifikant – das heißt, es besteht ein statistisch signifikanter Zusammenhang zwischen Nasenkrebs und Holzstaubbelastung.

Fall-Kontroll-Studien sind effizienter als Kohortenstudien, wenn die Krankheit ist selten; sie können tatsächlich die einzige Option bieten. Aber auch Volkskrankheiten können mit dieser Methode untersucht werden. Wenn die Exposition ist selten, eine expositionsbasierte Kohorte ist das bevorzugte oder einzig mögliche epidemiologische Design. Selbstverständlich können auch Kohortenstudien zu gemeinsamen Expositionen durchgeführt werden. Die Wahl zwischen Kohorten- und Fall-Kontroll-Designs, wenn sowohl die Exposition als auch die Erkrankung häufig sind, wird normalerweise unter Berücksichtigung von Validitätserwägungen entschieden.

Da sich Fall-Kontroll-Studien auf retrospektive Expositionsdaten stützen, die normalerweise auf der Erinnerung der Teilnehmer beruhen, ist ihre Schwachstelle die Ungenauigkeit und Rohheit der Expositionsinformationen, was zu einer Effektmaskierung führt nicht differenziell (symmetrische) Fehlklassifizierung des Expositionsstatus. Darüber hinaus kann der Rückruf manchmal zwischen Fällen und Kontrollen asymmetrisch sein, Fälle, von denen normalerweise angenommen wird, dass sie sich „besser“ erinnern (dh Rückrufverzerrung).

Selektive Rückrufe können eine effektverstärkende Verzerrung bewirken Differential (asymmetrische) Fehlklassifizierung des Expositionsstatus. Die Vorteile von Fall-Kontroll-Studien liegen in ihrer Kosteneffektivität und ihrer Fähigkeit, relativ schnell eine Problemlösung zu liefern. Aufgrund der Stichprobenstrategie ermöglichen sie die Untersuchung sehr großer Zielpopulationen (z. B. durch nationale Krebsregister) und erhöhen damit die statistische Aussagekraft der Studie. In Ländern, in denen Datenschutzgesetze oder das Fehlen guter Bevölkerungs- und Morbiditätsregister die Durchführung von Kohortenstudien behindern, können krankenhausbasierte Fall-Kontroll-Studien die einzige praktische Möglichkeit sein, epidemiologische Forschung durchzuführen.

Fall-Kontroll-Stichprobe innerhalb einer Kohorte (verschachtelte Fall-Kontroll-Studiendesigns)

Eine Kohortenstudie kann auch für Stichproben anstelle einer vollständigen Nachverfolgung konzipiert werden. Dieses Design wurde früher als „verschachtelte“ Fall-Kontroll-Studie bezeichnet. Ein Stichprobenansatz innerhalb der Kohorte stellt andere Anforderungen an die Kohorteneignung, da die Vergleiche nun innerhalb derselben Kohorte erfolgen. Dies sollte daher nicht nur stark exponierte Arbeitnehmer, sondern auch weniger exponierte und sogar nicht exponierte Arbeitnehmer umfassen, um eine Versorgung zu gewährleisten Belichtungskontraste in sich. Es ist wichtig, diesen Unterschied in den Zulassungsvoraussetzungen bei der Zusammenstellung der Kohorte zu berücksichtigen. Wenn zuerst eine vollständige Kohortenanalyse an einer Kohorte durchgeführt wird, deren Eignungskriterien auf einer „hohen“ Exposition lagen, und später eine „verschachtelte“ Fall-Kontroll-Studie an derselben Kohorte durchgeführt wird, wird die Studie unempfindlich. Dies führt zu einer Effektmaskierung, da die Belichtungskontraste aufgrund einer fehlenden Variabilität in der Belichtungserfahrung unter den Mitgliedern der Kohorte „absichtlich“ unzureichend sind.

Vorausgesetzt, die Kohorte verfügt über ein breites Spektrum an Expositionserfahrung, ist der verschachtelte Fall-Kontroll-Ansatz jedoch sehr attraktiv. Man fasst alle in der Kohorte auftretenden Fälle über den Nachbeobachtungszeitraum zur Fallserie zusammen, während nur a Sample der Nicht-Fälle wird für die Kontrollreihe gezogen. Die Forscher sammeln dann, wie beim traditionellen Fall-Kontroll-Design, detaillierte Informationen über die Expositionserfahrung, indem sie Fälle und Kontrollen (oder ihre nahen Verwandten) befragen, die Personallisten der Arbeitgeber prüfen, indem sie a Job-Exposure-Matrix, oder durch Kombinieren von zwei oder mehr dieser Ansätze. Die Kontrollen können entweder den Fällen zugeordnet oder als eigenständige Serie behandelt werden.

Der Stichprobenansatz kann im Vergleich zur umfassenden Informationsbeschaffung über jedes Mitglied der Kohorte weniger kostspielig sein. Da insbesondere nur eine Stichprobe von Kontrollen untersucht wird, können mehr Ressourcen für eine detaillierte und genaue Expositionsbewertung für jeden Fall und jede Kontrolle aufgewendet werden. Allerdings herrschen die gleichen statistischen Power-Probleme wie in klassischen Kohortenstudien. Um eine ausreichende statistische Aussagekraft zu erreichen, muss die Kohorte je nach Größe des zu erfassenden Risikos immer eine „ausreichende“ Anzahl exponierter Fälle umfassen.

Querschnittsstudiendesigns

Im wissenschaftlichen Sinne ist ein Querschnittsdesign ein Querschnitt der Studienpopulation ohne zeitliche Berücksichtigung. Sowohl Exposition als auch Morbidität (Prävalenz) werden zum gleichen Zeitpunkt gemessen.

Aus ätiologischer Sicht ist dieses Studiendesign schwach, auch weil es sich nicht um die Inzidenz, sondern um die Prävalenz handelt. Die Prävalenz ist ein zusammengesetztes Maß, das sowohl von der Inzidenz als auch von der Dauer der Krankheit abhängt. Dies schränkt auch den Einsatz von Querschnittsstudien auf lang andauernde Erkrankungen ein. Noch gravierender ist die starke negative Verzerrung, die durch die gesundheitsbedingte Eliminierung der gegenüber Expositionswirkungen empfindlicheren Personen aus der exponierten Gruppe verursacht wird. Daher werden ätiologische Probleme am besten durch Längsschnittdesigns gelöst. Tatsächlich lassen Querschnittsstudien keine Rückschlüsse darauf zu, ob eine Exposition einer Erkrankung vorausging oder umgekehrt. Der Wirkungsquerschnitt ist nur dann ätiologisch aussagekräftig, wenn zwischen der Exposition und dem Ergebnis ein echter zeitlicher Zusammenhang besteht, das heißt, dass die aktuelle Exposition unmittelbare Auswirkungen haben muss. Die Exposition kann jedoch querschnittlich gemessen werden, so dass sie einen längeren vergangenen Zeitraum darstellt (z. B. der Blutbleispiegel), während das Ergebnismaß eine Prävalenz ist (z. B. Nervenleitungsgeschwindigkeiten). Die Studie ist dann eher eine Mischung aus einem Längsschnitt- und einem Querschnittsdesign als ein bloßer Querschnitt der Studienpopulation.

Deskriptive Querschnittsbefragungen

Querschnittserhebungen sind oft eher für praktische und administrative als für wissenschaftliche Zwecke nützlich. Epidemiologische Prinzipien können auf systematische Überwachungsaktivitäten im arbeitsmedizinischen Umfeld angewendet werden, wie zum Beispiel:

  • Beobachtung der Morbidität in Bezug auf Beruf, Arbeitsbereich oder bestimmte Expositionen
  • regelmäßige Befragungen von Arbeitnehmern, die bekannten Berufsgefahren ausgesetzt sind
  • Untersuchung von Arbeitnehmern, die mit neuen Gesundheitsgefahren in Kontakt kommen
  • biologische Überwachungsprogramme
  • Expositionserhebungen zur Identifizierung und Quantifizierung von Gefahren
  • Screening-Programme verschiedener Arbeitnehmergruppen
  • Bewertung des Anteils der Arbeitnehmer, die einer Vorbeugung oder regelmäßigen Kontrolle bedürfen (z. B. Blutdruck, koronare Herzkrankheit).

 

Es ist wichtig, repräsentative, gültige und spezifische Morbiditätsindikatoren für alle Arten von Erhebungen auszuwählen. Eine Befragung oder ein Screening-Programm kann im Gegensatz zur klinischen Diagnostik nur wenige Tests verwenden, daher ist der Vorhersagewert des Screening-Tests wichtig. Unempfindliche Methoden können die interessierende Krankheit nicht nachweisen, während hochempfindliche Methoden zu viele falsch positive Ergebnisse liefern. Ein Screening auf seltene Erkrankungen ist im beruflichen Umfeld nicht sinnvoll. Alle Aktivitäten zur Fallfindung (dh Screening) erfordern auch einen Mechanismus zur Betreuung von Personen mit „positiven“ Befunden, sowohl in Bezug auf Diagnostik als auch Therapie. Andernfalls wird nur Frustration resultieren, bei der möglicherweise mehr Schaden als Nutzen entsteht.

 

Zurück

Dienstag, 01 März 2011 02: 17

Validitätsprobleme im Studiendesign

Das Bedürfnis nach Geltung

Die Epidemiologie zielt darauf ab, das Krankheitserleben in Bevölkerungen zu verstehen. Insbesondere kann es genutzt werden, um Einblicke in die beruflichen Ursachen von Erkrankungen zu erhalten. Dieses Wissen stammt aus Studien, die an Gruppen von Menschen mit einer Krankheit durchgeführt wurden, indem sie mit Menschen ohne diese Krankheit verglichen wurden. Ein weiterer Ansatz besteht darin, zu untersuchen, welche Krankheiten Menschen bekommen, die in bestimmten Berufen mit besonderen Belastungen arbeiten, und diese Krankheitsbilder mit denen von nicht ähnlich exponierten Personen zu vergleichen. Diese Studien liefern Schätzungen des Krankheitsrisikos für bestimmte Expositionen. Damit Informationen aus solchen Studien zur Erstellung von Präventionsprogrammen, zur Anerkennung von Berufskrankheiten und zur angemessenen Entschädigung der von Expositionen betroffenen Arbeitnehmer verwendet werden können, müssen diese Studien valide sein.

Gültigkeit kann als die Fähigkeit einer Studie definiert werden, den wahren Sachverhalt widerzuspiegeln. Eine gültige Studie ist daher eine Studie, die den Zusammenhang (entweder positiv, negativ oder nicht vorhanden) zwischen einer Exposition und einer Krankheit korrekt misst. Sie beschreibt Richtung und Ausmaß eines echten Risikos. Es werden zwei Arten von Validität unterschieden: interne und externe Validität. Interne Validität ist die Fähigkeit einer Studie, das widerzuspiegeln, was wirklich unter den Studienteilnehmern passiert ist; Die externe Validität spiegelt wider, was in der Bevölkerung passieren könnte.

Validität bezieht sich auf die Wahrhaftigkeit einer Messung. Validität ist von der Genauigkeit der Messung zu unterscheiden, die von der Größe der Studie und der Effizienz des Studiendesigns abhängt.

Interne Gültigkeit

Eine Studie gilt als intern valide, wenn sie frei von Verzerrungen ist und somit den bei den Studienteilnehmern bestehenden Zusammenhang zwischen Exposition und Krankheit wirklich widerspiegelt. Ein beobachtetes Krankheitsrisiko im Zusammenhang mit einer Exposition kann zwar aus einem realen Zusammenhang resultieren und daher valide sein, aber es kann auch den Einfluss von Vorurteilen widerspiegeln. Eine Voreingenommenheit wird ein verzerrtes Bild der Realität geben.

Drei Haupttypen von Vorurteilen, auch genannt systematische Fehler, werden normalerweise unterschieden:

  • Auswahlbias
  • Informations- oder Beobachtungsverzerrung
  • verwirrend

 

Sie werden im Folgenden anhand von Beispielen aus dem arbeitsmedizinischen Umfeld kurz vorgestellt.

Selektionsvorspannung

Ein Selektionsbias tritt auf, wenn der Eintritt in die Studie durch die Kenntnis des Expositionsstatus des potenziellen Studienteilnehmers beeinflusst wird. Dieses Problem tritt daher nur dann auf, wenn die Krankheit zum Zeitpunkt (bevor) die Person in die Studie aufgenommen wurde, bereits aufgetreten ist. Im epidemiologischen Umfeld geschieht dies typischerweise in Fall-Kontroll-Studien oder in retrospektiven Kohortenstudien. Dies bedeutet, dass eine Person eher als Fall betrachtet wird, wenn bekannt ist, dass sie exponiert war. Drei Umstände können zu einem solchen Ereignis führen, das auch von der Schwere der Krankheit abhängt.

Selbstselektionsverzerrung

Dies kann vorkommen, wenn Personen, die wissen, dass sie in der Vergangenheit bekannten oder vermuteten schädlichen Produkten ausgesetzt waren, und die überzeugt sind, dass ihre Krankheit das Ergebnis der Exposition ist, einen Arzt wegen Symptomen konsultieren, die andere Personen, die nicht so exponiert waren, möglicherweise ignoriert haben. Dies ist besonders wahrscheinlich bei Krankheiten, die nur wenige auffällige Symptome aufweisen. Ein Beispiel kann ein früher Schwangerschaftsverlust oder eine spontane Abtreibung bei weiblichen Krankenschwestern sein, die mit Arzneimitteln zur Krebsbehandlung umgehen. Diese Frauen sind sich der Fortpflanzungsphysiologie bewusster als die meisten anderen und, da sie sich Sorgen um ihre Fähigkeit machen, Kinder zu bekommen, erkennen oder etikettieren sie möglicherweise eher als spontane Abtreibung, was andere Frauen nur als Verzögerung des Beginns der Menstruation betrachten würden. Ein weiteres Beispiel aus einer retrospektiven Kohortenstudie, zitiert von Rothman (1986), betrifft eine Studie des Centers for Disease Control über Leukämie unter Truppen, die bei einem US-Atomtest in Nevada anwesend waren. Von den auf dem Testgelände anwesenden Truppen wurden 76 % aufgespürt und bildeten die Kohorte. Davon wurden 82 % von den Ermittlern gefunden, aber weitere 18 % kontaktierten die Ermittler selbst, nachdem sie von der Öffentlichkeit über die Studie gehört hatten. Vier Fälle von Leukämie waren unter den 82 % vorhanden, die von CDC verfolgt wurden, und vier Fälle waren unter den selbst überwiesenen 18 % vorhanden. Dies deutet stark darauf hin, dass die Fähigkeit der Ermittler, exponierte Personen zu identifizieren, mit dem Leukämie-Risiko zusammenhängt.

Diagnostische Verzerrung

Dies wird der Fall sein, wenn die Ärzte eine bestimmte Krankheit eher diagnostizieren, wenn sie wissen, was der Patient zuvor ausgesetzt war. Als beispielsweise die meisten Farben bleihaltig waren, war ein Symptom einer Erkrankung der peripheren Nerven, das als periphere Neuritis mit Lähmung bezeichnet wird, auch als „Handgelenkstropfen“ der Maler bekannt. Die Kenntnis des Berufs des Patienten erleichterte bereits im Frühstadium die Diagnose der Erkrankung, während bei Studienteilnehmern ohne bekannte berufliche Bleibelastung die Identifizierung des Erregers deutlich erschwert wäre.

Bias aufgrund der Weigerung, an einer Studie teilzunehmen

Wenn Menschen, ob gesund oder krank, gebeten werden, an einer Studie teilzunehmen, spielen mehrere Faktoren eine Rolle, ob sie zustimmen oder nicht. Die Bereitschaft, unterschiedlich lange Fragebögen zu beantworten, die manchmal nach heiklen Themen fragen, und noch mehr, Blut oder andere biologische Proben abzugeben, kann vom Grad des Eigeninteresses der Person bestimmt werden. Jemand, der sich der früheren möglichen Exposition bewusst ist, ist möglicherweise bereit, dieser Anfrage nachzukommen, in der Hoffnung, dass sie dabei hilft, die Ursache der Krankheit zu finden, während jemand der Meinung ist, dass er nichts Gefährlichem ausgesetzt war, oder der nicht interessiert ist wissen, können die Einladung zur Teilnahme an der Studie ablehnen. Dies kann zu einer Auswahl der Personen führen, die letztendlich Studienteilnehmer sein werden, im Vergleich zu allen, die es hätten sein können.

Informationsverzerrung

Dies wird auch als Beobachtungsverzerrung bezeichnet und betrifft den Krankheitsverlauf in Folgestudien und die Expositionsbeurteilung in Fall-Kontroll-Studien.

Differenzielle Ergebnisbewertung in prospektiven Folgestudien (Kohortenstudien).

Zu Beginn der Studie werden zwei Gruppen definiert: eine exponierte Gruppe und eine nicht exponierte Gruppe. Probleme der diagnostischen Verzerrung entstehen, wenn die Suche nach Fällen zwischen diesen beiden Gruppen unterschiedlich ist. Stellen Sie sich zum Beispiel eine Kohorte von Personen vor, die einer versehentlichen Freisetzung von Dioxin in einer bestimmten Branche ausgesetzt sind. Für die hochexponierte Gruppe wird ein aktives Nachsorgesystem mit regelmäßigen ärztlichen Untersuchungen und biologischem Monitoring eingerichtet, während der Rest der Erwerbsbevölkerung nur routinemäßig betreut wird. Es ist sehr wahrscheinlich, dass in der eng überwachten Gruppe mehr Krankheiten identifiziert werden, was zu einer potenziellen Überschätzung des Risikos führen würde.

Differenzielle Verluste in retrospektiven Kohortenstudien

In retrospektiven Kohortenstudien kann der umgekehrte Mechanismus zu dem im vorhergehenden Absatz beschriebenen auftreten. Die übliche Vorgehensweise bei diesen Studien ist, mit den Akten aller Personen zu beginnen, die in der Vergangenheit in einer bestimmten Branche beschäftigt waren, und Krankheit oder Sterblichkeit nach der Beschäftigung zu bewerten. Leider sind in fast allen Studien die Akten unvollständig, und die Tatsache, dass eine Person vermisst wird, kann entweder mit dem Expositionsstatus oder dem Krankheitsstatus oder mit beidem zusammenhängen. Beispielsweise wurden in einer kürzlich in der chemischen Industrie durchgeführten Studie bei Arbeitern, die aromatischen Aminen ausgesetzt waren, acht Tumore in einer Gruppe von 777 Arbeitern gefunden, die einem zytologischen Screening auf Harntumoren unterzogen worden waren. Insgesamt wurden nur 34 Datensätze als fehlend befunden, was einem Verlust von 4.4 % in der Expositionsbewertungsdatei entspricht, aber bei Blasenkrebsfällen fehlten Expositionsdaten für zwei von acht Fällen oder 25 %. Dies zeigt, dass die Akten von Personen, die zu Fällen wurden, mit größerer Wahrscheinlichkeit verloren gingen als die Akten anderer Mitarbeiter. Dies kann durch häufigere Stellenwechsel innerhalb des Unternehmens (die mit Expositionseffekten verbunden sein können), Kündigung, Entlassung oder reinen Zufall geschehen.

Differenzielle Bewertung der Exposition in Fall-Kontroll-Studien

Bei Fall-Kontroll-Studien ist die Erkrankung bei Studienbeginn bereits aufgetreten und es werden Informationen zu früheren Expositionen abgefragt. Voreingenommenheit kann entweder aus der Einstellung des Interviewers oder des Studienteilnehmers zur Untersuchung resultieren. Die Informationen werden normalerweise von geschulten Interviewern gesammelt, die sich der Hypothese, die der Forschung zugrunde liegt, bewusst sein können oder auch nicht. In einer bevölkerungsbezogenen Fall-Kontroll-Studie zu Blasenkrebs beispielsweise, die in einer hochindustrialisierten Region durchgeführt wurde, ist sich das Studienpersonal möglicherweise der Tatsache bewusst, dass bestimmte Chemikalien, wie beispielsweise aromatische Amine, Risikofaktoren für Blasenkrebs sind. Wenn sie auch wissen, wer die Krankheit entwickelt hat und wer nicht, können sie mit den Teilnehmern, die an Blasenkrebs erkrankt sind, wahrscheinlich eingehendere Interviews führen als mit den Kontrollen. Sie bestehen möglicherweise auf detaillierteren Informationen über frühere Berufe und suchen systematisch nach der Exposition gegenüber aromatischen Aminen, während sie für Kontrollen die Berufe eher routinemäßig erfassen. Die resultierende Vorspannung wird als bekannt Expositionsverdacht voreingenommen.

Auch die Teilnehmer selbst können für eine solche Voreingenommenheit verantwortlich sein. Das nennt man Voreingenommenheit erinnern um es von der Voreingenommenheit des Interviewers zu unterscheiden. Beide haben den Expositionsverdacht als Mechanismus für die Voreingenommenheit. Erkrankte Personen können einen beruflichen Ursprung ihrer Krankheit vermuten und werden daher versuchen, sich so genau wie möglich an alle gefährlichen Stoffe zu erinnern, denen sie möglicherweise ausgesetzt waren. Beim Umgang mit undefinierten Produkten neigen sie möglicherweise dazu, sich an die Namen konkreter Chemikalien zu erinnern, insbesondere wenn ihnen eine Liste verdächtiger Produkte zur Verfügung gestellt wird. Im Gegensatz dazu durchlaufen Kontrollen mit geringerer Wahrscheinlichkeit denselben Denkprozess.

Verwirrend

Confounding liegt vor, wenn der beobachtete Zusammenhang zwischen Exposition und Krankheit teilweise das Ergebnis einer Vermischung der Wirkung der untersuchten Exposition und eines anderen Faktors ist. Nehmen wir zum Beispiel an, dass wir bei Schweißern ein erhöhtes Lungenkrebsrisiko feststellen. Wir sind versucht, sofort zu schließen, dass es einen kausalen Zusammenhang zwischen der Exposition gegenüber Schweißrauch und Lungenkrebs gibt. Wir wissen aber auch, dass Rauchen der mit Abstand wichtigste Risikofaktor für Lungenkrebs ist. Wenn Informationen verfügbar sind, beginnen wir daher damit, den Raucherstatus von Schweißern und anderen Studienteilnehmern zu überprüfen. Wir können feststellen, dass Schweißer eher rauchen als Nicht-Schweißer. In dieser Situation ist bekannt, dass das Rauchen mit Lungenkrebs in Verbindung gebracht wird, und gleichzeitig wurde in unserer Studie festgestellt, dass das Rauchen auch mit dem Beruf des Schweißers in Verbindung gebracht wird. In epidemiologischer Hinsicht bedeutet dies, dass Rauchen, das sowohl mit Lungenkrebs als auch mit Schweißen in Verbindung gebracht wird, den Zusammenhang zwischen Schweißen und Lungenkrebs verfälscht.

Interaktions- oder Effektmodifikation

Im Gegensatz zu allen oben aufgeführten Aspekten, nämlich Selektion, Information und Confounding, die Verzerrungen darstellen, ist Interaktion keine Verzerrung aufgrund von Problemen im Studiendesign oder in der Analyse, sondern spiegelt die Realität und ihre Komplexität wider. Ein Beispiel für dieses Phänomen ist das folgende: Die Belastung durch Radon ist ein Risikofaktor für Lungenkrebs, ebenso wie das Rauchen. Darüber hinaus haben Rauchen und Radonexposition unterschiedliche Auswirkungen auf das Lungenkrebsrisiko, je nachdem, ob sie zusammen oder isoliert wirken. Die meisten Berufsstudien zu diesem Thema wurden unter Untertagebergleuten durchgeführt und haben teilweise widersprüchliche Ergebnisse geliefert. Insgesamt scheint es Argumente für eine Wechselwirkung von Rauchen und Radonexposition bei der Entstehung von Lungenkrebs zu geben. Das bedeutet, dass das Lungenkrebsrisiko durch Radonexposition auch bei Nichtrauchern erhöht wird, aber dass die Risikoerhöhung durch Radon bei Rauchern viel größer ist als bei Nichtrauchern. Epidemiologisch sprechen wir von einer multiplikativen Wirkung. Im Gegensatz zum oben beschriebenen Confounding muss die Interaktion sorgfältig analysiert und in der Analyse beschrieben und nicht einfach kontrolliert werden, da sie das widerspiegelt, was auf biologischer Ebene passiert, und nicht nur eine Folge eines schlechten Studiendesigns ist. Seine Erklärung führt zu einer valideren Interpretation der Ergebnisse einer Studie.

Externe Validität

Dieses Problem kann erst behoben werden, nachdem sichergestellt wurde, dass die interne Gültigkeit gesichert ist. Wenn wir davon überzeugt sind, dass die in der Studie beobachteten Ergebnisse reale Assoziationen widerspiegeln, können wir uns fragen, ob wir diese Ergebnisse auf die größere Population, aus der die Studienteilnehmer selbst gezogen wurden, oder sogar auf andere identische Populationen extrapolieren können oder zumindest sehr ähnlich. Die häufigste Frage ist, ob die für Männer erzielten Ergebnisse auch für Frauen gelten. Studien und insbesondere berufsepidemiologische Untersuchungen werden seit Jahren ausschließlich bei Männern durchgeführt. Studien unter Chemikern, die in den 1960er und 1970er Jahren in den Vereinigten Staaten, dem Vereinigten Königreich und Schweden durchgeführt wurden, ergaben alle ein erhöhtes Risiko für bestimmte Krebsarten – nämlich Leukämie, Lymphome und Bauchspeicheldrüsenkrebs. Aus dem, was wir über die Wirkungen der Exposition gegenüber Lösungsmitteln und einigen anderen Chemikalien wussten, hätten wir damals schon ableiten können, dass die Laborarbeit auch ein krebserzeugendes Risiko für Frauen mit sich bringt. Dies zeigte sich tatsächlich, als Mitte der 1980er Jahre schließlich die erste Studie unter Chemikerinnen veröffentlicht wurde, die ähnliche Ergebnisse wie bei Männern ergab. Es ist erwähnenswert, dass es sich bei anderen gefundenen übermäßigen Krebsarten um Tumore der Brust und der Eierstöcke handelte, die traditionell nur mit endogenen Faktoren oder der Fortpflanzung in Verbindung gebracht wurden, bei denen jedoch neu vermutete Umweltfaktoren wie Pestizide eine Rolle spielen könnten. Zu den berufsbedingten Determinanten von Krebserkrankungen bei Frauen muss noch viel mehr Arbeit geleistet werden.

Strategien für ein valides Studium

Eine vollkommen gültige Studie kann es nie geben, aber es obliegt dem Forscher, so viele Verzerrungen wie möglich zu vermeiden oder zumindest zu minimieren. Dies kann oft am besten in der Phase des Studiendesigns erfolgen, kann aber auch während der Analyse durchgeführt werden.

Studiendesign

Auswahl- und Informationsverzerrung können nur durch das sorgfältige Design einer epidemiologischen Studie und die sorgfältige Umsetzung aller sich daraus ergebenden täglichen Richtlinien, einschließlich der sorgfältigen Beachtung der Qualitätssicherung, für die Durchführung der Studie unter Feldbedingungen vermieden werden. Confounding kann entweder in der Entwurfs- oder in der Analysephase behandelt werden.

Auswahl

Kriterien für die Berücksichtigung eines Teilnehmers als Fall müssen explizit definiert werden. Man kann oder sollte zumindest nicht versuchen, schlecht definierte klinische Zustände zu untersuchen. Eine Möglichkeit zur Minimierung der Auswirkungen, die die Kenntnis der Exposition auf die Krankheitsbewertung haben kann, besteht darin, nur schwere Fälle einzubeziehen, die unabhängig von Informationen zur Krankengeschichte des Patienten diagnostiziert worden wären. Im Bereich Krebs werden Studien oft auf Fälle mit histologischem Nachweis der Erkrankung beschränkt, um den Einschluss von Borderline-Läsionen zu vermeiden. Dies bedeutet auch, dass die untersuchten Gruppen gut definiert sind. Beispielsweise ist in der Krebsepidemiologie wohlbekannt, dass Krebsarten verschiedener histologischer Typen innerhalb eines gegebenen Organs unterschiedliche Risikofaktoren haben können. Bei ausreichender Fallzahl ist es besser, das Adenokarzinom der Lunge vom Plattenepithelkarzinom der Lunge zu trennen. Was auch immer die endgültigen Kriterien für die Aufnahme in die Studie sein mögen, sie sollten immer klar definiert und beschrieben werden. Beispielsweise sollte der genaue Code der Krankheit anhand der Internationalen Klassifikation der Krankheiten (ICD) und bei Krebs auch der Internationalen Klassifikation der Krankheiten – Onkologie (ICD-O) angegeben werden.

Sobald die Kriterien festgelegt sind, sollten Anstrengungen unternommen werden, um die Teilnahme an der Studie zu maximieren. Die Entscheidung, eine Teilnahme abzulehnen, wird kaum zufällig getroffen und führt daher zu Voreingenommenheit. Studien sollten zunächst den Klinikern vorgestellt werden, die die Patienten behandeln. Ihre Zustimmung ist erforderlich, um Patienten anzusprechen, und daher müssen sie davon überzeugt werden, die Studie zu unterstützen. Ein oft überzeugendes Argument ist, dass die Studie im Interesse der öffentlichen Gesundheit ist. In diesem Stadium ist es jedoch besser, die genaue zu bewertende Hypothese nicht zu diskutieren, um eine übermäßige Beeinflussung der beteiligten Kliniker zu vermeiden. Ärzte sollten nicht aufgefordert werden, Nebentätigkeiten zu übernehmen; Es ist einfacher, medizinisches Personal davon zu überzeugen, eine Studie zu unterstützen, wenn von den Prüfärzten Mittel bereitgestellt werden, um alle zusätzlichen Aufgaben durchzuführen, die über die Routineversorgung hinausgehen und durch die Studie erforderlich sind. Interviewer und Datenextraktoren sollten den Krankheitsstatus ihrer Patienten nicht kennen.

Ähnliche Aufmerksamkeit sollte den Informationen geschenkt werden, die den Teilnehmern zur Verfügung gestellt werden. Das Ziel der Studie muss breit und neutral beschrieben werden, aber auch überzeugend und überzeugend sein. Es ist wichtig, dass Fragen der Vertraulichkeit und von Interesse für die öffentliche Gesundheit vollständig verstanden werden, während medizinischer Fachjargon vermieden wird. In den meisten Situationen wird der Einsatz von finanziellen oder anderen Anreizen nicht als angemessen erachtet, obwohl eine Entschädigung für alle Kosten bereitgestellt werden sollte, die einem Teilnehmer möglicherweise entstehen. Nicht zuletzt sollte die allgemeine Bevölkerung über ausreichende wissenschaftliche Kenntnisse verfügen, um die Bedeutung solcher Forschung zu verstehen. Sowohl die Vorteile als auch die Risiken der Teilnahme müssen jedem potenziellen Teilnehmer erklärt werden, wenn er Fragebögen ausfüllen und/oder biologische Proben zur Aufbewahrung und/oder Analyse bereitstellen muss. Es sollte kein Zwang angewendet werden, um eine vorherige und vollständig informierte Zustimmung zu erhalten. Bei Studien, die ausschließlich auf Aufzeichnungen basieren, muss die vorherige Zustimmung der für die Wahrung der Vertraulichkeit dieser Aufzeichnungen zuständigen Stellen eingeholt werden. In diesen Fällen kann in der Regel auf die Zustimmung der einzelnen Teilnehmer verzichtet werden. Stattdessen reicht die Zustimmung von Gewerkschafts- und Regierungsbeamten aus. Epidemiologische Untersuchungen bedrohen nicht das Privatleben des Einzelnen, sondern sind ein potenzielles Hilfsmittel zur Verbesserung der Gesundheit der Bevölkerung. Vor der Durchführung einer Studie ist die Zustimmung eines institutionellen Prüfungsausschusses (oder Ethikprüfungsausschusses) erforderlich, und vieles von dem, was oben gesagt wurde, wird von ihm für seine Überprüfung erwartet.

Informationen

In prospektiven Folgestudien müssen die Mittel zur Beurteilung des Krankheits- oder Mortalitätsstatus für exponierte und nicht exponierte Teilnehmer identisch sein. Insbesondere sollte nicht auf unterschiedliche Quellen zurückgegriffen werden, wie z. B. nur die Abfrage in einem zentralen Mortalitätsregister für nicht exponierte Teilnehmer und die Nutzung einer intensiven aktiven Überwachung für exponierte Teilnehmer. Ebenso muss die Todesursache auf streng vergleichbare Weise ermittelt werden. Das bedeutet, wenn ein System verwendet wird, um Zugang zu offiziellen Dokumenten für die nicht exponierte Bevölkerung, die oft die allgemeine Bevölkerung ist, zu erhalten, sollte man niemals planen, noch genauere Informationen durch Krankenakten oder Interviews über die Teilnehmer selbst oder ihre Familien zu erhalten die exponierte Untergruppe.

In retrospektiven Kohortenstudien sollten Anstrengungen unternommen werden, um festzustellen, wie genau die untersuchte Population mit der interessierenden Population verglichen wird. Man sollte sich vor möglichen unterschiedlichen Verlusten in exponierten und nicht exponierten Gruppen hüten, indem man verschiedene Quellen zur Zusammensetzung der Bevölkerung verwendet. Beispielsweise kann es sinnvoll sein, Gehaltslisten mit Gewerkschaftsmitgliedslisten oder anderen Berufsverzeichnissen zu vergleichen. Diskrepanzen müssen ausgeglichen werden, und das für die Studie angenommene Protokoll muss genau befolgt werden.

In Fall-Kontroll-Studien gibt es andere Optionen, um Verzerrungen zu vermeiden. Interviewer, Studienpersonal und Studienteilnehmer müssen sich der genauen zu untersuchenden Hypothese nicht bewusst sein. Wenn sie die getestete Assoziation nicht kennen, ist es weniger wahrscheinlich, dass sie versuchen, die erwartete Antwort zu geben. Das Studienpersonal über die Forschungshypothese im Dunkeln zu lassen, ist tatsächlich oft sehr unpraktisch. Der Interviewer kennt fast immer die Expositionen mit dem größten potenziellen Interesse sowie wer ein Fall und wer eine Kontrolle ist. Wir müssen uns daher auf ihre Ehrlichkeit und auch auf ihre Ausbildung in Grundlagenforschungsmethodik verlassen, die Teil ihres beruflichen Hintergrunds sein sollte; Objektivität ist das Markenzeichen auf allen Stufen der Wissenschaft.

Es ist einfacher, die Studienteilnehmer nicht über den genauen Forschungsgegenstand zu informieren. Gute, grundlegende Erläuterungen zur Notwendigkeit der Erhebung von Daten für ein besseres Verständnis von Gesundheit und Krankheit sind in der Regel ausreichend und genügen den Anforderungen einer Ethikprüfung.

Verwirrend

Confounding ist die einzige Verzerrung, die entweder in der Phase des Studiendesigns oder, sofern angemessene Informationen verfügbar sind, in der Analysephase behandelt werden kann. Wenn zum Beispiel das Alter als potenzieller Confounder der interessierenden Assoziation angesehen wird, weil das Alter mit dem Krankheitsrisiko (d. h. Krebs wird im höheren Alter häufiger) und auch mit der Exposition (Expositionsbedingungen variieren mit dem Alter oder mit altersbedingten Faktoren wie Qualifikation, berufliche Position und Beschäftigungsdauer) gibt es mehrere Lösungsansätze. Am einfachsten ist es, die Studie auf einen bestimmten Altersbereich zu begrenzen – nehmen Sie beispielsweise nur kaukasische Männer im Alter von 40 bis 50 Jahren auf. Dies liefert Elemente für eine einfache Analyse, hat aber auch den Nachteil, dass die Anwendung der Ergebnisse auf einen einzelnen beschränkt wird Geschlecht Alter/Rassengruppe. Eine andere Lösung ist das Matching nach Alter. Das bedeutet, dass für jeden Fall ein gleichaltriger Referent benötigt wird. Dies ist eine attraktive Idee, aber man muss die mögliche Schwierigkeit berücksichtigen, diese Anforderung zu erfüllen, wenn die Anzahl der passenden Faktoren zunimmt. Darüber hinaus wird es nach der Zuordnung eines Faktors unmöglich, seine Rolle beim Auftreten von Krankheiten zu bewerten. Die letzte Lösung besteht darin, genügend Informationen über potenzielle Confounder in der Studiendatenbank zu haben, um sie in der Analyse zu überprüfen. Dies kann entweder durch eine einfache stratifizierte Analyse oder mit ausgefeilteren Tools wie der multivariaten Analyse erfolgen. Es sollte jedoch daran erinnert werden, dass eine Analyse niemals in der Lage sein wird, eine schlecht konzipierte oder durchgeführte Studie zu kompensieren.

Fazit

Das Potenzial für Verzerrungen in der epidemiologischen Forschung ist seit langem bekannt. Dies war kein allzu großes Problem, wenn die untersuchten Assoziationen stark waren (wie dies bei Rauchen und Lungenkrebs der Fall ist) und daher einige Ungenauigkeiten kein allzu schwerwiegendes Problem verursachten. Jetzt, da es an der Zeit ist, schwächere Risikofaktoren zu bewerten, wird der Bedarf an besseren Instrumenten von größter Bedeutung. Dazu gehört die Notwendigkeit exzellenter Studiendesigns und die Möglichkeit, die Vorteile verschiedener traditioneller Designs wie Fall-Kontroll- oder Kohortenstudien mit innovativeren Ansätzen wie in einer Kohorte verschachtelten Fall-Kontroll-Studien zu kombinieren. Außerdem kann die Verwendung von Biomarkern die Möglichkeit bieten, genauere Einschätzungen aktueller und möglicherweise früherer Expositionen sowie für die frühen Krankheitsstadien zu erhalten.

 

Zurück

Dienstag, 01 März 2011 02: 20

Einfluss zufälliger Messfehler

Fehler bei der Expositionsmessung können je nach Verteilung der Fehler unterschiedliche Auswirkungen auf die untersuchte Expositions-Krankheits-Beziehung haben. Wenn eine epidemiologische Studie blind durchgeführt wurde (dh Messungen wurden ohne Kenntnis des Krankheits- oder Gesundheitszustands der Studienteilnehmer durchgeführt), erwarten wir, dass der Messfehler gleichmäßig über die Schichten des Krankheits- oder Gesundheitszustands verteilt wird.

Tabelle 1 zeigt ein Beispiel: Angenommen, wir rekrutieren eine Kohorte von Personen, die bei der Arbeit einem Giftstoff ausgesetzt sind, um eine häufige Krankheit zu untersuchen. Den Expositionsstatus ermitteln wir erst bei der Rekrutierung (T0) und nicht zu weiteren Zeitpunkten der Nachbeobachtung. Nehmen wir jedoch an, dass eine Reihe von Personen tatsächlich ihren Expositionsstatus im folgenden Jahr ändern: Zum Zeitpunkt T1, sind 250 der ursprünglich 1,200 exponierten Personen nicht mehr exponiert, während 150 der ursprünglich 750 nicht exponierten Personen begonnen haben, dem Giftstoff ausgesetzt zu sein. Also zum Zeitpunkt T1, 1,100 Personen sind exponiert und 850 nicht exponiert. Infolgedessen haben wir eine „Fehlklassifizierung“ der Exposition basierend auf unserer anfänglichen Messung des Expositionsstatus zum Zeitpunkt T0. Diese Personen werden dann nach 20 Jahren (zum Zeitpunkt T2) und das kumulative Krankheitsrisiko bewertet. (Im Beispiel wird davon ausgegangen, dass nur eine Exposition von mehr als einem Jahr Anlass zur Sorge gibt.)


Tabelle 1. Hypothetische Kohorte von 1950 Personen (exponiert und nicht exponiert bei der Arbeit), rekrutiert zum Zeitpunkt T0 und dessen Krankheitsstatus zum Zeitpunkt T festgestellt wird2

Uhrzeit

 

T0

T1

T2

Exponierte Arbeiter 1200 250 Beenden der Exposition 1100 (1200-250+150)

Krankheitsfälle zum Zeitpunkt T2 = 220 unter exponierten Arbeitern

Nicht exponierte Arbeiter 750 150 Beginn der Exposition 850 (750-150+250)

Krankheitsfälle zum Zeitpunkt T2 = 85 bei nicht exponierten Arbeitern

Der wahres Risiko der Krankheit zum Zeitpunkt T2 beträgt 20 % bei exponierten Arbeitnehmern (220/1100),
und 10 % bei nicht exponierten Arbeitnehmern (85/850) (Risikoverhältnis = 2.0).

Geschätztes Risiko bei T2 der Krankheit unter denen, die als T. exponiert eingestuft wurden0: 20 %
(dh wahres Risiko bei den Exponierten) ´ 950 (dh 1200-250) + 10 %
(dh wahres Risiko bei Nichtexposition) ´ 250 = (190+25)/1200 = 17.9 %

Geschätztes Risiko bei T2 der Krankheit unter denen, die als nicht exponiert eingestuft sind
T0: 20 % (dh wahres Risiko bei den Exponierten) × 150 +10 %
(d. h. wahres Risiko ohne Exposition) × 600 (d. h. 750-150) = (30+60)/750 = 12 %

Geschätztes Risikoverhältnis = 17.9 % / 12 % = 1.49


Die Fehlklassifizierung hängt in diesem Beispiel eher vom Studiendesign und den Merkmalen der Bevölkerung ab als von technischen Beschränkungen der Expositionsmessung. Die Fehlklassifizierung bewirkt, dass das „wahre“ Verhältnis von 2.0 zwischen dem kumulativen Risiko bei exponierten Personen und nicht exponierten Personen zu einem „beobachteten“ Verhältnis von 1.49 wird (Tabelle 1). Diese Unterschätzung des Risikoverhältnisses ergibt sich aus einer „Verwischung“ der Beziehung zwischen Exposition und Krankheit, die auftritt, wenn die Fehlklassifizierung der Exposition, wie in diesem Fall, gleichmäßig nach Krankheit oder Gesundheitszustand verteilt wird (d. h. die Expositionsmessung ist nicht davon beeinflusst, ob die Person an der von uns untersuchten Krankheit litt oder nicht).

Im Gegensatz dazu kann es entweder zu einer Unter- oder Überschätzung des Zusammenhangs von Interesse kommen, wenn die Fehlklassifizierung der Exposition nicht gleichmäßig über das Ergebnis von Interesse verteilt ist. In dem Beispiel haben wir vielleicht vorspannen, und nicht nur eine Verwischung des ätiologischen Zusammenhangs, wenn die Einstufung der Exposition von der Krankheit oder dem Gesundheitszustand der Arbeitnehmer abhängt. Dies könnte beispielsweise eintreten, wenn wir beschließen, biologische Proben von einer Gruppe exponierter Arbeiter und von einer Gruppe nicht exponierter Arbeiter zu sammeln, um frühzeitige Veränderungen im Zusammenhang mit der Exposition bei der Arbeit zu erkennen. Proben von exponierten Arbeitern könnten dann genauer analysiert werden als Proben von nicht exponierten; wissenschaftliche Neugier könnte den Forscher dazu veranlassen, zusätzliche Biomarker bei den exponierten Personen zu messen (einschließlich z. B. DNA-Addukte in Lymphozyten oder Urinmarker für oxidative DNA-Schäden), in der Annahme, dass diese Personen wissenschaftlich „interessanter“ sind. Dies ist eine weit verbreitete Einstellung, die jedoch zu ernsthaften Vorurteilen führen kann.

 

Zurück

Mittwoch, März 02 2011 03: 15

Statistische Methoden

Über die Rolle der Statistik in der epidemiologischen Forschung zu kausalen Zusammenhängen wird viel diskutiert. In der Epidemiologie ist Statistik in erster Linie eine Sammlung von Methoden zur Bewertung von Daten auf der Grundlage von menschlichen (und auch tierischen) Populationen. Statistik ist insbesondere eine Technik zur Quantifizierung und Messung unsicherer Phänomene. Alle wissenschaftlichen Untersuchungen, die sich mit nichtdeterministischen, variablen Aspekten der Realität befassen, könnten von der statistischen Methodik profitieren. In der Epidemiologie ist Variabilität der Beobachtungseinheit inhärent – ​​eine Person ist keine deterministische Einheit. Während experimentelle Designs dahingehend verbessert werden würden, dass sie die Annahmen der Statistik in Bezug auf zufällige Variationen besser erfüllen, ist dieser Ansatz aus ethischen und praktischen Gründen nicht allzu verbreitet. Stattdessen beschäftigt sich die Epidemiologie mit Beobachtungsforschung, die sowohl zufällige als auch andere Quellen der Variabilität mit sich bringt.

Die statistische Theorie befasst sich damit, wie unstrukturierte Variabilität in den Daten kontrolliert werden kann, um gültige Schlussfolgerungen aus empirischen Beobachtungen zu ziehen. In Ermangelung einer Erklärung für das variable Verhalten des untersuchten Phänomens nimmt die Statistik dies an zufällig– das heißt, nicht-systematische Abweichungen von einem durchschnittlichen Naturzustand (siehe Greenland 1990 für eine Kritik dieser Annahmen).

Wissenschaft stützt sich auf Empirie Beweis um zu zeigen, ob seine theoretischen Modelle von Naturereignissen Gültigkeit haben. Tatsächlich bestimmen die Methoden der statistischen Theorie, inwieweit Beobachtungen in der realen Welt mit der Sicht der Wissenschaftler auf ein Phänomen in mathematischer Modellform übereinstimmen. Statistische Methoden, die auf Mathematik basieren, müssen daher sorgfältig ausgewählt werden; Es gibt viele Beispiele zum Thema „Wie man mit Statistiken lügt“. Epidemiologen sollten sich daher der Angemessenheit der Techniken bewusst sein, die sie anwenden, um das Krankheitsrisiko zu messen. Insbesondere bei der Interpretation sowohl statistisch signifikanter als auch statistisch nicht signifikanter Ergebnisse ist große Sorgfalt geboten.

Die erste Bedeutung des Wortes Statistiken bezieht sich auf eine beliebige zusammenfassende Größe, die anhand einer Reihe von Werten berechnet wird. Beschreibende Indizes oder Statistiken wie der arithmetische Durchschnitt, der Median oder der Modus werden häufig verwendet, um die Informationen in einer Reihe von Beobachtungen zusammenzufassen. In der Vergangenheit wurden diese zusammenfassenden Deskriptoren von Staaten für Verwaltungszwecke verwendet und daher benannt Statistiken. In der Epidemiologie leiten sich häufig verwendete Statistiken aus Vergleichen ab, die der Natur der Epidemiologie innewohnen, die Fragen stellt wie: „Ist eine Bevölkerung einem größeren Krankheitsrisiko ausgesetzt als eine andere?“ Bei solchen Vergleichen ist das relative Risiko ein beliebtes Maß für die Stärke des Zusammenhangs zwischen einem individuellen Merkmal und der Wahrscheinlichkeit zu erkranken und wird am häufigsten in der ätiologischen Forschung verwendet; Das zurechenbare Risiko ist auch ein Maß für den Zusammenhang zwischen individuellen Merkmalen und dem Auftreten von Krankheiten, betont jedoch den Gewinn in Bezug auf die Anzahl der Fälle, die durch eine Intervention erspart bleiben, die den betreffenden Faktor beseitigt – es wird hauptsächlich in der öffentlichen Gesundheit und Präventivmedizin angewendet.

Die zweite Bedeutung des Wortes Statistiken bezieht sich auf die Sammlung von Techniken und die zugrunde liegende Theorie der statistischen Inferenz. Dies ist eine besondere Form der induktiven Logik, die die Regeln für das Erhalten einer gültigen Verallgemeinerung aus einem bestimmten Satz empirischer Beobachtungen spezifiziert. Diese Verallgemeinerung wäre gültig, sofern einige Annahmen erfüllt sind. Dies ist die zweite Art und Weise, wie uns ein ungebildeter Gebrauch von Statistiken täuschen kann: In der Beobachtungsepidemiologie ist es sehr schwierig, sich der Annahmen sicher zu sein, die von statistischen Techniken impliziert werden. Daher sollten Sensitivitätsanalysen und robuste Schätzer Begleiter jeder korrekt durchgeführten Datenanalyse sein. Abschließende Schlussfolgerungen sollten auch auf dem Gesamtwissen beruhen und sich nicht ausschließlich auf die Ergebnisse statistischer Hypothesentests stützen.

Definitionen

A statistische Einheit ist das Element, an dem die empirischen Beobachtungen gemacht werden. Das kann eine Person, eine biologische Probe oder ein zu analysierendes Stück Rohmaterial sein. Normalerweise werden die statistischen Einheiten vom Forscher unabhängig ausgewählt, aber manchmal können komplexere Designs erstellt werden. Beispielsweise werden in Längsschnittstudien eine Reihe von Bestimmungen über eine Sammlung von Personen im Laufe der Zeit vorgenommen; Die statistischen Einheiten in dieser Studie sind die Menge von Bestimmungen, die nicht unabhängig sind, sondern durch ihre jeweiligen Verbindungen zu jeder untersuchten Person strukturiert sind. Der Mangel an Unabhängigkeit oder Korrelation zwischen statistischen Einheiten verdient besondere Aufmerksamkeit bei der statistischen Analyse.

A Variable ist ein einzelnes Merkmal, das an einer bestimmten statistischen Einheit gemessen wird. Es sollte mit a kontrastiert werden konstante, ein festes individuelles Merkmal – zum Beispiel sind in einer Studie über Menschen Kopf oder Brust eine Konstante, während das Geschlecht eines einzelnen Studienteilnehmers eine Variable ist.

Variablen werden mit verschiedenen ausgewertet Messskalen. Die erste Unterscheidung ist zwischen qualitativen und quantitativen Skalen. Qualitative Variablen bieten unterschiedliche Modalitäten or Kategorien. Wenn jede Modalität nicht in Relation zu anderen eingestuft oder geordnet werden kann – zum Beispiel Haarfarbe oder Geschlechtsmodalitäten – bezeichnen wir die Variable als nominal. Wenn die Kategorien geordnet werden können – wie der Schweregrad einer Krankheit – wird die Variable aufgerufen Ordinal-. Wenn eine Variable aus einem numerischen Wert besteht, sagen wir, dass die Skala quantitativ ist. EIN diskret Skala bedeutet, dass die Variable nur einige bestimmte Werte annehmen kann – zum Beispiel ganzzahlige Werte für die Anzahl der Krankheitsfälle. EIN kontinuierlich Skala wird für diejenigen Maßnahmen verwendet, die zu führen echt Zahlen. Kontinuierliche Skalen sollen sein Intervall skaliert, wenn der Nullwert eine rein konventionelle Bedeutung hat. Das heißt, ein Wert von null bedeutet nicht null Menge – zum Beispiel bedeutet eine Temperatur von null Grad Celsius nicht null thermische Energie. In diesem Fall machen nur Unterschiede zwischen den Werten Sinn (deshalb der Begriff „Intervall“-Skala). Ein reeller Nullwert bezeichnet a Verhältnis Skala. Bei einer auf dieser Skala gemessenen Größe sind auch Werteverhältnisse sinnvoll: Ein zweifaches Verhältnis bedeutet nämlich doppelte Menge. Wenn man beispielsweise sagt, dass ein Körper eine doppelt so hohe Temperatur hat wie ein zweiter Körper, bedeutet dies, dass er die doppelte Wärmeenergie des zweiten Körpers hat. unter der Vorraussetzung, dass die Temperatur wird auf einer Verhältnisskala (z. B. in Kelvin Grad) gemessen. Die Menge der zulässigen Werte für eine gegebene Variable wird als Definitionsbereich der Variablen bezeichnet.

Statistische Paradigmen

Statistik befasst sich mit der Art und Weise, aus einer Reihe bestimmter Beobachtungen zu verallgemeinern. Dieser Satz empirischer Messungen wird als a bezeichnet Sample. Aus einer Stichprobe berechnen wir einige deskriptive Statistiken, um die gesammelten Informationen zusammenzufassen.

Die grundlegenden Informationen, die im Allgemeinen zur Charakterisierung eines Maßnahmenpakets erforderlich sind, beziehen sich auf seine zentrale Tendenz und seine Variabilität. Die Wahl zwischen mehreren Alternativen hängt von der Skala ab, die zur Messung eines Phänomens verwendet wird, und von den Zwecken, für die die Statistiken berechnet werden. In Tabelle 1 werden verschiedene Maße der zentralen Tendenz und Variabilität (oder Streuung) beschrieben und der entsprechenden Messskala zugeordnet.

Tabelle 1. Indizes der zentralen Tendenz und Streuung nach Messskala

 

Messskala

 

Qualitativ

 

Quantitativ

Indizes

Definition

Nominal

Ordinal

Intervall/Verhältnis

Arithmetisches Mittel

Summe der beobachteten Werte dividiert durch die Gesamtzahl der Beobachtungen

 

x

Median

Mittelpunktwert der beobachteten Verteilung

 

x

x

Model

Häufigster Wert

x

x

x

Abdeckung

Niedrigster und höchster Wert der Verteilung

 

x

x

Unterschied

Summe der quadrierten Differenz jedes Werts vom Mittelwert dividiert durch die Gesamtzahl der Beobachtungen minus 1

 

 

x

 

Die berechnete deskriptive Statistik wird aufgerufen Schätzungen wenn wir sie als Ersatz für die analoge Menge der Population verwenden, aus der die Stichprobe ausgewählt wurde. Die Populationsgegenstücke der Schätzungen werden als Konstanten bezeichnet Parameter. Schätzungen desselben Parameters können mit unterschiedlichen statistischen Methoden erhalten werden. Eine Schätzung sollte sowohl valide als auch präzise sein.

Das Populations-Stichproben-Paradigma impliziert, dass die Validität durch die Art und Weise sichergestellt werden kann, wie die Stichprobe aus der Grundgesamtheit ausgewählt wird. Zufällige oder probabilistische Stichproben sind die übliche Strategie: Wenn jedes Mitglied der Bevölkerung die gleiche Wahrscheinlichkeit hat, in die Stichprobe aufgenommen zu werden, dann sollte unsere Stichprobe im Durchschnitt repräsentativ für die Bevölkerung sein und darüber hinaus könnte jede Abweichung von unserer Erwartung sein zufällig erklärt. Die Wahrscheinlichkeit einer gegebenen Abweichung von unserer Erwartung kann ebenfalls berechnet werden, sofern eine Stichprobe durchgeführt wurde. Die gleiche Argumentation gilt für die für unsere Stichprobe berechneten Schätzungen in Bezug auf die Parameter der Grundgesamtheit. Als Schätzwert für den Mittelwert der Grundgesamtheit nehmen wir beispielsweise das arithmetische Mittel aus unserer Stichprobe. Etwaige Unterschiede zwischen dem Durchschnitt der Stichprobe und dem Mittelwert der Grundgesamtheit werden zufälligen Schwankungen bei der Auswahl der in die Stichprobe aufgenommenen Mitglieder zugeschrieben. Wir können die Wahrscheinlichkeit für jeden Wert dieser Differenz berechnen, vorausgesetzt, die Stichprobe wurde zufällig ausgewählt. Wenn die Abweichung zwischen Stichprobenschätzung und Grundgesamtheitsparameter nicht zufällig erklärt werden kann, spricht man von einer Schätzung voreingenommen. Das Design der Beobachtung oder des Experiments verleiht den Schätzungen Gültigkeit, und das grundlegende statistische Paradigma ist das der Zufallsstichprobe.

In der Medizin wird ein zweites Paradigma angenommen, wenn ein Vergleich zwischen verschiedenen Gruppen das Ziel der Studie ist. Ein typisches Beispiel ist die kontrollierte klinische Studie: Anhand vordefinierter Kriterien wird eine Gruppe von Patienten mit ähnlichen Merkmalen ausgewählt. In diesem Stadium wird keine Repräsentativität berücksichtigt. Jeder in die Studie aufgenommene Patient wird durch ein Zufallsverfahren der Behandlungsgruppe zugeteilt, die die Standardtherapie plus das neue zu bewertende Medikament erhält, oder der Kontrollgruppe, die die Standardtherapie und ein Placebo erhält. In diesem Design ersetzt die zufällige Zuordnung der Patienten zu jeder Gruppe die zufällige Auswahl der Mitglieder der Stichprobe. Die Schätzung des Unterschieds zwischen den beiden Gruppen kann statistisch bewertet werden, da wir unter der Hypothese der fehlenden Wirksamkeit des neuen Medikaments die Wahrscheinlichkeit eines Unterschieds ungleich Null berechnen können.

In der Epidemiologie fehlt uns die Möglichkeit, zufällig exponierte und nicht exponierte Personengruppen zusammenzustellen. In diesem Fall können wir immer noch statistische Methoden verwenden, als ob die analysierten Gruppen zufällig ausgewählt oder zugewiesen worden wären. Die Richtigkeit dieser Annahme hängt hauptsächlich vom Studiendesign ab. Dieser Punkt ist besonders wichtig und unterstreicht die Bedeutung des epidemiologischen Studiendesigns gegenüber statistischen Techniken in der biomedizinischen Forschung.

Signal und Rauschen

Die zufällige Variable bezeichnet eine Variable, für die jedem Wert, den sie annehmen kann, eine definierte Wahrscheinlichkeit zugeordnet ist. Die theoretischen Modelle für die Verteilung der Wahrscheinlichkeit einer Zufallsvariablen sind Populationsmodelle. Die Stichprobengegenstücke werden durch die Stichprobenhäufigkeitsverteilung dargestellt. Dies ist eine nützliche Methode, um einen Datensatz zu melden. es besteht aus einer kartesischen Ebene mit der interessierenden Variablen entlang der horizontalen Achse und der Frequenz oder relativen Häufigkeit entlang der vertikalen Achse. Eine grafische Darstellung ermöglicht es uns, leicht zu sehen, was die häufigsten Werte sind und wie sich die Verteilung um bestimmte zentrale Werte wie den arithmetischen Durchschnitt konzentriert.

Für die Zufallsvariablen und ihre Wahrscheinlichkeitsverteilungen verwenden wir die Terme Parameter, mittlerer Erwartungswert (anstelle des arithmetischen Mittels) und Unterschied. Diese theoretischen Modelle beschreiben die Variabilität eines gegebenen Phänomens. In der Informationstheorie wird das Signal durch die zentrale Tendenz (z. B. den Mittelwert) dargestellt, während das Rauschen durch einen Streuungsindex (z. B. die Varianz) gemessen wird.

Zur Veranschaulichung der statistischen Inferenz verwenden wir das Binomialmodell. In den folgenden Abschnitten werden die Konzepte von Punktschätzungen und Konfidenzintervallen, Hypothesentests und Wahrscheinlichkeit von Fehlentscheidungen sowie Aussagekraft einer Studie eingeführt.

Tabelle 2. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)

Arbeitnehmer

Wahrscheinlichkeit

A

B

C

 

0

0

0

1

0

0

0

1

0

0

0

1

0

1

1

1

0

1

1

1

0

1

1

1

 

Ein Beispiel: Die Binomialverteilung

In der biomedizinischen Forschung und Epidemiologie ist das wichtigste Modell der stochastischen Variation die Binomialverteilung. Es stützt sich auf die Tatsache, dass sich die meisten Phänomene wie eine nominelle Variable mit nur zwei Kategorien verhalten: zum Beispiel das Vorhandensein/Nichtvorhandensein einer Krankheit: lebendig/tot oder genesen/krank. Unter solchen Umständen sind wir an der Erfolgswahrscheinlichkeit interessiert – dh im Fall von Interesse (z. B. Vorliegen einer Krankheit, am Leben oder Genesung) – und an den Faktoren oder Variablen, die sie verändern können. Lass uns in Erwägung ziehen n = 3 Arbeiter, und nehmen wir an, dass wir an der Wahrscheinlichkeit p interessiert sind, eine Sehbehinderung zu haben (ja/nein). Das Ergebnis unserer Beobachtung könnten die möglichen Ergebnisse in Tabelle 2 sein.

Tabelle 3. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)

Anzahl der Erfolge

Wahrscheinlichkeit

0

1

2

3

 

Die Wahrscheinlichkeit jeder dieser Ereigniskombinationen lässt sich leicht ermitteln, indem man p berücksichtigt, die (individuelle) Erfolgswahrscheinlichkeit, die für jede Versuchsperson konstant und unabhängig von anderen Ergebnissen ist. Da wir an der Gesamtzahl der Erfolge interessiert sind und nicht an einer bestimmten Reihenfolge, können wir die Tabelle wie folgt umordnen (siehe Tabelle 3) und allgemein die Wahrscheinlichkeit von ausdrücken x Erfolge P (x) als:

woher x ist die Anzahl der Erfolge und die Notation x! bezeichnet die Fakultät von xDh x! = x×(x–1)×(x–2)…×1.

Betrachtet man das Ereignis „krank sein/nicht sein“, so wird die individuelle Wahrscheinlichkeit, bezieht sich auf den Zustand, in dem das Subjekt vermutet wird; in der Epidemiologie wird diese Wahrscheinlichkeit „Prävalenz“ genannt. Um p zu schätzen, verwenden wir den Stichprobenanteil:

p = x/n

mit Varianz:

In einer hypothetischen unendlichen Reihe von replizierten Stichproben derselben Größe n, würden wir unterschiedliche Stichprobenanteile erhalten p = x/n, mit Wahrscheinlichkeiten, die durch die Binomialformel gegeben sind. Der „wahre“ Wert von  wird durch jeden Stichprobenanteil geschätzt, und ein Konfidenzintervall für p, d. h. der Satz wahrscheinlicher Werte für p, bei gegebenen beobachteten Daten und einem vordefinierten Konfidenzniveau (z. B. 95 %), wird aus der Binomialverteilung als geschätzt die Menge von Werten für p, die eine Wahrscheinlichkeit von ergibt x größer als ein vorgegebener Wert (z. B. 2.5 %). Für ein hypothetisches Experiment, bei dem wir beobachteten x = 15 Erfolge in n = 30 Versuche, die geschätzte Erfolgswahrscheinlichkeit beträgt:

p = x/n = 15/30 = 0.5 

Tabelle 4. Binomialverteilung. Wahrscheinlichkeiten für verschiedene Werte von  für x = 15 Erfolge in n = 30 Versuchen

Wahrscheinlichkeit

0.200

0.0002

0.300

0.0116

0.334

0.025

0.400

0.078

0.500

0.144

0.600

0.078

0.666

0.025

0.700

0.0116

 

Das 95 %-Konfidenzintervall für p, erhalten aus Tabelle 4, beträgt 0.334 – 0.666. Jeder Eintrag der Tabelle zeigt die Wahrscheinlichkeit von x = 15 Erfolge in n = 30 Versuche berechnet mit der Binomialformel; zum Beispiel für = 0.30 erhalten wir aus:

Aussichten für n groß und p nahe 0.5 können wir eine Näherung basierend auf der Gaußschen Verteilung verwenden:

woher za /2 bezeichnet den Wert der Standard-Gauß-Verteilung für eine Wahrscheinlichkeit

P (|z| ³ za /2) = a/2;

1 – a ist das gewählte Konfidenzniveau. Für das betrachtete Beispiel = 15/30 = 0.5; n = 30 und aus der standardmäßigen Gaußschen Tabelle z0.025 = 1.96. Das 95 %-Konfidenzintervall ergibt den Wertesatz 0.321 – 0.679, den man durch Einsetzen erhält p = 0.5, n = 30 und z0.025 = 1.96 in die obige Gleichung für die Gaußsche Verteilung. Beachten Sie, dass diese Werte nahe an den zuvor berechneten exakten Werten liegen.

Statistische Hypothesentests umfassen ein Entscheidungsverfahren über den Wert eines Populationsparameters. Nehmen wir im vorherigen Beispiel an, dass wir uns mit der Behauptung befassen möchten, dass es ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage gibt. Die wissenschaftliche Hypothese, die durch unsere empirischen Beobachtungen überprüft werden soll, lautet dann: „Es besteht ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage“. Statistiker demonstrieren solche Hypothesen, indem sie die komplementäre Hypothese „es gibt keine Erhöhung des Risikos einer Sehbehinderung“ falsifizieren. Dies folgt der mathematischen Demonstration per Absurdum und anstatt eine Behauptung zu verifizieren, werden empirische Beweise nur verwendet, um sie zu falsifizieren. Die statistische Hypothese heißt Nullhypothese. Der zweite Schritt besteht darin, einen Wert für den Parameter dieser Wahrscheinlichkeitsverteilung anzugeben, die verwendet wird, um die Variabilität in den Beobachtungen zu modellieren. Da das Phänomen binär ist (dh Vorhandensein/Fehlen einer Sehbehinderung), wählen wir in unseren Beispielen die Binomialverteilung mit dem Parameter p, der Wahrscheinlichkeit einer Sehbehinderung. Die Nullhypothese behauptet das = 0.25, sagen wir. Dieser Wert wird aus der Sammlung von Wissen über das Thema und a-priori-Wissen über die übliche Prävalenz von Sehbehinderungen in nicht exponierten (dh Nicht-Arbeiter-) Bevölkerungsgruppen ausgewählt. Angenommen, unsere Daten ergaben eine Schätzung = 0.50, von den 30 untersuchten Arbeitern.

Können wir die Nullhypothese ablehnen?

Wenn ja, wofür Alternative Hypothese?

Wir spezifizieren eine Alternativhypothese als Kandidaten, falls die Beweise diktieren, dass die Nullhypothese abgelehnt wird. Ungerichtete (zweiseitige) Alternativhypothesen besagen, dass sich der Populationsparameter von dem in der Nullhypothese angegebenen Wert unterscheidet; gerichtete (einseitige) Alternativhypothesen besagen, dass der Populationsparameter größer (oder kleiner) als der Nullwert ist.

Tabelle 5. Binomialverteilung. Erfolgswahrscheinlichkeiten für  = 0.25 in n = 30 Versuchen

X

Wahrscheinlichkeit

Kumulative Wahrscheinlichkeit

0

0.0002

0.0002

1

0.0018

0.0020

2

0.0086

0.0106

3

0.0269

0.0374

4

0.0604

0.0979

5

0.1047

0.2026

6

0.1455

0.3481

7

0.1662

0.5143

8

0.1593

0.6736

9

0.1298

0.8034

10

0.0909

0.8943

11

0.0551

0.9493

12

0.0291

0.9784

13

0.0134

0.9918

14

0.0054

0.9973

15

0.0019

0.9992

16

0.0006

0.9998

17

0.0002

1.0000

.

.

.

30

0.0000

1.0000

 

Unter der Nullhypothese können wir die Wahrscheinlichkeitsverteilung der Ergebnisse unseres Beispiels berechnen. Tabelle 5 zeigt z = 0.25 und n = 30, die Wahrscheinlichkeiten (siehe Gleichung (1)) und die kumulativen Wahrscheinlichkeiten:

Aus dieser Tabelle erhalten wir die Wahrscheinlichkeit zu haben x ³15 Arbeitnehmer mit Sehbehinderung

P(x ³15) = 1 - P(x15) = 1 - 0.9992 0.0008 =

Dies bedeutet, dass es höchst unwahrscheinlich ist, dass wir 15 oder mehr Arbeitnehmer mit Sehbehinderung beobachten würden, wenn sie die Prävalenz der Krankheit der nicht exponierten Bevölkerungsgruppen erfahren würden. Daher könnten wir die Nullhypothese zurückweisen und bestätigen, dass es eine höhere Prävalenz von Sehbehinderungen in der untersuchten Population von Arbeitnehmern gibt.

Wann n×p ³ 5 und n×(1-) ³ 5 können wir die Gaußsche Näherung verwenden:

Aus der Tabelle der Standard-Gauß-Verteilung erhalten wir:

P(|z|>2.95) = 0.0008

in enger Übereinstimmung mit den genauen Ergebnissen. Aus dieser Näherung können wir erkennen, dass die Grundstruktur eines statistischen Hypothesentests aus dem Verhältnis von Signal zu Rauschen besteht. In unserem Fall ist das Signal (p-), die beobachtete Abweichung von der Nullhypothese, während das Rauschen die Standardabweichung von ist P:

Je größer das Verhältnis, desto geringer die Wahrscheinlichkeit des Nullwerts.

Beim Treffen von Entscheidungen über statistische Hypothesen können zwei Arten von Fehlern auftreten: ein Fehler erster Art, die Ablehnung der Nullhypothese, wenn sie wahr ist; oder ein Typ-II-Fehler, Annahme der Nullhypothese, wenn sie falsch ist. Das Wahrscheinlichkeitsniveau bzw p-Wert, ist die Wahrscheinlichkeit eines Fehlers erster Art, der mit dem griechischen Buchstaben a bezeichnet wird. Diese errechnet sich aus der Wahrscheinlichkeitsverteilung der Beobachtungen unter der Nullhypothese. Es ist üblich, ein a-Fehlerniveau (z. B. 5 %, 1 %) vorzugeben und die Nullhypothese abzulehnen, wenn das Ergebnis unserer Beobachtung eine Wahrscheinlichkeit hat, die gleich oder kleiner als dieses sogenannte kritische Niveau ist.

Die Wahrscheinlichkeit eines Fehlers XNUMX. Art wird mit dem griechischen Buchstaben β bezeichnet. Um ihn zu berechnen, müssen wir in der Alternativhypothese den α-Wert für den zu testenden Parameter angeben (in unserem Beispiel den α-Wert für ). Generische Alternativhypothesen (anders als, größer als, kleiner als) sind nicht sinnvoll. In der Praxis interessiert der β-Wert für eine Reihe von Alternativhypothesen oder deren Ergänzung, die als statistische Aussagekraft des Tests bezeichnet wird. Wenn wir beispielsweise den α-Fehlerwert auf 5 % festlegen, finden wir aus Tabelle 5:

P(x ³12) <0.05

unter der Nullhypothese = 0.25. Wenn wir es zumindest beobachten würden x = 12 Erfolge, würden wir die Nullhypothese verwerfen. Die entsprechenden β-Werte und die Potenz für x = 12 sind in Tabelle 6 angegeben. 

Tabelle 6. Fehler 12. Art und Trennschärfe für x = 30, n = 0.05, α = XNUMX

β

Power

0.30

0.9155

0.0845

0.35

0.7802

0.2198

0.40

0.5785

0.4215

0.45

0.3592

0.6408

0.50

0.1808

0.8192

0.55

0.0714

0.9286

 

In diesem Fall können unsere Daten nicht unterscheiden, ob größer als der Nullwert von 0.25, aber kleiner als 0.50 ist, weil die Aussagekraft der Studie für diese Werte zu gering ist (< 80 %). <0.50 – das heißt, die Sensitivität unserer Studie beträgt 8 % für = 0.3, 22 % für = 0.35,…, 64% für = 0.45.

Die einzige Möglichkeit, ein niedrigeres β oder ein höheres Power-Niveau zu erreichen, wäre die Vergrößerung der Studie. In Tabelle 7 geben wir beispielsweise β und die Leistung für an n = 40; Wie erwartet sollten wir in der Lage sein, a zu erkennen  Wert größer als 0.40. 

Tabelle 7. Fehler 12. Art und Trennschärfe für x = 40, n = 0.05, α = XNUMX

β

Power

0.30

0.5772

0.4228

0.35

0.3143

0.6857

0.40

0.1285

0.8715

0.45

0.0386

0.8614

0.50

0.0083

0.9917

0.55

0.0012

0.9988

 

Das Studiendesign basiert auf einer sorgfältigen Prüfung des Satzes alternativer Hypothesen, die eine Berücksichtigung verdienen und der Studie eine ausreichende Stichprobengröße garantieren.

In der epidemiologischen Literatur wurde die Bedeutung zuverlässiger Risikoschätzungen betont. Daher ist es wichtiger, Konfidenzintervalle (entweder 95 % oder 90 %) anzugeben, als a p-Wert eines Tests einer Hypothese. Der gleichen Argumentation folgend sollte der Interpretation von Ergebnissen aus kleinen Studien Beachtung geschenkt werden: Aufgrund der geringen Aussagekraft könnten selbst Zwischeneffekte unentdeckt bleiben und andererseits Effekte von großem Ausmaß später nicht repliziert werden.

Erweiterte Methoden

Der Komplexitätsgrad der statistischen Methoden im arbeitsmedizinischen Kontext hat in den letzten Jahren zugenommen. Wichtige Entwicklungen sind im Bereich der statistischen Modellierung zu finden. Die Nelder- und Wedderburn-Familie von nicht-Gaußschen Modellen (verallgemeinerte lineare Modelle) war einer der bemerkenswertesten Beiträge zum Wissenszuwachs in Bereichen wie Berufsepidemiologie, wo die relevanten Antwortvariablen binär sind (z. B. Überleben/Tod) oder zählt (z. B. Anzahl der Arbeitsunfälle).

Dies war der Ausgangspunkt für eine umfassende Anwendung von Regressionsmodellen als Alternative zu den traditionelleren Analysearten auf der Grundlage von Kontingenztabellen (einfache und stratifizierte Analyse). Poisson, Cox und logistische Regression werden heute routinemäßig für die Analyse von Längsschnitt- bzw. Fall-Kontroll-Studien verwendet. Diese Modelle sind das Gegenstück zur linearen Regression für kategoriale Antwortvariablen und haben die elegante Eigenschaft, direkt das relevante epidemiologische Assoziationsmaß zu liefern. Beispielsweise sind die Koeffizienten der Poisson-Regression der Logarithmus der Rate Ratios, während die der logistischen Regression der Logarithmus der Odds Ratios sind.

Davon ausgehend haben die Weiterentwicklungen im Bereich der statistischen Modellierung zwei Hauptrichtungen eingeschlagen: Modelle für wiederholte kategoriale Maße und Modelle, die die verallgemeinerten linearen Modelle erweitern (verallgemeinerte additive Modelle). In beiden Fällen konzentrieren sich die Ziele darauf, die Flexibilität der statistischen Werkzeuge zu erhöhen, um komplexere Probleme zu bewältigen, die sich aus der Realität ergeben. Modelle mit wiederholten Messungen werden in vielen Berufsstudien benötigt, bei denen die Analyseeinheiten auf der subindividuellen Ebene liegen. Zum Beispiel:

  1. Die Untersuchung des Einflusses der Arbeitsbedingungen auf das Karpaltunnelsyndrom muss beide Hände einer Person berücksichtigen, die nicht unabhängig voneinander sind.
  2. Die Analyse zeitlicher Trends von Umweltschadstoffen und deren Wirkung auf das Atmungssystem von Kindern kann mit äußerst flexiblen Modellen bewertet werden, da die exakte funktionelle Form der Dosis-Wirkungs-Beziehung schwer zu erhalten ist.

 

Eine parallele und wahrscheinlich schnellere Entwicklung wurde im Zusammenhang mit der Bayes'schen Statistik gesehen. Die praktische Barriere der Verwendung von Bayes'schen Methoden ist nach der Einführung computerintensiver Methoden zusammengebrochen. Monte-Carlo-Prozeduren wie Gibbs-Stichprobenschemata haben es uns ermöglicht, die Notwendigkeit einer numerischen Integration zur Berechnung der Posterior-Verteilungen zu vermeiden, die das herausforderndste Merkmal der Bayes'schen Methoden darstellten. Die Zahl der Anwendungen von Bayes'schen Modellen in realen und komplexen Problemen hat zunehmend Raum in angewandten Zeitschriften gefunden. Beispielsweise werden geografische Analysen und ökologische Zusammenhänge auf kleinräumiger Ebene sowie AIDS-Vorhersagemodelle immer häufiger mit bayesianischen Ansätzen angegangen. Diese Entwicklungen sind zu begrüßen, da sie nicht nur eine Zunahme der Zahl alternativer statistischer Lösungen darstellen, die bei der Analyse epidemiologischer Daten eingesetzt werden könnten, sondern auch, weil der Bayes'sche Ansatz als solidere Strategie angesehen werden kann.

 

Zurück

Die vorhergehenden Artikel dieses Kapitels haben die Notwendigkeit einer sorgfältigen Bewertung des Studiendesigns gezeigt, um glaubwürdige Schlussfolgerungen aus epidemiologischen Beobachtungen zu ziehen. Obwohl behauptet wurde, dass Schlussfolgerungen in der beobachtenden Epidemiologie aufgrund des nicht-experimentellen Charakters der Disziplin schwach sind, gibt es keine eingebaute Überlegenheit von randomisierten kontrollierten Studien oder anderen Arten von experimentellem Design gegenüber gut geplanter Beobachtung (Cornfield 1954). Um jedoch solide Schlussfolgerungen ziehen zu können, ist eine gründliche Analyse des Studiendesigns erforderlich, um potenzielle Quellen für Verzerrungen und Verwirrung zu identifizieren. Sowohl falsch positive als auch falsch negative Ergebnisse können von verschiedenen Arten von Bias stammen.

In diesem Artikel werden einige der Richtlinien diskutiert, die zur Bewertung der kausalen Natur epidemiologischer Beobachtungen vorgeschlagen wurden. Obwohl gute Wissenschaft eine Voraussetzung für ethisch korrekte epidemiologische Forschung ist, gibt es darüber hinaus weitere Fragen, die für ethische Bedenken relevant sind. Daher haben wir einige Diskussionen der Analyse ethischer Probleme gewidmet, die bei der Durchführung epidemiologischer Studien auftreten können.

Kausalitätsbewertung

Mehrere Autoren haben die Kausalitätsbewertung in der Epidemiologie diskutiert (Hill 1965; Buck 1975; Ahlbom 1984; Maclure 1985; Miettinen 1985; Rothman 1986; Weed 1986; Schlesselman 1987; Maclure 1988; Weed 1988; Karhausen 1995). Einer der Hauptdiskussionspunkte ist, ob die Epidemiologie dieselben Kriterien zur Ermittlung von Ursache-Wirkungs-Zusammenhängen verwendet oder verwenden sollte, wie sie in anderen Wissenschaften verwendet werden.

Ursachen sollten nicht mit Mechanismen verwechselt werden. Beispielsweise ist Asbest eine Ursache von Mesotheliom, wohingegen eine Onkogen-Mutation ein mutmaßlicher Mechanismus ist. Auf der Grundlage der vorhandenen Beweise ist es wahrscheinlich, dass (a) verschiedene äußere Expositionen in denselben mechanistischen Stadien wirken können und (b) es normalerweise keine feste und notwendige Abfolge mechanistischer Schritte bei der Entwicklung einer Krankheit gibt. Beispielsweise wird die Karzinogenese als eine Abfolge von stochastischen (wahrscheinlichkeitstheoretischen) Übergängen interpretiert, von der Genmutation über die Zellproliferation bis zur erneuten Genmutation, die schließlich zu Krebs führt. Darüber hinaus ist die Karzinogenese ein multifaktorieller Prozess – das heißt, verschiedene äußere Expositionen können sie beeinflussen und bei einer anfälligen Person ist keine davon notwendig. Dieses Modell lässt sich wahrscheinlich neben Krebs auch auf andere Krankheiten anwenden.

Eine solche multifaktorielle und probabilistische Natur der meisten Expositions-Krankheits-Beziehungen impliziert, dass es problematisch ist, die Rolle zu entwirren, die eine bestimmte Exposition spielt. Darüber hinaus hindert uns der beobachtende Charakter der Epidemiologie daran, Experimente durchzuführen, die ätiologische Zusammenhänge durch eine mutwillige Veränderung des Ablaufs der Ereignisse klären könnten. Die Beobachtung eines statistischen Zusammenhangs zwischen Exposition und Krankheit bedeutet nicht, dass der Zusammenhang kausal ist. Beispielsweise haben die meisten Epidemiologen den Zusammenhang zwischen der Exposition gegenüber Dieselabgasen und Blasenkrebs als kausal interpretiert, andere haben jedoch behauptet, dass Arbeiter, die Dieselabgasen ausgesetzt sind (hauptsächlich Lkw- und Taxifahrer), häufiger Zigarettenraucher sind als nicht exponierte Personen . Der beobachtete Zusammenhang würde dieser Behauptung zufolge also durch einen bekannten Risikofaktor wie das Rauchen „verwechselt“.

Angesichts der probabilistisch-multifaktoriellen Natur der meisten Expositions-Krankheits-Assoziationen haben Epidemiologen Richtlinien entwickelt, um Beziehungen zu erkennen, die wahrscheinlich kausal sind. Dies sind die ursprünglich von Sir Bradford Hill vorgeschlagenen Richtlinien für chronische Krankheiten (1965):

  • Stärke des Vereins
  • Dosis-Wirkungs-Effekt
  • Mangel an zeitlicher Mehrdeutigkeit
  • Konsistenz der Befunde
  • biologische Plausibilität
  • Kohärenz der Beweise
  • Besonderheiten des Vereins.

 

Diese Kriterien sollten nur als allgemeine Richtlinien oder praktische Hilfsmittel betrachtet werden; Tatsächlich ist die wissenschaftliche Kausalbewertung ein iterativer Prozess, der sich um die Messung der Beziehung zwischen Exposition und Krankheit dreht. Die Hill-Kriterien werden jedoch häufig als prägnante und praktische Beschreibung kausaler Inferenzverfahren in der Epidemiologie verwendet.

Betrachten wir das Beispiel des Zusammenhangs zwischen Vinylchlorid-Exposition und Leber-Angiosarkom unter Anwendung der Hills-Kriterien.

Der übliche Ausdruck der Ergebnisse einer epidemiologischen Studie ist ein Maß für den Grad der Assoziation zwischen Exposition und Krankheit (erstes Kriterium von Hill). Ein relatives Risiko (RR) größer als eins bedeutet, dass ein statistischer Zusammenhang zwischen Exposition und Erkrankung besteht. Wenn zum Beispiel die Inzidenzrate von Leber-Angiosarkom normalerweise 1 zu 10 Millionen beträgt, aber 1 zu 100,000 unter denen, die Vinylchlorid ausgesetzt sind, dann ist die RR 100 (das heißt, Menschen, die mit Vinylchlorid arbeiten, haben eine 100-fach erhöhte Risiko für die Entwicklung eines Angiosarkoms im Vergleich zu Personen, die nicht mit Vinylchlorid arbeiten).

Ein kausaler Zusammenhang ist wahrscheinlicher, wenn das Risiko mit zunehmender Exposition zunimmt (Dosis-Wirkungs-Effekt, zweites Hill-Kriterium) und wenn der zeitliche Zusammenhang zwischen Exposition und Krankheit aus biologischen Gründen sinnvoll ist (die Exposition geht der Wirkung voraus und die Länge dieser „Induktions“-Periode ist mit einem biologischen Krankheitsmodell vereinbar; drittes Kriterium von Hill). Darüber hinaus ist ein Zusammenhang wahrscheinlicher, wenn ähnliche Ergebnisse von anderen erzielt werden, die in der Lage waren, die Ergebnisse unter anderen Umständen zu replizieren („Konsistenz“, viertes Kriterium von Hill).

Eine wissenschaftliche Analyse der Ergebnisse erfordert eine Bewertung der biologischen Plausibilität (fünftes Kriterium von Hill). Dies kann auf unterschiedliche Weise erreicht werden. Ein einfaches Kriterium ist beispielsweise, ob die vermeintliche „Ursache“ das Zielorgan erreichen kann (z. B. eingeatmete Substanzen, die die Lunge nicht erreichen, können nicht im Körper zirkulieren). Auch unterstützende Beweise aus Tierversuchen sind hilfreich: Die Beobachtung von Leber-Angiosarkomen bei Tieren, die mit Vinylchlorid behandelt wurden, verstärkt stark die beim Menschen beobachtete Assoziation.

Die innere Kohärenz der Beobachtungen (z. B. ist das RR bei beiden Geschlechtern ähnlich erhöht) ist ein wichtiges wissenschaftliches Kriterium (sechstes Kriterium von Hill). Kausalität ist wahrscheinlicher, wenn die Beziehung sehr spezifisch ist – das heißt, seltene Ursachen und/oder seltene Krankheiten oder einen bestimmten histologischen Typ/Untergruppe von Patienten (siebtes Hill-Kriterium) betrifft.

„Enumerative Induktion“ (die einfache Aufzählung von Assoziationsfällen zwischen Exposition und Krankheit) reicht nicht aus, um die induktiven Schritte des Kausalschlusses vollständig zu beschreiben. Das Ergebnis der enumerativen Induktion führt in der Regel zu einer komplexen und immer noch verwirrenden Beobachtung, weil verschiedene Kausalketten oder häufiger ein echter Kausalzusammenhang und andere irrelevante Expositionen miteinander verschränkt sind. Alternative Erklärungen müssen durch „eliminative Induktion“ eliminiert werden, was zeigt, dass eine Assoziation wahrscheinlich kausal ist, weil sie nicht mit anderen „verwechselt“ ist. Eine einfache Definition einer alternativen Erklärung ist „ein externer Faktor, dessen Effekt sich mit dem Effekt des Zinsrisikos vermischt und somit die Risikoschätzung für das Zinsrisiko verzerrt“ (Rothman 1986).

Die Rolle der Induktion ist die Erweiterung des Wissens, während die Rolle der Deduktion die „Wahrheitsübertragung“ ist (Giere 1979). Deduktives Denken hinterfragt das Studiendesign und identifiziert Zusammenhänge, die nicht empirisch, sondern nur logisch wahr sind. Solche Assoziationen sind keine Tatsachen, sondern logische Notwendigkeiten. Zum Beispiel ein Auswahlbias tritt auf, wenn die exponierte Gruppe unter kranken Menschen ausgewählt wird (wie wenn wir eine Kohortenstudie starten, in der wir eine Gruppe von Leber-Angiosarkom-Fällen als „exponiert“ gegenüber Vinylchlorid rekrutieren) oder wenn die nicht exponierte Gruppe unter gesunden Menschen ausgewählt wird. In beiden Fällen ist der gefundene Zusammenhang zwischen Exposition und Krankheit notwendigerweise (logisch), aber nicht empirisch wahr (Vineis 1991).

Zusammenfassend lässt sich sagen, dass die Epidemiologie, auch wenn man ihren beobachtenden (nicht-experimentellen) Charakter berücksichtigt, keine inferenziellen Verfahren verwendet, die sich wesentlich von der Tradition anderer wissenschaftlicher Disziplinen unterscheiden (Hume 1978; Schaffner 1993).

Ethische Fragen in der epidemiologischen Forschung

Aufgrund der Feinheiten, die mit der Ableitung von Kausalitäten verbunden sind, müssen Epidemiologen bei der Interpretation ihrer Studien besondere Sorgfalt walten lassen. Tatsächlich ergeben sich daraus mehrere Bedenken ethischer Natur.

Ethische Fragen in der epidemiologischen Forschung sind Gegenstand intensiver Diskussionen geworden (Schulte 1989; Soskolne 1993; Beauchamp et al. 1991). Der Grund liegt auf der Hand: Epidemiologen, insbesondere Arbeits- und Umweltepidemiologen, untersuchen häufig Themen mit erheblichen wirtschaftlichen, sozialen und gesundheitspolitischen Implikationen. Sowohl negative als auch positive Ergebnisse bezüglich des Zusammenhangs zwischen bestimmten Chemikalienbelastungen und Krankheiten können das Leben von Tausenden von Menschen beeinträchtigen, wirtschaftliche Entscheidungen beeinflussen und daher politische Entscheidungen ernsthaft beeinflussen. Daher kann der Epidemiologe unter Druck geraten und von anderen versucht oder sogar ermutigt werden, die Interpretation der Ergebnisse seiner oder ihrer Untersuchungen – marginal oder wesentlich – zu ändern.

Unter den mehreren relevanten Themen, Transparenz der Datenerhebung, Kodierung, Computerisierung und Analyse ist von zentraler Bedeutung, um sich gegen Vorwürfe der Voreingenommenheit seitens des Forschers zu wehren. Ebenfalls von entscheidender Bedeutung und möglicherweise im Widerspruch zu einer solchen Transparenz ist das Recht der an der epidemiologischen Forschung beteiligten Personen, vor der Preisgabe personenbezogener Daten geschützt zu werden
(Vertraulichkeit Probleme).

Aus Sicht des Fehlverhaltens, das insbesondere im Zusammenhang mit Kausalschlüssen entstehen kann, sind Fragen, die von Ethik-Leitlinien beantwortet werden sollten:

  • Wem gehören die Daten und wie lange müssen die Daten aufbewahrt werden?
  • Was macht eine glaubwürdige Aufzeichnung der geleisteten Arbeit aus?
  • Lassen öffentliche Zuwendungen im Budget die Kosten für eine angemessene Dokumentation, Archivierung und erneute Analyse von Daten zu?
  • Gibt es eine Rolle für den Hauptforscher bei der erneuten Analyse seiner Daten durch Dritte?
  • Gibt es Praxisstandards für die Datenspeicherung?
  • Sollten Berufs- und Umweltepidemiologen ein normatives Klima schaffen, in dem eine fertige Datenprüfung oder -prüfung durchgeführt werden kann?
  • Wie dienen gute Datenspeicherungspraktiken dazu, nicht nur Fehlverhalten, sondern auch Vorwürfen von Fehlverhalten vorzubeugen?
  • Was ist arbeits- und umweltepidemiologisches Fehlverhalten in Bezug auf Datenmanagement, Ergebnisinterpretation und Interessenvertretung?
  • Welche Rolle spielen Epidemiologen und/oder Berufsverbände bei der Entwicklung von Praxisstandards und Indikatoren/Ergebnissen für ihre Bewertung und bei der Beibringung von Fachwissen in irgendeiner Fürsprecherrolle?
  • Welche Rolle spielt der Berufsverband/die Berufsorganisation beim Umgang mit ethischen und rechtlichen Bedenken? (Soskolne 1993)

 

Weitere zentrale Fragen beziehen sich im Falle der Arbeits- und Umweltepidemiologie auf die Einbeziehung der Beschäftigten in Vorphasen von Studien und auf die Veröffentlichung der Ergebnisse einer Studie an die eingeschriebenen und direkt betroffenen Probanden (Schulte 1989 ). Leider ist es nicht üblich, dass Arbeitnehmer, die an epidemiologischen Studien teilnehmen, an gemeinsamen Diskussionen über den Zweck der Studie, ihre Interpretation und die mögliche Verwendung der Ergebnisse beteiligt sind (was für den Arbeitnehmer sowohl vorteilhaft als auch nachteilig sein kann).

Teilweise Antworten auf diese Fragen liefern neuere Leitlinien (Beauchamp et al. 1991; CIOMS 1991). Allerdings sollten sich die Berufsverbände der Berufsepidemiologen in jedem Land an einer gründlichen Diskussion über ethische Fragen beteiligen und möglicherweise eine Reihe von ethischen Richtlinien verabschieden, die dem lokalen Kontext angemessen sind, während sie international anerkannte normative Praxisstandards anerkennen.

 

Zurück

Die Dokumentation von Berufskrankheiten in einem Land wie Taiwan ist eine Herausforderung für einen Betriebsarzt. Mangels eines Systems mit Materialsicherheitsdatenblättern (MSDS) waren sich die Arbeiter in der Regel nicht bewusst, mit welchen Chemikalien sie arbeiten. Da viele Berufskrankheiten lange Latenzzeiten haben und bis zum klinischen Nachweis keine spezifischen Symptome und Anzeichen zeigen, ist das Erkennen und Identifizieren der beruflichen Ursache oft sehr schwierig.

Um Berufskrankheiten besser kontrollieren zu können, haben wir auf Datenbanken zugegriffen, die eine relativ vollständige Liste von Industriechemikalien und eine Reihe spezifischer Anzeichen und/oder Symptome enthalten. Kombiniert mit dem epidemiologischen Ansatz des Vermutens und Widerlegens (dh das Abwägen und Ausschließen aller möglichen alternativen Erklärungen) haben wir mehr als zehn Arten von Berufskrankheiten und einen Ausbruch von Botulismus dokumentiert. Wir empfehlen, dass ein ähnlicher Ansatz auf jedes andere Land in einer ähnlichen Situation angewendet wird und dass ein System mit einem Identifizierungsblatt (z. B. MSDS) für jede Chemikalie befürwortet und eingeführt wird, um eine schnelle Erkennung und damit die Verhinderung von Berufskrankheiten zu ermöglichen Krankheiten.

Hepatitis in einer Farbdruckerei

Drei Arbeiter einer Farbdruckerei wurden 1985 mit Manifestationen einer akuten Hepatitis in kommunale Krankenhäuser eingeliefert. Einer der drei hatte akutes Nierenversagen überlagert. Da Virushepatitis in Taiwan eine hohe Prävalenz aufweist, sollten wir einen viralen Ursprung als eine der wahrscheinlichsten Ätiologien in Betracht ziehen. Alkohol- und Drogenkonsum sowie organische Lösungsmittel am Arbeitsplatz sollten ebenfalls einbezogen werden. Da es in Taiwan kein MSDS-System gab, waren weder den Arbeitnehmern noch dem Arbeitgeber alle in der Fabrik verwendeten Chemikalien bekannt (Wang 1991).

Wir mussten aus mehreren toxikologischen Datenbanken eine Liste hepatotoxischer und nephrotoxischer Wirkstoffe zusammenstellen. Dann haben wir alle möglichen Schlussfolgerungen aus den obigen Hypothesen abgeleitet. Wenn zum Beispiel das Hepatitis-A-Virus (HAV) die Ursache wäre, sollten wir Antikörper (HAV-IgM) unter den betroffenen Arbeitern beobachten; Wenn das Hepatitis-B-Virus die Ursache wäre, sollten wir unter den betroffenen Arbeitnehmern im Vergleich zu nicht betroffenen Arbeitnehmern mehr Träger von Hepatitis-B-Oberflächenantigenen (HBsAg) beobachten; wenn Alkohol die Hauptursache wäre, müssten wir mehr Alkoholabhängige oder chronische Alkoholiker unter den betroffenen Arbeitern beobachten; wenn irgendein toxisches Lösungsmittel (z. B. Chloroform) die Ursache wäre, sollten wir es am Arbeitsplatz finden.

Wir haben für jeden Arbeiter eine umfassende medizinische Untersuchung durchgeführt. Die virale Ätiologie war leicht zu widerlegen, ebenso wie die Alkoholhypothese, da sie nicht durch Beweise gestützt werden konnten.

Stattdessen hatten 17 von 25 Arbeitern des Werks abnormale Leberfunktionstests, und es wurde ein signifikanter Zusammenhang zwischen dem Vorhandensein einer abnormalen Leberfunktion und einer Vorgeschichte festgestellt, in der kürzlich in einem der drei Räume gearbeitet wurde, in denen eine miteinander verbundene Klimaanlage vorhanden war installiert, um die Druckmaschinen zu kühlen. Die Assoziation blieb nach Stratifizierung nach dem Trägerstatus von Hepatitis B bestehen. Später wurde festgestellt, dass der Vorfall nach der versehentlichen Verwendung eines „Reinigungsmittels“ (Tetrachlorkohlenstoff) zum Reinigen einer Pumpe in der Druckmaschine auftrat. Darüber hinaus ergab ein Simulationstest des Pumpenreinigungsvorgangs Tetrachlorkohlenstoffkonzentrationen in der Umgebungsluft von 115 bis 495 ppm, was zu Leberschäden führen könnte. In einem weiteren Widerlegungsversuch stellten wir durch Eliminierung des Tetrachlorkohlenstoffs am Arbeitsplatz fest, dass keine neuen Fälle mehr auftraten und es allen betroffenen Arbeitern nach 20-tägiger Entfernung vom Arbeitsplatz besser ging. Daher schlossen wir, dass der Ausbruch auf die Verwendung von Tetrachlorkohlenstoff zurückzuführen war.

Neurologische Symptome in einer Farbdruckerei

Im September 1986 bekam ein Lehrling in einer Farbdruckerei in Chang-Hwa plötzlich eine akute beidseitige Schwäche und Atemlähmung. Der Vater des Opfers behauptete am Telefon, es gäbe mehrere andere Arbeiter mit ähnlichen Symptomen. Da früher in Farbdruckereien Berufskrankheiten aufgrund einer Exposition gegenüber organischen Lösungsmitteln dokumentiert waren, gingen wir zur Arbeitsstelle, um die Ätiologie zu bestimmen, wobei wir die Hypothese einer möglichen Lösungsmittelvergiftung im Hinterkopf hatten (Wang 1991).

Unsere übliche Praxis war jedoch, alle alternativen Vermutungen in Betracht zu ziehen, einschließlich anderer medizinischer Probleme, einschließlich der beeinträchtigten Funktion der oberen Motoneuronen, der unteren Motoneuronen sowie der neuromuskulären Synapse. Auch hier haben wir Ergebnisaussagen aus den obigen Hypothesen abgeleitet. Wenn beispielsweise ein Lösungsmittel, von dem berichtet wird, dass es Polyneuropathie hervorruft (z. B. n-Hexan, Methylbutylketon, Acrylamid), die Ursache wäre, würde es auch die Nervenleitungsgeschwindigkeit (NCV) beeinträchtigen; Wenn es sich um andere medizinische Probleme handeln würde, die obere Motoneuronen betreffen, gäbe es Anzeichen von Bewusstseinsstörungen und/oder unwillkürlichen Bewegungen.

Feldbeobachtungen zeigten, dass alle betroffenen Arbeiter während des gesamten klinischen Verlaufs ein klares Bewusstsein hatten. Eine NCV-Studie mit drei betroffenen Arbeitern zeigte intakte untere Motoneuronen. Es gab keine unwillkürlichen Bewegungen, keine Medikamente oder Bisse in der Vorgeschichte vor dem Auftreten von Symptomen, und der Neostigmin-Test war negativ. Es wurde ein signifikanter Zusammenhang zwischen Krankheit und Frühstück in der Werkskantine am 26. oder 27. September gefunden; sieben von sieben betroffenen Arbeitern gegenüber sieben von 32 nicht betroffenen Arbeitern frühstückten an diesen zwei Tagen in der Fabrik. Ein weiterer Testversuch zeigte, dass Typ-A-Botulinumtoxin in Dosenerdnüssen nachgewiesen wurde, die von einem nicht lizenzierten Unternehmen hergestellt wurden, und seine Probe zeigte auch ein volles Wachstum von Clostridium botulinum. Ein letzter Widerlegungsprozess war die Entfernung solcher Produkte vom kommerziellen Markt, was zu keinen neuen Fällen führte. Diese Untersuchung dokumentierte die ersten Fälle von Botulismus durch ein kommerzielles Lebensmittelprodukt in Taiwan.

Prämaligne Hautläsionen bei Paraquat-Herstellern

Im Juni 1983 besuchten zwei Arbeiter einer Paraquat-Fabrik eine Dermatologie-Klinik und klagten über zahlreiche bilaterale hyperpigmentierte Flecken mit hyperkeratotischen Veränderungen an Teilen ihrer Hände, ihres Halses und ihres Gesichts, die der Sonne ausgesetzt waren. Einige Hautproben zeigten auch bowenoide Veränderungen. Da bei Arbeitern in der Bipyridyl-Herstellung bösartige und prämaligne Hautläsionen gemeldet wurden, wurde dringend eine berufliche Ursache vermutet. Wir mussten jedoch auch andere alternative Ursachen (oder Hypothesen) von Hautkrebs in Betracht ziehen, wie die Exposition gegenüber ionisierender Strahlung, Kohlenteer, Pech, Ruß oder anderen polyaromatischen Kohlenwasserstoffen (PAK). Um all diese Vermutungen auszuschließen, führten wir 1985 eine Studie durch, bei der wir alle 28 Fabriken besuchten, die jemals Paraquat hergestellt oder verpackt hatten, und die Herstellungsprozesse sowie die Arbeiter untersuchten (Wang et al. 1987; Wang 1993).

Wir untersuchten 228 Arbeiter, und keiner von ihnen war jemals den oben genannten Hautkarzinogenen ausgesetzt gewesen, mit Ausnahme von Sonnenlicht und 4'-4'-Bipyridin und seinen Isomeren. Nach Ausschluss von Arbeitern mit Mehrfachexposition stellten wir fest, dass einer von sieben Administratoren und zwei von 82 Paraquat-Verpackungsarbeitern hyperpigmentierte Hautläsionen entwickelten, im Vergleich zu drei von drei Arbeitern, die nur an der Kristallisation und Zentrifugation von Bipyridin beteiligt waren. Darüber hinaus waren alle 17 Arbeiter mit hyperkeratotischen Läsionen oder Bowen-Läsionen in der Vorgeschichte direkt Bipyridyl und seinen Isomeren ausgesetzt. Je länger die Exposition gegenüber Bipyridylen, desto wahrscheinlicher ist die Entwicklung von Hautläsionen, und dieser Trend kann nicht durch Sonnenlicht oder Alter erklärt werden, wie durch Stratifizierung und logistische Regressionsanalyse gezeigt wurde. Daher wurde die Hautläsion vorläufig einer Kombination aus Bipyridyl-Exposition und Sonnenlicht zugeschrieben. Wir unternahmen weitere Widerlegungsversuche, um nachzuverfolgen, ob ein neuer Fall auftrat, nachdem wir alle Prozesse eingeschlossen hatten, die eine Exposition gegenüber Bipyridylen beinhalteten. Es wurde kein neuer Fall gefunden.

Diskussion und zusammenfassung

Die oben genannten drei Beispiele haben gezeigt, wie wichtig es ist, einen widerlegenden Ansatz und eine Datenbank für Berufskrankheiten zu wählen. Die erstere lässt uns alternative Hypothesen immer auf die gleiche Weise in Betracht ziehen wie die ursprüngliche intuitive Hypothese, während die letztere eine detaillierte Liste chemischer Wirkstoffe liefert, die uns zur wahren Ätiologie führen können. Eine mögliche Einschränkung dieses Ansatzes besteht darin, dass wir nur solche alternativen Erklärungen berücksichtigen können, die wir uns vorstellen können. Wenn unsere Liste mit Alternativen unvollständig ist, können wir keine Antwort oder eine falsche Antwort erhalten. Daher ist eine umfassende Datenbank über Berufskrankheiten entscheidend für den Erfolg dieser Strategie.

Früher haben wir unsere eigene Datenbank mühsam aufgebaut. Die kürzlich veröffentlichten OSH-ROM-Datenbanken, die die NIOSHTIC-Datenbank mit mehr als 160,000 Abstracts enthalten, könnten jedoch eine der umfassendsten für einen solchen Zweck sein, wie an anderer Stelle in der diskutiert wird Enzyklopädie. Darüber hinaus könnten wir beim Auftreten einer neuen Berufskrankheit eine solche Datenbank durchsuchen und alle bekannten Krankheitserreger ausschließen und keine unwiderlegt lassen. In einer solchen Situation können wir versuchen, den neuen Agenten (oder das berufliche Umfeld) so spezifisch wie möglich zu identifizieren oder zu definieren, damit das Problem zunächst gemildert werden kann, und dann weitere Hypothesen testen. Der Fall von prämalignen Hautläsionen bei Paraquat-Herstellern ist ein gutes Beispiel dafür.

 

Zurück

HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."

Inhalte