28. Epidemiologie und Statistik
Kapitel-Editoren: Franco Merletti, Colin L. Soskolne und Paolo Vineis
Epidemiologische Methode für Arbeitssicherheit und Gesundheitsschutz
Franco Merletti, Colin L. Soskolne und Paolo Vineis
Expositionsbewertung
M. Gerald Ott
Zusammenfassung der Expositionsmaßnahmen im Arbeitsleben
Colin L. Soskolne
Messung der Auswirkungen von Expositionen
Shelia Hoar Zahm
Fallbeispiel: Maßnahmen
Franco Merletti, Colin L. Soskolne und Paola Vineis
Optionen im Studiendesign
Sven Herberg
Validitätsprobleme im Studiendesign
Annie J. Sasco
Einfluss zufälliger Messfehler
Paolo Vineis und Colin L. Soskolne
Statistische Methoden
Annibale Biggeri und Mario Braga
Kausalitätsbewertung und Ethik in der epidemiologischen Forschung
Paolo Vineis
Fallstudien zur Veranschaulichung methodischer Probleme bei der Überwachung von Berufskrankheiten
Jung-Der Wang
Fragebögen in der epidemiologischen Forschung
Steven D. Stellman und Colin L. Soskolne
Asbest Historische Perspektive
Laurent Garfinkel
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Fünf ausgewählte zusammenfassende Maßnahmen zur Exposition im Berufsleben
2. Maße für das Auftreten von Krankheiten
3. Assoziationsmaße für eine Kohortenstudie
4. Assoziationsmaße für Fall-Kontroll-Studien
5. Allgemeines Häufigkeitstabellenlayout für Kohortendaten
6. Musterlayout von Fallkontrolldaten
7. Layout-Fallkontrolldaten – eine Kontrolle pro Fall
8. Hypothetische Kohorte von 1950 Individuen zu T2
9. Indizes der zentralen Tendenz und Streuung
10 Ein binomiales Experiment & Wahrscheinlichkeiten
11 Mögliche Ergebnisse eines binomialen Experiments
12 Binomialverteilung, 15 Erfolge/30 Versuche
13 Binomialverteilung, p = 0.25; 30 Versuche
14 Fehler XNUMX. Art & Leistung; x = 12, n = 30, a = 0.05
15 Fehler XNUMX. Art & Leistung; x = 12, n = 40, a = 0.05
16 632 Arbeitnehmer, die 20 Jahre oder länger Asbest ausgesetzt waren
17 O/E Zahl der Todesfälle unter 632 Asbestarbeitern
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
Epidemiologie
Die Epidemiologie ist sowohl als wissenschaftliche Grundlage der Präventivmedizin als auch als Grundlage für den Prozess der öffentlichen Gesundheitspolitik anerkannt. Es wurden mehrere operative Definitionen der Epidemiologie vorgeschlagen. Die einfachste ist, dass Epidemiologie die Untersuchung des Auftretens von Krankheiten oder anderen gesundheitsbezogenen Merkmalen in Menschen- und Tierpopulationen ist. Epidemiologen untersuchen nicht nur die Häufigkeit von Krankheiten, sondern ob sich die Häufigkeit zwischen Personengruppen unterscheidet; dh sie untersuchen die Ursache-Wirkungs-Beziehung zwischen Exposition und Krankheit. Krankheiten treten nicht zufällig auf; sie haben Ursachen – sehr oft menschengemachte Ursachen – die vermeidbar sind. So könnten viele Krankheiten verhindert werden, wenn die Ursachen bekannt wären. Die Methoden der Epidemiologie waren entscheidend für die Identifizierung vieler ursächlicher Faktoren, die wiederum zu einer Gesundheitspolitik geführt haben, die darauf abzielt, Krankheiten, Verletzungen und vorzeitigen Tod zu verhindern.
Welche Aufgabe hat die Epidemiologie und wo liegen ihre Stärken und Schwächen, wenn Definitionen und Konzepte der Epidemiologie auf den betrieblichen Gesundheitsschutz übertragen werden? Dieses Kapitel befasst sich mit diesen Fragen und den Möglichkeiten, wie arbeitsbedingte Gesundheitsgefahren mit epidemiologischen Methoden untersucht werden können. Dieser Artikel stellt die Ideen vor, die in aufeinanderfolgenden Artikeln in diesem Kapitel zu finden sind.
Berufsepidemiologie
Berufsepidemiologie ist definiert als die Untersuchung der Auswirkungen von Expositionen am Arbeitsplatz auf die Häufigkeit und Verbreitung von Krankheiten und Verletzungen in der Bevölkerung. Sie ist damit eine expositionsorientierte Disziplin mit Bezügen sowohl zur Epidemiologie als auch zur Arbeitsmedizin (Checkoway et al. 1989). Als solche verwendet sie Methoden, die denen der Epidemiologie im Allgemeinen ähneln.
Das Hauptziel der Arbeitsepidemiologie ist die Prävention durch die Ermittlung der gesundheitlichen Folgen von Expositionen am Arbeitsplatz. Dies unterstreicht den präventiven Fokus der Arbeitsepidemiologie. Tatsächlich sollte jede Forschung auf dem Gebiet des Arbeitsschutzes präventiven Zwecken dienen. Daher kann und sollte epidemiologisches Wissen leicht umsetzbar sein. Während das Interesse der öffentlichen Gesundheit immer das Hauptanliegen der epidemiologischen Forschung sein sollte, können Interessengruppen Einfluss nehmen, und es muss darauf geachtet werden, diesen Einfluss auf die Formulierung, Durchführung und/oder Interpretation von Studien zu minimieren (Soskolne 1985; Soskolne 1989).
Ein zweites Ziel der Berufsepidemiologie ist es, Ergebnisse aus spezifischen Settings zu nutzen, um Gefährdungen in der Bevölkerung insgesamt zu reduzieren oder zu eliminieren. Daher spielen die Ergebnisse aus berufsepidemiologischen Studien nicht nur Informationen über die gesundheitlichen Auswirkungen von Expositionen am Arbeitsplatz, sondern auch eine Rolle bei der Einschätzung des Risikos, das mit denselben Expositionen verbunden ist, jedoch auf dem niedrigeren Niveau, das die allgemeine Bevölkerung allgemein erfährt. Umweltverschmutzung durch industrielle Prozesse und Produkte würde normalerweise zu geringeren Expositionsniveaus führen als am Arbeitsplatz.
Die Anwendungsebenen der Berufsepidemiologie sind:
Die ursächliche Rolle, die berufsbedingte Expositionen bei der Entstehung von Krankheiten, Verletzungen und vorzeitigem Tod spielen können, wurde schon vor langer Zeit erkannt und ist Teil der Geschichte der Epidemiologie. Hinzuweisen ist auf Bernardino Ramazzini, Begründer der Arbeitsmedizin und einer der ersten, der die hippokratische Tradition der Abhängigkeit der Gesundheit von identifizierbaren natürlichen äußeren Faktoren wiederbelebte und ergänzte. Im Jahr 1700 schrieb er in seinem „De Morbis Artificum Diatriba“ (Ramazzini 1705; Saracci 1995):
Der Arzt muss den Patienten viele Fragen stellen. Hippokrates erklärt in De Affectionibus: „Wenn Sie einem Kranken gegenüberstehen, sollten Sie ihn fragen, woran er leidet, aus welchem Grund, seit wie vielen Tagen, was er isst und wie sein Stuhlgang ist. Zu all diesen Fragen sollte noch eine hinzugefügt werden: ‚Welche Arbeit macht er?‘.“
Dieses Wiedererwachen der klinischen Beobachtung und der Aufmerksamkeit für die Umstände des Auftretens von Krankheiten veranlasste Ramazzini, viele Berufskrankheiten zu identifizieren und zu beschreiben, die später von Arbeitsmedizinern und Epidemiologen untersucht wurden.
Mit diesem Ansatz berichtete Pott erstmals 1775 (Pott 1775) über die mögliche Verbindung zwischen Krebs und Beruf (Clayson 1962). Seine Beobachtungen zum Hodensackkrebs bei Schornsteinfegern begannen mit einer Beschreibung der Krankheit und setzten sich fort:
Das Schicksal dieser Menschen scheint einzigartig hart: In ihrer frühen Kindheit werden sie am häufigsten mit großer Brutalität behandelt und vor Kälte und Hunger fast ausgehungert; sie werden in enge und manchmal heiße Schornsteine geschoben, wo sie verletzt, verbrannt und fast erstickt werden; und wenn sie die Pubertät erreichen, werden sie besonders anfällig für eine höchst lästige, schmerzhafte und tödliche Krankheit.
Über diesen letzten Umstand gibt es nicht den geringsten Zweifel, obgleich vielleicht nicht ausreichend darauf geachtet wurde, um ihn allgemein bekannt zu machen. Andere Menschen haben Krebs der gleichen Teile; und so haben andere, außer Bleiarbeitern, die Poitou-Kolik und die daraus resultierende Lähmung; aber es ist dennoch eine Krankheit, für die sie besonders anfällig sind; und Schornsteinfeger zu Hoden- und Hodenkrebs.
Die Krankheit scheint bei diesen Menschen ihren Ursprung in einer Rußablagerung in der Hodensackfalte zu haben und zunächst keine Gewohnheitskrankheit zu sein … aber hier sind die Probanden jung, im Allgemeinen zumindest bei guter Gesundheit zunaechst; die Krankheit, die ihnen durch ihren Beruf zugefügt wurde, und aller Wahrscheinlichkeit nach lokal; welcher letzte Umstand kann, denke ich, ziemlich davon ausgegangen werden, dass er immer dieselben Teile ergreift; All dies macht es (zunächst) zu einem ganz anderen Fall als ein Krebs, der bei einem älteren Mann auftritt.
Dieser erste Bericht über einen Berufskrebs bleibt immer noch ein Musterbeispiel an Klarheit. Die Art der Krankheit, der betroffene Beruf und der wahrscheinliche Erreger sind klar definiert. Es wird eine erhöhte Inzidenz von Hodenkrebs bei Schornsteinfegern festgestellt, obwohl keine quantitativen Daten zur Untermauerung dieser Behauptung vorgelegt werden.
Weitere fünfzig Jahre vergingen, bis Ayrton-Paris 1822 (Ayrton-Paris 1822) die häufige Entwicklung von Hodenkrebs bei den Kupfer- und Zinnhütten von Cornwall bemerkte und vermutete, dass Arsendämpfe die Ursache sein könnten. Von Volkmann berichtete 1874 von Hauttumoren bei Paraffinarbeitern in Sachsen, und kurz darauf schlug Bell 1876 vor, dass Schieferöl für Hautkrebs verantwortlich sei (Von Volkmann 1874; Bell 1876). Berichte über die berufliche Entstehung von Krebs wurden dann relativ häufiger (Clayson 1962).
Zu den frühen Beobachtungen von Berufskrankheiten gehörte das vermehrte Auftreten von Lungenkrebs bei Schneeberger Bergleuten (Harting und Hesse 1879). Es ist bemerkenswert (und tragisch), dass eine aktuelle Fallstudie zeigt, dass die Lungenkrebsepidemie in Schneeberg mehr als ein Jahrhundert nach der ersten Beobachtung im Jahr 1879 immer noch ein großes Problem für die öffentliche Gesundheit darstellt. Ein Ansatz zur Identifizierung einer „Zunahme“ von Krankheiten und sogar zu quantifizieren, war in der Geschichte der Arbeitsmedizin präsent. Wie beispielsweise Axelson (1994) betonte, untersuchte WA Guy 1843 die „Lungenschwindsucht“ bei Buchdruckern und fand ein höheres Risiko bei Setzern als bei Druckern; Dies geschah durch Anwendung eines dem Fall-Kontroll-Ansatz ähnlichen Designs (Lilienfeld und Lilienfeld 1979). Dennoch begann sich die moderne Berufsepidemiologie und ihre Methodik erst in den frühen 1950er Jahren zu entwickeln. Wichtige Beiträge zu dieser Entwicklung waren die Studien über Blasenkrebs bei Färbereiarbeitern (Case und Hosker 1954) und Lungenkrebs bei Gasarbeitern (Doll 1952).
Probleme der Berufsepidemiologie
Die Artikel in diesem Kapitel stellen sowohl die Philosophie als auch die Werkzeuge der epidemiologischen Untersuchung vor. Sie konzentrieren sich auf die Bewertung der Expositionserfahrung von Arbeitnehmern und auf die Krankheiten, die in diesen Bevölkerungsgruppen auftreten. Probleme beim Ziehen gültiger Schlussfolgerungen über mögliche ursächliche Zusammenhänge auf dem Weg von der Exposition gegenüber gefährlichen Stoffen bis zur Entstehung von Krankheiten werden in diesem Kapitel behandelt.
Den Kern der Berufsepidemiologie bildet die Erhebung der individuellen Expositionserfahrung im Arbeitsleben. Die Aussagekraft einer epidemiologischen Studie hängt in erster Linie von der Qualität und dem Umfang der verfügbaren Expositionsdaten ab. Zweitens müssen die gesundheitlichen Auswirkungen (oder die Krankheiten), die für den Berufsepidemiologen von Belang sind, für eine klar definierte und zugängliche Gruppe von Arbeitnehmern genau bestimmbar sein. Schließlich sollten dem Epidemiologen Daten über andere potenzielle Einflüsse auf die interessierende Krankheit zur Verfügung stehen, damit alle aus der Studie ermittelten Wirkungen der beruflichen Exposition der beruflichen Exposition zugeschrieben werden können an sich eher als auf andere bekannte Ursachen der betreffenden Krankheit. In einer Gruppe von Arbeitnehmern, die möglicherweise mit einer Chemikalie arbeiten, von der vermutet wird, dass sie Lungenkrebs verursacht, haben einige Arbeitnehmer möglicherweise auch eine Vorgeschichte des Tabakrauchens, einer weiteren Ursache für Lungenkrebs. In der letzteren Situation müssen Arbeitsepidemiologen feststellen, welche Exposition (oder welcher Risikofaktor – die Chemikalie oder der Tabak oder sogar beides in Kombination) für eine Erhöhung des Lungenkrebsrisikos in der Gruppe der Arbeitnehmer verantwortlich ist studiert.
Expositionsabschätzung
Wenn eine Studie nur Zugriff auf die Tatsache hat, dass ein Arbeitnehmer in einer bestimmten Branche beschäftigt war, können die Ergebnisse einer solchen Studie gesundheitliche Auswirkungen nur mit dieser Branche in Verbindung bringen. Auch wenn für die Berufe der Arbeitnehmer Kenntnisse über die Exposition vorliegen, können nur in Bezug auf die Berufe direkt Rückschlüsse gezogen werden. Es können indirekte Rückschlüsse auf chemische Expositionen gezogen werden, aber ihre Zuverlässigkeit muss von Situation zu Situation bewertet werden. Wenn eine Studie jedoch Zugang zu Informationen über die Abteilung und/oder Berufsbezeichnung jedes Arbeitnehmers hat, können Rückschlüsse auf diese feinere Ebene der Arbeitsplatzerfahrung gezogen werden. Wenn dem Epidemiologen (in Zusammenarbeit mit einem Industriehygieniker) Informationen über die tatsächlichen Substanzen bekannt sind, mit denen eine Person arbeitet, dann wäre dies die beste verfügbare Ebene von Expositionsinformationen, da selten verfügbare Dosimetrien fehlen. Darüber hinaus können die Ergebnisse solcher Studien der Industrie nützlichere Informationen zur Schaffung sicherer Arbeitsplätze liefern.
Die Epidemiologie war bisher eine Art „Black Box“-Disziplin, weil sie die Beziehung zwischen Exposition und Krankheit (den beiden Extremen der Kausalkette) untersuchte, ohne die mechanistischen Zwischenschritte zu berücksichtigen. Dieser Ansatz war trotz seines offensichtlichen Mangels an Verfeinerung äußerst nützlich: Tatsächlich wurden beispielsweise alle bekannten Ursachen von Krebs beim Menschen mit den Werkzeugen der Epidemiologie entdeckt.
Die epidemiologische Methode basiert auf verfügbaren Aufzeichnungen – Fragebögen, Berufsbezeichnungen oder anderen „Proxies“ der Exposition; dies macht die Durchführung epidemiologischer Studien und die Interpretation ihrer Ergebnisse relativ einfach.
Die Grenzen des groberen Ansatzes zur Expositionsbewertung sind jedoch in den letzten Jahren deutlich geworden, da Epidemiologen vor komplexeren Problemen stehen. Beschränken wir unsere Betrachtung auf die berufliche Krebsepidemiologie, so wurden die meisten bekannten Risikofaktoren aufgrund der hohen Exposition in der Vergangenheit entdeckt; eine begrenzte Anzahl von Aufnahmen für jeden Job; große Populationen exponierter Arbeiter; und eine eindeutige Übereinstimmung zwischen „Proxy“-Informationen und Expositionen gegenüber Chemikalien (z. B. Schuharbeiter und Benzol, Werften und Asbest usw.). Heutzutage ist die Situation wesentlich anders: Die Expositionsniveaus sind in den westlichen Ländern erheblich niedriger (diese Einschränkung sollte immer betont werden); Arbeitnehmer sind in derselben Berufsbezeichnung vielen verschiedenen Chemikalien und Mischungen ausgesetzt (z. B. Landarbeiter); homogene Populationen exponierter Arbeitnehmer sind schwieriger zu finden und in der Regel zahlenmäßig klein; und die Übereinstimmung zwischen „Proxy“-Informationen und tatsächlicher Exposition wird zunehmend schwächer. In diesem Zusammenhang haben die Werkzeuge der Epidemiologie aufgrund der Fehlklassifizierung der Exposition eine reduzierte Sensitivität.
Darüber hinaus hat sich die Epidemiologie in den meisten Kohortenstudien auf „harte“ Endpunkte wie den Tod verlassen. Arbeitnehmer ziehen es jedoch möglicherweise vor, etwas anderes als „Körperzahlen“ zu sehen, wenn die potenziellen gesundheitlichen Auswirkungen beruflicher Expositionen untersucht werden. Daher hätte die Verwendung direkterer Indikatoren sowohl für die Exposition als auch für die frühe Reaktion einige Vorteile. Biologische Marker können nur ein Werkzeug sein.
Biologische Marker
Die Verwendung von biologischen Markern, wie beispielsweise Bleiwerten in Blut- oder Leberfunktionstests, ist in der Arbeitsepidemiologie nicht neu. Der Einsatz molekularer Techniken in epidemiologischen Studien hat jedoch die Verwendung von Biomarkern zur Bewertung der Exposition gegenüber Zielorganen, zur Bestimmung der Anfälligkeit und zur Feststellung früher Erkrankungen ermöglicht.
Einsatzmöglichkeiten von Biomarkern im Rahmen der Berufsepidemiologie sind:
In der wissenschaftlichen Gemeinschaft ist große Begeisterung über diese Verwendungen entstanden, aber, wie oben erwähnt, sollte die methodische Komplexität der Verwendung dieser neuen „molekularen Werkzeuge“ dazu dienen, vor übermäßigem Optimismus zu warnen. Biomarker für chemische Belastungen (wie DNA-Addukte) haben mehrere Mängel:
Noch wichtiger als die methodischen Mängel ist die Überlegung, dass molekulare Techniken uns dazu veranlassen könnten, unseren Fokus von der Identifizierung von Risiken in der exogenen Umgebung auf die Identifizierung von Personen mit hohem Risiko umzulenken und dann personalisierte Risikobewertungen durch Messung von Phänotyp, Adduktbelastung und erworbenen Mutationen vorzunehmen. Dies würde unseren Fokus, wie von McMichael angemerkt, auf eine Form der klinischen Bewertung lenken, anstatt auf eine Epidemiologie der öffentlichen Gesundheit. Die Konzentration auf Einzelpersonen könnte uns von dem wichtigen Ziel der öffentlichen Gesundheit ablenken, eine weniger gefährliche Umgebung zu schaffen (McMichael 1994).
Zwei weitere wichtige Fragen ergeben sich in Bezug auf die Verwendung von Biomarkern:
Schließlich mehren sich die Hinweise darauf, dass die metabolische Aktivierung oder Inaktivierung gefährlicher Substanzen (insbesondere von Karzinogenen) in menschlichen Populationen sehr unterschiedlich und teilweise genetisch bedingt ist. Darüber hinaus kann die interindividuelle Variabilität der Anfälligkeit gegenüber Karzinogenen bei geringer beruflicher und umweltbedingter Exposition besonders wichtig sein (Vineis et al. 1994). Solche Erkenntnisse können Regulierungsentscheidungen stark beeinflussen, die den Risikobewertungsprozess auf die anfälligsten Personen konzentrieren (Vineis und Martone 1995).
Studiendesign und Validität
Hernbergs Artikel über epidemiologische Studiendesigns und ihre Anwendung in der Arbeitsmedizin konzentriert sich auf das Konzept der „Studienbasis“, definiert als die Morbiditätserfahrung (in Bezug auf eine bestimmte Exposition) einer Bevölkerung, während sie im Laufe der Zeit verfolgt wird. Die Untersuchungsgrundlage ist also nicht nur eine Population (also eine Personengruppe), sondern die Erfahrung des Krankheitsgeschehens dieser Population in einem bestimmten Zeitraum (Miettinen 1985, Hernberg 1992). Wenn dieses vereinheitlichende Konzept einer Studienbasis übernommen wird, ist es wichtig zu erkennen, dass die unterschiedlichen Studiendesigns (z. B. Fall-Kontroll- und Kohortendesigns) einfach unterschiedliche Arten der „Ernte“ von Informationen sowohl über die Exposition als auch über die Krankheit aus derselben Studie sind Base; es handelt sich nicht um diametral unterschiedliche Ansätze.
Der Artikel zur Validität im Studiendesign von Sasco befasst sich mit Definitionen und der Bedeutung von Confounding. Studienforscher müssen bei berufsbezogenen Studien immer die Möglichkeit von Confounding berücksichtigen, und es kann nie genug betont werden, dass die Identifizierung potenziell verwirrender Variablen ein integraler Bestandteil jedes Studiendesigns und jeder Analyse ist. Zwei Aspekte des Confounding müssen in der Berufsepidemiologie adressiert werden:
Zeitliche und zeitbezogene Variablen wie Risikoalter, Kalenderzeitraum, Zeit seit Einstellung, Zeit seit erster Exposition, Expositionsdauer und deren Behandlung in der Analysephase gehören zu den komplexesten methodischen Fragestellungen der Arbeitsepidemiologie. Sie werden in diesem Kapitel nicht behandelt, aber es wird auf zwei relevante und neuere methodische Referenzen hingewiesen (Pearce 1992; Robins et al. 1992).
Statistiken
Der statistische Artikel von Biggeri und Braga sowie der Titel dieses Kapitels weisen darauf hin, dass statistische Methoden nicht von epidemiologischer Forschung getrennt werden können. Dies liegt daran, dass: (a) ein solides Verständnis der Statistik wertvolle Einblicke in das richtige Design einer Untersuchung liefern kann und (b) Statistik und Epidemiologie ein gemeinsames Erbe teilen und die gesamte quantitative Grundlage der Epidemiologie auf dem Begriff der Wahrscheinlichkeit basiert ( Clayton 1992; Clayton und Hills 1993). In vielen der folgenden Artikel werden empirische Beweise und Beweise für hypothetische kausale Zusammenhänge mit probabilistischen Argumenten und geeigneten Studiendesigns bewertet. Beispielsweise wird der Schwerpunkt auf die Schätzung des Risikomaßes von Interesse gelegt, wie Zinssätze oder relative Risiken, und auf die Konstruktion von Konfidenzintervallen um diese Schätzungen herum, anstatt statistische Wahrscheinlichkeitstests durchzuführen (Poole 1987; Gardner und Altman 1989; Greenland 1990 ). Es wird eine kurze Einführung in das statistische Denken unter Verwendung der Binomialverteilung gegeben. Statistik sollte ein Begleiter des wissenschaftlichen Denkens sein. Aber es ist wertlos, wenn es an richtig konzipierter und durchgeführter Forschung mangelt. Statistiker und Epidemiologen sind sich bewusst, dass die Wahl der Methoden bestimmt, was und in welchem Umfang wir Beobachtungen machen. Die wohlüberlegte Auswahl der Gestaltungsmöglichkeiten ist daher von grundlegender Bedeutung, um valide Beobachtungen zu gewährleisten.
Ethik
Der letzte Artikel von Vineis befasst sich mit ethischen Fragen in der epidemiologischen Forschung. Die in dieser Einführung zu erwähnenden Punkte beziehen sich auf die Epidemiologie als eine Disziplin, die per Definition präventive Maßnahmen impliziert. Spezifische ethische Aspekte im Hinblick auf den Schutz der Arbeitnehmer und der Bevölkerung insgesamt erfordern die Anerkennung, dass:
Ausbildung in Berufsepidemiologie
In die Spezialisierung Berufsepidemiologie finden Menschen mit unterschiedlichsten Hintergründen den Weg. Medizin, Krankenpflege und Statistik sind einige der wahrscheinlicheren Hintergründe, die unter Fachleuten auf diesem Gebiet zu finden sind. In Nordamerika hat etwa die Hälfte aller ausgebildeten Epidemiologen einen naturwissenschaftlichen Hintergrund, während die andere Hälfte den Weg zum Doktor der Medizin eingeschlagen hat. In Ländern außerhalb Nordamerikas haben die meisten Spezialisten für Berufsepidemiologie den Doktortitel erreicht. In Nordamerika werden Menschen mit medizinischer Ausbildung eher als „Inhaltsexperten“ betrachtet, während diejenigen, die auf dem wissenschaftlichen Weg ausgebildet wurden, als „methodische Experten“ gelten. Oft ist es für einen Inhaltsexperten von Vorteil, sich mit einem Methodenexperten zusammenzuschließen, um die bestmögliche Studie zu konzipieren und durchzuführen.
Für das Fach Berufsepidemiologie sind nicht nur Kenntnisse in epidemiologischen Methoden, Statistiken und Computern erforderlich, sondern auch Kenntnisse in Toxikologie, Arbeitshygiene und Krankheitsregistern (Merletti und Comba 1992). Da große Studien eine Verknüpfung mit Krankheitsregistern erfordern können, ist die Kenntnis von Quellen für Bevölkerungsdaten hilfreich. Auch Kenntnisse der Arbeits- und Unternehmensorganisation sind wichtig. Diplomarbeiten auf Master-Ebene und Dissertationen auf Doktorats-Ausbildungsebene statten die Studierenden mit dem Wissen aus, das für die Durchführung umfangreicher datensatzbasierter und interviewbasierter Studien unter Arbeitnehmern erforderlich ist.
Anteil der berufsbedingten Erkrankungen
Der Anteil der Erkrankungen, der entweder bei einer Gruppe exponierter Arbeitnehmer oder in der Allgemeinbevölkerung auf berufliche Expositionen zurückzuführen ist, wird zumindest im Hinblick auf Krebs in einem anderen Teil davon erfasst Enzyklopädie. Hier sollten wir bedenken, dass, wenn eine Schätzung berechnet wird, diese für eine bestimmte Krankheit (und einen bestimmten Ort im Fall von Krebs), einen bestimmten Zeitraum und ein bestimmtes geografisches Gebiet gelten sollte. Darüber hinaus sollte es auf genauen Messungen des Anteils exponierter Personen und des Expositionsgrads beruhen. Dies impliziert, dass der Anteil der berufsbedingten Erkrankungen von sehr niedrig oder null in bestimmten Bevölkerungsgruppen bis zu sehr hoch in anderen in Industriegebieten reichen kann, wo beispielsweise bis zu 40 % der Lungenkrebsfälle auf berufliche Exposition zurückzuführen sind (Vineis und Simonato 1991). Schätzungen, die nicht auf einer detaillierten Überprüfung gut konzipierter epidemiologischer Studien beruhen, können bestenfalls als fundierte Vermutungen angesehen werden und sind von begrenztem Wert.
Übertragung gefährlicher Industrien
Die meisten epidemiologischen Forschungen werden in den Industrieländern durchgeführt, wo die Regulierung und Kontrolle bekannter Berufsgefahren das Krankheitsrisiko in den letzten Jahrzehnten verringert hat. Gleichzeitig fand jedoch eine große Verlagerung gefährlicher Industrien in die Entwicklungsländer statt (Jeyaratnam 1994). Chemikalien, die zuvor in den Vereinigten Staaten oder Europa verboten waren, werden jetzt in Entwicklungsländern hergestellt. Beispielsweise wurde die Asbestzerkleinerung von den USA nach Mexiko verlagert und die Benzidinproduktion aus europäischen Ländern in das ehemalige Jugoslawien und nach Korea (Simonato 1986; LaDou 1991; Pearce et al. 1994).
Ein indirektes Zeichen für das Berufsrisiko und die Arbeitsbedingungen in den Entwicklungsländern ist die Epidemie akuter Vergiftungen, die in einigen dieser Länder auftritt. Einer Schätzung zufolge gibt es jedes Jahr weltweit etwa 20,000 Todesfälle durch akute Pestizidvergiftung, aber dies ist wahrscheinlich eine erhebliche Unterschätzung (Kogevinas et al. 1994). Schätzungen zufolge ereignen sich 99 % aller Todesfälle durch akute Pestizidvergiftung in Entwicklungsländern, wo nur 20 % der weltweiten Agrochemikalien verwendet werden (Kogevinas et al. 1994). Das heißt, selbst wenn die epidemiologische Forschung auf eine Verringerung der Berufsrisiken hinzuweisen scheint, könnte dies einfach darauf zurückzuführen sein, dass der größte Teil dieser Forschung in den Industrieländern durchgeführt wird. Die berufsbedingten Gefahren könnten einfach auf die Entwicklungsländer übertragen worden sein, und die Belastung durch die berufsbedingte Exposition insgesamt könnte weltweit gestiegen sein (Vineis et al. 1995).
Veterinärepidemiologie
Aus offensichtlichen Gründen ist die Veterinär-Epidemiologie nicht direkt relevant für Arbeitsmedizin und Berufsepidemiologie. Dennoch können epidemiologische Studien an Tieren aus mehreren Gründen Hinweise auf umweltbedingte und berufliche Ursachen von Krankheiten liefern:
Tierärzte sprechen von einer epidemiologischen Revolution in der Veterinärmedizin (Schwabe 1993) und es sind Lehrbücher über das Fach erschienen (Thrusfield 1986; Martin et al. 1987). Sicherlich stammen Hinweise auf Umwelt- und Berufsgefahren aus den gemeinsamen Bemühungen von Human- und Tierepidemiologen. Unter anderem die Wirkung von Phenoxyherbiziden bei Schafen und Hunden (Newell et al. 1984; Hayes et al. 1990), von Magnetfeldern (Reif et al. 1995) und mit asbestähnlichen Verbindungen kontaminierten Pestiziden (insbesondere Flohpräparaten) bei Hunden (Glickman et al. 1983) sind bemerkenswerte Beiträge.
Partizipative Forschung, Ergebnisvermittlung und Prävention
Es ist wichtig anzuerkennen, dass viele epidemiologische Studien auf dem Gebiet der Gesundheit am Arbeitsplatz durch die Erfahrung und Besorgnis der Arbeitnehmer selbst initiiert werden (Olsen et al. 1991). Oft glaubten die Arbeiter – diejenigen, die historisch und/oder gegenwärtig exponiert waren –, dass etwas nicht stimmte, lange bevor dies durch die Forschung bestätigt wurde. Berufsepidemiologie kann als eine Möglichkeit betrachtet werden, die Erfahrungen der Arbeitnehmer „zu verstehen“, die Daten systematisch zu sammeln und zu gruppieren und Rückschlüsse auf die beruflichen Ursachen ihrer Krankheit zu ziehen. Darüber hinaus sind die Arbeitnehmer selbst, ihre Vertreter und die für die Gesundheit der Arbeitnehmer zuständigen Personen die am besten geeigneten Personen, um die gesammelten Daten zu interpretieren. Sie sollten daher immer aktiv an allen am Arbeitsplatz durchgeführten Ermittlungen teilnehmen. Nur ihre direkte Beteiligung garantiert, dass der Arbeitsplatz auch nach der Abreise der Forschenden sicher bleibt. Das Ziel jeder Studie ist die Nutzung der Ergebnisse zur Prävention von Krankheiten und Behinderungen, und der Erfolg davon hängt zu einem großen Teil davon ab, sicherzustellen, dass die Exponierten an der Gewinnung und Interpretation der Studienergebnisse teilnehmen. Die Rolle und Verwendung von Forschungsergebnissen in Rechtsstreitigkeiten, wenn Arbeitnehmer Entschädigung für Schäden verlangen, die durch Exposition am Arbeitsplatz verursacht wurden, geht über den Rahmen dieses Kapitels hinaus. Für diesbezügliche Einblicke wird der Leser an anderer Stelle verwiesen (Soskolne, Lilienfeld und Black 1994).
Partizipative Ansätze zur Sicherstellung der Durchführung berufsepidemiologischer Forschung sind mancherorts gängige Praxis in Form von Lenkungsausschüssen geworden, die die Forschungsinitiative von der Anfänge bis zum Abschluss begleiten. Diese Ausschüsse sind in ihrer Struktur mehrteilig, darunter Arbeitnehmer, Wissenschaft, Verwaltung und/oder Regierung. Mit Vertretern aller Stakeholder-Gruppen im Forschungsprozess wird die Ergebniskommunikation durch ihre erhöhte Glaubwürdigkeit effektiver, da „einer aus der eigenen“ die Forschung beaufsichtigt und die Ergebnisse an die jeweiligen Personen kommuniziert Wahlkreis. Auf diese Weise ist wahrscheinlich das größte Maß an wirksamer Prävention zu erwarten.
Diese und andere partizipative Ansätze in der arbeitsmedizinischen Forschung werden unter Einbeziehung derer durchgeführt, die von dem besorgniserregenden expositionsbedingten Problem betroffen oder anderweitig davon betroffen sind. Dies sollte häufiger in der gesamten epidemiologischen Forschung beobachtet werden (Laurell et al. 1992). Es ist wichtig, sich daran zu erinnern, dass das Ziel der Analyse in der epidemiologischen Arbeit die Abschätzung des Ausmaßes und der Verteilung des Risikos ist, in der partizipativen Forschung aber auch die Vermeidbarkeit des Risikos ein Ziel ist (Loewenson und Biocca 1995). Diese Komplementarität von Epidemiologie und effektiver Prävention ist Teil der Botschaft davon Enzyklopädie und dieses Kapitels.
Wahrung der Relevanz für die öffentliche Gesundheit
Obwohl neue Entwicklungen in der epidemiologischen Methodik, in der Datenanalyse und in der Expositionsabschätzung und -messung (wie neue molekularbiologische Techniken) willkommen und wichtig sind, können sie auch zu einem reduktionistischen Ansatz beitragen, der sich auf Einzelpersonen statt auf Bevölkerungsgruppen konzentriert. Es wurde gesagt, dass:
… Epidemiologie hat weitgehend aufgehört, als Teil eines multidisziplinären Ansatzes zum Verständnis der Krankheitsursachen in Bevölkerungen zu fungieren, und ist zu einer Reihe generischer Methoden zur Messung von Zusammenhängen zwischen Exposition und Krankheit bei Einzelpersonen geworden. … Derzeit werden soziale, wirtschaftliche und kulturelle Aspekte vernachlässigt , historische, politische und andere Bevölkerungsfaktoren als Hauptursachen für Krankheiten … Die Epidemiologie muss sich wieder in die öffentliche Gesundheit integrieren und die Bevölkerungsperspektive neu entdecken (Pearce 1996).
Arbeits- und Umweltepidemiologen spielen eine wichtige Rolle, nicht nur bei der Entwicklung neuer epidemiologischer Methoden und Anwendungen für diese Methoden, sondern auch bei der Sicherstellung, dass diese Methoden immer in die richtige Bevölkerungsperspektive integriert werden.
Die Bewertung von Expositionen ist ein entscheidender Schritt bei der Identifizierung von Gefahren am Arbeitsplatz durch epidemiologische Untersuchungen. Der Expositionsbeurteilungsprozess kann in eine Reihe von Tätigkeiten unterteilt werden. Diese beinhalten:
Arbeitsmedizinische Studien werden oft wegen Unzulänglichkeiten bei der Bewertung von Expositionen kritisiert. Unzulänglichkeiten können zu einer differentiellen oder nicht differentiellen Fehlklassifizierung der Exposition und daraus resultierender Verzerrung oder Präzisionsverlust in den Expositions-Wirkungs-Analysen führen. Bemühungen zur Verbesserung der Situation werden durch mehrere kürzlich durchgeführte internationale Konferenzen und Texte zu diesem Thema belegt (ACGIH 1991; Armstrong et al. 1992; Proceedings of the Conference on Retrospective Assessment of Occupational Exposures in Epidemiology 1995). Offensichtlich bieten technische Entwicklungen neue Möglichkeiten zur Verbesserung der Expositionsbewertung. Diese Entwicklungen umfassen Verbesserungen bei der analytischen Instrumentierung, ein besseres Verständnis pharmakokinetischer Prozesse und die Entdeckung neuer Expositions-Biomarker. Da arbeitsmedizinische Studien häufig auf historischen Expositionsinformationen beruhen, für die keine spezifische Überwachung durchgeführt worden wäre, fügt die Notwendigkeit einer rückwirkenden Expositionsbewertung diesen Studien eine zusätzliche Dimension der Komplexität hinzu. Es werden jedoch weiterhin verbesserte Standards für die Bewertung und die Gewährleistung der Zuverlässigkeit solcher Bewertungen entwickelt (Sieemiatycki et al. 1986). Prospektive Expositionsabschätzungen können natürlich leichter validiert werden.
Die Belichtung bezeichnet die Konzentration eines Agens an der Grenze zwischen Individuum und Umwelt. Eine Exposition wird normalerweise angenommen, wenn bekannt ist, dass ein Arbeitsstoff in einer Arbeitsumgebung vorhanden ist, und eine vernünftige Erwartung besteht, dass ein Mitarbeiter mit diesem Arbeitsstoff in Kontakt kommt. Expositionen können als zeitgewichtete durchschnittliche 8-Stunden-Konzentration (TWA) ausgedrückt werden, die ein Maß für die Expositionsintensität ist, die über eine 8-stündige Arbeitsschicht gemittelt wurde. Spitzenkonzentrationen sind Intensitäten, die über kürzere Zeiträume, z. B. 15 Minuten, gemittelt werden. Die kumulative Exposition ist ein Maß für das Produkt aus durchschnittlicher Intensität und Dauer (z. B. eine mittlere 8-Stunden-TWA-Konzentration multipliziert mit den Jahren, in denen bei dieser mittleren Konzentration gearbeitet wurde). Abhängig von der Art der Studie und den interessierenden Gesundheitsergebnissen kann eine Bewertung der Spitzen-, Durchschnittsintensitäts-, kumulativen oder verzögerten Expositionen wünschenswert sein.
Im Gegensatz, empfohlen bezieht sich auf die Abscheidung oder Absorption eines Mittels pro Zeiteinheit. Die Dosis oder die tägliche Aufnahme eines Mittels kann abgeschätzt werden, indem Umgebungsmessdaten mit Standardannahmen bezüglich unter anderem Atemfrequenzen und dermaler Penetration kombiniert werden. Alternativ kann die Aufnahme auf der Grundlage von Biomonitoring-Daten geschätzt werden. Die Dosis würde idealerweise an dem interessierenden Zielorgan gemessen.
Wichtige Faktoren der Expositionsbeurteilung sind:
Dazu gehören das körperliche Niveau der Arbeitstätigkeit und der vorherige Gesundheitszustand von Personen. Bei der Beurteilung der Exposition gegenüber Stoffen, die persistent sind oder zur Bioakkumulation neigen (z. B. bestimmte Metalle, Radionuklide oder stabile organische Verbindungen), ist besondere Sorgfalt geboten. Bei diesen Materialien können die inneren Körperbelastungen selbst bei scheinbar niedrigen Umweltkonzentrationen schleichend zunehmen.
Auch wenn die Situation recht komplex sein kann, ist sie es oft nicht. Sicherlich stammen viele wertvolle Beiträge zur Identifizierung von Berufsgefahren aus Studien, die vernünftige Ansätze zur Expositionsbewertung verwenden. Zu den Informationsquellen, die bei der Identifizierung und Kategorisierung von Expositionen hilfreich sein können, gehören:
Eine möglichst detaillierte Kategorisierung einzelner Engagements hat mehrere Vorteile. Die Aussagekraft einer Studie wird natürlich in dem Maße gesteigert, in dem die relevanten Expositionen angemessen beschrieben wurden. Zweitens kann die Glaubwürdigkeit der Befunde erhöht werden, da dem Confounding-Potenzial zufriedenstellender begegnet werden kann. Beispielsweise unterscheiden sich Referenten und exponierte Personen im Expositionsstatus, können sich aber auch in Bezug auf andere gemessene und nicht gemessene erklärende Faktoren für die interessierende Krankheit unterscheiden. Wenn jedoch innerhalb der Studienpopulation ein Expositionsgradient festgestellt werden kann, ist es weniger wahrscheinlich, dass derselbe Grad an Confounding innerhalb der Expositionsuntergruppen bestehen bleibt, wodurch die Studienergebnisse insgesamt gestärkt werden.
Job-Exposure-Matrizen
Einer der praktischeren und häufiger verwendeten Ansätze zur Expositionsbewertung war die indirekte Schätzung der Exposition auf der Grundlage von Berufsbezeichnungen. Die Verwendung von Job-Exposure-Matrizen kann effektiv sein, wenn vollständige Arbeitsverläufe verfügbar sind und sowohl die Aufgaben als auch die Expositionen, die mit den zu studierenden Jobs verbunden sind, eine angemessene Konstanz aufweisen. Im weitesten Sinne wurden standardmäßige Branchen- und Berufsbezeichnungsgruppierungen aus routinemäßig erhobenen Volkszählungsdaten oder Berufsdaten auf Sterbeurkunden entwickelt. Leider beschränken sich die in diesen großen Aktensystemen geführten Informationen oft auf den „aktuellen“ oder „üblichen“ Beruf. Da die Standardgruppierungen außerdem die Bedingungen an bestimmten Arbeitsplätzen nicht berücksichtigen, müssen sie in der Regel als grobe Expositionssurrogate betrachtet werden.
Für gemeinschafts- und registerbasierte Fall-Kontroll-Studien wurde eine detailliertere Expositionsbewertung erreicht, indem Expertenmeinungen verwendet wurden, um Daten aus dem beruflichen Werdegang, die durch persönliche Interviews erhalten wurden, in halbquantitative Bewertungen wahrscheinlicher Expositionen gegenüber bestimmten Wirkstoffen zu übersetzen (Sieemiatycki et al. 1986 ). Experten wie Chemiker und Industriehygieniker werden aufgrund ihres Wissens und ihrer Vertrautheit mit verschiedenen industriellen Prozessen ausgewählt, um bei der Expositionsbewertung zu helfen. Durch die Kombination der detaillierten Fragebogendaten mit dem Wissen über industrielle Prozesse war dieser Ansatz hilfreich bei der Charakterisierung von Expositionsunterschieden zwischen Arbeitsstätten.
Der Job-Exposure-Matrix-Ansatz wurde auch erfolgreich in branchen- und unternehmensspezifischen Studien eingesetzt (Gamble und Spirtas 1976). Individuelle Jobverläufe (eine chronologische Auflistung früherer Abteilungs- und Jobzuweisungen für jeden Mitarbeiter) werden häufig in den Personalakten des Unternehmens aufbewahrt und bieten, sofern verfügbar, einen vollständigen Jobverlauf für die Mitarbeiter, während sie in dieser Einrichtung arbeiten. Diese Daten können durch persönliche Befragungen der Studienteilnehmer ergänzt werden. Im nächsten Schritt werden alle während der Studienzeit verwendeten Berufsbezeichnungen und Abteilungs- bzw. Arbeitsbereichsbezeichnungen inventarisiert. Diese können in großen Anlagen mit mehreren Prozessen oder in Unternehmen innerhalb einer Branche leicht in die Hunderte oder sogar Tausende gehen, wenn Produktion, Wartung, Forschung, Engineering, Anlagenunterstützungsdienste und Verwaltungsaufgaben alle über einen Zeitraum (oft mehrere Jahrzehnte) betrachtet werden. Änderungen in industriellen Prozessen ermöglichen. Die Datenkonsolidierung kann erleichtert werden, indem eine Computerdatei aller Aufzeichnungen des Arbeitsverlaufs erstellt wird und dann Bearbeitungsroutinen verwendet werden, um die Berufsbezeichnungsterminologie zu standardisieren. Diese Jobs mit relativ homogenen Expositionen können kombiniert werden, um den Prozess der Verknüpfung von Expositionen mit einzelnen Jobs zu vereinfachen. Die Gruppierung von Arbeitsplätzen und Arbeitsorten sollte jedoch nach Möglichkeit durch Messdaten gestützt werden, die nach einer fundierten Stichprobenstrategie erhoben wurden.
Auch bei computergestützten Arbeitsverläufen kann eine nachträgliche Zuordnung von Expositionsdaten zu Personen eine schwierige Aufgabe sein. Sicherlich werden sich die Bedingungen am Arbeitsplatz ändern, wenn sich Technologien ändern, sich die Produktnachfrage ändert und neue Vorschriften eingeführt werden. In vielen Branchen kann es auch zu Änderungen bei Produktformulierungen und saisonalen Produktionsmustern kommen. Über einige Änderungen können dauerhafte Aufzeichnungen geführt werden. Es ist jedoch weniger wahrscheinlich, dass Aufzeichnungen über saisonale und andere marginale Prozess- und Produktionsänderungen aufbewahrt werden. Mitarbeiter können auch geschult werden, um mehrere Jobs auszuführen, und dann zwischen den Jobs wechseln, wenn sich die Produktionsanforderungen ändern. All diese Umstände erhöhen die Komplexität der Expositionsprofile der Mitarbeiter. Dennoch gibt es auch Arbeitsumgebungen, die seit vielen Jahren relativ unverändert geblieben sind. Letztendlich muss jede Arbeitseinstellung für sich bewertet werden.
Letztendlich wird es notwendig sein, die Arbeitslebens-Expositionsgeschichte jeder Person in einer Studie zusammenzufassen. Es wurde ein beträchtlicher Einfluss auf die endgültigen Expositions-Wirkungs-Risikomaße nachgewiesen (Suarez-Almazor et al. 1992), und daher muss bei der Auswahl des am besten geeigneten zusammenfassenden Expositionsmaßes große Sorgfalt walten.
Arbeitshygiene – Umweltmessung
Die Überwachung der Arbeitsbelastung ist eine grundlegende kontinuierliche Aktivität zum Schutz der Gesundheit der Mitarbeiter. So können zum Zeitpunkt der Planung einer epidemiologischen Studie bereits arbeitshygienische Aufzeichnungen vorliegen. Wenn dies der Fall ist, sollten diese Daten überprüft werden, um festzustellen, wie gut die Zielpopulation abgedeckt ist, wie viele Jahre Daten in den Dateien vertreten sind und wie einfach die Messungen mit Jobs, Arbeitsbereichen und Personen verknüpft werden können. Diese Feststellungen werden sowohl bei der Beurteilung der Durchführbarkeit der epidemiologischen Studie als auch bei der Identifizierung von Datenlücken hilfreich sein, die durch zusätzliche Probenahmen der Exposition geschlossen werden könnten.
Besonders wichtig ist die Frage, wie Messdaten am besten mit bestimmten Jobs und Personen verknüpft werden können. Probenahmen aus Bereichen und Atemzonen können für Industriehygieniker hilfreich sein, um Emissionsquellen für Korrekturmaßnahmen zu identifizieren, könnten jedoch weniger nützlich sein, um die tatsächliche Exposition der Mitarbeiter zu charakterisieren, es sei denn, es wurden sorgfältige Zeitstudien der Arbeitsaktivitäten der Mitarbeiter durchgeführt. Beispielsweise kann eine kontinuierliche Bereichsüberwachung zu bestimmten Tageszeiten Exkursionsbelastungen erkennen, es bleibt jedoch die Frage, ob sich Mitarbeiter zu diesem Zeitpunkt im Arbeitsbereich aufgehalten haben oder nicht.
Personenbezogene Probenahmedaten liefern im Allgemeinen genauere Schätzungen der Mitarbeiterexposition, solange die Probenahme unter repräsentativen Bedingungen durchgeführt wird, die Verwendung persönlicher Schutzausrüstung angemessen berücksichtigt wird und die Arbeitsaufgaben und Prozessbedingungen von Tag zu Tag relativ konstant sind. Personenbezogene Proben können durch die Verwendung persönlicher Identifikatoren leicht mit dem einzelnen Mitarbeiter verknüpft werden. Diese Daten können nach Bedarf auf andere Mitarbeiter in denselben Jobs und auf andere Zeiträume verallgemeinert werden. Aufgrund ihrer eigenen Erfahrung haben Rappaport et al. (1993) haben davor gewarnt, dass die Expositionskonzentrationen selbst bei Mitarbeitern, die als homogene Expositionsgruppen eingestuft sind, sehr unterschiedlich sein können. Auch hier ist Expertenmeinung erforderlich, um zu entscheiden, ob von homogenen Expositionsgruppen ausgegangen werden kann oder nicht.
Forscher haben erfolgreich einen Arbeitsplatz-Expositions-Matrix-Ansatz mit der Nutzung von Umweltmessdaten kombiniert, um die Expositionen innerhalb der Zellen der Matrix abzuschätzen. Bei fehlenden Messdaten können ggf. Datenlücken durch Expositionsmodellierung geschlossen werden. Im Allgemeinen beinhaltet dies die Entwicklung eines Modells zur Zuordnung von Umweltkonzentrationen zu leichter zu beurteilenden Determinanten von Expositionskonzentrationen (z. B. Produktionsvolumen, physische Eigenschaften der Anlage einschließlich der Verwendung von Abluftsystemen, Flüchtigkeit der Wirkstoffe und Art der Arbeitstätigkeit). Das Modell wird für Arbeitsumgebungen mit bekannten Umweltkonzentrationen konstruiert und dann verwendet, um Konzentrationen in ähnlichen Arbeitsumgebungen abzuschätzen, denen Messdaten fehlen, die jedoch Informationen über solche Parameter wie Bestandteile und Produktionsmengen haben. Dieser Ansatz kann insbesondere für die retrospektive Schätzung von Expositionen hilfreich sein.
Ein weiteres wichtiges Bewertungsthema ist der Umgang mit der Exposition gegenüber Gemischen. Erstens liegt aus analytischer Sicht der separate Nachweis chemisch verwandter Verbindungen und die Eliminierung von Interferenzen durch andere in der Probe vorhandene Substanzen möglicherweise nicht innerhalb der Möglichkeiten des Analyseverfahrens. Die verschiedenen Limitationen der Analyseverfahren zur Bereitstellung von Messdaten müssen evaluiert und die Studienziele entsprechend angepasst werden. Zweitens kann es sein, dass bestimmte Wirkstoffe fast immer zusammen verwendet werden und daher in ungefähr den gleichen relativen Anteilen in der gesamten untersuchten Arbeitsumgebung vorkommen. In diesem Fall interne statistische Auswertungen an sich nicht hilfreich bei der Unterscheidung, ob Wirkungen auf einen oder die anderen Wirkstoffe oder auf eine Kombination der Wirkstoffe zurückzuführen sind. Solche Beurteilungen wären nur auf der Grundlage externer Studien möglich, in denen die gleichen Wirkstoffkombinationen nicht aufgetreten sind. Schließlich kann es in Situationen, in denen je nach Produktspezifikation verschiedene Materialien austauschbar verwendet werden (z. B. die Verwendung verschiedener Farbstoffe, um gewünschte Farbkontraste zu erhalten), unmöglich sein, Wirkungen einem bestimmten Mittel zuzuschreiben.
Biologische Überwachung
Biomarker sind molekulare, biochemische oder zelluläre Veränderungen, die in biologischen Medien wie menschlichem Gewebe, Zellen oder Flüssigkeiten gemessen werden können. Ein Hauptgrund für die Entwicklung von Expositions-Biomarkern ist die Bereitstellung einer Schätzung der internen Dosis für einen bestimmten Wirkstoff. Dieser Ansatz ist besonders nützlich, wenn mehrere Expositionswege wahrscheinlich sind (z. B. Einatmen und Hautabsorption), wenn Schutzkleidung zeitweise getragen wird oder wenn die Expositionsbedingungen unvorhersehbar sind. Biomonitoring kann besonders vorteilhaft sein, wenn bekannt ist, dass die interessierenden Wirkstoffe relativ lange biologische Halbwertszeiten haben. Aus statistischer Sicht kann ein Vorteil des biologischen Monitorings gegenüber dem Luftmonitoring bei Wirkstoffen mit einer Halbwertszeit von nur zehn Stunden gesehen werden, abhängig vom Grad der Umweltvariabilität (Droz und Wu 1991). Die außerordentlich langen Halbwertszeiten von Materialien wie chlorierten Dioxinen (gemessen in Jahren) machen diese Verbindungen zu idealen Kandidaten für die biologische Überwachung. Wie bei Analysemethoden zur Messung von Luftkonzentrationen muss man sich möglicher Interferenzen bewusst sein. Bevor beispielsweise ein bestimmter Metabolit als Biomarker verwendet wird, sollte bestimmt werden, ob andere gängige Substanzen, wie die in bestimmten Medikamenten und im Zigarettenrauch enthaltenen, zum selben Endpunkt metabolisiert werden könnten oder nicht. Im Allgemeinen sind grundlegende Kenntnisse der Pharmakokinetik eines Wirkstoffs erforderlich, bevor das biologische Monitoring als Grundlage für die Expositionsbewertung verwendet wird.
Die häufigsten Messpunkte sind Alveolarluft, Urin und Blut. Alveolarluftproben können hilfreich sein, um kurzfristige hohe Lösungsmittelbelastungen zu charakterisieren, die innerhalb von Minuten oder Stunden nach der Entnahme der Probe aufgetreten sind. Typischerweise werden Urinproben gesammelt, um die Ausscheidungsraten für Metaboliten der interessierenden Verbindung zu bestimmen. Blutproben können zur direkten Messung der Verbindung, zur Messung von Metaboliten oder zur Bestimmung von Protein- oder DNA-Addukten (z. B. Albumin- oder Hämoglobin-Addukte und DNA-Addukte in zirkulierenden Lymphozyten) entnommen werden. Zugängliche Gewebezellen, wie z. B. Epithelzellen aus dem bukkalen Bereich des Mundes, können ebenfalls zur Identifizierung von DNA-Addukten entnommen werden.
Die Bestimmung der Cholinesterase-Aktivität in roten Blutkörperchen und Plasma veranschaulicht die Verwendung biochemischer Veränderungen als Maß für die Exposition. Organophosphor-Pestizide hemmen die Cholinesterase-Aktivität, und daher kann die Messung dieser Aktivität vor und nach einer wahrscheinlichen Exposition gegenüber diesen Verbindungen ein nützlicher Indikator für die Expositionsintensität sein. Je weiter man jedoch durch das Spektrum der biologischen Veränderungen fortschreitet, desto schwieriger wird es, zwischen Expositions- und Wirkungsbiomarkern zu unterscheiden. Im Allgemeinen sind Wirkungsmaße in der Regel unspezifisch für den interessierenden Stoff, und daher müssen möglicherweise andere mögliche Erklärungen für die Wirkung bewertet werden, um die Verwendung dieses Parameters als Expositionsmaß zu unterstützen. Expositionsmessungen sollten entweder direkt mit dem interessierenden Agens verbunden sein oder es sollte eine solide Grundlage für die Verknüpfung jeglicher indirekten Messung mit dem Agens geben. Trotz dieser Einschränkungen ist die biologische Überwachung viel versprechend als Mittel zur Verbesserung der Expositionsabschätzung zur Unterstützung epidemiologischer Studien.
Schlussfolgerungen
Bei Vergleichen in berufsepidemiologischen Studien muss eine Gruppe von Arbeitnehmern mit Exposition gegenüber einer Gruppe von Arbeitnehmern ohne Exposition verglichen werden. Solche Unterscheidungen sind grob, können aber hilfreich sein, um Problembereiche zu identifizieren. Je verfeinerter die Expositionsmessung ist, desto nützlicher wird die Studie jedoch sein, insbesondere im Hinblick auf ihre Fähigkeit, angemessen zielgerichtete Interventionsprogramme zu identifizieren und zu entwickeln.
Forscher können sich glücklich schätzen, wenn ihnen eine detaillierte Chronologie der Arbeitserfahrung von Arbeitnehmern zur Verfügung steht, die einen historischen Rückblick auf ihre Jobs im Laufe der Zeit bietet. Für diese Arbeitnehmer a Job-Exposure-Matrix kann dann so eingerichtet werden, dass jeder einzelne Arbeitsplatzwechsel, den ein Arbeitnehmer durchlaufen hat, mit spezifischen Expositionsinformationen verknüpft werden kann.
Detaillierte Expositionsgeschichten müssen zu Analysezwecken zusammengefasst werden, um festzustellen, ob Muster erkennbar sind, die mit Gesundheits- und Sicherheitsproblemen am Arbeitsplatz zusammenhängen könnten. Wir können eine Liste von beispielsweise 20 Stellenwechseln visualisieren, die ein Arbeitnehmer in seinem oder ihrem Arbeitsleben erlebt hat. Es gibt dann mehrere alternative Möglichkeiten, wie die Expositionsdetails (für jeden der 20 Arbeitsplatzwechsel in diesem Beispiel) unter Berücksichtigung von Dauer und/oder Konzentration/Dosis/Grad der Exposition zusammengefasst werden können.
Es ist jedoch zu beachten, dass je nach gewählter Methode unterschiedliche Schlussfolgerungen aus einer Studie gezogen werden können (Suarez-Almazor et al. 1992). Ein Beispiel für fünf zusammenfassende Expositionsmessungen während des Arbeitslebens ist in Tabelle 1 dargestellt.
Tabelle 1. Formeln und Dimensionen oder Einheiten der fünf ausgewählten zusammenfassenden Maße der Exposition während des Arbeitslebens
Belichtungsmaß |
Formel |
Abmessungen/Einheiten |
Kumulativer Expositionsindex (CEI) |
Σ (Grad x Belichtungszeit) |
Klasse und Zeit |
Durchschnittsnote (MG) |
Σ (Grad x Expositionszeit)/Gesamtzeit der Exposition |
Klasse |
Bestnote aller Zeiten (HG) |
höchste Klasse, der ≥ 7 Tage ausgesetzt waren |
Klasse |
Zeitgewichteter Durchschnitt (TWA) Note |
Σ (Grad x Expositionszeit)/Gesamtbeschäftigungszeit |
Klasse |
Gesamtzeit ausgesetzt (TTE) |
Σ Zeit ausgesetzt |
Zeit |
Adaptiert von Suarez-Almazor et al. 1992.
Kumulativer Expositionsindex. Der kumulative Expositionsindex (CEI) entspricht in toxikologischen Studien der „Dosis“ und stellt die Summe der Produkte aus Expositionsgrad und Expositionsdauer für jede aufeinanderfolgende Berufsbezeichnung über ein Arbeitsleben dar. Es enthält die Zeit in seinen Einheiten.
Mittlere Note. Die mittlere Note (MG) kumuliert die Produkte aus Expositionsnote und Expositionsdauer für jede aufeinanderfolgende Berufsbezeichnung (dh den CEI) und dividiert durch die Gesamtzeit, die bei einer Note größer als null verbracht wurde. MG ist in seinen Einheiten zeitunabhängig; Die zusammenfassende Maßnahme für eine Person, die über einen langen Zeitraum einer hohen Konzentration ausgesetzt ist, ist ähnlich wie die für eine Person, die über einen kurzen Zeitraum einer hohen Konzentration ausgesetzt ist. Innerhalb jedes Matched Sets in einem Fall-Kontroll-Design ist MG ein durchschnittlicher Expositionsgrad pro exponierter Zeiteinheit. Es handelt sich um eine Durchschnittsnote für die tatsächliche Expositionszeit gegenüber dem betrachteten Mittel.
Höchste Note aller Zeiten. Die Bestnote aller Zeiten (HG) wird ermittelt, indem der Arbeitsverlauf nach der höchsten Notenaufgabe im Beobachtungszeitraum gescannt wird, der der Arbeitnehmer mindestens sieben Tage lang ausgesetzt war. Das HG könnte die berufliche Exposition einer Person falsch darstellen, da es seiner Formulierung nach auf einem Maximierungs- und nicht auf einem Mittelungsverfahren basiert und daher in seinen Einheiten unabhängig von der Expositionsdauer ist.
Zeitgewichteter Notendurchschnitt. Die zeitgewichtete Durchschnittsnote (TWA) ist der kumulative Expositionsindex (CEI) dividiert durch die Gesamtbeschäftigungszeit. Innerhalb jedes Matched Sets in einem Fall-Kontroll-Design ergibt sich der TWA-Grad als Durchschnitt über die gesamte aufgewendete Zeit. Sie unterscheidet sich von MG, die nur über die tatsächlich exponierte Gesamtzeit mittelt. Somit kann die TWA-Klasse unabhängig von der Exposition als durchschnittliche Exposition pro Zeiteinheit während der gesamten Beschäftigungsdauer angesehen werden an sich.
Gesamtzeit ausgesetzt. Die Total Time Exposure (TTE) summiert alle mit der Exposition verbundenen Zeiträume in Zeiteinheiten. TTE besticht durch seine Einfachheit. Es ist jedoch allgemein anerkannt, dass gesundheitliche Auswirkungen nicht nur von der Dauer der Exposition gegenüber Chemikalien, sondern auch von der Intensität dieser Exposition (dh der Konzentration oder dem Grad) abhängen müssen.
Die Nützlichkeit eines zusammenfassenden Expositionsmaßes wird eindeutig durch das jeweilige Gewicht bestimmt, das es entweder der Dauer oder der Konzentration der Exposition oder beiden beimisst. Daher können unterschiedliche Maßnahmen zu unterschiedlichen Ergebnissen führen (Walker und Blettner 1985). Idealerweise sollte das ausgewählte zusammenfassende Maß auf einer Reihe von vertretbaren Annahmen bezüglich des postulierten biologischen Mechanismus für den untersuchten Erreger oder Krankheitsverband beruhen (Smith 1987). Dieses Verfahren ist jedoch nicht immer möglich. Sehr oft ist die biologische Wirkung der Expositionsdauer oder der Konzentration des untersuchten Agens unbekannt. In diesem Zusammenhang kann die Verwendung verschiedener Expositionsmaße nützlich sein, um einen Mechanismus vorzuschlagen, durch den die Exposition ihre Wirkung entfaltet.
Es wird empfohlen, dass in Ermangelung bewährter Modelle zur Bewertung der Exposition eine Vielzahl von zusammenfassenden Expositionsmessungen im Berufsleben zur Risikoabschätzung verwendet werden. Dieser Ansatz würde den Vergleich von Ergebnissen über Studien hinweg erleichtern.
Die Epidemiologie umfasst die Messung des Auftretens von Krankheiten und die Quantifizierung von Zusammenhängen zwischen Krankheiten und Expositionen.
Maßnahmen zum Auftreten von Krankheiten
Das Auftreten von Krankheiten kann gemessen werden durch Frequenzen (zählt), wird aber besser beschrieben durch Preise, die sich aus drei Elementen zusammensetzen: der Anzahl der Betroffenen (Zähler), der Anzahl der Personen in der Ausgangs- bzw. Grundgesamtheit (d. h. der Risikopopulation), aus der die betroffenen Personen stammen, und dem abgedeckten Zeitraum. Der Nenner der Rate ist die gesamte Personenzeit, die von der Quellpopulation erfahren wird. Raten ermöglichen aussagekräftigere Vergleiche zwischen Populationen unterschiedlicher Größe als Zählungen allein. Risiko, die Wahrscheinlichkeit, dass eine Person innerhalb eines bestimmten Zeitraums eine Krankheit entwickelt, ist ein Anteil zwischen 0 und 1 und keine Rate an sich. Angriffsgeschwindigkeit, der Anteil der Personen in einer Bevölkerung, die innerhalb eines bestimmten Zeitraums betroffen sind, ist technisch gesehen ein Risikomaß, keine Rate.
Krankheitsspezifische Morbidität umfasst Häufigkeit, die sich auf die Anzahl der Personen bezieht, bei denen die betreffende Krankheit neu diagnostiziert wird. Prävalenz bezieht sich auf die Anzahl der bestehenden Fälle. Sterblichkeit bezieht sich auf die Zahl der Verstorbenen.
Häufigkeit ist definiert als die Anzahl neu diagnostizierter Fälle innerhalb eines bestimmten Zeitraums, während die Inzidenzrate ist diese Zahl geteilt durch die gesamte Personenzeit, die von der Quellpopulation erfahren wird (Tabelle 1). Bei Krebs werden die Raten normalerweise als jährliche Raten pro 100,000 Personen ausgedrückt. Die Raten für andere häufigere Krankheiten können für eine kleinere Anzahl von Personen ausgedrückt werden. Beispielsweise werden Geburtsfehlerraten normalerweise pro 1,000 Lebendgeburten ausgedrückt. Kumulative Inzidenz, der Anteil der Personen, die innerhalb eines bestimmten Zeitraums zu Fällen werden, ist ein Maß für das durchschnittliche Risiko für eine Bevölkerung.
Tabelle 1. Maße für das Auftreten der Krankheit: Hypothetische Population, die über einen Zeitraum von fünf Jahren beobachtet wurde
Neu diagnostizierte Fälle |
10 |
Zuvor diagnostizierte lebende Fälle |
12 |
Todesfälle, alle Ursachen* |
5 |
Todesfälle, Krankheit von Interesse |
3 |
Personen in der Bevölkerung |
100 |
Jahre beobachtet |
5 |
Häufigkeit |
10 Personen |
Jährliche Inzidenzrate |
|
Punktprävalenz (am Ende des 5. Jahres) |
(10 + 12 - 3) = 19 Personen |
Periodenprävalenz (Fünfjahreszeitraum) |
(10 + 12) = 22 Personen |
Jährliche Todesrate |
|
Jährliche Sterblichkeitsrate |
*Um die Berechnungen zu vereinfachen, wird in diesem Beispiel davon ausgegangen, dass alle Todesfälle am Ende des Fünfjahreszeitraums eingetreten sind, sodass alle 100 Personen in der Bevölkerung die vollen fünf Jahre am Leben waren.
Prävalenz Dazu gehören Punkt Prävalenz, die Anzahl der Krankheitsfälle zu einem bestimmten Zeitpunkt und Periodenprävalenz, die Gesamtzahl der Fälle einer Krankheit, von denen bekannt ist, dass sie irgendwann während eines bestimmten Zeitraums aufgetreten sind.
Sterblichkeit, die sich eher auf Todesfälle als auf neu diagnostizierte Krankheitsfälle bezieht, spiegelt Faktoren wider, die Krankheiten verursachen, sowie Faktoren im Zusammenhang mit der Qualität der medizinischen Versorgung, wie z. B. Screening, Zugang zu medizinischer Versorgung und Verfügbarkeit wirksamer Behandlungen. Folglich können hypothesengenerierende Bemühungen und ätiologische Forschung informativer und leichter zu interpretieren sein, wenn sie auf Inzidenzdaten statt auf Mortalitätsdaten basieren. Allerdings sind Sterblichkeitsdaten für große Populationen oft leichter verfügbar als Inzidenzdaten.
Die Todesrate wird allgemein akzeptiert, um die Rate für Todesfälle aus allen Ursachen zusammen zu bezeichnen, wohingegen Sterblichkeitsrate ist die Todesrate aufgrund einer bestimmten Ursache. Für eine bestimmte Krankheit, die Fallsterblichkeitsrate (technisch gesehen ein Anteil, keine Rate) ist die Anzahl der Personen, die während eines bestimmten Zeitraums an der Krankheit sterben, dividiert durch die Anzahl der Personen mit der Krankheit. Das Komplement der Sterblichkeitsrate ist die Überlebensrate. Die Fünf-Jahres-Überlebensrate ist ein allgemeiner Maßstab für chronische Krankheiten wie Krebs.
Das Auftreten einer Krankheit kann zwischen Untergruppen der Bevölkerung oder im Laufe der Zeit variieren. Ein Krankheitsmaß für eine ganze Bevölkerung ohne Berücksichtigung von Untergruppen wird als a bezeichnet Rohsatz. Beispielsweise ist eine Inzidenzrate für alle Altersgruppen zusammen eine grobe Rate. Die Preise für die einzelnen Altersgruppen sind die altersspezifische Tarife. Um zwei oder mehr Populationen mit unterschiedlichen Altersverteilungen zu vergleichen, altersangepasst (oder, altersstandardisiert) Raten sollten für jede Population berechnet werden, indem jede altersspezifische Rate mit dem Prozentsatz der Standardpopulation (z. B. einer der untersuchten Populationen, der US-Bevölkerung von 1970) in dieser Altersgruppe multipliziert und dann über alle Altersgruppen summiert wird eine altersbereinigte Gesamtrate ergeben. Die Tarife können um andere Faktoren als das Alter, wie Rasse, Geschlecht oder Raucherstatus, angepasst werden, wenn die kategoriespezifischen Tarife bekannt sind.
Die Überwachung und Auswertung von deskriptiven Daten kann Hinweise auf die Krankheitsätiologie liefern, Untergruppen mit hohem Risiko identifizieren, die für Interventions- oder Screening-Programme geeignet sein könnten, und Daten über die Wirksamkeit solcher Programme liefern. Zu den Informationsquellen, die für Überwachungstätigkeiten verwendet wurden, gehören Sterbeurkunden, Krankenakten, Krebsregister, andere Krankheitsregister (z. B. Geburtsfehlerregister, Register für Nierenerkrankungen im Endstadium), Verzeichnisse der beruflichen Exposition, Kranken- oder Berufsunfähigkeitsversicherungsunterlagen und Arbeitnehmerentschädigungen Aufzeichnungen.
Maßnahmen der Assoziation
Die Epidemiologie versucht, Faktoren zu identifizieren und zu quantifizieren, die Krankheiten beeinflussen. Im einfachsten Ansatz wird das Auftreten von Krankheiten bei Personen, die einem verdächtigen Faktor ausgesetzt sind, mit dem Auftreten von Personen verglichen, die nicht exponiert sind. Das Ausmaß eines Zusammenhangs zwischen Exposition und Krankheit kann in beiden ausgedrückt werden Absolute or relativ Bedingungen. (Siehe auch „Fallbeispiel: Maßnahmen“).
Absolute Effekte werden gemessen durch Tarifunterschiede und Risikounterschiede (Tabelle 2). EIN Tarifunterschied ist eine Rate minus einer zweiten Rate. Wenn zum Beispiel die Inzidenzrate von Leukämie unter Benzol-exponierten Arbeitern 72 pro 100,000 Personenjahre und die Rate unter nicht exponierten Arbeitern 12 pro 100,000 Personenjahre beträgt, dann beträgt die Ratendifferenz 60 pro 100,000 Personenjahre. EIN Risiko Unterschied ist ein Unterschied in den Risiken oder der kumulativen Inzidenz und kann von -1 bis 1 reichen.
Tabelle 2. Assoziationsmaße für eine Kohortenstudie
Projekte |
Personenjahre gefährdet |
Preis pro 100,000 |
|
Ausgesetzt |
100 |
20,000 |
500 |
Unbelichtet |
200 |
80,000 |
250 |
Total |
300 |
100,000 |
300 |
Ratendifferenz (RD) = 500/100,000 - 250/100,000
= 250/100,000 pro Jahr
(146.06/100,000 - 353.94/100,000)*
Ratenverhältnis (oder relatives Risiko) (RR) =
Zurechenbares Risiko bei Exponierten (ARe) = 100/20,000 - 200/80,000
= 250/100,000 pro Jahr
Zurechenbares Risiko in Prozent der Exponierten (ARe%) =
Bevölkerungsbezogenes Risiko (PAR) = 300/100,000 - 200/80,000
= 50/100,000 pro Jahr
Bevölkerungsbezogenes Risiko in Prozent (PAR%) =
* In Klammern 95-%-Konfidenzintervalle, berechnet mit den Formeln in den Kästchen.
Relative Effekte basieren auf Quotenverhältnissen oder Risikomaßen statt auf Differenzen. EIN Ratenverhältnis ist das Verhältnis einer Rate in einer Population zu der Rate in einer anderen. Das Ratenverhältnis wurde auch als das bezeichnet Risikoverhältnis, relatives Risiko, relative Rate und Häufigkeit (oder Sterblichkeit) Ratenverhältnis. Das Maß ist dimensionslos und reicht von 0 bis unendlich. Wenn die Rate in zwei Gruppen ähnlich ist (dh es gibt keine Wirkung von der Exposition), die Ratenverhältnis gleich Eins (1) ist. Eine Exposition, die das Risiko erhöht, würde ein Ratenverhältnis größer als eins ergeben, während ein Schutzfaktor ein Verhältnis zwischen 0 und 1 ergeben würde übermäßiges relatives Risiko ist das relative Risiko minus 1. Beispielsweise kann ein relatives Risiko von 1.4 auch als ein zusätzliches relatives Risiko von 40 % ausgedrückt werden.
In Fall-Kontroll-Studien (auch Fall-Referenz-Studien genannt) werden Personen mit Krankheit identifiziert (Fälle) und Personen ohne Krankheit identifiziert (Kontrollen oder Referenzen). Vergangene Expositionen der beiden Gruppen werden verglichen. Die Wahrscheinlichkeit, ein exponierter Fall zu sein, wird mit der Wahrscheinlichkeit, eine exponierte Kontrolle zu sein, verglichen. Vollständige Zählungen der Quellpopulationen von exponierten und nicht exponierten Personen sind nicht verfügbar, daher können keine Krankheitsraten berechnet werden. Stattdessen können die exponierten Fälle durch Berechnung von mit den exponierten Kontrollen verglichen werden relative ChancenOder das Wahrscheinlichkeit (Tisch 3).
Tabelle 3. Assoziationsmaße für Fall-Kontroll-Studien: Exposition gegenüber Holzstaub und Adenokarzinom der Nasenhöhle und der Nasennebenhöhlen
Projekte |
Steuergriffe |
|
Ausgesetzt |
18 |
55 |
Unbelichtet |
5 |
140 |
Total |
23 |
195 |
Relative Quoten (Odds Ratio) (OR) =
Zurechenbares Risiko in Prozent der exponierten () =
Bevölkerungsbezogenes Risiko in Prozent (PAR%) =
woher = Anteil der exponierten Kontrollen = 55/195 = 0.28
* In Klammern 95-%-Konfidenzintervalle, berechnet mit den Formeln im Kasten auf der Rückseite.
Quelle: Adaptiert von Hayes et al. 1986.
Relative Wirkungsmaße werden häufiger als absolute Maße verwendet, um die Stärke eines Zusammenhangs zu beschreiben. Absolute Maße können jedoch einen besseren Hinweis auf die Auswirkungen einer Assoziation auf die öffentliche Gesundheit geben. Ein kleiner relativer Anstieg bei einer häufigen Krankheit wie Herzerkrankungen kann mehr Personen betreffen (großer Risikounterschied) und stärkere Auswirkungen auf die öffentliche Gesundheit haben als ein großer relativer Anstieg (aber kleiner absoluter Unterschied) bei einer seltenen Krankheit wie z Angiosarkom der Leber.
Signifikanztest
Das Testen auf statistische Signifikanz wird häufig an Wirkungsmaßen durchgeführt, um die Wahrscheinlichkeit zu bewerten, dass die beobachtete Wirkung von der Nullhypothese abweicht (dh keine Wirkung). Während viele Studien, insbesondere in anderen Bereichen der biomedizinischen Forschung, ihre Bedeutung zum Ausdruck bringen können p-Werte, typischerweise epidemiologische Studien vorhanden Vertrauensintervalle (CI) (auch genannt Grenzen des Selbstvertrauens). Ein 95-%-Konfidenzintervall ist beispielsweise ein Bereich von Werten für das Effektmaß, das das aus den Studiendaten erhaltene geschätzte Maß und dasjenige umfasst, das mit 95-%-Wahrscheinlichkeit den wahren Wert enthält. Bei Werten außerhalb des Intervalls ist es unwahrscheinlich, dass sie das wahre Maß der Wirkung enthalten. Wenn das KI für ein Ratenverhältnis Eins enthält, gibt es keinen statistisch signifikanten Unterschied zwischen den verglichenen Gruppen.
Konfidenzintervalle sind aussagekräftiger als p-Werte allein. Die Größe eines p-Werts wird durch einen oder beide von zwei Gründen bestimmt. Entweder ist das Assoziationsmaß (z. B. Rate Ratio, Risikodifferenz) groß oder die untersuchten Populationen sind groß. Beispielsweise kann ein kleiner Unterschied in den Krankheitsraten, der in einer großen Population beobachtet wird, zu einem hochsignifikanten p-Wert führen. Aus dem p-Wert allein lassen sich die Gründe für den großen p-Wert nicht erkennen. Konfidenzintervalle ermöglichen es uns jedoch, die beiden Faktoren voneinander zu trennen. Erstens ist die Größe des Effekts durch die Werte des Effektmaßes und die vom Intervall umfassten Zahlen erkennbar. Größere Risikokennzahlen weisen beispielsweise auf eine stärkere Wirkung hin. Zweitens beeinflusst die Größe der Grundgesamtheit die Breite des Konfidenzintervalls. Kleine Populationen mit statistisch instabilen Schätzungen erzeugen breitere Konfidenzintervalle als größere Populationen.
Das zum Ausdrücken der Variabilität der Ergebnisse gewählte Konfidenzniveau (die „statistische Signifikanz“) ist willkürlich, liegt jedoch traditionell bei 95 %, was einem p-Wert von 0.05 entspricht. Ein Konfidenzintervall von 95 % enthält mit einer Wahrscheinlichkeit von 95 % das wahre Maß des Effekts. Gelegentlich werden auch andere Konfidenzniveaus wie 90 % verwendet.
Expositionen können dichotom sein (z. B. exponiert und nicht exponiert) oder können viele Expositionsniveaus beinhalten. Wirkungsmaße (dh Reaktion) können je nach Expositionsgrad variieren. Auswerten Expositions-Antwort Beziehungen ist ein wichtiger Teil der Interpretation epidemiologischer Daten. Das Analogon zur Expositions-Wirkung im Tierversuch ist die „Dosis-Wirkung“. Wenn die Reaktion mit der Expositionshöhe zunimmt, ist ein kausaler Zusammenhang wahrscheinlicher, als wenn kein Trend beobachtet wird. Zu den statistischen Tests zur Bewertung von Expositions-Wirkungs-Beziehungen gehören der Mantel-Erweiterungstest und der Chi-Quadrat-Trendtest.
Standardisierung
Um andere Faktoren als die interessierende primäre Exposition und die Krankheit zu berücksichtigen, können Assoziationsmaße verwendet werden standardisiert B. durch Schichtungs- oder Regressionstechniken. Schichtung bedeutet die Einteilung der Populationen in homogene Gruppen in Bezug auf den Faktor (z. B. Geschlechtsgruppen, Altersgruppen, Rauchergruppen). Risikokennzahlen oder Quotenverhältnisse werden für jede Schicht berechnet und gewichtete Gesamtdurchschnitte der Risikokennzahlen oder Quotenverhältnisse werden berechnet. Diese Gesamtwerte spiegeln den um den Stratifizierungsfaktor bereinigten Zusammenhang zwischen der primären Exposition und der Erkrankung wider, dh den Zusammenhang mit den Effekten des Stratifizierungsfaktors herausgerechnet.
A standardisiertes Ratenverhältnis (SRR) ist das Verhältnis zweier standardisierter Zinssätze. Mit anderen Worten, ein SRR ist ein gewichteter Durchschnitt von schichtspezifischen Ratenverhältnissen, wobei die Gewichtungen für jede Schicht die Personen-Zeit-Verteilung der nicht exponierten oder Bezugsgruppe sind. SRRs für zwei oder mehr Gruppen können verglichen werden, wenn dieselben Gewichte verwendet werden. Konfidenzintervalle können für SRRs wie für Ratenverhältnisse konstruiert werden.
Die standardisierte Sterblichkeitsrate (SMR) ist ein gewichteter Durchschnitt von altersspezifischen Quotenverhältnissen, wobei die Gewichtungen (z. B. Person-Time-at-Risk) von der untersuchten Gruppe und die Quoten von der Referenzpopulation stammen, das Gegenteil der Situation in einer SRR. Die übliche Bezugspopulation ist die allgemeine Bevölkerung, deren Sterblichkeitsraten möglicherweise leicht verfügbar sind und auf großen Zahlen basieren und daher stabiler sind als die Verwendung von Raten aus einer nicht exponierten Kohorte oder Untergruppe der untersuchten Berufsgruppe. Die Verwendung der Gewichte der Kohorte anstelle der Referenzpopulation wird als indirekte Standardisierung bezeichnet. Die SMR ist das Verhältnis der beobachteten Anzahl von Todesfällen in der Kohorte zur erwarteten Anzahl, basierend auf den Raten der Referenzpopulation (das Verhältnis wird zur Darstellung typischerweise mit 100 multipliziert). Wenn kein Zusammenhang besteht, beträgt die SMR 100. Es sollte beachtet werden, dass zwei oder mehr SMRs tendenziell nicht vergleichbar sind, da die Raten von der Referenzpopulation und die Gewichtungen von der Studiengruppe stammen. Diese Nicht-Vergleichbarkeit wird bei der Interpretation epidemiologischer Daten oft vergessen und es können falsche Schlussfolgerungen gezogen werden.
Healthy-Worker-Effekt
Berufskohorten haben sehr häufig eine niedrigere Gesamtmortalität als die allgemeine Bevölkerung, selbst wenn die Arbeitnehmer einem erhöhten Risiko für ausgewählte Todesursachen aufgrund von Expositionen am Arbeitsplatz ausgesetzt sind. Dieses Phänomen, genannt die gesunder Arbeitereffekt, spiegelt die Tatsache wider, dass jede Gruppe von Erwerbstätigen im Durchschnitt wahrscheinlich gesünder ist als die allgemeine Bevölkerung, zu der Arbeitnehmer und Personen gehören, die aufgrund von Krankheiten und Behinderungen nicht arbeiten können. Die Gesamtsterblichkeitsrate in der Allgemeinbevölkerung ist tendenziell höher als die Rate bei Arbeitnehmern. Die Wirkung ist je nach Todesursache unterschiedlich stark. Beispielsweise scheint es bei Krebs im Allgemeinen weniger wichtig zu sein als bei chronisch obstruktiven Lungenerkrankungen. Ein Grund dafür ist, dass sich die meisten Krebserkrankungen wahrscheinlich nicht aus einer Prädisposition für Krebs entwickelt hätten, die der Berufswahl in einem jüngeren Alter zugrunde liegt. Der Gesunde-Arbeiter-Effekt in einer bestimmten Gruppe von Arbeitnehmern nimmt im Laufe der Zeit tendenziell ab.
Proportionale Sterblichkeit
Manchmal ist eine vollständige tabellarische Aufstellung einer Kohorte (dh gefährdete Personenzeit) nicht verfügbar, und es gibt nur Informationen zu den Todesfällen oder einer Teilmenge von Todesfällen in der Kohorte (z. B. Todesfälle unter Rentnern und aktiven Angestellten, aber nicht unter Arbeitnehmern). die ihre Erwerbstätigkeit aufgegeben haben, bevor sie Anspruch auf eine Rente hatten). Die Berechnung von Personenjahren erfordert spezielle Methoden zur Erfassung der Personenzeit, einschließlich Sterbetafelmethoden. Ohne Angaben zur gesamten Personenzeit aller Kohortenmitglieder, unabhängig vom Krankheitsstatus, können SMRs und SRRs nicht berechnet werden. Stattdessen, proportionale Sterblichkeitsverhältnisse (PMRs) verwendet werden. Ein PMR ist das Verhältnis der beobachteten Anzahl von Todesfällen aufgrund einer bestimmten Ursache im Vergleich zu der erwarteten Anzahl, basierend auf dem Anteil der Gesamttodesfälle aufgrund der spezifischen Ursache in der Referenzpopulation, multipliziert mit der Anzahl der Gesamttodesfälle in der Studie Gruppe, multipliziert mit 100.
Da der Anteil der Todesfälle aus allen Todesursachen zusammen 1 (PMR = 100) betragen muss, scheinen einige PMRs zu hoch zu sein, sind aber tatsächlich künstlich aufgeblasen aufgrund echter Defizite bei anderen Todesursachen. In ähnlicher Weise können einige offensichtliche Defizite lediglich tatsächliche Exzesse bei anderen Todesursachen widerspiegeln. Wenn beispielsweise Pestizidausbringer aus der Luft einen großen realen Überschuss an Todesfällen aufgrund von Unfällen haben, kann die mathematische Anforderung, dass der PMR für alle Ursachen zusammen gleich 100 ist, dazu führen, dass die eine oder andere Todesursache mangelhaft erscheint, selbst wenn die Sterblichkeit zu hoch ist. Um dieses potenzielle Problem zu lindern, können Forscher, die sich hauptsächlich für Krebs interessieren, kalkulieren proportionale Krebssterblichkeitsraten (PCMR). PCMRs vergleichen die beobachtete Zahl der Krebstodesfälle mit der erwarteten Zahl basierend auf dem Anteil der gesamten Krebstodesfälle (anstelle aller Todesfälle) für den interessierenden Krebs in der Referenzpopulation multipliziert mit der Gesamtzahl der Krebstodesfälle in der Studiengruppe, multipliziert mit 100. Somit wird die PCMR nicht durch eine Abweichung (Überschuss oder Mangel) bei einer nicht krebsbedingten Todesursache wie Unfällen, Herzerkrankungen oder nicht bösartigen Lungenerkrankungen beeinflusst.
PMR-Studien können besser analysiert werden mit Sterblichkeit Odds Ratios (MORs), wobei die Daten im Wesentlichen so analysiert werden, als ob sie aus einer Fall-Kontroll-Studie stammen würden. Die „Kontrollen“ sind die Todesfälle aus einer Untergruppe aller Todesfälle, von denen angenommen wird, dass sie in keinem Zusammenhang mit der untersuchten Exposition stehen. Wenn beispielsweise das Hauptinteresse der Studie Krebs war, könnten die Sterblichkeitswahrscheinlichkeitsverhältnisse berechnet werden, indem die Exposition bei den Krebstoten mit der Exposition bei den kardiovaskulären Todesfällen verglichen wird. Dieser Ansatz vermeidet wie die PCMR die Probleme mit der PMR, die entstehen, wenn eine Schwankung bei einer Todesursache das offensichtliche Risiko einer anderen beeinflusst, einfach weil die Gesamt-PMR gleich 100 sein muss. Die Wahl der Kontrolltodesursachen ist jedoch kritisch . Wie oben erwähnt, müssen sie nicht mit der Exposition zusammenhängen, aber die mögliche Beziehung zwischen Exposition und Krankheit ist möglicherweise für viele potenzielle Kontrollkrankheiten nicht bekannt.
Zurechenbares Risiko
Es stehen Maßzahlen zur Verfügung, die das Krankheitsausmaß ausdrücken, das einer Exposition zuzuschreiben wäre, wenn der beobachtete Zusammenhang zwischen der Exposition und der Krankheit kausal wäre. Das zurechenbares Risiko im Exponierten (ARe) ist die Krankheitsrate bei den Exponierten minus der Rate bei den Nicht-Exponierten. Da Krankheitsraten in Fall-Kontroll-Studien nicht direkt gemessen werden können, ist der ARe ist nur für Kohortenstudien berechenbar. Eine verwandte, intuitivere Maßnahme, die zurechenbaren Risikoprozentsatz im Exponierten (ARe%), können aus beiden Studiendesigns gewonnen werden. Die ARe% ist der Anteil der in der exponierten Bevölkerung aufgetretenen Fälle, der auf die Exposition zurückzuführen ist (Formel siehe Tabelle 2 und Tabelle 3). Die ARe% ist das Quotenverhältnis (oder Odds Ratio) minus 1, geteilt durch das Quotenverhältnis (oder Odds Ratio), multipliziert mit 100.
Die der Bevölkerung zuzurechnendes Risiko (PAR) und die der Bevölkerung zuzurechnendes Risiko in Prozent (PAR%) oder ätiologische Fraktion, drücken das Ausmaß der Erkrankung in der Gesamtbevölkerung aus, die sich aus exponierten und nicht exponierten Personen zusammensetzt, die auf die Exposition zurückzuführen ist, wenn der beobachtete Zusammenhang kausal ist. Der PAR kann aus Kohortenstudien erhalten werden (Tabelle 28.3) und der PAR% kann sowohl in Kohorten- als auch in Fall-Kontroll-Studien berechnet werden (Tabelle 2 und Tabelle 3).
Repräsentativität
Es gibt mehrere Risikomaße, die beschrieben wurden. Jeder übernimmt zugrunde liegende Methoden zum Zählen von Ereignissen und in die Repräsentanten dieser Ereignisse zu einer definierten Gruppe. Wenn Ergebnisse studienübergreifend verglichen werden, ist ein Verständnis der verwendeten Methoden unerlässlich, um beobachtete Unterschiede zu erklären.
Der Epidemiologe interessiert sich für Beziehungen zwischen Variablen, hauptsächlich Expositions- und Ergebnisvariablen. Typischerweise möchten Epidemiologen feststellen, ob das Auftreten einer Krankheit mit dem Vorhandensein eines bestimmten Erregers (Exposition) in der Bevölkerung zusammenhängt. Die Art und Weise, wie diese Beziehungen untersucht werden, kann sehr unterschiedlich sein. Man kann alle Personen identifizieren, die diesem Agens ausgesetzt sind, und sie nachverfolgen, um das Auftreten der Krankheit zu messen, indem man dieses Auftreten mit dem Auftreten der Krankheit in einer geeigneten, nicht exponierten Population vergleicht. Alternativ kann man einfach unter den Belichteten und Unbelichteten Proben nehmen, ohne eine vollständige Aufzählung von ihnen zu haben. Oder man kann als dritte Alternative alle Personen identifizieren, die in einem definierten Zeitraum eine interessierende Krankheit entwickeln („Fälle“) und eine geeignete Gruppe von krankheitsfreien Personen (eine Stichprobe der Quellpopulation von Fällen) und ermitteln ob sich die Expositionsmuster zwischen den beiden Gruppen unterscheiden. Eine Möglichkeit ist die Nachbeobachtung der Studienteilnehmer (in sogenannten Längsschnittstudien): In dieser Situation besteht eine zeitliche Verzögerung zwischen dem Auftreten der Exposition und dem Ausbruch der Erkrankung. Eine alternative Möglichkeit ist ein Bevölkerungsquerschnitt, bei dem sowohl die Exposition als auch die Erkrankung zum gleichen Zeitpunkt gemessen werden.
In diesem Artikel wird auf die gängigen Studiendesigns – Kohorte, Fall-Referent (Fall-Kontrolle) und Querschnitt – eingegangen. Betrachten Sie als Grundlage für diese Diskussion eine große Viskosefabrik in einer kleinen Stadt. Eine Untersuchung, ob eine Schwefelkohlenstoffbelastung das Risiko für Herz-Kreislauf-Erkrankungen erhöht, wird eingeleitet. Die Untersuchung hat mehrere Gestaltungsmöglichkeiten, einige mehr und andere weniger offensichtlich. Eine erste Strategie besteht darin, alle Arbeiter zu identifizieren, die Schwefelkohlenstoff ausgesetzt waren, und sie auf kardiovaskuläre Mortalität zu verfolgen.
Kohortenstudien
Eine Kohortenstudie umfasst Forschungsteilnehmer, die ein gemeinsames Ereignis teilen, die Exposition. Eine klassische Kohortenstudie identifiziert eine definierte Gruppe von exponierten Personen, und dann werden alle weiterverfolgt und ihre Morbiditäts- und/oder Mortalitätserfahrungen registriert. Neben einer gemeinsamen qualitativen Exposition sollte die Kohorte auch auf andere Weise definiert werden AuswahlkriterienB. Altersgruppe, Geschlecht (männlich oder weiblich oder beides), Mindestdauer und -intensität der Exposition, Freiheit von anderen Expositionen und dergleichen, um die Aussagekraft und Effizienz der Studie zu verbessern. Bei der Aufnahme sollten alle Kohortenmitglieder frei von der zu untersuchenden Krankheit sein, gemäß dem empirischen Kriterienkatalog, der zur Messung der Krankheit verwendet wird.
Wird beispielsweise in der Kohortenstudie zu den Auswirkungen von Schwefelkohlenstoff auf die koronare Morbidität eine koronare Herzkrankheit empirisch als klinischer Infarkt gemessen, müssen diejenigen, die zu Studienbeginn einen Koronarinfarkt in der Vorgeschichte hatten, aus der Kohorte ausgeschlossen werden. Im Gegensatz dazu können elektrokardiographische Anomalien ohne Infarktanamnese akzeptiert werden. Wenn jedoch das Auftreten neuer elektrokardiographischer Veränderungen das empirische Ergebnismaß ist, sollten die Kohortenmitglieder auch normale Elektrokardiogramme zu Studienbeginn haben.
Die Morbidität (in Bezug auf die Inzidenz) oder die Mortalität einer exponierten Kohorte sollte mit einer Referenzkohorte verglichen werden, die der exponierten Kohorte idealerweise in allen relevanten Aspekten, mit Ausnahme der Exposition, so ähnlich wie möglich sein sollte, um das relative Risiko zu bestimmen Krankheit oder Tod durch Exposition. Die Verwendung einer ähnlichen, aber nicht exponierten Kohorte als Anbieter der Referenzerfahrung ist der üblichen (Fehl-)Praxis vorzuziehen, die Morbidität oder Mortalität der exponierten Kohorte mit altersstandardisierten nationalen Zahlen zu vergleichen, da die allgemeine Bevölkerung selbst die meisten nicht erfüllt elementare Anforderungen an die Vergleichsvalidität. Das standardisierte Morbiditäts- (oder Mortalitäts-)Verhältnis (SMR), das sich aus einem solchen Vergleich ergibt, führt normalerweise zu einer Unterschätzung des wahren Risikoverhältnisses, da in der exponierten Kohorte eine Verzerrung auftritt, was zu einer mangelnden Vergleichbarkeit zwischen den beiden Populationen führt. Diese Vergleichsverzerrung wird als „Healthy Worker Effect“ bezeichnet. Es handelt sich jedoch nicht wirklich um einen echten „Effekt“, sondern um eine Verzerrung durch negatives Confounding, das wiederum durch gesundheitsselektive Fluktuation in einer erwerbstätigen Bevölkerung entstanden ist. (Menschen mit schlechter Gesundheit neigen dazu, „exponierte“ Kohorten zu verlassen oder nie in sie einzutreten, da ihr Endziel oft der arbeitslose Teil der Allgemeinbevölkerung ist.)
Denn eine „exponierte“ Kohorte ist nur definiert als eine bestimmte Exposition Wirkungen, die durch diese einzelne Exposition verursacht wurden (oder Mischung von Expositionen) können gleichzeitig studiert werden. Andererseits erlaubt das Kohortendesign die Untersuchung von mehrere Krankheiten gleichzeitig. Man kann auch gleichzeitig verschiedene Manifestationen derselben Krankheit untersuchen – zum Beispiel Angina pectoris, EKG-Veränderungen, klinische Myokardinfarkte und koronare Mortalität. Eine Kohortenstudie ist zwar gut geeignet, um spezifische Hypothesen zu testen (z. B. „Einwirkung von Schwefelkohlenstoff verursacht koronare Herzkrankheit“), liefert aber auch Antworten auf die allgemeinere Frage: „Welche Krankheiten werden durch diese Einwirkung verursacht?“
Beispielsweise werden in einer Kohortenstudie, die das Risiko von Gießereiarbeitern untersucht, an Lungenkrebs zu sterben, die Mortalitätsdaten aus dem nationalen Todesursachenregister bezogen. Obwohl die Studie klären sollte, ob Gießereistaub Lungenkrebs verursacht, gibt die Datenquelle bei gleichem Aufwand auch Auskunft über alle anderen Todesursachen. Daher können gleichzeitig andere mögliche Gesundheitsrisiken untersucht werden.
Der Zeitpunkt einer Kohortenstudie kann entweder retrospektiv (historisch) oder prospektiv (gleichzeitig) sein. In beiden Fällen ist die Designstruktur dieselbe. Eine vollständige Zählung der exponierten Personen erfolgt zu einem bestimmten Zeitpunkt oder Zeitraum, und das Ergebnis wird für alle Personen bis zu einem definierten Endpunkt gemessen. Der Unterschied zwischen prospektiv und retrospektiv liegt im Zeitpunkt der Studie. Wenn rückwirkend, ist der Endpunkt bereits eingetreten; wenn Interessent, muss man darauf warten.
Beim retrospektiven Design wird die Kohorte zu einem bestimmten Zeitpunkt in der Vergangenheit definiert (z. B. diejenigen, die am 1. Januar 1961 exponiert waren oder zwischen 1961 und 1970 eine exponierte Arbeit übernommen haben). Die Morbidität und/oder Mortalität von alle Kohortenmitglieder wird dann bis in die Gegenwart verfolgt. Obwohl „alle“ bedeutet, dass auch die Ausgeschiedenen erfasst werden müssen, ist eine 100-prozentige Erfassung in der Praxis selten zu erreichen. Je vollständiger jedoch das Follow-up ist, desto aussagekräftiger ist die Studie.
Beim prospektiven Design wird die Kohorte zum gegenwärtigen Zeitpunkt oder während eines zukünftigen Zeitraums definiert, und die Morbidität wird dann in die Zukunft verfolgt.
Bei der Durchführung von Kohortenstudien muss genügend Zeit für die Nachverfolgung eingeplant werden, damit die Endpunkte der Bedenken genügend Zeit haben, sich zu manifestieren. Da historische Aufzeichnungen möglicherweise nur für einen kurzen Zeitraum in der Vergangenheit verfügbar sind, ist es manchmal dennoch wünschenswert, diese Datenquelle zu nutzen, da dies bedeutet, dass ein kürzerer Zeitraum der prospektiven Nachverfolgung erforderlich wäre, bevor Ergebnisse aus der Studie vorliegen könnten erhältlich. In diesen Situationen kann eine Kombination aus retrospektivem und prospektivem Kohortenstudiendesign effizient sein. Das allgemeine Layout von Häufigkeitstabellen mit Kohortendaten ist in Tabelle 1 dargestellt.
Tabelle 1. Das allgemeine Layout von Häufigkeitstabellen mit Kohortendaten
Komponente der Krankheitsrate |
Exponierte Kohorte |
Nicht exponierte Kohorte |
Krankheits- oder Todesfälle |
c1 |
c0 |
Anzahl der Personen in der Kohorte |
N1 |
N0 |
Der beobachtete Anteil an Erkrankten in der exponierten Kohorte wird berechnet als:
und die der Referenzkohorte als:
Das Ratenverhältnis wird dann ausgedrückt als:
N0 und N1 werden in der Regel in Personen-Zeit-Einheiten und nicht als Anzahl der Personen ausgedrückt die Bevölkerungen. Personenjahre werden für jede Person separat berechnet. Verschiedene Personen treten oft während eines bestimmten Zeitraums in die Kohorte ein, nicht zum selben Zeitpunkt. Daher beginnen ihre Nachverfolgungszeiten zu unterschiedlichen Zeitpunkten. Ebenso sind sie nach ihrem Tod oder nach Eintreten des interessierenden Ereignisses nicht mehr „gefährdet“ und sollten nicht weiterhin Personenjahre zum Nenner beitragen.
Wenn die RR größer als 1 ist, ist die Morbidität der exponierten Kohorte höher als die der Referenzkohorte und umgekehrt. Die RR ist eine Punktschätzung, für die ein Konfidenzintervall (KI) berechnet werden sollte. Je größer die Studie, desto schmaler wird das Konfidenzintervall. Wenn RR = 1 nicht im Konfidenzintervall enthalten ist (z. B. das 95 %-KI 1.4 bis 5.8 beträgt), kann das Ergebnis auf dem gewählten Wahrscheinlichkeitsniveau (in diesem Beispiel α = 0.05) als „statistisch signifikant“ angesehen werden.
Wird die allgemeine Bevölkerung als Referenzbevölkerung verwendet, c0 wird durch die „erwartete“ Zahl ersetzt, E (c1 ), abgeleitet von den altersstandardisierten Morbiditäts- oder Mortalitätsraten dieser Population (dh der Anzahl der Fälle, die in der Kohorte aufgetreten wären, wenn die interessierende Exposition nicht stattgefunden hätte). Dies ergibt das standardisierte Mortalitäts- (oder Morbiditäts-) Verhältnis, SMR. Daher,
Auch für die SMR sollte ein Konfidenzintervall berechnet werden. Es ist besser, dieses Maß in einer Veröffentlichung anzugeben als einen p-Wert, da statistische Signifikanztests bedeutungslos sind, wenn die allgemeine Bevölkerung die Referenzkategorie ist. Ein solcher Vergleich bringt eine beträchtliche Verzerrung mit sich (die gesunder Arbeitereffekt oben erwähnt) und statistische Signifikanztests, die ursprünglich für die experimentelle Forschung entwickelt wurden, sind bei Vorliegen systematischer Fehler irreführend.
Angenommen, die Frage lautet, ob Quarzstaub Lungenkrebs verursacht. Üblicherweise tritt Quarzstaub zusammen mit anderen Karzinogenen auf – etwa Radon-Tochterprodukte und Dieselabgase in Bergwerken oder polyaromatische Kohlenwasserstoffe in Gießereien. Granitsteinbrüche setzen die Steinarbeiter diesen anderen Karzinogenen nicht aus. Daher wird das Problem am besten unter Steinarbeitern untersucht, die in Granitsteinbrüchen beschäftigt sind.
Nehmen wir dann an, dass alle 2,000 Arbeiter, die zwischen 20 und 1951 in 1960 Steinbrüchen beschäftigt waren, in die Kohorte aufgenommen werden und ihre Krebsinzidenz (alternativ nur Mortalität) ab zehn Jahren nach der ersten Exposition verfolgt wird (um eine Induktionszeit zu ermöglichen) und bis 1990. Dies ist eine 20- bis 30-jährige (je nach Eintrittsjahr) oder, sagen wir, durchschnittlich 25-jährige Nachbeobachtung der Krebsmortalität (oder -morbidität) unter 1,000 der Steinbrucharbeiter, die waren speziell Granitarbeiter. Die Expositionsgeschichte jedes Kohortenmitglieds muss aufgezeichnet werden. Diejenigen, die die Steinbrüche verlassen haben, müssen aufgespürt und ihre spätere Expositionsgeschichte aufgezeichnet werden. In Ländern, in denen alle Einwohner eindeutige Registrierungsnummern haben, ist dies ein einfaches Verfahren, das hauptsächlich durch nationale Datenschutzgesetze geregelt wird. Wo kein solches System existiert, kann es äußerst schwierig sein, Mitarbeiter zu Nachverfolgungszwecken aufzuspüren. Wo entsprechende Todes- oder Krankheitsregister existieren, kann die Sterblichkeit aus allen Ursachen, allen Krebsarten und spezifischen Krebsherden aus dem nationalen Register der Todesursachen abgerufen werden. (Für die Krebssterblichkeit ist das nationale Krebsregister eine bessere Quelle, da es genauere Diagnosen enthält. Außerdem können auch Inzidenz- (oder Morbiditäts-) Daten abgerufen werden.) Die Todesraten (oder Krebsinzidenzraten) können verglichen werden mit „ erwartete Zahlen“, berechnet aus nationalen Raten unter Zugrundelegung der Personenjahre der exponierten Kohorte.
Nehmen wir an, dass 70 tödliche Fälle von Lungenkrebs in der Kohorte gefunden werden, während die erwartete Zahl (die Zahl, die aufgetreten wäre, wenn es keine Exposition gegeben hätte) 35 ist. Dann:
c1 = 70, E (c1) = 35
Somit ist die SMR = 200, was auf eine zweifache Erhöhung des Risikos, an Lungenkrebs zu sterben, unter den Exponierten hinweist. Wenn detaillierte Expositionsdaten verfügbar sind, kann die Krebssterblichkeit in Abhängigkeit von verschiedenen Latenzzeiten (z. B. 10, 15, 20 Jahre), Arbeit in verschiedenen Arten von Steinbrüchen (verschiedene Granitsorten), verschiedenen historischen Perioden und verschiedenen Expositionen untersucht werden Intensitäten und so weiter. Allerdings lassen sich 70 Fälle nicht in zu viele Kategorien unterteilen, da die Zahl der Fälle für eine statistische Auswertung schnell zu gering wird.
Beide Arten von Kohortendesigns haben Vor- und Nachteile. Eine retrospektive Studie kann in der Regel nur die Mortalität messen, da Daten für mildere Manifestationen meist fehlen. Eine Ausnahme bilden Krebsregister und vielleicht einige andere, wie Schlaganfallregister und Krankenhausentlassungsregister, in denen auch Inzidenzdaten verfügbar sind. Die Bewertung früherer Expositionen ist immer ein Problem, und die Expositionsdaten sind in retrospektiven Studien normalerweise eher schwach. Dies kann zu einer Effektmaskierung führen. Andererseits liegen die Ergebnisse der Studie viel früher vor, da die Fälle bereits aufgetreten sind; in, sagen wir, zwei bis drei Jahren.
Eine prospektive Kohortenstudie kann besser geplant werden, um den Bedürfnissen des Forschers gerecht zu werden, und Expositionsdaten können genau und systematisch gesammelt werden. Es können mehrere unterschiedliche Manifestationen einer Krankheit gemessen werden. Sowohl Expositions- als auch Ergebnismessungen können wiederholt werden, und alle Messungen können standardisiert und ihre Gültigkeit überprüft werden. Wenn die Krankheit jedoch eine lange Latenz hat (wie Krebs), wird viel Zeit – sogar 20 bis 30 Jahre – vergehen müssen, bevor die Ergebnisse der Studie vorliegen können. In dieser Zeit kann viel passieren. Zum Beispiel Fluktuation von Forschern, Verbesserungen der Techniken zur Messung der Exposition, Umbau oder Schließung der für die Untersuchung ausgewählten Anlagen und so weiter. All diese Umstände gefährden den Studienerfolg. Auch die Kosten einer prospektiven Studie sind in der Regel höher als die einer retrospektiven Studie, dies liegt aber meist an der deutlich höheren Anzahl an Messungen (wiederholte Expositionsüberwachung, klinische Untersuchungen etc.) und nicht an der teureren Sterberegistrierung. Deshalb, die Kosten pro Informationseinheit nicht notwendigerweise über die einer retrospektiven Studie hinausgehen. Vor diesem Hintergrund eignen sich prospektive Studien eher für Erkrankungen mit eher kurzer Latenz, die ein kurzes Follow-up erfordern, während retrospektive Studien besser für Erkrankungen mit langer Latenz geeignet sind.
Fallkontrollstudien (oder fallbezogene Studien).
Kommen wir zurück zur Viskosefabrik. Eine retrospektive Kohortenstudie ist möglicherweise nicht durchführbar, wenn die Dienstpläne der exponierten Arbeiter verloren gegangen sind, während eine prospektive Kohortenstudie erst nach sehr langer Zeit solide Ergebnisse liefern würde. Eine Alternative wäre dann der Vergleich zwischen den in der Stadt im Laufe eines definierten Zeitraums an koronarer Herzkrankheit Verstorbenen und einer Stichprobe der Gesamtbevölkerung in der gleichen Altersgruppe.
Das klassische fallkontrollierte (oder fallbezogene) Design basiert auf der Stichprobenziehung aus einer dynamischen (offenen, durch einen Mitgliederwechsel gekennzeichneten) Population. Diese Bevölkerung kann die eines ganzen Landes, eines Bezirks oder einer Gemeinde sein (wie in unserem Beispiel), oder es kann die administrativ definierte Bevölkerung sein, aus der Patienten in ein Krankenhaus aufgenommen werden. Die definierte Population stellt sowohl die Fälle als auch die Kontrollen (oder Referenzen) bereit.
Die Technik besteht darin, alle Fälle der fraglichen Krankheit zu sammeln, die bei a existieren Punkt in der Zeit (häufige Fälle) oder während eines definierten Zeitraums aufgetreten sind Zeit der Zeit (Ereignisfälle). Die Fälle können somit Morbiditäts- oder Mortalitätsregistern entnommen werden oder direkt von Krankenhäusern oder anderen Quellen mit gültiger Diagnostik gesammelt werden. Die Steuerelemente werden als gezeichnet Sample aus derselben Population, entweder aus Nicht-Fällen oder aus der Gesamtpopulation. Eine andere Möglichkeit ist wählen Patienten mit einer anderen Krankheit als Kontrollen, aber dann müssen diese Patienten repräsentativ für die Bevölkerung sein, aus der die Fälle stammen. Für jeden Fall kann es eine oder mehrere Kontrollen (dh Referenten) geben. Der Stichprobenansatz unterscheidet sich von Kohortenstudien, die die gesamte Bevölkerung untersuchen. Es versteht sich von selbst, dass die Vorteile in Bezug auf die geringeren Kosten von Fall-Kontroll-Designs beträchtlich sind, aber es ist wichtig, dass die Stichprobe es ist Vertreter der gesamten Population, aus der die Fälle stammen (dh die „Studienbasis“) – andernfalls kann die Studie verzerrt sein.
Wenn Fälle und Kontrollen identifiziert wurden, werden ihre Expositionsgeschichten durch Fragebögen, Interviews oder in einigen Fällen aus bestehenden Aufzeichnungen (z. B. Gehaltslisten, aus denen Arbeitsverläufe abgeleitet werden können) gesammelt. Die Daten können entweder von den Teilnehmern selbst oder, falls sie verstorben sind, von nahen Angehörigen erhoben werden. Um einen symmetrischen Rückruf zu gewährleisten, ist es wichtig, dass der Anteil von toten und lebenden Fällen und Referenten gleich ist, da nahe Verwandte normalerweise eine weniger detaillierte Expositionsgeschichte als die Teilnehmer selbst angeben. Informationen über das Expositionsmuster bei den Fällen werden mit denen bei den Kontrollen verglichen, was eine Schätzung der Wahrscheinlichkeit (OR), ein indirektes Maß für die Risiko unter den Exponierten, an der Krankheit zu erkranken relativ zu dem der Unbelichteten.
Da das Fall-Kontroll-Design auf den Expositionsinformationen beruht, die von Patienten mit einer bestimmten Krankheit (dh Fällen) zusammen mit einer Stichprobe von nicht erkrankten Personen (dh Kontrollen) aus der Population, aus der die Fälle stammten, erhalten wurden, ist die Verbindung mit Expositionen gegeben kann nur recherchiert werden eine Krankheit. Im Gegensatz dazu ermöglicht dieses Design die gleichzeitige Untersuchung der Wirkung von mehrere unterschiedliche Belichtungen. Die fallbezogene Studie ist gut geeignet, um spezifische Forschungsfragen zu beantworten (z. B. „Wird eine koronare Herzkrankheit durch die Exposition gegenüber Schwefelkohlenstoff verursacht?“), aber sie kann auch helfen, die allgemeinere Frage zu beantworten: „Welche Expositionen können diese Krankheit verursachen? ?”
Die Frage, ob die Exposition gegenüber organischen Lösungsmitteln primären Leberkrebs verursacht, wird (als Beispiel) in Europa aufgeworfen. Fälle von primärem Leberkrebs, einer vergleichsweise seltenen Erkrankung in Europa, werden am besten aus einem nationalen Krebsregister erfasst. Angenommen, alle Krebsfälle, die während drei Jahren auftreten, bilden die Fallserie. Die Bevölkerungsbasis für die Studie ist dann ein dreijähriges Follow-up der gesamten Bevölkerung in dem betreffenden europäischen Land. Die Kontrollen werden als Stichprobe von Personen ohne Leberkrebs aus der gleichen Population gezogen. Aus Gründen der Bequemlichkeit (d. h. dass dieselbe Quelle für die Probenahme der Kontrollen verwendet werden kann) können Patienten mit einer anderen Krebsart, die nicht mit Lösungsmittelexposition in Verbindung steht, als Kontrollen verwendet werden. Dickdarmkrebs hat keinen bekannten Zusammenhang mit Lösungsmittelexposition; daher kann dieser Krebstyp zu den Kontrollen gezählt werden. (Die Verwendung von Krebskontrollen minimiert Erinnerungsverzerrungen, da die Genauigkeit der Anamnese von Fällen und Kontrollen im Durchschnitt symmetrisch ist. Wenn jedoch später ein derzeit unbekannter Zusammenhang zwischen Dickdarmkrebs und Lösungsmittelexposition aufgedeckt würde, würde diese Art der Kontrolle zu Problemen führen eine Unterschätzung des wahren Risikos – keine Übertreibung davon.)
Für jeden Fall von Leberkrebs werden zwei Kontrollen gezogen, um eine größere statistische Aussagekraft zu erreichen. (Man könnte noch mehr Kontrollen ziehen, aber verfügbare Mittel können ein limitierender Faktor sein. Wenn die Mittel nicht begrenzt wären, wären vielleicht bis zu vier Kontrollen optimal. Über vier hinaus gilt das Gesetz des abnehmenden Ertrags.) Nach Einholung einer entsprechenden Erlaubnis von Daten Schutzbehörden, die Fälle und Kontrollen oder ihre nahen Angehörigen werden kontaktiert, in der Regel mittels eines per Post zugesandten Fragebogens, in dem um eine detaillierte Berufsgeschichte mit besonderem Schwerpunkt auf einer chronologischen Liste der Namen aller Arbeitgeber, der Arbeitsabteilungen, der Arbeitsaufgaben in unterschiedlichen Beschäftigungen und die Dauer der Beschäftigung in der jeweiligen Tätigkeit. Diese Daten sind nur schwer von Verwandten zu bekommen; An bestimmte Chemikalien oder Handelsnamen erinnern sich Verwandte jedoch normalerweise nicht gut. Der Fragebogen sollte auch Fragen zu möglichen Stördaten wie Alkoholkonsum, Kontakt mit aflatoxinhaltigen Lebensmitteln und Hepatitis-B- und -C-Infektionen enthalten. Um eine ausreichend hohe Responsequote zu erreichen, werden zwei Reminder im Abstand von drei Wochen an Nicht-Responder versendet. Dies führt in der Regel zu einer endgültigen Rücklaufquote von über 70 %. Die berufliche Vorgeschichte wird dann von einem Arbeitshygieniker überprüft, ohne Kenntnis des Falls oder des Kontrollstatus des Befragten, und die Exposition wird in hohe, mittlere, niedrige, keine und unbekannte Exposition gegenüber Lösungsmitteln eingeteilt. Die zehnjährige Exposition unmittelbar vor der Krebsdiagnose werden nicht berücksichtigt, da es biologisch nicht plausibel ist, dass Karzinogene vom Initiatortyp bei einer so kurzen Latenzzeit die Ursache des Krebses sein können (obwohl Promotoren dies tatsächlich könnten). In diesem Stadium ist es auch möglich, zwischen verschiedenen Arten der Lösungsmittelbelastung zu unterscheiden. Da eine vollständige Erwerbshistorie vorgelegt wurde, ist es auch möglich, andere Expositionen zu untersuchen, obwohl diese in der ursprünglichen Studienhypothese nicht enthalten waren. Odds Ratios können dann für die Exposition gegenüber einem beliebigen Lösungsmittel, bestimmten Lösungsmitteln, Lösungsmittelgemischen, verschiedenen Kategorien der Expositionsintensität und für verschiedene Zeitfenster in Bezug auf die Krebsdiagnose berechnet werden. Es ist ratsam, Personen mit unbekannter Exposition von der Analyse auszuschließen.
Die Fälle und Kontrollen können als Proben entnommen und analysiert werden eigenständige Serie or passende Gruppen. Matching bedeutet, dass Kontrollen für jeden Fall basierend auf bestimmten Merkmalen oder Attributen ausgewählt werden, um Paare (oder Sätze, wenn mehr als eine Kontrolle für jeden Fall ausgewählt wird) zu bilden. Der Abgleich erfolgt normalerweise auf der Grundlage eines oder mehrerer solcher Faktoren, wie Alter, Vitalzustand, Rauchergeschichte, Kalenderzeit der Falldiagnose und dergleichen. In unserem Beispiel werden Fälle und Kontrollen dann nach Alter und Vitalstatus abgeglichen. (Vitalstatus ist wichtig, da Patienten selbst in der Regel eine genauere Expositionsgeschichte angeben als nahe Verwandte, und Symmetrie aus Validitätsgründen unerlässlich ist.) Heute wird empfohlen, beim Matching restriktiv vorzugehen, da dieses Verfahren negative (Effektmaskierung) einführen kann ) verwirrend.
Wenn ein Steuerelement einem Fall zugeordnet ist, wird das Design a genannt Matched-Pair-Design. Vorausgesetzt, die Kosten für die Untersuchung weiterer Kontrollen sind nicht unerschwinglich, verbessert mehr als ein Referent pro Fall die Stabilität der Schätzung des OR, wodurch die Studie größeneffizienter wird.
Die Aufteilung der Ergebnisse einer ungepaarten Fall-Kontroll-Studie ist in Tabelle 2 dargestellt.
Tabelle 2. Musterlayout von Fallkontrolldaten
Expositionsklassifizierung |
||
Ausgesetzt |
Unbelichtet |
|
Projekte |
c1 |
c0 |
Nicht-Fälle |
n1 |
n0 |
Aus dieser Tabelle können die Expositionswahrscheinlichkeiten unter den Fällen und die Expositionswahrscheinlichkeiten unter der Population (den Kontrollen) berechnet und geteilt werden, um das Expositionswahrscheinlichkeitsverhältnis OR zu erhalten. Für die Fälle ist die Expositionswahrscheinlichkeit c1 / c0, und für die Kontrollen ist es n1 / n0. Die Abschätzung des OR ist dann:
Wenn relativ mehr Fälle als Kontrollen exponiert wurden, liegt das OR über 1 und umgekehrt. Konfidenzintervalle müssen für das OR auf die gleiche Weise wie für das RR berechnet und bereitgestellt werden.
Als weiteres Beispiel dient ein arbeitsmedizinisches Zentrum eines großen Unternehmens für 8,000 Mitarbeiter, die einer Vielzahl von Stäuben und anderen chemischen Arbeitsstoffen ausgesetzt sind. Uns interessiert der Zusammenhang zwischen Mischstaubbelastung und chronischer Bronchitis. Die Studie umfasst eine einjährige Nachbeobachtung dieser Population. Als diagnostisches Kriterium für eine chronische Bronchitis haben wir „Morgenhusten und Schleimproduktion für drei Monate in zwei aufeinanderfolgenden Jahren“ festgelegt. Kriterien für eine „positive“ Staubexposition werden vor Studienbeginn festgelegt. Jeder Patient, der das Gesundheitszentrum besucht und diese Kriterien während eines Zeitraums von einem Jahr erfüllt, ist ein Fall, und der nächste Patient, der wegen nicht pulmonaler Probleme ärztlichen Rat einholt, wird als Kontrolle definiert. Angenommen, während des Studienzeitraums werden 100 Fälle und 100 Kontrollen aufgenommen. Es seien 40 Fälle und 15 Kontrollen als staubexponiert einzustufen. Dann
c1 = 40, c0 = 60, n1 = 15 und n0 = 85.
Folglich
Im vorstehenden Beispiel wurde die Möglichkeit einer Verwechslung nicht berücksichtigt, die aufgrund systematischer Unterschiede zwischen Fällen und Kontrollen in einer Variablen wie dem Alter zu einer Verzerrung des OR führen kann. Eine Möglichkeit, diese Verzerrung zu reduzieren, besteht darin, die Kontrollen den Fällen nach Alter oder anderen verdächtigen Faktoren zuzuordnen. Daraus ergibt sich ein in Tabelle 3 dargestelltes Datenlayout.
Tabelle 3. Layout der Fallkontrolldaten, wenn jedem Fall eine Kontrolle zugeordnet wird
Referenten |
||
Projekte |
Belichtung (+) |
Belichtung (-) |
Belichtung (+) |
f+ + |
f+ - |
Belichtung (-) |
f- + |
f- - |
Die Analyse konzentriert sich auf die diskordanten Paare: „Fall exponiert, Kontrolle nicht exponiert“ (f+–); und „Fall unbelichtet, Kontrolle belichtet“ (f–+). Wenn beide Mitglieder eines Paares exponiert oder nicht exponiert sind, wird das Paar nicht berücksichtigt. Das OR in einem Matched-Pair-Studiendesign ist definiert als
In einer Studie zum Zusammenhang zwischen Nasenkrebs und Holzstaubbelastung gab es insgesamt 164 Fall-Kontroll-Paare. Bei nur einem Paar waren sowohl der Fall als auch die Kontrolle exponiert worden, und bei 150 Paaren waren weder der Fall noch die Kontrolle exponiert worden. Diese Paare werden nicht weiter betrachtet. Das Gehäuse, aber nicht die Kontrolle, wurde in 12 Paaren exponiert, und die Kontrolle, aber nicht das Gehäuse, in einem Paar. Somit,
und da die Einheit in diesem Intervall nicht enthalten ist, ist das Ergebnis statistisch signifikant – das heißt, es besteht ein statistisch signifikanter Zusammenhang zwischen Nasenkrebs und Holzstaubbelastung.
Fall-Kontroll-Studien sind effizienter als Kohortenstudien, wenn die Krankheit ist selten; sie können tatsächlich die einzige Option bieten. Aber auch Volkskrankheiten können mit dieser Methode untersucht werden. Wenn die Exposition ist selten, eine expositionsbasierte Kohorte ist das bevorzugte oder einzig mögliche epidemiologische Design. Selbstverständlich können auch Kohortenstudien zu gemeinsamen Expositionen durchgeführt werden. Die Wahl zwischen Kohorten- und Fall-Kontroll-Designs, wenn sowohl die Exposition als auch die Erkrankung häufig sind, wird normalerweise unter Berücksichtigung von Validitätserwägungen entschieden.
Da sich Fall-Kontroll-Studien auf retrospektive Expositionsdaten stützen, die normalerweise auf der Erinnerung der Teilnehmer beruhen, ist ihre Schwachstelle die Ungenauigkeit und Rohheit der Expositionsinformationen, was zu einer Effektmaskierung führt nicht differenziell (symmetrische) Fehlklassifizierung des Expositionsstatus. Darüber hinaus kann der Rückruf manchmal zwischen Fällen und Kontrollen asymmetrisch sein, Fälle, von denen normalerweise angenommen wird, dass sie sich „besser“ erinnern (dh Rückrufverzerrung).
Selektive Rückrufe können eine effektverstärkende Verzerrung bewirken Differential (asymmetrische) Fehlklassifizierung des Expositionsstatus. Die Vorteile von Fall-Kontroll-Studien liegen in ihrer Kosteneffektivität und ihrer Fähigkeit, relativ schnell eine Problemlösung zu liefern. Aufgrund der Stichprobenstrategie ermöglichen sie die Untersuchung sehr großer Zielpopulationen (z. B. durch nationale Krebsregister) und erhöhen damit die statistische Aussagekraft der Studie. In Ländern, in denen Datenschutzgesetze oder das Fehlen guter Bevölkerungs- und Morbiditätsregister die Durchführung von Kohortenstudien behindern, können krankenhausbasierte Fall-Kontroll-Studien die einzige praktische Möglichkeit sein, epidemiologische Forschung durchzuführen.
Fall-Kontroll-Stichprobe innerhalb einer Kohorte (verschachtelte Fall-Kontroll-Studiendesigns)
Eine Kohortenstudie kann auch für Stichproben anstelle einer vollständigen Nachverfolgung konzipiert werden. Dieses Design wurde früher als „verschachtelte“ Fall-Kontroll-Studie bezeichnet. Ein Stichprobenansatz innerhalb der Kohorte stellt andere Anforderungen an die Kohorteneignung, da die Vergleiche nun innerhalb derselben Kohorte erfolgen. Dies sollte daher nicht nur stark exponierte Arbeitnehmer, sondern auch weniger exponierte und sogar nicht exponierte Arbeitnehmer umfassen, um eine Versorgung zu gewährleisten Belichtungskontraste in sich. Es ist wichtig, diesen Unterschied in den Zulassungsvoraussetzungen bei der Zusammenstellung der Kohorte zu berücksichtigen. Wenn zuerst eine vollständige Kohortenanalyse an einer Kohorte durchgeführt wird, deren Eignungskriterien auf einer „hohen“ Exposition lagen, und später eine „verschachtelte“ Fall-Kontroll-Studie an derselben Kohorte durchgeführt wird, wird die Studie unempfindlich. Dies führt zu einer Effektmaskierung, da die Belichtungskontraste aufgrund einer fehlenden Variabilität in der Belichtungserfahrung unter den Mitgliedern der Kohorte „absichtlich“ unzureichend sind.
Vorausgesetzt, die Kohorte verfügt über ein breites Spektrum an Expositionserfahrung, ist der verschachtelte Fall-Kontroll-Ansatz jedoch sehr attraktiv. Man fasst alle in der Kohorte auftretenden Fälle über den Nachbeobachtungszeitraum zur Fallserie zusammen, während nur a Sample der Nicht-Fälle wird für die Kontrollreihe gezogen. Die Forscher sammeln dann, wie beim traditionellen Fall-Kontroll-Design, detaillierte Informationen über die Expositionserfahrung, indem sie Fälle und Kontrollen (oder ihre nahen Verwandten) befragen, die Personallisten der Arbeitgeber prüfen, indem sie a Job-Exposure-Matrix, oder durch Kombinieren von zwei oder mehr dieser Ansätze. Die Kontrollen können entweder den Fällen zugeordnet oder als eigenständige Serie behandelt werden.
Der Stichprobenansatz kann im Vergleich zur umfassenden Informationsbeschaffung über jedes Mitglied der Kohorte weniger kostspielig sein. Da insbesondere nur eine Stichprobe von Kontrollen untersucht wird, können mehr Ressourcen für eine detaillierte und genaue Expositionsbewertung für jeden Fall und jede Kontrolle aufgewendet werden. Allerdings herrschen die gleichen statistischen Power-Probleme wie in klassischen Kohortenstudien. Um eine ausreichende statistische Aussagekraft zu erreichen, muss die Kohorte je nach Größe des zu erfassenden Risikos immer eine „ausreichende“ Anzahl exponierter Fälle umfassen.
Querschnittsstudiendesigns
Im wissenschaftlichen Sinne ist ein Querschnittsdesign ein Querschnitt der Studienpopulation ohne zeitliche Berücksichtigung. Sowohl Exposition als auch Morbidität (Prävalenz) werden zum gleichen Zeitpunkt gemessen.
Aus ätiologischer Sicht ist dieses Studiendesign schwach, auch weil es sich nicht um die Inzidenz, sondern um die Prävalenz handelt. Die Prävalenz ist ein zusammengesetztes Maß, das sowohl von der Inzidenz als auch von der Dauer der Krankheit abhängt. Dies schränkt auch den Einsatz von Querschnittsstudien auf lang andauernde Erkrankungen ein. Noch gravierender ist die starke negative Verzerrung, die durch die gesundheitsbedingte Eliminierung der gegenüber Expositionswirkungen empfindlicheren Personen aus der exponierten Gruppe verursacht wird. Daher werden ätiologische Probleme am besten durch Längsschnittdesigns gelöst. Tatsächlich lassen Querschnittsstudien keine Rückschlüsse darauf zu, ob eine Exposition einer Erkrankung vorausging oder umgekehrt. Der Wirkungsquerschnitt ist nur dann ätiologisch aussagekräftig, wenn zwischen der Exposition und dem Ergebnis ein echter zeitlicher Zusammenhang besteht, das heißt, dass die aktuelle Exposition unmittelbare Auswirkungen haben muss. Die Exposition kann jedoch querschnittlich gemessen werden, so dass sie einen längeren vergangenen Zeitraum darstellt (z. B. der Blutbleispiegel), während das Ergebnismaß eine Prävalenz ist (z. B. Nervenleitungsgeschwindigkeiten). Die Studie ist dann eher eine Mischung aus einem Längsschnitt- und einem Querschnittsdesign als ein bloßer Querschnitt der Studienpopulation.
Deskriptive Querschnittsbefragungen
Querschnittserhebungen sind oft eher für praktische und administrative als für wissenschaftliche Zwecke nützlich. Epidemiologische Prinzipien können auf systematische Überwachungsaktivitäten im arbeitsmedizinischen Umfeld angewendet werden, wie zum Beispiel:
Es ist wichtig, repräsentative, gültige und spezifische Morbiditätsindikatoren für alle Arten von Erhebungen auszuwählen. Eine Befragung oder ein Screening-Programm kann im Gegensatz zur klinischen Diagnostik nur wenige Tests verwenden, daher ist der Vorhersagewert des Screening-Tests wichtig. Unempfindliche Methoden können die interessierende Krankheit nicht nachweisen, während hochempfindliche Methoden zu viele falsch positive Ergebnisse liefern. Ein Screening auf seltene Erkrankungen ist im beruflichen Umfeld nicht sinnvoll. Alle Aktivitäten zur Fallfindung (dh Screening) erfordern auch einen Mechanismus zur Betreuung von Personen mit „positiven“ Befunden, sowohl in Bezug auf Diagnostik als auch Therapie. Andernfalls wird nur Frustration resultieren, bei der möglicherweise mehr Schaden als Nutzen entsteht.
Das Bedürfnis nach Geltung
Die Epidemiologie zielt darauf ab, das Krankheitserleben in Bevölkerungen zu verstehen. Insbesondere kann es genutzt werden, um Einblicke in die beruflichen Ursachen von Erkrankungen zu erhalten. Dieses Wissen stammt aus Studien, die an Gruppen von Menschen mit einer Krankheit durchgeführt wurden, indem sie mit Menschen ohne diese Krankheit verglichen wurden. Ein weiterer Ansatz besteht darin, zu untersuchen, welche Krankheiten Menschen bekommen, die in bestimmten Berufen mit besonderen Belastungen arbeiten, und diese Krankheitsbilder mit denen von nicht ähnlich exponierten Personen zu vergleichen. Diese Studien liefern Schätzungen des Krankheitsrisikos für bestimmte Expositionen. Damit Informationen aus solchen Studien zur Erstellung von Präventionsprogrammen, zur Anerkennung von Berufskrankheiten und zur angemessenen Entschädigung der von Expositionen betroffenen Arbeitnehmer verwendet werden können, müssen diese Studien valide sein.
Gültigkeit kann als die Fähigkeit einer Studie definiert werden, den wahren Sachverhalt widerzuspiegeln. Eine gültige Studie ist daher eine Studie, die den Zusammenhang (entweder positiv, negativ oder nicht vorhanden) zwischen einer Exposition und einer Krankheit korrekt misst. Sie beschreibt Richtung und Ausmaß eines echten Risikos. Es werden zwei Arten von Validität unterschieden: interne und externe Validität. Interne Validität ist die Fähigkeit einer Studie, das widerzuspiegeln, was wirklich unter den Studienteilnehmern passiert ist; Die externe Validität spiegelt wider, was in der Bevölkerung passieren könnte.
Validität bezieht sich auf die Wahrhaftigkeit einer Messung. Validität ist von der Genauigkeit der Messung zu unterscheiden, die von der Größe der Studie und der Effizienz des Studiendesigns abhängt.
Interne Gültigkeit
Eine Studie gilt als intern valide, wenn sie frei von Verzerrungen ist und somit den bei den Studienteilnehmern bestehenden Zusammenhang zwischen Exposition und Krankheit wirklich widerspiegelt. Ein beobachtetes Krankheitsrisiko im Zusammenhang mit einer Exposition kann zwar aus einem realen Zusammenhang resultieren und daher valide sein, aber es kann auch den Einfluss von Vorurteilen widerspiegeln. Eine Voreingenommenheit wird ein verzerrtes Bild der Realität geben.
Drei Haupttypen von Vorurteilen, auch genannt systematische Fehler, werden normalerweise unterschieden:
Sie werden im Folgenden anhand von Beispielen aus dem arbeitsmedizinischen Umfeld kurz vorgestellt.
Selektionsvorspannung
Ein Selektionsbias tritt auf, wenn der Eintritt in die Studie durch die Kenntnis des Expositionsstatus des potenziellen Studienteilnehmers beeinflusst wird. Dieses Problem tritt daher nur dann auf, wenn die Krankheit zum Zeitpunkt (bevor) die Person in die Studie aufgenommen wurde, bereits aufgetreten ist. Im epidemiologischen Umfeld geschieht dies typischerweise in Fall-Kontroll-Studien oder in retrospektiven Kohortenstudien. Dies bedeutet, dass eine Person eher als Fall betrachtet wird, wenn bekannt ist, dass sie exponiert war. Drei Umstände können zu einem solchen Ereignis führen, das auch von der Schwere der Krankheit abhängt.
Selbstselektionsverzerrung
Dies kann vorkommen, wenn Personen, die wissen, dass sie in der Vergangenheit bekannten oder vermuteten schädlichen Produkten ausgesetzt waren, und die überzeugt sind, dass ihre Krankheit das Ergebnis der Exposition ist, einen Arzt wegen Symptomen konsultieren, die andere Personen, die nicht so exponiert waren, möglicherweise ignoriert haben. Dies ist besonders wahrscheinlich bei Krankheiten, die nur wenige auffällige Symptome aufweisen. Ein Beispiel kann ein früher Schwangerschaftsverlust oder eine spontane Abtreibung bei weiblichen Krankenschwestern sein, die mit Arzneimitteln zur Krebsbehandlung umgehen. Diese Frauen sind sich der Fortpflanzungsphysiologie bewusster als die meisten anderen und, da sie sich Sorgen um ihre Fähigkeit machen, Kinder zu bekommen, erkennen oder etikettieren sie möglicherweise eher als spontane Abtreibung, was andere Frauen nur als Verzögerung des Beginns der Menstruation betrachten würden. Ein weiteres Beispiel aus einer retrospektiven Kohortenstudie, zitiert von Rothman (1986), betrifft eine Studie des Centers for Disease Control über Leukämie unter Truppen, die bei einem US-Atomtest in Nevada anwesend waren. Von den auf dem Testgelände anwesenden Truppen wurden 76 % aufgespürt und bildeten die Kohorte. Davon wurden 82 % von den Ermittlern gefunden, aber weitere 18 % kontaktierten die Ermittler selbst, nachdem sie von der Öffentlichkeit über die Studie gehört hatten. Vier Fälle von Leukämie waren unter den 82 % vorhanden, die von CDC verfolgt wurden, und vier Fälle waren unter den selbst überwiesenen 18 % vorhanden. Dies deutet stark darauf hin, dass die Fähigkeit der Ermittler, exponierte Personen zu identifizieren, mit dem Leukämie-Risiko zusammenhängt.
Diagnostische Verzerrung
Dies wird der Fall sein, wenn die Ärzte eine bestimmte Krankheit eher diagnostizieren, wenn sie wissen, was der Patient zuvor ausgesetzt war. Als beispielsweise die meisten Farben bleihaltig waren, war ein Symptom einer Erkrankung der peripheren Nerven, das als periphere Neuritis mit Lähmung bezeichnet wird, auch als „Handgelenkstropfen“ der Maler bekannt. Die Kenntnis des Berufs des Patienten erleichterte bereits im Frühstadium die Diagnose der Erkrankung, während bei Studienteilnehmern ohne bekannte berufliche Bleibelastung die Identifizierung des Erregers deutlich erschwert wäre.
Bias aufgrund der Weigerung, an einer Studie teilzunehmen
Wenn Menschen, ob gesund oder krank, gebeten werden, an einer Studie teilzunehmen, spielen mehrere Faktoren eine Rolle, ob sie zustimmen oder nicht. Die Bereitschaft, unterschiedlich lange Fragebögen zu beantworten, die manchmal nach heiklen Themen fragen, und noch mehr, Blut oder andere biologische Proben abzugeben, kann vom Grad des Eigeninteresses der Person bestimmt werden. Jemand, der sich der früheren möglichen Exposition bewusst ist, ist möglicherweise bereit, dieser Anfrage nachzukommen, in der Hoffnung, dass sie dabei hilft, die Ursache der Krankheit zu finden, während jemand der Meinung ist, dass er nichts Gefährlichem ausgesetzt war, oder der nicht interessiert ist wissen, können die Einladung zur Teilnahme an der Studie ablehnen. Dies kann zu einer Auswahl der Personen führen, die letztendlich Studienteilnehmer sein werden, im Vergleich zu allen, die es hätten sein können.
Informationsverzerrung
Dies wird auch als Beobachtungsverzerrung bezeichnet und betrifft den Krankheitsverlauf in Folgestudien und die Expositionsbeurteilung in Fall-Kontroll-Studien.
Differenzielle Ergebnisbewertung in prospektiven Folgestudien (Kohortenstudien).
Zu Beginn der Studie werden zwei Gruppen definiert: eine exponierte Gruppe und eine nicht exponierte Gruppe. Probleme der diagnostischen Verzerrung entstehen, wenn die Suche nach Fällen zwischen diesen beiden Gruppen unterschiedlich ist. Stellen Sie sich zum Beispiel eine Kohorte von Personen vor, die einer versehentlichen Freisetzung von Dioxin in einer bestimmten Branche ausgesetzt sind. Für die hochexponierte Gruppe wird ein aktives Nachsorgesystem mit regelmäßigen ärztlichen Untersuchungen und biologischem Monitoring eingerichtet, während der Rest der Erwerbsbevölkerung nur routinemäßig betreut wird. Es ist sehr wahrscheinlich, dass in der eng überwachten Gruppe mehr Krankheiten identifiziert werden, was zu einer potenziellen Überschätzung des Risikos führen würde.
Differenzielle Verluste in retrospektiven Kohortenstudien
In retrospektiven Kohortenstudien kann der umgekehrte Mechanismus zu dem im vorhergehenden Absatz beschriebenen auftreten. Die übliche Vorgehensweise bei diesen Studien ist, mit den Akten aller Personen zu beginnen, die in der Vergangenheit in einer bestimmten Branche beschäftigt waren, und Krankheit oder Sterblichkeit nach der Beschäftigung zu bewerten. Leider sind in fast allen Studien die Akten unvollständig, und die Tatsache, dass eine Person vermisst wird, kann entweder mit dem Expositionsstatus oder dem Krankheitsstatus oder mit beidem zusammenhängen. Beispielsweise wurden in einer kürzlich in der chemischen Industrie durchgeführten Studie bei Arbeitern, die aromatischen Aminen ausgesetzt waren, acht Tumore in einer Gruppe von 777 Arbeitern gefunden, die einem zytologischen Screening auf Harntumoren unterzogen worden waren. Insgesamt wurden nur 34 Datensätze als fehlend befunden, was einem Verlust von 4.4 % in der Expositionsbewertungsdatei entspricht, aber bei Blasenkrebsfällen fehlten Expositionsdaten für zwei von acht Fällen oder 25 %. Dies zeigt, dass die Akten von Personen, die zu Fällen wurden, mit größerer Wahrscheinlichkeit verloren gingen als die Akten anderer Mitarbeiter. Dies kann durch häufigere Stellenwechsel innerhalb des Unternehmens (die mit Expositionseffekten verbunden sein können), Kündigung, Entlassung oder reinen Zufall geschehen.
Differenzielle Bewertung der Exposition in Fall-Kontroll-Studien
Bei Fall-Kontroll-Studien ist die Erkrankung bei Studienbeginn bereits aufgetreten und es werden Informationen zu früheren Expositionen abgefragt. Voreingenommenheit kann entweder aus der Einstellung des Interviewers oder des Studienteilnehmers zur Untersuchung resultieren. Die Informationen werden normalerweise von geschulten Interviewern gesammelt, die sich der Hypothese, die der Forschung zugrunde liegt, bewusst sein können oder auch nicht. In einer bevölkerungsbezogenen Fall-Kontroll-Studie zu Blasenkrebs beispielsweise, die in einer hochindustrialisierten Region durchgeführt wurde, ist sich das Studienpersonal möglicherweise der Tatsache bewusst, dass bestimmte Chemikalien, wie beispielsweise aromatische Amine, Risikofaktoren für Blasenkrebs sind. Wenn sie auch wissen, wer die Krankheit entwickelt hat und wer nicht, können sie mit den Teilnehmern, die an Blasenkrebs erkrankt sind, wahrscheinlich eingehendere Interviews führen als mit den Kontrollen. Sie bestehen möglicherweise auf detaillierteren Informationen über frühere Berufe und suchen systematisch nach der Exposition gegenüber aromatischen Aminen, während sie für Kontrollen die Berufe eher routinemäßig erfassen. Die resultierende Vorspannung wird als bekannt Expositionsverdacht voreingenommen.
Auch die Teilnehmer selbst können für eine solche Voreingenommenheit verantwortlich sein. Das nennt man Voreingenommenheit erinnern um es von der Voreingenommenheit des Interviewers zu unterscheiden. Beide haben den Expositionsverdacht als Mechanismus für die Voreingenommenheit. Erkrankte Personen können einen beruflichen Ursprung ihrer Krankheit vermuten und werden daher versuchen, sich so genau wie möglich an alle gefährlichen Stoffe zu erinnern, denen sie möglicherweise ausgesetzt waren. Beim Umgang mit undefinierten Produkten neigen sie möglicherweise dazu, sich an die Namen konkreter Chemikalien zu erinnern, insbesondere wenn ihnen eine Liste verdächtiger Produkte zur Verfügung gestellt wird. Im Gegensatz dazu durchlaufen Kontrollen mit geringerer Wahrscheinlichkeit denselben Denkprozess.
Verwirrend
Confounding liegt vor, wenn der beobachtete Zusammenhang zwischen Exposition und Krankheit teilweise das Ergebnis einer Vermischung der Wirkung der untersuchten Exposition und eines anderen Faktors ist. Nehmen wir zum Beispiel an, dass wir bei Schweißern ein erhöhtes Lungenkrebsrisiko feststellen. Wir sind versucht, sofort zu schließen, dass es einen kausalen Zusammenhang zwischen der Exposition gegenüber Schweißrauch und Lungenkrebs gibt. Wir wissen aber auch, dass Rauchen der mit Abstand wichtigste Risikofaktor für Lungenkrebs ist. Wenn Informationen verfügbar sind, beginnen wir daher damit, den Raucherstatus von Schweißern und anderen Studienteilnehmern zu überprüfen. Wir können feststellen, dass Schweißer eher rauchen als Nicht-Schweißer. In dieser Situation ist bekannt, dass das Rauchen mit Lungenkrebs in Verbindung gebracht wird, und gleichzeitig wurde in unserer Studie festgestellt, dass das Rauchen auch mit dem Beruf des Schweißers in Verbindung gebracht wird. In epidemiologischer Hinsicht bedeutet dies, dass Rauchen, das sowohl mit Lungenkrebs als auch mit Schweißen in Verbindung gebracht wird, den Zusammenhang zwischen Schweißen und Lungenkrebs verfälscht.
Interaktions- oder Effektmodifikation
Im Gegensatz zu allen oben aufgeführten Aspekten, nämlich Selektion, Information und Confounding, die Verzerrungen darstellen, ist Interaktion keine Verzerrung aufgrund von Problemen im Studiendesign oder in der Analyse, sondern spiegelt die Realität und ihre Komplexität wider. Ein Beispiel für dieses Phänomen ist das folgende: Die Belastung durch Radon ist ein Risikofaktor für Lungenkrebs, ebenso wie das Rauchen. Darüber hinaus haben Rauchen und Radonexposition unterschiedliche Auswirkungen auf das Lungenkrebsrisiko, je nachdem, ob sie zusammen oder isoliert wirken. Die meisten Berufsstudien zu diesem Thema wurden unter Untertagebergleuten durchgeführt und haben teilweise widersprüchliche Ergebnisse geliefert. Insgesamt scheint es Argumente für eine Wechselwirkung von Rauchen und Radonexposition bei der Entstehung von Lungenkrebs zu geben. Das bedeutet, dass das Lungenkrebsrisiko durch Radonexposition auch bei Nichtrauchern erhöht wird, aber dass die Risikoerhöhung durch Radon bei Rauchern viel größer ist als bei Nichtrauchern. Epidemiologisch sprechen wir von einer multiplikativen Wirkung. Im Gegensatz zum oben beschriebenen Confounding muss die Interaktion sorgfältig analysiert und in der Analyse beschrieben und nicht einfach kontrolliert werden, da sie das widerspiegelt, was auf biologischer Ebene passiert, und nicht nur eine Folge eines schlechten Studiendesigns ist. Seine Erklärung führt zu einer valideren Interpretation der Ergebnisse einer Studie.
Externe Validität
Dieses Problem kann erst behoben werden, nachdem sichergestellt wurde, dass die interne Gültigkeit gesichert ist. Wenn wir davon überzeugt sind, dass die in der Studie beobachteten Ergebnisse reale Assoziationen widerspiegeln, können wir uns fragen, ob wir diese Ergebnisse auf die größere Population, aus der die Studienteilnehmer selbst gezogen wurden, oder sogar auf andere identische Populationen extrapolieren können oder zumindest sehr ähnlich. Die häufigste Frage ist, ob die für Männer erzielten Ergebnisse auch für Frauen gelten. Studien und insbesondere berufsepidemiologische Untersuchungen werden seit Jahren ausschließlich bei Männern durchgeführt. Studien unter Chemikern, die in den 1960er und 1970er Jahren in den Vereinigten Staaten, dem Vereinigten Königreich und Schweden durchgeführt wurden, ergaben alle ein erhöhtes Risiko für bestimmte Krebsarten – nämlich Leukämie, Lymphome und Bauchspeicheldrüsenkrebs. Aus dem, was wir über die Wirkungen der Exposition gegenüber Lösungsmitteln und einigen anderen Chemikalien wussten, hätten wir damals schon ableiten können, dass die Laborarbeit auch ein krebserzeugendes Risiko für Frauen mit sich bringt. Dies zeigte sich tatsächlich, als Mitte der 1980er Jahre schließlich die erste Studie unter Chemikerinnen veröffentlicht wurde, die ähnliche Ergebnisse wie bei Männern ergab. Es ist erwähnenswert, dass es sich bei anderen gefundenen übermäßigen Krebsarten um Tumore der Brust und der Eierstöcke handelte, die traditionell nur mit endogenen Faktoren oder der Fortpflanzung in Verbindung gebracht wurden, bei denen jedoch neu vermutete Umweltfaktoren wie Pestizide eine Rolle spielen könnten. Zu den berufsbedingten Determinanten von Krebserkrankungen bei Frauen muss noch viel mehr Arbeit geleistet werden.
Strategien für ein valides Studium
Eine vollkommen gültige Studie kann es nie geben, aber es obliegt dem Forscher, so viele Verzerrungen wie möglich zu vermeiden oder zumindest zu minimieren. Dies kann oft am besten in der Phase des Studiendesigns erfolgen, kann aber auch während der Analyse durchgeführt werden.
Studiendesign
Auswahl- und Informationsverzerrung können nur durch das sorgfältige Design einer epidemiologischen Studie und die sorgfältige Umsetzung aller sich daraus ergebenden täglichen Richtlinien, einschließlich der sorgfältigen Beachtung der Qualitätssicherung, für die Durchführung der Studie unter Feldbedingungen vermieden werden. Confounding kann entweder in der Entwurfs- oder in der Analysephase behandelt werden.
Auswahl
Kriterien für die Berücksichtigung eines Teilnehmers als Fall müssen explizit definiert werden. Man kann oder sollte zumindest nicht versuchen, schlecht definierte klinische Zustände zu untersuchen. Eine Möglichkeit zur Minimierung der Auswirkungen, die die Kenntnis der Exposition auf die Krankheitsbewertung haben kann, besteht darin, nur schwere Fälle einzubeziehen, die unabhängig von Informationen zur Krankengeschichte des Patienten diagnostiziert worden wären. Im Bereich Krebs werden Studien oft auf Fälle mit histologischem Nachweis der Erkrankung beschränkt, um den Einschluss von Borderline-Läsionen zu vermeiden. Dies bedeutet auch, dass die untersuchten Gruppen gut definiert sind. Beispielsweise ist in der Krebsepidemiologie wohlbekannt, dass Krebsarten verschiedener histologischer Typen innerhalb eines gegebenen Organs unterschiedliche Risikofaktoren haben können. Bei ausreichender Fallzahl ist es besser, das Adenokarzinom der Lunge vom Plattenepithelkarzinom der Lunge zu trennen. Was auch immer die endgültigen Kriterien für die Aufnahme in die Studie sein mögen, sie sollten immer klar definiert und beschrieben werden. Beispielsweise sollte der genaue Code der Krankheit anhand der Internationalen Klassifikation der Krankheiten (ICD) und bei Krebs auch der Internationalen Klassifikation der Krankheiten – Onkologie (ICD-O) angegeben werden.
Sobald die Kriterien festgelegt sind, sollten Anstrengungen unternommen werden, um die Teilnahme an der Studie zu maximieren. Die Entscheidung, eine Teilnahme abzulehnen, wird kaum zufällig getroffen und führt daher zu Voreingenommenheit. Studien sollten zunächst den Klinikern vorgestellt werden, die die Patienten behandeln. Ihre Zustimmung ist erforderlich, um Patienten anzusprechen, und daher müssen sie davon überzeugt werden, die Studie zu unterstützen. Ein oft überzeugendes Argument ist, dass die Studie im Interesse der öffentlichen Gesundheit ist. In diesem Stadium ist es jedoch besser, die genaue zu bewertende Hypothese nicht zu diskutieren, um eine übermäßige Beeinflussung der beteiligten Kliniker zu vermeiden. Ärzte sollten nicht aufgefordert werden, Nebentätigkeiten zu übernehmen; Es ist einfacher, medizinisches Personal davon zu überzeugen, eine Studie zu unterstützen, wenn von den Prüfärzten Mittel bereitgestellt werden, um alle zusätzlichen Aufgaben durchzuführen, die über die Routineversorgung hinausgehen und durch die Studie erforderlich sind. Interviewer und Datenextraktoren sollten den Krankheitsstatus ihrer Patienten nicht kennen.
Ähnliche Aufmerksamkeit sollte den Informationen geschenkt werden, die den Teilnehmern zur Verfügung gestellt werden. Das Ziel der Studie muss breit und neutral beschrieben werden, aber auch überzeugend und überzeugend sein. Es ist wichtig, dass Fragen der Vertraulichkeit und von Interesse für die öffentliche Gesundheit vollständig verstanden werden, während medizinischer Fachjargon vermieden wird. In den meisten Situationen wird der Einsatz von finanziellen oder anderen Anreizen nicht als angemessen erachtet, obwohl eine Entschädigung für alle Kosten bereitgestellt werden sollte, die einem Teilnehmer möglicherweise entstehen. Nicht zuletzt sollte die allgemeine Bevölkerung über ausreichende wissenschaftliche Kenntnisse verfügen, um die Bedeutung solcher Forschung zu verstehen. Sowohl die Vorteile als auch die Risiken der Teilnahme müssen jedem potenziellen Teilnehmer erklärt werden, wenn er Fragebögen ausfüllen und/oder biologische Proben zur Aufbewahrung und/oder Analyse bereitstellen muss. Es sollte kein Zwang angewendet werden, um eine vorherige und vollständig informierte Zustimmung zu erhalten. Bei Studien, die ausschließlich auf Aufzeichnungen basieren, muss die vorherige Zustimmung der für die Wahrung der Vertraulichkeit dieser Aufzeichnungen zuständigen Stellen eingeholt werden. In diesen Fällen kann in der Regel auf die Zustimmung der einzelnen Teilnehmer verzichtet werden. Stattdessen reicht die Zustimmung von Gewerkschafts- und Regierungsbeamten aus. Epidemiologische Untersuchungen bedrohen nicht das Privatleben des Einzelnen, sondern sind ein potenzielles Hilfsmittel zur Verbesserung der Gesundheit der Bevölkerung. Vor der Durchführung einer Studie ist die Zustimmung eines institutionellen Prüfungsausschusses (oder Ethikprüfungsausschusses) erforderlich, und vieles von dem, was oben gesagt wurde, wird von ihm für seine Überprüfung erwartet.
Info
In prospektiven Folgestudien müssen die Mittel zur Beurteilung des Krankheits- oder Mortalitätsstatus für exponierte und nicht exponierte Teilnehmer identisch sein. Insbesondere sollte nicht auf unterschiedliche Quellen zurückgegriffen werden, wie z. B. nur die Abfrage in einem zentralen Mortalitätsregister für nicht exponierte Teilnehmer und die Nutzung einer intensiven aktiven Überwachung für exponierte Teilnehmer. Ebenso muss die Todesursache auf streng vergleichbare Weise ermittelt werden. Das bedeutet, wenn ein System verwendet wird, um Zugang zu offiziellen Dokumenten für die nicht exponierte Bevölkerung, die oft die allgemeine Bevölkerung ist, zu erhalten, sollte man niemals planen, noch genauere Informationen durch Krankenakten oder Interviews über die Teilnehmer selbst oder ihre Familien zu erhalten die exponierte Untergruppe.
In retrospektiven Kohortenstudien sollten Anstrengungen unternommen werden, um festzustellen, wie genau die untersuchte Population mit der interessierenden Population verglichen wird. Man sollte sich vor möglichen unterschiedlichen Verlusten in exponierten und nicht exponierten Gruppen hüten, indem man verschiedene Quellen zur Zusammensetzung der Bevölkerung verwendet. Beispielsweise kann es sinnvoll sein, Gehaltslisten mit Gewerkschaftsmitgliedslisten oder anderen Berufsverzeichnissen zu vergleichen. Diskrepanzen müssen ausgeglichen werden, und das für die Studie angenommene Protokoll muss genau befolgt werden.
In Fall-Kontroll-Studien gibt es andere Optionen, um Verzerrungen zu vermeiden. Interviewer, Studienpersonal und Studienteilnehmer müssen sich der genauen zu untersuchenden Hypothese nicht bewusst sein. Wenn sie die getestete Assoziation nicht kennen, ist es weniger wahrscheinlich, dass sie versuchen, die erwartete Antwort zu geben. Das Studienpersonal über die Forschungshypothese im Dunkeln zu lassen, ist tatsächlich oft sehr unpraktisch. Der Interviewer kennt fast immer die Expositionen mit dem größten potenziellen Interesse sowie wer ein Fall und wer eine Kontrolle ist. Wir müssen uns daher auf ihre Ehrlichkeit und auch auf ihre Ausbildung in Grundlagenforschungsmethodik verlassen, die Teil ihres beruflichen Hintergrunds sein sollte; Objektivität ist das Markenzeichen auf allen Stufen der Wissenschaft.
Es ist einfacher, die Studienteilnehmer nicht über den genauen Forschungsgegenstand zu informieren. Gute, grundlegende Erläuterungen zur Notwendigkeit der Erhebung von Daten für ein besseres Verständnis von Gesundheit und Krankheit sind in der Regel ausreichend und genügen den Anforderungen einer Ethikprüfung.
Verwirrend
Confounding ist die einzige Verzerrung, die entweder in der Phase des Studiendesigns oder, sofern angemessene Informationen verfügbar sind, in der Analysephase behandelt werden kann. Wenn zum Beispiel das Alter als potenzieller Confounder der interessierenden Assoziation angesehen wird, weil das Alter mit dem Krankheitsrisiko (d. h. Krebs wird im höheren Alter häufiger) und auch mit der Exposition (Expositionsbedingungen variieren mit dem Alter oder mit altersbedingten Faktoren wie Qualifikation, berufliche Position und Beschäftigungsdauer) gibt es mehrere Lösungsansätze. Am einfachsten ist es, die Studie auf einen bestimmten Altersbereich zu begrenzen – nehmen Sie beispielsweise nur kaukasische Männer im Alter von 40 bis 50 Jahren auf. Dies liefert Elemente für eine einfache Analyse, hat aber auch den Nachteil, dass die Anwendung der Ergebnisse auf einen einzelnen beschränkt wird Geschlecht Alter/Rassengruppe. Eine andere Lösung ist das Matching nach Alter. Das bedeutet, dass für jeden Fall ein gleichaltriger Referent benötigt wird. Dies ist eine attraktive Idee, aber man muss die mögliche Schwierigkeit berücksichtigen, diese Anforderung zu erfüllen, wenn die Anzahl der passenden Faktoren zunimmt. Darüber hinaus wird es nach der Zuordnung eines Faktors unmöglich, seine Rolle beim Auftreten von Krankheiten zu bewerten. Die letzte Lösung besteht darin, genügend Informationen über potenzielle Confounder in der Studiendatenbank zu haben, um sie in der Analyse zu überprüfen. Dies kann entweder durch eine einfache stratifizierte Analyse oder mit ausgefeilteren Tools wie der multivariaten Analyse erfolgen. Es sollte jedoch daran erinnert werden, dass eine Analyse niemals in der Lage sein wird, eine schlecht konzipierte oder durchgeführte Studie zu kompensieren.
Fazit
Das Potenzial für Verzerrungen in der epidemiologischen Forschung ist seit langem bekannt. Dies war kein allzu großes Problem, wenn die untersuchten Assoziationen stark waren (wie dies bei Rauchen und Lungenkrebs der Fall ist) und daher einige Ungenauigkeiten kein allzu schwerwiegendes Problem verursachten. Jetzt, da es an der Zeit ist, schwächere Risikofaktoren zu bewerten, wird der Bedarf an besseren Instrumenten von größter Bedeutung. Dazu gehört die Notwendigkeit exzellenter Studiendesigns und die Möglichkeit, die Vorteile verschiedener traditioneller Designs wie Fall-Kontroll- oder Kohortenstudien mit innovativeren Ansätzen wie in einer Kohorte verschachtelten Fall-Kontroll-Studien zu kombinieren. Außerdem kann die Verwendung von Biomarkern die Möglichkeit bieten, genauere Einschätzungen aktueller und möglicherweise früherer Expositionen sowie für die frühen Krankheitsstadien zu erhalten.
Fehler bei der Expositionsmessung können je nach Verteilung der Fehler unterschiedliche Auswirkungen auf die untersuchte Expositions-Krankheits-Beziehung haben. Wenn eine epidemiologische Studie blind durchgeführt wurde (dh Messungen wurden ohne Kenntnis des Krankheits- oder Gesundheitszustands der Studienteilnehmer durchgeführt), erwarten wir, dass der Messfehler gleichmäßig über die Schichten des Krankheits- oder Gesundheitszustands verteilt wird.
Tabelle 1 zeigt ein Beispiel: Angenommen, wir rekrutieren eine Kohorte von Personen, die bei der Arbeit einem Giftstoff ausgesetzt sind, um eine häufige Krankheit zu untersuchen. Den Expositionsstatus ermitteln wir erst bei der Rekrutierung (T0) und nicht zu weiteren Zeitpunkten der Nachbeobachtung. Nehmen wir jedoch an, dass eine Reihe von Personen tatsächlich ihren Expositionsstatus im folgenden Jahr ändern: Zum Zeitpunkt T1, sind 250 der ursprünglich 1,200 exponierten Personen nicht mehr exponiert, während 150 der ursprünglich 750 nicht exponierten Personen begonnen haben, dem Giftstoff ausgesetzt zu sein. Also zum Zeitpunkt T1, 1,100 Personen sind exponiert und 850 nicht exponiert. Infolgedessen haben wir eine „Fehlklassifizierung“ der Exposition basierend auf unserer anfänglichen Messung des Expositionsstatus zum Zeitpunkt T0. Diese Personen werden dann nach 20 Jahren (zum Zeitpunkt T2) und das kumulative Krankheitsrisiko bewertet. (Im Beispiel wird davon ausgegangen, dass nur eine Exposition von mehr als einem Jahr Anlass zur Sorge gibt.)
Tabelle 1. Hypothetische Kohorte von 1950 Personen (exponiert und nicht exponiert bei der Arbeit), rekrutiert zum Zeitpunkt T0 und dessen Krankheitsstatus zum Zeitpunkt T festgestellt wird2
Uhrzeit |
|||
T0 |
T1 |
T2 |
Exponierte Arbeiter 1200 250 Beenden der Exposition 1100 (1200-250+150)
Krankheitsfälle zum Zeitpunkt T2 = 220 unter exponierten Arbeitern
Nicht exponierte Arbeiter 750 150 Beginn der Exposition 850 (750-150+250)
Krankheitsfälle zum Zeitpunkt T2 = 85 bei nicht exponierten Arbeitern
Die wahres Risiko der Krankheit zum Zeitpunkt T2 beträgt 20 % bei exponierten Arbeitnehmern (220/1100),
und 10 % bei nicht exponierten Arbeitnehmern (85/850) (Risikoverhältnis = 2.0).
Geschätztes Risiko bei T2 der Krankheit unter denen, die als T. exponiert eingestuft wurden0: 20 %
(dh wahres Risiko bei den Exponierten) ´ 950 (dh 1200-250) + 10 %
(dh wahres Risiko bei Nichtexposition) ´ 250 = (190+25)/1200 = 17.9 %
Geschätztes Risiko bei T2 der Krankheit unter denen, die als nicht exponiert eingestuft sind
T0: 20 % (dh wahres Risiko bei den Exponierten) × 150 +10 %
(d. h. wahres Risiko ohne Exposition) × 600 (d. h. 750-150) = (30+60)/750 = 12 %
Geschätztes Risikoverhältnis = 17.9 % / 12 % = 1.49
Die Fehlklassifizierung hängt in diesem Beispiel eher vom Studiendesign und den Merkmalen der Bevölkerung ab als von technischen Beschränkungen der Expositionsmessung. Die Fehlklassifizierung bewirkt, dass das „wahre“ Verhältnis von 2.0 zwischen dem kumulativen Risiko bei exponierten Personen und nicht exponierten Personen zu einem „beobachteten“ Verhältnis von 1.49 wird (Tabelle 1). Diese Unterschätzung des Risikoverhältnisses ergibt sich aus einer „Verwischung“ der Beziehung zwischen Exposition und Krankheit, die auftritt, wenn die Fehlklassifizierung der Exposition, wie in diesem Fall, gleichmäßig nach Krankheit oder Gesundheitszustand verteilt wird (d. h. die Expositionsmessung ist nicht davon beeinflusst, ob die Person an der von uns untersuchten Krankheit litt oder nicht).
Im Gegensatz dazu kann es entweder zu einer Unter- oder Überschätzung des Zusammenhangs von Interesse kommen, wenn die Fehlklassifizierung der Exposition nicht gleichmäßig über das Ergebnis von Interesse verteilt ist. In dem Beispiel haben wir vielleicht vorspannen, und nicht nur eine Verwischung des ätiologischen Zusammenhangs, wenn die Einstufung der Exposition von der Krankheit oder dem Gesundheitszustand der Arbeitnehmer abhängt. Dies könnte beispielsweise eintreten, wenn wir beschließen, biologische Proben von einer Gruppe exponierter Arbeiter und von einer Gruppe nicht exponierter Arbeiter zu sammeln, um frühzeitige Veränderungen im Zusammenhang mit der Exposition bei der Arbeit zu erkennen. Proben von exponierten Arbeitern könnten dann genauer analysiert werden als Proben von nicht exponierten; wissenschaftliche Neugier könnte den Forscher dazu veranlassen, zusätzliche Biomarker bei den exponierten Personen zu messen (einschließlich z. B. DNA-Addukte in Lymphozyten oder Urinmarker für oxidative DNA-Schäden), in der Annahme, dass diese Personen wissenschaftlich „interessanter“ sind. Dies ist eine weit verbreitete Einstellung, die jedoch zu ernsthaften Vorurteilen führen kann.
Über die Rolle der Statistik in der epidemiologischen Forschung zu kausalen Zusammenhängen wird viel diskutiert. In der Epidemiologie ist Statistik in erster Linie eine Sammlung von Methoden zur Bewertung von Daten auf der Grundlage von menschlichen (und auch tierischen) Populationen. Statistik ist insbesondere eine Technik zur Quantifizierung und Messung unsicherer Phänomene. Alle wissenschaftlichen Untersuchungen, die sich mit nichtdeterministischen, variablen Aspekten der Realität befassen, könnten von der statistischen Methodik profitieren. In der Epidemiologie ist Variabilität der Beobachtungseinheit inhärent – eine Person ist keine deterministische Einheit. Während experimentelle Designs dahingehend verbessert werden würden, dass sie die Annahmen der Statistik in Bezug auf zufällige Variationen besser erfüllen, ist dieser Ansatz aus ethischen und praktischen Gründen nicht allzu verbreitet. Stattdessen beschäftigt sich die Epidemiologie mit Beobachtungsforschung, die sowohl zufällige als auch andere Quellen der Variabilität mit sich bringt.
Die statistische Theorie befasst sich damit, wie unstrukturierte Variabilität in den Daten kontrolliert werden kann, um gültige Schlussfolgerungen aus empirischen Beobachtungen zu ziehen. In Ermangelung einer Erklärung für das variable Verhalten des untersuchten Phänomens nimmt die Statistik dies an zufällig– das heißt, nicht-systematische Abweichungen von einem durchschnittlichen Naturzustand (siehe Greenland 1990 für eine Kritik dieser Annahmen).
Wissenschaft stützt sich auf Empirie Beweis um zu zeigen, ob seine theoretischen Modelle von Naturereignissen Gültigkeit haben. Tatsächlich bestimmen die Methoden der statistischen Theorie, inwieweit Beobachtungen in der realen Welt mit der Sicht der Wissenschaftler auf ein Phänomen in mathematischer Modellform übereinstimmen. Statistische Methoden, die auf Mathematik basieren, müssen daher sorgfältig ausgewählt werden; Es gibt viele Beispiele zum Thema „Wie man mit Statistiken lügt“. Epidemiologen sollten sich daher der Angemessenheit der Techniken bewusst sein, die sie anwenden, um das Krankheitsrisiko zu messen. Insbesondere bei der Interpretation sowohl statistisch signifikanter als auch statistisch nicht signifikanter Ergebnisse ist große Sorgfalt geboten.
Die erste Bedeutung des Wortes Statistiken bezieht sich auf eine beliebige zusammenfassende Größe, die anhand einer Reihe von Werten berechnet wird. Beschreibende Indizes oder Statistiken wie der arithmetische Durchschnitt, der Median oder der Modus werden häufig verwendet, um die Informationen in einer Reihe von Beobachtungen zusammenzufassen. In der Vergangenheit wurden diese zusammenfassenden Deskriptoren von Staaten für Verwaltungszwecke verwendet und daher benannt Statistiken. In der Epidemiologie leiten sich häufig verwendete Statistiken aus Vergleichen ab, die der Natur der Epidemiologie innewohnen, die Fragen stellt wie: „Ist eine Bevölkerung einem größeren Krankheitsrisiko ausgesetzt als eine andere?“ Bei solchen Vergleichen ist das relative Risiko ein beliebtes Maß für die Stärke des Zusammenhangs zwischen einem individuellen Merkmal und der Wahrscheinlichkeit zu erkranken und wird am häufigsten in der ätiologischen Forschung verwendet; Das zurechenbare Risiko ist auch ein Maß für den Zusammenhang zwischen individuellen Merkmalen und dem Auftreten von Krankheiten, betont jedoch den Gewinn in Bezug auf die Anzahl der Fälle, die durch eine Intervention erspart bleiben, die den betreffenden Faktor beseitigt – es wird hauptsächlich in der öffentlichen Gesundheit und Präventivmedizin angewendet.
Die zweite Bedeutung des Wortes Statistiken bezieht sich auf die Sammlung von Techniken und die zugrunde liegende Theorie der statistischen Inferenz. Dies ist eine besondere Form der induktiven Logik, die die Regeln für das Erhalten einer gültigen Verallgemeinerung aus einem bestimmten Satz empirischer Beobachtungen spezifiziert. Diese Verallgemeinerung wäre gültig, sofern einige Annahmen erfüllt sind. Dies ist die zweite Art und Weise, wie uns ein ungebildeter Gebrauch von Statistiken täuschen kann: In der Beobachtungsepidemiologie ist es sehr schwierig, sich der Annahmen sicher zu sein, die von statistischen Techniken impliziert werden. Daher sollten Sensitivitätsanalysen und robuste Schätzer Begleiter jeder korrekt durchgeführten Datenanalyse sein. Abschließende Schlussfolgerungen sollten auch auf dem Gesamtwissen beruhen und sich nicht ausschließlich auf die Ergebnisse statistischer Hypothesentests stützen.
Definitionen
A statistische Einheit ist das Element, an dem die empirischen Beobachtungen gemacht werden. Das kann eine Person, eine biologische Probe oder ein zu analysierendes Stück Rohmaterial sein. Normalerweise werden die statistischen Einheiten vom Forscher unabhängig ausgewählt, aber manchmal können komplexere Designs erstellt werden. Beispielsweise werden in Längsschnittstudien eine Reihe von Bestimmungen über eine Sammlung von Personen im Laufe der Zeit vorgenommen; Die statistischen Einheiten in dieser Studie sind die Menge von Bestimmungen, die nicht unabhängig sind, sondern durch ihre jeweiligen Verbindungen zu jeder untersuchten Person strukturiert sind. Der Mangel an Unabhängigkeit oder Korrelation zwischen statistischen Einheiten verdient besondere Aufmerksamkeit bei der statistischen Analyse.
A Variable ist ein einzelnes Merkmal, das an einer bestimmten statistischen Einheit gemessen wird. Es sollte mit a kontrastiert werden konstante, ein festes individuelles Merkmal – zum Beispiel sind in einer Studie über Menschen Kopf oder Brust eine Konstante, während das Geschlecht eines einzelnen Studienteilnehmers eine Variable ist.
Variablen werden mit verschiedenen ausgewertet Messskalen. Die erste Unterscheidung ist zwischen qualitativen und quantitativen Skalen. Qualitative Variablen bieten unterschiedliche Modalitäten or Kategorien. Wenn jede Modalität nicht in Relation zu anderen eingestuft oder geordnet werden kann – zum Beispiel Haarfarbe oder Geschlechtsmodalitäten – bezeichnen wir die Variable als nominal. Wenn die Kategorien geordnet werden können – wie der Schweregrad einer Krankheit – wird die Variable aufgerufen Ordinal-. Wenn eine Variable aus einem numerischen Wert besteht, sagen wir, dass die Skala quantitativ ist. EIN diskret Skala bedeutet, dass die Variable nur einige bestimmte Werte annehmen kann – zum Beispiel ganzzahlige Werte für die Anzahl der Krankheitsfälle. EIN kontinuierlich Skala wird für diejenigen Maßnahmen verwendet, die zu führen echt Zahlen. Kontinuierliche Skalen sollen sein Intervall skaliert, wenn der Nullwert eine rein konventionelle Bedeutung hat. Das heißt, ein Wert von null bedeutet nicht null Menge – zum Beispiel bedeutet eine Temperatur von null Grad Celsius nicht null thermische Energie. In diesem Fall machen nur Unterschiede zwischen den Werten Sinn (deshalb der Begriff „Intervall“-Skala). Ein reeller Nullwert bezeichnet a Verhältnis Skala. Bei einer auf dieser Skala gemessenen Größe sind auch Werteverhältnisse sinnvoll: Ein zweifaches Verhältnis bedeutet nämlich doppelte Menge. Wenn man beispielsweise sagt, dass ein Körper eine doppelt so hohe Temperatur hat wie ein zweiter Körper, bedeutet dies, dass er die doppelte Wärmeenergie des zweiten Körpers hat. unter der Vorraussetzung, dass die Temperatur wird auf einer Verhältnisskala (z. B. in Kelvin Grad) gemessen. Die Menge der zulässigen Werte für eine gegebene Variable wird als Definitionsbereich der Variablen bezeichnet.
Statistische Paradigmen
Statistik befasst sich mit der Art und Weise, aus einer Reihe bestimmter Beobachtungen zu verallgemeinern. Dieser Satz empirischer Messungen wird als a bezeichnet Sample. Aus einer Stichprobe berechnen wir einige deskriptive Statistiken, um die gesammelten Informationen zusammenzufassen.
Die grundlegenden Informationen, die im Allgemeinen zur Charakterisierung eines Maßnahmenpakets erforderlich sind, beziehen sich auf seine zentrale Tendenz und seine Variabilität. Die Wahl zwischen mehreren Alternativen hängt von der Skala ab, die zur Messung eines Phänomens verwendet wird, und von den Zwecken, für die die Statistiken berechnet werden. In Tabelle 1 werden verschiedene Maße der zentralen Tendenz und Variabilität (oder Streuung) beschrieben und der entsprechenden Messskala zugeordnet.
Tabelle 1. Indizes der zentralen Tendenz und Streuung nach Messskala
Messskala |
||||
Qualitativ |
Quantitativ |
|||
Indizes |
Definition |
Nominal |
Ordinal |
Intervall/Verhältnis |
Arithmetisches Mittel |
Summe der beobachteten Werte dividiert durch die Gesamtzahl der Beobachtungen |
|
|
x |
Median |
Mittelpunktwert der beobachteten Verteilung |
|
x |
x |
Model |
Häufigster Wert |
x |
x |
x |
Abdeckung |
Niedrigster und höchster Wert der Verteilung |
|
x |
x |
Unterschied |
Summe der quadrierten Differenz jedes Werts vom Mittelwert dividiert durch die Gesamtzahl der Beobachtungen minus 1 |
|
|
x |
Die berechnete deskriptive Statistik wird aufgerufen Schätzungen wenn wir sie als Ersatz für die analoge Menge der Population verwenden, aus der die Stichprobe ausgewählt wurde. Die Populationsgegenstücke der Schätzungen werden als Konstanten bezeichnet Parameter. Schätzungen desselben Parameters können mit unterschiedlichen statistischen Methoden erhalten werden. Eine Schätzung sollte sowohl valide als auch präzise sein.
Das Populations-Stichproben-Paradigma impliziert, dass die Validität durch die Art und Weise sichergestellt werden kann, wie die Stichprobe aus der Grundgesamtheit ausgewählt wird. Zufällige oder probabilistische Stichproben sind die übliche Strategie: Wenn jedes Mitglied der Bevölkerung die gleiche Wahrscheinlichkeit hat, in die Stichprobe aufgenommen zu werden, dann sollte unsere Stichprobe im Durchschnitt repräsentativ für die Bevölkerung sein und darüber hinaus könnte jede Abweichung von unserer Erwartung sein zufällig erklärt. Die Wahrscheinlichkeit einer gegebenen Abweichung von unserer Erwartung kann ebenfalls berechnet werden, sofern eine Stichprobe durchgeführt wurde. Die gleiche Argumentation gilt für die für unsere Stichprobe berechneten Schätzungen in Bezug auf die Parameter der Grundgesamtheit. Als Schätzwert für den Mittelwert der Grundgesamtheit nehmen wir beispielsweise das arithmetische Mittel aus unserer Stichprobe. Etwaige Unterschiede zwischen dem Durchschnitt der Stichprobe und dem Mittelwert der Grundgesamtheit werden zufälligen Schwankungen bei der Auswahl der in die Stichprobe aufgenommenen Mitglieder zugeschrieben. Wir können die Wahrscheinlichkeit für jeden Wert dieser Differenz berechnen, vorausgesetzt, die Stichprobe wurde zufällig ausgewählt. Wenn die Abweichung zwischen Stichprobenschätzung und Grundgesamtheitsparameter nicht zufällig erklärt werden kann, spricht man von einer Schätzung voreingenommen. Das Design der Beobachtung oder des Experiments verleiht den Schätzungen Gültigkeit, und das grundlegende statistische Paradigma ist das der Zufallsstichprobe.
In der Medizin wird ein zweites Paradigma angenommen, wenn ein Vergleich zwischen verschiedenen Gruppen das Ziel der Studie ist. Ein typisches Beispiel ist die kontrollierte klinische Studie: Anhand vordefinierter Kriterien wird eine Gruppe von Patienten mit ähnlichen Merkmalen ausgewählt. In diesem Stadium wird keine Repräsentativität berücksichtigt. Jeder in die Studie aufgenommene Patient wird durch ein Zufallsverfahren der Behandlungsgruppe zugeteilt, die die Standardtherapie plus das neue zu bewertende Medikament erhält, oder der Kontrollgruppe, die die Standardtherapie und ein Placebo erhält. In diesem Design ersetzt die zufällige Zuordnung der Patienten zu jeder Gruppe die zufällige Auswahl der Mitglieder der Stichprobe. Die Schätzung des Unterschieds zwischen den beiden Gruppen kann statistisch bewertet werden, da wir unter der Hypothese der fehlenden Wirksamkeit des neuen Medikaments die Wahrscheinlichkeit eines Unterschieds ungleich Null berechnen können.
In der Epidemiologie fehlt uns die Möglichkeit, zufällig exponierte und nicht exponierte Personengruppen zusammenzustellen. In diesem Fall können wir immer noch statistische Methoden verwenden, als ob die analysierten Gruppen zufällig ausgewählt oder zugewiesen worden wären. Die Richtigkeit dieser Annahme hängt hauptsächlich vom Studiendesign ab. Dieser Punkt ist besonders wichtig und unterstreicht die Bedeutung des epidemiologischen Studiendesigns gegenüber statistischen Techniken in der biomedizinischen Forschung.
Signal und Rauschen
Die zufällige Variable bezeichnet eine Variable, für die jedem Wert, den sie annehmen kann, eine definierte Wahrscheinlichkeit zugeordnet ist. Die theoretischen Modelle für die Verteilung der Wahrscheinlichkeit einer Zufallsvariablen sind Populationsmodelle. Die Stichprobengegenstücke werden durch die Stichprobenhäufigkeitsverteilung dargestellt. Dies ist eine nützliche Methode, um einen Datensatz zu melden. es besteht aus einer kartesischen Ebene mit der interessierenden Variablen entlang der horizontalen Achse und der Frequenz oder relativen Häufigkeit entlang der vertikalen Achse. Eine grafische Darstellung ermöglicht es uns, leicht zu sehen, was die häufigsten Werte sind und wie sich die Verteilung um bestimmte zentrale Werte wie den arithmetischen Durchschnitt konzentriert.
Für die Zufallsvariablen und ihre Wahrscheinlichkeitsverteilungen verwenden wir die Terme Parameter, mittlerer Erwartungswert (anstelle des arithmetischen Mittels) und Unterschied. Diese theoretischen Modelle beschreiben die Variabilität eines gegebenen Phänomens. In der Informationstheorie wird das Signal durch die zentrale Tendenz (z. B. den Mittelwert) dargestellt, während das Rauschen durch einen Streuungsindex (z. B. die Varianz) gemessen wird.
Zur Veranschaulichung der statistischen Inferenz verwenden wir das Binomialmodell. In den folgenden Abschnitten werden die Konzepte von Punktschätzungen und Konfidenzintervallen, Hypothesentests und Wahrscheinlichkeit von Fehlentscheidungen sowie Aussagekraft einer Studie eingeführt.
Tabelle 2. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)
Arbeitnehmer |
Wahrscheinlichkeit |
||
A |
B |
C |
|
0 |
0 |
0 |
|
1 |
0 |
0 |
|
0 |
1 |
0 |
|
0 |
0 |
1 |
|
0 |
1 |
1 |
|
1 |
0 |
1 |
|
1 |
1 |
0 |
|
1 |
1 |
1 |
Ein Beispiel: Die Binomialverteilung
In der biomedizinischen Forschung und Epidemiologie ist das wichtigste Modell der stochastischen Variation die Binomialverteilung. Es stützt sich auf die Tatsache, dass sich die meisten Phänomene wie eine nominelle Variable mit nur zwei Kategorien verhalten: zum Beispiel das Vorhandensein/Nichtvorhandensein einer Krankheit: lebendig/tot oder genesen/krank. Unter solchen Umständen sind wir an der Erfolgswahrscheinlichkeit interessiert – dh im Fall von Interesse (z. B. Vorliegen einer Krankheit, am Leben oder Genesung) – und an den Faktoren oder Variablen, die sie verändern können. Lass uns in Erwägung ziehen n = 3 Arbeiter, und nehmen wir an, dass wir an der Wahrscheinlichkeit p interessiert sind, eine Sehbehinderung zu haben (ja/nein). Das Ergebnis unserer Beobachtung könnten die möglichen Ergebnisse in Tabelle 2 sein.
Tabelle 3. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)
Anzahl der Erfolge |
Wahrscheinlichkeit |
0 |
|
1 |
|
2 |
|
3 |
Die Wahrscheinlichkeit jeder dieser Ereigniskombinationen lässt sich leicht ermitteln, indem man p berücksichtigt, die (individuelle) Erfolgswahrscheinlichkeit, die für jede Versuchsperson konstant und unabhängig von anderen Ergebnissen ist. Da wir an der Gesamtzahl der Erfolge interessiert sind und nicht an einer bestimmten Reihenfolge, können wir die Tabelle wie folgt umordnen (siehe Tabelle 3) und allgemein die Wahrscheinlichkeit von ausdrücken x Erfolge P (x) als:
woher x ist die Anzahl der Erfolge und die Notation x! bezeichnet die Fakultät von xDh x! = x×(x–1)×(x–2)…×1.
Betrachtet man das Ereignis „krank sein/nicht sein“, so wird die individuelle Wahrscheinlichkeit, bezieht sich auf den Zustand, in dem das Subjekt vermutet wird; in der Epidemiologie wird diese Wahrscheinlichkeit „Prävalenz“ genannt. Um p zu schätzen, verwenden wir den Stichprobenanteil:
p = x/n
mit Varianz:
In einer hypothetischen unendlichen Reihe von replizierten Stichproben derselben Größe n, würden wir unterschiedliche Stichprobenanteile erhalten p = x/n, mit Wahrscheinlichkeiten, die durch die Binomialformel gegeben sind. Der „wahre“ Wert von wird durch jeden Stichprobenanteil geschätzt, und ein Konfidenzintervall für p, d. h. der Satz wahrscheinlicher Werte für p, bei gegebenen beobachteten Daten und einem vordefinierten Konfidenzniveau (z. B. 95 %), wird aus der Binomialverteilung als geschätzt die Menge von Werten für p, die eine Wahrscheinlichkeit von ergibt x größer als ein vorgegebener Wert (z. B. 2.5 %). Für ein hypothetisches Experiment, bei dem wir beobachteten x = 15 Erfolge in n = 30 Versuche, die geschätzte Erfolgswahrscheinlichkeit beträgt:
Tabelle 4. Binomialverteilung. Wahrscheinlichkeiten für verschiedene Werte von für x = 15 Erfolge in n = 30 Versuchen
Wahrscheinlichkeit |
|
0.200 |
0.0002 |
0.300 |
0.0116 |
0.334 |
0.025 |
0.400 |
0.078 |
0.500 |
0.144 |
0.600 |
0.078 |
0.666 |
0.025 |
0.700 |
0.0116 |
Das 95 %-Konfidenzintervall für p, erhalten aus Tabelle 4, beträgt 0.334 – 0.666. Jeder Eintrag der Tabelle zeigt die Wahrscheinlichkeit von x = 15 Erfolge in n = 30 Versuche berechnet mit der Binomialformel; zum Beispiel für = 0.30 erhalten wir aus:
Für n groß und p nahe 0.5 können wir eine Näherung basierend auf der Gaußschen Verteilung verwenden:
woher za /2 bezeichnet den Wert der Standard-Gauß-Verteilung für eine Wahrscheinlichkeit
P (|z| ³ za /2) = a/2;
1 – a ist das gewählte Konfidenzniveau. Für das betrachtete Beispiel = 15/30 = 0.5; n = 30 und aus der standardmäßigen Gaußschen Tabelle z0.025 = 1.96. Das 95 %-Konfidenzintervall ergibt den Wertesatz 0.321 – 0.679, den man durch Einsetzen erhält p = 0.5, n = 30 und z0.025 = 1.96 in die obige Gleichung für die Gaußsche Verteilung. Beachten Sie, dass diese Werte nahe an den zuvor berechneten exakten Werten liegen.
Statistische Hypothesentests umfassen ein Entscheidungsverfahren über den Wert eines Populationsparameters. Nehmen wir im vorherigen Beispiel an, dass wir uns mit der Behauptung befassen möchten, dass es ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage gibt. Die wissenschaftliche Hypothese, die durch unsere empirischen Beobachtungen überprüft werden soll, lautet dann: „Es besteht ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage“. Statistiker demonstrieren solche Hypothesen, indem sie die komplementäre Hypothese „es gibt keine Erhöhung des Risikos einer Sehbehinderung“ falsifizieren. Dies folgt der mathematischen Demonstration per Absurdum und anstatt eine Behauptung zu verifizieren, werden empirische Beweise nur verwendet, um sie zu falsifizieren. Die statistische Hypothese heißt Nullhypothese. Der zweite Schritt besteht darin, einen Wert für den Parameter dieser Wahrscheinlichkeitsverteilung anzugeben, die verwendet wird, um die Variabilität in den Beobachtungen zu modellieren. Da das Phänomen binär ist (dh Vorhandensein/Fehlen einer Sehbehinderung), wählen wir in unseren Beispielen die Binomialverteilung mit dem Parameter p, der Wahrscheinlichkeit einer Sehbehinderung. Die Nullhypothese behauptet das = 0.25, sagen wir. Dieser Wert wird aus der Sammlung von Wissen über das Thema und a-priori-Wissen über die übliche Prävalenz von Sehbehinderungen in nicht exponierten (dh Nicht-Arbeiter-) Bevölkerungsgruppen ausgewählt. Angenommen, unsere Daten ergaben eine Schätzung = 0.50, von den 30 untersuchten Arbeitern.
Können wir die Nullhypothese ablehnen?
Wenn ja, wofür Alternative Hypothese?
Wir spezifizieren eine Alternativhypothese als Kandidaten, falls die Beweise diktieren, dass die Nullhypothese abgelehnt wird. Ungerichtete (zweiseitige) Alternativhypothesen besagen, dass sich der Populationsparameter von dem in der Nullhypothese angegebenen Wert unterscheidet; gerichtete (einseitige) Alternativhypothesen besagen, dass der Populationsparameter größer (oder kleiner) als der Nullwert ist.
Tabelle 5. Binomialverteilung. Erfolgswahrscheinlichkeiten für = 0.25 in n = 30 Versuchen
X |
Wahrscheinlichkeit |
Kumulative Wahrscheinlichkeit |
0 |
0.0002 |
0.0002 |
1 |
0.0018 |
0.0020 |
2 |
0.0086 |
0.0106 |
3 |
0.0269 |
0.0374 |
4 |
0.0604 |
0.0979 |
5 |
0.1047 |
0.2026 |
6 |
0.1455 |
0.3481 |
7 |
0.1662 |
0.5143 |
8 |
0.1593 |
0.6736 |
9 |
0.1298 |
0.8034 |
10 |
0.0909 |
0.8943 |
11 |
0.0551 |
0.9493 |
12 |
0.0291 |
0.9784 |
13 |
0.0134 |
0.9918 |
14 |
0.0054 |
0.9973 |
15 |
0.0019 |
0.9992 |
16 |
0.0006 |
0.9998 |
17 |
0.0002 |
1.0000 |
. |
. |
. |
30 |
0.0000 |
1.0000 |
Unter der Nullhypothese können wir die Wahrscheinlichkeitsverteilung der Ergebnisse unseres Beispiels berechnen. Tabelle 5 zeigt z = 0.25 und n = 30, die Wahrscheinlichkeiten (siehe Gleichung (1)) und die kumulativen Wahrscheinlichkeiten:
Aus dieser Tabelle erhalten wir die Wahrscheinlichkeit zu haben x ³15 Arbeitnehmer mit Sehbehinderung
P(x ³15) = 1 - P(x15) = 1 - 0.9992 0.0008 =
Dies bedeutet, dass es höchst unwahrscheinlich ist, dass wir 15 oder mehr Arbeitnehmer mit Sehbehinderung beobachten würden, wenn sie die Prävalenz der Krankheit der nicht exponierten Bevölkerungsgruppen erfahren würden. Daher könnten wir die Nullhypothese zurückweisen und bestätigen, dass es eine höhere Prävalenz von Sehbehinderungen in der untersuchten Population von Arbeitnehmern gibt.
Wann n×p ³ 5 und n×(1-) ³ 5 können wir die Gaußsche Näherung verwenden:
Aus der Tabelle der Standard-Gauß-Verteilung erhalten wir:
P(|z|>2.95) = 0.0008
in enger Übereinstimmung mit den genauen Ergebnissen. Aus dieser Näherung können wir erkennen, dass die Grundstruktur eines statistischen Hypothesentests aus dem Verhältnis von Signal zu Rauschen besteht. In unserem Fall ist das Signal (p-), die beobachtete Abweichung von der Nullhypothese, während das Rauschen die Standardabweichung von ist P:
Je größer das Verhältnis, desto geringer die Wahrscheinlichkeit des Nullwerts.
Beim Treffen von Entscheidungen über statistische Hypothesen können zwei Arten von Fehlern auftreten: ein Fehler erster Art, die Ablehnung der Nullhypothese, wenn sie wahr ist; oder ein Typ-II-Fehler, Annahme der Nullhypothese, wenn sie falsch ist. Das Wahrscheinlichkeitsniveau bzw p-Wert, ist die Wahrscheinlichkeit eines Fehlers erster Art, der mit dem griechischen Buchstaben a bezeichnet wird. Diese errechnet sich aus der Wahrscheinlichkeitsverteilung der Beobachtungen unter der Nullhypothese. Es ist üblich, ein a-Fehlerniveau (z. B. 5 %, 1 %) vorzugeben und die Nullhypothese abzulehnen, wenn das Ergebnis unserer Beobachtung eine Wahrscheinlichkeit hat, die gleich oder kleiner als dieses sogenannte kritische Niveau ist.
Die Wahrscheinlichkeit eines Fehlers XNUMX. Art wird mit dem griechischen Buchstaben β bezeichnet. Um ihn zu berechnen, müssen wir in der Alternativhypothese den α-Wert für den zu testenden Parameter angeben (in unserem Beispiel den α-Wert für ). Generische Alternativhypothesen (anders als, größer als, kleiner als) sind nicht sinnvoll. In der Praxis interessiert der β-Wert für eine Reihe von Alternativhypothesen oder deren Ergänzung, die als statistische Aussagekraft des Tests bezeichnet wird. Wenn wir beispielsweise den α-Fehlerwert auf 5 % festlegen, finden wir aus Tabelle 5:
P(x ³12) <0.05
unter der Nullhypothese = 0.25. Wenn wir es zumindest beobachten würden x = 12 Erfolge, würden wir die Nullhypothese verwerfen. Die entsprechenden β-Werte und die Potenz für x = 12 sind in Tabelle 6 angegeben.
Tabelle 6. Fehler 12. Art und Trennschärfe für x = 30, n = 0.05, α = XNUMX
β |
Power |
|
0.30 |
0.9155 |
0.0845 |
0.35 |
0.7802 |
0.2198 |
0.40 |
0.5785 |
0.4215 |
0.45 |
0.3592 |
0.6408 |
0.50 |
0.1808 |
0.8192 |
0.55 |
0.0714 |
0.9286 |
In diesem Fall können unsere Daten nicht unterscheiden, ob größer als der Nullwert von 0.25, aber kleiner als 0.50 ist, weil die Aussagekraft der Studie für diese Werte zu gering ist (< 80 %). <0.50 – das heißt, die Sensitivität unserer Studie beträgt 8 % für = 0.3, 22 % für = 0.35,…, 64% für = 0.45.
Die einzige Möglichkeit, ein niedrigeres β oder ein höheres Power-Niveau zu erreichen, wäre die Vergrößerung der Studie. In Tabelle 7 geben wir beispielsweise β und die Leistung für an n = 40; Wie erwartet sollten wir in der Lage sein, a zu erkennen Wert größer als 0.40.
Tabelle 7. Fehler 12. Art und Trennschärfe für x = 40, n = 0.05, α = XNUMX
β |
Power |
|
0.30 |
0.5772 |
0.4228 |
0.35 |
0.3143 |
0.6857 |
0.40 |
0.1285 |
0.8715 |
0.45 |
0.0386 |
0.8614 |
0.50 |
0.0083 |
0.9917 |
0.55 |
0.0012 |
0.9988 |
Das Studiendesign basiert auf einer sorgfältigen Prüfung des Satzes alternativer Hypothesen, die eine Berücksichtigung verdienen und der Studie eine ausreichende Stichprobengröße garantieren.
In der epidemiologischen Literatur wurde die Bedeutung zuverlässiger Risikoschätzungen betont. Daher ist es wichtiger, Konfidenzintervalle (entweder 95 % oder 90 %) anzugeben, als a p-Wert eines Tests einer Hypothese. Der gleichen Argumentation folgend sollte der Interpretation von Ergebnissen aus kleinen Studien Beachtung geschenkt werden: Aufgrund der geringen Aussagekraft könnten selbst Zwischeneffekte unentdeckt bleiben und andererseits Effekte von großem Ausmaß später nicht repliziert werden.
Erweiterte Methoden
Der Komplexitätsgrad der statistischen Methoden im arbeitsmedizinischen Kontext hat in den letzten Jahren zugenommen. Wichtige Entwicklungen sind im Bereich der statistischen Modellierung zu finden. Die Nelder- und Wedderburn-Familie von nicht-Gaußschen Modellen (verallgemeinerte lineare Modelle) war einer der bemerkenswertesten Beiträge zum Wissenszuwachs in Bereichen wie Berufsepidemiologie, wo die relevanten Antwortvariablen binär sind (z. B. Überleben/Tod) oder zählt (z. B. Anzahl der Arbeitsunfälle).
Dies war der Ausgangspunkt für eine umfassende Anwendung von Regressionsmodellen als Alternative zu den traditionelleren Analysearten auf der Grundlage von Kontingenztabellen (einfache und stratifizierte Analyse). Poisson, Cox und logistische Regression werden heute routinemäßig für die Analyse von Längsschnitt- bzw. Fall-Kontroll-Studien verwendet. Diese Modelle sind das Gegenstück zur linearen Regression für kategoriale Antwortvariablen und haben die elegante Eigenschaft, direkt das relevante epidemiologische Assoziationsmaß zu liefern. Beispielsweise sind die Koeffizienten der Poisson-Regression der Logarithmus der Rate Ratios, während die der logistischen Regression der Logarithmus der Odds Ratios sind.
Davon ausgehend haben die Weiterentwicklungen im Bereich der statistischen Modellierung zwei Hauptrichtungen eingeschlagen: Modelle für wiederholte kategoriale Maße und Modelle, die die verallgemeinerten linearen Modelle erweitern (verallgemeinerte additive Modelle). In beiden Fällen konzentrieren sich die Ziele darauf, die Flexibilität der statistischen Werkzeuge zu erhöhen, um komplexere Probleme zu bewältigen, die sich aus der Realität ergeben. Modelle mit wiederholten Messungen werden in vielen Berufsstudien benötigt, bei denen die Analyseeinheiten auf der subindividuellen Ebene liegen. Zum Beispiel:
Eine parallele und wahrscheinlich schnellere Entwicklung wurde im Zusammenhang mit der Bayes'schen Statistik gesehen. Die praktische Barriere der Verwendung von Bayes'schen Methoden ist nach der Einführung computerintensiver Methoden zusammengebrochen. Monte-Carlo-Prozeduren wie Gibbs-Stichprobenschemata haben es uns ermöglicht, die Notwendigkeit einer numerischen Integration zur Berechnung der Posterior-Verteilungen zu vermeiden, die das herausforderndste Merkmal der Bayes'schen Methoden darstellten. Die Zahl der Anwendungen von Bayes'schen Modellen in realen und komplexen Problemen hat zunehmend Raum in angewandten Zeitschriften gefunden. Beispielsweise werden geografische Analysen und ökologische Zusammenhänge auf kleinräumiger Ebene sowie AIDS-Vorhersagemodelle immer häufiger mit bayesianischen Ansätzen angegangen. Diese Entwicklungen sind zu begrüßen, da sie nicht nur eine Zunahme der Zahl alternativer statistischer Lösungen darstellen, die bei der Analyse epidemiologischer Daten eingesetzt werden könnten, sondern auch, weil der Bayes'sche Ansatz als solidere Strategie angesehen werden kann.
Die vorhergehenden Artikel dieses Kapitels haben die Notwendigkeit einer sorgfältigen Bewertung des Studiendesigns gezeigt, um glaubwürdige Schlussfolgerungen aus epidemiologischen Beobachtungen zu ziehen. Obwohl behauptet wurde, dass Schlussfolgerungen in der beobachtenden Epidemiologie aufgrund des nicht-experimentellen Charakters der Disziplin schwach sind, gibt es keine eingebaute Überlegenheit von randomisierten kontrollierten Studien oder anderen Arten von experimentellem Design gegenüber gut geplanter Beobachtung (Cornfield 1954). Um jedoch solide Schlussfolgerungen ziehen zu können, ist eine gründliche Analyse des Studiendesigns erforderlich, um potenzielle Quellen für Verzerrungen und Verwirrung zu identifizieren. Sowohl falsch positive als auch falsch negative Ergebnisse können von verschiedenen Arten von Bias stammen.
In diesem Artikel werden einige der Richtlinien diskutiert, die zur Bewertung der kausalen Natur epidemiologischer Beobachtungen vorgeschlagen wurden. Obwohl gute Wissenschaft eine Voraussetzung für ethisch korrekte epidemiologische Forschung ist, gibt es darüber hinaus weitere Fragen, die für ethische Bedenken relevant sind. Daher haben wir einige Diskussionen der Analyse ethischer Probleme gewidmet, die bei der Durchführung epidemiologischer Studien auftreten können.
Kausalitätsbewertung
Mehrere Autoren haben die Kausalitätsbewertung in der Epidemiologie diskutiert (Hill 1965; Buck 1975; Ahlbom 1984; Maclure 1985; Miettinen 1985; Rothman 1986; Weed 1986; Schlesselman 1987; Maclure 1988; Weed 1988; Karhausen 1995). Einer der Hauptdiskussionspunkte ist, ob die Epidemiologie dieselben Kriterien zur Ermittlung von Ursache-Wirkungs-Zusammenhängen verwendet oder verwenden sollte, wie sie in anderen Wissenschaften verwendet werden.
Ursachen sollten nicht mit Mechanismen verwechselt werden. Beispielsweise ist Asbest eine Ursache von Mesotheliom, wohingegen eine Onkogen-Mutation ein mutmaßlicher Mechanismus ist. Auf der Grundlage der vorhandenen Beweise ist es wahrscheinlich, dass (a) verschiedene äußere Expositionen in denselben mechanistischen Stadien wirken können und (b) es normalerweise keine feste und notwendige Abfolge mechanistischer Schritte bei der Entwicklung einer Krankheit gibt. Beispielsweise wird die Karzinogenese als eine Abfolge von stochastischen (wahrscheinlichkeitstheoretischen) Übergängen interpretiert, von der Genmutation über die Zellproliferation bis zur erneuten Genmutation, die schließlich zu Krebs führt. Darüber hinaus ist die Karzinogenese ein multifaktorieller Prozess – das heißt, verschiedene äußere Expositionen können sie beeinflussen und bei einer anfälligen Person ist keine davon notwendig. Dieses Modell lässt sich wahrscheinlich neben Krebs auch auf andere Krankheiten anwenden.
Eine solche multifaktorielle und probabilistische Natur der meisten Expositions-Krankheits-Beziehungen impliziert, dass es problematisch ist, die Rolle zu entwirren, die eine bestimmte Exposition spielt. Darüber hinaus hindert uns der beobachtende Charakter der Epidemiologie daran, Experimente durchzuführen, die ätiologische Zusammenhänge durch eine mutwillige Veränderung des Ablaufs der Ereignisse klären könnten. Die Beobachtung eines statistischen Zusammenhangs zwischen Exposition und Krankheit bedeutet nicht, dass der Zusammenhang kausal ist. Beispielsweise haben die meisten Epidemiologen den Zusammenhang zwischen der Exposition gegenüber Dieselabgasen und Blasenkrebs als kausal interpretiert, andere haben jedoch behauptet, dass Arbeiter, die Dieselabgasen ausgesetzt sind (hauptsächlich Lkw- und Taxifahrer), häufiger Zigarettenraucher sind als nicht exponierte Personen . Der beobachtete Zusammenhang würde dieser Behauptung zufolge also durch einen bekannten Risikofaktor wie das Rauchen „verwechselt“.
Angesichts der probabilistisch-multifaktoriellen Natur der meisten Expositions-Krankheits-Assoziationen haben Epidemiologen Richtlinien entwickelt, um Beziehungen zu erkennen, die wahrscheinlich kausal sind. Dies sind die ursprünglich von Sir Bradford Hill vorgeschlagenen Richtlinien für chronische Krankheiten (1965):
Diese Kriterien sollten nur als allgemeine Richtlinien oder praktische Hilfsmittel betrachtet werden; Tatsächlich ist die wissenschaftliche Kausalbewertung ein iterativer Prozess, der sich um die Messung der Beziehung zwischen Exposition und Krankheit dreht. Die Hill-Kriterien werden jedoch häufig als prägnante und praktische Beschreibung kausaler Inferenzverfahren in der Epidemiologie verwendet.
Betrachten wir das Beispiel des Zusammenhangs zwischen Vinylchlorid-Exposition und Leber-Angiosarkom unter Anwendung der Hills-Kriterien.
Der übliche Ausdruck der Ergebnisse einer epidemiologischen Studie ist ein Maß für den Grad der Assoziation zwischen Exposition und Krankheit (erstes Kriterium von Hill). Ein relatives Risiko (RR) größer als eins bedeutet, dass ein statistischer Zusammenhang zwischen Exposition und Erkrankung besteht. Wenn zum Beispiel die Inzidenzrate von Leber-Angiosarkom normalerweise 1 zu 10 Millionen beträgt, aber 1 zu 100,000 unter denen, die Vinylchlorid ausgesetzt sind, dann ist die RR 100 (das heißt, Menschen, die mit Vinylchlorid arbeiten, haben eine 100-fach erhöhte Risiko für die Entwicklung eines Angiosarkoms im Vergleich zu Personen, die nicht mit Vinylchlorid arbeiten).
Ein kausaler Zusammenhang ist wahrscheinlicher, wenn das Risiko mit zunehmender Exposition zunimmt (Dosis-Wirkungs-Effekt, zweites Hill-Kriterium) und wenn der zeitliche Zusammenhang zwischen Exposition und Krankheit aus biologischen Gründen sinnvoll ist (die Exposition geht der Wirkung voraus und die Länge dieser „Induktions“-Periode ist mit einem biologischen Krankheitsmodell vereinbar; drittes Kriterium von Hill). Darüber hinaus ist ein Zusammenhang wahrscheinlicher, wenn ähnliche Ergebnisse von anderen erzielt werden, die in der Lage waren, die Ergebnisse unter anderen Umständen zu replizieren („Konsistenz“, viertes Kriterium von Hill).
Eine wissenschaftliche Analyse der Ergebnisse erfordert eine Bewertung der biologischen Plausibilität (fünftes Kriterium von Hill). Dies kann auf unterschiedliche Weise erreicht werden. Ein einfaches Kriterium ist beispielsweise, ob die vermeintliche „Ursache“ das Zielorgan erreichen kann (z. B. eingeatmete Substanzen, die die Lunge nicht erreichen, können nicht im Körper zirkulieren). Auch unterstützende Beweise aus Tierversuchen sind hilfreich: Die Beobachtung von Leber-Angiosarkomen bei Tieren, die mit Vinylchlorid behandelt wurden, verstärkt stark die beim Menschen beobachtete Assoziation.
Die innere Kohärenz der Beobachtungen (z. B. ist das RR bei beiden Geschlechtern ähnlich erhöht) ist ein wichtiges wissenschaftliches Kriterium (sechstes Kriterium von Hill). Kausalität ist wahrscheinlicher, wenn die Beziehung sehr spezifisch ist – das heißt, seltene Ursachen und/oder seltene Krankheiten oder einen bestimmten histologischen Typ/Untergruppe von Patienten (siebtes Hill-Kriterium) betrifft.
„Enumerative Induktion“ (die einfache Aufzählung von Assoziationsfällen zwischen Exposition und Krankheit) reicht nicht aus, um die induktiven Schritte des Kausalschlusses vollständig zu beschreiben. Das Ergebnis der enumerativen Induktion führt in der Regel zu einer komplexen und immer noch verwirrenden Beobachtung, weil verschiedene Kausalketten oder häufiger ein echter Kausalzusammenhang und andere irrelevante Expositionen miteinander verschränkt sind. Alternative Erklärungen müssen durch „eliminative Induktion“ eliminiert werden, was zeigt, dass eine Assoziation wahrscheinlich kausal ist, weil sie nicht mit anderen „verwechselt“ ist. Eine einfache Definition einer alternativen Erklärung ist „ein externer Faktor, dessen Effekt sich mit dem Effekt des Zinsrisikos vermischt und somit die Risikoschätzung für das Zinsrisiko verzerrt“ (Rothman 1986).
Die Rolle der Induktion ist die Erweiterung des Wissens, während die Rolle der Deduktion die „Wahrheitsübertragung“ ist (Giere 1979). Deduktives Denken hinterfragt das Studiendesign und identifiziert Zusammenhänge, die nicht empirisch, sondern nur logisch wahr sind. Solche Assoziationen sind keine Tatsachen, sondern logische Notwendigkeiten. Zum Beispiel ein Auswahlbias tritt auf, wenn die exponierte Gruppe unter kranken Menschen ausgewählt wird (wie wenn wir eine Kohortenstudie starten, in der wir eine Gruppe von Leber-Angiosarkom-Fällen als „exponiert“ gegenüber Vinylchlorid rekrutieren) oder wenn die nicht exponierte Gruppe unter gesunden Menschen ausgewählt wird. In beiden Fällen ist der gefundene Zusammenhang zwischen Exposition und Krankheit notwendigerweise (logisch), aber nicht empirisch wahr (Vineis 1991).
Zusammenfassend lässt sich sagen, dass die Epidemiologie, auch wenn man ihren beobachtenden (nicht-experimentellen) Charakter berücksichtigt, keine inferenziellen Verfahren verwendet, die sich wesentlich von der Tradition anderer wissenschaftlicher Disziplinen unterscheiden (Hume 1978; Schaffner 1993).
Ethische Fragen in der epidemiologischen Forschung
Aufgrund der Feinheiten, die mit der Ableitung von Kausalitäten verbunden sind, müssen Epidemiologen bei der Interpretation ihrer Studien besondere Sorgfalt walten lassen. Tatsächlich ergeben sich daraus mehrere Bedenken ethischer Natur.
Ethische Fragen in der epidemiologischen Forschung sind Gegenstand intensiver Diskussionen geworden (Schulte 1989; Soskolne 1993; Beauchamp et al. 1991). Der Grund liegt auf der Hand: Epidemiologen, insbesondere Arbeits- und Umweltepidemiologen, untersuchen häufig Themen mit erheblichen wirtschaftlichen, sozialen und gesundheitspolitischen Implikationen. Sowohl negative als auch positive Ergebnisse bezüglich des Zusammenhangs zwischen bestimmten Chemikalienbelastungen und Krankheiten können das Leben von Tausenden von Menschen beeinträchtigen, wirtschaftliche Entscheidungen beeinflussen und daher politische Entscheidungen ernsthaft beeinflussen. Daher kann der Epidemiologe unter Druck geraten und von anderen versucht oder sogar ermutigt werden, die Interpretation der Ergebnisse seiner oder ihrer Untersuchungen – marginal oder wesentlich – zu ändern.
Unter den mehreren relevanten Themen, Transparenz der Datenerhebung, Kodierung, Computerisierung und Analyse ist von zentraler Bedeutung, um sich gegen Vorwürfe der Voreingenommenheit seitens des Forschers zu wehren. Ebenfalls von entscheidender Bedeutung und möglicherweise im Widerspruch zu einer solchen Transparenz ist das Recht der an der epidemiologischen Forschung beteiligten Personen, vor der Preisgabe personenbezogener Daten geschützt zu werden
(Vertraulichkeit Probleme).
Aus Sicht des Fehlverhaltens, das insbesondere im Zusammenhang mit Kausalschlüssen entstehen kann, sind Fragen, die von Ethik-Leitlinien beantwortet werden sollten:
Weitere zentrale Fragen beziehen sich im Falle der Arbeits- und Umweltepidemiologie auf die Einbeziehung der Beschäftigten in Vorphasen von Studien und auf die Veröffentlichung der Ergebnisse einer Studie an die eingeschriebenen und direkt betroffenen Probanden (Schulte 1989 ). Leider ist es nicht üblich, dass Arbeitnehmer, die an epidemiologischen Studien teilnehmen, an gemeinsamen Diskussionen über den Zweck der Studie, ihre Interpretation und die mögliche Verwendung der Ergebnisse beteiligt sind (was für den Arbeitnehmer sowohl vorteilhaft als auch nachteilig sein kann).
Teilweise Antworten auf diese Fragen liefern neuere Leitlinien (Beauchamp et al. 1991; CIOMS 1991). Allerdings sollten sich die Berufsverbände der Berufsepidemiologen in jedem Land an einer gründlichen Diskussion über ethische Fragen beteiligen und möglicherweise eine Reihe von ethischen Richtlinien verabschieden, die dem lokalen Kontext angemessen sind, während sie international anerkannte normative Praxisstandards anerkennen.
Die Dokumentation von Berufskrankheiten in einem Land wie Taiwan ist eine Herausforderung für einen Betriebsarzt. Mangels eines Systems mit Materialsicherheitsdatenblättern (MSDS) waren sich die Arbeiter in der Regel nicht bewusst, mit welchen Chemikalien sie arbeiten. Da viele Berufskrankheiten lange Latenzzeiten haben und bis zum klinischen Nachweis keine spezifischen Symptome und Anzeichen zeigen, ist das Erkennen und Identifizieren der beruflichen Ursache oft sehr schwierig.
Um Berufskrankheiten besser kontrollieren zu können, haben wir auf Datenbanken zugegriffen, die eine relativ vollständige Liste von Industriechemikalien und eine Reihe spezifischer Anzeichen und/oder Symptome enthalten. Kombiniert mit dem epidemiologischen Ansatz des Vermutens und Widerlegens (dh das Abwägen und Ausschließen aller möglichen alternativen Erklärungen) haben wir mehr als zehn Arten von Berufskrankheiten und einen Ausbruch von Botulismus dokumentiert. Wir empfehlen, dass ein ähnlicher Ansatz auf jedes andere Land in einer ähnlichen Situation angewendet wird und dass ein System mit einem Identifizierungsblatt (z. B. MSDS) für jede Chemikalie befürwortet und eingeführt wird, um eine schnelle Erkennung und damit die Verhinderung von Berufskrankheiten zu ermöglichen Krankheiten.
Hepatitis in einer Farbdruckerei
Drei Arbeiter einer Farbdruckerei wurden 1985 mit Manifestationen einer akuten Hepatitis in kommunale Krankenhäuser eingeliefert. Einer der drei hatte akutes Nierenversagen überlagert. Da Virushepatitis in Taiwan eine hohe Prävalenz aufweist, sollten wir einen viralen Ursprung als eine der wahrscheinlichsten Ätiologien in Betracht ziehen. Alkohol- und Drogenkonsum sowie organische Lösungsmittel am Arbeitsplatz sollten ebenfalls einbezogen werden. Da es in Taiwan kein MSDS-System gab, waren weder den Arbeitnehmern noch dem Arbeitgeber alle in der Fabrik verwendeten Chemikalien bekannt (Wang 1991).
Wir mussten aus mehreren toxikologischen Datenbanken eine Liste hepatotoxischer und nephrotoxischer Wirkstoffe zusammenstellen. Dann haben wir alle möglichen Schlussfolgerungen aus den obigen Hypothesen abgeleitet. Wenn zum Beispiel das Hepatitis-A-Virus (HAV) die Ursache wäre, sollten wir Antikörper (HAV-IgM) unter den betroffenen Arbeitern beobachten; Wenn das Hepatitis-B-Virus die Ursache wäre, sollten wir unter den betroffenen Arbeitnehmern im Vergleich zu nicht betroffenen Arbeitnehmern mehr Träger von Hepatitis-B-Oberflächenantigenen (HBsAg) beobachten; wenn Alkohol die Hauptursache wäre, müssten wir mehr Alkoholabhängige oder chronische Alkoholiker unter den betroffenen Arbeitern beobachten; wenn irgendein toxisches Lösungsmittel (z. B. Chloroform) die Ursache wäre, sollten wir es am Arbeitsplatz finden.
Wir haben für jeden Arbeiter eine umfassende medizinische Untersuchung durchgeführt. Die virale Ätiologie war leicht zu widerlegen, ebenso wie die Alkoholhypothese, da sie nicht durch Beweise gestützt werden konnten.
Stattdessen hatten 17 von 25 Arbeitern des Werks abnormale Leberfunktionstests, und es wurde ein signifikanter Zusammenhang zwischen dem Vorhandensein einer abnormalen Leberfunktion und einer Vorgeschichte festgestellt, in der kürzlich in einem der drei Räume gearbeitet wurde, in denen eine miteinander verbundene Klimaanlage vorhanden war installiert, um die Druckmaschinen zu kühlen. Die Assoziation blieb nach Stratifizierung nach dem Trägerstatus von Hepatitis B bestehen. Später wurde festgestellt, dass der Vorfall nach der versehentlichen Verwendung eines „Reinigungsmittels“ (Tetrachlorkohlenstoff) zum Reinigen einer Pumpe in der Druckmaschine auftrat. Darüber hinaus ergab ein Simulationstest des Pumpenreinigungsvorgangs Tetrachlorkohlenstoffkonzentrationen in der Umgebungsluft von 115 bis 495 ppm, was zu Leberschäden führen könnte. In einem weiteren Widerlegungsversuch stellten wir durch Eliminierung des Tetrachlorkohlenstoffs am Arbeitsplatz fest, dass keine neuen Fälle mehr auftraten und es allen betroffenen Arbeitern nach 20-tägiger Entfernung vom Arbeitsplatz besser ging. Daher schlossen wir, dass der Ausbruch auf die Verwendung von Tetrachlorkohlenstoff zurückzuführen war.
Neurologische Symptome in einer Farbdruckerei
Im September 1986 bekam ein Lehrling in einer Farbdruckerei in Chang-Hwa plötzlich eine akute beidseitige Schwäche und Atemlähmung. Der Vater des Opfers behauptete am Telefon, es gäbe mehrere andere Arbeiter mit ähnlichen Symptomen. Da früher in Farbdruckereien Berufskrankheiten aufgrund einer Exposition gegenüber organischen Lösungsmitteln dokumentiert waren, gingen wir zur Arbeitsstelle, um die Ätiologie zu bestimmen, wobei wir die Hypothese einer möglichen Lösungsmittelvergiftung im Hinterkopf hatten (Wang 1991).
Unsere übliche Praxis war jedoch, alle alternativen Vermutungen in Betracht zu ziehen, einschließlich anderer medizinischer Probleme, einschließlich der beeinträchtigten Funktion der oberen Motoneuronen, der unteren Motoneuronen sowie der neuromuskulären Synapse. Auch hier haben wir Ergebnisaussagen aus den obigen Hypothesen abgeleitet. Wenn beispielsweise ein Lösungsmittel, von dem berichtet wird, dass es Polyneuropathie hervorruft (z. B. n-Hexan, Methylbutylketon, Acrylamid), die Ursache wäre, würde es auch die Nervenleitungsgeschwindigkeit (NCV) beeinträchtigen; Wenn es sich um andere medizinische Probleme handeln würde, die obere Motoneuronen betreffen, gäbe es Anzeichen von Bewusstseinsstörungen und/oder unwillkürlichen Bewegungen.
Feldbeobachtungen zeigten, dass alle betroffenen Arbeiter während des gesamten klinischen Verlaufs ein klares Bewusstsein hatten. Eine NCV-Studie mit drei betroffenen Arbeitern zeigte intakte untere Motoneuronen. Es gab keine unwillkürlichen Bewegungen, keine Medikamente oder Bisse in der Vorgeschichte vor dem Auftreten von Symptomen, und der Neostigmin-Test war negativ. Es wurde ein signifikanter Zusammenhang zwischen Krankheit und Frühstück in der Werkskantine am 26. oder 27. September gefunden; sieben von sieben betroffenen Arbeitern gegenüber sieben von 32 nicht betroffenen Arbeitern frühstückten an diesen zwei Tagen in der Fabrik. Ein weiterer Testversuch zeigte, dass Typ-A-Botulinumtoxin in Dosenerdnüssen nachgewiesen wurde, die von einem nicht lizenzierten Unternehmen hergestellt wurden, und seine Probe zeigte auch ein volles Wachstum von Clostridium botulinum. Ein letzter Widerlegungsprozess war die Entfernung solcher Produkte vom kommerziellen Markt, was zu keinen neuen Fällen führte. Diese Untersuchung dokumentierte die ersten Fälle von Botulismus durch ein kommerzielles Lebensmittelprodukt in Taiwan.
Prämaligne Hautläsionen bei Paraquat-Herstellern
Im Juni 1983 besuchten zwei Arbeiter einer Paraquat-Fabrik eine Dermatologie-Klinik und klagten über zahlreiche bilaterale hyperpigmentierte Flecken mit hyperkeratotischen Veränderungen an Teilen ihrer Hände, ihres Halses und ihres Gesichts, die der Sonne ausgesetzt waren. Einige Hautproben zeigten auch bowenoide Veränderungen. Da bei Arbeitern in der Bipyridyl-Herstellung bösartige und prämaligne Hautläsionen gemeldet wurden, wurde dringend eine berufliche Ursache vermutet. Wir mussten jedoch auch andere alternative Ursachen (oder Hypothesen) von Hautkrebs in Betracht ziehen, wie die Exposition gegenüber ionisierender Strahlung, Kohlenteer, Pech, Ruß oder anderen polyaromatischen Kohlenwasserstoffen (PAK). Um all diese Vermutungen auszuschließen, führten wir 1985 eine Studie durch, bei der wir alle 28 Fabriken besuchten, die jemals Paraquat hergestellt oder verpackt hatten, und die Herstellungsprozesse sowie die Arbeiter untersuchten (Wang et al. 1987; Wang 1993).
Wir untersuchten 228 Arbeiter, und keiner von ihnen war jemals den oben genannten Hautkarzinogenen ausgesetzt gewesen, mit Ausnahme von Sonnenlicht und 4'-4'-Bipyridin und seinen Isomeren. Nach Ausschluss von Arbeitern mit Mehrfachexposition stellten wir fest, dass einer von sieben Administratoren und zwei von 82 Paraquat-Verpackungsarbeitern hyperpigmentierte Hautläsionen entwickelten, im Vergleich zu drei von drei Arbeitern, die nur an der Kristallisation und Zentrifugation von Bipyridin beteiligt waren. Darüber hinaus waren alle 17 Arbeiter mit hyperkeratotischen Läsionen oder Bowen-Läsionen in der Vorgeschichte direkt Bipyridyl und seinen Isomeren ausgesetzt. Je länger die Exposition gegenüber Bipyridylen, desto wahrscheinlicher ist die Entwicklung von Hautläsionen, und dieser Trend kann nicht durch Sonnenlicht oder Alter erklärt werden, wie durch Stratifizierung und logistische Regressionsanalyse gezeigt wurde. Daher wurde die Hautläsion vorläufig einer Kombination aus Bipyridyl-Exposition und Sonnenlicht zugeschrieben. Wir unternahmen weitere Widerlegungsversuche, um nachzuverfolgen, ob ein neuer Fall auftrat, nachdem wir alle Prozesse eingeschlossen hatten, die eine Exposition gegenüber Bipyridylen beinhalteten. Es wurde kein neuer Fall gefunden.
Diskussion und zusammenfassung
Die oben genannten drei Beispiele haben gezeigt, wie wichtig es ist, einen widerlegenden Ansatz und eine Datenbank für Berufskrankheiten zu wählen. Die erstere lässt uns alternative Hypothesen immer auf die gleiche Weise in Betracht ziehen wie die ursprüngliche intuitive Hypothese, während die letztere eine detaillierte Liste chemischer Wirkstoffe liefert, die uns zur wahren Ätiologie führen können. Eine mögliche Einschränkung dieses Ansatzes besteht darin, dass wir nur solche alternativen Erklärungen berücksichtigen können, die wir uns vorstellen können. Wenn unsere Liste mit Alternativen unvollständig ist, können wir keine Antwort oder eine falsche Antwort erhalten. Daher ist eine umfassende Datenbank über Berufskrankheiten entscheidend für den Erfolg dieser Strategie.
Früher haben wir unsere eigene Datenbank mühsam aufgebaut. Die kürzlich veröffentlichten OSH-ROM-Datenbanken, die die NIOSHTIC-Datenbank mit mehr als 160,000 Abstracts enthalten, könnten jedoch eine der umfassendsten für einen solchen Zweck sein, wie an anderer Stelle in der diskutiert wird Enzyklopädie. Darüber hinaus könnten wir beim Auftreten einer neuen Berufskrankheit eine solche Datenbank durchsuchen und alle bekannten Krankheitserreger ausschließen und keine unwiderlegt lassen. In einer solchen Situation können wir versuchen, den neuen Agenten (oder das berufliche Umfeld) so spezifisch wie möglich zu identifizieren oder zu definieren, damit das Problem zunächst gemildert werden kann, und dann weitere Hypothesen testen. Der Fall von prämalignen Hautläsionen bei Paraquat-Herstellern ist ein gutes Beispiel dafür.
Rolle von Fragebögen in der epidemiologischen Forschung
Epidemiologische Forschung wird im Allgemeinen durchgeführt, um eine spezifische Forschungsfrage zu beantworten, die sich auf die Exposition von Personen gegenüber gefährlichen Stoffen oder Situationen mit späteren gesundheitlichen Folgen wie Krebs oder Tod bezieht. Im Mittelpunkt fast jeder dieser Untersuchungen steht ein Fragebogen, der das grundlegende Instrument zur Datenerhebung darstellt. Auch wenn physikalische Messungen in einer Arbeitsplatzumgebung durchgeführt werden sollen und insbesondere wenn biologisches Material wie Serum von exponierten oder nicht exponierten Studienteilnehmern gesammelt werden soll, ist ein Fragebogen unerlässlich, um durch systematisches Sammeln persönlicher und anderer Daten ein angemessenes Expositionsbild zu entwickeln Eigenschaften auf organisierte und einheitliche Weise.
Der Fragebogen erfüllt eine Reihe kritischer Forschungsfunktionen:
Platz des Fragebogendesigns innerhalb der allgemeinen Studienziele
Während der Fragebogen oft der sichtbarste Teil einer epidemiologischen Studie ist, insbesondere für die Arbeiter oder andere Studienteilnehmer, ist er nur ein Werkzeug und wird von Forschern oft als „Instrument“ bezeichnet. Abbildung 1 zeigt sehr allgemein die Phasen des Erhebungsdesigns von der Konzeption bis zur Datenerhebung und -analyse. Die Abbildung zeigt vier Ebenen oder Stufen des Studienbetriebs, die während der gesamten Dauer der Studie parallel ablaufen: Stichprobenziehung, Fragebogen, Operationen und Analyse. Die Abbildung zeigt ganz deutlich, wie die Phasen der Fragebogenentwicklung mit dem gesamten Studienplan zusammenhängen, beginnend mit einem ersten Entwurf zu einem ersten Entwurf sowohl des Fragebogens als auch der zugehörigen Codes, gefolgt von Vortests innerhalb einer ausgewählten Subpopulation, einer oder mehrerer Überarbeitungen, die durch Vortesterfahrungen diktiert werden, und Vorbereitung des endgültigen Dokuments für die eigentliche Datenerfassung im Feld. Am wichtigsten ist der Kontext: Jede Phase der Fragebogenentwicklung wird in Verbindung mit einer entsprechenden Phase der Erstellung und Verfeinerung des gesamten Stichprobenplans sowie des operativen Designs für die Verwaltung des Fragebogens durchgeführt.
Abbildung 1. Die Phasen einer Umfrage
Studienarten und Fragebögen
Die Forschungsziele der Studie selbst bestimmen den Aufbau, die Länge und den Inhalt des Fragebogens. Diese Fragebogenattribute werden ausnahmslos durch die Methode der Datenerhebung gemildert, die normalerweise in eine von drei Arten fällt: persönlich, per Post und Telefon. Jede davon hat ihre Vor- und Nachteile, die sich nicht nur auf die Qualität der Daten, sondern auch auf die Validität der gesamten Studie auswirken können.
A versandten Fragebogen ist das kostengünstigste Format und kann Arbeitnehmer in einem großen geografischen Gebiet abdecken. Da die Gesamtantwortquoten jedoch oft niedrig sind (typischerweise 45 bis 75 %), kann es nicht übermäßig komplex sein, da es wenig oder keine Gelegenheit zur Klärung von Fragen gibt und es schwierig sein kann, festzustellen, ob potenzielle Antworten auf eine kritische Exposition oder andere Fragen unterscheiden sich systematisch zwischen Befragten und Nichtbeantwortern. Das physische Layout und die Sprache müssen für die am wenigsten gebildeten potenziellen Studienteilnehmer geeignet sein und in einem relativ kurzen Zeitraum, normalerweise 20 bis 30 Minuten, abgeschlossen werden können.
Telefonische Fragebögen können in bevölkerungsbasierten Studien verwendet werden – d. h. Umfragen, bei denen eine Stichprobe einer geografisch definierten Bevölkerung befragt wird – und sind eine praktische Methode, um Informationen in vorhandenen Datendateien zu aktualisieren. Sie können in Sprache und Inhalt länger und komplexer sein als per Post versandte Fragebögen, und da sie von geschulten Interviewern verwaltet werden, können die höheren Kosten einer telefonischen Umfrage teilweise durch eine physische Strukturierung des Fragebogens für eine effiziente Verwaltung (z. B. durch Sprungmuster) ausgeglichen werden. Die Rücklaufquoten sind in der Regel besser als bei Fragebögen per Post, unterliegen jedoch Verzerrungen im Zusammenhang mit der zunehmenden Nutzung von Anrufbeantwortern, Ablehnungen, Nichtkontakten und Problemen von Bevölkerungsgruppen mit eingeschränktem Telefondienst. Solche Verzerrungen beziehen sich im Allgemeinen auf das Stichprobendesign selbst und nicht speziell auf den Fragebogen. Obwohl telefonische Fragebögen in Nordamerika schon lange verwendet werden, muss ihre Durchführbarkeit in anderen Teilen der Welt erst noch nachgewiesen werden.
Gespräche von Angesicht zu Angesicht Interviews bieten die beste Gelegenheit, genaue komplexe Daten zu sammeln; Sie sind auch am teuersten in der Verwaltung, da sie sowohl Schulungen als auch Reisen für professionelles Personal erfordern. Das physische Layout und die Reihenfolge der Fragen können so angeordnet werden, dass die Verwaltungszeit optimiert wird. Studien, die persönliche Befragungen verwenden, haben im Allgemeinen die höchsten Rücklaufquoten und unterliegen der geringsten Antwortverzerrung. Dies ist auch die Art des Interviews, bei der der Interviewer am ehesten erfährt, ob der Teilnehmer ein Fall ist oder nicht (in einer Fall-Kontroll-Studie) oder den Expositionsstatus des Teilnehmers (in einer Kohortenstudie). Daher muss darauf geachtet werden, die Objektivität des Interviewers zu wahren, indem man ihn oder sie darin schult, Leitfragen und Körpersprache zu vermeiden, die voreingenommene Antworten hervorrufen könnten.
Es wird immer üblicher, a zu verwenden Hybrides Studiendesign bei der komplexe Expositionssituationen in einem persönlichen oder telefonischen Interview bewertet werden, das eine maximale Sondierung und Klärung ermöglicht, gefolgt von einem per Post zugesandten Fragebogen zur Erfassung von Lebensstildaten wie Rauchen und Ernährung.
Vertraulichkeit und Fragen der Forschungsteilnehmer
Da der Zweck eines Fragebogens darin besteht, Daten über Einzelpersonen zu erhalten, muss sich die Gestaltung des Fragebogens an etablierten Standards für die ethische Behandlung menschlicher Probanden orientieren. Diese Richtlinien gelten für die Erhebung von Fragebogendaten ebenso wie für biologische Proben wie Blut und Urin oder Gentests. In den Vereinigten Staaten und vielen anderen Ländern dürfen keine Studien mit Menschen mit öffentlichen Mitteln durchgeführt werden, es sei denn, Sprache und Inhalt des Fragebogens wurden zuvor von einem geeigneten Institutional Review Board genehmigt. Eine solche Genehmigung soll sicherstellen, dass die Fragen auf legitime Studienzwecke beschränkt sind und nicht das Recht der Studienteilnehmer auf freiwillige Beantwortung von Fragen verletzen. Die Teilnehmer müssen sicher sein, dass ihre Teilnahme an der Studie völlig freiwillig ist und dass die Weigerung, Fragen zu beantworten oder überhaupt teilzunehmen, ihnen keine Strafen auferlegt oder ihre Beziehung zu ihrem Arbeitgeber oder Arzt verändert.
Die Teilnehmer müssen auch sicher sein, dass die von ihnen bereitgestellten Informationen vom Ermittler streng vertraulich behandelt werden, der selbstverständlich Maßnahmen ergreifen muss, um die physische Sicherheit und Unverletzlichkeit der Daten zu gewährleisten. Dies bringt häufig eine physische Trennung von Informationen bezüglich der Identität von Teilnehmern von computerisierten Datendateien mit sich. Es ist gängige Praxis, die Studienteilnehmer darauf hinzuweisen, dass ihre Antworten auf Fragebogenelemente nur zusammen mit den Antworten anderer Teilnehmer in statistischen Berichten verwendet und nicht an den Arbeitgeber, Arzt oder andere Parteien weitergegeben werden.
Messaspekte des Fragebogendesigns
Eine der wichtigsten Funktionen eines Fragebogens besteht darin, Daten über einen Aspekt oder eine Eigenschaft einer Person in qualitativer oder quantitativer Form zu erhalten. Einige Elemente können so einfach sein wie Gewicht, Größe oder Alter, während andere erheblich komplizierter sein können, wie z. B. die Reaktion einer Person auf Stress. Qualitative Antworten, wie das Geschlecht, werden normalerweise in numerische Variablen umgewandelt. Alle diese Maßnahmen können durch ihre Validität und Zuverlässigkeit charakterisiert werden. Validität ist der Grad, in dem sich eine aus einem Fragebogen abgeleitete Zahl ihrem wahren, aber möglicherweise unbekannten Wert annähert. Zuverlässigkeit misst die Wahrscheinlichkeit, dass eine bestimmte Messung bei Wiederholung dasselbe Ergebnis liefert, unabhängig davon, ob dieses Ergebnis nahe an der „Wahrheit“ liegt oder nicht. Abbildung 2 zeigt, wie diese Konzepte zusammenhängen. Es zeigt, dass eine Messung gültig, aber nicht zuverlässig, zuverlässig, aber nicht gültig oder sowohl gültig als auch zuverlässig sein kann.
Abbildung 2. Beziehung zwischen Gültigkeit und Zuverlässigkeit
Im Laufe der Jahre wurden viele Fragebögen von Forschern entwickelt, um Forschungsfragen von breitem Interesse zu beantworten. Beispiele sind der Scholastic Aptitude Test, der das Potenzial eines Schülers für zukünftige akademische Leistungen misst, und das Minnesota Multiphasic Personality Inventory (MMPI), das bestimmte psychosoziale Merkmale misst. Eine Vielzahl anderer psychologischer Indikatoren werden im Kapitel über Psychometrie besprochen. Es gibt auch etablierte physiologische Skalen, wie z. B. den Fragebogen des British Medical Research Council (BMRC) zur Lungenfunktion. Diese Instrumente haben eine Reihe wichtiger Vorteile. Dazu gehören vor allem die Tatsache, dass sie bereits entwickelt und getestet wurden, normalerweise in vielen Bevölkerungsgruppen, und dass ihre Zuverlässigkeit und Gültigkeit bekannt sind. Wer einen Fragebogen konstruiert, ist gut beraten, solche Skalen zu verwenden, wenn sie zum Studienzweck passen. Sie ersparen sich nicht nur den Aufwand, „das Rad neu zu erfinden“, sondern erhöhen auch die Wahrscheinlichkeit, dass Studienergebnisse von der Forschungsgemeinschaft als valide akzeptiert werden. Es ermöglicht auch aussagekräftigere Vergleiche von Ergebnissen aus verschiedenen Studien, vorausgesetzt, sie wurden richtig verwendet.
Die vorstehenden Skalen sind Beispiele für zwei wichtige Arten von Maßnahmen, die häufig in Fragebögen verwendet werden, um Konzepte zu quantifizieren, die möglicherweise nicht vollständig objektiv messbar sind, wie dies bei Größe und Gewicht der Fall ist, oder die viele ähnliche Fragen erfordern, um den Bereich vollständig zu erfassen ein bestimmtes Verhaltensmuster. Ganz allgemein sind Indizes und Skalen zwei Datenreduktionstechniken, die eine numerische Zusammenfassung von Fragengruppen liefern. Die obigen Beispiele veranschaulichen physiologische und psychologische Indizes und werden auch häufig zur Messung von Wissen, Einstellung und Verhalten verwendet. Kurz gesagt, ein Index wird normalerweise als eine Punktzahl konstruiert, die erhalten wird, indem aus einer Gruppe verwandter Fragen die Anzahl der Elemente gezählt wird, die auf einen Studienteilnehmer zutreffen. Wenn beispielsweise ein Fragebogen eine Liste von Krankheiten enthält, könnte ein Krankheitsverlaufsindex die Gesamtzahl der Krankheiten sein, von denen ein Befragter sagt, dass er oder sie sie hatte. EIN Treppe ist ein zusammengesetztes Maß, das auf der Intensität basiert, mit der ein Teilnehmer eine oder mehrere verwandte Fragen beantwortet. Beispielsweise wird die Likert-Skala, die häufig in der Sozialforschung verwendet wird, typischerweise aus Aussagen konstruiert, denen man stark zustimmen, schwach zustimmen, keine Meinung äußern, schwach ablehnen oder stark ablehnen kann, wobei die Antwort als eine Zahl von 1 bewertet wird bis 5. Skalen und Indizes können summiert oder anderweitig kombiniert werden, um ein ziemlich komplexes Bild der physischen, psychologischen, sozialen oder Verhaltensmerkmale der Studienteilnehmer zu erhalten.
Validität verdient wegen ihrer Widerspiegelung der „Wahrheit“ besondere Beachtung. Drei häufig diskutierte wichtige Validitätstypen sind Gesichts-, Inhalts- und Kriteriumsvalidität. Gesichtsgültigkeit ist eine subjektive Eigenschaft eines Indikators, der sicherstellt, dass die Formulierung einer Frage klar und eindeutig ist. Inhaltsgültigkeit stellt sicher, dass die Fragen dazu dienen, die Antwortdimension zu erschließen, an der der Forscher interessiert ist. Kriterium (oder prädiktiv) Gültigkeit wird aus einer objektiven Bewertung abgeleitet, wie nahe sich eine Fragebogenmessung einer separat messbaren Größe annähert, wie zum Beispiel, wie gut eine Fragebogenbewertung der Vitamin-A-Zufuhr mit der Nahrung mit dem tatsächlichen Vitamin-A-Verbrauch übereinstimmt, basierend auf der Nahrungsaufnahme, die mit Ernährungsaufzeichnungen dokumentiert ist.
Inhalt, Qualität und Länge des Fragebogens
Wortlaut. Das Formulieren von Fragen ist sowohl eine Kunst als auch eine professionelle Fertigkeit. Daher können nur die allgemeinsten Richtlinien präsentiert werden. Es besteht allgemein Einigkeit darüber, dass Fragen formuliert werden sollten, die:
Fragenfolge und Struktur. Sowohl die Reihenfolge als auch die Präsentation der Fragen können die Qualität der gesammelten Informationen beeinflussen. Ein typischer Fragebogen, ob selbst ausgefüllt oder von einem Interviewer gelesen, enthält einen Prolog, der die Studie und ihr Thema dem Befragten vorstellt, alle zusätzlichen Informationen liefert, die er oder sie benötigt, und versucht, den Befragten zu motivieren, die Fragen zu beantworten. Die meisten Fragebögen enthalten einen Abschnitt zum Sammeln demografischer Informationen wie Alter, Geschlecht, ethnischer Hintergrund und andere Variablen über den Hintergrund des Teilnehmers, einschließlich möglicherweise verwirrender Variablen. Der Hauptgegenstand der Datenerhebung, wie Art des Arbeitsplatzes und Exposition gegenüber bestimmten Stoffen, ist normalerweise ein eigener Fragebogenabschnitt, dem oft ein eigener einleitender Prolog vorangestellt ist, der den Teilnehmer möglicherweise zunächst an bestimmte Aspekte der Arbeit erinnert oder Arbeitsplatz, um einen Kontext für Detailfragen zu schaffen. Das Layout von Fragen, die dazu bestimmt sind, Arbeitslebenschronologien zu erstellen, sollte so angeordnet sein, dass das Risiko chronologischer Auslassungen minimiert wird. Schließlich ist es üblich, dem Befragten für seine Teilnahme zu danken.
Arten von Fragen. Der Designer muss entscheiden, ob er offene Fragen verwendet, bei denen die Teilnehmer ihre eigenen Antworten zusammenstellen, oder geschlossene Fragen, die eine eindeutige Antwort oder eine Auswahl aus einem kurzen Menü möglicher Antworten erfordern. Geschlossene Fragen haben den Vorteil, dass sie Alternativen für den Befragten verdeutlichen, schnelle Antworten vermeiden und langwieriges Geschwätz minimieren, das möglicherweise nicht interpretiert werden kann. Sie erfordern jedoch, dass der Konstrukteur die Bandbreite möglicher Reaktionen antizipiert, um zu vermeiden, dass Informationen verloren gehen, insbesondere bei unerwarteten Situationen, die an vielen Arbeitsplätzen auftreten. Dies wiederum erfordert gut geplante Pilotversuche. Der Untersucher muss entscheiden, ob und in welchem Umfang eine „weiß nicht“-Antwortkategorie zugelassen wird.
Länge. Die Festlegung der endgültigen Länge eines Fragebogens erfordert eine Balance zwischen dem Wunsch, möglichst viele Detailinformationen zur Erreichung der Studienziele zu erhalten, und der Tatsache, dass ein zu langer Fragebogen viele Befragte irgendwann das Interesse verliert und entweder nicht mehr antwortet oder hastig, ungenau und unüberlegt antworten, um die Sitzung zu beenden. Andererseits kann ein sehr kurzer Fragebogen zwar eine hohe Rücklaufquote erzielen, aber die Studienziele nicht erreichen. Da die Motivation der Befragten oft von einem persönlichen Anteil am Ergebnis abhängt, wie z. B. der Verbesserung der Arbeitsbedingungen, kann die Toleranz für einen langen Fragebogen stark variieren, insbesondere wenn einige Teilnehmer (z. B. Arbeiter in einem bestimmten Werk) ihren Anteil als höher einschätzen andere (z. B. Personen, die per zufälliger Telefonwahl kontaktiert wurden). Dieses Gleichgewicht kann nur durch Pilotversuche und Erfahrung erreicht werden. Vom Interviewer verwaltete Fragebögen sollten die Anfangs- und Endzeit erfassen, um die Berechnung der Interviewdauer zu ermöglichen. Diese Informationen sind hilfreich, um das Qualitätsniveau der Daten zu beurteilen.
Sprache. Es ist wichtig, die Sprache der Bevölkerung zu verwenden, um die Fragen für alle verständlich zu machen. Dazu kann es erforderlich sein, sich mit der lokalen Umgangssprache vertraut zu machen, die in jedem Land unterschiedlich sein kann. Selbst in Ländern, in denen nominell dieselbe Sprache gesprochen wird, wie Großbritannien und die Vereinigten Staaten oder die spanischsprachigen Länder Lateinamerikas, können lokale Redewendungen und Verwendungen auf eine Weise variieren, die die Interpretation verschleiern können. Zum Beispiel ist „Tee“ in den USA lediglich ein Getränk, während es in Großbritannien je nach Gebietsschema und Kontext „eine Kanne Tee“, „High Tea“ oder „das wichtigste Abendessen“ bedeuten kann. Es ist besonders wichtig, wissenschaftlichen Jargon zu vermeiden, es sei denn, die Studienteilnehmenden können spezielle Fachkenntnisse erwarten.
Klarheit und Leitfragen. Während kürzere Fragen oft klarer sind, gibt es Ausnahmen, insbesondere wenn ein komplexes Thema eingeführt werden muss. Trotzdem klären kurze Fragen das Denken und reduzieren unnötige Worte. Sie verringern auch die Wahrscheinlichkeit, dass der Befragte mit zu vielen zu verdauenden Informationen überlastet wird. Wenn der Zweck der Studie darin besteht, objektive Informationen über die Arbeitssituation des Teilnehmers zu erhalten, ist es wichtig, die Fragen neutral zu formulieren und „Leitfragen“ zu vermeiden, die eine bestimmte Antwort begünstigen könnten, wie „Stimmen Sie zu, dass Ihr Arbeitsplatz Bedingungen sind gesundheitsschädlich?“
Fragebogen-Layout. Das physische Layout eines Fragebogens kann die Kosten und die Effizienz einer Studie beeinflussen. Es ist wichtiger für selbstverwaltete Fragebögen als für solche, die von Interviewern durchgeführt werden. Ein Fragebogen, der vom Befragten ausgefüllt werden soll, aber zu komplex oder schwer lesbar ist, kann beiläufig ausgefüllt oder sogar verworfen werden. Sogar Fragebögen, die von geschulten Interviewern laut vorgelesen werden sollen, müssen in klarer, lesbarer Schrift gedruckt werden, und Muster des Überspringens von Fragen müssen so angegeben werden, dass ein stetiger Fragefluss aufrechterhalten und das Umblättern und Suchen nach dem nächsten zutreffenden minimiert wird Frage.
Gültigkeitsbedenken
Befangenheit
Der Feind der objektiven Datenerhebung ist die Voreingenommenheit, die sich aus systematischen, aber ungeplanten Unterschieden zwischen Personengruppen ergibt: Fälle und Kontrollen in einer Fall-Kontroll-Studie oder exponierte und nicht exponierte in einer Kohortenstudie. Informationsverzerrung kann eingeführt werden, wenn zwei Gruppen von Teilnehmern dieselbe Frage unterschiedlich verstehen oder unterschiedlich darauf reagieren. Dies kann beispielsweise der Fall sein, wenn Fragen so gestellt werden, dass spezielles technisches Wissen über einen Arbeitsplatz oder seine Expositionen erforderlich ist, das von exponierten Arbeitnehmern, aber nicht unbedingt von der allgemeinen Öffentlichkeit, aus der die Kontrollen stammen, verstanden werden würde.
Die Verwendung von Ersatzpersonen für kranke oder verstorbene Arbeitnehmer birgt das Potenzial für Voreingenommenheit, da sich die nächsten Angehörigen wahrscheinlich auf andere Weise und mit weniger Genauigkeit an Informationen erinnern als der Arbeitnehmer selbst. Die Einführung einer solchen Verzerrung ist besonders wahrscheinlich in Studien, in denen einige Interviews direkt mit Studienteilnehmern durchgeführt werden, während andere Interviews mit Verwandten oder Mitarbeitern anderer Forschungsteilnehmer durchgeführt werden. In beiden Situationen muss darauf geachtet werden, jegliche Auswirkungen zu reduzieren, die sich aus der Kenntnis des Interviewers über die Krankheit oder den Expositionsstatus des betreffenden Arbeitnehmers ergeben könnten. Da es nicht immer möglich ist, Interviewer „blind“ zu halten, ist es wichtig, während des Trainings auf Objektivität und Vermeidung von Leit- oder Suggestivfragen oder unbewusster Körpersprache zu achten und die Leistung während der Durchführung der Studie zu überwachen.
Rückruf-Bias Ergebnisse, wenn Fälle und Kontrollen Expositionen oder Arbeitssituationen unterschiedlich „erinnern“. Krankenhauspatienten mit einer potenziellen berufsbedingten Krankheit können sich möglicherweise besser an Details ihrer Krankengeschichte oder beruflichen Expositionen erinnern als Personen, die zufällig am Telefon kontaktiert werden. Eine Art dieser Voreingenommenheit, die immer häufiger vorkommt, wurde gekennzeichnet sozialer Wunsch nach Neigung. Es beschreibt die Tendenz vieler Menschen, bewusst oder unbewusst ihre „schlechten Gewohnheiten“ wie Zigarettenrauchen oder den Verzehr von fett- und cholesterinreichen Lebensmitteln zu unterschätzen und „gute Gewohnheiten“ wie Sport zu übertreiben.
Reaktionsverzerrung bezeichnet eine Situation, in der eine Gruppe von Studienteilnehmern, z. B. Arbeitnehmer mit einer bestimmten beruflichen Exposition, möglicherweise eher Fragebögen ausfüllt oder anderweitig an einer Studie teilnimmt als nicht exponierte Personen. Eine solche Situation kann zu einer voreingenommenen Einschätzung des Zusammenhangs zwischen Exposition und Krankheit führen. Antwortverzerrung kann vermutet werden, wenn sich die Antwortraten oder die zum Ausfüllen eines Fragebogens oder Interviews benötigte Zeit zwischen den Gruppen erheblich unterscheiden (z. B. Fälle vs. Kontrollen, exponiert vs. nicht exponiert). Die Antwortverzerrung unterscheidet sich im Allgemeinen in Abhängigkeit von der Art der Fragebogenverwaltung. Fragebögen, die per Post verschickt werden, werden in der Regel eher von Personen zurückgeschickt, die ein persönliches Interesse an den Studienergebnissen sehen, und eher von zufällig ausgewählten Personen aus der Allgemeinbevölkerung ignoriert oder verworfen. Viele Ermittler, die postalische Umfragen verwenden, bauen auch einen Nachverfolgungsmechanismus ein, der zweite und dritte Mailings sowie anschließende Telefonkontakte mit Nichtbefragten umfassen kann, um die Rücklaufquoten zu maximieren.
Studien, die telefonische Umfragen verwenden, einschließlich solcher, die zufällige Ziffernwahl verwenden, um Kontrollen zu identifizieren, haben normalerweise eine Reihe von Regeln oder ein Protokoll, das definiert, wie oft versucht werden muss, potenzielle Befragte zu kontaktieren, einschließlich Tageszeit und ob abends oder abends Wochenendanrufe sollten versucht werden. Diejenigen, die klinische Studien durchführen, erfassen normalerweise die Anzahl der Patienten, die die Teilnahme verweigern, und die Gründe für die Nichtteilnahme. In all diesen Fällen werden verschiedene Maßnahmen von Ansprechraten erfasst werden, um beurteilen zu können, inwieweit die Zielpopulation tatsächlich erreicht wurde.
Selektionsvorspannung Ergebnisse, wenn eine Gruppe von Teilnehmern bevorzugt auf eine Studie anspricht oder anderweitig an einer Studie teilnimmt, und kann zu einer voreingenommenen Einschätzung der Beziehung zwischen Exposition und Krankheit führen. Um die Auswahlverzerrung zu beurteilen und festzustellen, ob sie zu einer Unter- oder Überschätzung der Exposition führt, können demografische Informationen wie das Bildungsniveau verwendet werden, um Befragte mit Nichtbefragten zu vergleichen. Wenn beispielsweise Teilnehmer mit geringer Bildung niedrigere Rücklaufquoten aufweisen als Teilnehmer mit höherer Bildung und wenn bekannt ist, dass ein bestimmter Beruf oder eine bestimmte Rauchgewohnheit in weniger gebildeten Gruppen häufiger vorkommt, dann liegt ein Selektionsbias mit einer Unterschätzung der Exposition gegenüber dieser Berufs- oder Raucherkategorie vor ist wahrscheinlich vorgekommen.
Verwirrend ist eine wichtige Art von Selektionsverzerrung, die entsteht, wenn die Auswahl der Befragten (Fälle und Kontrollen in einer Fall-Kontroll-Studie oder exponierte und nicht exponierte in einer Kohortenstudie) in irgendeiner Weise von einer dritten Variablen abhängt, manchmal auf eine Weise, die ihnen unbekannt ist Ermittler. Wenn es nicht erkannt und kontrolliert wird, kann es zu unvorhersehbaren Unter- oder Überschätzungen von Krankheitsrisiken im Zusammenhang mit beruflicher Exposition führen. Confounding wird normalerweise entweder durch Manipulieren des Studiendesigns selbst (z. B. durch Abgleichen von Fällen mit Kontrollen in Bezug auf Alter und andere Variablen) oder in der Analysephase behandelt. Einzelheiten zu diesen Techniken werden in anderen Artikeln in diesem Kapitel vorgestellt.
Dokumentation
Bei jeder Forschungsstudie müssen alle Studienverfahren sorgfältig dokumentiert werden, damit sich alle Mitarbeiter, einschließlich Interviewer, Aufsichtspersonal und Forscher, über ihre jeweiligen Aufgaben im Klaren sind. In den meisten fragebogenbasierten Studien a codierung handbuch erstellt, der Frage für Frage alles beschreibt, was der Interviewer über den wörtlichen Wortlaut der Fragen hinaus wissen muss. Dies beinhaltet Anweisungen zum Codieren kategorialer Antworten und kann explizite Anweisungen zum Sondieren enthalten, wobei die Fragen aufgelistet werden, für die dies zulässig ist, und diejenigen, für die dies nicht zulässig ist. In vielen Studien werden im Feld gelegentlich neue, unvorhergesehene Antwortoptionen für bestimmte Fragen angetroffen; diese sind im Mastercodebuch festzuhalten und Kopien von Ergänzungen, Änderungen oder neuen Anweisungen rechtzeitig an alle Interviewer zu verteilen.
Planen, Testen und Überarbeiten
Wie aus Abbildung 1 ersichtlich, erfordert die Fragebogenentwicklung viel Nachdenken Planung. Jeder Fragebogen muss in mehreren Stufen getestet werden, um sicherzustellen, dass die Fragen „funktionieren“, dh verständlich sind und Antworten in der beabsichtigten Qualität liefern. Es ist nützlich, neue Fragen an Freiwilligen zu testen und sie dann ausführlich zu befragen, um festzustellen, wie gut bestimmte Fragen verstanden wurden und welche Arten von Problemen oder Unklarheiten aufgetreten sind. Die Ergebnisse können dann genutzt werden den Fragebogen überarbeiten, und der Vorgang kann bei Bedarf wiederholt werden. Die Freiwilligen werden manchmal als „Fokusgruppe“ bezeichnet.
Alle epidemiologischen Studien erfordern Piloten test, nicht nur für die Fragebögen, sondern auch für die Studienverfahren. Ein gut gestalteter Fragebogen erfüllt nur dann seinen Zweck, wenn er den Studienteilnehmern effizient übermittelt werden kann, und dies kann nur durch Testverfahren in der Praxis und gegebenenfalls durch Anpassungen festgestellt werden.
Interviewertraining und -supervision
Bei Studien, die per Telefon- oder Face-to-Face-Interview durchgeführt werden, spielt der Interviewer eine entscheidende Rolle. Diese Person ist nicht nur dafür verantwortlich, den Studienteilnehmern Fragen zu stellen und ihre Antworten aufzuzeichnen, sondern auch für die Interpretation dieser Antworten. Selbst bei der am strengsten strukturierten Interviewstudie bitten Befragte gelegentlich um Klärung von Fragen oder bieten Antworten an, die nicht in die verfügbaren Antwortkategorien passen. In solchen Fällen besteht die Aufgabe des Interviewers darin, entweder die Frage oder die Antwort in Übereinstimmung mit der Absicht des Forschers zu interpretieren. Um dies effektiv und konsistent zu tun, sind Schulung und Überwachung durch einen erfahrenen Forscher oder Manager erforderlich. Wenn mehr als ein Interviewer für eine Studie eingesetzt wird, ist die Interviewerschulung besonders wichtig, um sicherzustellen, dass die Fragen einheitlich präsentiert und die Antworten interpretiert werden. In vielen Forschungsprojekten wird dies in Gruppentrainingsumgebungen durchgeführt und periodisch (z. B. jährlich) wiederholt, um die Fähigkeiten der Interviewer auf dem neuesten Stand zu halten. Schulungsseminare decken in der Regel die folgenden Themen ausführlich ab:
Die Studienaufsicht beinhaltet oft eine Beobachtung vor Ort, die eine Tonbandaufzeichnung von Interviews für die anschließende Präparation beinhalten kann. Es ist gängige Praxis, dass der Vorgesetzte jeden Fragebogen persönlich überprüft, bevor er ihn genehmigt und zur Dateneingabe einreicht. Der Supervisor legt auch Leistungsstandards für Interviewer fest und setzt diese durch und führt in einigen Studien unabhängige Wiederholungsinterviews mit ausgewählten Teilnehmern als Zuverlässigkeitsprüfung durch.
Datenerhebung
Die eigentliche Verteilung der Fragebögen an die Studienteilnehmer und die anschließende Sammlung zur Analyse erfolgt auf einem der drei oben beschriebenen Wege: per Post, Telefon oder persönlich. Manche Forscherinnen und Forscher organisieren und führen diese Funktion sogar selbst innerhalb ihrer eigenen Institutionen durch. Während es für einen leitenden Ermittler von großem Vorteil ist, sich aus erster Hand mit der Dynamik des Interviews vertraut zu machen, ist es für geschulte und gut betreute professionelle Interviewer am kostengünstigsten und förderlich, eine hohe Datenqualität aufrechtzuerhalten, wenn sie Teil des Forschungsteams sind .
Einige Forscher treffen vertragliche Vereinbarungen mit Unternehmen, die auf Umfrageforschung spezialisiert sind. Auftragnehmer können eine Reihe von Dienstleistungen erbringen, die eine oder mehrere der folgenden Aufgaben umfassen können: Verteilen und Sammeln von Fragebögen, Durchführung telefonischer oder persönlicher Befragungen, Beschaffung biologischer Proben wie Blut oder Urin, Datenverwaltung und statistische Analyse und Berichterstattung. Unabhängig vom Grad der Unterstützung sind die Auftragnehmer in der Regel für die Bereitstellung von Informationen über Rücklaufquoten und Datenqualität verantwortlich. Dennoch trägt der Forscher die letzte Verantwortung für die wissenschaftliche Integrität der Studie.
Zuverlässigkeit und Wiederholungsinterviews
Die Datenqualität kann durch erneute Befragung einer Stichprobe der ursprünglichen Studienteilnehmer bewertet werden. Dies bietet ein Mittel zur Bestimmung der Zuverlässigkeit der Erstinterviews und eine Schätzung der Wiederholbarkeit der Antworten. Der gesamte Fragebogen muss nicht erneut verwaltet werden; eine Teilmenge von Fragen ist in der Regel ausreichend. Statistische Tests sind verfügbar, um die Zuverlässigkeit einer Reihe von Fragen zu beurteilen, die demselben Teilnehmer zu unterschiedlichen Zeiten gestellt wurden, sowie um die Zuverlässigkeit der Antworten zu bewerten, die von verschiedenen Teilnehmern und sogar von verschiedenen Interviewern (d. h. inter- und intrainterviewt) gegeben wurden -Rater-Bewertungen).
Technologie der Fragebogenbearbeitung
Fortschritte in der Computertechnologie haben viele verschiedene Möglichkeiten geschaffen, wie Fragebogendaten erfasst und dem Forscher für Computeranalysen zur Verfügung gestellt werden können. Es gibt drei grundsätzlich unterschiedliche Arten, wie Daten computerisiert werden können: in Echtzeit (dh während der Teilnehmer während eines Interviews antwortet), durch traditionelle Schlüsseleingabemethoden und durch optische Datenerfassungsmethoden.
Computergestützte Datenerfassung
Viele Forscher verwenden heute Computer, um Antworten auf Fragen zu sammeln, die sowohl in persönlichen als auch in telefonischen Interviews gestellt werden. Forscher auf diesem Gebiet finden es praktisch, Laptop-Computer zu verwenden, die so programmiert sind, dass sie die Fragen nacheinander anzeigen und die es dem Interviewer ermöglichen, die Antwort sofort einzugeben. Umfrageforschungsunternehmen, die Telefoninterviews durchführen, haben analoge Systeme entwickelt, die computergestützte Telefoninterviewsysteme (CATI) genannt werden. Diese Methoden haben zwei wichtige Vorteile gegenüber traditionelleren Papierfragebögen. Erstens können die Antworten sofort mit einer Reihe zulässiger Antworten und auf Übereinstimmung mit früheren Antworten überprüft werden, und Unstimmigkeiten können sowohl dem Interviewer als auch dem Befragten sofort zur Kenntnis gebracht werden. Dadurch wird die Fehlerquote stark reduziert. Zweitens können Sprungmuster programmiert werden, um die Verwaltungszeit zu minimieren.
Die gebräuchlichste Methode zur Computerisierung von Daten ist immer noch die traditionelle Schlüsseleingabe durch einen geschulten Bediener. Bei sehr großen Studien werden die Fragebögen in der Regel an ein professionelles Vertragsunternehmen geschickt, das auf Datenerfassung spezialisiert ist. Diese Firmen verwenden häufig spezielle Geräte, die es einem Bediener ermöglichen, einen Fragebogen einzugeben (ein Verfahren, das manchmal als Schlüsselloch aus historischen Gründen) und einen zweiten Bediener, um dieselben Daten erneut einzugeben, ein Prozess namens Schlüsselüberprüfung. Die Ergebnisse der zweiten Eingabe werden mit der ersten verglichen, um sicherzustellen, dass die Daten korrekt eingegeben wurden. Es können Qualitätssicherungsverfahren programmiert werden, die sicherstellen, dass jede Antwort in einen zulässigen Bereich fällt und dass sie mit anderen Antworten konsistent ist. Die resultierenden Datendateien können dem Forscher auf Platte, Band oder elektronisch per Telefon oder einem anderen Computernetzwerk übermittelt werden.
Für kleinere Studien gibt es zahlreiche kommerzielle PC-basierte Programme mit Dateneingabefunktionen, die denen von spezialisierteren Systemen nachempfunden sind. Dazu gehören Datenbankprogramme wie dBase, Foxpro und Microsoft Access sowie Tabellenkalkulationen wie Microsoft Excel und Lotus 1-2-3. Außerdem sind Dateneingabefunktionen in vielen Computerprogrammpaketen enthalten, deren Hauptzweck die statistische Datenanalyse ist, wie z. B. SPSS, BMDP und EPI INFO.
Ein weit verbreitetes Verfahren zur Datenerfassung, das für bestimmte spezialisierte Fragebögen gut funktioniert, verwendet optische Systeme. Optische Markenlesung oder optische Abtastung wird verwendet, um Antworten auf Fragebögen zu lesen, die speziell für Teilnehmer entwickelt wurden, um Daten einzugeben, indem sie kleine Rechtecke oder Kreise (manchmal als „Bubble Codes“ bezeichnet) markieren. Diese funktionieren am effizientesten, wenn jede Person ihren eigenen Fragebogen ausfüllt. Anspruchsvollere und teurere Geräte können handschriftliche Zeichen lesen, aber derzeit ist dies keine effiziente Technik zum Erfassen von Daten in groß angelegten Studien.
Archivierung von Fragebögen und Codierungshandbüchern
Da Informationen eine wertvolle Ressource sind und Interpretationen und anderen Einflüssen unterliegen, werden Forscher manchmal gebeten, ihre Daten mit anderen Forschern zu teilen. Die Aufforderung zur Weitergabe von Daten kann durch eine Vielzahl von Gründen motiviert sein, die von einem aufrichtigen Interesse an der Replikation eines Berichts bis hin zur Sorge reichen können, dass Daten möglicherweise nicht richtig analysiert oder interpretiert wurden.
Wenn eine Fälschung oder Fälschung von Daten vermutet oder behauptet wird, ist es unerlässlich, dass die Originalaufzeichnungen, auf denen die gemeldeten Feststellungen beruhen, für Prüfungszwecke verfügbar sind. Zusätzlich zu den Originalfragebögen und/oder Computerdateien der Rohdaten muss der Forscher in der Lage sein, das/die für die Studie entwickelte(n) Codierungshandbuch(e) und das/die Protokoll(e) aller Datenänderungen, die im Kurs vorgenommen wurden, zur Überprüfung vorzulegen der Datencodierung, Computerisierung und Analyse. Wenn beispielsweise ein Datenwert geändert wurde, weil er ursprünglich als Ausreißer aufgetreten war, dann hätte eine Aufzeichnung der Änderung und der Gründe für die Änderung im Protokoll für mögliche Datenprüfungszwecke aufgezeichnet werden müssen. Solche Informationen sind auch zum Zeitpunkt der Berichtserstellung von Wert, da sie als Erinnerung daran dienen, wie die Daten, die zu den gemeldeten Feststellungen geführt haben, tatsächlich gehandhabt wurden.
Aus diesen Gründen ist der Forscher nach Abschluss einer Studie verpflichtet, dafür zu sorgen, dass alle Basisdaten angemessen für einen angemessenen Zeitraum archiviert werden und dass sie abgerufen werden können, wenn der Forscher aufgefordert wird, sie zur Verfügung zu stellen.
Mehrere Beispiele für Gefahren am Arbeitsplatz werden oft zitiert, um nicht nur die möglichen nachteiligen Auswirkungen auf die Gesundheit im Zusammenhang mit Expositionen am Arbeitsplatz zu veranschaulichen, sondern auch um aufzuzeigen, wie ein systematischer Ansatz zur Untersuchung von Arbeitnehmerpopulationen wichtige Beziehungen zwischen Exposition und Krankheit aufdecken kann. Ein solches Beispiel ist Asbest. Die schlichte Eleganz, mit der der verstorbene Dr. Irving J. Selikoff das erhöhte Krebsrisiko bei Asbestarbeitern demonstrierte, wurde in einem Artikel von Lawrence Garfinkel dokumentiert. Es wird hier mit nur geringfügiger Änderung und mit Genehmigung von CA-A Cancer Journal for Clinicians (Garfinkel 1984) nachgedruckt. Die Tabellen stammen aus dem Originalartikel von Dr. Selikoff und Mitarbeitern (1964).
Die Exposition gegenüber Asbest ist zu einem erheblichen Problem für die öffentliche Gesundheit geworden, mit Auswirkungen, die sich über den unmittelbaren Bereich der Angehörigen der Gesundheitsberufe hinaus auf Bereiche erstrecken, die von Gesetzgebern, Richtern, Anwälten, Pädagogen und anderen betroffenen Gemeindevertretern bedient werden. Infolgedessen sind asbestbedingte Krankheiten für Kliniker und Gesundheitsbehörden sowie für Verbraucher und die breite Öffentlichkeit von zunehmender Besorgnis.
Historischer Hintergrund
Asbest ist ein sehr nützliches Mineral, das seit vielen Jahrhunderten auf vielfältige Weise genutzt wird. Archäologische Studien in Finnland haben Beweise für Asbestfasern gezeigt, die bereits 2500 v. Chr. in Keramik eingearbeitet wurden. Im 5. Jahrhundert v. Chr. wurde es als Docht für Lampen verwendet. Herodot kommentierte die Verwendung von Asbestgewebe zur Einäscherung um 456 v. Asbest wurde im 15. Jahrhundert in Körperpanzern und in Russland bei der Herstellung von Textilien, Handschuhen, Socken und Handtaschen verwendet c. 1720. Obwohl es ungewiss ist, wann die Kunst des Asbestwebens entwickelt wurde, wissen wir, dass die Menschen des Altertums oft Asbest mit Leinen gewebt haben. Die kommerzielle Asbestproduktion begann in Italien um 1850 mit der Herstellung von Papier und Stoff.
Die Entwicklung des Asbestabbaus in Kanada und Südafrika um 1880 senkte die Kosten und trieb die Herstellung von Asbestprodukten voran. Bald darauf folgten der Abbau und die Produktion von Asbest in den USA, Italien und Russland. In den Vereinigten Staaten steigerte die Entwicklung von Asbest als Rohrisolierung die Produktion, und kurz darauf folgten andere vielfältige Verwendungen, darunter Bremsbeläge, Zementrohre, Schutzkleidung und so weiter.
Die Produktion in den USA stieg von etwa 6,000 Tonnen im Jahr 1900 auf 650,000 Tonnen im Jahr 1975, obwohl sie 1982 etwa 300,000 Tonnen betrug und 1994 auf 33,000 Tonnen zurückgegangen war.
Es wird berichtet, dass Plinius der Jüngere (61-113 n. Chr.) die Krankheit von Sklaven kommentierte, die mit Asbest arbeiteten. Hinweise auf mit dem Bergbau verbundene Berufskrankheiten tauchten im 16. Jahrhundert auf, aber erst 1906 tauchte in England der erste Hinweis auf Lungenfibrose bei einem Asbestarbeiter auf. Übermäßige Todesfälle bei Arbeitern, die mit Asbestherstellungsanwendungen zu tun hatten, wurden kurz darauf in Frankreich und Italien gemeldet, aber die große Anerkennung asbestinduzierter Krankheiten begann in England im Jahr 1924. Bis 1930 hatten Wood und Gloyne über 37 Fälle von Lungenfibrose berichtet.
Der erste Hinweis auf ein Lungenkarzinom bei einem Patienten mit „Asbest-Silikose“ erschien 1935. Mehrere weitere Fallberichte folgten. Berichte über hohe Prozentsätze von Lungenkrebs bei Patienten, die an Asbestose starben, erschienen 1947, 1949 und 1951. 1955 berichtete Richard Doll in England über ein erhöhtes Lungenkrebsrisiko bei Personen, die seit 1935 in einer Asbestfabrik gearbeitet hatten, mit einem besonders hohen Risiko bei Personen, die länger als 20 Jahre beschäftigt waren.
Klinische Beobachtungen
Vor diesem Hintergrund begannen Dr. Irving Selikoffs klinische Beobachtungen asbestbedingter Krankheiten. Dr. Selikoff war damals bereits ein angesehener Wissenschaftler. Zu seinen früheren Leistungen gehörte die Entwicklung und erste Anwendung von Isoniazid zur Behandlung von Tuberkulose, wofür er 1952 einen Lasker-Preis erhielt.
In den frühen 1960er Jahren hatte er als in Paterson, New Jersey, praktizierender Thoraxarzt viele Fälle von Lungenkrebs bei Arbeitern in einer Asbestfabrik in der Gegend beobachtet. Er beschloss, seine Beobachtungen auf zwei Ortsansässige der Asbestisolator-Arbeitergewerkschaft auszudehnen, deren Mitglieder ebenfalls Asbestfasern ausgesetzt waren. Er erkannte, dass es immer noch viele Menschen gibt, die nicht glauben, dass Lungenkrebs mit einer Asbestexposition zusammenhängt, und dass nur eine gründliche Studie einer gesamten exponierten Bevölkerung sie davon überzeugen kann. Es bestand die Möglichkeit, dass die Asbestexposition in der Bevölkerung mit anderen Krebsarten in Verbindung gebracht werden könnte, wie z. B. Pleura- und Peritonealmesotheliom, wie in einigen Studien vorgeschlagen worden war, und vielleicht auch an anderen Stellen. Die meisten Studien zu den gesundheitlichen Auswirkungen von Asbest betrafen in der Vergangenheit Arbeiter, die im Bergbau und in der Produktion von Asbest exponiert waren. Es war wichtig zu wissen, ob die Inhalation von Asbest auch andere asbestexponierte Gruppen betraf.
Dr. Selikoff hatte von den Leistungen von Dr. E. Cuyler Hammond, dem damaligen Direktor der Abteilung für statistische Forschung der American Cancer Society (ACS), gehört und beschloss, ihn zu bitten, an der Konzeption und Analyse einer Studie mitzuarbeiten. Es war Dr. Hammond, der die wegweisende prospektive Studie zum Thema Rauchen und Gesundheit geschrieben hatte, die einige Jahre zuvor veröffentlicht worden war.
Dr. Hammond erkannte sofort die potenzielle Bedeutung einer Studie an Asbestarbeitern. Obwohl er eifrig damit beschäftigt war, Daten aus der damals neuen prospektiven ACS-Studie Cancer Prevention Study I (CPS I) zu analysieren, die er einige Jahre zuvor begonnen hatte, stimmte er einer Zusammenarbeit in seiner „Freizeit“ gerne zu. Er schlug vor, die Analyse auf die Arbeitnehmer mit mindestens 20 Jahren Berufserfahrung zu beschränken, die somit die größte Asbestexposition gehabt hätten.
Dem Team schloss sich Frau Janet Kaffenburgh an, eine wissenschaftliche Mitarbeiterin von Dr. Selikoff am Mount Sinai Hospital, die mit Dr. Hammond zusammenarbeitete, um die Listen der Männer in der Studie zu erstellen, einschließlich ihres Alters und ihrer Beschäftigungsdaten, und um die Daten zu erhalten über Todesfälle und Todesursachen aus den Aufzeichnungen der Gewerkschaftszentrale. Diese Informationen wurden anschließend auf Karteikarten übertragen, die von Dr. Hammond und Mrs. Kaffenburgh buchstäblich auf dem Wohnzimmerboden von Dr. Hammonds Haus sortiert wurden.
Dr. Jacob Churg, ein Pathologe am Barnert Memorial Hospital Center in Paterson, New Jersey, lieferte eine pathologische Bestätigung der Todesursache.
Tabe 1. Erfahrung in Mannjahren von 632 Asbestarbeitern, die 20 Jahre oder länger Asbeststaub ausgesetzt waren
Alter |
Zeitperiode |
|||
1943 47 |
1948 52 |
1953 57 |
1958 62 |
|
35-39 |
85.0 |
185.0 |
7.0 |
11.0 |
40-44 |
230.5 |
486.5 |
291.5 |
70.0 |
45-49 |
339.5 |
324.0 |
530.0 |
314.5 |
50-54 |
391.5 |
364.0 |
308.0 |
502.5 |
55-59 |
382.0 |
390.0 |
316.0 |
268.5 |
60-64 |
221.0 |
341.5 |
344.0 |
255.0 |
65-69 |
139.0 |
181.0 |
286.0 |
280.0 |
70-74 |
83.0 |
115.5 |
137.0 |
197.5 |
75-79 |
31.5 |
70.0 |
70.5 |
75.0 |
80-84 |
5.5 |
18.5 |
38.5 |
23.5 |
85+ |
3.5 |
2.0 |
8.0 |
13.5 |
Total |
1,912.0 |
2,478.0 |
2,336.5 |
2,011.0 |
Die resultierende Studie wurde als „prospektive retrospektiv durchgeführte Studie“ klassifiziert. Die Art der Gewerkschaftsaufzeichnungen ermöglichte es, eine Analyse einer Langzeitstudie in relativ kurzer Zeit durchzuführen. Obwohl nur 632 Männer an der Studie teilnahmen, gab es eine Risikoexposition von 8,737 Mannjahren (siehe Tabelle 1); Im 255-jährigen Beobachtungszeitraum von 20 bis 1943 traten 1962 Todesfälle auf (siehe Tabelle 2). Aus Tabelle 28.17 geht hervor, dass die beobachtete Zahl der Todesfälle ausnahmslos die erwartete Zahl übersteigt, was den Zusammenhang zwischen Asbestexposition am Arbeitsplatz und einer erhöhten Krebstodesrate zeigt.
Tabelle 2. Beobachtete und erwartete Todesfälle bei 632 Asbestarbeitern, die 20 Jahre oder länger Asbeststaub ausgesetzt waren
Todesursache |
Zeitperiode |
Total |
|||
1943 47 |
1948 52 |
1953 57 |
1958 62 |
1943 62 |
|
Insgesamt, alle Ursachen |
|||||
Beobachtet (Asbestarbeiter) |
28.0 |
54.0 |
85.0 |
88.0 |
255.0 |
Erwartet (weiße US-Männer) |
39.7 |
50.8 |
56.6 |
54.4 |
203.5 |
Totaler Krebs, alle Standorte |
|||||
Beobachtet (Asbestarbeiter) |
13.0 |
17.0 |
26.0 |
39.0 |
95.0 |
Erwartet (weiße US-Männer) |
5.7 |
8.1 |
13.0 |
9.7 |
36.5 |
Krebs der Lunge und Pleura |
|||||
Beobachtet (Asbestarbeiter) |
6.0 |
8.0 |
13.0 |
18.0 |
45.0 |
Erwartet (weiße US-Männer) |
0.8 |
1.4 |
2.0 |
2.4 |
6.6 |
Magen-, Dickdarm- und Mastdarmkrebs |
|||||
Beobachtet (Asbestarbeiter) |
4.0 |
4.0 |
7.0 |
14.0 |
29.0 |
Erwartet (weiße US-Männer) |
2.0 |
2.5 |
2.6 |
2.3 |
9.4 |
Krebs aller anderen Stellen zusammen |
|||||
Beobachtet (Asbestarbeiter) |
3.0 |
5.0 |
6.0 |
7.0 |
21.0 |
Erwartet (weiße US-Männer) |
2.9 |
4.2 |
8.4 |
5.0 |
20.5 |
Bedeutung der Arbeit
Dieses Papier stellte einen Wendepunkt in unserem Wissen über asbestbedingte Krankheiten dar und gab die Richtung für die zukünftige Forschung vor. Der Artikel wurde seit seiner Erstveröffentlichung mindestens 261 Mal in wissenschaftlichen Publikationen zitiert. Mit finanzieller Unterstützung des ACS und der National Institutes of Health erforschten Dr. Selikoff und Dr. Hammond und ihr wachsendes Team aus Mineralogen, Lungenärzten, Radiologen, Pathologen, Hygienikern und Epidemiologen weiterhin verschiedene Facetten der Asbestkrankheit.
Eine große Abhandlung aus dem Jahr 1968 berichtete über die synergistische Wirkung des Zigarettenrauchens auf die Asbestexposition (Selikoff, Hammond und Churg 1968). Die Studien wurden auf Arbeiter in der Asbestproduktion, Personen mit indirekter Asbestexposition (z. B. Werftarbeiter) und Personen mit familiärer Asbestexposition ausgeweitet.
In einer späteren Analyse, in der das Team von Herbert Seidman, MBA, stellvertretender Vizepräsident für Epidemiologie und Statistik der American Cancer Society, unterstützt wurde, zeigte die Gruppe, dass selbst eine kurzfristige Exposition gegenüber Asbest zu einem signifikant erhöhten Krebsrisiko führte bis 30 Jahre später (Seidman, Selikoff und Hammond 1979). In dieser ersten Studie mit 632 Isolatoren gab es nur drei Fälle von Mesotheliom, aber spätere Untersuchungen zeigten, dass 8 % aller Todesfälle unter Asbestarbeitern auf Pleura- und Peritonealmesotheliom zurückzuführen waren.
Als sich Dr. Selikoffs wissenschaftliche Untersuchungen ausweiteten, leisteten er und seine Mitarbeiter bemerkenswerte Beiträge zur Reduzierung der Asbestbelastung durch Innovationen in industriellen Hygienetechniken; indem die Gesetzgeber von der Dringlichkeit des Asbestproblems überzeugt werden; bei der Bewertung der Probleme von Invaliditätszahlungen im Zusammenhang mit Asbesterkrankungen; und bei der Untersuchung der allgemeinen Verteilung von Asbestpartikeln in Wasservorräten und in der Umgebungsluft.
Dr. Selikoff machte auch die medizinische und wissenschaftliche Gemeinschaft auf das Asbestproblem aufmerksam, indem er Konferenzen zu diesem Thema organisierte und an vielen wissenschaftlichen Tagungen teilnahm. Viele seiner Orientierungstreffen zum Problem der Asbestkrankheit waren speziell für Rechtsanwälte, Richter, Präsidenten großer Unternehmen und Versicherungsmanager konzipiert.
HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."