Banner ToolsAnsatz

Kinder Kategorien

27. Biologische Überwachung

27. Biologische Überwachung (6)

4 banner

 

27. Biologische Überwachung

Kapitelherausgeber: Robert Lauwerys


 

Inhaltsverzeichnis  

Tabellen und Abbildungen

Allgemeine Grundsätze
Vito Foà und Lorenzo Alessio

Qualitätssicherung
D. Gompertz

Metalle und metallorganische Verbindungen
P. Hoet und Robert Lauwerys

Organische Lösungsmittel
Masayuki Ikeda

Genotoxische Chemikalien
Marja Sorsa

Pestizide
Marco Maroni und Adalberto Ferioli 

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. ACGIH, DFG & andere Grenzwerte für Metalle

2. Beispiele für Chemikalien- und biologisches Monitoring

3. Biologische Überwachung auf organische Lösungsmittel

4. Genotoxizität von Chemikalien, bewertet von IARC

5. Biomarker und einige Zell-/Gewebeproben und Genotoxizität

6. Menschliche Karzinogene, berufliche Exposition und zytogenetische Endpunkte

7. Ethische Prinzipien

8. Exposition durch Produktion und Verwendung von Pestiziden

9. Akute OP-Toxizität bei verschiedenen Graden der ACHE-Hemmung

10 Variationen von ACHE & PCHE & ausgewählten Gesundheitszuständen

11 Cholinesterase-Aktivitäten von nicht exponierten gesunden Menschen

12 Alkylphosphate im Urin und OP-Pestizide

13 Alkylphosphatmessungen im Urin & OP

14 Carbamat-Metaboliten im Urin

15 Dithiocarbamat-Metaboliten im Urin

16 Vorgeschlagene Indizes für die biologische Überwachung von Pestiziden

17 Empfohlene biologische Grenzwerte (Stand 1996)

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

BMO010F1BMO020F1BMO050F1BMO050T1BMO050F2BMO050F3BMO050T5BMO060F1BMO060F2BMO060F3

 


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
28. Epidemiologie und Statistik

28. Epidemiologie und Statistik (12)

4 banner

 

28. Epidemiologie und Statistik

Kapitel-Editoren:  Franco Merletti, Colin L. Soskolne und Paolo Vineis


Inhaltsverzeichnis

Tabellen und Abbildungen

Epidemiologische Methode für Arbeitssicherheit und Gesundheitsschutz
Franco Merletti, Colin L. Soskolne und Paolo Vineis

Expositionsbewertung
M. Gerald Ott

Zusammenfassung der Expositionsmaßnahmen im Arbeitsleben
Colin L. Soskolne

Messung der Auswirkungen von Expositionen
Shelia Hoar Zahm

     Fallbeispiel: Maßnahmen
     Franco Merletti, Colin L. Soskolne und Paola Vineis

Optionen im Studiendesign
Sven Herberg

Validitätsprobleme im Studiendesign
Annie J. Sasco

Einfluss zufälliger Messfehler
Paolo Vineis und Colin L. Soskolne

Statistische Methoden
Annibale Biggeri und Mario Braga

Kausalitätsbewertung und Ethik in der epidemiologischen Forschung
Paolo Vineis

Fallstudien zur Veranschaulichung methodischer Probleme bei der Überwachung von Berufskrankheiten
Jung-Der Wang

Fragebögen in der epidemiologischen Forschung
Steven D. Stellman und Colin L. Soskolne

Asbest Historische Perspektive
Laurent Garfinkel

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Fünf ausgewählte zusammenfassende Maßnahmen zur Exposition im Berufsleben

2. Maße für das Auftreten von Krankheiten

3. Assoziationsmaße für eine Kohortenstudie

4. Assoziationsmaße für Fall-Kontroll-Studien

5. Allgemeines Häufigkeitstabellenlayout für Kohortendaten

6. Musterlayout von Fallkontrolldaten

7. Layout-Fallkontrolldaten – eine Kontrolle pro Fall

8. Hypothetische Kohorte von 1950 Individuen zu T2

9. Indizes der zentralen Tendenz und Streuung

10 Ein binomiales Experiment & Wahrscheinlichkeiten

11 Mögliche Ergebnisse eines binomialen Experiments

12 Binomialverteilung, 15 Erfolge/30 Versuche

13 Binomialverteilung, p = 0.25; 30 Versuche

14 Fehler XNUMX. Art & Leistung; x = 12, n = 30, a = 0.05

15 Fehler XNUMX. Art & Leistung; x = 12, n = 40, a = 0.05

16 632 Arbeitnehmer, die 20 Jahre oder länger Asbest ausgesetzt waren

17 O/E Zahl der Todesfälle unter 632 Asbestarbeitern

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

EPI110F1EPI110F2


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
29. Ergonomie

29. Ergonomie (27)

4 banner

 

29. Ergonomie

Kapitel-Editoren:  Wolfgang Laurig und Joachim Vedder

 


 

Inhaltsverzeichnis 

Tabellen und Abbildungen

Überblick
Wolfgang Laurig und Joachim Vedder

Ziele, Prinzipien und Methoden

Wesen und Ziele der Ergonomie
William T. Singleton

Analyse von Aktivitäten, Aufgaben und Arbeitssystemen
Véronique De Keyser

Ergonomie und Standardisierung
Friedhelm Nachreiner

Prüflisten
Pranab Kumar Nag

Physikalische und physiologische Aspekte

Anthropometrie
Melchiorre Masali

Muskelarbeit
Juhani Smolander und Veikko Louhevaara

Körperhaltungen bei der Arbeit
Ilkka Kurinka

Biomechanik
Frank Darby

Allgemeine Müdigkeit
Etienne Grandjean

Müdigkeit und Erholung
Rolf Helbig und Walter Rohmert

Psychologische Aspekte

Geistige Arbeitsbelastung
Winfried Hacker

Wachsamkeit
Herbert Heuer

Geistige Müdigkeit
Peter Richter

Organisatorische Aspekte der Arbeit

Arbeitsorganisation
Eberhard Ulich und Gudela Grote

Schlafentzug
Kazutaka Kogi

Gestaltung von Arbeitssystemen

Workstations
Roland Kadefors

Tools
TM Fraser

Bedienelemente, Anzeigen und Bedienfelder
Karl HE Kroemer

Informationsverarbeitung und Design
Andries F. Sanders

Designen für alle

Entwerfen für bestimmte Gruppen
Witz H. Grady-van den Nieuwboer

     Fallstudie: Die internationale Klassifikation der Funktionseinschränkung beim Menschen

Kulturelle Unterschiede
Houshang Shahnavaz

Ältere Arbeitnehmer
Antoine Laville und Serge Volkoff

Arbeitnehmer mit besonderen Bedürfnissen
Witz H. Grady-van den Nieuwboer

Vielfalt und Bedeutung der Ergonomie – zwei Beispiele

Systemdesign in der Diamantherstellung
Issachar Gilad

Missachtung ergonomischer Gestaltungsprinzipien: Tschernobyl
Wladimir M. Munipov 

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Grundlegende anthropometrische Kernliste

2. Ermüdung und Erholung abhängig vom Aktivitätsniveau

3. Regeln der Kombinationswirkung zweier Stressfaktoren auf die Belastung

4. Es wird zwischen mehreren negativen Folgen psychischer Belastung unterschieden

5. Arbeitsorientierte Prinzipien zur Produktionsgestaltung

6. Partizipation im organisatorischen Kontext

7. Benutzerbeteiligung am Technologieprozess

8. Unregelmäßige Arbeitszeiten und Schlafentzug

9. Aspekte von Früh-, Anker- und Verzögerungsschlaf

10 Kontrollieren Sie Bewegungen und erwartete Effekte

11 Steuerungs-Wirkungs-Beziehungen gängiger Handsteuerungen

12 Regeln für die Anordnung von Kontrollen

13 Richtlinien für Etiketten

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

ERG040T1ERG040F1ERG040F2ERG040F3ERG040T2ERG040F5ERG070F1ERG070F2ERG070F3ERG060F2ERG060F1ERG060F3ERG080F1ERG080F4ERG090F1ERG090F2ERG090F3ERG090F4ERG225F1ERG225F2ERG150F1ERG150F2ERG150F4ERG150F5ERG150F6ERG120F1ERG130F1ERG290F1ERG160T1ERG160F1ERG185F1ERG185F2ERG185F3ERG185F4ERG190F1ERG190F2ERG190F3ERG210F1ERG210F2ERG210F3ERG210F4ERG210T4ERG210T5ERG210T6ERG220F1ERG240F1ERG240F2ERG240F3ERG240F4ERG260F1ERG300F1ERG255F1

Artikel ansehen ...
32. Aufzeichnungssysteme und Überwachung

32. Aufzeichnungssysteme und Überwachung (9)

4 banner

 

32. Aufzeichnungssysteme und Überwachung

Kapitel-Editor:  Steven D. Stellman

 


 

Inhaltsverzeichnis 

Tabellen und Abbildungen

Überwachungs- und Meldesysteme für Berufskrankheiten
Steven B. Markowitz

Überwachung von Arbeitsgefahren
David H. Wegman und Steven D. Stellman

Überwachung in Entwicklungsländern
David Koh und Kee-Seng Chia

Entwicklung und Anwendung eines Klassifizierungssystems für Arbeitsunfälle und Berufskrankheiten
Elyce Biddle

Risikoanalyse von nicht tödlichen Verletzungen und Krankheiten am Arbeitsplatz
John W. Ruser

Fallstudie: Arbeitnehmerschutz und Statistiken zu Unfällen und Berufskrankheiten - HVBG, Deutschland
Martin Butz und Burkhard Hoffmann

Fallstudie: Wismut – Eine Neuauflage der Uranexposition
Heinz Otten und Horst Schulz

Messstrategien und -techniken für die berufsbedingte Expositionsabschätzung in der Epidemiologie
Frank Bochmann und Helmut Blome

Fallstudie: Arbeitsmedizinische Erhebungen in China

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Angiosarkom der Leber - Weltregister

2. Berufskrankheit, USA, 1986 versus 1992

3. US-Todesfälle durch Pneumokoniose und Pleuramesotheliom

4. Musterliste meldepflichtiger Berufskrankheiten

5. Codestruktur für die Meldung von Krankheiten und Verletzungen, USA

6. Nichttödliche Arbeitsunfälle und Berufskrankheiten, USA 1993

7. Risiko von Arbeitsunfällen und Berufskrankheiten

8. Relatives Risiko für sich wiederholende Bewegungszustände

9. Arbeitsunfälle, Deutschland, 1981-93

10 Schleifmaschinen bei Unfällen in der Metallverarbeitung, Deutschland, 1984-93

11 Berufskrankheit, Deutschland, 1980-93

12 Infektionskrankheiten, Deutschland, 1980-93

13 Strahlenbelastung in den Wismut-Bergwerken

14 Berufskrankheiten im Wismuter Uranbergwerk 1952-90

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

REC60F1AREC060F2REC100F1REC100T1REC100T2


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
33. Toxikologie

33. Toxikologie (21)

4 banner

 

33. Toxikologie

Kapitelherausgeberin: Ellen K. Silbergeld


Inhaltsverzeichnis

Tabellen und Abbildungen

Einleitung
Ellen K. Silbergeld, Kapitelredakteurin

Allgemeine Prinzipien der Toxikologie

Definitionen und Konzepte
Bo Holmberg, Johan Hogberg und Gunnar Johanson

Toxikokinetik
Dušan Djuric

Zielorgan und kritische Wirkungen
Marek Jakubowski

Auswirkungen von Alter, Geschlecht und anderen Faktoren
Spomenka Telisman

Genetische Determinanten der toxischen Reaktion
Daniel W. Nebert und Ross A. McKinnon

Mechanismen der Toxizität

Einführung und Konzepte
Philip G. Watanabe

Zellschädigung und Zelltod
Benjamin F. Trump und Irene K. Berezesky

Genetische Toxikologie
R. Rita Misra und Michael P. Waalkes

Immuntoxikologie
Joseph G. Vos und Henk van Loveren

Zielorgan-Toxikologie
Ellen K. Silbergeld

Toxikologische Testmethoden

Biomarker
Philipp Grandjean

Bewertung der genetischen Toxizität
David M. DeMarini und James Huff

In-vitro-Toxizitätstest
Joanne Zürlo

Aktivitätsbeziehungen strukturieren
Ellen K. Silbergeld

Regulatorische Toxikologie

Toxikologie in der Gesundheits- und Sicherheitsverordnung
Ellen K. Silbergeld

Prinzipien der Gefahrenidentifizierung - Der japanische Ansatz
Masayuki Ikeda

Der Ansatz der Vereinigten Staaten zur Risikobewertung von reproduktionstoxischen und neurotoxischen Wirkstoffen
Ellen K. Silbergeld

Ansätze zur Gefahrenidentifizierung - IARC
Harri Vainio und Julian Wilbourn

Anhang – Gesamtbewertungen der Karzinogenität beim Menschen: IARC-Monographien, Bände 1–69 (836)

Karzinogen-Risikobewertung: Andere Ansätze
Cees A. van der Heijden

Tische 

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

  1. Beispiele für kritische Organe und kritische Effekte
  2. Grundlegende Wirkungen möglicher Mehrfachwechselwirkungen von Metallen
  3. Hämoglobinaddukte bei Arbeitern, die Anilin und Acetanilid ausgesetzt waren
  4. Erbliche, krebsanfällige Erkrankungen und Defekte in der DNA-Reparatur
  5. Beispiele für Chemikalien, die in menschlichen Zellen genotoxisch wirken
  6. Klassifizierung von Tests für Immunmarker
  7. Beispiele für Biomarker der Exposition
  8. Vor- und Nachteile von Methoden zur Identifizierung von Krebsrisiken beim Menschen
  9. Vergleich von In-vitro-Systemen für Hepatotoxizitätsstudien
  10. Vergleich von SAR- und Testdaten: OECD/NTP-Analysen
  11. Regulierung chemischer Stoffe durch Gesetze, Japan
  12. Prüfgegenstände gemäß dem Gesetz zur Kontrolle chemischer Substanzen, Japan
  13. Chemische Substanzen und das Gesetz zur Kontrolle chemischer Substanzen
  14. Ausgewählte größere Neurotoxizitätsvorfälle
  15. Beispiele für spezialisierte Tests zur Messung der Neurotoxizität
  16. Endpunkte in der Reproduktionstoxikologie
  17. Vergleich von Niedrigdosis-Extrapolationsverfahren
  18. Häufig zitierte Modelle zur Charakterisierung des Karzinogenrisikos

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

TestTOX050F1TOX050F2TOX050F4TOX050T1TOX050F6TOX210F1TOX210F2TOX060F1TOX090F1TOX090F2TOX090F3TOX090F4TOX110F1TOX260F1TOX260T4


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
Dienstag, 08 März 2011 21: 29

Allgemeine Müdigkeit

Dieser Artikel ist eine Adaption der 3. Auflage der Encyclopaedia of Occupational Health and Safety.

Die beiden Begriffe Ermüdung und Ruhe sind allen aus eigener Erfahrung bekannt. Mit dem Wort „Müdigkeit“ werden ganz unterschiedliche Zustände bezeichnet, die alle eine Verringerung der Leistungsfähigkeit und Widerstandskraft bewirken. Die sehr unterschiedliche Verwendung des Begriffs Ermüdung hat zu einer fast chaotischen Verwirrung geführt, und es bedarf einiger Klärung der gängigen Vorstellungen. Die Physiologie hat lange Zeit zwischen Muskelermüdung und allgemeiner Ermüdung unterschieden. Ersteres ist ein akutes Schmerzphänomen, das in der Muskulatur lokalisiert ist: Die allgemeine Erschöpfung ist durch ein Gefühl nachlassender Arbeitsbereitschaft gekennzeichnet. Dieser Artikel befasst sich nur mit der allgemeinen Ermüdung, die auch „psychische Ermüdung“ oder „nervöse Ermüdung“ genannt werden kann, und der Ruhe, die sie erfordert.

Allgemeine Müdigkeit kann ganz unterschiedliche Ursachen haben, von denen die wichtigsten in Abbildung 1 dargestellt sind. Die Wirkung ist so, als ob sich im Laufe des Tages alle unterschiedlichen erlebten Belastungen im Organismus ansammeln und nach und nach ein Gefühl der Steigerung erzeugen Ermüdung. Dieses Gefühl veranlasst die Entscheidung, die Arbeit einzustellen; seine Wirkung ist die eines physiologischen Vorspiels zum Schlafen.

Abbildung 1. Schematische Darstellung der kumulativen Wirkung der alltäglichen Ursachen von Müdigkeit

ERG225F1

Müdigkeit ist eine heilsame Empfindung, wenn man sich hinlegen und ausruhen kann. Missachtet man dieses Gefühl jedoch und zwingt sich weiter zu arbeiten, verstärkt sich das Ermüdungsgefühl, bis es belastend und schließlich überwältigend wird. Diese tägliche Erfahrung zeigt deutlich die biologische Bedeutung der Ermüdung, die zur Erhaltung des Lebens eine Rolle spielt, ähnlich wie andere Empfindungen wie zum Beispiel Durst, Hunger, Angst usw.

Ruhe wird in Abbildung 1 als Entleerung eines Fasses dargestellt. Das Ruhephänomen kann normal stattfinden, wenn der Organismus ungestört bleibt oder zumindest ein wesentlicher Körperteil keiner Belastung ausgesetzt ist. Das erklärt die entscheidende Rolle, die an Werktagen alle Arbeitspausen spielen, von der kurzen Pause während der Arbeit bis zum nächtlichen Schlaf. Das Gleichnis vom Fass verdeutlicht, wie notwendig es für das normale Leben ist, ein gewisses Gleichgewicht zwischen der Gesamtbelastung des Organismus und der Summe der Ruhemöglichkeiten zu erreichen.

Neurophysiologische Interpretation von Müdigkeit

Die Fortschritte der Neurophysiologie in den letzten Jahrzehnten haben wesentlich zu einem besseren Verständnis der Phänomene beigetragen, die durch Ermüdung im zentralen Nervensystem ausgelöst werden.

Der Physiologe Hess hat als erster beobachtet, dass die elektrische Reizung gewisser dienzephaler Strukturen, insbesondere gewisser Strukturen des medialen Kerns des Thalamus, allmählich eine hemmende Wirkung hervorrief, die sich in einer Verschlechterung der Reaktionsfähigkeit äußerte und zum Einschlafen neigen. Wenn die Stimulation eine gewisse Zeit fortgesetzt wurde, folgte der allgemeinen Entspannung Schläfrigkeit und schließlich Schlaf. Später wurde bewiesen, dass sich ausgehend von diesen Strukturen eine aktive Hemmung bis zur Großhirnrinde erstrecken kann, wo alle bewussten Phänomene zentriert sind. Dies spiegelt sich nicht nur im Verhalten wider, sondern auch in der elektrischen Aktivität der Großhirnrinde. Anderen Experimenten gelang es auch, Hemmungen von anderen subkortikalen Regionen auszulösen.

Aus all diesen Studien lässt sich der Schluss ziehen, dass es im Zwischen- und Mittelhirn Strukturen gibt, die ein wirksames Hemmsystem darstellen und Ermüdung mit all ihren Begleiterscheinungen auslösen.

Hemmung und Aktivierung

Zahlreiche Versuche an Tieren und Menschen haben gezeigt, dass die allgemeine Reaktionsbereitschaft beider nicht nur von diesem Hemmungssystem abhängt, sondern wesentlich auch von einem antagonistisch funktionierenden System, dem sogenannten retikulären aufsteigenden Aktivierungssystem. Aus Experimenten wissen wir, dass die Formatio reticularis Strukturen enthält, die den Wachheitsgrad und damit die allgemeine Reaktionsbereitschaft steuern. Nervenverbindungen bestehen zwischen diesen Strukturen und der Großhirnrinde, wo die aktivierenden Einflüsse auf das Bewusstsein ausgeübt werden. Darüber hinaus erhält das aktivierende System Reize von den Sinnesorganen. Andere Nervenverbindungen leiten Impulse aus der Großhirnrinde – dem Bereich des Wahrnehmens und Denkens – an das Aktivierungssystem weiter. Auf der Grundlage dieser neurophysiologischen Konzepte lässt sich feststellen, dass sowohl äußere Reize als auch Einflüsse aus den Bewusstseinsbereichen beim Passieren des aktivierenden Systems eine Reaktionsbereitschaft stimulieren können.

Darüber hinaus lassen viele andere Untersuchungen den Schluss zu, dass sich Reizungen des aktivierenden Systems häufig auch von den vegetativen Zentren aus ausbreiten und den Organismus veranlassen, sich auf den Energieaufwand, auf Arbeit, Kampf, Flucht usw. zu orientieren (ergotrope Umwandlung von die inneren Organe). Umgekehrt scheint es, dass die Stimulation des Hemmsystems im Bereich des vegetativen Nervensystems den Organismus zu Ruhestrebungen, Wiederherstellung der Energiereserven, Assimilationsphänomenen (trophotrope Umwandlung) veranlasst.

Durch die Synthese all dieser neurophysiologischen Befunde lässt sich folgende Vorstellung von Erschöpfung aufstellen: Ermüdungszustand und -gefühl sind bedingt durch die funktionelle Reaktion des Bewusstseins in der Großhirnrinde, die ihrerseits von zwei sich gegensätzlichen Systemen gesteuert wird – das hemmende System und das aktivierende System. Die Arbeitsbereitschaft des Menschen hängt also in jedem Moment vom Grad der Aktivierung der beiden Systeme ab: Überwiegt das hemmende System, befindet sich der Organismus in einem Ermüdungszustand; Wenn das aktivierende System dominant ist, zeigt es eine erhöhte Arbeitsbereitschaft.

Diese psychophysiologische Konzeption der Erschöpfung ermöglicht es, einige ihrer manchmal schwer zu erklärenden Symptome zu verstehen. So kann zum Beispiel ein Gefühl der Müdigkeit plötzlich verschwinden, wenn ein unerwartetes äußeres Ereignis eintritt oder wenn sich emotionale Anspannung entwickelt. In beiden Fällen ist klar, dass das aktivierende System stimuliert wurde. Umgekehrt, wenn die Umgebung eintönig ist oder die Arbeit langweilig erscheint, wird die Funktion des aktivierenden Systems herabgesetzt und das hemmende System wird dominant. Dies erklärt, warum Müdigkeit in einer monotonen Situation auftritt, ohne dass der Organismus belastet wird.

Abbildung 2 zeigt schematisch die Vorstellung der wechselseitig antagonistischen Hemmungs- und Aktivierungssysteme.

Abbildung 2. Schematische Darstellung der Steuerung der Arbeitsbereitschaft durch hemmende und aktivierende Systeme

ERG225F2

Klinische Müdigkeit

Es ist eine allgemeine Erfahrung, dass eine starke Ermüdung, die Tag für Tag auftritt, allmählich zu einem Zustand chronischer Erschöpfung führt. Das Ermüdungsgefühl verstärkt sich dann und tritt nicht nur abends nach der Arbeit auf, sondern schon tagsüber, manchmal sogar vor Arbeitsbeginn. Ein Gefühl von Unwohlsein, häufig emotionaler Natur, begleitet diesen Zustand. Bei Fatigue-Patienten werden häufig folgende Symptome beobachtet: erhöhte psychische Emotionalität (asoziales Verhalten, Inkompatibilität), Depressionsneigung (unmotivierte Angst) und Antriebslosigkeit mit Antriebslosigkeit. Diese psychischen Wirkungen gehen oft mit einem unspezifischen Unwohlsein einher und äußern sich durch psychosomatische Symptome: Kopfschmerzen, Schwindel, Herz- und Atemfunktionsstörungen, Appetitlosigkeit, Verdauungsstörungen, Schlaflosigkeit etc.

In Anbetracht der Tendenz zu krankhaften Symptomen, die mit chronischer Erschöpfung einhergehen, kann sie mit Recht als klinische Ermüdung bezeichnet werden. Es besteht eine Tendenz zu vermehrten Fehlzeiten, insbesondere zu mehr Kurzzeitabsenzen. Dies scheint sowohl durch das Ruhebedürfnis als auch durch eine erhöhte Morbidität verursacht zu sein. Der Zustand chronischer Erschöpfung tritt besonders bei Personen auf, die psychischen Konflikten oder Schwierigkeiten ausgesetzt sind. Es ist manchmal sehr schwierig, die äußeren und inneren Ursachen zu unterscheiden. Tatsächlich ist es fast unmöglich, Ursache und Wirkung bei klinischer Müdigkeit zu unterscheiden: Eine negative Einstellung zur Arbeit, zu Vorgesetzten oder zum Arbeitsplatz kann genauso gut Ursache für klinische Müdigkeit sein wie die Folge.

Untersuchungen haben gezeigt, dass die in Telekommunikationsdiensten beschäftigten Telefonisten und Aufsichtspersonen eine signifikante Zunahme der physiologischen Ermüdungserscheinungen nach ihrer Arbeit aufwiesen (visuelle Reaktionszeit, Flickerfusionsfrequenz, Geschicklichkeitstests). Ärztliche Untersuchungen ergaben bei diesen beiden Arbeitergruppen eine deutliche Zunahme von neurotischen Zuständen, Reizbarkeit, Schlafstörungen und chronischem Mattigkeitsgefühl im Vergleich zu einer ähnlichen Gruppe von Frauen, die in den technischen Zweigen der Post, des Telefons beschäftigt waren und Telegrafiedienste. Die Häufung der Symptome war nicht immer auf eine negative Einstellung der betroffenen Frauen zu ihrem Arbeitsplatz oder ihren Arbeitsbedingungen zurückzuführen.

Vorsichtsmaßnahmen

Es gibt kein Allheilmittel gegen Müdigkeit, aber es kann viel getan werden, um das Problem zu lindern, indem man auf die allgemeinen Arbeitsbedingungen und die physische Umgebung am Arbeitsplatz achtet. Viel kann beispielsweise durch die richtige Einteilung der Arbeitszeiten, die Bereitstellung angemessener Ruhezeiten und geeigneter Kantinen und Toiletten erreicht werden; Arbeitnehmern sollte auch angemessener bezahlter Urlaub gewährt werden. Auch die ergonomische Untersuchung des Arbeitsplatzes kann zur Reduzierung von Ermüdungserscheinungen beitragen, indem sichergestellt wird, dass Sitze, Tische und Werkbänke angemessen dimensioniert sind und der Arbeitsablauf richtig organisiert ist. Darüber hinaus können sich Lärmschutz, Klimaanlage, Heizung, Belüftung und Beleuchtung positiv auf die Verzögerung des Auftretens von Ermüdung bei Arbeitnehmern auswirken.

Monotonie und Anspannung können auch durch kontrollierte Verwendung von Farbe und Dekoration in der Umgebung, Musikintervalle und manchmal Pausen für körperliche Übungen für sitzende Arbeiter gemildert werden. Auch die Ausbildung der Arbeiter und insbesondere des Aufsichts- und Managementpersonals spielt eine wichtige Rolle.

 

Zurück

Sonntag, Januar 16 2011 18: 43

Zielorgan-Toxikologie

Die Untersuchung und Charakterisierung von Chemikalien und anderen Agenzien auf toxische Eigenschaften erfolgt häufig auf der Grundlage spezifischer Organe und Organsysteme. In diesem Kapitel wurden zwei Ziele für eine eingehende Diskussion ausgewählt: das Immunsystem und das Gen. Diese Beispiele wurden ausgewählt, um ein komplexes Zielorgansystem und ein molekulares Ziel innerhalb von Zellen darzustellen. Für eine umfassendere Diskussion der Toxikologie von Zielorganen wird der Leser auf toxikologische Standardtexte wie Casarett und Doull und Hayes verwiesen. Das International Programme on Chemical Safety (IPCS) hat ebenfalls mehrere Kriteriendokumente zur Zielorgantoxikologie nach Organsystemen veröffentlicht.

Zielorgantoxikologische Studien werden gewöhnlich auf der Grundlage von Informationen durchgeführt, die das Potenzial für spezifische toxische Wirkungen einer Substanz anzeigen, entweder aus epidemiologischen Daten oder aus allgemeinen akuten oder chronischen Toxizitätsstudien, oder auf der Grundlage besonderer Bedenken zum Schutz bestimmter Organfunktionen, wie z B. Fortpflanzung oder fötale Entwicklung. In einigen Fällen werden bestimmte Toxizitätstests für Zielorgane ausdrücklich von gesetzlichen Behörden vorgeschrieben, wie z Stoffkontrollgesetz (siehe „Prinzipien der Gefahrenerkennung: Der japanische Ansatz“).

Wie in „Zielorgan und kritische Wirkungen“ erörtert, basiert die Identifizierung eines kritischen Organs auf der Erkennung des Organs oder Organsystems, das zuerst negativ oder auf die niedrigsten Dosen oder Expositionen reagiert. Diese Informationen werden dann verwendet, um spezifische toxikologische Untersuchungen oder genauer definierte Toxizitätstests zu konzipieren, die darauf ausgelegt sind, empfindlichere Hinweise auf eine Vergiftung im Zielorgan hervorzurufen. Toxikologische Studien zu Zielorganen können auch verwendet werden, um Wirkungsmechanismen zu bestimmen und bei der Risikobewertung verwendet zu werden (siehe „The United States approach to risk assessment of reproduction toxicants and neurotoxic agents“).

Methoden der Zielorgantoxizitätsstudien

Zielorgane können durch Exposition intakter Organismen und detaillierte Analyse der Funktion und Histopathologie im Zielorgan oder durch In-vitro-Exposition von Zellen, Gewebeschnitten oder ganzen Organen untersucht werden, die für kurze oder lange Zeiträume in Kultur gehalten werden (siehe „Mechanismen der Toxikologie: Einführung und Konzepte“). In einigen Fällen stehen möglicherweise auch Gewebe menschlicher Probanden für Zielorgan-Toxizitätsstudien zur Verfügung, und diese können Gelegenheiten bieten, Annahmen über die artenübergreifende Extrapolation zu validieren. Allerdings muss bedacht werden, dass solche Studien keine Angaben zur relativen Toxikokinetik liefern.

Im Allgemeinen weisen Toxizitätsstudien auf Zielorgane die folgenden gemeinsamen Merkmale auf: detaillierte histopathologische Untersuchung des Zielorgans, einschließlich Post-Mortem-Untersuchung, Gewebegewicht und Untersuchung fixierter Gewebe; biochemische Studien kritischer Wege im Zielorgan, wie z. B. wichtige Enzymsysteme; Funktionsstudien zur Fähigkeit des Organs und der Zellbestandteile, erwartete Stoffwechsel- und andere Funktionen auszuführen; und Analyse von Biomarkern der Exposition und frühen Wirkungen in Zielorganzellen.

Detaillierte Kenntnisse der Zielorganphysiologie, Biochemie und Molekularbiologie können in Zielorganstudien eingebracht werden. Da zum Beispiel die Synthese und Sekretion von Proteinen mit kleinem Molekulargewicht ein wichtiger Aspekt der Nierenfunktion ist, beziehen Nephrotoxizitätsstudien häufig besondere Aufmerksamkeit auf diese Parameter (IPCS 1991). Da die Kommunikation von Zelle zu Zelle ein grundlegender Prozess der Funktion des Nervensystems ist, können Zielorganstudien zur Neurotoxizität detaillierte neurochemische und biophysikalische Messungen der Neurotransmittersynthese, -aufnahme, -speicherung, -freisetzung und -bindung sowie elektrophysiologische Messungen von Membranveränderungen umfassen Potenzial, das mit diesen Ereignissen verbunden ist.

Ein großer Schwerpunkt wird auf die Entwicklung von In-vitro-Methoden für die Zielorgantoxizität gelegt, um die Verwendung ganzer Tiere zu ersetzen oder zu reduzieren. Wesentliche Fortschritte bei diesen Methoden wurden für reproduktionstoxische Stoffe erzielt (Heindel und Chapin 1993).

Zusammenfassend werden Zielorgan-Toxizitätsstudien im Allgemeinen als höherwertiger Test zur Bestimmung der Toxizität durchgeführt. Die Auswahl spezifischer Zielorgane für die weitere Bewertung hängt von den Ergebnissen von Screening-Level-Tests ab, wie z. B. den akuten oder subchronischen Tests, die von der OECD und der Europäischen Union verwendet werden; Einige Zielorgane und Organsysteme können a priori Kandidaten für eine spezielle Untersuchung sein, da Bedenken bestehen, bestimmte Arten von nachteiligen Auswirkungen auf die Gesundheit zu verhindern.

 

Zurück

Dienstag, 01 März 2011 02: 17

Validitätsprobleme im Studiendesign

Das Bedürfnis nach Geltung

Die Epidemiologie zielt darauf ab, das Krankheitserleben in Bevölkerungen zu verstehen. Insbesondere kann es genutzt werden, um Einblicke in die beruflichen Ursachen von Erkrankungen zu erhalten. Dieses Wissen stammt aus Studien, die an Gruppen von Menschen mit einer Krankheit durchgeführt wurden, indem sie mit Menschen ohne diese Krankheit verglichen wurden. Ein weiterer Ansatz besteht darin, zu untersuchen, welche Krankheiten Menschen bekommen, die in bestimmten Berufen mit besonderen Belastungen arbeiten, und diese Krankheitsbilder mit denen von nicht ähnlich exponierten Personen zu vergleichen. Diese Studien liefern Schätzungen des Krankheitsrisikos für bestimmte Expositionen. Damit Informationen aus solchen Studien zur Erstellung von Präventionsprogrammen, zur Anerkennung von Berufskrankheiten und zur angemessenen Entschädigung der von Expositionen betroffenen Arbeitnehmer verwendet werden können, müssen diese Studien valide sein.

Gültigkeit kann als die Fähigkeit einer Studie definiert werden, den wahren Sachverhalt widerzuspiegeln. Eine gültige Studie ist daher eine Studie, die den Zusammenhang (entweder positiv, negativ oder nicht vorhanden) zwischen einer Exposition und einer Krankheit korrekt misst. Sie beschreibt Richtung und Ausmaß eines echten Risikos. Es werden zwei Arten von Validität unterschieden: interne und externe Validität. Interne Validität ist die Fähigkeit einer Studie, das widerzuspiegeln, was wirklich unter den Studienteilnehmern passiert ist; Die externe Validität spiegelt wider, was in der Bevölkerung passieren könnte.

Validität bezieht sich auf die Wahrhaftigkeit einer Messung. Validität ist von der Genauigkeit der Messung zu unterscheiden, die von der Größe der Studie und der Effizienz des Studiendesigns abhängt.

Interne Gültigkeit

Eine Studie gilt als intern valide, wenn sie frei von Verzerrungen ist und somit den bei den Studienteilnehmern bestehenden Zusammenhang zwischen Exposition und Krankheit wirklich widerspiegelt. Ein beobachtetes Krankheitsrisiko im Zusammenhang mit einer Exposition kann zwar aus einem realen Zusammenhang resultieren und daher valide sein, aber es kann auch den Einfluss von Vorurteilen widerspiegeln. Eine Voreingenommenheit wird ein verzerrtes Bild der Realität geben.

Drei Haupttypen von Vorurteilen, auch genannt systematische Fehler, werden normalerweise unterschieden:

  • Auswahlbias
  • Informations- oder Beobachtungsverzerrung
  • verwirrend

 

Sie werden im Folgenden anhand von Beispielen aus dem arbeitsmedizinischen Umfeld kurz vorgestellt.

Selektionsvorspannung

Ein Selektionsbias tritt auf, wenn der Eintritt in die Studie durch die Kenntnis des Expositionsstatus des potenziellen Studienteilnehmers beeinflusst wird. Dieses Problem tritt daher nur dann auf, wenn die Krankheit zum Zeitpunkt (bevor) die Person in die Studie aufgenommen wurde, bereits aufgetreten ist. Im epidemiologischen Umfeld geschieht dies typischerweise in Fall-Kontroll-Studien oder in retrospektiven Kohortenstudien. Dies bedeutet, dass eine Person eher als Fall betrachtet wird, wenn bekannt ist, dass sie exponiert war. Drei Umstände können zu einem solchen Ereignis führen, das auch von der Schwere der Krankheit abhängt.

Selbstselektionsverzerrung

Dies kann vorkommen, wenn Personen, die wissen, dass sie in der Vergangenheit bekannten oder vermuteten schädlichen Produkten ausgesetzt waren, und die überzeugt sind, dass ihre Krankheit das Ergebnis der Exposition ist, einen Arzt wegen Symptomen konsultieren, die andere Personen, die nicht so exponiert waren, möglicherweise ignoriert haben. Dies ist besonders wahrscheinlich bei Krankheiten, die nur wenige auffällige Symptome aufweisen. Ein Beispiel kann ein früher Schwangerschaftsverlust oder eine spontane Abtreibung bei weiblichen Krankenschwestern sein, die mit Arzneimitteln zur Krebsbehandlung umgehen. Diese Frauen sind sich der Fortpflanzungsphysiologie bewusster als die meisten anderen und, da sie sich Sorgen um ihre Fähigkeit machen, Kinder zu bekommen, erkennen oder etikettieren sie möglicherweise eher als spontane Abtreibung, was andere Frauen nur als Verzögerung des Beginns der Menstruation betrachten würden. Ein weiteres Beispiel aus einer retrospektiven Kohortenstudie, zitiert von Rothman (1986), betrifft eine Studie des Centers for Disease Control über Leukämie unter Truppen, die bei einem US-Atomtest in Nevada anwesend waren. Von den auf dem Testgelände anwesenden Truppen wurden 76 % aufgespürt und bildeten die Kohorte. Davon wurden 82 % von den Ermittlern gefunden, aber weitere 18 % kontaktierten die Ermittler selbst, nachdem sie von der Öffentlichkeit über die Studie gehört hatten. Vier Fälle von Leukämie waren unter den 82 % vorhanden, die von CDC verfolgt wurden, und vier Fälle waren unter den selbst überwiesenen 18 % vorhanden. Dies deutet stark darauf hin, dass die Fähigkeit der Ermittler, exponierte Personen zu identifizieren, mit dem Leukämie-Risiko zusammenhängt.

Diagnostische Verzerrung

Dies wird der Fall sein, wenn die Ärzte eine bestimmte Krankheit eher diagnostizieren, wenn sie wissen, was der Patient zuvor ausgesetzt war. Als beispielsweise die meisten Farben bleihaltig waren, war ein Symptom einer Erkrankung der peripheren Nerven, das als periphere Neuritis mit Lähmung bezeichnet wird, auch als „Handgelenkstropfen“ der Maler bekannt. Die Kenntnis des Berufs des Patienten erleichterte bereits im Frühstadium die Diagnose der Erkrankung, während bei Studienteilnehmern ohne bekannte berufliche Bleibelastung die Identifizierung des Erregers deutlich erschwert wäre.

Bias aufgrund der Weigerung, an einer Studie teilzunehmen

Wenn Menschen, ob gesund oder krank, gebeten werden, an einer Studie teilzunehmen, spielen mehrere Faktoren eine Rolle, ob sie zustimmen oder nicht. Die Bereitschaft, unterschiedlich lange Fragebögen zu beantworten, die manchmal nach heiklen Themen fragen, und noch mehr, Blut oder andere biologische Proben abzugeben, kann vom Grad des Eigeninteresses der Person bestimmt werden. Jemand, der sich der früheren möglichen Exposition bewusst ist, ist möglicherweise bereit, dieser Anfrage nachzukommen, in der Hoffnung, dass sie dabei hilft, die Ursache der Krankheit zu finden, während jemand der Meinung ist, dass er nichts Gefährlichem ausgesetzt war, oder der nicht interessiert ist wissen, können die Einladung zur Teilnahme an der Studie ablehnen. Dies kann zu einer Auswahl der Personen führen, die letztendlich Studienteilnehmer sein werden, im Vergleich zu allen, die es hätten sein können.

Informationsverzerrung

Dies wird auch als Beobachtungsverzerrung bezeichnet und betrifft den Krankheitsverlauf in Folgestudien und die Expositionsbeurteilung in Fall-Kontroll-Studien.

Differenzielle Ergebnisbewertung in prospektiven Folgestudien (Kohortenstudien).

Zu Beginn der Studie werden zwei Gruppen definiert: eine exponierte Gruppe und eine nicht exponierte Gruppe. Probleme der diagnostischen Verzerrung entstehen, wenn die Suche nach Fällen zwischen diesen beiden Gruppen unterschiedlich ist. Stellen Sie sich zum Beispiel eine Kohorte von Personen vor, die einer versehentlichen Freisetzung von Dioxin in einer bestimmten Branche ausgesetzt sind. Für die hochexponierte Gruppe wird ein aktives Nachsorgesystem mit regelmäßigen ärztlichen Untersuchungen und biologischem Monitoring eingerichtet, während der Rest der Erwerbsbevölkerung nur routinemäßig betreut wird. Es ist sehr wahrscheinlich, dass in der eng überwachten Gruppe mehr Krankheiten identifiziert werden, was zu einer potenziellen Überschätzung des Risikos führen würde.

Differenzielle Verluste in retrospektiven Kohortenstudien

In retrospektiven Kohortenstudien kann der umgekehrte Mechanismus zu dem im vorhergehenden Absatz beschriebenen auftreten. Die übliche Vorgehensweise bei diesen Studien ist, mit den Akten aller Personen zu beginnen, die in der Vergangenheit in einer bestimmten Branche beschäftigt waren, und Krankheit oder Sterblichkeit nach der Beschäftigung zu bewerten. Leider sind in fast allen Studien die Akten unvollständig, und die Tatsache, dass eine Person vermisst wird, kann entweder mit dem Expositionsstatus oder dem Krankheitsstatus oder mit beidem zusammenhängen. Beispielsweise wurden in einer kürzlich in der chemischen Industrie durchgeführten Studie bei Arbeitern, die aromatischen Aminen ausgesetzt waren, acht Tumore in einer Gruppe von 777 Arbeitern gefunden, die einem zytologischen Screening auf Harntumoren unterzogen worden waren. Insgesamt wurden nur 34 Datensätze als fehlend befunden, was einem Verlust von 4.4 % in der Expositionsbewertungsdatei entspricht, aber bei Blasenkrebsfällen fehlten Expositionsdaten für zwei von acht Fällen oder 25 %. Dies zeigt, dass die Akten von Personen, die zu Fällen wurden, mit größerer Wahrscheinlichkeit verloren gingen als die Akten anderer Mitarbeiter. Dies kann durch häufigere Stellenwechsel innerhalb des Unternehmens (die mit Expositionseffekten verbunden sein können), Kündigung, Entlassung oder reinen Zufall geschehen.

Differenzielle Bewertung der Exposition in Fall-Kontroll-Studien

Bei Fall-Kontroll-Studien ist die Erkrankung bei Studienbeginn bereits aufgetreten und es werden Informationen zu früheren Expositionen abgefragt. Voreingenommenheit kann entweder aus der Einstellung des Interviewers oder des Studienteilnehmers zur Untersuchung resultieren. Die Informationen werden normalerweise von geschulten Interviewern gesammelt, die sich der Hypothese, die der Forschung zugrunde liegt, bewusst sein können oder auch nicht. In einer bevölkerungsbezogenen Fall-Kontroll-Studie zu Blasenkrebs beispielsweise, die in einer hochindustrialisierten Region durchgeführt wurde, ist sich das Studienpersonal möglicherweise der Tatsache bewusst, dass bestimmte Chemikalien, wie beispielsweise aromatische Amine, Risikofaktoren für Blasenkrebs sind. Wenn sie auch wissen, wer die Krankheit entwickelt hat und wer nicht, können sie mit den Teilnehmern, die an Blasenkrebs erkrankt sind, wahrscheinlich eingehendere Interviews führen als mit den Kontrollen. Sie bestehen möglicherweise auf detaillierteren Informationen über frühere Berufe und suchen systematisch nach der Exposition gegenüber aromatischen Aminen, während sie für Kontrollen die Berufe eher routinemäßig erfassen. Die resultierende Vorspannung wird als bekannt Expositionsverdacht voreingenommen.

Auch die Teilnehmer selbst können für eine solche Voreingenommenheit verantwortlich sein. Das nennt man Voreingenommenheit erinnern um es von der Voreingenommenheit des Interviewers zu unterscheiden. Beide haben den Expositionsverdacht als Mechanismus für die Voreingenommenheit. Erkrankte Personen können einen beruflichen Ursprung ihrer Krankheit vermuten und werden daher versuchen, sich so genau wie möglich an alle gefährlichen Stoffe zu erinnern, denen sie möglicherweise ausgesetzt waren. Beim Umgang mit undefinierten Produkten neigen sie möglicherweise dazu, sich an die Namen konkreter Chemikalien zu erinnern, insbesondere wenn ihnen eine Liste verdächtiger Produkte zur Verfügung gestellt wird. Im Gegensatz dazu durchlaufen Kontrollen mit geringerer Wahrscheinlichkeit denselben Denkprozess.

Verwirrend

Confounding liegt vor, wenn der beobachtete Zusammenhang zwischen Exposition und Krankheit teilweise das Ergebnis einer Vermischung der Wirkung der untersuchten Exposition und eines anderen Faktors ist. Nehmen wir zum Beispiel an, dass wir bei Schweißern ein erhöhtes Lungenkrebsrisiko feststellen. Wir sind versucht, sofort zu schließen, dass es einen kausalen Zusammenhang zwischen der Exposition gegenüber Schweißrauch und Lungenkrebs gibt. Wir wissen aber auch, dass Rauchen der mit Abstand wichtigste Risikofaktor für Lungenkrebs ist. Wenn Informationen verfügbar sind, beginnen wir daher damit, den Raucherstatus von Schweißern und anderen Studienteilnehmern zu überprüfen. Wir können feststellen, dass Schweißer eher rauchen als Nicht-Schweißer. In dieser Situation ist bekannt, dass das Rauchen mit Lungenkrebs in Verbindung gebracht wird, und gleichzeitig wurde in unserer Studie festgestellt, dass das Rauchen auch mit dem Beruf des Schweißers in Verbindung gebracht wird. In epidemiologischer Hinsicht bedeutet dies, dass Rauchen, das sowohl mit Lungenkrebs als auch mit Schweißen in Verbindung gebracht wird, den Zusammenhang zwischen Schweißen und Lungenkrebs verfälscht.

Interaktions- oder Effektmodifikation

Im Gegensatz zu allen oben aufgeführten Aspekten, nämlich Selektion, Information und Confounding, die Verzerrungen darstellen, ist Interaktion keine Verzerrung aufgrund von Problemen im Studiendesign oder in der Analyse, sondern spiegelt die Realität und ihre Komplexität wider. Ein Beispiel für dieses Phänomen ist das folgende: Die Belastung durch Radon ist ein Risikofaktor für Lungenkrebs, ebenso wie das Rauchen. Darüber hinaus haben Rauchen und Radonexposition unterschiedliche Auswirkungen auf das Lungenkrebsrisiko, je nachdem, ob sie zusammen oder isoliert wirken. Die meisten Berufsstudien zu diesem Thema wurden unter Untertagebergleuten durchgeführt und haben teilweise widersprüchliche Ergebnisse geliefert. Insgesamt scheint es Argumente für eine Wechselwirkung von Rauchen und Radonexposition bei der Entstehung von Lungenkrebs zu geben. Das bedeutet, dass das Lungenkrebsrisiko durch Radonexposition auch bei Nichtrauchern erhöht wird, aber dass die Risikoerhöhung durch Radon bei Rauchern viel größer ist als bei Nichtrauchern. Epidemiologisch sprechen wir von einer multiplikativen Wirkung. Im Gegensatz zum oben beschriebenen Confounding muss die Interaktion sorgfältig analysiert und in der Analyse beschrieben und nicht einfach kontrolliert werden, da sie das widerspiegelt, was auf biologischer Ebene passiert, und nicht nur eine Folge eines schlechten Studiendesigns ist. Seine Erklärung führt zu einer valideren Interpretation der Ergebnisse einer Studie.

Externe Validität

Dieses Problem kann erst behoben werden, nachdem sichergestellt wurde, dass die interne Gültigkeit gesichert ist. Wenn wir davon überzeugt sind, dass die in der Studie beobachteten Ergebnisse reale Assoziationen widerspiegeln, können wir uns fragen, ob wir diese Ergebnisse auf die größere Population, aus der die Studienteilnehmer selbst gezogen wurden, oder sogar auf andere identische Populationen extrapolieren können oder zumindest sehr ähnlich. Die häufigste Frage ist, ob die für Männer erzielten Ergebnisse auch für Frauen gelten. Studien und insbesondere berufsepidemiologische Untersuchungen werden seit Jahren ausschließlich bei Männern durchgeführt. Studien unter Chemikern, die in den 1960er und 1970er Jahren in den Vereinigten Staaten, dem Vereinigten Königreich und Schweden durchgeführt wurden, ergaben alle ein erhöhtes Risiko für bestimmte Krebsarten – nämlich Leukämie, Lymphome und Bauchspeicheldrüsenkrebs. Aus dem, was wir über die Wirkungen der Exposition gegenüber Lösungsmitteln und einigen anderen Chemikalien wussten, hätten wir damals schon ableiten können, dass die Laborarbeit auch ein krebserzeugendes Risiko für Frauen mit sich bringt. Dies zeigte sich tatsächlich, als Mitte der 1980er Jahre schließlich die erste Studie unter Chemikerinnen veröffentlicht wurde, die ähnliche Ergebnisse wie bei Männern ergab. Es ist erwähnenswert, dass es sich bei anderen gefundenen übermäßigen Krebsarten um Tumore der Brust und der Eierstöcke handelte, die traditionell nur mit endogenen Faktoren oder der Fortpflanzung in Verbindung gebracht wurden, bei denen jedoch neu vermutete Umweltfaktoren wie Pestizide eine Rolle spielen könnten. Zu den berufsbedingten Determinanten von Krebserkrankungen bei Frauen muss noch viel mehr Arbeit geleistet werden.

Strategien für ein valides Studium

Eine vollkommen gültige Studie kann es nie geben, aber es obliegt dem Forscher, so viele Verzerrungen wie möglich zu vermeiden oder zumindest zu minimieren. Dies kann oft am besten in der Phase des Studiendesigns erfolgen, kann aber auch während der Analyse durchgeführt werden.

Studiendesign

Auswahl- und Informationsverzerrung können nur durch das sorgfältige Design einer epidemiologischen Studie und die sorgfältige Umsetzung aller sich daraus ergebenden täglichen Richtlinien, einschließlich der sorgfältigen Beachtung der Qualitätssicherung, für die Durchführung der Studie unter Feldbedingungen vermieden werden. Confounding kann entweder in der Entwurfs- oder in der Analysephase behandelt werden.

Auswahl

Kriterien für die Berücksichtigung eines Teilnehmers als Fall müssen explizit definiert werden. Man kann oder sollte zumindest nicht versuchen, schlecht definierte klinische Zustände zu untersuchen. Eine Möglichkeit zur Minimierung der Auswirkungen, die die Kenntnis der Exposition auf die Krankheitsbewertung haben kann, besteht darin, nur schwere Fälle einzubeziehen, die unabhängig von Informationen zur Krankengeschichte des Patienten diagnostiziert worden wären. Im Bereich Krebs werden Studien oft auf Fälle mit histologischem Nachweis der Erkrankung beschränkt, um den Einschluss von Borderline-Läsionen zu vermeiden. Dies bedeutet auch, dass die untersuchten Gruppen gut definiert sind. Beispielsweise ist in der Krebsepidemiologie wohlbekannt, dass Krebsarten verschiedener histologischer Typen innerhalb eines gegebenen Organs unterschiedliche Risikofaktoren haben können. Bei ausreichender Fallzahl ist es besser, das Adenokarzinom der Lunge vom Plattenepithelkarzinom der Lunge zu trennen. Was auch immer die endgültigen Kriterien für die Aufnahme in die Studie sein mögen, sie sollten immer klar definiert und beschrieben werden. Beispielsweise sollte der genaue Code der Krankheit anhand der Internationalen Klassifikation der Krankheiten (ICD) und bei Krebs auch der Internationalen Klassifikation der Krankheiten – Onkologie (ICD-O) angegeben werden.

Sobald die Kriterien festgelegt sind, sollten Anstrengungen unternommen werden, um die Teilnahme an der Studie zu maximieren. Die Entscheidung, eine Teilnahme abzulehnen, wird kaum zufällig getroffen und führt daher zu Voreingenommenheit. Studien sollten zunächst den Klinikern vorgestellt werden, die die Patienten behandeln. Ihre Zustimmung ist erforderlich, um Patienten anzusprechen, und daher müssen sie davon überzeugt werden, die Studie zu unterstützen. Ein oft überzeugendes Argument ist, dass die Studie im Interesse der öffentlichen Gesundheit ist. In diesem Stadium ist es jedoch besser, die genaue zu bewertende Hypothese nicht zu diskutieren, um eine übermäßige Beeinflussung der beteiligten Kliniker zu vermeiden. Ärzte sollten nicht aufgefordert werden, Nebentätigkeiten zu übernehmen; Es ist einfacher, medizinisches Personal davon zu überzeugen, eine Studie zu unterstützen, wenn von den Prüfärzten Mittel bereitgestellt werden, um alle zusätzlichen Aufgaben durchzuführen, die über die Routineversorgung hinausgehen und durch die Studie erforderlich sind. Interviewer und Datenextraktoren sollten den Krankheitsstatus ihrer Patienten nicht kennen.

Ähnliche Aufmerksamkeit sollte den Informationen geschenkt werden, die den Teilnehmern zur Verfügung gestellt werden. Das Ziel der Studie muss breit und neutral beschrieben werden, aber auch überzeugend und überzeugend sein. Es ist wichtig, dass Fragen der Vertraulichkeit und von Interesse für die öffentliche Gesundheit vollständig verstanden werden, während medizinischer Fachjargon vermieden wird. In den meisten Situationen wird der Einsatz von finanziellen oder anderen Anreizen nicht als angemessen erachtet, obwohl eine Entschädigung für alle Kosten bereitgestellt werden sollte, die einem Teilnehmer möglicherweise entstehen. Nicht zuletzt sollte die allgemeine Bevölkerung über ausreichende wissenschaftliche Kenntnisse verfügen, um die Bedeutung solcher Forschung zu verstehen. Sowohl die Vorteile als auch die Risiken der Teilnahme müssen jedem potenziellen Teilnehmer erklärt werden, wenn er Fragebögen ausfüllen und/oder biologische Proben zur Aufbewahrung und/oder Analyse bereitstellen muss. Es sollte kein Zwang angewendet werden, um eine vorherige und vollständig informierte Zustimmung zu erhalten. Bei Studien, die ausschließlich auf Aufzeichnungen basieren, muss die vorherige Zustimmung der für die Wahrung der Vertraulichkeit dieser Aufzeichnungen zuständigen Stellen eingeholt werden. In diesen Fällen kann in der Regel auf die Zustimmung der einzelnen Teilnehmer verzichtet werden. Stattdessen reicht die Zustimmung von Gewerkschafts- und Regierungsbeamten aus. Epidemiologische Untersuchungen bedrohen nicht das Privatleben des Einzelnen, sondern sind ein potenzielles Hilfsmittel zur Verbesserung der Gesundheit der Bevölkerung. Vor der Durchführung einer Studie ist die Zustimmung eines institutionellen Prüfungsausschusses (oder Ethikprüfungsausschusses) erforderlich, und vieles von dem, was oben gesagt wurde, wird von ihm für seine Überprüfung erwartet.

Informationen

In prospektiven Folgestudien müssen die Mittel zur Beurteilung des Krankheits- oder Mortalitätsstatus für exponierte und nicht exponierte Teilnehmer identisch sein. Insbesondere sollte nicht auf unterschiedliche Quellen zurückgegriffen werden, wie z. B. nur die Abfrage in einem zentralen Mortalitätsregister für nicht exponierte Teilnehmer und die Nutzung einer intensiven aktiven Überwachung für exponierte Teilnehmer. Ebenso muss die Todesursache auf streng vergleichbare Weise ermittelt werden. Das bedeutet, wenn ein System verwendet wird, um Zugang zu offiziellen Dokumenten für die nicht exponierte Bevölkerung, die oft die allgemeine Bevölkerung ist, zu erhalten, sollte man niemals planen, noch genauere Informationen durch Krankenakten oder Interviews über die Teilnehmer selbst oder ihre Familien zu erhalten die exponierte Untergruppe.

In retrospektiven Kohortenstudien sollten Anstrengungen unternommen werden, um festzustellen, wie genau die untersuchte Population mit der interessierenden Population verglichen wird. Man sollte sich vor möglichen unterschiedlichen Verlusten in exponierten und nicht exponierten Gruppen hüten, indem man verschiedene Quellen zur Zusammensetzung der Bevölkerung verwendet. Beispielsweise kann es sinnvoll sein, Gehaltslisten mit Gewerkschaftsmitgliedslisten oder anderen Berufsverzeichnissen zu vergleichen. Diskrepanzen müssen ausgeglichen werden, und das für die Studie angenommene Protokoll muss genau befolgt werden.

In Fall-Kontroll-Studien gibt es andere Optionen, um Verzerrungen zu vermeiden. Interviewer, Studienpersonal und Studienteilnehmer müssen sich der genauen zu untersuchenden Hypothese nicht bewusst sein. Wenn sie die getestete Assoziation nicht kennen, ist es weniger wahrscheinlich, dass sie versuchen, die erwartete Antwort zu geben. Das Studienpersonal über die Forschungshypothese im Dunkeln zu lassen, ist tatsächlich oft sehr unpraktisch. Der Interviewer kennt fast immer die Expositionen mit dem größten potenziellen Interesse sowie wer ein Fall und wer eine Kontrolle ist. Wir müssen uns daher auf ihre Ehrlichkeit und auch auf ihre Ausbildung in Grundlagenforschungsmethodik verlassen, die Teil ihres beruflichen Hintergrunds sein sollte; Objektivität ist das Markenzeichen auf allen Stufen der Wissenschaft.

Es ist einfacher, die Studienteilnehmer nicht über den genauen Forschungsgegenstand zu informieren. Gute, grundlegende Erläuterungen zur Notwendigkeit der Erhebung von Daten für ein besseres Verständnis von Gesundheit und Krankheit sind in der Regel ausreichend und genügen den Anforderungen einer Ethikprüfung.

Verwirrend

Confounding ist die einzige Verzerrung, die entweder in der Phase des Studiendesigns oder, sofern angemessene Informationen verfügbar sind, in der Analysephase behandelt werden kann. Wenn zum Beispiel das Alter als potenzieller Confounder der interessierenden Assoziation angesehen wird, weil das Alter mit dem Krankheitsrisiko (d. h. Krebs wird im höheren Alter häufiger) und auch mit der Exposition (Expositionsbedingungen variieren mit dem Alter oder mit altersbedingten Faktoren wie Qualifikation, berufliche Position und Beschäftigungsdauer) gibt es mehrere Lösungsansätze. Am einfachsten ist es, die Studie auf einen bestimmten Altersbereich zu begrenzen – nehmen Sie beispielsweise nur kaukasische Männer im Alter von 40 bis 50 Jahren auf. Dies liefert Elemente für eine einfache Analyse, hat aber auch den Nachteil, dass die Anwendung der Ergebnisse auf einen einzelnen beschränkt wird Geschlecht Alter/Rassengruppe. Eine andere Lösung ist das Matching nach Alter. Das bedeutet, dass für jeden Fall ein gleichaltriger Referent benötigt wird. Dies ist eine attraktive Idee, aber man muss die mögliche Schwierigkeit berücksichtigen, diese Anforderung zu erfüllen, wenn die Anzahl der passenden Faktoren zunimmt. Darüber hinaus wird es nach der Zuordnung eines Faktors unmöglich, seine Rolle beim Auftreten von Krankheiten zu bewerten. Die letzte Lösung besteht darin, genügend Informationen über potenzielle Confounder in der Studiendatenbank zu haben, um sie in der Analyse zu überprüfen. Dies kann entweder durch eine einfache stratifizierte Analyse oder mit ausgefeilteren Tools wie der multivariaten Analyse erfolgen. Es sollte jedoch daran erinnert werden, dass eine Analyse niemals in der Lage sein wird, eine schlecht konzipierte oder durchgeführte Studie zu kompensieren.

Fazit

Das Potenzial für Verzerrungen in der epidemiologischen Forschung ist seit langem bekannt. Dies war kein allzu großes Problem, wenn die untersuchten Assoziationen stark waren (wie dies bei Rauchen und Lungenkrebs der Fall ist) und daher einige Ungenauigkeiten kein allzu schwerwiegendes Problem verursachten. Jetzt, da es an der Zeit ist, schwächere Risikofaktoren zu bewerten, wird der Bedarf an besseren Instrumenten von größter Bedeutung. Dazu gehört die Notwendigkeit exzellenter Studiendesigns und die Möglichkeit, die Vorteile verschiedener traditioneller Designs wie Fall-Kontroll- oder Kohortenstudien mit innovativeren Ansätzen wie in einer Kohorte verschachtelten Fall-Kontroll-Studien zu kombinieren. Außerdem kann die Verwendung von Biomarkern die Möglichkeit bieten, genauere Einschätzungen aktueller und möglicherweise früherer Expositionen sowie für die frühen Krankheitsstadien zu erhalten.

 

Zurück

Dienstag, 08 März 2011 21: 40

Müdigkeit und Erholung

Ermüdung und Erholung sind periodische Prozesse in jedem lebenden Organismus. Fatigue kann als ein Zustand beschrieben werden, der durch ein Ermüdungsgefühl verbunden mit einer Verringerung oder ungewollten Schwankung der Leistungsfähigkeit gekennzeichnet ist (Rohmert 1973).

Nicht alle Funktionen des menschlichen Organismus ermüden durch den Gebrauch. Auch im Schlaf atmen wir zum Beispiel und unser Herz pumpt ohne Pause. Offensichtlich sind die Grundfunktionen Atmung und Herztätigkeit lebenslang ohne Ermüdung und ohne Erholungspausen möglich.

Andererseits stellen wir nach längerer schwerer Arbeit fest, dass die Kapazität nachlässt – was wir nennen Müdigkeit. Dies gilt nicht nur für die Muskelaktivität. Auch die Sinnesorgane oder die Nervenzentren ermüden. Es ist jedoch das Ziel jeder Zelle, die durch ihre Aktivität verlorene Kapazität auszugleichen, ein Prozess, den wir nennen Erholung.

Stress, Belastung, Ermüdung und Erholung

Die Begriffe Ermüdung und Erholung bei der menschlichen Arbeit sind eng verwandt mit den ergonomischen Begriffen Belastung und Belastung (Rohmert 1984) (Abbildung 1).

Abbildung 1. Stress, Belastung und Ermüdung

ERG150F1

Stress bedeutet die Summe aller Arbeitsparameter im Arbeitssystem, die den Menschen bei der Arbeit beeinflussen, die hauptsächlich über das Rezeptorsystem wahrgenommen oder empfunden werden oder die das Effektorsystem beanspruchen. Die Belastungsparameter ergeben sich aus der Arbeitsaufgabe (muskuläre Arbeit, nichtmuskuläre Arbeit – aufgabenorientierte Dimensionen und Faktoren) und aus den physikalischen, chemischen und sozialen Bedingungen, unter denen die Arbeit zu verrichten ist (Lärm, Klima, Beleuchtung, Vibration). , Schichtarbeit etc. – situationsbezogene Dimensionen und Faktoren).

Die Intensität/Schwierigkeit, die Dauer und die Zusammensetzung (dh die gleichzeitige und sukzessive Verteilung dieser spezifischen Anforderungen) der Belastungsfaktoren ergibt eine kombinierte Belastung, die alle exogenen Wirkungen eines Arbeitssystems auf den arbeitenden Menschen ausüben. Diese kombinierte Belastung kann je nach Verhalten der arbeitenden Person aktiv bewältigt oder passiv hingenommen werden. Der aktive Fall beinhaltet Aktivitäten, die auf die Effizienz des Arbeitssystems gerichtet sind, während der passive Fall Reaktionen hervorruft (freiwillig oder unfreiwillig), die hauptsächlich mit der Minimierung von Stress verbunden sind. Das Verhältnis von Belastung und Aktivität wird entscheidend von den individuellen Eigenschaften und Bedürfnissen der arbeitenden Person beeinflusst. Haupteinflussfaktoren sind die leistungsbestimmenden Faktoren der Motivation und Konzentration sowie die der Disposition, die als Fähigkeiten und Fertigkeiten bezeichnet werden können.

Die verhaltensrelevanten Belastungen, die sich bei bestimmten Tätigkeiten manifestieren, verursachen individuell unterschiedliche Belastungen. Die Belastungen können durch die Reaktion physiologischer oder biochemischer Indikatoren (z. B. Erhöhung der Herzfrequenz) angezeigt oder wahrgenommen werden. Damit sind die Belastungen anfällig für eine „psycho-physische Skalierung“, die das Belastungserleben der arbeitenden Person abschätzt. In einem verhaltensorientierten Ansatz kann das Vorliegen einer Belastung auch aus einer Aktivitätsanalyse abgeleitet werden. Die Intensität, mit der Belastungsindikatoren (physiologisch-biochemische, behavioristische oder psychophysische) reagieren, hängt von der Intensität, Dauer und Kombination von Belastungsfaktoren sowie von den individuellen Eigenschaften, Fähigkeiten, Fertigkeiten und Bedürfnissen der arbeitenden Person ab.

Trotz ständiger Belastungen können sich die aus den Tätigkeitsfeldern, Leistungen und Belastungen abgeleiteten Kennzahlen im Laufe der Zeit verändern (zeitlicher Effekt). Solche zeitlichen Schwankungen sind als Anpassungsprozesse der organischen Systeme zu interpretieren. Die positiven Wirkungen bewirken eine Verringerung der Belastung/Verbesserung der Aktivität oder Leistungsfähigkeit (z. B. durch Training). Im negativen Fall führen sie jedoch zu einer erhöhten Belastung/reduzierten Aktivität oder Leistungsfähigkeit (z. B. Müdigkeit, Monotonie).

Die positiven Effekte können zum Tragen kommen, wenn die vorhandenen Fähigkeiten und Fertigkeiten im Arbeitsprozess selbst verbessert werden, z. B. beim leichten Überschreiten der Trainingsreizschwelle. Die negativen Auswirkungen treten wahrscheinlich auf, wenn im Laufe des Arbeitsprozesses sogenannte Belastungsgrenzen (Rohmert 1984) überschritten werden. Diese Ermüdung führt zu einer Verringerung der physiologischen und psychischen Funktionen, die durch Erholung kompensiert werden können.

Zur Wiederherstellung der ursprünglichen Leistungsfähigkeit sind Ruhepausen oder zumindest Zeiten geringerer Belastung notwendig (Luczak 1993).

Wenn der Anpassungsprozess über definierte Schwellen hinausgeführt wird, kann das eingesetzte organische System geschädigt werden, so dass es zu einem teilweisen oder vollständigen Ausfall seiner Funktionen kommt. Eine irreversible Funktionseinschränkung kann auftreten, wenn die Belastung viel zu hoch ist (Akutschaden) oder wenn die Erholung längere Zeit nicht möglich ist (chronischer Schaden). Ein typisches Beispiel für einen solchen Schaden ist der lärmbedingte Hörverlust.

Modelle der Ermüdung

Ermüdung kann je nach Belastungsform und Belastungskombination vielfältig sein und lässt sich noch nicht allgemein definieren. Die biologischen Ermüdungsvorgänge sind im Allgemeinen nicht direkt messbar, so dass sich die Definitionen hauptsächlich an den Ermüdungssymptomen orientieren. Diese Ermüdungserscheinungen lassen sich beispielsweise in die folgenden drei Kategorien einteilen.

    1. Physiologische Symptome: Müdigkeit wird als Abnahme der Funktionen von Organen oder des gesamten Organismus interpretiert. Es kommt zu physiologischen Reaktionen, zB zu einer Erhöhung der Herzfrequenz oder der elektrischen Muskelaktivität (Laurig 1970).
    2. Verhaltenssymptome: Ermüdung wird hauptsächlich als Abnahme der Leistungsparameter interpretiert. Beispiele sind zunehmende Fehler beim Lösen bestimmter Aufgaben oder eine zunehmende Variabilität der Leistung.
    3. Psycho-körperliche Symptome: Ermüdung wird je nach Intensität, Dauer und Zusammensetzung der Belastungsfaktoren als Zunahme des Anstrengungsgefühls und Verschlechterung des Empfindungsvermögens interpretiert.

         

        Im Prozess der Erschöpfung können alle drei Symptome eine Rolle spielen, sie können jedoch zu unterschiedlichen Zeitpunkten auftreten.

        Physiologische Reaktionen in organischen Systemen, insbesondere denen, die an der Arbeit beteiligt sind, können zuerst auftreten. Später kann das Anstrengungsgefühl beeinträchtigt werden. Leistungsveränderungen äußern sich im Allgemeinen in einer abnehmenden Regelmäßigkeit der Arbeit oder in einer zunehmenden Fehlermenge, wobei der Mittelwert der Leistung noch nicht betroffen sein darf. Im Gegenteil, der Berufstätige kann bei entsprechender Motivation sogar versuchen, die Leistungsfähigkeit willentlich aufrechtzuerhalten. Der nächste Schritt kann eine deutliche Leistungsminderung bis hin zum Leistungseinbruch sein. Die physiologischen Symptome können zu einem Zusammenbruch des Organismus einschließlich Veränderungen der Persönlichkeitsstruktur und zu Erschöpfung führen. Der Prozess der Ermüdung wird in der Theorie der sukzessiven Destabilisierung erklärt (Luczak 1983).

        Der Haupttrend von Ermüdung und Erholung ist in Abbildung 2 dargestellt.

        Abbildung 2. Haupttrend von Ermüdung und Erholung

        ERG150F2

        Prognose von Ermüdung und Erholung

        Auf dem Gebiet der Ergonomie besteht ein besonderes Interesse daran, die Ermüdung in Abhängigkeit von Intensität, Dauer und Zusammensetzung von Belastungsfaktoren vorherzusagen und die notwendige Erholungszeit zu bestimmen. Tabelle 1 zeigt diese unterschiedlichen Aktivitätsniveaus und Betrachtungszeiten sowie mögliche Gründe für Ermüdung und unterschiedliche Erholungsmöglichkeiten.

        Tabelle 1. Ermüdung und Erholung in Abhängigkeit vom Aktivitätsniveau

        Aktivitätsgrad

        Zeitraum

        Müdigkeit ab

        Erholung durch

        Arbeitsleben

        Jahrzehntelange

        Überanstrengung für
        Jahrzehnte

        Ruhestand

        Phasen des Berufslebens

        Jahre

        Überanstrengung für
        Jahr

        Feiertage

        Folgen von
        Arbeitsschichten

        Monate/Wochen

        Ungünstige Verschiebung
        Regime

        Wochenende, frei
        Tage

        Eine Arbeitsschicht

        Eines Tages

        Stress oben
        Grenzen der Ausdauer

        Freizeit, Ruhe
        Zeiträume

        Aufträge

        Stunden

        Stress oben
        Grenzen der Ausdauer

        Ruhezeit

        Teil einer Aufgabe

        Minuten

        Stress oben
        Grenzen der Ausdauer

        Stresswechsel
        Faktoren

         

        Bei der ergonomischen Analyse von Belastung und Ermüdung zur Bestimmung der notwendigen Erholungszeit ist die Betrachtung der Dauer eines Arbeitstages am wichtigsten. Die Methoden solcher Analysen beginnen mit der Bestimmung der verschiedenen Belastungsfaktoren als Funktion der Zeit (Laurig 1992) (Abbildung 3).

        Abbildung 3. Stress als Funktion der Zeit

        ERG150F4

        Die Belastungsfaktoren werden aus den konkreten Arbeitsinhalten und den Arbeitsbedingungen bestimmt. Arbeitsinhalte können die Krafterzeugung (z. B. beim Handhaben von Lasten), die Koordination motorischer und sensorischer Funktionen (z. B. beim Montieren oder Kranfahren), das Umsetzen von Informationen in Reaktion (z. B. beim Steuern), die Transformationen von Eingaben sein zur Ausgabe von Informationen (z. B. beim Programmieren, Übersetzen) und zum Produzieren von Informationen (z. B. beim Entwerfen, Problemlösen). Die Arbeitsbedingungen beinhalten physikalische (z. B. Lärm, Vibration, Hitze), chemische (chemische Arbeitsstoffe) und soziale (z. B. Kollegen, Schichtarbeit) Aspekte.

        Im einfachsten Fall gibt es einen einzigen wichtigen Stressfaktor, während die anderen vernachlässigt werden können. In diesen Fällen, insbesondere wenn die Belastungsfaktoren aus muskulärer Arbeit resultieren, ist es oft möglich, die notwendigen Ruhezeiten zu berechnen, da die Grundbegriffe bekannt sind.

        Beispielsweise hängt die ausreichende Ruhezugabe bei statischer Muskelarbeit von der Kraft und Dauer der Muskelkontraktion ab wie in einer durch Multiplikation verknüpften Exponentialfunktion nach der Formel:

        mit

        RA = Ruhegeld in Prozent von t

        t = Kontraktionsdauer (Einwirkzeit) in Minuten

        T = maximal mögliche Kontraktionsdauer in Minuten

        f = die für die statische Kraft benötigte Kraft und

        F = maximale Kraft.

        Der Zusammenhang zwischen Kraft, Haltezeit und Ruhezuschlägen ist in Bild 4 dargestellt.

        Abbildung 4. Prozentuale Restzugaben für verschiedene Kombinationen von Haltekräften und Zeit

        ERG150F5

        Ähnliche Gesetze existieren für schwere dynamische Muskelarbeit (Rohmert 1962), aktive leichte Muskelarbeit (Laurig 1974) oder andere industrielle Muskelarbeit (Schmidtke 1971). Seltener findet man vergleichbare Gesetze für nichtkörperliche Arbeit, zB für das Rechnen (Schmidtke 1965). Einen Überblick über bestehende Methoden zur Bestimmung der Ruhezulagen für überwiegend isolierte Muskel- und Nicht-Muskelarbeit geben Laurig (1981) und Luczak (1982).

         

         

         

         

         

        Schwieriger ist die Situation, wenn eine Kombination verschiedener Belastungsfaktoren vorliegt, wie in Abbildung 5 dargestellt, die gleichzeitig auf den arbeitenden Menschen einwirken (Laurig 1992).

        Abbildung 5. Die Kombination zweier Stressfaktoren    

        ERG150F6

        So kann beispielsweise die Kombination zweier Belastungsfaktoren je nach Kombinationsgesetz zu unterschiedlichen Dehnungsreaktionen führen. Die kombinierte Wirkung verschiedener Stressfaktoren kann indifferent, kompensatorisch oder kumulativ sein.

        Bei indifferenten Kombinationsgesetzen wirken die unterschiedlichen Stressfaktoren auf unterschiedliche Teilsysteme des Organismus. Jedes dieser Subsysteme kann die Dehnung kompensieren, ohne dass die Dehnung in ein gemeinsames Subsystem eingespeist wird. Die Gesamtdehnung hängt vom höchsten Stressfaktor ab, und somit werden keine Superpositionsgesetze benötigt.

        Eine kompensatorische Wirkung liegt vor, wenn die Kombination verschiedener Belastungsfaktoren zu einer geringeren Belastung führt als jeder Belastungsfaktor allein. Durch die Kombination von Muskelarbeit und niedrigen Temperaturen kann die Gesamtbelastung reduziert werden, da bei niedrigen Temperaturen die durch die Muskelarbeit entstehende Wärme aus dem Körper abgeführt werden kann.

        Ein kumulativer Effekt entsteht, wenn sich mehrere Stressfaktoren überlagern, also einen physiologischen „Flaschenhals“ passieren müssen. Ein Beispiel ist die Kombination von Muskelarbeit und Hitzebelastung. Beide Stressfaktoren wirken als gemeinsamer Flaschenhals auf das Kreislaufsystem mit resultierender kumulativer Belastung.

        Mögliche Kombinationseffekte zwischen Muskelarbeit und körperlichen Bedingungen sind bei Bruder (1993) beschrieben (siehe Tabelle 2).

        Tabelle 2. Regeln der Kombinationswirkung zweier Stressfaktoren auf die Dehnung

         

        Kälte

        Vibration

        Beleuchtung

        Lärm

        Schwere dynamische Arbeit

        -

        +

        0

        0

        Aktive leichte Muskelarbeit

        +

        +

        0

        0

        Statische Muskelarbeit

        +

        +

        0

        0

        0 gleichgültiger Effekt; + kumulativer Effekt; – Ausgleichswirkung.

        Quelle: Adaptiert von Bruder 1993.

        Für den in der Praxis üblichen Fall der Kombination von mehr als zwei Belastungsfaktoren liegen nur begrenzte wissenschaftliche Erkenntnisse vor. Gleiches gilt für die sukzessive Kombination von Belastungsfaktoren (dh die Belastungswirkung verschiedener Belastungsfaktoren, die nacheinander auf den Arbeitnehmer einwirken). Für solche Fälle wird in der Praxis die notwendige Erholungszeit bestimmt, indem physiologische oder psychologische Parameter gemessen und als integrierende Werte verwendet werden.

         

        Zurück

        Dienstag, 01 März 2011 02: 20

        Einfluss zufälliger Messfehler

        Fehler bei der Expositionsmessung können je nach Verteilung der Fehler unterschiedliche Auswirkungen auf die untersuchte Expositions-Krankheits-Beziehung haben. Wenn eine epidemiologische Studie blind durchgeführt wurde (dh Messungen wurden ohne Kenntnis des Krankheits- oder Gesundheitszustands der Studienteilnehmer durchgeführt), erwarten wir, dass der Messfehler gleichmäßig über die Schichten des Krankheits- oder Gesundheitszustands verteilt wird.

        Tabelle 1 zeigt ein Beispiel: Angenommen, wir rekrutieren eine Kohorte von Personen, die bei der Arbeit einem Giftstoff ausgesetzt sind, um eine häufige Krankheit zu untersuchen. Den Expositionsstatus ermitteln wir erst bei der Rekrutierung (T0) und nicht zu weiteren Zeitpunkten der Nachbeobachtung. Nehmen wir jedoch an, dass eine Reihe von Personen tatsächlich ihren Expositionsstatus im folgenden Jahr ändern: Zum Zeitpunkt T1, sind 250 der ursprünglich 1,200 exponierten Personen nicht mehr exponiert, während 150 der ursprünglich 750 nicht exponierten Personen begonnen haben, dem Giftstoff ausgesetzt zu sein. Also zum Zeitpunkt T1, 1,100 Personen sind exponiert und 850 nicht exponiert. Infolgedessen haben wir eine „Fehlklassifizierung“ der Exposition basierend auf unserer anfänglichen Messung des Expositionsstatus zum Zeitpunkt T0. Diese Personen werden dann nach 20 Jahren (zum Zeitpunkt T2) und das kumulative Krankheitsrisiko bewertet. (Im Beispiel wird davon ausgegangen, dass nur eine Exposition von mehr als einem Jahr Anlass zur Sorge gibt.)


        Tabelle 1. Hypothetische Kohorte von 1950 Personen (exponiert und nicht exponiert bei der Arbeit), rekrutiert zum Zeitpunkt T0 und dessen Krankheitsstatus zum Zeitpunkt T festgestellt wird2

        Uhrzeit

         

        T0

        T1

        T2

        Exponierte Arbeiter 1200 250 Beenden der Exposition 1100 (1200-250+150)

        Krankheitsfälle zum Zeitpunkt T2 = 220 unter exponierten Arbeitern

        Nicht exponierte Arbeiter 750 150 Beginn der Exposition 850 (750-150+250)

        Krankheitsfälle zum Zeitpunkt T2 = 85 bei nicht exponierten Arbeitern

        Das wahres Risiko der Krankheit zum Zeitpunkt T2 beträgt 20 % bei exponierten Arbeitnehmern (220/1100),
        und 10 % bei nicht exponierten Arbeitnehmern (85/850) (Risikoverhältnis = 2.0).

        Geschätztes Risiko bei T2 der Krankheit unter denen, die als T. exponiert eingestuft wurden0: 20 %
        (dh wahres Risiko bei den Exponierten) ´ 950 (dh 1200-250) + 10 %
        (dh wahres Risiko bei Nichtexposition) ´ 250 = (190+25)/1200 = 17.9 %

        Geschätztes Risiko bei T2 der Krankheit unter denen, die als nicht exponiert eingestuft sind
        T0: 20 % (dh wahres Risiko bei den Exponierten) × 150 +10 %
        (d. h. wahres Risiko ohne Exposition) × 600 (d. h. 750-150) = (30+60)/750 = 12 %

        Geschätztes Risikoverhältnis = 17.9 % / 12 % = 1.49


        Die Fehlklassifizierung hängt in diesem Beispiel eher vom Studiendesign und den Merkmalen der Bevölkerung ab als von technischen Beschränkungen der Expositionsmessung. Die Fehlklassifizierung bewirkt, dass das „wahre“ Verhältnis von 2.0 zwischen dem kumulativen Risiko bei exponierten Personen und nicht exponierten Personen zu einem „beobachteten“ Verhältnis von 1.49 wird (Tabelle 1). Diese Unterschätzung des Risikoverhältnisses ergibt sich aus einer „Verwischung“ der Beziehung zwischen Exposition und Krankheit, die auftritt, wenn die Fehlklassifizierung der Exposition, wie in diesem Fall, gleichmäßig nach Krankheit oder Gesundheitszustand verteilt wird (d. h. die Expositionsmessung ist nicht davon beeinflusst, ob die Person an der von uns untersuchten Krankheit litt oder nicht).

        Im Gegensatz dazu kann es entweder zu einer Unter- oder Überschätzung des Zusammenhangs von Interesse kommen, wenn die Fehlklassifizierung der Exposition nicht gleichmäßig über das Ergebnis von Interesse verteilt ist. In dem Beispiel haben wir vielleicht vorspannen, und nicht nur eine Verwischung des ätiologischen Zusammenhangs, wenn die Einstufung der Exposition von der Krankheit oder dem Gesundheitszustand der Arbeitnehmer abhängt. Dies könnte beispielsweise eintreten, wenn wir beschließen, biologische Proben von einer Gruppe exponierter Arbeiter und von einer Gruppe nicht exponierter Arbeiter zu sammeln, um frühzeitige Veränderungen im Zusammenhang mit der Exposition bei der Arbeit zu erkennen. Proben von exponierten Arbeitern könnten dann genauer analysiert werden als Proben von nicht exponierten; wissenschaftliche Neugier könnte den Forscher dazu veranlassen, zusätzliche Biomarker bei den exponierten Personen zu messen (einschließlich z. B. DNA-Addukte in Lymphozyten oder Urinmarker für oxidative DNA-Schäden), in der Annahme, dass diese Personen wissenschaftlich „interessanter“ sind. Dies ist eine weit verbreitete Einstellung, die jedoch zu ernsthaften Vorurteilen führen kann.

         

        Zurück

        Mittwoch, März 02 2011 03: 15

        Statistische Methoden

        Über die Rolle der Statistik in der epidemiologischen Forschung zu kausalen Zusammenhängen wird viel diskutiert. In der Epidemiologie ist Statistik in erster Linie eine Sammlung von Methoden zur Bewertung von Daten auf der Grundlage von menschlichen (und auch tierischen) Populationen. Statistik ist insbesondere eine Technik zur Quantifizierung und Messung unsicherer Phänomene. Alle wissenschaftlichen Untersuchungen, die sich mit nichtdeterministischen, variablen Aspekten der Realität befassen, könnten von der statistischen Methodik profitieren. In der Epidemiologie ist Variabilität der Beobachtungseinheit inhärent – ​​eine Person ist keine deterministische Einheit. Während experimentelle Designs dahingehend verbessert werden würden, dass sie die Annahmen der Statistik in Bezug auf zufällige Variationen besser erfüllen, ist dieser Ansatz aus ethischen und praktischen Gründen nicht allzu verbreitet. Stattdessen beschäftigt sich die Epidemiologie mit Beobachtungsforschung, die sowohl zufällige als auch andere Quellen der Variabilität mit sich bringt.

        Die statistische Theorie befasst sich damit, wie unstrukturierte Variabilität in den Daten kontrolliert werden kann, um gültige Schlussfolgerungen aus empirischen Beobachtungen zu ziehen. In Ermangelung einer Erklärung für das variable Verhalten des untersuchten Phänomens nimmt die Statistik dies an zufällig– das heißt, nicht-systematische Abweichungen von einem durchschnittlichen Naturzustand (siehe Greenland 1990 für eine Kritik dieser Annahmen).

        Wissenschaft stützt sich auf Empirie Beweis um zu zeigen, ob seine theoretischen Modelle von Naturereignissen Gültigkeit haben. Tatsächlich bestimmen die Methoden der statistischen Theorie, inwieweit Beobachtungen in der realen Welt mit der Sicht der Wissenschaftler auf ein Phänomen in mathematischer Modellform übereinstimmen. Statistische Methoden, die auf Mathematik basieren, müssen daher sorgfältig ausgewählt werden; Es gibt viele Beispiele zum Thema „Wie man mit Statistiken lügt“. Epidemiologen sollten sich daher der Angemessenheit der Techniken bewusst sein, die sie anwenden, um das Krankheitsrisiko zu messen. Insbesondere bei der Interpretation sowohl statistisch signifikanter als auch statistisch nicht signifikanter Ergebnisse ist große Sorgfalt geboten.

        Die erste Bedeutung des Wortes Statistiken bezieht sich auf eine beliebige zusammenfassende Größe, die anhand einer Reihe von Werten berechnet wird. Beschreibende Indizes oder Statistiken wie der arithmetische Durchschnitt, der Median oder der Modus werden häufig verwendet, um die Informationen in einer Reihe von Beobachtungen zusammenzufassen. In der Vergangenheit wurden diese zusammenfassenden Deskriptoren von Staaten für Verwaltungszwecke verwendet und daher benannt Statistiken. In der Epidemiologie leiten sich häufig verwendete Statistiken aus Vergleichen ab, die der Natur der Epidemiologie innewohnen, die Fragen stellt wie: „Ist eine Bevölkerung einem größeren Krankheitsrisiko ausgesetzt als eine andere?“ Bei solchen Vergleichen ist das relative Risiko ein beliebtes Maß für die Stärke des Zusammenhangs zwischen einem individuellen Merkmal und der Wahrscheinlichkeit zu erkranken und wird am häufigsten in der ätiologischen Forschung verwendet; Das zurechenbare Risiko ist auch ein Maß für den Zusammenhang zwischen individuellen Merkmalen und dem Auftreten von Krankheiten, betont jedoch den Gewinn in Bezug auf die Anzahl der Fälle, die durch eine Intervention erspart bleiben, die den betreffenden Faktor beseitigt – es wird hauptsächlich in der öffentlichen Gesundheit und Präventivmedizin angewendet.

        Die zweite Bedeutung des Wortes Statistiken bezieht sich auf die Sammlung von Techniken und die zugrunde liegende Theorie der statistischen Inferenz. Dies ist eine besondere Form der induktiven Logik, die die Regeln für das Erhalten einer gültigen Verallgemeinerung aus einem bestimmten Satz empirischer Beobachtungen spezifiziert. Diese Verallgemeinerung wäre gültig, sofern einige Annahmen erfüllt sind. Dies ist die zweite Art und Weise, wie uns ein ungebildeter Gebrauch von Statistiken täuschen kann: In der Beobachtungsepidemiologie ist es sehr schwierig, sich der Annahmen sicher zu sein, die von statistischen Techniken impliziert werden. Daher sollten Sensitivitätsanalysen und robuste Schätzer Begleiter jeder korrekt durchgeführten Datenanalyse sein. Abschließende Schlussfolgerungen sollten auch auf dem Gesamtwissen beruhen und sich nicht ausschließlich auf die Ergebnisse statistischer Hypothesentests stützen.

        Definitionen

        A statistische Einheit ist das Element, an dem die empirischen Beobachtungen gemacht werden. Das kann eine Person, eine biologische Probe oder ein zu analysierendes Stück Rohmaterial sein. Normalerweise werden die statistischen Einheiten vom Forscher unabhängig ausgewählt, aber manchmal können komplexere Designs erstellt werden. Beispielsweise werden in Längsschnittstudien eine Reihe von Bestimmungen über eine Sammlung von Personen im Laufe der Zeit vorgenommen; Die statistischen Einheiten in dieser Studie sind die Menge von Bestimmungen, die nicht unabhängig sind, sondern durch ihre jeweiligen Verbindungen zu jeder untersuchten Person strukturiert sind. Der Mangel an Unabhängigkeit oder Korrelation zwischen statistischen Einheiten verdient besondere Aufmerksamkeit bei der statistischen Analyse.

        A Variable ist ein einzelnes Merkmal, das an einer bestimmten statistischen Einheit gemessen wird. Es sollte mit a kontrastiert werden konstante, ein festes individuelles Merkmal – zum Beispiel sind in einer Studie über Menschen Kopf oder Brust eine Konstante, während das Geschlecht eines einzelnen Studienteilnehmers eine Variable ist.

        Variablen werden mit verschiedenen ausgewertet Messskalen. Die erste Unterscheidung ist zwischen qualitativen und quantitativen Skalen. Qualitative Variablen bieten unterschiedliche Modalitäten or Kategorien. Wenn jede Modalität nicht in Relation zu anderen eingestuft oder geordnet werden kann – zum Beispiel Haarfarbe oder Geschlechtsmodalitäten – bezeichnen wir die Variable als nominal. Wenn die Kategorien geordnet werden können – wie der Schweregrad einer Krankheit – wird die Variable aufgerufen Ordinal-. Wenn eine Variable aus einem numerischen Wert besteht, sagen wir, dass die Skala quantitativ ist. EIN diskret Skala bedeutet, dass die Variable nur einige bestimmte Werte annehmen kann – zum Beispiel ganzzahlige Werte für die Anzahl der Krankheitsfälle. EIN kontinuierlich Skala wird für diejenigen Maßnahmen verwendet, die zu führen echt Zahlen. Kontinuierliche Skalen sollen sein Intervall skaliert, wenn der Nullwert eine rein konventionelle Bedeutung hat. Das heißt, ein Wert von null bedeutet nicht null Menge – zum Beispiel bedeutet eine Temperatur von null Grad Celsius nicht null thermische Energie. In diesem Fall machen nur Unterschiede zwischen den Werten Sinn (deshalb der Begriff „Intervall“-Skala). Ein reeller Nullwert bezeichnet a Verhältnis Skala. Bei einer auf dieser Skala gemessenen Größe sind auch Werteverhältnisse sinnvoll: Ein zweifaches Verhältnis bedeutet nämlich doppelte Menge. Wenn man beispielsweise sagt, dass ein Körper eine doppelt so hohe Temperatur hat wie ein zweiter Körper, bedeutet dies, dass er die doppelte Wärmeenergie des zweiten Körpers hat. unter der Vorraussetzung, dass die Temperatur wird auf einer Verhältnisskala (z. B. in Kelvin Grad) gemessen. Die Menge der zulässigen Werte für eine gegebene Variable wird als Definitionsbereich der Variablen bezeichnet.

        Statistische Paradigmen

        Statistik befasst sich mit der Art und Weise, aus einer Reihe bestimmter Beobachtungen zu verallgemeinern. Dieser Satz empirischer Messungen wird als a bezeichnet Sample. Aus einer Stichprobe berechnen wir einige deskriptive Statistiken, um die gesammelten Informationen zusammenzufassen.

        Die grundlegenden Informationen, die im Allgemeinen zur Charakterisierung eines Maßnahmenpakets erforderlich sind, beziehen sich auf seine zentrale Tendenz und seine Variabilität. Die Wahl zwischen mehreren Alternativen hängt von der Skala ab, die zur Messung eines Phänomens verwendet wird, und von den Zwecken, für die die Statistiken berechnet werden. In Tabelle 1 werden verschiedene Maße der zentralen Tendenz und Variabilität (oder Streuung) beschrieben und der entsprechenden Messskala zugeordnet.

        Tabelle 1. Indizes der zentralen Tendenz und Streuung nach Messskala

         

        Messskala

         

        Qualitativ

         

        Quantitativ

        Indizes

        Definition

        Nominal

        Ordinal

        Intervall/Verhältnis

        Arithmetisches Mittel

        Summe der beobachteten Werte dividiert durch die Gesamtzahl der Beobachtungen

         

        x

        Median

        Mittelpunktwert der beobachteten Verteilung

         

        x

        x

        Model

        Häufigster Wert

        x

        x

        x

        Abdeckung

        Niedrigster und höchster Wert der Verteilung

         

        x

        x

        Unterschied

        Summe der quadrierten Differenz jedes Werts vom Mittelwert dividiert durch die Gesamtzahl der Beobachtungen minus 1

         

         

        x

         

        Die berechnete deskriptive Statistik wird aufgerufen Schätzungen wenn wir sie als Ersatz für die analoge Menge der Population verwenden, aus der die Stichprobe ausgewählt wurde. Die Populationsgegenstücke der Schätzungen werden als Konstanten bezeichnet Parameter. Schätzungen desselben Parameters können mit unterschiedlichen statistischen Methoden erhalten werden. Eine Schätzung sollte sowohl valide als auch präzise sein.

        Das Populations-Stichproben-Paradigma impliziert, dass die Validität durch die Art und Weise sichergestellt werden kann, wie die Stichprobe aus der Grundgesamtheit ausgewählt wird. Zufällige oder probabilistische Stichproben sind die übliche Strategie: Wenn jedes Mitglied der Bevölkerung die gleiche Wahrscheinlichkeit hat, in die Stichprobe aufgenommen zu werden, dann sollte unsere Stichprobe im Durchschnitt repräsentativ für die Bevölkerung sein und darüber hinaus könnte jede Abweichung von unserer Erwartung sein zufällig erklärt. Die Wahrscheinlichkeit einer gegebenen Abweichung von unserer Erwartung kann ebenfalls berechnet werden, sofern eine Stichprobe durchgeführt wurde. Die gleiche Argumentation gilt für die für unsere Stichprobe berechneten Schätzungen in Bezug auf die Parameter der Grundgesamtheit. Als Schätzwert für den Mittelwert der Grundgesamtheit nehmen wir beispielsweise das arithmetische Mittel aus unserer Stichprobe. Etwaige Unterschiede zwischen dem Durchschnitt der Stichprobe und dem Mittelwert der Grundgesamtheit werden zufälligen Schwankungen bei der Auswahl der in die Stichprobe aufgenommenen Mitglieder zugeschrieben. Wir können die Wahrscheinlichkeit für jeden Wert dieser Differenz berechnen, vorausgesetzt, die Stichprobe wurde zufällig ausgewählt. Wenn die Abweichung zwischen Stichprobenschätzung und Grundgesamtheitsparameter nicht zufällig erklärt werden kann, spricht man von einer Schätzung voreingenommen. Das Design der Beobachtung oder des Experiments verleiht den Schätzungen Gültigkeit, und das grundlegende statistische Paradigma ist das der Zufallsstichprobe.

        In der Medizin wird ein zweites Paradigma angenommen, wenn ein Vergleich zwischen verschiedenen Gruppen das Ziel der Studie ist. Ein typisches Beispiel ist die kontrollierte klinische Studie: Anhand vordefinierter Kriterien wird eine Gruppe von Patienten mit ähnlichen Merkmalen ausgewählt. In diesem Stadium wird keine Repräsentativität berücksichtigt. Jeder in die Studie aufgenommene Patient wird durch ein Zufallsverfahren der Behandlungsgruppe zugeteilt, die die Standardtherapie plus das neue zu bewertende Medikament erhält, oder der Kontrollgruppe, die die Standardtherapie und ein Placebo erhält. In diesem Design ersetzt die zufällige Zuordnung der Patienten zu jeder Gruppe die zufällige Auswahl der Mitglieder der Stichprobe. Die Schätzung des Unterschieds zwischen den beiden Gruppen kann statistisch bewertet werden, da wir unter der Hypothese der fehlenden Wirksamkeit des neuen Medikaments die Wahrscheinlichkeit eines Unterschieds ungleich Null berechnen können.

        In der Epidemiologie fehlt uns die Möglichkeit, zufällig exponierte und nicht exponierte Personengruppen zusammenzustellen. In diesem Fall können wir immer noch statistische Methoden verwenden, als ob die analysierten Gruppen zufällig ausgewählt oder zugewiesen worden wären. Die Richtigkeit dieser Annahme hängt hauptsächlich vom Studiendesign ab. Dieser Punkt ist besonders wichtig und unterstreicht die Bedeutung des epidemiologischen Studiendesigns gegenüber statistischen Techniken in der biomedizinischen Forschung.

        Signal und Rauschen

        Die zufällige Variable bezeichnet eine Variable, für die jedem Wert, den sie annehmen kann, eine definierte Wahrscheinlichkeit zugeordnet ist. Die theoretischen Modelle für die Verteilung der Wahrscheinlichkeit einer Zufallsvariablen sind Populationsmodelle. Die Stichprobengegenstücke werden durch die Stichprobenhäufigkeitsverteilung dargestellt. Dies ist eine nützliche Methode, um einen Datensatz zu melden. es besteht aus einer kartesischen Ebene mit der interessierenden Variablen entlang der horizontalen Achse und der Frequenz oder relativen Häufigkeit entlang der vertikalen Achse. Eine grafische Darstellung ermöglicht es uns, leicht zu sehen, was die häufigsten Werte sind und wie sich die Verteilung um bestimmte zentrale Werte wie den arithmetischen Durchschnitt konzentriert.

        Für die Zufallsvariablen und ihre Wahrscheinlichkeitsverteilungen verwenden wir die Terme Parameter, mittlerer Erwartungswert (anstelle des arithmetischen Mittels) und Unterschied. Diese theoretischen Modelle beschreiben die Variabilität eines gegebenen Phänomens. In der Informationstheorie wird das Signal durch die zentrale Tendenz (z. B. den Mittelwert) dargestellt, während das Rauschen durch einen Streuungsindex (z. B. die Varianz) gemessen wird.

        Zur Veranschaulichung der statistischen Inferenz verwenden wir das Binomialmodell. In den folgenden Abschnitten werden die Konzepte von Punktschätzungen und Konfidenzintervallen, Hypothesentests und Wahrscheinlichkeit von Fehlentscheidungen sowie Aussagekraft einer Studie eingeführt.

        Tabelle 2. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)

        Arbeitnehmer

        Wahrscheinlichkeit

        A

        B

        C

         

        0

        0

        0

        1

        0

        0

        0

        1

        0

        0

        0

        1

        0

        1

        1

        1

        0

        1

        1

        1

        0

        1

        1

        1

         

        Ein Beispiel: Die Binomialverteilung

        In der biomedizinischen Forschung und Epidemiologie ist das wichtigste Modell der stochastischen Variation die Binomialverteilung. Es stützt sich auf die Tatsache, dass sich die meisten Phänomene wie eine nominelle Variable mit nur zwei Kategorien verhalten: zum Beispiel das Vorhandensein/Nichtvorhandensein einer Krankheit: lebendig/tot oder genesen/krank. Unter solchen Umständen sind wir an der Erfolgswahrscheinlichkeit interessiert – dh im Fall von Interesse (z. B. Vorliegen einer Krankheit, am Leben oder Genesung) – und an den Faktoren oder Variablen, die sie verändern können. Lass uns in Erwägung ziehen n = 3 Arbeiter, und nehmen wir an, dass wir an der Wahrscheinlichkeit p interessiert sind, eine Sehbehinderung zu haben (ja/nein). Das Ergebnis unserer Beobachtung könnten die möglichen Ergebnisse in Tabelle 2 sein.

        Tabelle 3. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)

        Anzahl der Erfolge

        Wahrscheinlichkeit

        0

        1

        2

        3

         

        Die Wahrscheinlichkeit jeder dieser Ereigniskombinationen lässt sich leicht ermitteln, indem man p berücksichtigt, die (individuelle) Erfolgswahrscheinlichkeit, die für jede Versuchsperson konstant und unabhängig von anderen Ergebnissen ist. Da wir an der Gesamtzahl der Erfolge interessiert sind und nicht an einer bestimmten Reihenfolge, können wir die Tabelle wie folgt umordnen (siehe Tabelle 3) und allgemein die Wahrscheinlichkeit von ausdrücken x Erfolge P (x) als:

        woher x ist die Anzahl der Erfolge und die Notation x! bezeichnet die Fakultät von xDh x! = x×(x–1)×(x–2)…×1.

        Betrachtet man das Ereignis „krank sein/nicht sein“, so wird die individuelle Wahrscheinlichkeit, bezieht sich auf den Zustand, in dem das Subjekt vermutet wird; in der Epidemiologie wird diese Wahrscheinlichkeit „Prävalenz“ genannt. Um p zu schätzen, verwenden wir den Stichprobenanteil:

        p = x/n

        mit Varianz:

        In einer hypothetischen unendlichen Reihe von replizierten Stichproben derselben Größe n, würden wir unterschiedliche Stichprobenanteile erhalten p = x/n, mit Wahrscheinlichkeiten, die durch die Binomialformel gegeben sind. Der „wahre“ Wert von  wird durch jeden Stichprobenanteil geschätzt, und ein Konfidenzintervall für p, d. h. der Satz wahrscheinlicher Werte für p, bei gegebenen beobachteten Daten und einem vordefinierten Konfidenzniveau (z. B. 95 %), wird aus der Binomialverteilung als geschätzt die Menge von Werten für p, die eine Wahrscheinlichkeit von ergibt x größer als ein vorgegebener Wert (z. B. 2.5 %). Für ein hypothetisches Experiment, bei dem wir beobachteten x = 15 Erfolge in n = 30 Versuche, die geschätzte Erfolgswahrscheinlichkeit beträgt:

        p = x/n = 15/30 = 0.5 

        Tabelle 4. Binomialverteilung. Wahrscheinlichkeiten für verschiedene Werte von  für x = 15 Erfolge in n = 30 Versuchen

        Wahrscheinlichkeit

        0.200

        0.0002

        0.300

        0.0116

        0.334

        0.025

        0.400

        0.078

        0.500

        0.144

        0.600

        0.078

        0.666

        0.025

        0.700

        0.0116

         

        Das 95 %-Konfidenzintervall für p, erhalten aus Tabelle 4, beträgt 0.334 – 0.666. Jeder Eintrag der Tabelle zeigt die Wahrscheinlichkeit von x = 15 Erfolge in n = 30 Versuche berechnet mit der Binomialformel; zum Beispiel für = 0.30 erhalten wir aus:

        Aussichten für n groß und p nahe 0.5 können wir eine Näherung basierend auf der Gaußschen Verteilung verwenden:

        woher za /2 bezeichnet den Wert der Standard-Gauß-Verteilung für eine Wahrscheinlichkeit

        P (|z| ³ za /2) = a/2;

        1 – a ist das gewählte Konfidenzniveau. Für das betrachtete Beispiel = 15/30 = 0.5; n = 30 und aus der standardmäßigen Gaußschen Tabelle z0.025 = 1.96. Das 95 %-Konfidenzintervall ergibt den Wertesatz 0.321 – 0.679, den man durch Einsetzen erhält p = 0.5, n = 30 und z0.025 = 1.96 in die obige Gleichung für die Gaußsche Verteilung. Beachten Sie, dass diese Werte nahe an den zuvor berechneten exakten Werten liegen.

        Statistische Hypothesentests umfassen ein Entscheidungsverfahren über den Wert eines Populationsparameters. Nehmen wir im vorherigen Beispiel an, dass wir uns mit der Behauptung befassen möchten, dass es ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage gibt. Die wissenschaftliche Hypothese, die durch unsere empirischen Beobachtungen überprüft werden soll, lautet dann: „Es besteht ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage“. Statistiker demonstrieren solche Hypothesen, indem sie die komplementäre Hypothese „es gibt keine Erhöhung des Risikos einer Sehbehinderung“ falsifizieren. Dies folgt der mathematischen Demonstration per Absurdum und anstatt eine Behauptung zu verifizieren, werden empirische Beweise nur verwendet, um sie zu falsifizieren. Die statistische Hypothese heißt Nullhypothese. Der zweite Schritt besteht darin, einen Wert für den Parameter dieser Wahrscheinlichkeitsverteilung anzugeben, die verwendet wird, um die Variabilität in den Beobachtungen zu modellieren. Da das Phänomen binär ist (dh Vorhandensein/Fehlen einer Sehbehinderung), wählen wir in unseren Beispielen die Binomialverteilung mit dem Parameter p, der Wahrscheinlichkeit einer Sehbehinderung. Die Nullhypothese behauptet das = 0.25, sagen wir. Dieser Wert wird aus der Sammlung von Wissen über das Thema und a-priori-Wissen über die übliche Prävalenz von Sehbehinderungen in nicht exponierten (dh Nicht-Arbeiter-) Bevölkerungsgruppen ausgewählt. Angenommen, unsere Daten ergaben eine Schätzung = 0.50, von den 30 untersuchten Arbeitern.

        Können wir die Nullhypothese ablehnen?

        Wenn ja, wofür Alternative Hypothese?

        Wir spezifizieren eine Alternativhypothese als Kandidaten, falls die Beweise diktieren, dass die Nullhypothese abgelehnt wird. Ungerichtete (zweiseitige) Alternativhypothesen besagen, dass sich der Populationsparameter von dem in der Nullhypothese angegebenen Wert unterscheidet; gerichtete (einseitige) Alternativhypothesen besagen, dass der Populationsparameter größer (oder kleiner) als der Nullwert ist.

        Tabelle 5. Binomialverteilung. Erfolgswahrscheinlichkeiten für  = 0.25 in n = 30 Versuchen

        X

        Wahrscheinlichkeit

        Kumulative Wahrscheinlichkeit

        0

        0.0002

        0.0002

        1

        0.0018

        0.0020

        2

        0.0086

        0.0106

        3

        0.0269

        0.0374

        4

        0.0604

        0.0979

        5

        0.1047

        0.2026

        6

        0.1455

        0.3481

        7

        0.1662

        0.5143

        8

        0.1593

        0.6736

        9

        0.1298

        0.8034

        10

        0.0909

        0.8943

        11

        0.0551

        0.9493

        12

        0.0291

        0.9784

        13

        0.0134

        0.9918

        14

        0.0054

        0.9973

        15

        0.0019

        0.9992

        16

        0.0006

        0.9998

        17

        0.0002

        1.0000

        .

        .

        .

        30

        0.0000

        1.0000

         

        Unter der Nullhypothese können wir die Wahrscheinlichkeitsverteilung der Ergebnisse unseres Beispiels berechnen. Tabelle 5 zeigt z = 0.25 und n = 30, die Wahrscheinlichkeiten (siehe Gleichung (1)) und die kumulativen Wahrscheinlichkeiten:

        Aus dieser Tabelle erhalten wir die Wahrscheinlichkeit zu haben x ³15 Arbeitnehmer mit Sehbehinderung

        P(x ³15) = 1 - P(x15) = 1 - 0.9992 0.0008 =

        Dies bedeutet, dass es höchst unwahrscheinlich ist, dass wir 15 oder mehr Arbeitnehmer mit Sehbehinderung beobachten würden, wenn sie die Prävalenz der Krankheit der nicht exponierten Bevölkerungsgruppen erfahren würden. Daher könnten wir die Nullhypothese zurückweisen und bestätigen, dass es eine höhere Prävalenz von Sehbehinderungen in der untersuchten Population von Arbeitnehmern gibt.

        Wann n×p ³ 5 und n×(1-) ³ 5 können wir die Gaußsche Näherung verwenden:

        Aus der Tabelle der Standard-Gauß-Verteilung erhalten wir:

        P(|z|>2.95) = 0.0008

        in enger Übereinstimmung mit den genauen Ergebnissen. Aus dieser Näherung können wir erkennen, dass die Grundstruktur eines statistischen Hypothesentests aus dem Verhältnis von Signal zu Rauschen besteht. In unserem Fall ist das Signal (p-), die beobachtete Abweichung von der Nullhypothese, während das Rauschen die Standardabweichung von ist P:

        Je größer das Verhältnis, desto geringer die Wahrscheinlichkeit des Nullwerts.

        Beim Treffen von Entscheidungen über statistische Hypothesen können zwei Arten von Fehlern auftreten: ein Fehler erster Art, die Ablehnung der Nullhypothese, wenn sie wahr ist; oder ein Typ-II-Fehler, Annahme der Nullhypothese, wenn sie falsch ist. Das Wahrscheinlichkeitsniveau bzw p-Wert, ist die Wahrscheinlichkeit eines Fehlers erster Art, der mit dem griechischen Buchstaben a bezeichnet wird. Diese errechnet sich aus der Wahrscheinlichkeitsverteilung der Beobachtungen unter der Nullhypothese. Es ist üblich, ein a-Fehlerniveau (z. B. 5 %, 1 %) vorzugeben und die Nullhypothese abzulehnen, wenn das Ergebnis unserer Beobachtung eine Wahrscheinlichkeit hat, die gleich oder kleiner als dieses sogenannte kritische Niveau ist.

        Die Wahrscheinlichkeit eines Fehlers XNUMX. Art wird mit dem griechischen Buchstaben β bezeichnet. Um ihn zu berechnen, müssen wir in der Alternativhypothese den α-Wert für den zu testenden Parameter angeben (in unserem Beispiel den α-Wert für ). Generische Alternativhypothesen (anders als, größer als, kleiner als) sind nicht sinnvoll. In der Praxis interessiert der β-Wert für eine Reihe von Alternativhypothesen oder deren Ergänzung, die als statistische Aussagekraft des Tests bezeichnet wird. Wenn wir beispielsweise den α-Fehlerwert auf 5 % festlegen, finden wir aus Tabelle 5:

        P(x ³12) <0.05

        unter der Nullhypothese = 0.25. Wenn wir es zumindest beobachten würden x = 12 Erfolge, würden wir die Nullhypothese verwerfen. Die entsprechenden β-Werte und die Potenz für x = 12 sind in Tabelle 6 angegeben. 

        Tabelle 6. Fehler 12. Art und Trennschärfe für x = 30, n = 0.05, α = XNUMX

        β

        Power

        0.30

        0.9155

        0.0845

        0.35

        0.7802

        0.2198

        0.40

        0.5785

        0.4215

        0.45

        0.3592

        0.6408

        0.50

        0.1808

        0.8192

        0.55

        0.0714

        0.9286

         

        In diesem Fall können unsere Daten nicht unterscheiden, ob größer als der Nullwert von 0.25, aber kleiner als 0.50 ist, weil die Aussagekraft der Studie für diese Werte zu gering ist (< 80 %). <0.50 – das heißt, die Sensitivität unserer Studie beträgt 8 % für = 0.3, 22 % für = 0.35,…, 64% für = 0.45.

        Die einzige Möglichkeit, ein niedrigeres β oder ein höheres Power-Niveau zu erreichen, wäre die Vergrößerung der Studie. In Tabelle 7 geben wir beispielsweise β und die Leistung für an n = 40; Wie erwartet sollten wir in der Lage sein, a zu erkennen  Wert größer als 0.40. 

        Tabelle 7. Fehler 12. Art und Trennschärfe für x = 40, n = 0.05, α = XNUMX

        β

        Power

        0.30

        0.5772

        0.4228

        0.35

        0.3143

        0.6857

        0.40

        0.1285

        0.8715

        0.45

        0.0386

        0.8614

        0.50

        0.0083

        0.9917

        0.55

        0.0012

        0.9988

         

        Das Studiendesign basiert auf einer sorgfältigen Prüfung des Satzes alternativer Hypothesen, die eine Berücksichtigung verdienen und der Studie eine ausreichende Stichprobengröße garantieren.

        In der epidemiologischen Literatur wurde die Bedeutung zuverlässiger Risikoschätzungen betont. Daher ist es wichtiger, Konfidenzintervalle (entweder 95 % oder 90 %) anzugeben, als a p-Wert eines Tests einer Hypothese. Der gleichen Argumentation folgend sollte der Interpretation von Ergebnissen aus kleinen Studien Beachtung geschenkt werden: Aufgrund der geringen Aussagekraft könnten selbst Zwischeneffekte unentdeckt bleiben und andererseits Effekte von großem Ausmaß später nicht repliziert werden.

        Erweiterte Methoden

        Der Komplexitätsgrad der statistischen Methoden im arbeitsmedizinischen Kontext hat in den letzten Jahren zugenommen. Wichtige Entwicklungen sind im Bereich der statistischen Modellierung zu finden. Die Nelder- und Wedderburn-Familie von nicht-Gaußschen Modellen (verallgemeinerte lineare Modelle) war einer der bemerkenswertesten Beiträge zum Wissenszuwachs in Bereichen wie Berufsepidemiologie, wo die relevanten Antwortvariablen binär sind (z. B. Überleben/Tod) oder zählt (z. B. Anzahl der Arbeitsunfälle).

        Dies war der Ausgangspunkt für eine umfassende Anwendung von Regressionsmodellen als Alternative zu den traditionelleren Analysearten auf der Grundlage von Kontingenztabellen (einfache und stratifizierte Analyse). Poisson, Cox und logistische Regression werden heute routinemäßig für die Analyse von Längsschnitt- bzw. Fall-Kontroll-Studien verwendet. Diese Modelle sind das Gegenstück zur linearen Regression für kategoriale Antwortvariablen und haben die elegante Eigenschaft, direkt das relevante epidemiologische Assoziationsmaß zu liefern. Beispielsweise sind die Koeffizienten der Poisson-Regression der Logarithmus der Rate Ratios, während die der logistischen Regression der Logarithmus der Odds Ratios sind.

        Davon ausgehend haben die Weiterentwicklungen im Bereich der statistischen Modellierung zwei Hauptrichtungen eingeschlagen: Modelle für wiederholte kategoriale Maße und Modelle, die die verallgemeinerten linearen Modelle erweitern (verallgemeinerte additive Modelle). In beiden Fällen konzentrieren sich die Ziele darauf, die Flexibilität der statistischen Werkzeuge zu erhöhen, um komplexere Probleme zu bewältigen, die sich aus der Realität ergeben. Modelle mit wiederholten Messungen werden in vielen Berufsstudien benötigt, bei denen die Analyseeinheiten auf der subindividuellen Ebene liegen. Zum Beispiel:

        1. Die Untersuchung des Einflusses der Arbeitsbedingungen auf das Karpaltunnelsyndrom muss beide Hände einer Person berücksichtigen, die nicht unabhängig voneinander sind.
        2. Die Analyse zeitlicher Trends von Umweltschadstoffen und deren Wirkung auf das Atmungssystem von Kindern kann mit äußerst flexiblen Modellen bewertet werden, da die exakte funktionelle Form der Dosis-Wirkungs-Beziehung schwer zu erhalten ist.

         

        Eine parallele und wahrscheinlich schnellere Entwicklung wurde im Zusammenhang mit der Bayes'schen Statistik gesehen. Die praktische Barriere der Verwendung von Bayes'schen Methoden ist nach der Einführung computerintensiver Methoden zusammengebrochen. Monte-Carlo-Prozeduren wie Gibbs-Stichprobenschemata haben es uns ermöglicht, die Notwendigkeit einer numerischen Integration zur Berechnung der Posterior-Verteilungen zu vermeiden, die das herausforderndste Merkmal der Bayes'schen Methoden darstellten. Die Zahl der Anwendungen von Bayes'schen Modellen in realen und komplexen Problemen hat zunehmend Raum in angewandten Zeitschriften gefunden. Beispielsweise werden geografische Analysen und ökologische Zusammenhänge auf kleinräumiger Ebene sowie AIDS-Vorhersagemodelle immer häufiger mit bayesianischen Ansätzen angegangen. Diese Entwicklungen sind zu begrüßen, da sie nicht nur eine Zunahme der Zahl alternativer statistischer Lösungen darstellen, die bei der Analyse epidemiologischer Daten eingesetzt werden könnten, sondern auch, weil der Bayes'sche Ansatz als solidere Strategie angesehen werden kann.

         

        Zurück

        Die vorhergehenden Artikel dieses Kapitels haben die Notwendigkeit einer sorgfältigen Bewertung des Studiendesigns gezeigt, um glaubwürdige Schlussfolgerungen aus epidemiologischen Beobachtungen zu ziehen. Obwohl behauptet wurde, dass Schlussfolgerungen in der beobachtenden Epidemiologie aufgrund des nicht-experimentellen Charakters der Disziplin schwach sind, gibt es keine eingebaute Überlegenheit von randomisierten kontrollierten Studien oder anderen Arten von experimentellem Design gegenüber gut geplanter Beobachtung (Cornfield 1954). Um jedoch solide Schlussfolgerungen ziehen zu können, ist eine gründliche Analyse des Studiendesigns erforderlich, um potenzielle Quellen für Verzerrungen und Verwirrung zu identifizieren. Sowohl falsch positive als auch falsch negative Ergebnisse können von verschiedenen Arten von Bias stammen.

        In diesem Artikel werden einige der Richtlinien diskutiert, die zur Bewertung der kausalen Natur epidemiologischer Beobachtungen vorgeschlagen wurden. Obwohl gute Wissenschaft eine Voraussetzung für ethisch korrekte epidemiologische Forschung ist, gibt es darüber hinaus weitere Fragen, die für ethische Bedenken relevant sind. Daher haben wir einige Diskussionen der Analyse ethischer Probleme gewidmet, die bei der Durchführung epidemiologischer Studien auftreten können.

        Kausalitätsbewertung

        Mehrere Autoren haben die Kausalitätsbewertung in der Epidemiologie diskutiert (Hill 1965; Buck 1975; Ahlbom 1984; Maclure 1985; Miettinen 1985; Rothman 1986; Weed 1986; Schlesselman 1987; Maclure 1988; Weed 1988; Karhausen 1995). Einer der Hauptdiskussionspunkte ist, ob die Epidemiologie dieselben Kriterien zur Ermittlung von Ursache-Wirkungs-Zusammenhängen verwendet oder verwenden sollte, wie sie in anderen Wissenschaften verwendet werden.

        Ursachen sollten nicht mit Mechanismen verwechselt werden. Beispielsweise ist Asbest eine Ursache von Mesotheliom, wohingegen eine Onkogen-Mutation ein mutmaßlicher Mechanismus ist. Auf der Grundlage der vorhandenen Beweise ist es wahrscheinlich, dass (a) verschiedene äußere Expositionen in denselben mechanistischen Stadien wirken können und (b) es normalerweise keine feste und notwendige Abfolge mechanistischer Schritte bei der Entwicklung einer Krankheit gibt. Beispielsweise wird die Karzinogenese als eine Abfolge von stochastischen (wahrscheinlichkeitstheoretischen) Übergängen interpretiert, von der Genmutation über die Zellproliferation bis zur erneuten Genmutation, die schließlich zu Krebs führt. Darüber hinaus ist die Karzinogenese ein multifaktorieller Prozess – das heißt, verschiedene äußere Expositionen können sie beeinflussen und bei einer anfälligen Person ist keine davon notwendig. Dieses Modell lässt sich wahrscheinlich neben Krebs auch auf andere Krankheiten anwenden.

        Eine solche multifaktorielle und probabilistische Natur der meisten Expositions-Krankheits-Beziehungen impliziert, dass es problematisch ist, die Rolle zu entwirren, die eine bestimmte Exposition spielt. Darüber hinaus hindert uns der beobachtende Charakter der Epidemiologie daran, Experimente durchzuführen, die ätiologische Zusammenhänge durch eine mutwillige Veränderung des Ablaufs der Ereignisse klären könnten. Die Beobachtung eines statistischen Zusammenhangs zwischen Exposition und Krankheit bedeutet nicht, dass der Zusammenhang kausal ist. Beispielsweise haben die meisten Epidemiologen den Zusammenhang zwischen der Exposition gegenüber Dieselabgasen und Blasenkrebs als kausal interpretiert, andere haben jedoch behauptet, dass Arbeiter, die Dieselabgasen ausgesetzt sind (hauptsächlich Lkw- und Taxifahrer), häufiger Zigarettenraucher sind als nicht exponierte Personen . Der beobachtete Zusammenhang würde dieser Behauptung zufolge also durch einen bekannten Risikofaktor wie das Rauchen „verwechselt“.

        Angesichts der probabilistisch-multifaktoriellen Natur der meisten Expositions-Krankheits-Assoziationen haben Epidemiologen Richtlinien entwickelt, um Beziehungen zu erkennen, die wahrscheinlich kausal sind. Dies sind die ursprünglich von Sir Bradford Hill vorgeschlagenen Richtlinien für chronische Krankheiten (1965):

        • Stärke des Vereins
        • Dosis-Wirkungs-Effekt
        • Mangel an zeitlicher Mehrdeutigkeit
        • Konsistenz der Befunde
        • biologische Plausibilität
        • Kohärenz der Beweise
        • Besonderheiten des Vereins.

         

        Diese Kriterien sollten nur als allgemeine Richtlinien oder praktische Hilfsmittel betrachtet werden; Tatsächlich ist die wissenschaftliche Kausalbewertung ein iterativer Prozess, der sich um die Messung der Beziehung zwischen Exposition und Krankheit dreht. Die Hill-Kriterien werden jedoch häufig als prägnante und praktische Beschreibung kausaler Inferenzverfahren in der Epidemiologie verwendet.

        Betrachten wir das Beispiel des Zusammenhangs zwischen Vinylchlorid-Exposition und Leber-Angiosarkom unter Anwendung der Hills-Kriterien.

        Der übliche Ausdruck der Ergebnisse einer epidemiologischen Studie ist ein Maß für den Grad der Assoziation zwischen Exposition und Krankheit (erstes Kriterium von Hill). Ein relatives Risiko (RR) größer als eins bedeutet, dass ein statistischer Zusammenhang zwischen Exposition und Erkrankung besteht. Wenn zum Beispiel die Inzidenzrate von Leber-Angiosarkom normalerweise 1 zu 10 Millionen beträgt, aber 1 zu 100,000 unter denen, die Vinylchlorid ausgesetzt sind, dann ist die RR 100 (das heißt, Menschen, die mit Vinylchlorid arbeiten, haben eine 100-fach erhöhte Risiko für die Entwicklung eines Angiosarkoms im Vergleich zu Personen, die nicht mit Vinylchlorid arbeiten).

        Ein kausaler Zusammenhang ist wahrscheinlicher, wenn das Risiko mit zunehmender Exposition zunimmt (Dosis-Wirkungs-Effekt, zweites Hill-Kriterium) und wenn der zeitliche Zusammenhang zwischen Exposition und Krankheit aus biologischen Gründen sinnvoll ist (die Exposition geht der Wirkung voraus und die Länge dieser „Induktions“-Periode ist mit einem biologischen Krankheitsmodell vereinbar; drittes Kriterium von Hill). Darüber hinaus ist ein Zusammenhang wahrscheinlicher, wenn ähnliche Ergebnisse von anderen erzielt werden, die in der Lage waren, die Ergebnisse unter anderen Umständen zu replizieren („Konsistenz“, viertes Kriterium von Hill).

        Eine wissenschaftliche Analyse der Ergebnisse erfordert eine Bewertung der biologischen Plausibilität (fünftes Kriterium von Hill). Dies kann auf unterschiedliche Weise erreicht werden. Ein einfaches Kriterium ist beispielsweise, ob die vermeintliche „Ursache“ das Zielorgan erreichen kann (z. B. eingeatmete Substanzen, die die Lunge nicht erreichen, können nicht im Körper zirkulieren). Auch unterstützende Beweise aus Tierversuchen sind hilfreich: Die Beobachtung von Leber-Angiosarkomen bei Tieren, die mit Vinylchlorid behandelt wurden, verstärkt stark die beim Menschen beobachtete Assoziation.

        Die innere Kohärenz der Beobachtungen (z. B. ist das RR bei beiden Geschlechtern ähnlich erhöht) ist ein wichtiges wissenschaftliches Kriterium (sechstes Kriterium von Hill). Kausalität ist wahrscheinlicher, wenn die Beziehung sehr spezifisch ist – das heißt, seltene Ursachen und/oder seltene Krankheiten oder einen bestimmten histologischen Typ/Untergruppe von Patienten (siebtes Hill-Kriterium) betrifft.

        „Enumerative Induktion“ (die einfache Aufzählung von Assoziationsfällen zwischen Exposition und Krankheit) reicht nicht aus, um die induktiven Schritte des Kausalschlusses vollständig zu beschreiben. Das Ergebnis der enumerativen Induktion führt in der Regel zu einer komplexen und immer noch verwirrenden Beobachtung, weil verschiedene Kausalketten oder häufiger ein echter Kausalzusammenhang und andere irrelevante Expositionen miteinander verschränkt sind. Alternative Erklärungen müssen durch „eliminative Induktion“ eliminiert werden, was zeigt, dass eine Assoziation wahrscheinlich kausal ist, weil sie nicht mit anderen „verwechselt“ ist. Eine einfache Definition einer alternativen Erklärung ist „ein externer Faktor, dessen Effekt sich mit dem Effekt des Zinsrisikos vermischt und somit die Risikoschätzung für das Zinsrisiko verzerrt“ (Rothman 1986).

        Die Rolle der Induktion ist die Erweiterung des Wissens, während die Rolle der Deduktion die „Wahrheitsübertragung“ ist (Giere 1979). Deduktives Denken hinterfragt das Studiendesign und identifiziert Zusammenhänge, die nicht empirisch, sondern nur logisch wahr sind. Solche Assoziationen sind keine Tatsachen, sondern logische Notwendigkeiten. Zum Beispiel ein Auswahlbias tritt auf, wenn die exponierte Gruppe unter kranken Menschen ausgewählt wird (wie wenn wir eine Kohortenstudie starten, in der wir eine Gruppe von Leber-Angiosarkom-Fällen als „exponiert“ gegenüber Vinylchlorid rekrutieren) oder wenn die nicht exponierte Gruppe unter gesunden Menschen ausgewählt wird. In beiden Fällen ist der gefundene Zusammenhang zwischen Exposition und Krankheit notwendigerweise (logisch), aber nicht empirisch wahr (Vineis 1991).

        Zusammenfassend lässt sich sagen, dass die Epidemiologie, auch wenn man ihren beobachtenden (nicht-experimentellen) Charakter berücksichtigt, keine inferenziellen Verfahren verwendet, die sich wesentlich von der Tradition anderer wissenschaftlicher Disziplinen unterscheiden (Hume 1978; Schaffner 1993).

        Ethische Fragen in der epidemiologischen Forschung

        Aufgrund der Feinheiten, die mit der Ableitung von Kausalitäten verbunden sind, müssen Epidemiologen bei der Interpretation ihrer Studien besondere Sorgfalt walten lassen. Tatsächlich ergeben sich daraus mehrere Bedenken ethischer Natur.

        Ethische Fragen in der epidemiologischen Forschung sind Gegenstand intensiver Diskussionen geworden (Schulte 1989; Soskolne 1993; Beauchamp et al. 1991). Der Grund liegt auf der Hand: Epidemiologen, insbesondere Arbeits- und Umweltepidemiologen, untersuchen häufig Themen mit erheblichen wirtschaftlichen, sozialen und gesundheitspolitischen Implikationen. Sowohl negative als auch positive Ergebnisse bezüglich des Zusammenhangs zwischen bestimmten Chemikalienbelastungen und Krankheiten können das Leben von Tausenden von Menschen beeinträchtigen, wirtschaftliche Entscheidungen beeinflussen und daher politische Entscheidungen ernsthaft beeinflussen. Daher kann der Epidemiologe unter Druck geraten und von anderen versucht oder sogar ermutigt werden, die Interpretation der Ergebnisse seiner oder ihrer Untersuchungen – marginal oder wesentlich – zu ändern.

        Unter den mehreren relevanten Themen, Transparenz der Datenerhebung, Kodierung, Computerisierung und Analyse ist von zentraler Bedeutung, um sich gegen Vorwürfe der Voreingenommenheit seitens des Forschers zu wehren. Ebenfalls von entscheidender Bedeutung und möglicherweise im Widerspruch zu einer solchen Transparenz ist das Recht der an der epidemiologischen Forschung beteiligten Personen, vor der Preisgabe personenbezogener Daten geschützt zu werden
        (Vertraulichkeit Probleme).

        Aus Sicht des Fehlverhaltens, das insbesondere im Zusammenhang mit Kausalschlüssen entstehen kann, sind Fragen, die von Ethik-Leitlinien beantwortet werden sollten:

        • Wem gehören die Daten und wie lange müssen die Daten aufbewahrt werden?
        • Was macht eine glaubwürdige Aufzeichnung der geleisteten Arbeit aus?
        • Lassen öffentliche Zuwendungen im Budget die Kosten für eine angemessene Dokumentation, Archivierung und erneute Analyse von Daten zu?
        • Gibt es eine Rolle für den Hauptforscher bei der erneuten Analyse seiner Daten durch Dritte?
        • Gibt es Praxisstandards für die Datenspeicherung?
        • Sollten Berufs- und Umweltepidemiologen ein normatives Klima schaffen, in dem eine fertige Datenprüfung oder -prüfung durchgeführt werden kann?
        • Wie dienen gute Datenspeicherungspraktiken dazu, nicht nur Fehlverhalten, sondern auch Vorwürfen von Fehlverhalten vorzubeugen?
        • Was ist arbeits- und umweltepidemiologisches Fehlverhalten in Bezug auf Datenmanagement, Ergebnisinterpretation und Interessenvertretung?
        • Welche Rolle spielen Epidemiologen und/oder Berufsverbände bei der Entwicklung von Praxisstandards und Indikatoren/Ergebnissen für ihre Bewertung und bei der Beibringung von Fachwissen in irgendeiner Fürsprecherrolle?
        • Welche Rolle spielt der Berufsverband/die Berufsorganisation beim Umgang mit ethischen und rechtlichen Bedenken? (Soskolne 1993)

         

        Weitere zentrale Fragen beziehen sich im Falle der Arbeits- und Umweltepidemiologie auf die Einbeziehung der Beschäftigten in Vorphasen von Studien und auf die Veröffentlichung der Ergebnisse einer Studie an die eingeschriebenen und direkt betroffenen Probanden (Schulte 1989 ). Leider ist es nicht üblich, dass Arbeitnehmer, die an epidemiologischen Studien teilnehmen, an gemeinsamen Diskussionen über den Zweck der Studie, ihre Interpretation und die mögliche Verwendung der Ergebnisse beteiligt sind (was für den Arbeitnehmer sowohl vorteilhaft als auch nachteilig sein kann).

        Teilweise Antworten auf diese Fragen liefern neuere Leitlinien (Beauchamp et al. 1991; CIOMS 1991). Allerdings sollten sich die Berufsverbände der Berufsepidemiologen in jedem Land an einer gründlichen Diskussion über ethische Fragen beteiligen und möglicherweise eine Reihe von ethischen Richtlinien verabschieden, die dem lokalen Kontext angemessen sind, während sie international anerkannte normative Praxisstandards anerkennen.

         

        Zurück

        Die Dokumentation von Berufskrankheiten in einem Land wie Taiwan ist eine Herausforderung für einen Betriebsarzt. Mangels eines Systems mit Materialsicherheitsdatenblättern (MSDS) waren sich die Arbeiter in der Regel nicht bewusst, mit welchen Chemikalien sie arbeiten. Da viele Berufskrankheiten lange Latenzzeiten haben und bis zum klinischen Nachweis keine spezifischen Symptome und Anzeichen zeigen, ist das Erkennen und Identifizieren der beruflichen Ursache oft sehr schwierig.

        Um Berufskrankheiten besser kontrollieren zu können, haben wir auf Datenbanken zugegriffen, die eine relativ vollständige Liste von Industriechemikalien und eine Reihe spezifischer Anzeichen und/oder Symptome enthalten. Kombiniert mit dem epidemiologischen Ansatz des Vermutens und Widerlegens (dh das Abwägen und Ausschließen aller möglichen alternativen Erklärungen) haben wir mehr als zehn Arten von Berufskrankheiten und einen Ausbruch von Botulismus dokumentiert. Wir empfehlen, dass ein ähnlicher Ansatz auf jedes andere Land in einer ähnlichen Situation angewendet wird und dass ein System mit einem Identifizierungsblatt (z. B. MSDS) für jede Chemikalie befürwortet und eingeführt wird, um eine schnelle Erkennung und damit die Verhinderung von Berufskrankheiten zu ermöglichen Krankheiten.

        Hepatitis in einer Farbdruckerei

        Drei Arbeiter einer Farbdruckerei wurden 1985 mit Manifestationen einer akuten Hepatitis in kommunale Krankenhäuser eingeliefert. Einer der drei hatte akutes Nierenversagen überlagert. Da Virushepatitis in Taiwan eine hohe Prävalenz aufweist, sollten wir einen viralen Ursprung als eine der wahrscheinlichsten Ätiologien in Betracht ziehen. Alkohol- und Drogenkonsum sowie organische Lösungsmittel am Arbeitsplatz sollten ebenfalls einbezogen werden. Da es in Taiwan kein MSDS-System gab, waren weder den Arbeitnehmern noch dem Arbeitgeber alle in der Fabrik verwendeten Chemikalien bekannt (Wang 1991).

        Wir mussten aus mehreren toxikologischen Datenbanken eine Liste hepatotoxischer und nephrotoxischer Wirkstoffe zusammenstellen. Dann haben wir alle möglichen Schlussfolgerungen aus den obigen Hypothesen abgeleitet. Wenn zum Beispiel das Hepatitis-A-Virus (HAV) die Ursache wäre, sollten wir Antikörper (HAV-IgM) unter den betroffenen Arbeitern beobachten; Wenn das Hepatitis-B-Virus die Ursache wäre, sollten wir unter den betroffenen Arbeitnehmern im Vergleich zu nicht betroffenen Arbeitnehmern mehr Träger von Hepatitis-B-Oberflächenantigenen (HBsAg) beobachten; wenn Alkohol die Hauptursache wäre, müssten wir mehr Alkoholabhängige oder chronische Alkoholiker unter den betroffenen Arbeitern beobachten; wenn irgendein toxisches Lösungsmittel (z. B. Chloroform) die Ursache wäre, sollten wir es am Arbeitsplatz finden.

        Wir haben für jeden Arbeiter eine umfassende medizinische Untersuchung durchgeführt. Die virale Ätiologie war leicht zu widerlegen, ebenso wie die Alkoholhypothese, da sie nicht durch Beweise gestützt werden konnten.

        Stattdessen hatten 17 von 25 Arbeitern des Werks abnormale Leberfunktionstests, und es wurde ein signifikanter Zusammenhang zwischen dem Vorhandensein einer abnormalen Leberfunktion und einer Vorgeschichte festgestellt, in der kürzlich in einem der drei Räume gearbeitet wurde, in denen eine miteinander verbundene Klimaanlage vorhanden war installiert, um die Druckmaschinen zu kühlen. Die Assoziation blieb nach Stratifizierung nach dem Trägerstatus von Hepatitis B bestehen. Später wurde festgestellt, dass der Vorfall nach der versehentlichen Verwendung eines „Reinigungsmittels“ (Tetrachlorkohlenstoff) zum Reinigen einer Pumpe in der Druckmaschine auftrat. Darüber hinaus ergab ein Simulationstest des Pumpenreinigungsvorgangs Tetrachlorkohlenstoffkonzentrationen in der Umgebungsluft von 115 bis 495 ppm, was zu Leberschäden führen könnte. In einem weiteren Widerlegungsversuch stellten wir durch Eliminierung des Tetrachlorkohlenstoffs am Arbeitsplatz fest, dass keine neuen Fälle mehr auftraten und es allen betroffenen Arbeitern nach 20-tägiger Entfernung vom Arbeitsplatz besser ging. Daher schlossen wir, dass der Ausbruch auf die Verwendung von Tetrachlorkohlenstoff zurückzuführen war.

        Neurologische Symptome in einer Farbdruckerei

        Im September 1986 bekam ein Lehrling in einer Farbdruckerei in Chang-Hwa plötzlich eine akute beidseitige Schwäche und Atemlähmung. Der Vater des Opfers behauptete am Telefon, es gäbe mehrere andere Arbeiter mit ähnlichen Symptomen. Da früher in Farbdruckereien Berufskrankheiten aufgrund einer Exposition gegenüber organischen Lösungsmitteln dokumentiert waren, gingen wir zur Arbeitsstelle, um die Ätiologie zu bestimmen, wobei wir die Hypothese einer möglichen Lösungsmittelvergiftung im Hinterkopf hatten (Wang 1991).

        Unsere übliche Praxis war jedoch, alle alternativen Vermutungen in Betracht zu ziehen, einschließlich anderer medizinischer Probleme, einschließlich der beeinträchtigten Funktion der oberen Motoneuronen, der unteren Motoneuronen sowie der neuromuskulären Synapse. Auch hier haben wir Ergebnisaussagen aus den obigen Hypothesen abgeleitet. Wenn beispielsweise ein Lösungsmittel, von dem berichtet wird, dass es Polyneuropathie hervorruft (z. B. n-Hexan, Methylbutylketon, Acrylamid), die Ursache wäre, würde es auch die Nervenleitungsgeschwindigkeit (NCV) beeinträchtigen; Wenn es sich um andere medizinische Probleme handeln würde, die obere Motoneuronen betreffen, gäbe es Anzeichen von Bewusstseinsstörungen und/oder unwillkürlichen Bewegungen.

        Feldbeobachtungen zeigten, dass alle betroffenen Arbeiter während des gesamten klinischen Verlaufs ein klares Bewusstsein hatten. Eine NCV-Studie mit drei betroffenen Arbeitern zeigte intakte untere Motoneuronen. Es gab keine unwillkürlichen Bewegungen, keine Medikamente oder Bisse in der Vorgeschichte vor dem Auftreten von Symptomen, und der Neostigmin-Test war negativ. Es wurde ein signifikanter Zusammenhang zwischen Krankheit und Frühstück in der Werkskantine am 26. oder 27. September gefunden; sieben von sieben betroffenen Arbeitern gegenüber sieben von 32 nicht betroffenen Arbeitern frühstückten an diesen zwei Tagen in der Fabrik. Ein weiterer Testversuch zeigte, dass Typ-A-Botulinumtoxin in Dosenerdnüssen nachgewiesen wurde, die von einem nicht lizenzierten Unternehmen hergestellt wurden, und seine Probe zeigte auch ein volles Wachstum von Clostridium botulinum. Ein letzter Widerlegungsprozess war die Entfernung solcher Produkte vom kommerziellen Markt, was zu keinen neuen Fällen führte. Diese Untersuchung dokumentierte die ersten Fälle von Botulismus durch ein kommerzielles Lebensmittelprodukt in Taiwan.

        Prämaligne Hautläsionen bei Paraquat-Herstellern

        Im Juni 1983 besuchten zwei Arbeiter einer Paraquat-Fabrik eine Dermatologie-Klinik und klagten über zahlreiche bilaterale hyperpigmentierte Flecken mit hyperkeratotischen Veränderungen an Teilen ihrer Hände, ihres Halses und ihres Gesichts, die der Sonne ausgesetzt waren. Einige Hautproben zeigten auch bowenoide Veränderungen. Da bei Arbeitern in der Bipyridyl-Herstellung bösartige und prämaligne Hautläsionen gemeldet wurden, wurde dringend eine berufliche Ursache vermutet. Wir mussten jedoch auch andere alternative Ursachen (oder Hypothesen) von Hautkrebs in Betracht ziehen, wie die Exposition gegenüber ionisierender Strahlung, Kohlenteer, Pech, Ruß oder anderen polyaromatischen Kohlenwasserstoffen (PAK). Um all diese Vermutungen auszuschließen, führten wir 1985 eine Studie durch, bei der wir alle 28 Fabriken besuchten, die jemals Paraquat hergestellt oder verpackt hatten, und die Herstellungsprozesse sowie die Arbeiter untersuchten (Wang et al. 1987; Wang 1993).

        Wir untersuchten 228 Arbeiter, und keiner von ihnen war jemals den oben genannten Hautkarzinogenen ausgesetzt gewesen, mit Ausnahme von Sonnenlicht und 4'-4'-Bipyridin und seinen Isomeren. Nach Ausschluss von Arbeitern mit Mehrfachexposition stellten wir fest, dass einer von sieben Administratoren und zwei von 82 Paraquat-Verpackungsarbeitern hyperpigmentierte Hautläsionen entwickelten, im Vergleich zu drei von drei Arbeitern, die nur an der Kristallisation und Zentrifugation von Bipyridin beteiligt waren. Darüber hinaus waren alle 17 Arbeiter mit hyperkeratotischen Läsionen oder Bowen-Läsionen in der Vorgeschichte direkt Bipyridyl und seinen Isomeren ausgesetzt. Je länger die Exposition gegenüber Bipyridylen, desto wahrscheinlicher ist die Entwicklung von Hautläsionen, und dieser Trend kann nicht durch Sonnenlicht oder Alter erklärt werden, wie durch Stratifizierung und logistische Regressionsanalyse gezeigt wurde. Daher wurde die Hautläsion vorläufig einer Kombination aus Bipyridyl-Exposition und Sonnenlicht zugeschrieben. Wir unternahmen weitere Widerlegungsversuche, um nachzuverfolgen, ob ein neuer Fall auftrat, nachdem wir alle Prozesse eingeschlossen hatten, die eine Exposition gegenüber Bipyridylen beinhalteten. Es wurde kein neuer Fall gefunden.

        Diskussion und zusammenfassung

        Die oben genannten drei Beispiele haben gezeigt, wie wichtig es ist, einen widerlegenden Ansatz und eine Datenbank für Berufskrankheiten zu wählen. Die erstere lässt uns alternative Hypothesen immer auf die gleiche Weise in Betracht ziehen wie die ursprüngliche intuitive Hypothese, während die letztere eine detaillierte Liste chemischer Wirkstoffe liefert, die uns zur wahren Ätiologie führen können. Eine mögliche Einschränkung dieses Ansatzes besteht darin, dass wir nur solche alternativen Erklärungen berücksichtigen können, die wir uns vorstellen können. Wenn unsere Liste mit Alternativen unvollständig ist, können wir keine Antwort oder eine falsche Antwort erhalten. Daher ist eine umfassende Datenbank über Berufskrankheiten entscheidend für den Erfolg dieser Strategie.

        Früher haben wir unsere eigene Datenbank mühsam aufgebaut. Die kürzlich veröffentlichten OSH-ROM-Datenbanken, die die NIOSHTIC-Datenbank mit mehr als 160,000 Abstracts enthalten, könnten jedoch eine der umfassendsten für einen solchen Zweck sein, wie an anderer Stelle in der diskutiert wird Enzyklopädie. Darüber hinaus könnten wir beim Auftreten einer neuen Berufskrankheit eine solche Datenbank durchsuchen und alle bekannten Krankheitserreger ausschließen und keine unwiderlegt lassen. In einer solchen Situation können wir versuchen, den neuen Agenten (oder das berufliche Umfeld) so spezifisch wie möglich zu identifizieren oder zu definieren, damit das Problem zunächst gemildert werden kann, und dann weitere Hypothesen testen. Der Fall von prämalignen Hautläsionen bei Paraquat-Herstellern ist ein gutes Beispiel dafür.

         

        Zurück

        Rolle von Fragebögen in der epidemiologischen Forschung

        Epidemiologische Forschung wird im Allgemeinen durchgeführt, um eine spezifische Forschungsfrage zu beantworten, die sich auf die Exposition von Personen gegenüber gefährlichen Stoffen oder Situationen mit späteren gesundheitlichen Folgen wie Krebs oder Tod bezieht. Im Mittelpunkt fast jeder dieser Untersuchungen steht ein Fragebogen, der das grundlegende Instrument zur Datenerhebung darstellt. Auch wenn physikalische Messungen in einer Arbeitsplatzumgebung durchgeführt werden sollen und insbesondere wenn biologisches Material wie Serum von exponierten oder nicht exponierten Studienteilnehmern gesammelt werden soll, ist ein Fragebogen unerlässlich, um durch systematisches Sammeln persönlicher und anderer Daten ein angemessenes Expositionsbild zu entwickeln Eigenschaften auf organisierte und einheitliche Weise.

        Der Fragebogen erfüllt eine Reihe kritischer Forschungsfunktionen:

        • Es liefert Daten zu Personen, die möglicherweise aus keiner anderen Quelle verfügbar sind, einschließlich Arbeitsplatzaufzeichnungen oder Umgebungsmessungen.
        • Es ermöglicht gezielte Untersuchungen zu konkreten Arbeitsplatzproblemen.
        • Es liefert grundlegende Informationen, anhand derer zukünftige gesundheitliche Auswirkungen bewertet werden können.
        • Es liefert Informationen über Teilnehmermerkmale, die für eine ordnungsgemäße Analyse und Interpretation von Expositions-Ergebnis-Beziehungen erforderlich sind, insbesondere möglicherweise verwirrende Variablen wie Alter und Bildung und andere Lebensstilvariablen, die das Krankheitsrisiko beeinflussen können, wie Rauchen und Ernährung.

         

        Platz des Fragebogendesigns innerhalb der allgemeinen Studienziele

        Während der Fragebogen oft der sichtbarste Teil einer epidemiologischen Studie ist, insbesondere für die Arbeiter oder andere Studienteilnehmer, ist er nur ein Werkzeug und wird von Forschern oft als „Instrument“ bezeichnet. Abbildung 1 zeigt sehr allgemein die Phasen des Erhebungsdesigns von der Konzeption bis zur Datenerhebung und -analyse. Die Abbildung zeigt vier Ebenen oder Stufen des Studienbetriebs, die während der gesamten Dauer der Studie parallel ablaufen: Stichprobenziehung, Fragebogen, Operationen und Analyse. Die Abbildung zeigt ganz deutlich, wie die Phasen der Fragebogenentwicklung mit dem gesamten Studienplan zusammenhängen, beginnend mit einem ersten Entwurf zu einem ersten Entwurf sowohl des Fragebogens als auch der zugehörigen Codes, gefolgt von Vortests innerhalb einer ausgewählten Subpopulation, einer oder mehrerer Überarbeitungen, die durch Vortesterfahrungen diktiert werden, und Vorbereitung des endgültigen Dokuments für die eigentliche Datenerfassung im Feld. Am wichtigsten ist der Kontext: Jede Phase der Fragebogenentwicklung wird in Verbindung mit einer entsprechenden Phase der Erstellung und Verfeinerung des gesamten Stichprobenplans sowie des operativen Designs für die Verwaltung des Fragebogens durchgeführt.

        Abbildung 1. Die Phasen einer Umfrage

        EPI110F1

        Studienarten und Fragebögen

        Die Forschungsziele der Studie selbst bestimmen den Aufbau, die Länge und den Inhalt des Fragebogens. Diese Fragebogenattribute werden ausnahmslos durch die Methode der Datenerhebung gemildert, die normalerweise in eine von drei Arten fällt: persönlich, per Post und Telefon. Jede davon hat ihre Vor- und Nachteile, die sich nicht nur auf die Qualität der Daten, sondern auch auf die Validität der gesamten Studie auswirken können.

        A versandten Fragebogen ist das kostengünstigste Format und kann Arbeitnehmer in einem großen geografischen Gebiet abdecken. Da die Gesamtantwortquoten jedoch oft niedrig sind (typischerweise 45 bis 75 %), kann es nicht übermäßig komplex sein, da es wenig oder keine Gelegenheit zur Klärung von Fragen gibt und es schwierig sein kann, festzustellen, ob potenzielle Antworten auf eine kritische Exposition oder andere Fragen unterscheiden sich systematisch zwischen Befragten und Nichtbeantwortern. Das physische Layout und die Sprache müssen für die am wenigsten gebildeten potenziellen Studienteilnehmer geeignet sein und in einem relativ kurzen Zeitraum, normalerweise 20 bis 30 Minuten, abgeschlossen werden können.

        Telefonische Fragebögen können in bevölkerungsbasierten Studien verwendet werden – d. h. Umfragen, bei denen eine Stichprobe einer geografisch definierten Bevölkerung befragt wird – und sind eine praktische Methode, um Informationen in vorhandenen Datendateien zu aktualisieren. Sie können in Sprache und Inhalt länger und komplexer sein als per Post versandte Fragebögen, und da sie von geschulten Interviewern verwaltet werden, können die höheren Kosten einer telefonischen Umfrage teilweise durch eine physische Strukturierung des Fragebogens für eine effiziente Verwaltung (z. B. durch Sprungmuster) ausgeglichen werden. Die Rücklaufquoten sind in der Regel besser als bei Fragebögen per Post, unterliegen jedoch Verzerrungen im Zusammenhang mit der zunehmenden Nutzung von Anrufbeantwortern, Ablehnungen, Nichtkontakten und Problemen von Bevölkerungsgruppen mit eingeschränktem Telefondienst. Solche Verzerrungen beziehen sich im Allgemeinen auf das Stichprobendesign selbst und nicht speziell auf den Fragebogen. Obwohl telefonische Fragebögen in Nordamerika schon lange verwendet werden, muss ihre Durchführbarkeit in anderen Teilen der Welt erst noch nachgewiesen werden.

        Gespräche von Angesicht zu Angesicht Interviews bieten die beste Gelegenheit, genaue komplexe Daten zu sammeln; Sie sind auch am teuersten in der Verwaltung, da sie sowohl Schulungen als auch Reisen für professionelles Personal erfordern. Das physische Layout und die Reihenfolge der Fragen können so angeordnet werden, dass die Verwaltungszeit optimiert wird. Studien, die persönliche Befragungen verwenden, haben im Allgemeinen die höchsten Rücklaufquoten und unterliegen der geringsten Antwortverzerrung. Dies ist auch die Art des Interviews, bei der der Interviewer am ehesten erfährt, ob der Teilnehmer ein Fall ist oder nicht (in einer Fall-Kontroll-Studie) oder den Expositionsstatus des Teilnehmers (in einer Kohortenstudie). Daher muss darauf geachtet werden, die Objektivität des Interviewers zu wahren, indem man ihn oder sie darin schult, Leitfragen und Körpersprache zu vermeiden, die voreingenommene Antworten hervorrufen könnten.

        Es wird immer üblicher, a zu verwenden Hybrides Studiendesign bei der komplexe Expositionssituationen in einem persönlichen oder telefonischen Interview bewertet werden, das eine maximale Sondierung und Klärung ermöglicht, gefolgt von einem per Post zugesandten Fragebogen zur Erfassung von Lebensstildaten wie Rauchen und Ernährung.

        Vertraulichkeit und Fragen der Forschungsteilnehmer

        Da der Zweck eines Fragebogens darin besteht, Daten über Einzelpersonen zu erhalten, muss sich die Gestaltung des Fragebogens an etablierten Standards für die ethische Behandlung menschlicher Probanden orientieren. Diese Richtlinien gelten für die Erhebung von Fragebogendaten ebenso wie für biologische Proben wie Blut und Urin oder Gentests. In den Vereinigten Staaten und vielen anderen Ländern dürfen keine Studien mit Menschen mit öffentlichen Mitteln durchgeführt werden, es sei denn, Sprache und Inhalt des Fragebogens wurden zuvor von einem geeigneten Institutional Review Board genehmigt. Eine solche Genehmigung soll sicherstellen, dass die Fragen auf legitime Studienzwecke beschränkt sind und nicht das Recht der Studienteilnehmer auf freiwillige Beantwortung von Fragen verletzen. Die Teilnehmer müssen sicher sein, dass ihre Teilnahme an der Studie völlig freiwillig ist und dass die Weigerung, Fragen zu beantworten oder überhaupt teilzunehmen, ihnen keine Strafen auferlegt oder ihre Beziehung zu ihrem Arbeitgeber oder Arzt verändert.

        Die Teilnehmer müssen auch sicher sein, dass die von ihnen bereitgestellten Informationen vom Ermittler streng vertraulich behandelt werden, der selbstverständlich Maßnahmen ergreifen muss, um die physische Sicherheit und Unverletzlichkeit der Daten zu gewährleisten. Dies bringt häufig eine physische Trennung von Informationen bezüglich der Identität von Teilnehmern von computerisierten Datendateien mit sich. Es ist gängige Praxis, die Studienteilnehmer darauf hinzuweisen, dass ihre Antworten auf Fragebogenelemente nur zusammen mit den Antworten anderer Teilnehmer in statistischen Berichten verwendet und nicht an den Arbeitgeber, Arzt oder andere Parteien weitergegeben werden.

        Messaspekte des Fragebogendesigns

        Eine der wichtigsten Funktionen eines Fragebogens besteht darin, Daten über einen Aspekt oder eine Eigenschaft einer Person in qualitativer oder quantitativer Form zu erhalten. Einige Elemente können so einfach sein wie Gewicht, Größe oder Alter, während andere erheblich komplizierter sein können, wie z. B. die Reaktion einer Person auf Stress. Qualitative Antworten, wie das Geschlecht, werden normalerweise in numerische Variablen umgewandelt. Alle diese Maßnahmen können durch ihre Validität und Zuverlässigkeit charakterisiert werden. Validität ist der Grad, in dem sich eine aus einem Fragebogen abgeleitete Zahl ihrem wahren, aber möglicherweise unbekannten Wert annähert. Zuverlässigkeit misst die Wahrscheinlichkeit, dass eine bestimmte Messung bei Wiederholung dasselbe Ergebnis liefert, unabhängig davon, ob dieses Ergebnis nahe an der „Wahrheit“ liegt oder nicht. Abbildung 2 zeigt, wie diese Konzepte zusammenhängen. Es zeigt, dass eine Messung gültig, aber nicht zuverlässig, zuverlässig, aber nicht gültig oder sowohl gültig als auch zuverlässig sein kann.

        Abbildung 2. Beziehung zwischen Gültigkeit und Zuverlässigkeit

        EPI110F2

        Im Laufe der Jahre wurden viele Fragebögen von Forschern entwickelt, um Forschungsfragen von breitem Interesse zu beantworten. Beispiele sind der Scholastic Aptitude Test, der das Potenzial eines Schülers für zukünftige akademische Leistungen misst, und das Minnesota Multiphasic Personality Inventory (MMPI), das bestimmte psychosoziale Merkmale misst. Eine Vielzahl anderer psychologischer Indikatoren werden im Kapitel über Psychometrie besprochen. Es gibt auch etablierte physiologische Skalen, wie z. B. den Fragebogen des British Medical Research Council (BMRC) zur Lungenfunktion. Diese Instrumente haben eine Reihe wichtiger Vorteile. Dazu gehören vor allem die Tatsache, dass sie bereits entwickelt und getestet wurden, normalerweise in vielen Bevölkerungsgruppen, und dass ihre Zuverlässigkeit und Gültigkeit bekannt sind. Wer einen Fragebogen konstruiert, ist gut beraten, solche Skalen zu verwenden, wenn sie zum Studienzweck passen. Sie ersparen sich nicht nur den Aufwand, „das Rad neu zu erfinden“, sondern erhöhen auch die Wahrscheinlichkeit, dass Studienergebnisse von der Forschungsgemeinschaft als valide akzeptiert werden. Es ermöglicht auch aussagekräftigere Vergleiche von Ergebnissen aus verschiedenen Studien, vorausgesetzt, sie wurden richtig verwendet.

        Die vorstehenden Skalen sind Beispiele für zwei wichtige Arten von Maßnahmen, die häufig in Fragebögen verwendet werden, um Konzepte zu quantifizieren, die möglicherweise nicht vollständig objektiv messbar sind, wie dies bei Größe und Gewicht der Fall ist, oder die viele ähnliche Fragen erfordern, um den Bereich vollständig zu erfassen ein bestimmtes Verhaltensmuster. Ganz allgemein sind Indizes und Skalen zwei Datenreduktionstechniken, die eine numerische Zusammenfassung von Fragengruppen liefern. Die obigen Beispiele veranschaulichen physiologische und psychologische Indizes und werden auch häufig zur Messung von Wissen, Einstellung und Verhalten verwendet. Kurz gesagt, ein Index wird normalerweise als eine Punktzahl konstruiert, die erhalten wird, indem aus einer Gruppe verwandter Fragen die Anzahl der Elemente gezählt wird, die auf einen Studienteilnehmer zutreffen. Wenn beispielsweise ein Fragebogen eine Liste von Krankheiten enthält, könnte ein Krankheitsverlaufsindex die Gesamtzahl der Krankheiten sein, von denen ein Befragter sagt, dass er oder sie sie hatte. EIN Treppe ist ein zusammengesetztes Maß, das auf der Intensität basiert, mit der ein Teilnehmer eine oder mehrere verwandte Fragen beantwortet. Beispielsweise wird die Likert-Skala, die häufig in der Sozialforschung verwendet wird, typischerweise aus Aussagen konstruiert, denen man stark zustimmen, schwach zustimmen, keine Meinung äußern, schwach ablehnen oder stark ablehnen kann, wobei die Antwort als eine Zahl von 1 bewertet wird bis 5. Skalen und Indizes können summiert oder anderweitig kombiniert werden, um ein ziemlich komplexes Bild der physischen, psychologischen, sozialen oder Verhaltensmerkmale der Studienteilnehmer zu erhalten.

        Validität verdient wegen ihrer Widerspiegelung der „Wahrheit“ besondere Beachtung. Drei häufig diskutierte wichtige Validitätstypen sind Gesichts-, Inhalts- und Kriteriumsvalidität. Gesichtsgültigkeit ist eine subjektive Eigenschaft eines Indikators, der sicherstellt, dass die Formulierung einer Frage klar und eindeutig ist. Inhaltsgültigkeit stellt sicher, dass die Fragen dazu dienen, die Antwortdimension zu erschließen, an der der Forscher interessiert ist. Kriterium (oder prädiktiv) Gültigkeit wird aus einer objektiven Bewertung abgeleitet, wie nahe sich eine Fragebogenmessung einer separat messbaren Größe annähert, wie zum Beispiel, wie gut eine Fragebogenbewertung der Vitamin-A-Zufuhr mit der Nahrung mit dem tatsächlichen Vitamin-A-Verbrauch übereinstimmt, basierend auf der Nahrungsaufnahme, die mit Ernährungsaufzeichnungen dokumentiert ist.

        Inhalt, Qualität und Länge des Fragebogens

        Wortlaut. Das Formulieren von Fragen ist sowohl eine Kunst als auch eine professionelle Fertigkeit. Daher können nur die allgemeinsten Richtlinien präsentiert werden. Es besteht allgemein Einigkeit darüber, dass Fragen formuliert werden sollten, die:

        1. Motivieren Sie den Teilnehmer zu einer Antwort
        2. auf das persönliche Wissen des Teilnehmers zurückgreifen
        3. seine Einschränkungen und seinen persönlichen Bezugsrahmen berücksichtigen, damit Ziel und Bedeutung der Fragen leicht verständlich sind und
        4. eine Antwort hervorrufen, die auf dem eigenen Wissen des Teilnehmers basiert, und kein Raten erfordern, außer möglicherweise bei Einstellungs- und Meinungsfragen.

         

        Fragenfolge und Struktur. Sowohl die Reihenfolge als auch die Präsentation der Fragen können die Qualität der gesammelten Informationen beeinflussen. Ein typischer Fragebogen, ob selbst ausgefüllt oder von einem Interviewer gelesen, enthält einen Prolog, der die Studie und ihr Thema dem Befragten vorstellt, alle zusätzlichen Informationen liefert, die er oder sie benötigt, und versucht, den Befragten zu motivieren, die Fragen zu beantworten. Die meisten Fragebögen enthalten einen Abschnitt zum Sammeln demografischer Informationen wie Alter, Geschlecht, ethnischer Hintergrund und andere Variablen über den Hintergrund des Teilnehmers, einschließlich möglicherweise verwirrender Variablen. Der Hauptgegenstand der Datenerhebung, wie Art des Arbeitsplatzes und Exposition gegenüber bestimmten Stoffen, ist normalerweise ein eigener Fragebogenabschnitt, dem oft ein eigener einleitender Prolog vorangestellt ist, der den Teilnehmer möglicherweise zunächst an bestimmte Aspekte der Arbeit erinnert oder Arbeitsplatz, um einen Kontext für Detailfragen zu schaffen. Das Layout von Fragen, die dazu bestimmt sind, Arbeitslebenschronologien zu erstellen, sollte so angeordnet sein, dass das Risiko chronologischer Auslassungen minimiert wird. Schließlich ist es üblich, dem Befragten für seine Teilnahme zu danken.

        Arten von Fragen. Der Designer muss entscheiden, ob er offene Fragen verwendet, bei denen die Teilnehmer ihre eigenen Antworten zusammenstellen, oder geschlossene Fragen, die eine eindeutige Antwort oder eine Auswahl aus einem kurzen Menü möglicher Antworten erfordern. Geschlossene Fragen haben den Vorteil, dass sie Alternativen für den Befragten verdeutlichen, schnelle Antworten vermeiden und langwieriges Geschwätz minimieren, das möglicherweise nicht interpretiert werden kann. Sie erfordern jedoch, dass der Konstrukteur die Bandbreite möglicher Reaktionen antizipiert, um zu vermeiden, dass Informationen verloren gehen, insbesondere bei unerwarteten Situationen, die an vielen Arbeitsplätzen auftreten. Dies wiederum erfordert gut geplante Pilotversuche. Der Untersucher muss entscheiden, ob und in welchem ​​Umfang eine „weiß nicht“-Antwortkategorie zugelassen wird.

        Länge. Die Festlegung der endgültigen Länge eines Fragebogens erfordert eine Balance zwischen dem Wunsch, möglichst viele Detailinformationen zur Erreichung der Studienziele zu erhalten, und der Tatsache, dass ein zu langer Fragebogen viele Befragte irgendwann das Interesse verliert und entweder nicht mehr antwortet oder hastig, ungenau und unüberlegt antworten, um die Sitzung zu beenden. Andererseits kann ein sehr kurzer Fragebogen zwar eine hohe Rücklaufquote erzielen, aber die Studienziele nicht erreichen. Da die Motivation der Befragten oft von einem persönlichen Anteil am Ergebnis abhängt, wie z. B. der Verbesserung der Arbeitsbedingungen, kann die Toleranz für einen langen Fragebogen stark variieren, insbesondere wenn einige Teilnehmer (z. B. Arbeiter in einem bestimmten Werk) ihren Anteil als höher einschätzen andere (z. B. Personen, die per zufälliger Telefonwahl kontaktiert wurden). Dieses Gleichgewicht kann nur durch Pilotversuche und Erfahrung erreicht werden. Vom Interviewer verwaltete Fragebögen sollten die Anfangs- und Endzeit erfassen, um die Berechnung der Interviewdauer zu ermöglichen. Diese Informationen sind hilfreich, um das Qualitätsniveau der Daten zu beurteilen.

        Sprache. Es ist wichtig, die Sprache der Bevölkerung zu verwenden, um die Fragen für alle verständlich zu machen. Dazu kann es erforderlich sein, sich mit der lokalen Umgangssprache vertraut zu machen, die in jedem Land unterschiedlich sein kann. Selbst in Ländern, in denen nominell dieselbe Sprache gesprochen wird, wie Großbritannien und die Vereinigten Staaten oder die spanischsprachigen Länder Lateinamerikas, können lokale Redewendungen und Verwendungen auf eine Weise variieren, die die Interpretation verschleiern können. Zum Beispiel ist „Tee“ in den USA lediglich ein Getränk, während es in Großbritannien je nach Gebietsschema und Kontext „eine Kanne Tee“, „High Tea“ oder „das wichtigste Abendessen“ bedeuten kann. Es ist besonders wichtig, wissenschaftlichen Jargon zu vermeiden, es sei denn, die Studienteilnehmenden können spezielle Fachkenntnisse erwarten.

        Klarheit und Leitfragen. Während kürzere Fragen oft klarer sind, gibt es Ausnahmen, insbesondere wenn ein komplexes Thema eingeführt werden muss. Trotzdem klären kurze Fragen das Denken und reduzieren unnötige Worte. Sie verringern auch die Wahrscheinlichkeit, dass der Befragte mit zu vielen zu verdauenden Informationen überlastet wird. Wenn der Zweck der Studie darin besteht, objektive Informationen über die Arbeitssituation des Teilnehmers zu erhalten, ist es wichtig, die Fragen neutral zu formulieren und „Leitfragen“ zu vermeiden, die eine bestimmte Antwort begünstigen könnten, wie „Stimmen Sie zu, dass Ihr Arbeitsplatz Bedingungen sind gesundheitsschädlich?“

        Fragebogen-Layout. Das physische Layout eines Fragebogens kann die Kosten und die Effizienz einer Studie beeinflussen. Es ist wichtiger für selbstverwaltete Fragebögen als für solche, die von Interviewern durchgeführt werden. Ein Fragebogen, der vom Befragten ausgefüllt werden soll, aber zu komplex oder schwer lesbar ist, kann beiläufig ausgefüllt oder sogar verworfen werden. Sogar Fragebögen, die von geschulten Interviewern laut vorgelesen werden sollen, müssen in klarer, lesbarer Schrift gedruckt werden, und Muster des Überspringens von Fragen müssen so angegeben werden, dass ein stetiger Fragefluss aufrechterhalten und das Umblättern und Suchen nach dem nächsten zutreffenden minimiert wird Frage.

        Gültigkeitsbedenken

        Befangenheit

        Der Feind der objektiven Datenerhebung ist die Voreingenommenheit, die sich aus systematischen, aber ungeplanten Unterschieden zwischen Personengruppen ergibt: Fälle und Kontrollen in einer Fall-Kontroll-Studie oder exponierte und nicht exponierte in einer Kohortenstudie. Informationsverzerrung kann eingeführt werden, wenn zwei Gruppen von Teilnehmern dieselbe Frage unterschiedlich verstehen oder unterschiedlich darauf reagieren. Dies kann beispielsweise der Fall sein, wenn Fragen so gestellt werden, dass spezielles technisches Wissen über einen Arbeitsplatz oder seine Expositionen erforderlich ist, das von exponierten Arbeitnehmern, aber nicht unbedingt von der allgemeinen Öffentlichkeit, aus der die Kontrollen stammen, verstanden werden würde.

        Die Verwendung von Ersatzpersonen für kranke oder verstorbene Arbeitnehmer birgt das Potenzial für Voreingenommenheit, da sich die nächsten Angehörigen wahrscheinlich auf andere Weise und mit weniger Genauigkeit an Informationen erinnern als der Arbeitnehmer selbst. Die Einführung einer solchen Verzerrung ist besonders wahrscheinlich in Studien, in denen einige Interviews direkt mit Studienteilnehmern durchgeführt werden, während andere Interviews mit Verwandten oder Mitarbeitern anderer Forschungsteilnehmer durchgeführt werden. In beiden Situationen muss darauf geachtet werden, jegliche Auswirkungen zu reduzieren, die sich aus der Kenntnis des Interviewers über die Krankheit oder den Expositionsstatus des betreffenden Arbeitnehmers ergeben könnten. Da es nicht immer möglich ist, Interviewer „blind“ zu halten, ist es wichtig, während des Trainings auf Objektivität und Vermeidung von Leit- oder Suggestivfragen oder unbewusster Körpersprache zu achten und die Leistung während der Durchführung der Studie zu überwachen.

        Rückruf-Bias Ergebnisse, wenn Fälle und Kontrollen Expositionen oder Arbeitssituationen unterschiedlich „erinnern“. Krankenhauspatienten mit einer potenziellen berufsbedingten Krankheit können sich möglicherweise besser an Details ihrer Krankengeschichte oder beruflichen Expositionen erinnern als Personen, die zufällig am Telefon kontaktiert werden. Eine Art dieser Voreingenommenheit, die immer häufiger vorkommt, wurde gekennzeichnet sozialer Wunsch nach Neigung. Es beschreibt die Tendenz vieler Menschen, bewusst oder unbewusst ihre „schlechten Gewohnheiten“ wie Zigarettenrauchen oder den Verzehr von fett- und cholesterinreichen Lebensmitteln zu unterschätzen und „gute Gewohnheiten“ wie Sport zu übertreiben.

        Reaktionsverzerrung bezeichnet eine Situation, in der eine Gruppe von Studienteilnehmern, z. B. Arbeitnehmer mit einer bestimmten beruflichen Exposition, möglicherweise eher Fragebögen ausfüllt oder anderweitig an einer Studie teilnimmt als nicht exponierte Personen. Eine solche Situation kann zu einer voreingenommenen Einschätzung des Zusammenhangs zwischen Exposition und Krankheit führen. Antwortverzerrung kann vermutet werden, wenn sich die Antwortraten oder die zum Ausfüllen eines Fragebogens oder Interviews benötigte Zeit zwischen den Gruppen erheblich unterscheiden (z. B. Fälle vs. Kontrollen, exponiert vs. nicht exponiert). Die Antwortverzerrung unterscheidet sich im Allgemeinen in Abhängigkeit von der Art der Fragebogenverwaltung. Fragebögen, die per Post verschickt werden, werden in der Regel eher von Personen zurückgeschickt, die ein persönliches Interesse an den Studienergebnissen sehen, und eher von zufällig ausgewählten Personen aus der Allgemeinbevölkerung ignoriert oder verworfen. Viele Ermittler, die postalische Umfragen verwenden, bauen auch einen Nachverfolgungsmechanismus ein, der zweite und dritte Mailings sowie anschließende Telefonkontakte mit Nichtbefragten umfassen kann, um die Rücklaufquoten zu maximieren.

        Studien, die telefonische Umfragen verwenden, einschließlich solcher, die zufällige Ziffernwahl verwenden, um Kontrollen zu identifizieren, haben normalerweise eine Reihe von Regeln oder ein Protokoll, das definiert, wie oft versucht werden muss, potenzielle Befragte zu kontaktieren, einschließlich Tageszeit und ob abends oder abends Wochenendanrufe sollten versucht werden. Diejenigen, die klinische Studien durchführen, erfassen normalerweise die Anzahl der Patienten, die die Teilnahme verweigern, und die Gründe für die Nichtteilnahme. In all diesen Fällen werden verschiedene Maßnahmen von Ansprechraten erfasst werden, um beurteilen zu können, inwieweit die Zielpopulation tatsächlich erreicht wurde.

        Selektionsvorspannung Ergebnisse, wenn eine Gruppe von Teilnehmern bevorzugt auf eine Studie anspricht oder anderweitig an einer Studie teilnimmt, und kann zu einer voreingenommenen Einschätzung der Beziehung zwischen Exposition und Krankheit führen. Um die Auswahlverzerrung zu beurteilen und festzustellen, ob sie zu einer Unter- oder Überschätzung der Exposition führt, können demografische Informationen wie das Bildungsniveau verwendet werden, um Befragte mit Nichtbefragten zu vergleichen. Wenn beispielsweise Teilnehmer mit geringer Bildung niedrigere Rücklaufquoten aufweisen als Teilnehmer mit höherer Bildung und wenn bekannt ist, dass ein bestimmter Beruf oder eine bestimmte Rauchgewohnheit in weniger gebildeten Gruppen häufiger vorkommt, dann liegt ein Selektionsbias mit einer Unterschätzung der Exposition gegenüber dieser Berufs- oder Raucherkategorie vor ist wahrscheinlich vorgekommen.

        Verwirrend ist eine wichtige Art von Selektionsverzerrung, die entsteht, wenn die Auswahl der Befragten (Fälle und Kontrollen in einer Fall-Kontroll-Studie oder exponierte und nicht exponierte in einer Kohortenstudie) in irgendeiner Weise von einer dritten Variablen abhängt, manchmal auf eine Weise, die ihnen unbekannt ist Ermittler. Wenn es nicht erkannt und kontrolliert wird, kann es zu unvorhersehbaren Unter- oder Überschätzungen von Krankheitsrisiken im Zusammenhang mit beruflicher Exposition führen. Confounding wird normalerweise entweder durch Manipulieren des Studiendesigns selbst (z. B. durch Abgleichen von Fällen mit Kontrollen in Bezug auf Alter und andere Variablen) oder in der Analysephase behandelt. Einzelheiten zu diesen Techniken werden in anderen Artikeln in diesem Kapitel vorgestellt.

        Dokumentation

        Bei jeder Forschungsstudie müssen alle Studienverfahren sorgfältig dokumentiert werden, damit sich alle Mitarbeiter, einschließlich Interviewer, Aufsichtspersonal und Forscher, über ihre jeweiligen Aufgaben im Klaren sind. In den meisten fragebogenbasierten Studien a codierung handbuch erstellt, der Frage für Frage alles beschreibt, was der Interviewer über den wörtlichen Wortlaut der Fragen hinaus wissen muss. Dies beinhaltet Anweisungen zum Codieren kategorialer Antworten und kann explizite Anweisungen zum Sondieren enthalten, wobei die Fragen aufgelistet werden, für die dies zulässig ist, und diejenigen, für die dies nicht zulässig ist. In vielen Studien werden im Feld gelegentlich neue, unvorhergesehene Antwortoptionen für bestimmte Fragen angetroffen; diese sind im Mastercodebuch festzuhalten und Kopien von Ergänzungen, Änderungen oder neuen Anweisungen rechtzeitig an alle Interviewer zu verteilen.

        Planen, Testen und Überarbeiten

        Wie aus Abbildung 1 ersichtlich, erfordert die Fragebogenentwicklung viel Nachdenken Planung. Jeder Fragebogen muss in mehreren Stufen getestet werden, um sicherzustellen, dass die Fragen „funktionieren“, dh verständlich sind und Antworten in der beabsichtigten Qualität liefern. Es ist nützlich, neue Fragen an Freiwilligen zu testen und sie dann ausführlich zu befragen, um festzustellen, wie gut bestimmte Fragen verstanden wurden und welche Arten von Problemen oder Unklarheiten aufgetreten sind. Die Ergebnisse können dann genutzt werden den Fragebogen überarbeiten, und der Vorgang kann bei Bedarf wiederholt werden. Die Freiwilligen werden manchmal als „Fokusgruppe“ bezeichnet.

        Alle epidemiologischen Studien erfordern Piloten test, nicht nur für die Fragebögen, sondern auch für die Studienverfahren. Ein gut gestalteter Fragebogen erfüllt nur dann seinen Zweck, wenn er den Studienteilnehmern effizient übermittelt werden kann, und dies kann nur durch Testverfahren in der Praxis und gegebenenfalls durch Anpassungen festgestellt werden.

        Interviewertraining und -supervision

        Bei Studien, die per Telefon- oder Face-to-Face-Interview durchgeführt werden, spielt der Interviewer eine entscheidende Rolle. Diese Person ist nicht nur dafür verantwortlich, den Studienteilnehmern Fragen zu stellen und ihre Antworten aufzuzeichnen, sondern auch für die Interpretation dieser Antworten. Selbst bei der am strengsten strukturierten Interviewstudie bitten Befragte gelegentlich um Klärung von Fragen oder bieten Antworten an, die nicht in die verfügbaren Antwortkategorien passen. In solchen Fällen besteht die Aufgabe des Interviewers darin, entweder die Frage oder die Antwort in Übereinstimmung mit der Absicht des Forschers zu interpretieren. Um dies effektiv und konsistent zu tun, sind Schulung und Überwachung durch einen erfahrenen Forscher oder Manager erforderlich. Wenn mehr als ein Interviewer für eine Studie eingesetzt wird, ist die Interviewerschulung besonders wichtig, um sicherzustellen, dass die Fragen einheitlich präsentiert und die Antworten interpretiert werden. In vielen Forschungsprojekten wird dies in Gruppentrainingsumgebungen durchgeführt und periodisch (z. B. jährlich) wiederholt, um die Fähigkeiten der Interviewer auf dem neuesten Stand zu halten. Schulungsseminare decken in der Regel die folgenden Themen ausführlich ab:

        • Allgemeine Einführung in das Studium
        • Einverständniserklärung und Fragen der Vertraulichkeit
        • wie man das Interview einleitet und wie man mit Befragten interagiert
        • die beabsichtigte Bedeutung jeder Frage
        • Anweisungen zum Hinterfragen, dh dem Befragten weitere Möglichkeiten bieten, Antworten zu verdeutlichen oder auszuschmücken
        • Besprechung typischer Probleme, die in Vorstellungsgesprächen auftreten.

         

        Die Studienaufsicht beinhaltet oft eine Beobachtung vor Ort, die eine Tonbandaufzeichnung von Interviews für die anschließende Präparation beinhalten kann. Es ist gängige Praxis, dass der Vorgesetzte jeden Fragebogen persönlich überprüft, bevor er ihn genehmigt und zur Dateneingabe einreicht. Der Supervisor legt auch Leistungsstandards für Interviewer fest und setzt diese durch und führt in einigen Studien unabhängige Wiederholungsinterviews mit ausgewählten Teilnehmern als Zuverlässigkeitsprüfung durch.

        Datenerhebung

        Die eigentliche Verteilung der Fragebögen an die Studienteilnehmer und die anschließende Sammlung zur Analyse erfolgt auf einem der drei oben beschriebenen Wege: per Post, Telefon oder persönlich. Manche Forscherinnen und Forscher organisieren und führen diese Funktion sogar selbst innerhalb ihrer eigenen Institutionen durch. Während es für einen leitenden Ermittler von großem Vorteil ist, sich aus erster Hand mit der Dynamik des Interviews vertraut zu machen, ist es für geschulte und gut betreute professionelle Interviewer am kostengünstigsten und förderlich, eine hohe Datenqualität aufrechtzuerhalten, wenn sie Teil des Forschungsteams sind .

        Einige Forscher treffen vertragliche Vereinbarungen mit Unternehmen, die auf Umfrageforschung spezialisiert sind. Auftragnehmer können eine Reihe von Dienstleistungen erbringen, die eine oder mehrere der folgenden Aufgaben umfassen können: Verteilen und Sammeln von Fragebögen, Durchführung telefonischer oder persönlicher Befragungen, Beschaffung biologischer Proben wie Blut oder Urin, Datenverwaltung und statistische Analyse und Berichterstattung. Unabhängig vom Grad der Unterstützung sind die Auftragnehmer in der Regel für die Bereitstellung von Informationen über Rücklaufquoten und Datenqualität verantwortlich. Dennoch trägt der Forscher die letzte Verantwortung für die wissenschaftliche Integrität der Studie.

        Zuverlässigkeit und Wiederholungsinterviews

        Die Datenqualität kann durch erneute Befragung einer Stichprobe der ursprünglichen Studienteilnehmer bewertet werden. Dies bietet ein Mittel zur Bestimmung der Zuverlässigkeit der Erstinterviews und eine Schätzung der Wiederholbarkeit der Antworten. Der gesamte Fragebogen muss nicht erneut verwaltet werden; eine Teilmenge von Fragen ist in der Regel ausreichend. Statistische Tests sind verfügbar, um die Zuverlässigkeit einer Reihe von Fragen zu beurteilen, die demselben Teilnehmer zu unterschiedlichen Zeiten gestellt wurden, sowie um die Zuverlässigkeit der Antworten zu bewerten, die von verschiedenen Teilnehmern und sogar von verschiedenen Interviewern (d. h. inter- und intrainterviewt) gegeben wurden -Rater-Bewertungen).

        Technologie der Fragebogenbearbeitung

        Fortschritte in der Computertechnologie haben viele verschiedene Möglichkeiten geschaffen, wie Fragebogendaten erfasst und dem Forscher für Computeranalysen zur Verfügung gestellt werden können. Es gibt drei grundsätzlich unterschiedliche Arten, wie Daten computerisiert werden können: in Echtzeit (dh während der Teilnehmer während eines Interviews antwortet), durch traditionelle Schlüsseleingabemethoden und durch optische Datenerfassungsmethoden.

        Computergestützte Datenerfassung

        Viele Forscher verwenden heute Computer, um Antworten auf Fragen zu sammeln, die sowohl in persönlichen als auch in telefonischen Interviews gestellt werden. Forscher auf diesem Gebiet finden es praktisch, Laptop-Computer zu verwenden, die so programmiert sind, dass sie die Fragen nacheinander anzeigen und die es dem Interviewer ermöglichen, die Antwort sofort einzugeben. Umfrageforschungsunternehmen, die Telefoninterviews durchführen, haben analoge Systeme entwickelt, die computergestützte Telefoninterviewsysteme (CATI) genannt werden. Diese Methoden haben zwei wichtige Vorteile gegenüber traditionelleren Papierfragebögen. Erstens können die Antworten sofort mit einer Reihe zulässiger Antworten und auf Übereinstimmung mit früheren Antworten überprüft werden, und Unstimmigkeiten können sowohl dem Interviewer als auch dem Befragten sofort zur Kenntnis gebracht werden. Dadurch wird die Fehlerquote stark reduziert. Zweitens können Sprungmuster programmiert werden, um die Verwaltungszeit zu minimieren.

        Die gebräuchlichste Methode zur Computerisierung von Daten ist immer noch die traditionelle Schlüsseleingabe durch einen geschulten Bediener. Bei sehr großen Studien werden die Fragebögen in der Regel an ein professionelles Vertragsunternehmen geschickt, das auf Datenerfassung spezialisiert ist. Diese Firmen verwenden häufig spezielle Geräte, die es einem Bediener ermöglichen, einen Fragebogen einzugeben (ein Verfahren, das manchmal als Schlüsselloch aus historischen Gründen) und einen zweiten Bediener, um dieselben Daten erneut einzugeben, ein Prozess namens Schlüsselüberprüfung. Die Ergebnisse der zweiten Eingabe werden mit der ersten verglichen, um sicherzustellen, dass die Daten korrekt eingegeben wurden. Es können Qualitätssicherungsverfahren programmiert werden, die sicherstellen, dass jede Antwort in einen zulässigen Bereich fällt und dass sie mit anderen Antworten konsistent ist. Die resultierenden Datendateien können dem Forscher auf Platte, Band oder elektronisch per Telefon oder einem anderen Computernetzwerk übermittelt werden.

        Für kleinere Studien gibt es zahlreiche kommerzielle PC-basierte Programme mit Dateneingabefunktionen, die denen von spezialisierteren Systemen nachempfunden sind. Dazu gehören Datenbankprogramme wie dBase, Foxpro und Microsoft Access sowie Tabellenkalkulationen wie Microsoft Excel und Lotus 1-2-3. Außerdem sind Dateneingabefunktionen in vielen Computerprogrammpaketen enthalten, deren Hauptzweck die statistische Datenanalyse ist, wie z. B. SPSS, BMDP und EPI INFO.

        Ein weit verbreitetes Verfahren zur Datenerfassung, das für bestimmte spezialisierte Fragebögen gut funktioniert, verwendet optische Systeme. Optische Markenlesung oder optische Abtastung wird verwendet, um Antworten auf Fragebögen zu lesen, die speziell für Teilnehmer entwickelt wurden, um Daten einzugeben, indem sie kleine Rechtecke oder Kreise (manchmal als „Bubble Codes“ bezeichnet) markieren. Diese funktionieren am effizientesten, wenn jede Person ihren eigenen Fragebogen ausfüllt. Anspruchsvollere und teurere Geräte können handschriftliche Zeichen lesen, aber derzeit ist dies keine effiziente Technik zum Erfassen von Daten in groß angelegten Studien.

        Archivierung von Fragebögen und Codierungshandbüchern

        Da Informationen eine wertvolle Ressource sind und Interpretationen und anderen Einflüssen unterliegen, werden Forscher manchmal gebeten, ihre Daten mit anderen Forschern zu teilen. Die Aufforderung zur Weitergabe von Daten kann durch eine Vielzahl von Gründen motiviert sein, die von einem aufrichtigen Interesse an der Replikation eines Berichts bis hin zur Sorge reichen können, dass Daten möglicherweise nicht richtig analysiert oder interpretiert wurden.

        Wenn eine Fälschung oder Fälschung von Daten vermutet oder behauptet wird, ist es unerlässlich, dass die Originalaufzeichnungen, auf denen die gemeldeten Feststellungen beruhen, für Prüfungszwecke verfügbar sind. Zusätzlich zu den Originalfragebögen und/oder Computerdateien der Rohdaten muss der Forscher in der Lage sein, das/die für die Studie entwickelte(n) Codierungshandbuch(e) und das/die Protokoll(e) aller Datenänderungen, die im Kurs vorgenommen wurden, zur Überprüfung vorzulegen der Datencodierung, Computerisierung und Analyse. Wenn beispielsweise ein Datenwert geändert wurde, weil er ursprünglich als Ausreißer aufgetreten war, dann hätte eine Aufzeichnung der Änderung und der Gründe für die Änderung im Protokoll für mögliche Datenprüfungszwecke aufgezeichnet werden müssen. Solche Informationen sind auch zum Zeitpunkt der Berichtserstellung von Wert, da sie als Erinnerung daran dienen, wie die Daten, die zu den gemeldeten Feststellungen geführt haben, tatsächlich gehandhabt wurden.

        Aus diesen Gründen ist der Forscher nach Abschluss einer Studie verpflichtet, dafür zu sorgen, dass alle Basisdaten angemessen für einen angemessenen Zeitraum archiviert werden und dass sie abgerufen werden können, wenn der Forscher aufgefordert wird, sie zur Verfügung zu stellen.

         

        Zurück

        Montag, März 07 2011 18: 13

        Asbest: Historische Perspektive

        Mehrere Beispiele für Gefahren am Arbeitsplatz werden oft zitiert, um nicht nur die möglichen nachteiligen Auswirkungen auf die Gesundheit im Zusammenhang mit Expositionen am Arbeitsplatz zu veranschaulichen, sondern auch um aufzuzeigen, wie ein systematischer Ansatz zur Untersuchung von Arbeitnehmerpopulationen wichtige Beziehungen zwischen Exposition und Krankheit aufdecken kann. Ein solches Beispiel ist Asbest. Die schlichte Eleganz, mit der der verstorbene Dr. Irving J. Selikoff das erhöhte Krebsrisiko bei Asbestarbeitern demonstrierte, wurde in einem Artikel von Lawrence Garfinkel dokumentiert. Es wird hier mit nur geringfügiger Änderung und mit Genehmigung von CA-A Cancer Journal for Clinicians (Garfinkel 1984) nachgedruckt. Die Tabellen stammen aus dem Originalartikel von Dr. Selikoff und Mitarbeitern (1964).

        Die Exposition gegenüber Asbest ist zu einem erheblichen Problem für die öffentliche Gesundheit geworden, mit Auswirkungen, die sich über den unmittelbaren Bereich der Angehörigen der Gesundheitsberufe hinaus auf Bereiche erstrecken, die von Gesetzgebern, Richtern, Anwälten, Pädagogen und anderen betroffenen Gemeindevertretern bedient werden. Infolgedessen sind asbestbedingte Krankheiten für Kliniker und Gesundheitsbehörden sowie für Verbraucher und die breite Öffentlichkeit von zunehmender Besorgnis.

        Historischer Hintergrund

        Asbest ist ein sehr nützliches Mineral, das seit vielen Jahrhunderten auf vielfältige Weise genutzt wird. Archäologische Studien in Finnland haben Beweise für Asbestfasern gezeigt, die bereits 2500 v. Chr. in Keramik eingearbeitet wurden. Im 5. Jahrhundert v. Chr. wurde es als Docht für Lampen verwendet. Herodot kommentierte die Verwendung von Asbestgewebe zur Einäscherung um 456 v. Asbest wurde im 15. Jahrhundert in Körperpanzern und in Russland bei der Herstellung von Textilien, Handschuhen, Socken und Handtaschen verwendet c. 1720. Obwohl es ungewiss ist, wann die Kunst des Asbestwebens entwickelt wurde, wissen wir, dass die Menschen des Altertums oft Asbest mit Leinen gewebt haben. Die kommerzielle Asbestproduktion begann in Italien um 1850 mit der Herstellung von Papier und Stoff.

        Die Entwicklung des Asbestabbaus in Kanada und Südafrika um 1880 senkte die Kosten und trieb die Herstellung von Asbestprodukten voran. Bald darauf folgten der Abbau und die Produktion von Asbest in den USA, Italien und Russland. In den Vereinigten Staaten steigerte die Entwicklung von Asbest als Rohrisolierung die Produktion, und kurz darauf folgten andere vielfältige Verwendungen, darunter Bremsbeläge, Zementrohre, Schutzkleidung und so weiter.

        Die Produktion in den USA stieg von etwa 6,000 Tonnen im Jahr 1900 auf 650,000 Tonnen im Jahr 1975, obwohl sie 1982 etwa 300,000 Tonnen betrug und 1994 auf 33,000 Tonnen zurückgegangen war.

        Es wird berichtet, dass Plinius der Jüngere (61-113 n. Chr.) die Krankheit von Sklaven kommentierte, die mit Asbest arbeiteten. Hinweise auf mit dem Bergbau verbundene Berufskrankheiten tauchten im 16. Jahrhundert auf, aber erst 1906 tauchte in England der erste Hinweis auf Lungenfibrose bei einem Asbestarbeiter auf. Übermäßige Todesfälle bei Arbeitern, die mit Asbestherstellungsanwendungen zu tun hatten, wurden kurz darauf in Frankreich und Italien gemeldet, aber die große Anerkennung asbestinduzierter Krankheiten begann in England im Jahr 1924. Bis 1930 hatten Wood und Gloyne über 37 Fälle von Lungenfibrose berichtet.

        Der erste Hinweis auf ein Lungenkarzinom bei einem Patienten mit „Asbest-Silikose“ erschien 1935. Mehrere weitere Fallberichte folgten. Berichte über hohe Prozentsätze von Lungenkrebs bei Patienten, die an Asbestose starben, erschienen 1947, 1949 und 1951. 1955 berichtete Richard Doll in England über ein erhöhtes Lungenkrebsrisiko bei Personen, die seit 1935 in einer Asbestfabrik gearbeitet hatten, mit einem besonders hohen Risiko bei Personen, die länger als 20 Jahre beschäftigt waren.

        Klinische Beobachtungen

        Vor diesem Hintergrund begannen Dr. Irving Selikoffs klinische Beobachtungen asbestbedingter Krankheiten. Dr. Selikoff war damals bereits ein angesehener Wissenschaftler. Zu seinen früheren Leistungen gehörte die Entwicklung und erste Anwendung von Isoniazid zur Behandlung von Tuberkulose, wofür er 1952 einen Lasker-Preis erhielt.

        In den frühen 1960er Jahren hatte er als in Paterson, New Jersey, praktizierender Thoraxarzt viele Fälle von Lungenkrebs bei Arbeitern in einer Asbestfabrik in der Gegend beobachtet. Er beschloss, seine Beobachtungen auf zwei Ortsansässige der Asbestisolator-Arbeitergewerkschaft auszudehnen, deren Mitglieder ebenfalls Asbestfasern ausgesetzt waren. Er erkannte, dass es immer noch viele Menschen gibt, die nicht glauben, dass Lungenkrebs mit einer Asbestexposition zusammenhängt, und dass nur eine gründliche Studie einer gesamten exponierten Bevölkerung sie davon überzeugen kann. Es bestand die Möglichkeit, dass die Asbestexposition in der Bevölkerung mit anderen Krebsarten in Verbindung gebracht werden könnte, wie z. B. Pleura- und Peritonealmesotheliom, wie in einigen Studien vorgeschlagen worden war, und vielleicht auch an anderen Stellen. Die meisten Studien zu den gesundheitlichen Auswirkungen von Asbest betrafen in der Vergangenheit Arbeiter, die im Bergbau und in der Produktion von Asbest exponiert waren. Es war wichtig zu wissen, ob die Inhalation von Asbest auch andere asbestexponierte Gruppen betraf.

        Dr. Selikoff hatte von den Leistungen von Dr. E. Cuyler Hammond, dem damaligen Direktor der Abteilung für statistische Forschung der American Cancer Society (ACS), gehört und beschloss, ihn zu bitten, an der Konzeption und Analyse einer Studie mitzuarbeiten. Es war Dr. Hammond, der die wegweisende prospektive Studie zum Thema Rauchen und Gesundheit geschrieben hatte, die einige Jahre zuvor veröffentlicht worden war.

        Dr. Hammond erkannte sofort die potenzielle Bedeutung einer Studie an Asbestarbeitern. Obwohl er eifrig damit beschäftigt war, Daten aus der damals neuen prospektiven ACS-Studie Cancer Prevention Study I (CPS I) zu analysieren, die er einige Jahre zuvor begonnen hatte, stimmte er einer Zusammenarbeit in seiner „Freizeit“ gerne zu. Er schlug vor, die Analyse auf die Arbeitnehmer mit mindestens 20 Jahren Berufserfahrung zu beschränken, die somit die größte Asbestexposition gehabt hätten.

        Dem Team schloss sich Frau Janet Kaffenburgh an, eine wissenschaftliche Mitarbeiterin von Dr. Selikoff am Mount Sinai Hospital, die mit Dr. Hammond zusammenarbeitete, um die Listen der Männer in der Studie zu erstellen, einschließlich ihres Alters und ihrer Beschäftigungsdaten, und um die Daten zu erhalten über Todesfälle und Todesursachen aus den Aufzeichnungen der Gewerkschaftszentrale. Diese Informationen wurden anschließend auf Karteikarten übertragen, die von Dr. Hammond und Mrs. Kaffenburgh buchstäblich auf dem Wohnzimmerboden von Dr. Hammonds Haus sortiert wurden.

        Dr. Jacob Churg, ein Pathologe am Barnert Memorial Hospital Center in Paterson, New Jersey, lieferte eine pathologische Bestätigung der Todesursache.

        Tabe 1. Erfahrung in Mannjahren von 632 Asbestarbeitern, die 20 Jahre oder länger Asbeststaub ausgesetzt waren

        Alter

        Zeitperiode

         

        1943-47

        1948-52

        1953-57

        1958-62

        35-39

        85.0

        185.0

        7.0

        11.0

        40-44

        230.5

        486.5

        291.5

        70.0

        45-49

        339.5

        324.0

        530.0

        314.5

        50-54

        391.5

        364.0

        308.0

        502.5

        55-59

        382.0

        390.0

        316.0

        268.5

        60-64

        221.0

        341.5

        344.0

        255.0

        65-69

        139.0

        181.0

        286.0

        280.0

        70-74

        83.0

        115.5

        137.0

        197.5

        75-79

        31.5

        70.0

        70.5

        75.0

        80-84

        5.5

        18.5

        38.5

        23.5

        85+

        3.5

        2.0

        8.0

        13.5

        Gesamt

        1,912.0

        2,478.0

        2,336.5

        2,011.0

         

        Die resultierende Studie wurde als „prospektive retrospektiv durchgeführte Studie“ klassifiziert. Die Art der Gewerkschaftsaufzeichnungen ermöglichte es, eine Analyse einer Langzeitstudie in relativ kurzer Zeit durchzuführen. Obwohl nur 632 Männer an der Studie teilnahmen, gab es eine Risikoexposition von 8,737 Mannjahren (siehe Tabelle 1); Im 255-jährigen Beobachtungszeitraum von 20 bis 1943 traten 1962 Todesfälle auf (siehe Tabelle 2). Aus Tabelle 28.17 geht hervor, dass die beobachtete Zahl der Todesfälle ausnahmslos die erwartete Zahl übersteigt, was den Zusammenhang zwischen Asbestexposition am Arbeitsplatz und einer erhöhten Krebstodesrate zeigt. 

        Tabelle 2. Beobachtete und erwartete Todesfälle bei 632 Asbestarbeitern, die 20 Jahre oder länger Asbeststaub ausgesetzt waren

        Todesursache

        Zeitperiode

        Gesamt

         

        1943-47

        1948-52

        1953-57

        1958-62

        1943-62

        Insgesamt, alle Ursachen

        Beobachtet (Asbestarbeiter)

        28.0

        54.0

        85.0

        88.0

        255.0

        Erwartet (weiße US-Männer)

        39.7

        50.8

        56.6

        54.4

        203.5

        Totaler Krebs, alle Standorte

        Beobachtet (Asbestarbeiter)

        13.0

        17.0

        26.0

        39.0

        95.0

        Erwartet (weiße US-Männer)

        5.7

        8.1

        13.0

        9.7

        36.5

        Krebs der Lunge und Pleura

        Beobachtet (Asbestarbeiter)

        6.0

        8.0

        13.0

        18.0

        45.0

        Erwartet (weiße US-Männer)

        0.8

        1.4

        2.0

        2.4

        6.6

        Magen-, Dickdarm- und Mastdarmkrebs

        Beobachtet (Asbestarbeiter)

        4.0

        4.0

        7.0

        14.0

        29.0

        Erwartet (weiße US-Männer)

        2.0

        2.5

        2.6

        2.3

        9.4

        Krebs aller anderen Stellen zusammen

        Beobachtet (Asbestarbeiter)

        3.0

        5.0

        6.0

        7.0

        21.0

        Erwartet (weiße US-Männer)

        2.9

        4.2

        8.4

        5.0

        20.5

         

        Bedeutung der Arbeit

        Dieses Papier stellte einen Wendepunkt in unserem Wissen über asbestbedingte Krankheiten dar und gab die Richtung für die zukünftige Forschung vor. Der Artikel wurde seit seiner Erstveröffentlichung mindestens 261 Mal in wissenschaftlichen Publikationen zitiert. Mit finanzieller Unterstützung des ACS und der National Institutes of Health erforschten Dr. Selikoff und Dr. Hammond und ihr wachsendes Team aus Mineralogen, Lungenärzten, Radiologen, Pathologen, Hygienikern und Epidemiologen weiterhin verschiedene Facetten der Asbestkrankheit.

        Eine große Abhandlung aus dem Jahr 1968 berichtete über die synergistische Wirkung des Zigarettenrauchens auf die Asbestexposition (Selikoff, Hammond und Churg 1968). Die Studien wurden auf Arbeiter in der Asbestproduktion, Personen mit indirekter Asbestexposition (z. B. Werftarbeiter) und Personen mit familiärer Asbestexposition ausgeweitet.

        In einer späteren Analyse, in der das Team von Herbert Seidman, MBA, stellvertretender Vizepräsident für Epidemiologie und Statistik der American Cancer Society, unterstützt wurde, zeigte die Gruppe, dass selbst eine kurzfristige Exposition gegenüber Asbest zu einem signifikant erhöhten Krebsrisiko führte bis 30 Jahre später (Seidman, Selikoff und Hammond 1979). In dieser ersten Studie mit 632 Isolatoren gab es nur drei Fälle von Mesotheliom, aber spätere Untersuchungen zeigten, dass 8 % aller Todesfälle unter Asbestarbeitern auf Pleura- und Peritonealmesotheliom zurückzuführen waren.

        Als sich Dr. Selikoffs wissenschaftliche Untersuchungen ausweiteten, leisteten er und seine Mitarbeiter bemerkenswerte Beiträge zur Reduzierung der Asbestbelastung durch Innovationen in industriellen Hygienetechniken; indem die Gesetzgeber von der Dringlichkeit des Asbestproblems überzeugt werden; bei der Bewertung der Probleme von Invaliditätszahlungen im Zusammenhang mit Asbesterkrankungen; und bei der Untersuchung der allgemeinen Verteilung von Asbestpartikeln in Wasservorräten und in der Umgebungsluft.

        Dr. Selikoff machte auch die medizinische und wissenschaftliche Gemeinschaft auf das Asbestproblem aufmerksam, indem er Konferenzen zu diesem Thema organisierte und an vielen wissenschaftlichen Tagungen teilnahm. Viele seiner Orientierungstreffen zum Problem der Asbestkrankheit waren speziell für Rechtsanwälte, Richter, Präsidenten großer Unternehmen und Versicherungsmanager konzipiert.

         

        Zurück

        Seite 3 von 7

        HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."

        Inhalte