27. Biologische Überwachung
Kapitelherausgeber: Robert Lauwerys
Inhaltsverzeichnis
Allgemeine Grundsätze
Vito Foà und Lorenzo Alessio
Qualitätssicherung
D. Gompertz
Metalle und metallorganische Verbindungen
P. Hoet und Robert Lauwerys
Organische Lösungsmittel
Masayuki Ikeda
Genotoxische Chemikalien
Marja Sorsa
Pestizide
Marco Maroni und Adalberto Ferioli
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. ACGIH, DFG & andere Grenzwerte für Metalle
2. Beispiele für Chemikalien- und biologisches Monitoring
3. Biologische Überwachung auf organische Lösungsmittel
4. Genotoxizität von Chemikalien, bewertet von IARC
5. Biomarker und einige Zell-/Gewebeproben und Genotoxizität
6. Menschliche Karzinogene, berufliche Exposition und zytogenetische Endpunkte
8. Exposition durch Produktion und Verwendung von Pestiziden
9. Akute OP-Toxizität bei verschiedenen Graden der ACHE-Hemmung
10 Variationen von ACHE & PCHE & ausgewählten Gesundheitszuständen
11 Cholinesterase-Aktivitäten von nicht exponierten gesunden Menschen
12 Alkylphosphate im Urin und OP-Pestizide
13 Alkylphosphatmessungen im Urin & OP
14 Carbamat-Metaboliten im Urin
15 Dithiocarbamat-Metaboliten im Urin
16 Vorgeschlagene Indizes für die biologische Überwachung von Pestiziden
17 Empfohlene biologische Grenzwerte (Stand 1996)
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
28. Epidemiologie und Statistik
Kapitel-Editoren: Franco Merletti, Colin L. Soskolne und Paolo Vineis
Epidemiologische Methode für Arbeitssicherheit und Gesundheitsschutz
Franco Merletti, Colin L. Soskolne und Paolo Vineis
Expositionsbewertung
M. Gerald Ott
Zusammenfassung der Expositionsmaßnahmen im Arbeitsleben
Colin L. Soskolne
Messung der Auswirkungen von Expositionen
Shelia Hoar Zahm
Fallbeispiel: Maßnahmen
Franco Merletti, Colin L. Soskolne und Paola Vineis
Optionen im Studiendesign
Sven Herberg
Validitätsprobleme im Studiendesign
Annie J. Sasco
Einfluss zufälliger Messfehler
Paolo Vineis und Colin L. Soskolne
Statistische Methoden
Annibale Biggeri und Mario Braga
Kausalitätsbewertung und Ethik in der epidemiologischen Forschung
Paolo Vineis
Fallstudien zur Veranschaulichung methodischer Probleme bei der Überwachung von Berufskrankheiten
Jung-Der Wang
Fragebögen in der epidemiologischen Forschung
Steven D. Stellman und Colin L. Soskolne
Asbest Historische Perspektive
Laurent Garfinkel
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Fünf ausgewählte zusammenfassende Maßnahmen zur Exposition im Berufsleben
2. Maße für das Auftreten von Krankheiten
3. Assoziationsmaße für eine Kohortenstudie
4. Assoziationsmaße für Fall-Kontroll-Studien
5. Allgemeines Häufigkeitstabellenlayout für Kohortendaten
6. Musterlayout von Fallkontrolldaten
7. Layout-Fallkontrolldaten – eine Kontrolle pro Fall
8. Hypothetische Kohorte von 1950 Individuen zu T2
9. Indizes der zentralen Tendenz und Streuung
10 Ein binomiales Experiment & Wahrscheinlichkeiten
11 Mögliche Ergebnisse eines binomialen Experiments
12 Binomialverteilung, 15 Erfolge/30 Versuche
13 Binomialverteilung, p = 0.25; 30 Versuche
14 Fehler XNUMX. Art & Leistung; x = 12, n = 30, a = 0.05
15 Fehler XNUMX. Art & Leistung; x = 12, n = 40, a = 0.05
16 632 Arbeitnehmer, die 20 Jahre oder länger Asbest ausgesetzt waren
17 O/E Zahl der Todesfälle unter 632 Asbestarbeitern
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
29. Ergonomie
Kapitel-Editoren: Wolfgang Laurig und Joachim Vedder
Inhaltsverzeichnis
Überblick
Wolfgang Laurig und Joachim Vedder
Wesen und Ziele der Ergonomie
William T. Singleton
Analyse von Aktivitäten, Aufgaben und Arbeitssystemen
Véronique De Keyser
Ergonomie und Standardisierung
Friedhelm Nachreiner
Prüflisten
Pranab Kumar Nag
Anthropometrie
Melchiorre Masali
Muskelarbeit
Juhani Smolander und Veikko Louhevaara
Körperhaltungen bei der Arbeit
Ilkka Kurinka
Biomechanik
Frank Darby
Allgemeine Müdigkeit
Etienne Grandjean
Müdigkeit und Erholung
Rolf Helbig und Walter Rohmert
Geistige Arbeitsbelastung
Winfried Hacker
Wachsamkeit
Herbert Heuer
Geistige Müdigkeit
Peter Richter
Arbeitsorganisation
Eberhard Ulich und Gudela Grote
Schlafentzug
Kazutaka Kogi
Workstations
Roland Kadefors
Tools
TM Fraser
Bedienelemente, Anzeigen und Bedienfelder
Karl HE Kroemer
Informationsverarbeitung und Design
Andries F. Sanders
Entwerfen für bestimmte Gruppen
Witz H. Grady-van den Nieuwboer
Fallstudie: Die internationale Klassifikation der Funktionseinschränkung beim Menschen
Kulturelle Unterschiede
Houshang Shahnavaz
Ältere Arbeitnehmer
Antoine Laville und Serge Volkoff
Arbeitnehmer mit besonderen Bedürfnissen
Witz H. Grady-van den Nieuwboer
Systemdesign in der Diamantherstellung
Issachar Gilad
Missachtung ergonomischer Gestaltungsprinzipien: Tschernobyl
Wladimir M. Munipov
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Grundlegende anthropometrische Kernliste
2. Ermüdung und Erholung abhängig vom Aktivitätsniveau
3. Regeln der Kombinationswirkung zweier Stressfaktoren auf die Belastung
4. Es wird zwischen mehreren negativen Folgen psychischer Belastung unterschieden
5. Arbeitsorientierte Prinzipien zur Produktionsgestaltung
6. Partizipation im organisatorischen Kontext
7. Benutzerbeteiligung am Technologieprozess
8. Unregelmäßige Arbeitszeiten und Schlafentzug
9. Aspekte von Früh-, Anker- und Verzögerungsschlaf
10 Kontrollieren Sie Bewegungen und erwartete Effekte
11 Steuerungs-Wirkungs-Beziehungen gängiger Handsteuerungen
12 Regeln für die Anordnung von Kontrollen
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
30. Arbeitshygiene
Kapitel-Editor: Robert F. Herrick
Inhaltsverzeichnis
Ziele, Definitionen und allgemeine Informationen
Berenice I. Ferrari Goelzer
Gefahren erkennen
Linnea Lillienberg
Bewertung der Arbeitsumgebung
Lori A. Todd
Arbeitshygiene: Expositionskontrolle durch Intervention
James Stewart
Die biologische Grundlage für die Expositionsbewertung
Dick Heederik
Arbeitsplatzgrenzwerte
Dennis J. Pausenbach
1. Gefahren durch Chemikalien; biologische und physikalische Wirkstoffe
2. Arbeitsplatzgrenzwerte (OELs) – verschiedene Länder
31. Persönlicher Schutz
Kapitel-Editor: Robert F. Herrick
Inhaltsverzeichnis
Überblick und Philosophie des Personenschutzes
Robert F. Herrick
Augen- und Gesichtsschutz
Kikuzi Kimura
Fuß- und Beinschutz
Toyohiko Miura
Kopfschutz
Isabelle Balty und Alain Mayer
Gehörschutz
John R. Franks und Elliott H. Berger
Schutzkleidung
S.Zack Mansdorf
Atemschutz
Thomas J. Nelson
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Transmissionsanforderungen (ISO 4850-1979)
2. Schutzmaßstäbe - Gasschweißen & Lötschweißen
3. Schutzwaage - Sauerstoffschneiden
4. Schutzmaßstäbe - Plasmalichtbogenschneiden
5. Schutzwaagen - Lichtbogenschweißen oder Fugenhobeln
6. Schutzmaßstäbe - Plasma-Lichtbogen-Direktschweißen
7. Schutzhelm: ISO-Norm 3873-1977
8. Geräuschreduzierungsbewertung eines Gehörschutzes
9. Berechnung der A-bewerteten Rauschunterdrückung
10 Beispiele für Hautgefahrenkategorien
11 Physikalische, chemische und biologische Leistungsanforderungen
12 Sachgefahren im Zusammenhang mit bestimmten Tätigkeiten
13 Zugewiesene Schutzfaktoren aus ANSI Z88 2 (1992)
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
32. Aufzeichnungssysteme und Überwachung
Kapitel-Editor: Steven D. Stellman
Inhaltsverzeichnis
Überwachungs- und Meldesysteme für Berufskrankheiten
Steven B. Markowitz
Überwachung von Arbeitsgefahren
David H. Wegman und Steven D. Stellman
Überwachung in Entwicklungsländern
David Koh und Kee-Seng Chia
Entwicklung und Anwendung eines Klassifizierungssystems für Arbeitsunfälle und Berufskrankheiten
Elyce Biddle
Risikoanalyse von nicht tödlichen Verletzungen und Krankheiten am Arbeitsplatz
John W. Ruser
Fallstudie: Arbeitnehmerschutz und Statistiken zu Unfällen und Berufskrankheiten - HVBG, Deutschland
Martin Butz und Burkhard Hoffmann
Fallstudie: Wismut – Eine Neuauflage der Uranexposition
Heinz Otten und Horst Schulz
Messstrategien und -techniken für die berufsbedingte Expositionsabschätzung in der Epidemiologie
Frank Bochmann und Helmut Blome
Fallstudie: Arbeitsmedizinische Erhebungen in China
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Angiosarkom der Leber - Weltregister
2. Berufskrankheit, USA, 1986 versus 1992
3. US-Todesfälle durch Pneumokoniose und Pleuramesotheliom
4. Musterliste meldepflichtiger Berufskrankheiten
5. Codestruktur für die Meldung von Krankheiten und Verletzungen, USA
6. Nichttödliche Arbeitsunfälle und Berufskrankheiten, USA 1993
7. Risiko von Arbeitsunfällen und Berufskrankheiten
8. Relatives Risiko für sich wiederholende Bewegungszustände
9. Arbeitsunfälle, Deutschland, 1981-93
10 Schleifmaschinen bei Unfällen in der Metallverarbeitung, Deutschland, 1984-93
11 Berufskrankheit, Deutschland, 1980-93
12 Infektionskrankheiten, Deutschland, 1980-93
13 Strahlenbelastung in den Wismut-Bergwerken
14 Berufskrankheiten im Wismuter Uranbergwerk 1952-90
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
33. Toxikologie
Kapitelherausgeberin: Ellen K. Silbergeld
Einleitung
Ellen K. Silbergeld, Kapitelredakteurin
Definitionen und Konzepte
Bo Holmberg, Johan Hogberg und Gunnar Johanson
Toxikokinetik
Dušan Djuric
Zielorgan und kritische Wirkungen
Marek Jakubowski
Auswirkungen von Alter, Geschlecht und anderen Faktoren
Spomenka Telisman
Genetische Determinanten der toxischen Reaktion
Daniel W. Nebert und Ross A. McKinnon
Einführung und Konzepte
Philip G. Watanabe
Zellschädigung und Zelltod
Benjamin F. Trump und Irene K. Berezesky
Genetische Toxikologie
R. Rita Misra und Michael P. Waalkes
Immuntoxikologie
Joseph G. Vos und Henk van Loveren
Zielorgan-Toxikologie
Ellen K. Silbergeld
Biomarker
Philipp Grandjean
Bewertung der genetischen Toxizität
David M. DeMarini und James Huff
In-vitro-Toxizitätstest
Joanne Zürlo
Aktivitätsbeziehungen strukturieren
Ellen K. Silbergeld
Toxikologie in der Gesundheits- und Sicherheitsverordnung
Ellen K. Silbergeld
Prinzipien der Gefahrenidentifizierung - Der japanische Ansatz
Masayuki Ikeda
Der Ansatz der Vereinigten Staaten zur Risikobewertung von reproduktionstoxischen und neurotoxischen Wirkstoffen
Ellen K. Silbergeld
Ansätze zur Gefahrenidentifizierung - IARC
Harri Vainio und Julian Wilbourn
Anhang – Gesamtbewertungen der Karzinogenität beim Menschen: IARC-Monographien, Bände 1–69 (836)
Karzinogen-Risikobewertung: Andere Ansätze
Cees A. van der Heijden
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
Dieser Artikel ist eine Adaption der 3. Auflage der Encyclopaedia of Occupational Health and Safety.
Die beiden Begriffe Ermüdung und Ruhe sind allen aus eigener Erfahrung bekannt. Mit dem Wort „Müdigkeit“ werden ganz unterschiedliche Zustände bezeichnet, die alle eine Verringerung der Leistungsfähigkeit und Widerstandskraft bewirken. Die sehr unterschiedliche Verwendung des Begriffs Ermüdung hat zu einer fast chaotischen Verwirrung geführt, und es bedarf einiger Klärung der gängigen Vorstellungen. Die Physiologie hat lange Zeit zwischen Muskelermüdung und allgemeiner Ermüdung unterschieden. Ersteres ist ein akutes Schmerzphänomen, das in der Muskulatur lokalisiert ist: Die allgemeine Erschöpfung ist durch ein Gefühl nachlassender Arbeitsbereitschaft gekennzeichnet. Dieser Artikel befasst sich nur mit der allgemeinen Ermüdung, die auch „psychische Ermüdung“ oder „nervöse Ermüdung“ genannt werden kann, und der Ruhe, die sie erfordert.
Allgemeine Müdigkeit kann ganz unterschiedliche Ursachen haben, von denen die wichtigsten in Abbildung 1 dargestellt sind. Die Wirkung ist so, als ob sich im Laufe des Tages alle unterschiedlichen erlebten Belastungen im Organismus ansammeln und nach und nach ein Gefühl der Steigerung erzeugen Ermüdung. Dieses Gefühl veranlasst die Entscheidung, die Arbeit einzustellen; seine Wirkung ist die eines physiologischen Vorspiels zum Schlafen.
Abbildung 1. Schematische Darstellung der kumulativen Wirkung der alltäglichen Ursachen von Müdigkeit
Müdigkeit ist eine heilsame Empfindung, wenn man sich hinlegen und ausruhen kann. Missachtet man dieses Gefühl jedoch und zwingt sich weiter zu arbeiten, verstärkt sich das Ermüdungsgefühl, bis es belastend und schließlich überwältigend wird. Diese tägliche Erfahrung zeigt deutlich die biologische Bedeutung der Ermüdung, die zur Erhaltung des Lebens eine Rolle spielt, ähnlich wie andere Empfindungen wie zum Beispiel Durst, Hunger, Angst usw.
Ruhe wird in Abbildung 1 als Entleerung eines Fasses dargestellt. Das Ruhephänomen kann normal stattfinden, wenn der Organismus ungestört bleibt oder zumindest ein wesentlicher Körperteil keiner Belastung ausgesetzt ist. Das erklärt die entscheidende Rolle, die an Werktagen alle Arbeitspausen spielen, von der kurzen Pause während der Arbeit bis zum nächtlichen Schlaf. Das Gleichnis vom Fass verdeutlicht, wie notwendig es für das normale Leben ist, ein gewisses Gleichgewicht zwischen der Gesamtbelastung des Organismus und der Summe der Ruhemöglichkeiten zu erreichen.
Neurophysiologische Interpretation von Müdigkeit
Die Fortschritte der Neurophysiologie in den letzten Jahrzehnten haben wesentlich zu einem besseren Verständnis der Phänomene beigetragen, die durch Ermüdung im zentralen Nervensystem ausgelöst werden.
Der Physiologe Hess hat als erster beobachtet, dass die elektrische Reizung gewisser dienzephaler Strukturen, insbesondere gewisser Strukturen des medialen Kerns des Thalamus, allmählich eine hemmende Wirkung hervorrief, die sich in einer Verschlechterung der Reaktionsfähigkeit äußerte und zum Einschlafen neigen. Wenn die Stimulation eine gewisse Zeit fortgesetzt wurde, folgte der allgemeinen Entspannung Schläfrigkeit und schließlich Schlaf. Später wurde bewiesen, dass sich ausgehend von diesen Strukturen eine aktive Hemmung bis zur Großhirnrinde erstrecken kann, wo alle bewussten Phänomene zentriert sind. Dies spiegelt sich nicht nur im Verhalten wider, sondern auch in der elektrischen Aktivität der Großhirnrinde. Anderen Experimenten gelang es auch, Hemmungen von anderen subkortikalen Regionen auszulösen.
Aus all diesen Studien lässt sich der Schluss ziehen, dass es im Zwischen- und Mittelhirn Strukturen gibt, die ein wirksames Hemmsystem darstellen und Ermüdung mit all ihren Begleiterscheinungen auslösen.
Hemmung und Aktivierung
Zahlreiche Versuche an Tieren und Menschen haben gezeigt, dass die allgemeine Reaktionsbereitschaft beider nicht nur von diesem Hemmungssystem abhängt, sondern wesentlich auch von einem antagonistisch funktionierenden System, dem sogenannten retikulären aufsteigenden Aktivierungssystem. Aus Experimenten wissen wir, dass die Formatio reticularis Strukturen enthält, die den Wachheitsgrad und damit die allgemeine Reaktionsbereitschaft steuern. Nervenverbindungen bestehen zwischen diesen Strukturen und der Großhirnrinde, wo die aktivierenden Einflüsse auf das Bewusstsein ausgeübt werden. Darüber hinaus erhält das aktivierende System Reize von den Sinnesorganen. Andere Nervenverbindungen leiten Impulse aus der Großhirnrinde – dem Bereich des Wahrnehmens und Denkens – an das Aktivierungssystem weiter. Auf der Grundlage dieser neurophysiologischen Konzepte lässt sich feststellen, dass sowohl äußere Reize als auch Einflüsse aus den Bewusstseinsbereichen beim Passieren des aktivierenden Systems eine Reaktionsbereitschaft stimulieren können.
Darüber hinaus lassen viele andere Untersuchungen den Schluss zu, dass sich Reizungen des aktivierenden Systems häufig auch von den vegetativen Zentren aus ausbreiten und den Organismus veranlassen, sich auf den Energieaufwand, auf Arbeit, Kampf, Flucht usw. zu orientieren (ergotrope Umwandlung von die inneren Organe). Umgekehrt scheint es, dass die Stimulation des Hemmsystems im Bereich des vegetativen Nervensystems den Organismus zu Ruhestrebungen, Wiederherstellung der Energiereserven, Assimilationsphänomenen (trophotrope Umwandlung) veranlasst.
Durch die Synthese all dieser neurophysiologischen Befunde lässt sich folgende Vorstellung von Erschöpfung aufstellen: Ermüdungszustand und -gefühl sind bedingt durch die funktionelle Reaktion des Bewusstseins in der Großhirnrinde, die ihrerseits von zwei sich gegensätzlichen Systemen gesteuert wird – das hemmende System und das aktivierende System. Die Arbeitsbereitschaft des Menschen hängt also in jedem Moment vom Grad der Aktivierung der beiden Systeme ab: Überwiegt das hemmende System, befindet sich der Organismus in einem Ermüdungszustand; Wenn das aktivierende System dominant ist, zeigt es eine erhöhte Arbeitsbereitschaft.
Diese psychophysiologische Konzeption der Erschöpfung ermöglicht es, einige ihrer manchmal schwer zu erklärenden Symptome zu verstehen. So kann zum Beispiel ein Gefühl der Müdigkeit plötzlich verschwinden, wenn ein unerwartetes äußeres Ereignis eintritt oder wenn sich emotionale Anspannung entwickelt. In beiden Fällen ist klar, dass das aktivierende System stimuliert wurde. Umgekehrt, wenn die Umgebung eintönig ist oder die Arbeit langweilig erscheint, wird die Funktion des aktivierenden Systems herabgesetzt und das hemmende System wird dominant. Dies erklärt, warum Müdigkeit in einer monotonen Situation auftritt, ohne dass der Organismus belastet wird.
Abbildung 2 zeigt schematisch die Vorstellung der wechselseitig antagonistischen Hemmungs- und Aktivierungssysteme.
Abbildung 2. Schematische Darstellung der Steuerung der Arbeitsbereitschaft durch hemmende und aktivierende Systeme
Klinische Müdigkeit
Es ist eine allgemeine Erfahrung, dass eine starke Ermüdung, die Tag für Tag auftritt, allmählich zu einem Zustand chronischer Erschöpfung führt. Das Ermüdungsgefühl verstärkt sich dann und tritt nicht nur abends nach der Arbeit auf, sondern schon tagsüber, manchmal sogar vor Arbeitsbeginn. Ein Gefühl von Unwohlsein, häufig emotionaler Natur, begleitet diesen Zustand. Bei Fatigue-Patienten werden häufig folgende Symptome beobachtet: erhöhte psychische Emotionalität (asoziales Verhalten, Inkompatibilität), Depressionsneigung (unmotivierte Angst) und Antriebslosigkeit mit Antriebslosigkeit. Diese psychischen Wirkungen gehen oft mit einem unspezifischen Unwohlsein einher und äußern sich durch psychosomatische Symptome: Kopfschmerzen, Schwindel, Herz- und Atemfunktionsstörungen, Appetitlosigkeit, Verdauungsstörungen, Schlaflosigkeit etc.
In Anbetracht der Tendenz zu krankhaften Symptomen, die mit chronischer Erschöpfung einhergehen, kann sie mit Recht als klinische Ermüdung bezeichnet werden. Es besteht eine Tendenz zu vermehrten Fehlzeiten, insbesondere zu mehr Kurzzeitabsenzen. Dies scheint sowohl durch das Ruhebedürfnis als auch durch eine erhöhte Morbidität verursacht zu sein. Der Zustand chronischer Erschöpfung tritt besonders bei Personen auf, die psychischen Konflikten oder Schwierigkeiten ausgesetzt sind. Es ist manchmal sehr schwierig, die äußeren und inneren Ursachen zu unterscheiden. Tatsächlich ist es fast unmöglich, Ursache und Wirkung bei klinischer Müdigkeit zu unterscheiden: Eine negative Einstellung zur Arbeit, zu Vorgesetzten oder zum Arbeitsplatz kann genauso gut Ursache für klinische Müdigkeit sein wie die Folge.
Untersuchungen haben gezeigt, dass die in Telekommunikationsdiensten beschäftigten Telefonisten und Aufsichtspersonen eine signifikante Zunahme der physiologischen Ermüdungserscheinungen nach ihrer Arbeit aufwiesen (visuelle Reaktionszeit, Flickerfusionsfrequenz, Geschicklichkeitstests). Ärztliche Untersuchungen ergaben bei diesen beiden Arbeitergruppen eine deutliche Zunahme von neurotischen Zuständen, Reizbarkeit, Schlafstörungen und chronischem Mattigkeitsgefühl im Vergleich zu einer ähnlichen Gruppe von Frauen, die in den technischen Zweigen der Post, des Telefons beschäftigt waren und Telegrafiedienste. Die Häufung der Symptome war nicht immer auf eine negative Einstellung der betroffenen Frauen zu ihrem Arbeitsplatz oder ihren Arbeitsbedingungen zurückzuführen.
Vorsichtsmaßnahmen
Es gibt kein Allheilmittel gegen Müdigkeit, aber es kann viel getan werden, um das Problem zu lindern, indem man auf die allgemeinen Arbeitsbedingungen und die physische Umgebung am Arbeitsplatz achtet. Viel kann beispielsweise durch die richtige Einteilung der Arbeitszeiten, die Bereitstellung angemessener Ruhezeiten und geeigneter Kantinen und Toiletten erreicht werden; Arbeitnehmern sollte auch angemessener bezahlter Urlaub gewährt werden. Auch die ergonomische Untersuchung des Arbeitsplatzes kann zur Reduzierung von Ermüdungserscheinungen beitragen, indem sichergestellt wird, dass Sitze, Tische und Werkbänke angemessen dimensioniert sind und der Arbeitsablauf richtig organisiert ist. Darüber hinaus können sich Lärmschutz, Klimaanlage, Heizung, Belüftung und Beleuchtung positiv auf die Verzögerung des Auftretens von Ermüdung bei Arbeitnehmern auswirken.
Monotonie und Anspannung können auch durch kontrollierte Verwendung von Farbe und Dekoration in der Umgebung, Musikintervalle und manchmal Pausen für körperliche Übungen für sitzende Arbeiter gemildert werden. Auch die Ausbildung der Arbeiter und insbesondere des Aufsichts- und Managementpersonals spielt eine wichtige Rolle.
Die Untersuchung und Charakterisierung von Chemikalien und anderen Agenzien auf toxische Eigenschaften erfolgt häufig auf der Grundlage spezifischer Organe und Organsysteme. In diesem Kapitel wurden zwei Ziele für eine eingehende Diskussion ausgewählt: das Immunsystem und das Gen. Diese Beispiele wurden ausgewählt, um ein komplexes Zielorgansystem und ein molekulares Ziel innerhalb von Zellen darzustellen. Für eine umfassendere Diskussion der Toxikologie von Zielorganen wird der Leser auf toxikologische Standardtexte wie Casarett und Doull und Hayes verwiesen. Das International Programme on Chemical Safety (IPCS) hat ebenfalls mehrere Kriteriendokumente zur Zielorgantoxikologie nach Organsystemen veröffentlicht.
Zielorgantoxikologische Studien werden gewöhnlich auf der Grundlage von Informationen durchgeführt, die das Potenzial für spezifische toxische Wirkungen einer Substanz anzeigen, entweder aus epidemiologischen Daten oder aus allgemeinen akuten oder chronischen Toxizitätsstudien, oder auf der Grundlage besonderer Bedenken zum Schutz bestimmter Organfunktionen, wie z B. Fortpflanzung oder fötale Entwicklung. In einigen Fällen werden bestimmte Toxizitätstests für Zielorgane ausdrücklich von gesetzlichen Behörden vorgeschrieben, wie z Stoffkontrollgesetz (siehe „Prinzipien der Gefahrenerkennung: Der japanische Ansatz“).
Wie in „Zielorgan und kritische Wirkungen“ erörtert, basiert die Identifizierung eines kritischen Organs auf der Erkennung des Organs oder Organsystems, das zuerst negativ oder auf die niedrigsten Dosen oder Expositionen reagiert. Diese Informationen werden dann verwendet, um spezifische toxikologische Untersuchungen oder genauer definierte Toxizitätstests zu konzipieren, die darauf ausgelegt sind, empfindlichere Hinweise auf eine Vergiftung im Zielorgan hervorzurufen. Toxikologische Studien zu Zielorganen können auch verwendet werden, um Wirkungsmechanismen zu bestimmen und bei der Risikobewertung verwendet zu werden (siehe „The United States approach to risk assessment of reproduction toxicants and neurotoxic agents“).
Methoden der Zielorgantoxizitätsstudien
Zielorgane können durch Exposition intakter Organismen und detaillierte Analyse der Funktion und Histopathologie im Zielorgan oder durch In-vitro-Exposition von Zellen, Gewebeschnitten oder ganzen Organen untersucht werden, die für kurze oder lange Zeiträume in Kultur gehalten werden (siehe „Mechanismen der Toxikologie: Einführung und Konzepte“). In einigen Fällen stehen möglicherweise auch Gewebe menschlicher Probanden für Zielorgan-Toxizitätsstudien zur Verfügung, und diese können Gelegenheiten bieten, Annahmen über die artenübergreifende Extrapolation zu validieren. Allerdings muss bedacht werden, dass solche Studien keine Angaben zur relativen Toxikokinetik liefern.
Im Allgemeinen weisen Toxizitätsstudien auf Zielorgane die folgenden gemeinsamen Merkmale auf: detaillierte histopathologische Untersuchung des Zielorgans, einschließlich Post-Mortem-Untersuchung, Gewebegewicht und Untersuchung fixierter Gewebe; biochemische Studien kritischer Wege im Zielorgan, wie z. B. wichtige Enzymsysteme; Funktionsstudien zur Fähigkeit des Organs und der Zellbestandteile, erwartete Stoffwechsel- und andere Funktionen auszuführen; und Analyse von Biomarkern der Exposition und frühen Wirkungen in Zielorganzellen.
Detaillierte Kenntnisse der Zielorganphysiologie, Biochemie und Molekularbiologie können in Zielorganstudien eingebracht werden. Da zum Beispiel die Synthese und Sekretion von Proteinen mit kleinem Molekulargewicht ein wichtiger Aspekt der Nierenfunktion ist, beziehen Nephrotoxizitätsstudien häufig besondere Aufmerksamkeit auf diese Parameter (IPCS 1991). Da die Kommunikation von Zelle zu Zelle ein grundlegender Prozess der Funktion des Nervensystems ist, können Zielorganstudien zur Neurotoxizität detaillierte neurochemische und biophysikalische Messungen der Neurotransmittersynthese, -aufnahme, -speicherung, -freisetzung und -bindung sowie elektrophysiologische Messungen von Membranveränderungen umfassen Potenzial, das mit diesen Ereignissen verbunden ist.
Ein großer Schwerpunkt wird auf die Entwicklung von In-vitro-Methoden für die Zielorgantoxizität gelegt, um die Verwendung ganzer Tiere zu ersetzen oder zu reduzieren. Wesentliche Fortschritte bei diesen Methoden wurden für reproduktionstoxische Stoffe erzielt (Heindel und Chapin 1993).
Zusammenfassend werden Zielorgan-Toxizitätsstudien im Allgemeinen als höherwertiger Test zur Bestimmung der Toxizität durchgeführt. Die Auswahl spezifischer Zielorgane für die weitere Bewertung hängt von den Ergebnissen von Screening-Level-Tests ab, wie z. B. den akuten oder subchronischen Tests, die von der OECD und der Europäischen Union verwendet werden; Einige Zielorgane und Organsysteme können a priori Kandidaten für eine spezielle Untersuchung sein, da Bedenken bestehen, bestimmte Arten von nachteiligen Auswirkungen auf die Gesundheit zu verhindern.
Das Bedürfnis nach Geltung
Die Epidemiologie zielt darauf ab, das Krankheitserleben in Bevölkerungen zu verstehen. Insbesondere kann es genutzt werden, um Einblicke in die beruflichen Ursachen von Erkrankungen zu erhalten. Dieses Wissen stammt aus Studien, die an Gruppen von Menschen mit einer Krankheit durchgeführt wurden, indem sie mit Menschen ohne diese Krankheit verglichen wurden. Ein weiterer Ansatz besteht darin, zu untersuchen, welche Krankheiten Menschen bekommen, die in bestimmten Berufen mit besonderen Belastungen arbeiten, und diese Krankheitsbilder mit denen von nicht ähnlich exponierten Personen zu vergleichen. Diese Studien liefern Schätzungen des Krankheitsrisikos für bestimmte Expositionen. Damit Informationen aus solchen Studien zur Erstellung von Präventionsprogrammen, zur Anerkennung von Berufskrankheiten und zur angemessenen Entschädigung der von Expositionen betroffenen Arbeitnehmer verwendet werden können, müssen diese Studien valide sein.
Gültigkeit kann als die Fähigkeit einer Studie definiert werden, den wahren Sachverhalt widerzuspiegeln. Eine gültige Studie ist daher eine Studie, die den Zusammenhang (entweder positiv, negativ oder nicht vorhanden) zwischen einer Exposition und einer Krankheit korrekt misst. Sie beschreibt Richtung und Ausmaß eines echten Risikos. Es werden zwei Arten von Validität unterschieden: interne und externe Validität. Interne Validität ist die Fähigkeit einer Studie, das widerzuspiegeln, was wirklich unter den Studienteilnehmern passiert ist; Die externe Validität spiegelt wider, was in der Bevölkerung passieren könnte.
Validität bezieht sich auf die Wahrhaftigkeit einer Messung. Validität ist von der Genauigkeit der Messung zu unterscheiden, die von der Größe der Studie und der Effizienz des Studiendesigns abhängt.
Interne Gültigkeit
Eine Studie gilt als intern valide, wenn sie frei von Verzerrungen ist und somit den bei den Studienteilnehmern bestehenden Zusammenhang zwischen Exposition und Krankheit wirklich widerspiegelt. Ein beobachtetes Krankheitsrisiko im Zusammenhang mit einer Exposition kann zwar aus einem realen Zusammenhang resultieren und daher valide sein, aber es kann auch den Einfluss von Vorurteilen widerspiegeln. Eine Voreingenommenheit wird ein verzerrtes Bild der Realität geben.
Drei Haupttypen von Vorurteilen, auch genannt systematische Fehler, werden normalerweise unterschieden:
Sie werden im Folgenden anhand von Beispielen aus dem arbeitsmedizinischen Umfeld kurz vorgestellt.
Selektionsvorspannung
Ein Selektionsbias tritt auf, wenn der Eintritt in die Studie durch die Kenntnis des Expositionsstatus des potenziellen Studienteilnehmers beeinflusst wird. Dieses Problem tritt daher nur dann auf, wenn die Krankheit zum Zeitpunkt (bevor) die Person in die Studie aufgenommen wurde, bereits aufgetreten ist. Im epidemiologischen Umfeld geschieht dies typischerweise in Fall-Kontroll-Studien oder in retrospektiven Kohortenstudien. Dies bedeutet, dass eine Person eher als Fall betrachtet wird, wenn bekannt ist, dass sie exponiert war. Drei Umstände können zu einem solchen Ereignis führen, das auch von der Schwere der Krankheit abhängt.
Selbstselektionsverzerrung
Dies kann vorkommen, wenn Personen, die wissen, dass sie in der Vergangenheit bekannten oder vermuteten schädlichen Produkten ausgesetzt waren, und die überzeugt sind, dass ihre Krankheit das Ergebnis der Exposition ist, einen Arzt wegen Symptomen konsultieren, die andere Personen, die nicht so exponiert waren, möglicherweise ignoriert haben. Dies ist besonders wahrscheinlich bei Krankheiten, die nur wenige auffällige Symptome aufweisen. Ein Beispiel kann ein früher Schwangerschaftsverlust oder eine spontane Abtreibung bei weiblichen Krankenschwestern sein, die mit Arzneimitteln zur Krebsbehandlung umgehen. Diese Frauen sind sich der Fortpflanzungsphysiologie bewusster als die meisten anderen und, da sie sich Sorgen um ihre Fähigkeit machen, Kinder zu bekommen, erkennen oder etikettieren sie möglicherweise eher als spontane Abtreibung, was andere Frauen nur als Verzögerung des Beginns der Menstruation betrachten würden. Ein weiteres Beispiel aus einer retrospektiven Kohortenstudie, zitiert von Rothman (1986), betrifft eine Studie des Centers for Disease Control über Leukämie unter Truppen, die bei einem US-Atomtest in Nevada anwesend waren. Von den auf dem Testgelände anwesenden Truppen wurden 76 % aufgespürt und bildeten die Kohorte. Davon wurden 82 % von den Ermittlern gefunden, aber weitere 18 % kontaktierten die Ermittler selbst, nachdem sie von der Öffentlichkeit über die Studie gehört hatten. Vier Fälle von Leukämie waren unter den 82 % vorhanden, die von CDC verfolgt wurden, und vier Fälle waren unter den selbst überwiesenen 18 % vorhanden. Dies deutet stark darauf hin, dass die Fähigkeit der Ermittler, exponierte Personen zu identifizieren, mit dem Leukämie-Risiko zusammenhängt.
Diagnostische Verzerrung
Dies wird der Fall sein, wenn die Ärzte eine bestimmte Krankheit eher diagnostizieren, wenn sie wissen, was der Patient zuvor ausgesetzt war. Als beispielsweise die meisten Farben bleihaltig waren, war ein Symptom einer Erkrankung der peripheren Nerven, das als periphere Neuritis mit Lähmung bezeichnet wird, auch als „Handgelenkstropfen“ der Maler bekannt. Die Kenntnis des Berufs des Patienten erleichterte bereits im Frühstadium die Diagnose der Erkrankung, während bei Studienteilnehmern ohne bekannte berufliche Bleibelastung die Identifizierung des Erregers deutlich erschwert wäre.
Bias aufgrund der Weigerung, an einer Studie teilzunehmen
Wenn Menschen, ob gesund oder krank, gebeten werden, an einer Studie teilzunehmen, spielen mehrere Faktoren eine Rolle, ob sie zustimmen oder nicht. Die Bereitschaft, unterschiedlich lange Fragebögen zu beantworten, die manchmal nach heiklen Themen fragen, und noch mehr, Blut oder andere biologische Proben abzugeben, kann vom Grad des Eigeninteresses der Person bestimmt werden. Jemand, der sich der früheren möglichen Exposition bewusst ist, ist möglicherweise bereit, dieser Anfrage nachzukommen, in der Hoffnung, dass sie dabei hilft, die Ursache der Krankheit zu finden, während jemand der Meinung ist, dass er nichts Gefährlichem ausgesetzt war, oder der nicht interessiert ist wissen, können die Einladung zur Teilnahme an der Studie ablehnen. Dies kann zu einer Auswahl der Personen führen, die letztendlich Studienteilnehmer sein werden, im Vergleich zu allen, die es hätten sein können.
Informationsverzerrung
Dies wird auch als Beobachtungsverzerrung bezeichnet und betrifft den Krankheitsverlauf in Folgestudien und die Expositionsbeurteilung in Fall-Kontroll-Studien.
Differenzielle Ergebnisbewertung in prospektiven Folgestudien (Kohortenstudien).
Zu Beginn der Studie werden zwei Gruppen definiert: eine exponierte Gruppe und eine nicht exponierte Gruppe. Probleme der diagnostischen Verzerrung entstehen, wenn die Suche nach Fällen zwischen diesen beiden Gruppen unterschiedlich ist. Stellen Sie sich zum Beispiel eine Kohorte von Personen vor, die einer versehentlichen Freisetzung von Dioxin in einer bestimmten Branche ausgesetzt sind. Für die hochexponierte Gruppe wird ein aktives Nachsorgesystem mit regelmäßigen ärztlichen Untersuchungen und biologischem Monitoring eingerichtet, während der Rest der Erwerbsbevölkerung nur routinemäßig betreut wird. Es ist sehr wahrscheinlich, dass in der eng überwachten Gruppe mehr Krankheiten identifiziert werden, was zu einer potenziellen Überschätzung des Risikos führen würde.
Differenzielle Verluste in retrospektiven Kohortenstudien
In retrospektiven Kohortenstudien kann der umgekehrte Mechanismus zu dem im vorhergehenden Absatz beschriebenen auftreten. Die übliche Vorgehensweise bei diesen Studien ist, mit den Akten aller Personen zu beginnen, die in der Vergangenheit in einer bestimmten Branche beschäftigt waren, und Krankheit oder Sterblichkeit nach der Beschäftigung zu bewerten. Leider sind in fast allen Studien die Akten unvollständig, und die Tatsache, dass eine Person vermisst wird, kann entweder mit dem Expositionsstatus oder dem Krankheitsstatus oder mit beidem zusammenhängen. Beispielsweise wurden in einer kürzlich in der chemischen Industrie durchgeführten Studie bei Arbeitern, die aromatischen Aminen ausgesetzt waren, acht Tumore in einer Gruppe von 777 Arbeitern gefunden, die einem zytologischen Screening auf Harntumoren unterzogen worden waren. Insgesamt wurden nur 34 Datensätze als fehlend befunden, was einem Verlust von 4.4 % in der Expositionsbewertungsdatei entspricht, aber bei Blasenkrebsfällen fehlten Expositionsdaten für zwei von acht Fällen oder 25 %. Dies zeigt, dass die Akten von Personen, die zu Fällen wurden, mit größerer Wahrscheinlichkeit verloren gingen als die Akten anderer Mitarbeiter. Dies kann durch häufigere Stellenwechsel innerhalb des Unternehmens (die mit Expositionseffekten verbunden sein können), Kündigung, Entlassung oder reinen Zufall geschehen.
Differenzielle Bewertung der Exposition in Fall-Kontroll-Studien
Bei Fall-Kontroll-Studien ist die Erkrankung bei Studienbeginn bereits aufgetreten und es werden Informationen zu früheren Expositionen abgefragt. Voreingenommenheit kann entweder aus der Einstellung des Interviewers oder des Studienteilnehmers zur Untersuchung resultieren. Die Informationen werden normalerweise von geschulten Interviewern gesammelt, die sich der Hypothese, die der Forschung zugrunde liegt, bewusst sein können oder auch nicht. In einer bevölkerungsbezogenen Fall-Kontroll-Studie zu Blasenkrebs beispielsweise, die in einer hochindustrialisierten Region durchgeführt wurde, ist sich das Studienpersonal möglicherweise der Tatsache bewusst, dass bestimmte Chemikalien, wie beispielsweise aromatische Amine, Risikofaktoren für Blasenkrebs sind. Wenn sie auch wissen, wer die Krankheit entwickelt hat und wer nicht, können sie mit den Teilnehmern, die an Blasenkrebs erkrankt sind, wahrscheinlich eingehendere Interviews führen als mit den Kontrollen. Sie bestehen möglicherweise auf detaillierteren Informationen über frühere Berufe und suchen systematisch nach der Exposition gegenüber aromatischen Aminen, während sie für Kontrollen die Berufe eher routinemäßig erfassen. Die resultierende Vorspannung wird als bekannt Expositionsverdacht voreingenommen.
Auch die Teilnehmer selbst können für eine solche Voreingenommenheit verantwortlich sein. Das nennt man Voreingenommenheit erinnern um es von der Voreingenommenheit des Interviewers zu unterscheiden. Beide haben den Expositionsverdacht als Mechanismus für die Voreingenommenheit. Erkrankte Personen können einen beruflichen Ursprung ihrer Krankheit vermuten und werden daher versuchen, sich so genau wie möglich an alle gefährlichen Stoffe zu erinnern, denen sie möglicherweise ausgesetzt waren. Beim Umgang mit undefinierten Produkten neigen sie möglicherweise dazu, sich an die Namen konkreter Chemikalien zu erinnern, insbesondere wenn ihnen eine Liste verdächtiger Produkte zur Verfügung gestellt wird. Im Gegensatz dazu durchlaufen Kontrollen mit geringerer Wahrscheinlichkeit denselben Denkprozess.
Verwirrend
Confounding liegt vor, wenn der beobachtete Zusammenhang zwischen Exposition und Krankheit teilweise das Ergebnis einer Vermischung der Wirkung der untersuchten Exposition und eines anderen Faktors ist. Nehmen wir zum Beispiel an, dass wir bei Schweißern ein erhöhtes Lungenkrebsrisiko feststellen. Wir sind versucht, sofort zu schließen, dass es einen kausalen Zusammenhang zwischen der Exposition gegenüber Schweißrauch und Lungenkrebs gibt. Wir wissen aber auch, dass Rauchen der mit Abstand wichtigste Risikofaktor für Lungenkrebs ist. Wenn Informationen verfügbar sind, beginnen wir daher damit, den Raucherstatus von Schweißern und anderen Studienteilnehmern zu überprüfen. Wir können feststellen, dass Schweißer eher rauchen als Nicht-Schweißer. In dieser Situation ist bekannt, dass das Rauchen mit Lungenkrebs in Verbindung gebracht wird, und gleichzeitig wurde in unserer Studie festgestellt, dass das Rauchen auch mit dem Beruf des Schweißers in Verbindung gebracht wird. In epidemiologischer Hinsicht bedeutet dies, dass Rauchen, das sowohl mit Lungenkrebs als auch mit Schweißen in Verbindung gebracht wird, den Zusammenhang zwischen Schweißen und Lungenkrebs verfälscht.
Interaktions- oder Effektmodifikation
Im Gegensatz zu allen oben aufgeführten Aspekten, nämlich Selektion, Information und Confounding, die Verzerrungen darstellen, ist Interaktion keine Verzerrung aufgrund von Problemen im Studiendesign oder in der Analyse, sondern spiegelt die Realität und ihre Komplexität wider. Ein Beispiel für dieses Phänomen ist das folgende: Die Belastung durch Radon ist ein Risikofaktor für Lungenkrebs, ebenso wie das Rauchen. Darüber hinaus haben Rauchen und Radonexposition unterschiedliche Auswirkungen auf das Lungenkrebsrisiko, je nachdem, ob sie zusammen oder isoliert wirken. Die meisten Berufsstudien zu diesem Thema wurden unter Untertagebergleuten durchgeführt und haben teilweise widersprüchliche Ergebnisse geliefert. Insgesamt scheint es Argumente für eine Wechselwirkung von Rauchen und Radonexposition bei der Entstehung von Lungenkrebs zu geben. Das bedeutet, dass das Lungenkrebsrisiko durch Radonexposition auch bei Nichtrauchern erhöht wird, aber dass die Risikoerhöhung durch Radon bei Rauchern viel größer ist als bei Nichtrauchern. Epidemiologisch sprechen wir von einer multiplikativen Wirkung. Im Gegensatz zum oben beschriebenen Confounding muss die Interaktion sorgfältig analysiert und in der Analyse beschrieben und nicht einfach kontrolliert werden, da sie das widerspiegelt, was auf biologischer Ebene passiert, und nicht nur eine Folge eines schlechten Studiendesigns ist. Seine Erklärung führt zu einer valideren Interpretation der Ergebnisse einer Studie.
Externe Validität
Dieses Problem kann erst behoben werden, nachdem sichergestellt wurde, dass die interne Gültigkeit gesichert ist. Wenn wir davon überzeugt sind, dass die in der Studie beobachteten Ergebnisse reale Assoziationen widerspiegeln, können wir uns fragen, ob wir diese Ergebnisse auf die größere Population, aus der die Studienteilnehmer selbst gezogen wurden, oder sogar auf andere identische Populationen extrapolieren können oder zumindest sehr ähnlich. Die häufigste Frage ist, ob die für Männer erzielten Ergebnisse auch für Frauen gelten. Studien und insbesondere berufsepidemiologische Untersuchungen werden seit Jahren ausschließlich bei Männern durchgeführt. Studien unter Chemikern, die in den 1960er und 1970er Jahren in den Vereinigten Staaten, dem Vereinigten Königreich und Schweden durchgeführt wurden, ergaben alle ein erhöhtes Risiko für bestimmte Krebsarten – nämlich Leukämie, Lymphome und Bauchspeicheldrüsenkrebs. Aus dem, was wir über die Wirkungen der Exposition gegenüber Lösungsmitteln und einigen anderen Chemikalien wussten, hätten wir damals schon ableiten können, dass die Laborarbeit auch ein krebserzeugendes Risiko für Frauen mit sich bringt. Dies zeigte sich tatsächlich, als Mitte der 1980er Jahre schließlich die erste Studie unter Chemikerinnen veröffentlicht wurde, die ähnliche Ergebnisse wie bei Männern ergab. Es ist erwähnenswert, dass es sich bei anderen gefundenen übermäßigen Krebsarten um Tumore der Brust und der Eierstöcke handelte, die traditionell nur mit endogenen Faktoren oder der Fortpflanzung in Verbindung gebracht wurden, bei denen jedoch neu vermutete Umweltfaktoren wie Pestizide eine Rolle spielen könnten. Zu den berufsbedingten Determinanten von Krebserkrankungen bei Frauen muss noch viel mehr Arbeit geleistet werden.
Strategien für ein valides Studium
Eine vollkommen gültige Studie kann es nie geben, aber es obliegt dem Forscher, so viele Verzerrungen wie möglich zu vermeiden oder zumindest zu minimieren. Dies kann oft am besten in der Phase des Studiendesigns erfolgen, kann aber auch während der Analyse durchgeführt werden.
Studiendesign
Auswahl- und Informationsverzerrung können nur durch das sorgfältige Design einer epidemiologischen Studie und die sorgfältige Umsetzung aller sich daraus ergebenden täglichen Richtlinien, einschließlich der sorgfältigen Beachtung der Qualitätssicherung, für die Durchführung der Studie unter Feldbedingungen vermieden werden. Confounding kann entweder in der Entwurfs- oder in der Analysephase behandelt werden.
Auswahl
Kriterien für die Berücksichtigung eines Teilnehmers als Fall müssen explizit definiert werden. Man kann oder sollte zumindest nicht versuchen, schlecht definierte klinische Zustände zu untersuchen. Eine Möglichkeit zur Minimierung der Auswirkungen, die die Kenntnis der Exposition auf die Krankheitsbewertung haben kann, besteht darin, nur schwere Fälle einzubeziehen, die unabhängig von Informationen zur Krankengeschichte des Patienten diagnostiziert worden wären. Im Bereich Krebs werden Studien oft auf Fälle mit histologischem Nachweis der Erkrankung beschränkt, um den Einschluss von Borderline-Läsionen zu vermeiden. Dies bedeutet auch, dass die untersuchten Gruppen gut definiert sind. Beispielsweise ist in der Krebsepidemiologie wohlbekannt, dass Krebsarten verschiedener histologischer Typen innerhalb eines gegebenen Organs unterschiedliche Risikofaktoren haben können. Bei ausreichender Fallzahl ist es besser, das Adenokarzinom der Lunge vom Plattenepithelkarzinom der Lunge zu trennen. Was auch immer die endgültigen Kriterien für die Aufnahme in die Studie sein mögen, sie sollten immer klar definiert und beschrieben werden. Beispielsweise sollte der genaue Code der Krankheit anhand der Internationalen Klassifikation der Krankheiten (ICD) und bei Krebs auch der Internationalen Klassifikation der Krankheiten – Onkologie (ICD-O) angegeben werden.
Sobald die Kriterien festgelegt sind, sollten Anstrengungen unternommen werden, um die Teilnahme an der Studie zu maximieren. Die Entscheidung, eine Teilnahme abzulehnen, wird kaum zufällig getroffen und führt daher zu Voreingenommenheit. Studien sollten zunächst den Klinikern vorgestellt werden, die die Patienten behandeln. Ihre Zustimmung ist erforderlich, um Patienten anzusprechen, und daher müssen sie davon überzeugt werden, die Studie zu unterstützen. Ein oft überzeugendes Argument ist, dass die Studie im Interesse der öffentlichen Gesundheit ist. In diesem Stadium ist es jedoch besser, die genaue zu bewertende Hypothese nicht zu diskutieren, um eine übermäßige Beeinflussung der beteiligten Kliniker zu vermeiden. Ärzte sollten nicht aufgefordert werden, Nebentätigkeiten zu übernehmen; Es ist einfacher, medizinisches Personal davon zu überzeugen, eine Studie zu unterstützen, wenn von den Prüfärzten Mittel bereitgestellt werden, um alle zusätzlichen Aufgaben durchzuführen, die über die Routineversorgung hinausgehen und durch die Studie erforderlich sind. Interviewer und Datenextraktoren sollten den Krankheitsstatus ihrer Patienten nicht kennen.
Ähnliche Aufmerksamkeit sollte den Informationen geschenkt werden, die den Teilnehmern zur Verfügung gestellt werden. Das Ziel der Studie muss breit und neutral beschrieben werden, aber auch überzeugend und überzeugend sein. Es ist wichtig, dass Fragen der Vertraulichkeit und von Interesse für die öffentliche Gesundheit vollständig verstanden werden, während medizinischer Fachjargon vermieden wird. In den meisten Situationen wird der Einsatz von finanziellen oder anderen Anreizen nicht als angemessen erachtet, obwohl eine Entschädigung für alle Kosten bereitgestellt werden sollte, die einem Teilnehmer möglicherweise entstehen. Nicht zuletzt sollte die allgemeine Bevölkerung über ausreichende wissenschaftliche Kenntnisse verfügen, um die Bedeutung solcher Forschung zu verstehen. Sowohl die Vorteile als auch die Risiken der Teilnahme müssen jedem potenziellen Teilnehmer erklärt werden, wenn er Fragebögen ausfüllen und/oder biologische Proben zur Aufbewahrung und/oder Analyse bereitstellen muss. Es sollte kein Zwang angewendet werden, um eine vorherige und vollständig informierte Zustimmung zu erhalten. Bei Studien, die ausschließlich auf Aufzeichnungen basieren, muss die vorherige Zustimmung der für die Wahrung der Vertraulichkeit dieser Aufzeichnungen zuständigen Stellen eingeholt werden. In diesen Fällen kann in der Regel auf die Zustimmung der einzelnen Teilnehmer verzichtet werden. Stattdessen reicht die Zustimmung von Gewerkschafts- und Regierungsbeamten aus. Epidemiologische Untersuchungen bedrohen nicht das Privatleben des Einzelnen, sondern sind ein potenzielles Hilfsmittel zur Verbesserung der Gesundheit der Bevölkerung. Vor der Durchführung einer Studie ist die Zustimmung eines institutionellen Prüfungsausschusses (oder Ethikprüfungsausschusses) erforderlich, und vieles von dem, was oben gesagt wurde, wird von ihm für seine Überprüfung erwartet.
Informationen
In prospektiven Folgestudien müssen die Mittel zur Beurteilung des Krankheits- oder Mortalitätsstatus für exponierte und nicht exponierte Teilnehmer identisch sein. Insbesondere sollte nicht auf unterschiedliche Quellen zurückgegriffen werden, wie z. B. nur die Abfrage in einem zentralen Mortalitätsregister für nicht exponierte Teilnehmer und die Nutzung einer intensiven aktiven Überwachung für exponierte Teilnehmer. Ebenso muss die Todesursache auf streng vergleichbare Weise ermittelt werden. Das bedeutet, wenn ein System verwendet wird, um Zugang zu offiziellen Dokumenten für die nicht exponierte Bevölkerung, die oft die allgemeine Bevölkerung ist, zu erhalten, sollte man niemals planen, noch genauere Informationen durch Krankenakten oder Interviews über die Teilnehmer selbst oder ihre Familien zu erhalten die exponierte Untergruppe.
In retrospektiven Kohortenstudien sollten Anstrengungen unternommen werden, um festzustellen, wie genau die untersuchte Population mit der interessierenden Population verglichen wird. Man sollte sich vor möglichen unterschiedlichen Verlusten in exponierten und nicht exponierten Gruppen hüten, indem man verschiedene Quellen zur Zusammensetzung der Bevölkerung verwendet. Beispielsweise kann es sinnvoll sein, Gehaltslisten mit Gewerkschaftsmitgliedslisten oder anderen Berufsverzeichnissen zu vergleichen. Diskrepanzen müssen ausgeglichen werden, und das für die Studie angenommene Protokoll muss genau befolgt werden.
In Fall-Kontroll-Studien gibt es andere Optionen, um Verzerrungen zu vermeiden. Interviewer, Studienpersonal und Studienteilnehmer müssen sich der genauen zu untersuchenden Hypothese nicht bewusst sein. Wenn sie die getestete Assoziation nicht kennen, ist es weniger wahrscheinlich, dass sie versuchen, die erwartete Antwort zu geben. Das Studienpersonal über die Forschungshypothese im Dunkeln zu lassen, ist tatsächlich oft sehr unpraktisch. Der Interviewer kennt fast immer die Expositionen mit dem größten potenziellen Interesse sowie wer ein Fall und wer eine Kontrolle ist. Wir müssen uns daher auf ihre Ehrlichkeit und auch auf ihre Ausbildung in Grundlagenforschungsmethodik verlassen, die Teil ihres beruflichen Hintergrunds sein sollte; Objektivität ist das Markenzeichen auf allen Stufen der Wissenschaft.
Es ist einfacher, die Studienteilnehmer nicht über den genauen Forschungsgegenstand zu informieren. Gute, grundlegende Erläuterungen zur Notwendigkeit der Erhebung von Daten für ein besseres Verständnis von Gesundheit und Krankheit sind in der Regel ausreichend und genügen den Anforderungen einer Ethikprüfung.
Verwirrend
Confounding ist die einzige Verzerrung, die entweder in der Phase des Studiendesigns oder, sofern angemessene Informationen verfügbar sind, in der Analysephase behandelt werden kann. Wenn zum Beispiel das Alter als potenzieller Confounder der interessierenden Assoziation angesehen wird, weil das Alter mit dem Krankheitsrisiko (d. h. Krebs wird im höheren Alter häufiger) und auch mit der Exposition (Expositionsbedingungen variieren mit dem Alter oder mit altersbedingten Faktoren wie Qualifikation, berufliche Position und Beschäftigungsdauer) gibt es mehrere Lösungsansätze. Am einfachsten ist es, die Studie auf einen bestimmten Altersbereich zu begrenzen – nehmen Sie beispielsweise nur kaukasische Männer im Alter von 40 bis 50 Jahren auf. Dies liefert Elemente für eine einfache Analyse, hat aber auch den Nachteil, dass die Anwendung der Ergebnisse auf einen einzelnen beschränkt wird Geschlecht Alter/Rassengruppe. Eine andere Lösung ist das Matching nach Alter. Das bedeutet, dass für jeden Fall ein gleichaltriger Referent benötigt wird. Dies ist eine attraktive Idee, aber man muss die mögliche Schwierigkeit berücksichtigen, diese Anforderung zu erfüllen, wenn die Anzahl der passenden Faktoren zunimmt. Darüber hinaus wird es nach der Zuordnung eines Faktors unmöglich, seine Rolle beim Auftreten von Krankheiten zu bewerten. Die letzte Lösung besteht darin, genügend Informationen über potenzielle Confounder in der Studiendatenbank zu haben, um sie in der Analyse zu überprüfen. Dies kann entweder durch eine einfache stratifizierte Analyse oder mit ausgefeilteren Tools wie der multivariaten Analyse erfolgen. Es sollte jedoch daran erinnert werden, dass eine Analyse niemals in der Lage sein wird, eine schlecht konzipierte oder durchgeführte Studie zu kompensieren.
Fazit
Das Potenzial für Verzerrungen in der epidemiologischen Forschung ist seit langem bekannt. Dies war kein allzu großes Problem, wenn die untersuchten Assoziationen stark waren (wie dies bei Rauchen und Lungenkrebs der Fall ist) und daher einige Ungenauigkeiten kein allzu schwerwiegendes Problem verursachten. Jetzt, da es an der Zeit ist, schwächere Risikofaktoren zu bewerten, wird der Bedarf an besseren Instrumenten von größter Bedeutung. Dazu gehört die Notwendigkeit exzellenter Studiendesigns und die Möglichkeit, die Vorteile verschiedener traditioneller Designs wie Fall-Kontroll- oder Kohortenstudien mit innovativeren Ansätzen wie in einer Kohorte verschachtelten Fall-Kontroll-Studien zu kombinieren. Außerdem kann die Verwendung von Biomarkern die Möglichkeit bieten, genauere Einschätzungen aktueller und möglicherweise früherer Expositionen sowie für die frühen Krankheitsstadien zu erhalten.
Ermüdung und Erholung sind periodische Prozesse in jedem lebenden Organismus. Fatigue kann als ein Zustand beschrieben werden, der durch ein Ermüdungsgefühl verbunden mit einer Verringerung oder ungewollten Schwankung der Leistungsfähigkeit gekennzeichnet ist (Rohmert 1973).
Nicht alle Funktionen des menschlichen Organismus ermüden durch den Gebrauch. Auch im Schlaf atmen wir zum Beispiel und unser Herz pumpt ohne Pause. Offensichtlich sind die Grundfunktionen Atmung und Herztätigkeit lebenslang ohne Ermüdung und ohne Erholungspausen möglich.
Andererseits stellen wir nach längerer schwerer Arbeit fest, dass die Kapazität nachlässt – was wir nennen Müdigkeit. Dies gilt nicht nur für die Muskelaktivität. Auch die Sinnesorgane oder die Nervenzentren ermüden. Es ist jedoch das Ziel jeder Zelle, die durch ihre Aktivität verlorene Kapazität auszugleichen, ein Prozess, den wir nennen Erholung.
Stress, Belastung, Ermüdung und Erholung
Die Begriffe Ermüdung und Erholung bei der menschlichen Arbeit sind eng verwandt mit den ergonomischen Begriffen Belastung und Belastung (Rohmert 1984) (Abbildung 1).
Abbildung 1. Stress, Belastung und Ermüdung
Stress bedeutet die Summe aller Arbeitsparameter im Arbeitssystem, die den Menschen bei der Arbeit beeinflussen, die hauptsächlich über das Rezeptorsystem wahrgenommen oder empfunden werden oder die das Effektorsystem beanspruchen. Die Belastungsparameter ergeben sich aus der Arbeitsaufgabe (muskuläre Arbeit, nichtmuskuläre Arbeit – aufgabenorientierte Dimensionen und Faktoren) und aus den physikalischen, chemischen und sozialen Bedingungen, unter denen die Arbeit zu verrichten ist (Lärm, Klima, Beleuchtung, Vibration). , Schichtarbeit etc. – situationsbezogene Dimensionen und Faktoren).
Die Intensität/Schwierigkeit, die Dauer und die Zusammensetzung (dh die gleichzeitige und sukzessive Verteilung dieser spezifischen Anforderungen) der Belastungsfaktoren ergibt eine kombinierte Belastung, die alle exogenen Wirkungen eines Arbeitssystems auf den arbeitenden Menschen ausüben. Diese kombinierte Belastung kann je nach Verhalten der arbeitenden Person aktiv bewältigt oder passiv hingenommen werden. Der aktive Fall beinhaltet Aktivitäten, die auf die Effizienz des Arbeitssystems gerichtet sind, während der passive Fall Reaktionen hervorruft (freiwillig oder unfreiwillig), die hauptsächlich mit der Minimierung von Stress verbunden sind. Das Verhältnis von Belastung und Aktivität wird entscheidend von den individuellen Eigenschaften und Bedürfnissen der arbeitenden Person beeinflusst. Haupteinflussfaktoren sind die leistungsbestimmenden Faktoren der Motivation und Konzentration sowie die der Disposition, die als Fähigkeiten und Fertigkeiten bezeichnet werden können.
Die verhaltensrelevanten Belastungen, die sich bei bestimmten Tätigkeiten manifestieren, verursachen individuell unterschiedliche Belastungen. Die Belastungen können durch die Reaktion physiologischer oder biochemischer Indikatoren (z. B. Erhöhung der Herzfrequenz) angezeigt oder wahrgenommen werden. Damit sind die Belastungen anfällig für eine „psycho-physische Skalierung“, die das Belastungserleben der arbeitenden Person abschätzt. In einem verhaltensorientierten Ansatz kann das Vorliegen einer Belastung auch aus einer Aktivitätsanalyse abgeleitet werden. Die Intensität, mit der Belastungsindikatoren (physiologisch-biochemische, behavioristische oder psychophysische) reagieren, hängt von der Intensität, Dauer und Kombination von Belastungsfaktoren sowie von den individuellen Eigenschaften, Fähigkeiten, Fertigkeiten und Bedürfnissen der arbeitenden Person ab.
Trotz ständiger Belastungen können sich die aus den Tätigkeitsfeldern, Leistungen und Belastungen abgeleiteten Kennzahlen im Laufe der Zeit verändern (zeitlicher Effekt). Solche zeitlichen Schwankungen sind als Anpassungsprozesse der organischen Systeme zu interpretieren. Die positiven Wirkungen bewirken eine Verringerung der Belastung/Verbesserung der Aktivität oder Leistungsfähigkeit (z. B. durch Training). Im negativen Fall führen sie jedoch zu einer erhöhten Belastung/reduzierten Aktivität oder Leistungsfähigkeit (z. B. Müdigkeit, Monotonie).
Die positiven Effekte können zum Tragen kommen, wenn die vorhandenen Fähigkeiten und Fertigkeiten im Arbeitsprozess selbst verbessert werden, z. B. beim leichten Überschreiten der Trainingsreizschwelle. Die negativen Auswirkungen treten wahrscheinlich auf, wenn im Laufe des Arbeitsprozesses sogenannte Belastungsgrenzen (Rohmert 1984) überschritten werden. Diese Ermüdung führt zu einer Verringerung der physiologischen und psychischen Funktionen, die durch Erholung kompensiert werden können.
Zur Wiederherstellung der ursprünglichen Leistungsfähigkeit sind Ruhepausen oder zumindest Zeiten geringerer Belastung notwendig (Luczak 1993).
Wenn der Anpassungsprozess über definierte Schwellen hinausgeführt wird, kann das eingesetzte organische System geschädigt werden, so dass es zu einem teilweisen oder vollständigen Ausfall seiner Funktionen kommt. Eine irreversible Funktionseinschränkung kann auftreten, wenn die Belastung viel zu hoch ist (Akutschaden) oder wenn die Erholung längere Zeit nicht möglich ist (chronischer Schaden). Ein typisches Beispiel für einen solchen Schaden ist der lärmbedingte Hörverlust.
Modelle der Ermüdung
Ermüdung kann je nach Belastungsform und Belastungskombination vielfältig sein und lässt sich noch nicht allgemein definieren. Die biologischen Ermüdungsvorgänge sind im Allgemeinen nicht direkt messbar, so dass sich die Definitionen hauptsächlich an den Ermüdungssymptomen orientieren. Diese Ermüdungserscheinungen lassen sich beispielsweise in die folgenden drei Kategorien einteilen.
Im Prozess der Erschöpfung können alle drei Symptome eine Rolle spielen, sie können jedoch zu unterschiedlichen Zeitpunkten auftreten.
Physiologische Reaktionen in organischen Systemen, insbesondere denen, die an der Arbeit beteiligt sind, können zuerst auftreten. Später kann das Anstrengungsgefühl beeinträchtigt werden. Leistungsveränderungen äußern sich im Allgemeinen in einer abnehmenden Regelmäßigkeit der Arbeit oder in einer zunehmenden Fehlermenge, wobei der Mittelwert der Leistung noch nicht betroffen sein darf. Im Gegenteil, der Berufstätige kann bei entsprechender Motivation sogar versuchen, die Leistungsfähigkeit willentlich aufrechtzuerhalten. Der nächste Schritt kann eine deutliche Leistungsminderung bis hin zum Leistungseinbruch sein. Die physiologischen Symptome können zu einem Zusammenbruch des Organismus einschließlich Veränderungen der Persönlichkeitsstruktur und zu Erschöpfung führen. Der Prozess der Ermüdung wird in der Theorie der sukzessiven Destabilisierung erklärt (Luczak 1983).
Der Haupttrend von Ermüdung und Erholung ist in Abbildung 2 dargestellt.
Abbildung 2. Haupttrend von Ermüdung und Erholung
Prognose von Ermüdung und Erholung
Auf dem Gebiet der Ergonomie besteht ein besonderes Interesse daran, die Ermüdung in Abhängigkeit von Intensität, Dauer und Zusammensetzung von Belastungsfaktoren vorherzusagen und die notwendige Erholungszeit zu bestimmen. Tabelle 1 zeigt diese unterschiedlichen Aktivitätsniveaus und Betrachtungszeiten sowie mögliche Gründe für Ermüdung und unterschiedliche Erholungsmöglichkeiten.
Tabelle 1. Ermüdung und Erholung in Abhängigkeit vom Aktivitätsniveau
Aktivitätsgrad |
Zeitraum |
Müdigkeit ab |
Erholung durch |
Arbeitsleben |
Jahrzehntelange |
Überanstrengung für |
Ruhestand |
Phasen des Berufslebens |
Jahre |
Überanstrengung für |
Feiertage |
Folgen von |
Monate/Wochen |
Ungünstige Verschiebung |
Wochenende, frei |
Eine Arbeitsschicht |
Eines Tages |
Stress oben |
Freizeit, Ruhe |
Aufträge |
Stunden |
Stress oben |
Ruhezeit |
Teil einer Aufgabe |
Minuten |
Stress oben |
Stresswechsel |
Bei der ergonomischen Analyse von Belastung und Ermüdung zur Bestimmung der notwendigen Erholungszeit ist die Betrachtung der Dauer eines Arbeitstages am wichtigsten. Die Methoden solcher Analysen beginnen mit der Bestimmung der verschiedenen Belastungsfaktoren als Funktion der Zeit (Laurig 1992) (Abbildung 3).
Abbildung 3. Stress als Funktion der Zeit
Die Belastungsfaktoren werden aus den konkreten Arbeitsinhalten und den Arbeitsbedingungen bestimmt. Arbeitsinhalte können die Krafterzeugung (z. B. beim Handhaben von Lasten), die Koordination motorischer und sensorischer Funktionen (z. B. beim Montieren oder Kranfahren), das Umsetzen von Informationen in Reaktion (z. B. beim Steuern), die Transformationen von Eingaben sein zur Ausgabe von Informationen (z. B. beim Programmieren, Übersetzen) und zum Produzieren von Informationen (z. B. beim Entwerfen, Problemlösen). Die Arbeitsbedingungen beinhalten physikalische (z. B. Lärm, Vibration, Hitze), chemische (chemische Arbeitsstoffe) und soziale (z. B. Kollegen, Schichtarbeit) Aspekte.
Im einfachsten Fall gibt es einen einzigen wichtigen Stressfaktor, während die anderen vernachlässigt werden können. In diesen Fällen, insbesondere wenn die Belastungsfaktoren aus muskulärer Arbeit resultieren, ist es oft möglich, die notwendigen Ruhezeiten zu berechnen, da die Grundbegriffe bekannt sind.
Beispielsweise hängt die ausreichende Ruhezugabe bei statischer Muskelarbeit von der Kraft und Dauer der Muskelkontraktion ab wie in einer durch Multiplikation verknüpften Exponentialfunktion nach der Formel:
mit
RA = Ruhegeld in Prozent von t
t = Kontraktionsdauer (Einwirkzeit) in Minuten
T = maximal mögliche Kontraktionsdauer in Minuten
f = die für die statische Kraft benötigte Kraft und
F = maximale Kraft.
Der Zusammenhang zwischen Kraft, Haltezeit und Ruhezuschlägen ist in Bild 4 dargestellt.
Abbildung 4. Prozentuale Restzugaben für verschiedene Kombinationen von Haltekräften und Zeit
Ähnliche Gesetze existieren für schwere dynamische Muskelarbeit (Rohmert 1962), aktive leichte Muskelarbeit (Laurig 1974) oder andere industrielle Muskelarbeit (Schmidtke 1971). Seltener findet man vergleichbare Gesetze für nichtkörperliche Arbeit, zB für das Rechnen (Schmidtke 1965). Einen Überblick über bestehende Methoden zur Bestimmung der Ruhezulagen für überwiegend isolierte Muskel- und Nicht-Muskelarbeit geben Laurig (1981) und Luczak (1982).
Schwieriger ist die Situation, wenn eine Kombination verschiedener Belastungsfaktoren vorliegt, wie in Abbildung 5 dargestellt, die gleichzeitig auf den arbeitenden Menschen einwirken (Laurig 1992).
Abbildung 5. Die Kombination zweier Stressfaktoren
So kann beispielsweise die Kombination zweier Belastungsfaktoren je nach Kombinationsgesetz zu unterschiedlichen Dehnungsreaktionen führen. Die kombinierte Wirkung verschiedener Stressfaktoren kann indifferent, kompensatorisch oder kumulativ sein.
Bei indifferenten Kombinationsgesetzen wirken die unterschiedlichen Stressfaktoren auf unterschiedliche Teilsysteme des Organismus. Jedes dieser Subsysteme kann die Dehnung kompensieren, ohne dass die Dehnung in ein gemeinsames Subsystem eingespeist wird. Die Gesamtdehnung hängt vom höchsten Stressfaktor ab, und somit werden keine Superpositionsgesetze benötigt.
Eine kompensatorische Wirkung liegt vor, wenn die Kombination verschiedener Belastungsfaktoren zu einer geringeren Belastung führt als jeder Belastungsfaktor allein. Durch die Kombination von Muskelarbeit und niedrigen Temperaturen kann die Gesamtbelastung reduziert werden, da bei niedrigen Temperaturen die durch die Muskelarbeit entstehende Wärme aus dem Körper abgeführt werden kann.
Ein kumulativer Effekt entsteht, wenn sich mehrere Stressfaktoren überlagern, also einen physiologischen „Flaschenhals“ passieren müssen. Ein Beispiel ist die Kombination von Muskelarbeit und Hitzebelastung. Beide Stressfaktoren wirken als gemeinsamer Flaschenhals auf das Kreislaufsystem mit resultierender kumulativer Belastung.
Mögliche Kombinationseffekte zwischen Muskelarbeit und körperlichen Bedingungen sind bei Bruder (1993) beschrieben (siehe Tabelle 2).
Tabelle 2. Regeln der Kombinationswirkung zweier Stressfaktoren auf die Dehnung
Kälte |
Vibration |
Beleuchtung |
Lärm |
|
Schwere dynamische Arbeit |
- |
+ |
0 |
0 |
Aktive leichte Muskelarbeit |
+ |
+ |
0 |
0 |
Statische Muskelarbeit |
+ |
+ |
0 |
0 |
0 gleichgültiger Effekt; + kumulativer Effekt; – Ausgleichswirkung.
Quelle: Adaptiert von Bruder 1993.
Für den in der Praxis üblichen Fall der Kombination von mehr als zwei Belastungsfaktoren liegen nur begrenzte wissenschaftliche Erkenntnisse vor. Gleiches gilt für die sukzessive Kombination von Belastungsfaktoren (dh die Belastungswirkung verschiedener Belastungsfaktoren, die nacheinander auf den Arbeitnehmer einwirken). Für solche Fälle wird in der Praxis die notwendige Erholungszeit bestimmt, indem physiologische oder psychologische Parameter gemessen und als integrierende Werte verwendet werden.
Fehler bei der Expositionsmessung können je nach Verteilung der Fehler unterschiedliche Auswirkungen auf die untersuchte Expositions-Krankheits-Beziehung haben. Wenn eine epidemiologische Studie blind durchgeführt wurde (dh Messungen wurden ohne Kenntnis des Krankheits- oder Gesundheitszustands der Studienteilnehmer durchgeführt), erwarten wir, dass der Messfehler gleichmäßig über die Schichten des Krankheits- oder Gesundheitszustands verteilt wird.
Tabelle 1 zeigt ein Beispiel: Angenommen, wir rekrutieren eine Kohorte von Personen, die bei der Arbeit einem Giftstoff ausgesetzt sind, um eine häufige Krankheit zu untersuchen. Den Expositionsstatus ermitteln wir erst bei der Rekrutierung (T0) und nicht zu weiteren Zeitpunkten der Nachbeobachtung. Nehmen wir jedoch an, dass eine Reihe von Personen tatsächlich ihren Expositionsstatus im folgenden Jahr ändern: Zum Zeitpunkt T1, sind 250 der ursprünglich 1,200 exponierten Personen nicht mehr exponiert, während 150 der ursprünglich 750 nicht exponierten Personen begonnen haben, dem Giftstoff ausgesetzt zu sein. Also zum Zeitpunkt T1, 1,100 Personen sind exponiert und 850 nicht exponiert. Infolgedessen haben wir eine „Fehlklassifizierung“ der Exposition basierend auf unserer anfänglichen Messung des Expositionsstatus zum Zeitpunkt T0. Diese Personen werden dann nach 20 Jahren (zum Zeitpunkt T2) und das kumulative Krankheitsrisiko bewertet. (Im Beispiel wird davon ausgegangen, dass nur eine Exposition von mehr als einem Jahr Anlass zur Sorge gibt.)
Tabelle 1. Hypothetische Kohorte von 1950 Personen (exponiert und nicht exponiert bei der Arbeit), rekrutiert zum Zeitpunkt T0 und dessen Krankheitsstatus zum Zeitpunkt T festgestellt wird2
Uhrzeit |
|||
T0 |
T1 |
T2 |
Exponierte Arbeiter 1200 250 Beenden der Exposition 1100 (1200-250+150)
Krankheitsfälle zum Zeitpunkt T2 = 220 unter exponierten Arbeitern
Nicht exponierte Arbeiter 750 150 Beginn der Exposition 850 (750-150+250)
Krankheitsfälle zum Zeitpunkt T2 = 85 bei nicht exponierten Arbeitern
Das wahres Risiko der Krankheit zum Zeitpunkt T2 beträgt 20 % bei exponierten Arbeitnehmern (220/1100),
und 10 % bei nicht exponierten Arbeitnehmern (85/850) (Risikoverhältnis = 2.0).
Geschätztes Risiko bei T2 der Krankheit unter denen, die als T. exponiert eingestuft wurden0: 20 %
(dh wahres Risiko bei den Exponierten) ´ 950 (dh 1200-250) + 10 %
(dh wahres Risiko bei Nichtexposition) ´ 250 = (190+25)/1200 = 17.9 %
Geschätztes Risiko bei T2 der Krankheit unter denen, die als nicht exponiert eingestuft sind
T0: 20 % (dh wahres Risiko bei den Exponierten) × 150 +10 %
(d. h. wahres Risiko ohne Exposition) × 600 (d. h. 750-150) = (30+60)/750 = 12 %
Geschätztes Risikoverhältnis = 17.9 % / 12 % = 1.49
Die Fehlklassifizierung hängt in diesem Beispiel eher vom Studiendesign und den Merkmalen der Bevölkerung ab als von technischen Beschränkungen der Expositionsmessung. Die Fehlklassifizierung bewirkt, dass das „wahre“ Verhältnis von 2.0 zwischen dem kumulativen Risiko bei exponierten Personen und nicht exponierten Personen zu einem „beobachteten“ Verhältnis von 1.49 wird (Tabelle 1). Diese Unterschätzung des Risikoverhältnisses ergibt sich aus einer „Verwischung“ der Beziehung zwischen Exposition und Krankheit, die auftritt, wenn die Fehlklassifizierung der Exposition, wie in diesem Fall, gleichmäßig nach Krankheit oder Gesundheitszustand verteilt wird (d. h. die Expositionsmessung ist nicht davon beeinflusst, ob die Person an der von uns untersuchten Krankheit litt oder nicht).
Im Gegensatz dazu kann es entweder zu einer Unter- oder Überschätzung des Zusammenhangs von Interesse kommen, wenn die Fehlklassifizierung der Exposition nicht gleichmäßig über das Ergebnis von Interesse verteilt ist. In dem Beispiel haben wir vielleicht vorspannen, und nicht nur eine Verwischung des ätiologischen Zusammenhangs, wenn die Einstufung der Exposition von der Krankheit oder dem Gesundheitszustand der Arbeitnehmer abhängt. Dies könnte beispielsweise eintreten, wenn wir beschließen, biologische Proben von einer Gruppe exponierter Arbeiter und von einer Gruppe nicht exponierter Arbeiter zu sammeln, um frühzeitige Veränderungen im Zusammenhang mit der Exposition bei der Arbeit zu erkennen. Proben von exponierten Arbeitern könnten dann genauer analysiert werden als Proben von nicht exponierten; wissenschaftliche Neugier könnte den Forscher dazu veranlassen, zusätzliche Biomarker bei den exponierten Personen zu messen (einschließlich z. B. DNA-Addukte in Lymphozyten oder Urinmarker für oxidative DNA-Schäden), in der Annahme, dass diese Personen wissenschaftlich „interessanter“ sind. Dies ist eine weit verbreitete Einstellung, die jedoch zu ernsthaften Vorurteilen führen kann.
Über die Rolle der Statistik in der epidemiologischen Forschung zu kausalen Zusammenhängen wird viel diskutiert. In der Epidemiologie ist Statistik in erster Linie eine Sammlung von Methoden zur Bewertung von Daten auf der Grundlage von menschlichen (und auch tierischen) Populationen. Statistik ist insbesondere eine Technik zur Quantifizierung und Messung unsicherer Phänomene. Alle wissenschaftlichen Untersuchungen, die sich mit nichtdeterministischen, variablen Aspekten der Realität befassen, könnten von der statistischen Methodik profitieren. In der Epidemiologie ist Variabilität der Beobachtungseinheit inhärent – eine Person ist keine deterministische Einheit. Während experimentelle Designs dahingehend verbessert werden würden, dass sie die Annahmen der Statistik in Bezug auf zufällige Variationen besser erfüllen, ist dieser Ansatz aus ethischen und praktischen Gründen nicht allzu verbreitet. Stattdessen beschäftigt sich die Epidemiologie mit Beobachtungsforschung, die sowohl zufällige als auch andere Quellen der Variabilität mit sich bringt.
Die statistische Theorie befasst sich damit, wie unstrukturierte Variabilität in den Daten kontrolliert werden kann, um gültige Schlussfolgerungen aus empirischen Beobachtungen zu ziehen. In Ermangelung einer Erklärung für das variable Verhalten des untersuchten Phänomens nimmt die Statistik dies an zufällig– das heißt, nicht-systematische Abweichungen von einem durchschnittlichen Naturzustand (siehe Greenland 1990 für eine Kritik dieser Annahmen).
Wissenschaft stützt sich auf Empirie Beweis um zu zeigen, ob seine theoretischen Modelle von Naturereignissen Gültigkeit haben. Tatsächlich bestimmen die Methoden der statistischen Theorie, inwieweit Beobachtungen in der realen Welt mit der Sicht der Wissenschaftler auf ein Phänomen in mathematischer Modellform übereinstimmen. Statistische Methoden, die auf Mathematik basieren, müssen daher sorgfältig ausgewählt werden; Es gibt viele Beispiele zum Thema „Wie man mit Statistiken lügt“. Epidemiologen sollten sich daher der Angemessenheit der Techniken bewusst sein, die sie anwenden, um das Krankheitsrisiko zu messen. Insbesondere bei der Interpretation sowohl statistisch signifikanter als auch statistisch nicht signifikanter Ergebnisse ist große Sorgfalt geboten.
Die erste Bedeutung des Wortes Statistiken bezieht sich auf eine beliebige zusammenfassende Größe, die anhand einer Reihe von Werten berechnet wird. Beschreibende Indizes oder Statistiken wie der arithmetische Durchschnitt, der Median oder der Modus werden häufig verwendet, um die Informationen in einer Reihe von Beobachtungen zusammenzufassen. In der Vergangenheit wurden diese zusammenfassenden Deskriptoren von Staaten für Verwaltungszwecke verwendet und daher benannt Statistiken. In der Epidemiologie leiten sich häufig verwendete Statistiken aus Vergleichen ab, die der Natur der Epidemiologie innewohnen, die Fragen stellt wie: „Ist eine Bevölkerung einem größeren Krankheitsrisiko ausgesetzt als eine andere?“ Bei solchen Vergleichen ist das relative Risiko ein beliebtes Maß für die Stärke des Zusammenhangs zwischen einem individuellen Merkmal und der Wahrscheinlichkeit zu erkranken und wird am häufigsten in der ätiologischen Forschung verwendet; Das zurechenbare Risiko ist auch ein Maß für den Zusammenhang zwischen individuellen Merkmalen und dem Auftreten von Krankheiten, betont jedoch den Gewinn in Bezug auf die Anzahl der Fälle, die durch eine Intervention erspart bleiben, die den betreffenden Faktor beseitigt – es wird hauptsächlich in der öffentlichen Gesundheit und Präventivmedizin angewendet.
Die zweite Bedeutung des Wortes Statistiken bezieht sich auf die Sammlung von Techniken und die zugrunde liegende Theorie der statistischen Inferenz. Dies ist eine besondere Form der induktiven Logik, die die Regeln für das Erhalten einer gültigen Verallgemeinerung aus einem bestimmten Satz empirischer Beobachtungen spezifiziert. Diese Verallgemeinerung wäre gültig, sofern einige Annahmen erfüllt sind. Dies ist die zweite Art und Weise, wie uns ein ungebildeter Gebrauch von Statistiken täuschen kann: In der Beobachtungsepidemiologie ist es sehr schwierig, sich der Annahmen sicher zu sein, die von statistischen Techniken impliziert werden. Daher sollten Sensitivitätsanalysen und robuste Schätzer Begleiter jeder korrekt durchgeführten Datenanalyse sein. Abschließende Schlussfolgerungen sollten auch auf dem Gesamtwissen beruhen und sich nicht ausschließlich auf die Ergebnisse statistischer Hypothesentests stützen.
Definitionen
A statistische Einheit ist das Element, an dem die empirischen Beobachtungen gemacht werden. Das kann eine Person, eine biologische Probe oder ein zu analysierendes Stück Rohmaterial sein. Normalerweise werden die statistischen Einheiten vom Forscher unabhängig ausgewählt, aber manchmal können komplexere Designs erstellt werden. Beispielsweise werden in Längsschnittstudien eine Reihe von Bestimmungen über eine Sammlung von Personen im Laufe der Zeit vorgenommen; Die statistischen Einheiten in dieser Studie sind die Menge von Bestimmungen, die nicht unabhängig sind, sondern durch ihre jeweiligen Verbindungen zu jeder untersuchten Person strukturiert sind. Der Mangel an Unabhängigkeit oder Korrelation zwischen statistischen Einheiten verdient besondere Aufmerksamkeit bei der statistischen Analyse.
A Variable ist ein einzelnes Merkmal, das an einer bestimmten statistischen Einheit gemessen wird. Es sollte mit a kontrastiert werden konstante, ein festes individuelles Merkmal – zum Beispiel sind in einer Studie über Menschen Kopf oder Brust eine Konstante, während das Geschlecht eines einzelnen Studienteilnehmers eine Variable ist.
Variablen werden mit verschiedenen ausgewertet Messskalen. Die erste Unterscheidung ist zwischen qualitativen und quantitativen Skalen. Qualitative Variablen bieten unterschiedliche Modalitäten or Kategorien. Wenn jede Modalität nicht in Relation zu anderen eingestuft oder geordnet werden kann – zum Beispiel Haarfarbe oder Geschlechtsmodalitäten – bezeichnen wir die Variable als nominal. Wenn die Kategorien geordnet werden können – wie der Schweregrad einer Krankheit – wird die Variable aufgerufen Ordinal-. Wenn eine Variable aus einem numerischen Wert besteht, sagen wir, dass die Skala quantitativ ist. EIN diskret Skala bedeutet, dass die Variable nur einige bestimmte Werte annehmen kann – zum Beispiel ganzzahlige Werte für die Anzahl der Krankheitsfälle. EIN kontinuierlich Skala wird für diejenigen Maßnahmen verwendet, die zu führen echt Zahlen. Kontinuierliche Skalen sollen sein Intervall skaliert, wenn der Nullwert eine rein konventionelle Bedeutung hat. Das heißt, ein Wert von null bedeutet nicht null Menge – zum Beispiel bedeutet eine Temperatur von null Grad Celsius nicht null thermische Energie. In diesem Fall machen nur Unterschiede zwischen den Werten Sinn (deshalb der Begriff „Intervall“-Skala). Ein reeller Nullwert bezeichnet a Verhältnis Skala. Bei einer auf dieser Skala gemessenen Größe sind auch Werteverhältnisse sinnvoll: Ein zweifaches Verhältnis bedeutet nämlich doppelte Menge. Wenn man beispielsweise sagt, dass ein Körper eine doppelt so hohe Temperatur hat wie ein zweiter Körper, bedeutet dies, dass er die doppelte Wärmeenergie des zweiten Körpers hat. unter der Vorraussetzung, dass die Temperatur wird auf einer Verhältnisskala (z. B. in Kelvin Grad) gemessen. Die Menge der zulässigen Werte für eine gegebene Variable wird als Definitionsbereich der Variablen bezeichnet.
Statistische Paradigmen
Statistik befasst sich mit der Art und Weise, aus einer Reihe bestimmter Beobachtungen zu verallgemeinern. Dieser Satz empirischer Messungen wird als a bezeichnet Sample. Aus einer Stichprobe berechnen wir einige deskriptive Statistiken, um die gesammelten Informationen zusammenzufassen.
Die grundlegenden Informationen, die im Allgemeinen zur Charakterisierung eines Maßnahmenpakets erforderlich sind, beziehen sich auf seine zentrale Tendenz und seine Variabilität. Die Wahl zwischen mehreren Alternativen hängt von der Skala ab, die zur Messung eines Phänomens verwendet wird, und von den Zwecken, für die die Statistiken berechnet werden. In Tabelle 1 werden verschiedene Maße der zentralen Tendenz und Variabilität (oder Streuung) beschrieben und der entsprechenden Messskala zugeordnet.
Tabelle 1. Indizes der zentralen Tendenz und Streuung nach Messskala
Messskala |
||||
Qualitativ |
Quantitativ |
|||
Indizes |
Definition |
Nominal |
Ordinal |
Intervall/Verhältnis |
Arithmetisches Mittel |
Summe der beobachteten Werte dividiert durch die Gesamtzahl der Beobachtungen |
|
|
x |
Median |
Mittelpunktwert der beobachteten Verteilung |
|
x |
x |
Model |
Häufigster Wert |
x |
x |
x |
Abdeckung |
Niedrigster und höchster Wert der Verteilung |
|
x |
x |
Unterschied |
Summe der quadrierten Differenz jedes Werts vom Mittelwert dividiert durch die Gesamtzahl der Beobachtungen minus 1 |
|
|
x |
Die berechnete deskriptive Statistik wird aufgerufen Schätzungen wenn wir sie als Ersatz für die analoge Menge der Population verwenden, aus der die Stichprobe ausgewählt wurde. Die Populationsgegenstücke der Schätzungen werden als Konstanten bezeichnet Parameter. Schätzungen desselben Parameters können mit unterschiedlichen statistischen Methoden erhalten werden. Eine Schätzung sollte sowohl valide als auch präzise sein.
Das Populations-Stichproben-Paradigma impliziert, dass die Validität durch die Art und Weise sichergestellt werden kann, wie die Stichprobe aus der Grundgesamtheit ausgewählt wird. Zufällige oder probabilistische Stichproben sind die übliche Strategie: Wenn jedes Mitglied der Bevölkerung die gleiche Wahrscheinlichkeit hat, in die Stichprobe aufgenommen zu werden, dann sollte unsere Stichprobe im Durchschnitt repräsentativ für die Bevölkerung sein und darüber hinaus könnte jede Abweichung von unserer Erwartung sein zufällig erklärt. Die Wahrscheinlichkeit einer gegebenen Abweichung von unserer Erwartung kann ebenfalls berechnet werden, sofern eine Stichprobe durchgeführt wurde. Die gleiche Argumentation gilt für die für unsere Stichprobe berechneten Schätzungen in Bezug auf die Parameter der Grundgesamtheit. Als Schätzwert für den Mittelwert der Grundgesamtheit nehmen wir beispielsweise das arithmetische Mittel aus unserer Stichprobe. Etwaige Unterschiede zwischen dem Durchschnitt der Stichprobe und dem Mittelwert der Grundgesamtheit werden zufälligen Schwankungen bei der Auswahl der in die Stichprobe aufgenommenen Mitglieder zugeschrieben. Wir können die Wahrscheinlichkeit für jeden Wert dieser Differenz berechnen, vorausgesetzt, die Stichprobe wurde zufällig ausgewählt. Wenn die Abweichung zwischen Stichprobenschätzung und Grundgesamtheitsparameter nicht zufällig erklärt werden kann, spricht man von einer Schätzung voreingenommen. Das Design der Beobachtung oder des Experiments verleiht den Schätzungen Gültigkeit, und das grundlegende statistische Paradigma ist das der Zufallsstichprobe.
In der Medizin wird ein zweites Paradigma angenommen, wenn ein Vergleich zwischen verschiedenen Gruppen das Ziel der Studie ist. Ein typisches Beispiel ist die kontrollierte klinische Studie: Anhand vordefinierter Kriterien wird eine Gruppe von Patienten mit ähnlichen Merkmalen ausgewählt. In diesem Stadium wird keine Repräsentativität berücksichtigt. Jeder in die Studie aufgenommene Patient wird durch ein Zufallsverfahren der Behandlungsgruppe zugeteilt, die die Standardtherapie plus das neue zu bewertende Medikament erhält, oder der Kontrollgruppe, die die Standardtherapie und ein Placebo erhält. In diesem Design ersetzt die zufällige Zuordnung der Patienten zu jeder Gruppe die zufällige Auswahl der Mitglieder der Stichprobe. Die Schätzung des Unterschieds zwischen den beiden Gruppen kann statistisch bewertet werden, da wir unter der Hypothese der fehlenden Wirksamkeit des neuen Medikaments die Wahrscheinlichkeit eines Unterschieds ungleich Null berechnen können.
In der Epidemiologie fehlt uns die Möglichkeit, zufällig exponierte und nicht exponierte Personengruppen zusammenzustellen. In diesem Fall können wir immer noch statistische Methoden verwenden, als ob die analysierten Gruppen zufällig ausgewählt oder zugewiesen worden wären. Die Richtigkeit dieser Annahme hängt hauptsächlich vom Studiendesign ab. Dieser Punkt ist besonders wichtig und unterstreicht die Bedeutung des epidemiologischen Studiendesigns gegenüber statistischen Techniken in der biomedizinischen Forschung.
Signal und Rauschen
Die zufällige Variable bezeichnet eine Variable, für die jedem Wert, den sie annehmen kann, eine definierte Wahrscheinlichkeit zugeordnet ist. Die theoretischen Modelle für die Verteilung der Wahrscheinlichkeit einer Zufallsvariablen sind Populationsmodelle. Die Stichprobengegenstücke werden durch die Stichprobenhäufigkeitsverteilung dargestellt. Dies ist eine nützliche Methode, um einen Datensatz zu melden. es besteht aus einer kartesischen Ebene mit der interessierenden Variablen entlang der horizontalen Achse und der Frequenz oder relativen Häufigkeit entlang der vertikalen Achse. Eine grafische Darstellung ermöglicht es uns, leicht zu sehen, was die häufigsten Werte sind und wie sich die Verteilung um bestimmte zentrale Werte wie den arithmetischen Durchschnitt konzentriert.
Für die Zufallsvariablen und ihre Wahrscheinlichkeitsverteilungen verwenden wir die Terme Parameter, mittlerer Erwartungswert (anstelle des arithmetischen Mittels) und Unterschied. Diese theoretischen Modelle beschreiben die Variabilität eines gegebenen Phänomens. In der Informationstheorie wird das Signal durch die zentrale Tendenz (z. B. den Mittelwert) dargestellt, während das Rauschen durch einen Streuungsindex (z. B. die Varianz) gemessen wird.
Zur Veranschaulichung der statistischen Inferenz verwenden wir das Binomialmodell. In den folgenden Abschnitten werden die Konzepte von Punktschätzungen und Konfidenzintervallen, Hypothesentests und Wahrscheinlichkeit von Fehlentscheidungen sowie Aussagekraft einer Studie eingeführt.
Tabelle 2. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)
Arbeitnehmer |
Wahrscheinlichkeit |
||
A |
B |
C |
|
0 |
0 |
0 |
|
1 |
0 |
0 |
|
0 |
1 |
0 |
|
0 |
0 |
1 |
|
0 |
1 |
1 |
|
1 |
0 |
1 |
|
1 |
1 |
0 |
|
1 |
1 |
1 |
Ein Beispiel: Die Binomialverteilung
In der biomedizinischen Forschung und Epidemiologie ist das wichtigste Modell der stochastischen Variation die Binomialverteilung. Es stützt sich auf die Tatsache, dass sich die meisten Phänomene wie eine nominelle Variable mit nur zwei Kategorien verhalten: zum Beispiel das Vorhandensein/Nichtvorhandensein einer Krankheit: lebendig/tot oder genesen/krank. Unter solchen Umständen sind wir an der Erfolgswahrscheinlichkeit interessiert – dh im Fall von Interesse (z. B. Vorliegen einer Krankheit, am Leben oder Genesung) – und an den Faktoren oder Variablen, die sie verändern können. Lass uns in Erwägung ziehen n = 3 Arbeiter, und nehmen wir an, dass wir an der Wahrscheinlichkeit p interessiert sind, eine Sehbehinderung zu haben (ja/nein). Das Ergebnis unserer Beobachtung könnten die möglichen Ergebnisse in Tabelle 2 sein.
Tabelle 3. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)
Anzahl der Erfolge |
Wahrscheinlichkeit |
0 |
|
1 |
|
2 |
|
3 |
Die Wahrscheinlichkeit jeder dieser Ereigniskombinationen lässt sich leicht ermitteln, indem man p berücksichtigt, die (individuelle) Erfolgswahrscheinlichkeit, die für jede Versuchsperson konstant und unabhängig von anderen Ergebnissen ist. Da wir an der Gesamtzahl der Erfolge interessiert sind und nicht an einer bestimmten Reihenfolge, können wir die Tabelle wie folgt umordnen (siehe Tabelle 3) und allgemein die Wahrscheinlichkeit von ausdrücken x Erfolge P (x) als:
woher x ist die Anzahl der Erfolge und die Notation x! bezeichnet die Fakultät von xDh x! = x×(x–1)×(x–2)…×1.
Betrachtet man das Ereignis „krank sein/nicht sein“, so wird die individuelle Wahrscheinlichkeit, bezieht sich auf den Zustand, in dem das Subjekt vermutet wird; in der Epidemiologie wird diese Wahrscheinlichkeit „Prävalenz“ genannt. Um p zu schätzen, verwenden wir den Stichprobenanteil:
p = x/n
mit Varianz:
In einer hypothetischen unendlichen Reihe von replizierten Stichproben derselben Größe n, würden wir unterschiedliche Stichprobenanteile erhalten p = x/n, mit Wahrscheinlichkeiten, die durch die Binomialformel gegeben sind. Der „wahre“ Wert von wird durch jeden Stichprobenanteil geschätzt, und ein Konfidenzintervall für p, d. h. der Satz wahrscheinlicher Werte für p, bei gegebenen beobachteten Daten und einem vordefinierten Konfidenzniveau (z. B. 95 %), wird aus der Binomialverteilung als geschätzt die Menge von Werten für p, die eine Wahrscheinlichkeit von ergibt x größer als ein vorgegebener Wert (z. B. 2.5 %). Für ein hypothetisches Experiment, bei dem wir beobachteten x = 15 Erfolge in n = 30 Versuche, die geschätzte Erfolgswahrscheinlichkeit beträgt:
Tabelle 4. Binomialverteilung. Wahrscheinlichkeiten für verschiedene Werte von für x = 15 Erfolge in n = 30 Versuchen
Wahrscheinlichkeit |
|
0.200 |
0.0002 |
0.300 |
0.0116 |
0.334 |
0.025 |
0.400 |
0.078 |
0.500 |
0.144 |
0.600 |
0.078 |
0.666 |
0.025 |
0.700 |
0.0116 |
Das 95 %-Konfidenzintervall für p, erhalten aus Tabelle 4, beträgt 0.334 – 0.666. Jeder Eintrag der Tabelle zeigt die Wahrscheinlichkeit von x = 15 Erfolge in n = 30 Versuche berechnet mit der Binomialformel; zum Beispiel für = 0.30 erhalten wir aus:
Aussichten für n groß und p nahe 0.5 können wir eine Näherung basierend auf der Gaußschen Verteilung verwenden:
woher za /2 bezeichnet den Wert der Standard-Gauß-Verteilung für eine Wahrscheinlichkeit
P (|z| ³ za /2) = a/2;
1 – a ist das gewählte Konfidenzniveau. Für das betrachtete Beispiel = 15/30 = 0.5; n = 30 und aus der standardmäßigen Gaußschen Tabelle z0.025 = 1.96. Das 95 %-Konfidenzintervall ergibt den Wertesatz 0.321 – 0.679, den man durch Einsetzen erhält p = 0.5, n = 30 und z0.025 = 1.96 in die obige Gleichung für die Gaußsche Verteilung. Beachten Sie, dass diese Werte nahe an den zuvor berechneten exakten Werten liegen.
Statistische Hypothesentests umfassen ein Entscheidungsverfahren über den Wert eines Populationsparameters. Nehmen wir im vorherigen Beispiel an, dass wir uns mit der Behauptung befassen möchten, dass es ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage gibt. Die wissenschaftliche Hypothese, die durch unsere empirischen Beobachtungen überprüft werden soll, lautet dann: „Es besteht ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage“. Statistiker demonstrieren solche Hypothesen, indem sie die komplementäre Hypothese „es gibt keine Erhöhung des Risikos einer Sehbehinderung“ falsifizieren. Dies folgt der mathematischen Demonstration per Absurdum und anstatt eine Behauptung zu verifizieren, werden empirische Beweise nur verwendet, um sie zu falsifizieren. Die statistische Hypothese heißt Nullhypothese. Der zweite Schritt besteht darin, einen Wert für den Parameter dieser Wahrscheinlichkeitsverteilung anzugeben, die verwendet wird, um die Variabilität in den Beobachtungen zu modellieren. Da das Phänomen binär ist (dh Vorhandensein/Fehlen einer Sehbehinderung), wählen wir in unseren Beispielen die Binomialverteilung mit dem Parameter p, der Wahrscheinlichkeit einer Sehbehinderung. Die Nullhypothese behauptet das = 0.25, sagen wir. Dieser Wert wird aus der Sammlung von Wissen über das Thema und a-priori-Wissen über die übliche Prävalenz von Sehbehinderungen in nicht exponierten (dh Nicht-Arbeiter-) Bevölkerungsgruppen ausgewählt. Angenommen, unsere Daten ergaben eine Schätzung = 0.50, von den 30 untersuchten Arbeitern.
Können wir die Nullhypothese ablehnen?
Wenn ja, wofür Alternative Hypothese?
Wir spezifizieren eine Alternativhypothese als Kandidaten, falls die Beweise diktieren, dass die Nullhypothese abgelehnt wird. Ungerichtete (zweiseitige) Alternativhypothesen besagen, dass sich der Populationsparameter von dem in der Nullhypothese angegebenen Wert unterscheidet; gerichtete (einseitige) Alternativhypothesen besagen, dass der Populationsparameter größer (oder kleiner) als der Nullwert ist.
Tabelle 5. Binomialverteilung. Erfolgswahrscheinlichkeiten für = 0.25 in n = 30 Versuchen
X |
Wahrscheinlichkeit |
Kumulative Wahrscheinlichkeit |
0 |
0.0002 |
0.0002 |
1 |
0.0018 |
0.0020 |
2 |
0.0086 |
0.0106 |
3 |
0.0269 |
0.0374 |
4 |
0.0604 |
0.0979 |
5 |
0.1047 |
0.2026 |
6 |
0.1455 |
0.3481 |
7 |
0.1662 |
0.5143 |
8 |
0.1593 |
0.6736 |
9 |
0.1298 |
0.8034 |
10 |
0.0909 |
0.8943 |
11 |
0.0551 |
0.9493 |
12 |
0.0291 |
0.9784 |
13 |
0.0134 |
0.9918 |
14 |
0.0054 |
0.9973 |
15 |
0.0019 |
0.9992 |
16 |
0.0006 |
0.9998 |
17 |
0.0002 |
1.0000 |
. |
. |
. |
30 |
0.0000 |
1.0000 |
Unter der Nullhypothese können wir die Wahrscheinlichkeitsverteilung der Ergebnisse unseres Beispiels berechnen. Tabelle 5 zeigt z = 0.25 und n = 30, die Wahrscheinlichkeiten (siehe Gleichung (1)) und die kumulativen Wahrscheinlichkeiten:
Aus dieser Tabelle erhalten wir die Wahrscheinlichkeit zu haben x ³15 Arbeitnehmer mit Sehbehinderung
P(x ³15) = 1 - P(x15) = 1 - 0.9992 0.0008 =
Dies bedeutet, dass es höchst unwahrscheinlich ist, dass wir 15 oder mehr Arbeitnehmer mit Sehbehinderung beobachten würden, wenn sie die Prävalenz der Krankheit der nicht exponierten Bevölkerungsgruppen erfahren würden. Daher könnten wir die Nullhypothese zurückweisen und bestätigen, dass es eine höhere Prävalenz von Sehbehinderungen in der untersuchten Population von Arbeitnehmern gibt.
Wann n×p ³ 5 und n×(1-) ³ 5 können wir die Gaußsche Näherung verwenden:
Aus der Tabelle der Standard-Gauß-Verteilung erhalten wir:
P(|z|>2.95) = 0.0008
in enger Übereinstimmung mit den genauen Ergebnissen. Aus dieser Näherung können wir erkennen, dass die Grundstruktur eines statistischen Hypothesentests aus dem Verhältnis von Signal zu Rauschen besteht. In unserem Fall ist das Signal (p-), die beobachtete Abweichung von der Nullhypothese, während das Rauschen die Standardabweichung von ist P:
Je größer das Verhältnis, desto geringer die Wahrscheinlichkeit des Nullwerts.
Beim Treffen von Entscheidungen über statistische Hypothesen können zwei Arten von Fehlern auftreten: ein Fehler erster Art, die Ablehnung der Nullhypothese, wenn sie wahr ist; oder ein Typ-II-Fehler, Annahme der Nullhypothese, wenn sie falsch ist. Das Wahrscheinlichkeitsniveau bzw p-Wert, ist die Wahrscheinlichkeit eines Fehlers erster Art, der mit dem griechischen Buchstaben a bezeichnet wird. Diese errechnet sich aus der Wahrscheinlichkeitsverteilung der Beobachtungen unter der Nullhypothese. Es ist üblich, ein a-Fehlerniveau (z. B. 5 %, 1 %) vorzugeben und die Nullhypothese abzulehnen, wenn das Ergebnis unserer Beobachtung eine Wahrscheinlichkeit hat, die gleich oder kleiner als dieses sogenannte kritische Niveau ist.
Die Wahrscheinlichkeit eines Fehlers XNUMX. Art wird mit dem griechischen Buchstaben β bezeichnet. Um ihn zu berechnen, müssen wir in der Alternativhypothese den α-Wert für den zu testenden Parameter angeben (in unserem Beispiel den α-Wert für ). Generische Alternativhypothesen (anders als, größer als, kleiner als) sind nicht sinnvoll. In der Praxis interessiert der β-Wert für eine Reihe von Alternativhypothesen oder deren Ergänzung, die als statistische Aussagekraft des Tests bezeichnet wird. Wenn wir beispielsweise den α-Fehlerwert auf 5 % festlegen, finden wir aus Tabelle 5:
P(x ³12) <0.05
unter der Nullhypothese = 0.25. Wenn wir es zumindest beobachten würden x = 12 Erfolge, würden wir die Nullhypothese verwerfen. Die entsprechenden β-Werte und die Potenz für x = 12 sind in Tabelle 6 angegeben.
Tabelle 6. Fehler 12. Art und Trennschärfe für x = 30, n = 0.05, α = XNUMX
β |
Power |
|
0.30 |
0.9155 |
0.0845 |
0.35 |
0.7802 |
0.2198 |
0.40 |
0.5785 |
0.4215 |
0.45 |
0.3592 |
0.6408 |
0.50 |
0.1808 |
0.8192 |
0.55 |
0.0714 |
0.9286 |
In diesem Fall können unsere Daten nicht unterscheiden, ob größer als der Nullwert von 0.25, aber kleiner als 0.50 ist, weil die Aussagekraft der Studie für diese Werte zu gering ist (< 80 %). <0.50 – das heißt, die Sensitivität unserer Studie beträgt 8 % für = 0.3, 22 % für = 0.35,…, 64% für = 0.45.
Die einzige Möglichkeit, ein niedrigeres β oder ein höheres Power-Niveau zu erreichen, wäre die Vergrößerung der Studie. In Tabelle 7 geben wir beispielsweise β und die Leistung für an n = 40; Wie erwartet sollten wir in der Lage sein, a zu erkennen Wert größer als 0.40.
Tabelle 7. Fehler 12. Art und Trennschärfe für x = 40, n = 0.05, α = XNUMX
β |
Power |
|
0.30 |
0.5772 |
0.4228 |
0.35 |
0.3143 |
0.6857 |
0.40 |
0.1285 |
0.8715 |
0.45 |
0.0386 |
0.8614 |
0.50 |
0.0083 |
0.9917 |
0.55 |
0.0012 |
0.9988 |
Das Studiendesign basiert auf einer sorgfältigen Prüfung des Satzes alternativer Hypothesen, die eine Berücksichtigung verdienen und der Studie eine ausreichende Stichprobengröße garantieren.
In der epidemiologischen Literatur wurde die Bedeutung zuverlässiger Risikoschätzungen betont. Daher ist es wichtiger, Konfidenzintervalle (entweder 95 % oder 90 %) anzugeben, als a p-Wert eines Tests einer Hypothese. Der gleichen Argumentation folgend sollte der Interpretation von Ergebnissen aus kleinen Studien Beachtung geschenkt werden: Aufgrund der geringen Aussagekraft könnten selbst Zwischeneffekte unentdeckt bleiben und andererseits Effekte von großem Ausmaß später nicht repliziert werden.
Erweiterte Methoden
Der Komplexitätsgrad der statistischen Methoden im arbeitsmedizinischen Kontext hat in den letzten Jahren zugenommen. Wichtige Entwicklungen sind im Bereich der statistischen Modellierung zu finden. Die Nelder- und Wedderburn-Familie von nicht-Gaußschen Modellen (verallgemeinerte lineare Modelle) war einer der bemerkenswertesten Beiträge zum Wissenszuwachs in Bereichen wie Berufsepidemiologie, wo die relevanten Antwortvariablen binär sind (z. B. Überleben/Tod) oder zählt (z. B. Anzahl der Arbeitsunfälle).
Dies war der Ausgangspunkt für eine umfassende Anwendung von Regressionsmodellen als Alternative zu den traditionelleren Analysearten auf der Grundlage von Kontingenztabellen (einfache und stratifizierte Analyse). Poisson, Cox und logistische Regression werden heute routinemäßig für die Analyse von Längsschnitt- bzw. Fall-Kontroll-Studien verwendet. Diese Modelle sind das Gegenstück zur linearen Regression für kategoriale Antwortvariablen und haben die elegante Eigenschaft, direkt das relevante epidemiologische Assoziationsmaß zu liefern. Beispielsweise sind die Koeffizienten der Poisson-Regression der Logarithmus der Rate Ratios, während die der logistischen Regression der Logarithmus der Odds Ratios sind.
Davon ausgehend haben die Weiterentwicklungen im Bereich der statistischen Modellierung zwei Hauptrichtungen eingeschlagen: Modelle für wiederholte kategoriale Maße und Modelle, die die verallgemeinerten linearen Modelle erweitern (verallgemeinerte additive Modelle). In beiden Fällen konzentrieren sich die Ziele darauf, die Flexibilität der statistischen Werkzeuge zu erhöhen, um komplexere Probleme zu bewältigen, die sich aus der Realität ergeben. Modelle mit wiederholten Messungen werden in vielen Berufsstudien benötigt, bei denen die Analyseeinheiten auf der subindividuellen Ebene liegen. Zum Beispiel:
Eine parallele und wahrscheinlich schnellere Entwicklung wurde im Zusammenhang mit der Bayes'schen Statistik gesehen. Die praktische Barriere der Verwendung von Bayes'schen Methoden ist nach der Einführung computerintensiver Methoden zusammengebrochen. Monte-Carlo-Prozeduren wie Gibbs-Stichprobenschemata haben es uns ermöglicht, die Notwendigkeit einer numerischen Integration zur Berechnung der Posterior-Verteilungen zu vermeiden, die das herausforderndste Merkmal der Bayes'schen Methoden darstellten. Die Zahl der Anwendungen von Bayes'schen Modellen in realen und komplexen Problemen hat zunehmend Raum in angewandten Zeitschriften gefunden. Beispielsweise werden geografische Analysen und ökologische Zusammenhänge auf kleinräumiger Ebene sowie AIDS-Vorhersagemodelle immer häufiger mit bayesianischen Ansätzen angegangen. Diese Entwicklungen sind zu begrüßen, da sie nicht nur eine Zunahme der Zahl alternativer statistischer Lösungen darstellen, die bei der Analyse epidemiologischer Daten eingesetzt werden könnten, sondern auch, weil der Bayes'sche Ansatz als solidere Strategie angesehen werden kann.
Die vorhergehenden Artikel dieses Kapitels haben die Notwendigkeit einer sorgfältigen Bewertung des Studiendesigns gezeigt, um glaubwürdige Schlussfolgerungen aus epidemiologischen Beobachtungen zu ziehen. Obwohl behauptet wurde, dass Schlussfolgerungen in der beobachtenden Epidemiologie aufgrund des nicht-experimentellen Charakters der Disziplin schwach sind, gibt es keine eingebaute Überlegenheit von randomisierten kontrollierten Studien oder anderen Arten von experimentellem Design gegenüber gut geplanter Beobachtung (Cornfield 1954). Um jedoch solide Schlussfolgerungen ziehen zu können, ist eine gründliche Analyse des Studiendesigns erforderlich, um potenzielle Quellen für Verzerrungen und Verwirrung zu identifizieren. Sowohl falsch positive als auch falsch negative Ergebnisse können von verschiedenen Arten von Bias stammen.
In diesem Artikel werden einige der Richtlinien diskutiert, die zur Bewertung der kausalen Natur epidemiologischer Beobachtungen vorgeschlagen wurden. Obwohl gute Wissenschaft eine Voraussetzung für ethisch korrekte epidemiologische Forschung ist, gibt es darüber hinaus weitere Fragen, die für ethische Bedenken relevant sind. Daher haben wir einige Diskussionen der Analyse ethischer Probleme gewidmet, die bei der Durchführung epidemiologischer Studien auftreten können.
Kausalitätsbewertung
Mehrere Autoren haben die Kausalitätsbewertung in der Epidemiologie diskutiert (Hill 1965; Buck 1975; Ahlbom 1984; Maclure 1985; Miettinen 1985; Rothman 1986; Weed 1986; Schlesselman 1987; Maclure 1988; Weed 1988; Karhausen 1995). Einer der Hauptdiskussionspunkte ist, ob die Epidemiologie dieselben Kriterien zur Ermittlung von Ursache-Wirkungs-Zusammenhängen verwendet oder verwenden sollte, wie sie in anderen Wissenschaften verwendet werden.
Ursachen sollten nicht mit Mechanismen verwechselt werden. Beispielsweise ist Asbest eine Ursache von Mesotheliom, wohingegen eine Onkogen-Mutation ein mutmaßlicher Mechanismus ist. Auf der Grundlage der vorhandenen Beweise ist es wahrscheinlich, dass (a) verschiedene äußere Expositionen in denselben mechanistischen Stadien wirken können und (b) es normalerweise keine feste und notwendige Abfolge mechanistischer Schritte bei der Entwicklung einer Krankheit gibt. Beispielsweise wird die Karzinogenese als eine Abfolge von stochastischen (wahrscheinlichkeitstheoretischen) Übergängen interpretiert, von der Genmutation über die Zellproliferation bis zur erneuten Genmutation, die schließlich zu Krebs führt. Darüber hinaus ist die Karzinogenese ein multifaktorieller Prozess – das heißt, verschiedene äußere Expositionen können sie beeinflussen und bei einer anfälligen Person ist keine davon notwendig. Dieses Modell lässt sich wahrscheinlich neben Krebs auch auf andere Krankheiten anwenden.
Eine solche multifaktorielle und probabilistische Natur der meisten Expositions-Krankheits-Beziehungen impliziert, dass es problematisch ist, die Rolle zu entwirren, die eine bestimmte Exposition spielt. Darüber hinaus hindert uns der beobachtende Charakter der Epidemiologie daran, Experimente durchzuführen, die ätiologische Zusammenhänge durch eine mutwillige Veränderung des Ablaufs der Ereignisse klären könnten. Die Beobachtung eines statistischen Zusammenhangs zwischen Exposition und Krankheit bedeutet nicht, dass der Zusammenhang kausal ist. Beispielsweise haben die meisten Epidemiologen den Zusammenhang zwischen der Exposition gegenüber Dieselabgasen und Blasenkrebs als kausal interpretiert, andere haben jedoch behauptet, dass Arbeiter, die Dieselabgasen ausgesetzt sind (hauptsächlich Lkw- und Taxifahrer), häufiger Zigarettenraucher sind als nicht exponierte Personen . Der beobachtete Zusammenhang würde dieser Behauptung zufolge also durch einen bekannten Risikofaktor wie das Rauchen „verwechselt“.
Angesichts der probabilistisch-multifaktoriellen Natur der meisten Expositions-Krankheits-Assoziationen haben Epidemiologen Richtlinien entwickelt, um Beziehungen zu erkennen, die wahrscheinlich kausal sind. Dies sind die ursprünglich von Sir Bradford Hill vorgeschlagenen Richtlinien für chronische Krankheiten (1965):
Diese Kriterien sollten nur als allgemeine Richtlinien oder praktische Hilfsmittel betrachtet werden; Tatsächlich ist die wissenschaftliche Kausalbewertung ein iterativer Prozess, der sich um die Messung der Beziehung zwischen Exposition und Krankheit dreht. Die Hill-Kriterien werden jedoch häufig als prägnante und praktische Beschreibung kausaler Inferenzverfahren in der Epidemiologie verwendet.
Betrachten wir das Beispiel des Zusammenhangs zwischen Vinylchlorid-Exposition und Leber-Angiosarkom unter Anwendung der Hills-Kriterien.
Der übliche Ausdruck der Ergebnisse einer epidemiologischen Studie ist ein Maß für den Grad der Assoziation zwischen Exposition und Krankheit (erstes Kriterium von Hill). Ein relatives Risiko (RR) größer als eins bedeutet, dass ein statistischer Zusammenhang zwischen Exposition und Erkrankung besteht. Wenn zum Beispiel die Inzidenzrate von Leber-Angiosarkom normalerweise 1 zu 10 Millionen beträgt, aber 1 zu 100,000 unter denen, die Vinylchlorid ausgesetzt sind, dann ist die RR 100 (das heißt, Menschen, die mit Vinylchlorid arbeiten, haben eine 100-fach erhöhte Risiko für die Entwicklung eines Angiosarkoms im Vergleich zu Personen, die nicht mit Vinylchlorid arbeiten).
Ein kausaler Zusammenhang ist wahrscheinlicher, wenn das Risiko mit zunehmender Exposition zunimmt (Dosis-Wirkungs-Effekt, zweites Hill-Kriterium) und wenn der zeitliche Zusammenhang zwischen Exposition und Krankheit aus biologischen Gründen sinnvoll ist (die Exposition geht der Wirkung voraus und die Länge dieser „Induktions“-Periode ist mit einem biologischen Krankheitsmodell vereinbar; drittes Kriterium von Hill). Darüber hinaus ist ein Zusammenhang wahrscheinlicher, wenn ähnliche Ergebnisse von anderen erzielt werden, die in der Lage waren, die Ergebnisse unter anderen Umständen zu replizieren („Konsistenz“, viertes Kriterium von Hill).
Eine wissenschaftliche Analyse der Ergebnisse erfordert eine Bewertung der biologischen Plausibilität (fünftes Kriterium von Hill). Dies kann auf unterschiedliche Weise erreicht werden. Ein einfaches Kriterium ist beispielsweise, ob die vermeintliche „Ursache“ das Zielorgan erreichen kann (z. B. eingeatmete Substanzen, die die Lunge nicht erreichen, können nicht im Körper zirkulieren). Auch unterstützende Beweise aus Tierversuchen sind hilfreich: Die Beobachtung von Leber-Angiosarkomen bei Tieren, die mit Vinylchlorid behandelt wurden, verstärkt stark die beim Menschen beobachtete Assoziation.
Die innere Kohärenz der Beobachtungen (z. B. ist das RR bei beiden Geschlechtern ähnlich erhöht) ist ein wichtiges wissenschaftliches Kriterium (sechstes Kriterium von Hill). Kausalität ist wahrscheinlicher, wenn die Beziehung sehr spezifisch ist – das heißt, seltene Ursachen und/oder seltene Krankheiten oder einen bestimmten histologischen Typ/Untergruppe von Patienten (siebtes Hill-Kriterium) betrifft.
„Enumerative Induktion“ (die einfache Aufzählung von Assoziationsfällen zwischen Exposition und Krankheit) reicht nicht aus, um die induktiven Schritte des Kausalschlusses vollständig zu beschreiben. Das Ergebnis der enumerativen Induktion führt in der Regel zu einer komplexen und immer noch verwirrenden Beobachtung, weil verschiedene Kausalketten oder häufiger ein echter Kausalzusammenhang und andere irrelevante Expositionen miteinander verschränkt sind. Alternative Erklärungen müssen durch „eliminative Induktion“ eliminiert werden, was zeigt, dass eine Assoziation wahrscheinlich kausal ist, weil sie nicht mit anderen „verwechselt“ ist. Eine einfache Definition einer alternativen Erklärung ist „ein externer Faktor, dessen Effekt sich mit dem Effekt des Zinsrisikos vermischt und somit die Risikoschätzung für das Zinsrisiko verzerrt“ (Rothman 1986).
Die Rolle der Induktion ist die Erweiterung des Wissens, während die Rolle der Deduktion die „Wahrheitsübertragung“ ist (Giere 1979). Deduktives Denken hinterfragt das Studiendesign und identifiziert Zusammenhänge, die nicht empirisch, sondern nur logisch wahr sind. Solche Assoziationen sind keine Tatsachen, sondern logische Notwendigkeiten. Zum Beispiel ein Auswahlbias tritt auf, wenn die exponierte Gruppe unter kranken Menschen ausgewählt wird (wie wenn wir eine Kohortenstudie starten, in der wir eine Gruppe von Leber-Angiosarkom-Fällen als „exponiert“ gegenüber Vinylchlorid rekrutieren) oder wenn die nicht exponierte Gruppe unter gesunden Menschen ausgewählt wird. In beiden Fällen ist der gefundene Zusammenhang zwischen Exposition und Krankheit notwendigerweise (logisch), aber nicht empirisch wahr (Vineis 1991).
Zusammenfassend lässt sich sagen, dass die Epidemiologie, auch wenn man ihren beobachtenden (nicht-experimentellen) Charakter berücksichtigt, keine inferenziellen Verfahren verwendet, die sich wesentlich von der Tradition anderer wissenschaftlicher Disziplinen unterscheiden (Hume 1978; Schaffner 1993).
Ethische Fragen in der epidemiologischen Forschung
Aufgrund der Feinheiten, die mit der Ableitung von Kausalitäten verbunden sind, müssen Epidemiologen bei der Interpretation ihrer Studien besondere Sorgfalt walten lassen. Tatsächlich ergeben sich daraus mehrere Bedenken ethischer Natur.
Ethische Fragen in der epidemiologischen Forschung sind Gegenstand intensiver Diskussionen geworden (Schulte 1989; Soskolne 1993; Beauchamp et al. 1991). Der Grund liegt auf der Hand: Epidemiologen, insbesondere Arbeits- und Umweltepidemiologen, untersuchen häufig Themen mit erheblichen wirtschaftlichen, sozialen und gesundheitspolitischen Implikationen. Sowohl negative als auch positive Ergebnisse bezüglich des Zusammenhangs zwischen bestimmten Chemikalienbelastungen und Krankheiten können das Leben von Tausenden von Menschen beeinträchtigen, wirtschaftliche Entscheidungen beeinflussen und daher politische Entscheidungen ernsthaft beeinflussen. Daher kann der Epidemiologe unter Druck geraten und von anderen versucht oder sogar ermutigt werden, die Interpretation der Ergebnisse seiner oder ihrer Untersuchungen – marginal oder wesentlich – zu ändern.
Unter den mehreren relevanten Themen, Transparenz der Datenerhebung, Kodierung, Computerisierung und Analyse ist von zentraler Bedeutung, um sich gegen Vorwürfe der Voreingenommenheit seitens des Forschers zu wehren. Ebenfalls von entscheidender Bedeutung und möglicherweise im Widerspruch zu einer solchen Transparenz ist das Recht der an der epidemiologischen Forschung beteiligten Personen, vor der Preisgabe personenbezogener Daten geschützt zu werden
(Vertraulichkeit Probleme).
Aus Sicht des Fehlverhaltens, das insbesondere im Zusammenhang mit Kausalschlüssen entstehen kann, sind Fragen, die von Ethik-Leitlinien beantwortet werden sollten:
Weitere zentrale Fragen beziehen sich im Falle der Arbeits- und Umweltepidemiologie auf die Einbeziehung der Beschäftigten in Vorphasen von Studien und auf die Veröffentlichung der Ergebnisse einer Studie an die eingeschriebenen und direkt betroffenen Probanden (Schulte 1989 ). Leider ist es nicht üblich, dass Arbeitnehmer, die an epidemiologischen Studien teilnehmen, an gemeinsamen Diskussionen über den Zweck der Studie, ihre Interpretation und die mögliche Verwendung der Ergebnisse beteiligt sind (was für den Arbeitnehmer sowohl vorteilhaft als auch nachteilig sein kann).
Teilweise Antworten auf diese Fragen liefern neuere Leitlinien (Beauchamp et al. 1991; CIOMS 1991). Allerdings sollten sich die Berufsverbände der Berufsepidemiologen in jedem Land an einer gründlichen Diskussion über ethische Fragen beteiligen und möglicherweise eine Reihe von ethischen Richtlinien verabschieden, die dem lokalen Kontext angemessen sind, während sie international anerkannte normative Praxisstandards anerkennen.
Die Dokumentation von Berufskrankheiten in einem Land wie Taiwan ist eine Herausforderung für einen Betriebsarzt. Mangels eines Systems mit Materialsicherheitsdatenblättern (MSDS) waren sich die Arbeiter in der Regel nicht bewusst, mit welchen Chemikalien sie arbeiten. Da viele Berufskrankheiten lange Latenzzeiten haben und bis zum klinischen Nachweis keine spezifischen Symptome und Anzeichen zeigen, ist das Erkennen und Identifizieren der beruflichen Ursache oft sehr schwierig.
Um Berufskrankheiten besser kontrollieren zu können, haben wir auf Datenbanken zugegriffen, die eine relativ vollständige Liste von Industriechemikalien und eine Reihe spezifischer Anzeichen und/oder Symptome enthalten. Kombiniert mit dem epidemiologischen Ansatz des Vermutens und Widerlegens (dh das Abwägen und Ausschließen aller möglichen alternativen Erklärungen) haben wir mehr als zehn Arten von Berufskrankheiten und einen Ausbruch von Botulismus dokumentiert. Wir empfehlen, dass ein ähnlicher Ansatz auf jedes andere Land in einer ähnlichen Situation angewendet wird und dass ein System mit einem Identifizierungsblatt (z. B. MSDS) für jede Chemikalie befürwortet und eingeführt wird, um eine schnelle Erkennung und damit die Verhinderung von Berufskrankheiten zu ermöglichen Krankheiten.
Hepatitis in einer Farbdruckerei
Drei Arbeiter einer Farbdruckerei wurden 1985 mit Manifestationen einer akuten Hepatitis in kommunale Krankenhäuser eingeliefert. Einer der drei hatte akutes Nierenversagen überlagert. Da Virushepatitis in Taiwan eine hohe Prävalenz aufweist, sollten wir einen viralen Ursprung als eine der wahrscheinlichsten Ätiologien in Betracht ziehen. Alkohol- und Drogenkonsum sowie organische Lösungsmittel am Arbeitsplatz sollten ebenfalls einbezogen werden. Da es in Taiwan kein MSDS-System gab, waren weder den Arbeitnehmern noch dem Arbeitgeber alle in der Fabrik verwendeten Chemikalien bekannt (Wang 1991).
Wir mussten aus mehreren toxikologischen Datenbanken eine Liste hepatotoxischer und nephrotoxischer Wirkstoffe zusammenstellen. Dann haben wir alle möglichen Schlussfolgerungen aus den obigen Hypothesen abgeleitet. Wenn zum Beispiel das Hepatitis-A-Virus (HAV) die Ursache wäre, sollten wir Antikörper (HAV-IgM) unter den betroffenen Arbeitern beobachten; Wenn das Hepatitis-B-Virus die Ursache wäre, sollten wir unter den betroffenen Arbeitnehmern im Vergleich zu nicht betroffenen Arbeitnehmern mehr Träger von Hepatitis-B-Oberflächenantigenen (HBsAg) beobachten; wenn Alkohol die Hauptursache wäre, müssten wir mehr Alkoholabhängige oder chronische Alkoholiker unter den betroffenen Arbeitern beobachten; wenn irgendein toxisches Lösungsmittel (z. B. Chloroform) die Ursache wäre, sollten wir es am Arbeitsplatz finden.
Wir haben für jeden Arbeiter eine umfassende medizinische Untersuchung durchgeführt. Die virale Ätiologie war leicht zu widerlegen, ebenso wie die Alkoholhypothese, da sie nicht durch Beweise gestützt werden konnten.
Stattdessen hatten 17 von 25 Arbeitern des Werks abnormale Leberfunktionstests, und es wurde ein signifikanter Zusammenhang zwischen dem Vorhandensein einer abnormalen Leberfunktion und einer Vorgeschichte festgestellt, in der kürzlich in einem der drei Räume gearbeitet wurde, in denen eine miteinander verbundene Klimaanlage vorhanden war installiert, um die Druckmaschinen zu kühlen. Die Assoziation blieb nach Stratifizierung nach dem Trägerstatus von Hepatitis B bestehen. Später wurde festgestellt, dass der Vorfall nach der versehentlichen Verwendung eines „Reinigungsmittels“ (Tetrachlorkohlenstoff) zum Reinigen einer Pumpe in der Druckmaschine auftrat. Darüber hinaus ergab ein Simulationstest des Pumpenreinigungsvorgangs Tetrachlorkohlenstoffkonzentrationen in der Umgebungsluft von 115 bis 495 ppm, was zu Leberschäden führen könnte. In einem weiteren Widerlegungsversuch stellten wir durch Eliminierung des Tetrachlorkohlenstoffs am Arbeitsplatz fest, dass keine neuen Fälle mehr auftraten und es allen betroffenen Arbeitern nach 20-tägiger Entfernung vom Arbeitsplatz besser ging. Daher schlossen wir, dass der Ausbruch auf die Verwendung von Tetrachlorkohlenstoff zurückzuführen war.
Neurologische Symptome in einer Farbdruckerei
Im September 1986 bekam ein Lehrling in einer Farbdruckerei in Chang-Hwa plötzlich eine akute beidseitige Schwäche und Atemlähmung. Der Vater des Opfers behauptete am Telefon, es gäbe mehrere andere Arbeiter mit ähnlichen Symptomen. Da früher in Farbdruckereien Berufskrankheiten aufgrund einer Exposition gegenüber organischen Lösungsmitteln dokumentiert waren, gingen wir zur Arbeitsstelle, um die Ätiologie zu bestimmen, wobei wir die Hypothese einer möglichen Lösungsmittelvergiftung im Hinterkopf hatten (Wang 1991).
Unsere übliche Praxis war jedoch, alle alternativen Vermutungen in Betracht zu ziehen, einschließlich anderer medizinischer Probleme, einschließlich der beeinträchtigten Funktion der oberen Motoneuronen, der unteren Motoneuronen sowie der neuromuskulären Synapse. Auch hier haben wir Ergebnisaussagen aus den obigen Hypothesen abgeleitet. Wenn beispielsweise ein Lösungsmittel, von dem berichtet wird, dass es Polyneuropathie hervorruft (z. B. n-Hexan, Methylbutylketon, Acrylamid), die Ursache wäre, würde es auch die Nervenleitungsgeschwindigkeit (NCV) beeinträchtigen; Wenn es sich um andere medizinische Probleme handeln würde, die obere Motoneuronen betreffen, gäbe es Anzeichen von Bewusstseinsstörungen und/oder unwillkürlichen Bewegungen.
Feldbeobachtungen zeigten, dass alle betroffenen Arbeiter während des gesamten klinischen Verlaufs ein klares Bewusstsein hatten. Eine NCV-Studie mit drei betroffenen Arbeitern zeigte intakte untere Motoneuronen. Es gab keine unwillkürlichen Bewegungen, keine Medikamente oder Bisse in der Vorgeschichte vor dem Auftreten von Symptomen, und der Neostigmin-Test war negativ. Es wurde ein signifikanter Zusammenhang zwischen Krankheit und Frühstück in der Werkskantine am 26. oder 27. September gefunden; sieben von sieben betroffenen Arbeitern gegenüber sieben von 32 nicht betroffenen Arbeitern frühstückten an diesen zwei Tagen in der Fabrik. Ein weiterer Testversuch zeigte, dass Typ-A-Botulinumtoxin in Dosenerdnüssen nachgewiesen wurde, die von einem nicht lizenzierten Unternehmen hergestellt wurden, und seine Probe zeigte auch ein volles Wachstum von Clostridium botulinum. Ein letzter Widerlegungsprozess war die Entfernung solcher Produkte vom kommerziellen Markt, was zu keinen neuen Fällen führte. Diese Untersuchung dokumentierte die ersten Fälle von Botulismus durch ein kommerzielles Lebensmittelprodukt in Taiwan.
Prämaligne Hautläsionen bei Paraquat-Herstellern
Im Juni 1983 besuchten zwei Arbeiter einer Paraquat-Fabrik eine Dermatologie-Klinik und klagten über zahlreiche bilaterale hyperpigmentierte Flecken mit hyperkeratotischen Veränderungen an Teilen ihrer Hände, ihres Halses und ihres Gesichts, die der Sonne ausgesetzt waren. Einige Hautproben zeigten auch bowenoide Veränderungen. Da bei Arbeitern in der Bipyridyl-Herstellung bösartige und prämaligne Hautläsionen gemeldet wurden, wurde dringend eine berufliche Ursache vermutet. Wir mussten jedoch auch andere alternative Ursachen (oder Hypothesen) von Hautkrebs in Betracht ziehen, wie die Exposition gegenüber ionisierender Strahlung, Kohlenteer, Pech, Ruß oder anderen polyaromatischen Kohlenwasserstoffen (PAK). Um all diese Vermutungen auszuschließen, führten wir 1985 eine Studie durch, bei der wir alle 28 Fabriken besuchten, die jemals Paraquat hergestellt oder verpackt hatten, und die Herstellungsprozesse sowie die Arbeiter untersuchten (Wang et al. 1987; Wang 1993).
Wir untersuchten 228 Arbeiter, und keiner von ihnen war jemals den oben genannten Hautkarzinogenen ausgesetzt gewesen, mit Ausnahme von Sonnenlicht und 4'-4'-Bipyridin und seinen Isomeren. Nach Ausschluss von Arbeitern mit Mehrfachexposition stellten wir fest, dass einer von sieben Administratoren und zwei von 82 Paraquat-Verpackungsarbeitern hyperpigmentierte Hautläsionen entwickelten, im Vergleich zu drei von drei Arbeitern, die nur an der Kristallisation und Zentrifugation von Bipyridin beteiligt waren. Darüber hinaus waren alle 17 Arbeiter mit hyperkeratotischen Läsionen oder Bowen-Läsionen in der Vorgeschichte direkt Bipyridyl und seinen Isomeren ausgesetzt. Je länger die Exposition gegenüber Bipyridylen, desto wahrscheinlicher ist die Entwicklung von Hautläsionen, und dieser Trend kann nicht durch Sonnenlicht oder Alter erklärt werden, wie durch Stratifizierung und logistische Regressionsanalyse gezeigt wurde. Daher wurde die Hautläsion vorläufig einer Kombination aus Bipyridyl-Exposition und Sonnenlicht zugeschrieben. Wir unternahmen weitere Widerlegungsversuche, um nachzuverfolgen, ob ein neuer Fall auftrat, nachdem wir alle Prozesse eingeschlossen hatten, die eine Exposition gegenüber Bipyridylen beinhalteten. Es wurde kein neuer Fall gefunden.
Diskussion und zusammenfassung
Die oben genannten drei Beispiele haben gezeigt, wie wichtig es ist, einen widerlegenden Ansatz und eine Datenbank für Berufskrankheiten zu wählen. Die erstere lässt uns alternative Hypothesen immer auf die gleiche Weise in Betracht ziehen wie die ursprüngliche intuitive Hypothese, während die letztere eine detaillierte Liste chemischer Wirkstoffe liefert, die uns zur wahren Ätiologie führen können. Eine mögliche Einschränkung dieses Ansatzes besteht darin, dass wir nur solche alternativen Erklärungen berücksichtigen können, die wir uns vorstellen können. Wenn unsere Liste mit Alternativen unvollständig ist, können wir keine Antwort oder eine falsche Antwort erhalten. Daher ist eine umfassende Datenbank über Berufskrankheiten entscheidend für den Erfolg dieser Strategie.
Früher haben wir unsere eigene Datenbank mühsam aufgebaut. Die kürzlich veröffentlichten OSH-ROM-Datenbanken, die die NIOSHTIC-Datenbank mit mehr als 160,000 Abstracts enthalten, könnten jedoch eine der umfassendsten für einen solchen Zweck sein, wie an anderer Stelle in der diskutiert wird Enzyklopädie. Darüber hinaus könnten wir beim Auftreten einer neuen Berufskrankheit eine solche Datenbank durchsuchen und alle bekannten Krankheitserreger ausschließen und keine unwiderlegt lassen. In einer solchen Situation können wir versuchen, den neuen Agenten (oder das berufliche Umfeld) so spezifisch wie möglich zu identifizieren oder zu definieren, damit das Problem zunächst gemildert werden kann, und dann weitere Hypothesen testen. Der Fall von prämalignen Hautläsionen bei Paraquat-Herstellern ist ein gutes Beispiel dafür.
Rolle von Fragebögen in der epidemiologischen Forschung
Epidemiologische Forschung wird im Allgemeinen durchgeführt, um eine spezifische Forschungsfrage zu beantworten, die sich auf die Exposition von Personen gegenüber gefährlichen Stoffen oder Situationen mit späteren gesundheitlichen Folgen wie Krebs oder Tod bezieht. Im Mittelpunkt fast jeder dieser Untersuchungen steht ein Fragebogen, der das grundlegende Instrument zur Datenerhebung darstellt. Auch wenn physikalische Messungen in einer Arbeitsplatzumgebung durchgeführt werden sollen und insbesondere wenn biologisches Material wie Serum von exponierten oder nicht exponierten Studienteilnehmern gesammelt werden soll, ist ein Fragebogen unerlässlich, um durch systematisches Sammeln persönlicher und anderer Daten ein angemessenes Expositionsbild zu entwickeln Eigenschaften auf organisierte und einheitliche Weise.
Der Fragebogen erfüllt eine Reihe kritischer Forschungsfunktionen:
Platz des Fragebogendesigns innerhalb der allgemeinen Studienziele
Während der Fragebogen oft der sichtbarste Teil einer epidemiologischen Studie ist, insbesondere für die Arbeiter oder andere Studienteilnehmer, ist er nur ein Werkzeug und wird von Forschern oft als „Instrument“ bezeichnet. Abbildung 1 zeigt sehr allgemein die Phasen des Erhebungsdesigns von der Konzeption bis zur Datenerhebung und -analyse. Die Abbildung zeigt vier Ebenen oder Stufen des Studienbetriebs, die während der gesamten Dauer der Studie parallel ablaufen: Stichprobenziehung, Fragebogen, Operationen und Analyse. Die Abbildung zeigt ganz deutlich, wie die Phasen der Fragebogenentwicklung mit dem gesamten Studienplan zusammenhängen, beginnend mit einem ersten Entwurf zu einem ersten Entwurf sowohl des Fragebogens als auch der zugehörigen Codes, gefolgt von Vortests innerhalb einer ausgewählten Subpopulation, einer oder mehrerer Überarbeitungen, die durch Vortesterfahrungen diktiert werden, und Vorbereitung des endgültigen Dokuments für die eigentliche Datenerfassung im Feld. Am wichtigsten ist der Kontext: Jede Phase der Fragebogenentwicklung wird in Verbindung mit einer entsprechenden Phase der Erstellung und Verfeinerung des gesamten Stichprobenplans sowie des operativen Designs für die Verwaltung des Fragebogens durchgeführt.
Abbildung 1. Die Phasen einer Umfrage
Studienarten und Fragebögen
Die Forschungsziele der Studie selbst bestimmen den Aufbau, die Länge und den Inhalt des Fragebogens. Diese Fragebogenattribute werden ausnahmslos durch die Methode der Datenerhebung gemildert, die normalerweise in eine von drei Arten fällt: persönlich, per Post und Telefon. Jede davon hat ihre Vor- und Nachteile, die sich nicht nur auf die Qualität der Daten, sondern auch auf die Validität der gesamten Studie auswirken können.
A versandten Fragebogen ist das kostengünstigste Format und kann Arbeitnehmer in einem großen geografischen Gebiet abdecken. Da die Gesamtantwortquoten jedoch oft niedrig sind (typischerweise 45 bis 75 %), kann es nicht übermäßig komplex sein, da es wenig oder keine Gelegenheit zur Klärung von Fragen gibt und es schwierig sein kann, festzustellen, ob potenzielle Antworten auf eine kritische Exposition oder andere Fragen unterscheiden sich systematisch zwischen Befragten und Nichtbeantwortern. Das physische Layout und die Sprache müssen für die am wenigsten gebildeten potenziellen Studienteilnehmer geeignet sein und in einem relativ kurzen Zeitraum, normalerweise 20 bis 30 Minuten, abgeschlossen werden können.
Telefonische Fragebögen können in bevölkerungsbasierten Studien verwendet werden – d. h. Umfragen, bei denen eine Stichprobe einer geografisch definierten Bevölkerung befragt wird – und sind eine praktische Methode, um Informationen in vorhandenen Datendateien zu aktualisieren. Sie können in Sprache und Inhalt länger und komplexer sein als per Post versandte Fragebögen, und da sie von geschulten Interviewern verwaltet werden, können die höheren Kosten einer telefonischen Umfrage teilweise durch eine physische Strukturierung des Fragebogens für eine effiziente Verwaltung (z. B. durch Sprungmuster) ausgeglichen werden. Die Rücklaufquoten sind in der Regel besser als bei Fragebögen per Post, unterliegen jedoch Verzerrungen im Zusammenhang mit der zunehmenden Nutzung von Anrufbeantwortern, Ablehnungen, Nichtkontakten und Problemen von Bevölkerungsgruppen mit eingeschränktem Telefondienst. Solche Verzerrungen beziehen sich im Allgemeinen auf das Stichprobendesign selbst und nicht speziell auf den Fragebogen. Obwohl telefonische Fragebögen in Nordamerika schon lange verwendet werden, muss ihre Durchführbarkeit in anderen Teilen der Welt erst noch nachgewiesen werden.
Gespräche von Angesicht zu Angesicht Interviews bieten die beste Gelegenheit, genaue komplexe Daten zu sammeln; Sie sind auch am teuersten in der Verwaltung, da sie sowohl Schulungen als auch Reisen für professionelles Personal erfordern. Das physische Layout und die Reihenfolge der Fragen können so angeordnet werden, dass die Verwaltungszeit optimiert wird. Studien, die persönliche Befragungen verwenden, haben im Allgemeinen die höchsten Rücklaufquoten und unterliegen der geringsten Antwortverzerrung. Dies ist auch die Art des Interviews, bei der der Interviewer am ehesten erfährt, ob der Teilnehmer ein Fall ist oder nicht (in einer Fall-Kontroll-Studie) oder den Expositionsstatus des Teilnehmers (in einer Kohortenstudie). Daher muss darauf geachtet werden, die Objektivität des Interviewers zu wahren, indem man ihn oder sie darin schult, Leitfragen und Körpersprache zu vermeiden, die voreingenommene Antworten hervorrufen könnten.
Es wird immer üblicher, a zu verwenden Hybrides Studiendesign bei der komplexe Expositionssituationen in einem persönlichen oder telefonischen Interview bewertet werden, das eine maximale Sondierung und Klärung ermöglicht, gefolgt von einem per Post zugesandten Fragebogen zur Erfassung von Lebensstildaten wie Rauchen und Ernährung.
Vertraulichkeit und Fragen der Forschungsteilnehmer
Da der Zweck eines Fragebogens darin besteht, Daten über Einzelpersonen zu erhalten, muss sich die Gestaltung des Fragebogens an etablierten Standards für die ethische Behandlung menschlicher Probanden orientieren. Diese Richtlinien gelten für die Erhebung von Fragebogendaten ebenso wie für biologische Proben wie Blut und Urin oder Gentests. In den Vereinigten Staaten und vielen anderen Ländern dürfen keine Studien mit Menschen mit öffentlichen Mitteln durchgeführt werden, es sei denn, Sprache und Inhalt des Fragebogens wurden zuvor von einem geeigneten Institutional Review Board genehmigt. Eine solche Genehmigung soll sicherstellen, dass die Fragen auf legitime Studienzwecke beschränkt sind und nicht das Recht der Studienteilnehmer auf freiwillige Beantwortung von Fragen verletzen. Die Teilnehmer müssen sicher sein, dass ihre Teilnahme an der Studie völlig freiwillig ist und dass die Weigerung, Fragen zu beantworten oder überhaupt teilzunehmen, ihnen keine Strafen auferlegt oder ihre Beziehung zu ihrem Arbeitgeber oder Arzt verändert.
Die Teilnehmer müssen auch sicher sein, dass die von ihnen bereitgestellten Informationen vom Ermittler streng vertraulich behandelt werden, der selbstverständlich Maßnahmen ergreifen muss, um die physische Sicherheit und Unverletzlichkeit der Daten zu gewährleisten. Dies bringt häufig eine physische Trennung von Informationen bezüglich der Identität von Teilnehmern von computerisierten Datendateien mit sich. Es ist gängige Praxis, die Studienteilnehmer darauf hinzuweisen, dass ihre Antworten auf Fragebogenelemente nur zusammen mit den Antworten anderer Teilnehmer in statistischen Berichten verwendet und nicht an den Arbeitgeber, Arzt oder andere Parteien weitergegeben werden.
Messaspekte des Fragebogendesigns
Eine der wichtigsten Funktionen eines Fragebogens besteht darin, Daten über einen Aspekt oder eine Eigenschaft einer Person in qualitativer oder quantitativer Form zu erhalten. Einige Elemente können so einfach sein wie Gewicht, Größe oder Alter, während andere erheblich komplizierter sein können, wie z. B. die Reaktion einer Person auf Stress. Qualitative Antworten, wie das Geschlecht, werden normalerweise in numerische Variablen umgewandelt. Alle diese Maßnahmen können durch ihre Validität und Zuverlässigkeit charakterisiert werden. Validität ist der Grad, in dem sich eine aus einem Fragebogen abgeleitete Zahl ihrem wahren, aber möglicherweise unbekannten Wert annähert. Zuverlässigkeit misst die Wahrscheinlichkeit, dass eine bestimmte Messung bei Wiederholung dasselbe Ergebnis liefert, unabhängig davon, ob dieses Ergebnis nahe an der „Wahrheit“ liegt oder nicht. Abbildung 2 zeigt, wie diese Konzepte zusammenhängen. Es zeigt, dass eine Messung gültig, aber nicht zuverlässig, zuverlässig, aber nicht gültig oder sowohl gültig als auch zuverlässig sein kann.
Abbildung 2. Beziehung zwischen Gültigkeit und Zuverlässigkeit
Im Laufe der Jahre wurden viele Fragebögen von Forschern entwickelt, um Forschungsfragen von breitem Interesse zu beantworten. Beispiele sind der Scholastic Aptitude Test, der das Potenzial eines Schülers für zukünftige akademische Leistungen misst, und das Minnesota Multiphasic Personality Inventory (MMPI), das bestimmte psychosoziale Merkmale misst. Eine Vielzahl anderer psychologischer Indikatoren werden im Kapitel über Psychometrie besprochen. Es gibt auch etablierte physiologische Skalen, wie z. B. den Fragebogen des British Medical Research Council (BMRC) zur Lungenfunktion. Diese Instrumente haben eine Reihe wichtiger Vorteile. Dazu gehören vor allem die Tatsache, dass sie bereits entwickelt und getestet wurden, normalerweise in vielen Bevölkerungsgruppen, und dass ihre Zuverlässigkeit und Gültigkeit bekannt sind. Wer einen Fragebogen konstruiert, ist gut beraten, solche Skalen zu verwenden, wenn sie zum Studienzweck passen. Sie ersparen sich nicht nur den Aufwand, „das Rad neu zu erfinden“, sondern erhöhen auch die Wahrscheinlichkeit, dass Studienergebnisse von der Forschungsgemeinschaft als valide akzeptiert werden. Es ermöglicht auch aussagekräftigere Vergleiche von Ergebnissen aus verschiedenen Studien, vorausgesetzt, sie wurden richtig verwendet.
Die vorstehenden Skalen sind Beispiele für zwei wichtige Arten von Maßnahmen, die häufig in Fragebögen verwendet werden, um Konzepte zu quantifizieren, die möglicherweise nicht vollständig objektiv messbar sind, wie dies bei Größe und Gewicht der Fall ist, oder die viele ähnliche Fragen erfordern, um den Bereich vollständig zu erfassen ein bestimmtes Verhaltensmuster. Ganz allgemein sind Indizes und Skalen zwei Datenreduktionstechniken, die eine numerische Zusammenfassung von Fragengruppen liefern. Die obigen Beispiele veranschaulichen physiologische und psychologische Indizes und werden auch häufig zur Messung von Wissen, Einstellung und Verhalten verwendet. Kurz gesagt, ein Index wird normalerweise als eine Punktzahl konstruiert, die erhalten wird, indem aus einer Gruppe verwandter Fragen die Anzahl der Elemente gezählt wird, die auf einen Studienteilnehmer zutreffen. Wenn beispielsweise ein Fragebogen eine Liste von Krankheiten enthält, könnte ein Krankheitsverlaufsindex die Gesamtzahl der Krankheiten sein, von denen ein Befragter sagt, dass er oder sie sie hatte. EIN Treppe ist ein zusammengesetztes Maß, das auf der Intensität basiert, mit der ein Teilnehmer eine oder mehrere verwandte Fragen beantwortet. Beispielsweise wird die Likert-Skala, die häufig in der Sozialforschung verwendet wird, typischerweise aus Aussagen konstruiert, denen man stark zustimmen, schwach zustimmen, keine Meinung äußern, schwach ablehnen oder stark ablehnen kann, wobei die Antwort als eine Zahl von 1 bewertet wird bis 5. Skalen und Indizes können summiert oder anderweitig kombiniert werden, um ein ziemlich komplexes Bild der physischen, psychologischen, sozialen oder Verhaltensmerkmale der Studienteilnehmer zu erhalten.
Validität verdient wegen ihrer Widerspiegelung der „Wahrheit“ besondere Beachtung. Drei häufig diskutierte wichtige Validitätstypen sind Gesichts-, Inhalts- und Kriteriumsvalidität. Gesichtsgültigkeit ist eine subjektive Eigenschaft eines Indikators, der sicherstellt, dass die Formulierung einer Frage klar und eindeutig ist. Inhaltsgültigkeit stellt sicher, dass die Fragen dazu dienen, die Antwortdimension zu erschließen, an der der Forscher interessiert ist. Kriterium (oder prädiktiv) Gültigkeit wird aus einer objektiven Bewertung abgeleitet, wie nahe sich eine Fragebogenmessung einer separat messbaren Größe annähert, wie zum Beispiel, wie gut eine Fragebogenbewertung der Vitamin-A-Zufuhr mit der Nahrung mit dem tatsächlichen Vitamin-A-Verbrauch übereinstimmt, basierend auf der Nahrungsaufnahme, die mit Ernährungsaufzeichnungen dokumentiert ist.
Inhalt, Qualität und Länge des Fragebogens
Wortlaut. Das Formulieren von Fragen ist sowohl eine Kunst als auch eine professionelle Fertigkeit. Daher können nur die allgemeinsten Richtlinien präsentiert werden. Es besteht allgemein Einigkeit darüber, dass Fragen formuliert werden sollten, die:
Fragenfolge und Struktur. Sowohl die Reihenfolge als auch die Präsentation der Fragen können die Qualität der gesammelten Informationen beeinflussen. Ein typischer Fragebogen, ob selbst ausgefüllt oder von einem Interviewer gelesen, enthält einen Prolog, der die Studie und ihr Thema dem Befragten vorstellt, alle zusätzlichen Informationen liefert, die er oder sie benötigt, und versucht, den Befragten zu motivieren, die Fragen zu beantworten. Die meisten Fragebögen enthalten einen Abschnitt zum Sammeln demografischer Informationen wie Alter, Geschlecht, ethnischer Hintergrund und andere Variablen über den Hintergrund des Teilnehmers, einschließlich möglicherweise verwirrender Variablen. Der Hauptgegenstand der Datenerhebung, wie Art des Arbeitsplatzes und Exposition gegenüber bestimmten Stoffen, ist normalerweise ein eigener Fragebogenabschnitt, dem oft ein eigener einleitender Prolog vorangestellt ist, der den Teilnehmer möglicherweise zunächst an bestimmte Aspekte der Arbeit erinnert oder Arbeitsplatz, um einen Kontext für Detailfragen zu schaffen. Das Layout von Fragen, die dazu bestimmt sind, Arbeitslebenschronologien zu erstellen, sollte so angeordnet sein, dass das Risiko chronologischer Auslassungen minimiert wird. Schließlich ist es üblich, dem Befragten für seine Teilnahme zu danken.
Arten von Fragen. Der Designer muss entscheiden, ob er offene Fragen verwendet, bei denen die Teilnehmer ihre eigenen Antworten zusammenstellen, oder geschlossene Fragen, die eine eindeutige Antwort oder eine Auswahl aus einem kurzen Menü möglicher Antworten erfordern. Geschlossene Fragen haben den Vorteil, dass sie Alternativen für den Befragten verdeutlichen, schnelle Antworten vermeiden und langwieriges Geschwätz minimieren, das möglicherweise nicht interpretiert werden kann. Sie erfordern jedoch, dass der Konstrukteur die Bandbreite möglicher Reaktionen antizipiert, um zu vermeiden, dass Informationen verloren gehen, insbesondere bei unerwarteten Situationen, die an vielen Arbeitsplätzen auftreten. Dies wiederum erfordert gut geplante Pilotversuche. Der Untersucher muss entscheiden, ob und in welchem Umfang eine „weiß nicht“-Antwortkategorie zugelassen wird.
Länge. Die Festlegung der endgültigen Länge eines Fragebogens erfordert eine Balance zwischen dem Wunsch, möglichst viele Detailinformationen zur Erreichung der Studienziele zu erhalten, und der Tatsache, dass ein zu langer Fragebogen viele Befragte irgendwann das Interesse verliert und entweder nicht mehr antwortet oder hastig, ungenau und unüberlegt antworten, um die Sitzung zu beenden. Andererseits kann ein sehr kurzer Fragebogen zwar eine hohe Rücklaufquote erzielen, aber die Studienziele nicht erreichen. Da die Motivation der Befragten oft von einem persönlichen Anteil am Ergebnis abhängt, wie z. B. der Verbesserung der Arbeitsbedingungen, kann die Toleranz für einen langen Fragebogen stark variieren, insbesondere wenn einige Teilnehmer (z. B. Arbeiter in einem bestimmten Werk) ihren Anteil als höher einschätzen andere (z. B. Personen, die per zufälliger Telefonwahl kontaktiert wurden). Dieses Gleichgewicht kann nur durch Pilotversuche und Erfahrung erreicht werden. Vom Interviewer verwaltete Fragebögen sollten die Anfangs- und Endzeit erfassen, um die Berechnung der Interviewdauer zu ermöglichen. Diese Informationen sind hilfreich, um das Qualitätsniveau der Daten zu beurteilen.
Sprache. Es ist wichtig, die Sprache der Bevölkerung zu verwenden, um die Fragen für alle verständlich zu machen. Dazu kann es erforderlich sein, sich mit der lokalen Umgangssprache vertraut zu machen, die in jedem Land unterschiedlich sein kann. Selbst in Ländern, in denen nominell dieselbe Sprache gesprochen wird, wie Großbritannien und die Vereinigten Staaten oder die spanischsprachigen Länder Lateinamerikas, können lokale Redewendungen und Verwendungen auf eine Weise variieren, die die Interpretation verschleiern können. Zum Beispiel ist „Tee“ in den USA lediglich ein Getränk, während es in Großbritannien je nach Gebietsschema und Kontext „eine Kanne Tee“, „High Tea“ oder „das wichtigste Abendessen“ bedeuten kann. Es ist besonders wichtig, wissenschaftlichen Jargon zu vermeiden, es sei denn, die Studienteilnehmenden können spezielle Fachkenntnisse erwarten.
Klarheit und Leitfragen. Während kürzere Fragen oft klarer sind, gibt es Ausnahmen, insbesondere wenn ein komplexes Thema eingeführt werden muss. Trotzdem klären kurze Fragen das Denken und reduzieren unnötige Worte. Sie verringern auch die Wahrscheinlichkeit, dass der Befragte mit zu vielen zu verdauenden Informationen überlastet wird. Wenn der Zweck der Studie darin besteht, objektive Informationen über die Arbeitssituation des Teilnehmers zu erhalten, ist es wichtig, die Fragen neutral zu formulieren und „Leitfragen“ zu vermeiden, die eine bestimmte Antwort begünstigen könnten, wie „Stimmen Sie zu, dass Ihr Arbeitsplatz Bedingungen sind gesundheitsschädlich?“
Fragebogen-Layout. Das physische Layout eines Fragebogens kann die Kosten und die Effizienz einer Studie beeinflussen. Es ist wichtiger für selbstverwaltete Fragebögen als für solche, die von Interviewern durchgeführt werden. Ein Fragebogen, der vom Befragten ausgefüllt werden soll, aber zu komplex oder schwer lesbar ist, kann beiläufig ausgefüllt oder sogar verworfen werden. Sogar Fragebögen, die von geschulten Interviewern laut vorgelesen werden sollen, müssen in klarer, lesbarer Schrift gedruckt werden, und Muster des Überspringens von Fragen müssen so angegeben werden, dass ein stetiger Fragefluss aufrechterhalten und das Umblättern und Suchen nach dem nächsten zutreffenden minimiert wird Frage.
Gültigkeitsbedenken
Befangenheit
Der Feind der objektiven Datenerhebung ist die Voreingenommenheit, die sich aus systematischen, aber ungeplanten Unterschieden zwischen Personengruppen ergibt: Fälle und Kontrollen in einer Fall-Kontroll-Studie oder exponierte und nicht exponierte in einer Kohortenstudie. Informationsverzerrung kann eingeführt werden, wenn zwei Gruppen von Teilnehmern dieselbe Frage unterschiedlich verstehen oder unterschiedlich darauf reagieren. Dies kann beispielsweise der Fall sein, wenn Fragen so gestellt werden, dass spezielles technisches Wissen über einen Arbeitsplatz oder seine Expositionen erforderlich ist, das von exponierten Arbeitnehmern, aber nicht unbedingt von der allgemeinen Öffentlichkeit, aus der die Kontrollen stammen, verstanden werden würde.
Die Verwendung von Ersatzpersonen für kranke oder verstorbene Arbeitnehmer birgt das Potenzial für Voreingenommenheit, da sich die nächsten Angehörigen wahrscheinlich auf andere Weise und mit weniger Genauigkeit an Informationen erinnern als der Arbeitnehmer selbst. Die Einführung einer solchen Verzerrung ist besonders wahrscheinlich in Studien, in denen einige Interviews direkt mit Studienteilnehmern durchgeführt werden, während andere Interviews mit Verwandten oder Mitarbeitern anderer Forschungsteilnehmer durchgeführt werden. In beiden Situationen muss darauf geachtet werden, jegliche Auswirkungen zu reduzieren, die sich aus der Kenntnis des Interviewers über die Krankheit oder den Expositionsstatus des betreffenden Arbeitnehmers ergeben könnten. Da es nicht immer möglich ist, Interviewer „blind“ zu halten, ist es wichtig, während des Trainings auf Objektivität und Vermeidung von Leit- oder Suggestivfragen oder unbewusster Körpersprache zu achten und die Leistung während der Durchführung der Studie zu überwachen.
Rückruf-Bias Ergebnisse, wenn Fälle und Kontrollen Expositionen oder Arbeitssituationen unterschiedlich „erinnern“. Krankenhauspatienten mit einer potenziellen berufsbedingten Krankheit können sich möglicherweise besser an Details ihrer Krankengeschichte oder beruflichen Expositionen erinnern als Personen, die zufällig am Telefon kontaktiert werden. Eine Art dieser Voreingenommenheit, die immer häufiger vorkommt, wurde gekennzeichnet sozialer Wunsch nach Neigung. Es beschreibt die Tendenz vieler Menschen, bewusst oder unbewusst ihre „schlechten Gewohnheiten“ wie Zigarettenrauchen oder den Verzehr von fett- und cholesterinreichen Lebensmitteln zu unterschätzen und „gute Gewohnheiten“ wie Sport zu übertreiben.
Reaktionsverzerrung bezeichnet eine Situation, in der eine Gruppe von Studienteilnehmern, z. B. Arbeitnehmer mit einer bestimmten beruflichen Exposition, möglicherweise eher Fragebögen ausfüllt oder anderweitig an einer Studie teilnimmt als nicht exponierte Personen. Eine solche Situation kann zu einer voreingenommenen Einschätzung des Zusammenhangs zwischen Exposition und Krankheit führen. Antwortverzerrung kann vermutet werden, wenn sich die Antwortraten oder die zum Ausfüllen eines Fragebogens oder Interviews benötigte Zeit zwischen den Gruppen erheblich unterscheiden (z. B. Fälle vs. Kontrollen, exponiert vs. nicht exponiert). Die Antwortverzerrung unterscheidet sich im Allgemeinen in Abhängigkeit von der Art der Fragebogenverwaltung. Fragebögen, die per Post verschickt werden, werden in der Regel eher von Personen zurückgeschickt, die ein persönliches Interesse an den Studienergebnissen sehen, und eher von zufällig ausgewählten Personen aus der Allgemeinbevölkerung ignoriert oder verworfen. Viele Ermittler, die postalische Umfragen verwenden, bauen auch einen Nachverfolgungsmechanismus ein, der zweite und dritte Mailings sowie anschließende Telefonkontakte mit Nichtbefragten umfassen kann, um die Rücklaufquoten zu maximieren.
Studien, die telefonische Umfragen verwenden, einschließlich solcher, die zufällige Ziffernwahl verwenden, um Kontrollen zu identifizieren, haben normalerweise eine Reihe von Regeln oder ein Protokoll, das definiert, wie oft versucht werden muss, potenzielle Befragte zu kontaktieren, einschließlich Tageszeit und ob abends oder abends Wochenendanrufe sollten versucht werden. Diejenigen, die klinische Studien durchführen, erfassen normalerweise die Anzahl der Patienten, die die Teilnahme verweigern, und die Gründe für die Nichtteilnahme. In all diesen Fällen werden verschiedene Maßnahmen von Ansprechraten erfasst werden, um beurteilen zu können, inwieweit die Zielpopulation tatsächlich erreicht wurde.
Selektionsvorspannung Ergebnisse, wenn eine Gruppe von Teilnehmern bevorzugt auf eine Studie anspricht oder anderweitig an einer Studie teilnimmt, und kann zu einer voreingenommenen Einschätzung der Beziehung zwischen Exposition und Krankheit führen. Um die Auswahlverzerrung zu beurteilen und festzustellen, ob sie zu einer Unter- oder Überschätzung der Exposition führt, können demografische Informationen wie das Bildungsniveau verwendet werden, um Befragte mit Nichtbefragten zu vergleichen. Wenn beispielsweise Teilnehmer mit geringer Bildung niedrigere Rücklaufquoten aufweisen als Teilnehmer mit höherer Bildung und wenn bekannt ist, dass ein bestimmter Beruf oder eine bestimmte Rauchgewohnheit in weniger gebildeten Gruppen häufiger vorkommt, dann liegt ein Selektionsbias mit einer Unterschätzung der Exposition gegenüber dieser Berufs- oder Raucherkategorie vor ist wahrscheinlich vorgekommen.
Verwirrend ist eine wichtige Art von Selektionsverzerrung, die entsteht, wenn die Auswahl der Befragten (Fälle und Kontrollen in einer Fall-Kontroll-Studie oder exponierte und nicht exponierte in einer Kohortenstudie) in irgendeiner Weise von einer dritten Variablen abhängt, manchmal auf eine Weise, die ihnen unbekannt ist Ermittler. Wenn es nicht erkannt und kontrolliert wird, kann es zu unvorhersehbaren Unter- oder Überschätzungen von Krankheitsrisiken im Zusammenhang mit beruflicher Exposition führen. Confounding wird normalerweise entweder durch Manipulieren des Studiendesigns selbst (z. B. durch Abgleichen von Fällen mit Kontrollen in Bezug auf Alter und andere Variablen) oder in der Analysephase behandelt. Einzelheiten zu diesen Techniken werden in anderen Artikeln in diesem Kapitel vorgestellt.
Dokumentation
Bei jeder Forschungsstudie müssen alle Studienverfahren sorgfältig dokumentiert werden, damit sich alle Mitarbeiter, einschließlich Interviewer, Aufsichtspersonal und Forscher, über ihre jeweiligen Aufgaben im Klaren sind. In den meisten fragebogenbasierten Studien a codierung handbuch erstellt, der Frage für Frage alles beschreibt, was der Interviewer über den wörtlichen Wortlaut der Fragen hinaus wissen muss. Dies beinhaltet Anweisungen zum Codieren kategorialer Antworten und kann explizite Anweisungen zum Sondieren enthalten, wobei die Fragen aufgelistet werden, für die dies zulässig ist, und diejenigen, für die dies nicht zulässig ist. In vielen Studien werden im Feld gelegentlich neue, unvorhergesehene Antwortoptionen für bestimmte Fragen angetroffen; diese sind im Mastercodebuch festzuhalten und Kopien von Ergänzungen, Änderungen oder neuen Anweisungen rechtzeitig an alle Interviewer zu verteilen.
Planen, Testen und Überarbeiten
Wie aus Abbildung 1 ersichtlich, erfordert die Fragebogenentwicklung viel Nachdenken Planung. Jeder Fragebogen muss in mehreren Stufen getestet werden, um sicherzustellen, dass die Fragen „funktionieren“, dh verständlich sind und Antworten in der beabsichtigten Qualität liefern. Es ist nützlich, neue Fragen an Freiwilligen zu testen und sie dann ausführlich zu befragen, um festzustellen, wie gut bestimmte Fragen verstanden wurden und welche Arten von Problemen oder Unklarheiten aufgetreten sind. Die Ergebnisse können dann genutzt werden den Fragebogen überarbeiten, und der Vorgang kann bei Bedarf wiederholt werden. Die Freiwilligen werden manchmal als „Fokusgruppe“ bezeichnet.
Alle epidemiologischen Studien erfordern Piloten test, nicht nur für die Fragebögen, sondern auch für die Studienverfahren. Ein gut gestalteter Fragebogen erfüllt nur dann seinen Zweck, wenn er den Studienteilnehmern effizient übermittelt werden kann, und dies kann nur durch Testverfahren in der Praxis und gegebenenfalls durch Anpassungen festgestellt werden.
Interviewertraining und -supervision
Bei Studien, die per Telefon- oder Face-to-Face-Interview durchgeführt werden, spielt der Interviewer eine entscheidende Rolle. Diese Person ist nicht nur dafür verantwortlich, den Studienteilnehmern Fragen zu stellen und ihre Antworten aufzuzeichnen, sondern auch für die Interpretation dieser Antworten. Selbst bei der am strengsten strukturierten Interviewstudie bitten Befragte gelegentlich um Klärung von Fragen oder bieten Antworten an, die nicht in die verfügbaren Antwortkategorien passen. In solchen Fällen besteht die Aufgabe des Interviewers darin, entweder die Frage oder die Antwort in Übereinstimmung mit der Absicht des Forschers zu interpretieren. Um dies effektiv und konsistent zu tun, sind Schulung und Überwachung durch einen erfahrenen Forscher oder Manager erforderlich. Wenn mehr als ein Interviewer für eine Studie eingesetzt wird, ist die Interviewerschulung besonders wichtig, um sicherzustellen, dass die Fragen einheitlich präsentiert und die Antworten interpretiert werden. In vielen Forschungsprojekten wird dies in Gruppentrainingsumgebungen durchgeführt und periodisch (z. B. jährlich) wiederholt, um die Fähigkeiten der Interviewer auf dem neuesten Stand zu halten. Schulungsseminare decken in der Regel die folgenden Themen ausführlich ab:
Die Studienaufsicht beinhaltet oft eine Beobachtung vor Ort, die eine Tonbandaufzeichnung von Interviews für die anschließende Präparation beinhalten kann. Es ist gängige Praxis, dass der Vorgesetzte jeden Fragebogen persönlich überprüft, bevor er ihn genehmigt und zur Dateneingabe einreicht. Der Supervisor legt auch Leistungsstandards für Interviewer fest und setzt diese durch und führt in einigen Studien unabhängige Wiederholungsinterviews mit ausgewählten Teilnehmern als Zuverlässigkeitsprüfung durch.
Datenerhebung
Die eigentliche Verteilung der Fragebögen an die Studienteilnehmer und die anschließende Sammlung zur Analyse erfolgt auf einem der drei oben beschriebenen Wege: per Post, Telefon oder persönlich. Manche Forscherinnen und Forscher organisieren und führen diese Funktion sogar selbst innerhalb ihrer eigenen Institutionen durch. Während es für einen leitenden Ermittler von großem Vorteil ist, sich aus erster Hand mit der Dynamik des Interviews vertraut zu machen, ist es für geschulte und gut betreute professionelle Interviewer am kostengünstigsten und förderlich, eine hohe Datenqualität aufrechtzuerhalten, wenn sie Teil des Forschungsteams sind .
Einige Forscher treffen vertragliche Vereinbarungen mit Unternehmen, die auf Umfrageforschung spezialisiert sind. Auftragnehmer können eine Reihe von Dienstleistungen erbringen, die eine oder mehrere der folgenden Aufgaben umfassen können: Verteilen und Sammeln von Fragebögen, Durchführung telefonischer oder persönlicher Befragungen, Beschaffung biologischer Proben wie Blut oder Urin, Datenverwaltung und statistische Analyse und Berichterstattung. Unabhängig vom Grad der Unterstützung sind die Auftragnehmer in der Regel für die Bereitstellung von Informationen über Rücklaufquoten und Datenqualität verantwortlich. Dennoch trägt der Forscher die letzte Verantwortung für die wissenschaftliche Integrität der Studie.
Zuverlässigkeit und Wiederholungsinterviews
Die Datenqualität kann durch erneute Befragung einer Stichprobe der ursprünglichen Studienteilnehmer bewertet werden. Dies bietet ein Mittel zur Bestimmung der Zuverlässigkeit der Erstinterviews und eine Schätzung der Wiederholbarkeit der Antworten. Der gesamte Fragebogen muss nicht erneut verwaltet werden; eine Teilmenge von Fragen ist in der Regel ausreichend. Statistische Tests sind verfügbar, um die Zuverlässigkeit einer Reihe von Fragen zu beurteilen, die demselben Teilnehmer zu unterschiedlichen Zeiten gestellt wurden, sowie um die Zuverlässigkeit der Antworten zu bewerten, die von verschiedenen Teilnehmern und sogar von verschiedenen Interviewern (d. h. inter- und intrainterviewt) gegeben wurden -Rater-Bewertungen).
Technologie der Fragebogenbearbeitung
Fortschritte in der Computertechnologie haben viele verschiedene Möglichkeiten geschaffen, wie Fragebogendaten erfasst und dem Forscher für Computeranalysen zur Verfügung gestellt werden können. Es gibt drei grundsätzlich unterschiedliche Arten, wie Daten computerisiert werden können: in Echtzeit (dh während der Teilnehmer während eines Interviews antwortet), durch traditionelle Schlüsseleingabemethoden und durch optische Datenerfassungsmethoden.
Computergestützte Datenerfassung
Viele Forscher verwenden heute Computer, um Antworten auf Fragen zu sammeln, die sowohl in persönlichen als auch in telefonischen Interviews gestellt werden. Forscher auf diesem Gebiet finden es praktisch, Laptop-Computer zu verwenden, die so programmiert sind, dass sie die Fragen nacheinander anzeigen und die es dem Interviewer ermöglichen, die Antwort sofort einzugeben. Umfrageforschungsunternehmen, die Telefoninterviews durchführen, haben analoge Systeme entwickelt, die computergestützte Telefoninterviewsysteme (CATI) genannt werden. Diese Methoden haben zwei wichtige Vorteile gegenüber traditionelleren Papierfragebögen. Erstens können die Antworten sofort mit einer Reihe zulässiger Antworten und auf Übereinstimmung mit früheren Antworten überprüft werden, und Unstimmigkeiten können sowohl dem Interviewer als auch dem Befragten sofort zur Kenntnis gebracht werden. Dadurch wird die Fehlerquote stark reduziert. Zweitens können Sprungmuster programmiert werden, um die Verwaltungszeit zu minimieren.
Die gebräuchlichste Methode zur Computerisierung von Daten ist immer noch die traditionelle Schlüsseleingabe durch einen geschulten Bediener. Bei sehr großen Studien werden die Fragebögen in der Regel an ein professionelles Vertragsunternehmen geschickt, das auf Datenerfassung spezialisiert ist. Diese Firmen verwenden häufig spezielle Geräte, die es einem Bediener ermöglichen, einen Fragebogen einzugeben (ein Verfahren, das manchmal als Schlüsselloch aus historischen Gründen) und einen zweiten Bediener, um dieselben Daten erneut einzugeben, ein Prozess namens Schlüsselüberprüfung. Die Ergebnisse der zweiten Eingabe werden mit der ersten verglichen, um sicherzustellen, dass die Daten korrekt eingegeben wurden. Es können Qualitätssicherungsverfahren programmiert werden, die sicherstellen, dass jede Antwort in einen zulässigen Bereich fällt und dass sie mit anderen Antworten konsistent ist. Die resultierenden Datendateien können dem Forscher auf Platte, Band oder elektronisch per Telefon oder einem anderen Computernetzwerk übermittelt werden.
Für kleinere Studien gibt es zahlreiche kommerzielle PC-basierte Programme mit Dateneingabefunktionen, die denen von spezialisierteren Systemen nachempfunden sind. Dazu gehören Datenbankprogramme wie dBase, Foxpro und Microsoft Access sowie Tabellenkalkulationen wie Microsoft Excel und Lotus 1-2-3. Außerdem sind Dateneingabefunktionen in vielen Computerprogrammpaketen enthalten, deren Hauptzweck die statistische Datenanalyse ist, wie z. B. SPSS, BMDP und EPI INFO.
Ein weit verbreitetes Verfahren zur Datenerfassung, das für bestimmte spezialisierte Fragebögen gut funktioniert, verwendet optische Systeme. Optische Markenlesung oder optische Abtastung wird verwendet, um Antworten auf Fragebögen zu lesen, die speziell für Teilnehmer entwickelt wurden, um Daten einzugeben, indem sie kleine Rechtecke oder Kreise (manchmal als „Bubble Codes“ bezeichnet) markieren. Diese funktionieren am effizientesten, wenn jede Person ihren eigenen Fragebogen ausfüllt. Anspruchsvollere und teurere Geräte können handschriftliche Zeichen lesen, aber derzeit ist dies keine effiziente Technik zum Erfassen von Daten in groß angelegten Studien.
Archivierung von Fragebögen und Codierungshandbüchern
Da Informationen eine wertvolle Ressource sind und Interpretationen und anderen Einflüssen unterliegen, werden Forscher manchmal gebeten, ihre Daten mit anderen Forschern zu teilen. Die Aufforderung zur Weitergabe von Daten kann durch eine Vielzahl von Gründen motiviert sein, die von einem aufrichtigen Interesse an der Replikation eines Berichts bis hin zur Sorge reichen können, dass Daten möglicherweise nicht richtig analysiert oder interpretiert wurden.
Wenn eine Fälschung oder Fälschung von Daten vermutet oder behauptet wird, ist es unerlässlich, dass die Originalaufzeichnungen, auf denen die gemeldeten Feststellungen beruhen, für Prüfungszwecke verfügbar sind. Zusätzlich zu den Originalfragebögen und/oder Computerdateien der Rohdaten muss der Forscher in der Lage sein, das/die für die Studie entwickelte(n) Codierungshandbuch(e) und das/die Protokoll(e) aller Datenänderungen, die im Kurs vorgenommen wurden, zur Überprüfung vorzulegen der Datencodierung, Computerisierung und Analyse. Wenn beispielsweise ein Datenwert geändert wurde, weil er ursprünglich als Ausreißer aufgetreten war, dann hätte eine Aufzeichnung der Änderung und der Gründe für die Änderung im Protokoll für mögliche Datenprüfungszwecke aufgezeichnet werden müssen. Solche Informationen sind auch zum Zeitpunkt der Berichtserstellung von Wert, da sie als Erinnerung daran dienen, wie die Daten, die zu den gemeldeten Feststellungen geführt haben, tatsächlich gehandhabt wurden.
Aus diesen Gründen ist der Forscher nach Abschluss einer Studie verpflichtet, dafür zu sorgen, dass alle Basisdaten angemessen für einen angemessenen Zeitraum archiviert werden und dass sie abgerufen werden können, wenn der Forscher aufgefordert wird, sie zur Verfügung zu stellen.
Mehrere Beispiele für Gefahren am Arbeitsplatz werden oft zitiert, um nicht nur die möglichen nachteiligen Auswirkungen auf die Gesundheit im Zusammenhang mit Expositionen am Arbeitsplatz zu veranschaulichen, sondern auch um aufzuzeigen, wie ein systematischer Ansatz zur Untersuchung von Arbeitnehmerpopulationen wichtige Beziehungen zwischen Exposition und Krankheit aufdecken kann. Ein solches Beispiel ist Asbest. Die schlichte Eleganz, mit der der verstorbene Dr. Irving J. Selikoff das erhöhte Krebsrisiko bei Asbestarbeitern demonstrierte, wurde in einem Artikel von Lawrence Garfinkel dokumentiert. Es wird hier mit nur geringfügiger Änderung und mit Genehmigung von CA-A Cancer Journal for Clinicians (Garfinkel 1984) nachgedruckt. Die Tabellen stammen aus dem Originalartikel von Dr. Selikoff und Mitarbeitern (1964).
Die Exposition gegenüber Asbest ist zu einem erheblichen Problem für die öffentliche Gesundheit geworden, mit Auswirkungen, die sich über den unmittelbaren Bereich der Angehörigen der Gesundheitsberufe hinaus auf Bereiche erstrecken, die von Gesetzgebern, Richtern, Anwälten, Pädagogen und anderen betroffenen Gemeindevertretern bedient werden. Infolgedessen sind asbestbedingte Krankheiten für Kliniker und Gesundheitsbehörden sowie für Verbraucher und die breite Öffentlichkeit von zunehmender Besorgnis.
Historischer Hintergrund
Asbest ist ein sehr nützliches Mineral, das seit vielen Jahrhunderten auf vielfältige Weise genutzt wird. Archäologische Studien in Finnland haben Beweise für Asbestfasern gezeigt, die bereits 2500 v. Chr. in Keramik eingearbeitet wurden. Im 5. Jahrhundert v. Chr. wurde es als Docht für Lampen verwendet. Herodot kommentierte die Verwendung von Asbestgewebe zur Einäscherung um 456 v. Asbest wurde im 15. Jahrhundert in Körperpanzern und in Russland bei der Herstellung von Textilien, Handschuhen, Socken und Handtaschen verwendet c. 1720. Obwohl es ungewiss ist, wann die Kunst des Asbestwebens entwickelt wurde, wissen wir, dass die Menschen des Altertums oft Asbest mit Leinen gewebt haben. Die kommerzielle Asbestproduktion begann in Italien um 1850 mit der Herstellung von Papier und Stoff.
Die Entwicklung des Asbestabbaus in Kanada und Südafrika um 1880 senkte die Kosten und trieb die Herstellung von Asbestprodukten voran. Bald darauf folgten der Abbau und die Produktion von Asbest in den USA, Italien und Russland. In den Vereinigten Staaten steigerte die Entwicklung von Asbest als Rohrisolierung die Produktion, und kurz darauf folgten andere vielfältige Verwendungen, darunter Bremsbeläge, Zementrohre, Schutzkleidung und so weiter.
Die Produktion in den USA stieg von etwa 6,000 Tonnen im Jahr 1900 auf 650,000 Tonnen im Jahr 1975, obwohl sie 1982 etwa 300,000 Tonnen betrug und 1994 auf 33,000 Tonnen zurückgegangen war.
Es wird berichtet, dass Plinius der Jüngere (61-113 n. Chr.) die Krankheit von Sklaven kommentierte, die mit Asbest arbeiteten. Hinweise auf mit dem Bergbau verbundene Berufskrankheiten tauchten im 16. Jahrhundert auf, aber erst 1906 tauchte in England der erste Hinweis auf Lungenfibrose bei einem Asbestarbeiter auf. Übermäßige Todesfälle bei Arbeitern, die mit Asbestherstellungsanwendungen zu tun hatten, wurden kurz darauf in Frankreich und Italien gemeldet, aber die große Anerkennung asbestinduzierter Krankheiten begann in England im Jahr 1924. Bis 1930 hatten Wood und Gloyne über 37 Fälle von Lungenfibrose berichtet.
Der erste Hinweis auf ein Lungenkarzinom bei einem Patienten mit „Asbest-Silikose“ erschien 1935. Mehrere weitere Fallberichte folgten. Berichte über hohe Prozentsätze von Lungenkrebs bei Patienten, die an Asbestose starben, erschienen 1947, 1949 und 1951. 1955 berichtete Richard Doll in England über ein erhöhtes Lungenkrebsrisiko bei Personen, die seit 1935 in einer Asbestfabrik gearbeitet hatten, mit einem besonders hohen Risiko bei Personen, die länger als 20 Jahre beschäftigt waren.
Klinische Beobachtungen
Vor diesem Hintergrund begannen Dr. Irving Selikoffs klinische Beobachtungen asbestbedingter Krankheiten. Dr. Selikoff war damals bereits ein angesehener Wissenschaftler. Zu seinen früheren Leistungen gehörte die Entwicklung und erste Anwendung von Isoniazid zur Behandlung von Tuberkulose, wofür er 1952 einen Lasker-Preis erhielt.
In den frühen 1960er Jahren hatte er als in Paterson, New Jersey, praktizierender Thoraxarzt viele Fälle von Lungenkrebs bei Arbeitern in einer Asbestfabrik in der Gegend beobachtet. Er beschloss, seine Beobachtungen auf zwei Ortsansässige der Asbestisolator-Arbeitergewerkschaft auszudehnen, deren Mitglieder ebenfalls Asbestfasern ausgesetzt waren. Er erkannte, dass es immer noch viele Menschen gibt, die nicht glauben, dass Lungenkrebs mit einer Asbestexposition zusammenhängt, und dass nur eine gründliche Studie einer gesamten exponierten Bevölkerung sie davon überzeugen kann. Es bestand die Möglichkeit, dass die Asbestexposition in der Bevölkerung mit anderen Krebsarten in Verbindung gebracht werden könnte, wie z. B. Pleura- und Peritonealmesotheliom, wie in einigen Studien vorgeschlagen worden war, und vielleicht auch an anderen Stellen. Die meisten Studien zu den gesundheitlichen Auswirkungen von Asbest betrafen in der Vergangenheit Arbeiter, die im Bergbau und in der Produktion von Asbest exponiert waren. Es war wichtig zu wissen, ob die Inhalation von Asbest auch andere asbestexponierte Gruppen betraf.
Dr. Selikoff hatte von den Leistungen von Dr. E. Cuyler Hammond, dem damaligen Direktor der Abteilung für statistische Forschung der American Cancer Society (ACS), gehört und beschloss, ihn zu bitten, an der Konzeption und Analyse einer Studie mitzuarbeiten. Es war Dr. Hammond, der die wegweisende prospektive Studie zum Thema Rauchen und Gesundheit geschrieben hatte, die einige Jahre zuvor veröffentlicht worden war.
Dr. Hammond erkannte sofort die potenzielle Bedeutung einer Studie an Asbestarbeitern. Obwohl er eifrig damit beschäftigt war, Daten aus der damals neuen prospektiven ACS-Studie Cancer Prevention Study I (CPS I) zu analysieren, die er einige Jahre zuvor begonnen hatte, stimmte er einer Zusammenarbeit in seiner „Freizeit“ gerne zu. Er schlug vor, die Analyse auf die Arbeitnehmer mit mindestens 20 Jahren Berufserfahrung zu beschränken, die somit die größte Asbestexposition gehabt hätten.
Dem Team schloss sich Frau Janet Kaffenburgh an, eine wissenschaftliche Mitarbeiterin von Dr. Selikoff am Mount Sinai Hospital, die mit Dr. Hammond zusammenarbeitete, um die Listen der Männer in der Studie zu erstellen, einschließlich ihres Alters und ihrer Beschäftigungsdaten, und um die Daten zu erhalten über Todesfälle und Todesursachen aus den Aufzeichnungen der Gewerkschaftszentrale. Diese Informationen wurden anschließend auf Karteikarten übertragen, die von Dr. Hammond und Mrs. Kaffenburgh buchstäblich auf dem Wohnzimmerboden von Dr. Hammonds Haus sortiert wurden.
Dr. Jacob Churg, ein Pathologe am Barnert Memorial Hospital Center in Paterson, New Jersey, lieferte eine pathologische Bestätigung der Todesursache.
Tabe 1. Erfahrung in Mannjahren von 632 Asbestarbeitern, die 20 Jahre oder länger Asbeststaub ausgesetzt waren
Alter |
Zeitperiode |
|||
1943-47 |
1948-52 |
1953-57 |
1958-62 |
|
35-39 |
85.0 |
185.0 |
7.0 |
11.0 |
40-44 |
230.5 |
486.5 |
291.5 |
70.0 |
45-49 |
339.5 |
324.0 |
530.0 |
314.5 |
50-54 |
391.5 |
364.0 |
308.0 |
502.5 |
55-59 |
382.0 |
390.0 |
316.0 |
268.5 |
60-64 |
221.0 |
341.5 |
344.0 |
255.0 |
65-69 |
139.0 |
181.0 |
286.0 |
280.0 |
70-74 |
83.0 |
115.5 |
137.0 |
197.5 |
75-79 |
31.5 |
70.0 |
70.5 |
75.0 |
80-84 |
5.5 |
18.5 |
38.5 |
23.5 |
85+ |
3.5 |
2.0 |
8.0 |
13.5 |
Gesamt |
1,912.0 |
2,478.0 |
2,336.5 |
2,011.0 |
Die resultierende Studie wurde als „prospektive retrospektiv durchgeführte Studie“ klassifiziert. Die Art der Gewerkschaftsaufzeichnungen ermöglichte es, eine Analyse einer Langzeitstudie in relativ kurzer Zeit durchzuführen. Obwohl nur 632 Männer an der Studie teilnahmen, gab es eine Risikoexposition von 8,737 Mannjahren (siehe Tabelle 1); Im 255-jährigen Beobachtungszeitraum von 20 bis 1943 traten 1962 Todesfälle auf (siehe Tabelle 2). Aus Tabelle 28.17 geht hervor, dass die beobachtete Zahl der Todesfälle ausnahmslos die erwartete Zahl übersteigt, was den Zusammenhang zwischen Asbestexposition am Arbeitsplatz und einer erhöhten Krebstodesrate zeigt.
Tabelle 2. Beobachtete und erwartete Todesfälle bei 632 Asbestarbeitern, die 20 Jahre oder länger Asbeststaub ausgesetzt waren
Todesursache |
Zeitperiode |
Gesamt |
|||
1943-47 |
1948-52 |
1953-57 |
1958-62 |
1943-62 |
|
Insgesamt, alle Ursachen |
|||||
Beobachtet (Asbestarbeiter) |
28.0 |
54.0 |
85.0 |
88.0 |
255.0 |
Erwartet (weiße US-Männer) |
39.7 |
50.8 |
56.6 |
54.4 |
203.5 |
Totaler Krebs, alle Standorte |
|||||
Beobachtet (Asbestarbeiter) |
13.0 |
17.0 |
26.0 |
39.0 |
95.0 |
Erwartet (weiße US-Männer) |
5.7 |
8.1 |
13.0 |
9.7 |
36.5 |
Krebs der Lunge und Pleura |
|||||
Beobachtet (Asbestarbeiter) |
6.0 |
8.0 |
13.0 |
18.0 |
45.0 |
Erwartet (weiße US-Männer) |
0.8 |
1.4 |
2.0 |
2.4 |
6.6 |
Magen-, Dickdarm- und Mastdarmkrebs |
|||||
Beobachtet (Asbestarbeiter) |
4.0 |
4.0 |
7.0 |
14.0 |
29.0 |
Erwartet (weiße US-Männer) |
2.0 |
2.5 |
2.6 |
2.3 |
9.4 |
Krebs aller anderen Stellen zusammen |
|||||
Beobachtet (Asbestarbeiter) |
3.0 |
5.0 |
6.0 |
7.0 |
21.0 |
Erwartet (weiße US-Männer) |
2.9 |
4.2 |
8.4 |
5.0 |
20.5 |
Bedeutung der Arbeit
Dieses Papier stellte einen Wendepunkt in unserem Wissen über asbestbedingte Krankheiten dar und gab die Richtung für die zukünftige Forschung vor. Der Artikel wurde seit seiner Erstveröffentlichung mindestens 261 Mal in wissenschaftlichen Publikationen zitiert. Mit finanzieller Unterstützung des ACS und der National Institutes of Health erforschten Dr. Selikoff und Dr. Hammond und ihr wachsendes Team aus Mineralogen, Lungenärzten, Radiologen, Pathologen, Hygienikern und Epidemiologen weiterhin verschiedene Facetten der Asbestkrankheit.
Eine große Abhandlung aus dem Jahr 1968 berichtete über die synergistische Wirkung des Zigarettenrauchens auf die Asbestexposition (Selikoff, Hammond und Churg 1968). Die Studien wurden auf Arbeiter in der Asbestproduktion, Personen mit indirekter Asbestexposition (z. B. Werftarbeiter) und Personen mit familiärer Asbestexposition ausgeweitet.
In einer späteren Analyse, in der das Team von Herbert Seidman, MBA, stellvertretender Vizepräsident für Epidemiologie und Statistik der American Cancer Society, unterstützt wurde, zeigte die Gruppe, dass selbst eine kurzfristige Exposition gegenüber Asbest zu einem signifikant erhöhten Krebsrisiko führte bis 30 Jahre später (Seidman, Selikoff und Hammond 1979). In dieser ersten Studie mit 632 Isolatoren gab es nur drei Fälle von Mesotheliom, aber spätere Untersuchungen zeigten, dass 8 % aller Todesfälle unter Asbestarbeitern auf Pleura- und Peritonealmesotheliom zurückzuführen waren.
Als sich Dr. Selikoffs wissenschaftliche Untersuchungen ausweiteten, leisteten er und seine Mitarbeiter bemerkenswerte Beiträge zur Reduzierung der Asbestbelastung durch Innovationen in industriellen Hygienetechniken; indem die Gesetzgeber von der Dringlichkeit des Asbestproblems überzeugt werden; bei der Bewertung der Probleme von Invaliditätszahlungen im Zusammenhang mit Asbesterkrankungen; und bei der Untersuchung der allgemeinen Verteilung von Asbestpartikeln in Wasservorräten und in der Umgebungsluft.
Dr. Selikoff machte auch die medizinische und wissenschaftliche Gemeinschaft auf das Asbestproblem aufmerksam, indem er Konferenzen zu diesem Thema organisierte und an vielen wissenschaftlichen Tagungen teilnahm. Viele seiner Orientierungstreffen zum Problem der Asbestkrankheit waren speziell für Rechtsanwälte, Richter, Präsidenten großer Unternehmen und Versicherungsmanager konzipiert.
Geistige versus körperliche Belastung
Das Konzept der mentalen Arbeitsbelastung (MWL) hat zunehmend an Bedeutung gewonnen, da moderne halbautomatische und computergestützte Technologien sowohl bei Fertigungs- als auch bei Verwaltungsaufgaben strenge Anforderungen an die geistigen oder informationsverarbeitenden Fähigkeiten des Menschen stellen können. Daher ist insbesondere für die Bereiche Arbeitsanalyse, Bewertung von Arbeitsanforderungen und Arbeitsgestaltung die Konzeptualisierung der psychischen Arbeitsbelastung sogar noch wichtiger geworden als die der traditionellen körperlichen Arbeitsbelastung.
Definitionen der psychischen Arbeitsbelastung
Es gibt keine einheitliche Definition der psychischen Arbeitsbelastung. Der Hauptgrund liegt darin, dass es mindestens zwei theoretisch gut fundierte Ansätze und Definitionen gibt: (1) MWL im Hinblick auf die Aufgabenanforderungen als unabhängige, externe Variable, mit der die zu bearbeitenden Subjekte mehr oder weniger effizient fertig werden müssen, und (2) MWL im Sinne einer Wechselwirkung zwischen Aufgabenanforderungen und menschlichen Fähigkeiten oder Ressourcen (Hancock und Chignall 1986; Welford 1986; Wieland-Eckelmann 1992).
Obwohl sie aus unterschiedlichen Kontexten stammen, bieten beide Ansätze notwendige und fundierte Beiträge zu unterschiedlichen Problemstellungen.
Das Anforderungen Ressourcen Interaktion Der Ansatz wurde im Rahmen von Persönlichkeits-Umwelt-Fit/Misfit-Theorien entwickelt, die versuchen, interindividuell unterschiedliche Reaktionen auf identische körperliche und psychosoziale Bedingungen und Anforderungen zu erklären. Somit kann dieser Ansatz individuelle Unterschiede in den Mustern subjektiver Reaktionen auf Belastungsanforderungen und -bedingungen erklären, beispielsweise in Bezug auf Müdigkeit, Monotonie, affektive Aversion, Burnout oder Krankheiten (Gopher und Donchin 1986; Hancock und Meshkati 1988).
Das Aufgabenanforderungen Der Ansatz wurde in jenen Bereichen der Arbeitspsychologie und Ergonomie entwickelt, die sich überwiegend mit der Aufgabengestaltung beschäftigen, insbesondere mit der Gestaltung neuer und unerprobter Zukunftsaufgaben, sog prospektive Aufgabengestaltung. Hintergrund ist hier das Spannungs-Dehnungs-Konzept. Aufgabenanforderungen stellen den Stress dar, und die Arbeitssubjekte versuchen, sich an die Anforderungen anzupassen oder mit ihnen fertig zu werden, ähnlich wie sie es bei anderen Formen von Stress tun würden (Hancock und Chignill 1986). Dieser Aufgabenanforderungsansatz versucht, die Frage zu beantworten, wie Aufgaben im Voraus gestaltet werden können, um ihre spätere Wirkung auf die – oft noch unbekannten – Mitarbeiter zu optimieren, die diese zukünftigen Aufgaben erfüllen werden.
Es gibt zumindest einige gemeinsame Merkmale beider Konzeptualisierungen von MWL.
Theoretische Ansätze: Anforderungs-Ressourcen-Ansätze
Aus Sicht der Person-Umwelt-Passung lassen sich MWL und ihre Folgen grob – wie in Abbildung 1 dargestellt – in Unterbelastung, passgenaue Belastung und Überlastung einteilen. Diese Kategorisierung ergibt sich aus den Beziehungen zwischen Aufgabenanforderungen und mentalen Fähigkeiten bzw. Ressourcen. Aufgabenanforderungen können die Ressourcen übersteigen, mit ihnen übereinstimmen oder von ihnen nicht erfüllt werden. Beide Arten von Fehlanpassungen können aus quantitativen oder qualitativen Fehlanpassungen resultieren und haben qualitativ unterschiedliche, aber in jedem Fall negative Folgen (siehe Abbildung 1).
Abbildung 1. Arten und Konsequenzen von Anforderungen-Ressourcen-Beziehungen
Einige Theorien versuchen, MWL ausgehend von der Ressourcen- oder Kapazitätsseite der Anforderungen zu definieren, nämlich Ressourcenbeziehungen. Diese Ressourcentheorien lassen sich in Ressourcenvolumen- und Ressourcenallokationstheorien unterteilen (Wieland-Eckelmann 1992). Die Höhe der verfügbaren Kapazität kann aus einer einzigen Quelle stammen (Single Ressourcentheorien), die die Verarbeitung bestimmen. Die Verfügbarkeit dieser Ressource variiert mit der Erregung (Kahneman 1973). Modern mehrere Ressourcentheorien gehen von einer Reihe relativ unabhängiger Verarbeitungsressourcen aus. Somit hängt die Leistung von der Bedingung ab, ob dieselbe Ressource oder verschiedene Ressourcen gleichzeitig und gleichzeitig benötigt werden. Unterschiedliche Ressourcen sind beispielsweise kodierende, verarbeitende oder antwortende Ressourcen (Gopher und Donchin 1986; Welford 1986). Das kritischste Problem für diese Arten von Theorien ist die zuverlässige Identifizierung einer oder mehrerer wohldefinierter Kapazitäten für qualitativ unterschiedliche Verarbeitungsvorgänge.
Ressourcenallokationstheorien gehen von einer sich qualitativ ändernden Verarbeitung als Funktion unterschiedlicher Strategien aus. Je nach Strategie können unterschiedliche mentale Prozesse und Repräsentationen zur Aufgabenbewältigung eingesetzt werden. Nicht die Menge stabiler Ressourcen, sondern flexible Allokationsstrategien stehen somit im Mittelpunkt des Interesses. Aber auch hier bleiben wesentliche Fragen – insbesondere zu den Diagnosemethoden der Strategien – offen.
Bewertung von MWL: Verwendung von Anforderungs-Ressourcen-Ansätzen
Eine strenge Messung der MWL wäre derzeit unmöglich, da klar definierte Maßeinheiten fehlen. Allerdings sollten die Konzeptualisierung und die Instrumente für ein Assessment den allgemeinen Qualitätskriterien diagnostischer Ansätze genügen, nämlich Objektivität, Reliabilität, Validität und Nützlichkeit. Bisher ist jedoch nur wenig über die Gesamtqualität der vorgeschlagenen Techniken oder Instrumente bekannt.
Es gibt eine ganze Reihe von Gründen für die verbleibenden Schwierigkeiten bei der Bewertung von MWL nach den Anforderungs-Ressourcen-Ansätzen (O'Donnell und Eggemeier 1986). Ein MWL-Assessment muss Fragen wie die folgenden beantworten: Ist die Aufgabenstellung eigenwillig, folgt sie selbst gesteckten Zielen oder richtet sie sich nach einem von außen vorgegebenen Auftrag? Welche Art von Fähigkeiten (bewusste intellektuelle Verarbeitung, Anwendung von implizitem Wissen usw.) sind erforderlich und werden sie gleichzeitig oder nacheinander beansprucht? Gibt es verschiedene Strategien und wenn ja, welche? Welche Bewältigungsmechanismen einer arbeitenden Person könnten erforderlich sein?
Die am häufigsten diskutierten Ansätze versuchen, MWL in Bezug auf Folgendes zu bewerten:
Beide Ansätze sind stark von den Annahmen der Single-Ressource-Theorien abhängig und haben folglich mit den oben genannten Fragen zu kämpfen.
Aufwandsabschätzung. Techniken zur Bewertung des Aufwands wie zum Beispiel das Skalierungsverfahren, das auf ein wahrgenommenes Korrelat von angewendet wird allgemeine zentrale Aktivierung, entwickelt und validiert von Bartenwerfer (1970), bieten verbale Skalen, die durch grafische ergänzt werden können und die den eindimensional variierenden Anteil des empfundenen Aufwands bei der Aufgabenbewältigung benoten. Die Probanden werden gebeten, ihre wahrgenommene Anstrengung anhand einer der Stufen der bereitgestellten Skala zu beschreiben.
Die oben genannten Qualitätskriterien werden durch diese Technik erfüllt. Zu seinen Einschränkungen gehört die Eindimensionalität der Skala, die einen wesentlichen, aber fragwürdigen Teil der wahrgenommenen Anstrengung abdeckt; die begrenzte oder fehlende Möglichkeit, wahrgenommene persönliche Aufgabenergebnisse vorherzusagen, beispielsweise in Bezug auf Müdigkeit, Langeweile oder Angst; und vor allem der hochgradig abstrakte oder formale Charakter des Aufwands, der fast nichts von den inhaltsabhängigen Aspekten von MWL, wie beispielsweise möglichen nützlichen Anwendungen der Qualifikation oder den Lernoptionen, identifiziert und erklärt.
Beurteilung der geistigen Leistungsfähigkeit. Die Bewertung der geistigen Leistungsfähigkeit besteht aus den Dual-Task-Techniken und einem damit verbundenen Dateninterpretationsverfahren, dem sogenannten Leistung Betriebskennlinie (POC). Dual-Task-Techniken decken mehrere Verfahren ab. Ihr gemeinsames Merkmal ist, dass die Probanden aufgefordert werden, zwei Aufgaben gleichzeitig auszuführen. Die entscheidende Hypothese lautet: Je weniger sich eine Zusatz- oder Nebenaufgabe in der Doppelaufgabensituation im Vergleich zur Basis-Einzelaufgabensituation verschlechtert, desto geringer sind die mentalen Leistungsanforderungen der Primäraufgabe und umgekehrt. Der Ansatz wird nun erweitert und es werden verschiedene Varianten der Aufgabeninterferenz unter Doppelaufgabenbedingungen untersucht. Beispielsweise werden die Probanden angewiesen, zwei Aufgaben gleichzeitig mit abgestuften Variationen der Prioritäten der Aufgaben auszuführen. Die POC-Kurve veranschaulicht grafisch die Auswirkungen möglicher Dual-Task-Kombinationen, die sich aus der gemeinsamen Nutzung begrenzter Ressourcen zwischen den gleichzeitig ausgeführten Aufgaben ergeben.
Die kritischen Annahmen des Ansatzes bestehen hauptsächlich in den Vorschlägen, dass jede Aufgabe einen bestimmten Anteil einer stabilen, begrenzten bewussten (gegenüber unbewussten, automatisierten, impliziten oder stillschweigenden) Verarbeitungskapazität erfordert, in der hypothetischen additiven Beziehung der beiden Kapazitätsanforderungen und in der Beschränkung des Ansatzes auf Leistungsdaten. Letzteres kann aus mehreren Gründen irreführend sein. Zunächst einmal gibt es erhebliche Unterschiede in der Sensitivität von Leistungsdaten und subjektiv empfundenen Daten. Die wahrgenommene Belastung scheint hauptsächlich durch die Menge der erforderlichen Ressourcen bestimmt zu werden, die oft in Bezug auf das Arbeitsgedächtnis operationalisiert wird, während Leistungsmaße überwiegend durch die Effizienz der Ressourcenteilung abhängig von Zuweisungsstrategien (d. h Dissoziationstheorie; siehe Wickens und Yeh 1983). Darüber hinaus beeinflussen individuelle Unterschiede in der Informationsverarbeitungsfähigkeit und Persönlichkeitsmerkmalen die MWL-Indikatoren im subjektiven (wahrgenommenen), Leistungs- und psychophysiologischen Bereich stark.
Theoretische Ansätze: Aufgabenanforderungsansätze
Wie gezeigt wurde, sind Aufgabenanforderungen mehrdimensional und können daher möglicherweise nicht ausreichend durch nur eine Dimension beschrieben werden, sei es die wahrgenommene Anstrengung oder die verbleibende bewusste geistige Kapazität. Eine tiefergehende Beschreibung könnte eine profilartige sein, die ein theoretisch ausgewähltes Muster abgestufter Dimensionen von Aufgabenmerkmalen anwendet. Zentrales Thema ist somit die Begriffsbildung von „Aufgabe“, insbesondere in Bezug auf Aufgabeninhalte, und von „Aufgabenbewältigung“, insbesondere in Bezug auf die Struktur und Phasen zielorientierten Handelns. Die Rolle der Aufgabe wird dadurch betont, dass auch die Auswirkungen von Kontextbedingungen (wie Temperatur, Lärm oder Arbeitszeiten) auf die Personen aufgabenabhängig sind, da sie durch die Aufgabe als Gate-Device vermittelt werden (Fisher 1986). . Verschiedene theoretische Ansätze stimmen hinreichend über jene kritischen Aufgabendimensionen überein, die eine valide Vorhersage des Aufgabenergebnisses bieten. In jedem Fall ist das Aufgabenergebnis zweifach, da (1) das beabsichtigte Ergebnis erreicht werden muss, das die Leistungsergebniskriterien erfüllt, und (2) eine Reihe unbeabsichtigter persönlicher kurzzeitiger und kumulativer langfristiger Nebenwirkungen auftreten werden, z B. Müdigkeit, Langeweile (Eintönigkeit), Berufskrankheiten oder verbesserte intrinsische Motivation, Kenntnisse oder Fähigkeiten.
Bewertung von MWL. Mit Aufgabenanforderungsansätzen, handlungsorientierten Ansätzen wie denen des vollständigen versus partiellen Handelns oder des Motivationspotenzialscores (für eine Ausarbeitung beider siehe Hacker 1986) schlagen sie als unverzichtbare Aufgabenmerkmale für die Analyse und Bewertung mindestens vor:
Die Identifizierung dieser Aufgabenmerkmale erfordert die gemeinsamen Verfahren der Stellen-/Aufgabenanalyse, einschließlich Dokumentenanalysen, Beobachtungen, Interviews und Gruppendiskussionen, die in ein quasi-experimentelles Design integriert werden müssen (Rudolph, Schönfelder und Hacker 1987). Aufgabenanalyse-Instrumente, die die Analyse leiten und unterstützen können, stehen zur Verfügung. Einige von ihnen unterstützen nur die Analyse (z. B. NASA-TLX Task Load Index, Hart und Staveland, 1988), während andere für die Bewertung und das Design oder Redesign nützlich sind. Ein Beispiel hierfür ist das TBS-GA (Tätigkeitsbewertungs-System für geistige Arbeit); siehe Rudolph, Schönfelder und Hacker (1987).
Das Wort Biomarker ist die Abkürzung für biologischer Marker, ein Begriff, der sich auf ein messbares Ereignis bezieht, das in einem biologischen System wie dem menschlichen Körper auftritt. Dieses Ereignis wird dann als Widerspiegelung oder Marker eines allgemeineren Zustands des Organismus oder der Lebenserwartung interpretiert. In der Arbeitsmedizin wird ein Biomarker im Allgemeinen als Indikator für den Gesundheitszustand oder das Krankheitsrisiko verwendet.
Biomarker werden sowohl für In-vitro- als auch für In-vivo-Studien verwendet, die Menschen einschließen können. Üblicherweise werden drei spezifische Arten von biologischen Markern identifiziert. Obwohl einige Biomarker möglicherweise schwer zu klassifizieren sind, werden sie normalerweise in Biomarker der Exposition, Biomarker der Wirkung oder Biomarker der Empfindlichkeit unterteilt (siehe Tabelle 1).
Tabelle 1. Beispiele für Biomarker der Exposition oder Wirkungsbiomarker, die in toxikologischen Studien im Arbeitsschutz verwendet werden
Stichprobe | Messung | Zweck |
Expositions-Biomarker | ||
Fettgewebe | Dioxin | Dioxinbelastung |
Blut | Führen (Lead) | Belastung durch Blei |
Knochen | Aluminium | Aluminium-Exposition |
Ausgeatmeter Atem | Toluol | Toluol-Exposition |
Haarfarbe | Merkur | Exposition gegenüber Methylquecksilber |
Serum | Benzol | Benzol-Exposition |
Urin | Phenol | Benzol-Exposition |
Effekt-Biomarker | ||
Blut | Carboxyhämoglobin | Kohlenmonoxidbelastung |
rote Blutkörperchen | Zink-Protoporphyrin | Belastung durch Blei |
Serum | Cholinesterase | Organophosphat-Exposition |
Urin | Mikroglobuline | Nephrotoxische Exposition |
Weiße Blutkörperchen | DNA-Addukte | Mutagen-Exposition |
Bei einem akzeptablen Maß an Validität können Biomarker für mehrere Zwecke eingesetzt werden. Auf individueller Basis kann ein Biomarker verwendet werden, um eine Diagnose einer bestimmten Art von Vergiftung oder einer anderen chemisch induzierten nachteiligen Wirkung zu unterstützen oder zu widerlegen. Bei einem gesunden Probanden kann ein Biomarker auch die individuelle Überempfindlichkeit gegenüber bestimmten chemischen Expositionen widerspiegeln und kann daher als Grundlage für die Risikovorhersage und Beratung dienen. In Gruppen exponierter Arbeitnehmer können einige Expositions-Biomarker angewendet werden, um das Ausmaß der Einhaltung von Umweltschutzvorschriften oder die Wirksamkeit von Präventionsbemühungen im Allgemeinen zu bewerten.
Biomarker der Exposition
Ein Expositions-Biomarker kann eine exogene Verbindung (oder ein Metabolit) im Körper, ein interaktives Produkt zwischen der Verbindung (oder dem Metaboliten) und einer endogenen Komponente oder ein anderes Ereignis im Zusammenhang mit der Exposition sein. Am häufigsten umfassen Biomarker für Expositionen gegenüber stabilen Verbindungen wie Metallen Messungen der Metallkonzentrationen in geeigneten Proben wie Blut, Serum oder Urin. Bei flüchtigen Chemikalien kann deren Konzentration in der ausgeatmeten Luft (nach Inhalation von kontaminationsfreier Luft) beurteilt werden. Wenn die Verbindung im Körper metabolisiert wird, können ein oder mehrere Metaboliten als Biomarker der Exposition ausgewählt werden; Metaboliten werden häufig in Urinproben bestimmt.
Moderne Analysemethoden können die Trennung von Isomeren oder Kongeneren organischer Verbindungen und die Bestimmung der Speziation von Metallverbindungen oder Isotopenverhältnissen bestimmter Elemente ermöglichen. Anspruchsvolle Analysen ermöglichen die Bestimmung von Veränderungen in der Struktur von DNA oder anderen Makromolekülen, die durch die Bindung mit reaktiven Chemikalien verursacht werden. Solche fortschrittlichen Techniken werden zweifellos erheblich an Bedeutung für Anwendungen in Biomarkerstudien gewinnen, und niedrigere Nachweisgrenzen und eine bessere analytische Validität werden diese Biomarker wahrscheinlich noch nützlicher machen.
Besonders vielversprechende Entwicklungen sind bei Biomarkern für die Exposition gegenüber mutagenen Chemikalien aufgetreten. Diese Verbindungen sind reaktiv und können Addukte mit Makromolekülen wie Proteinen oder DNA bilden. DNA-Addukte können in weißen Blutkörperchen oder Gewebebiopsien nachgewiesen werden, und spezifische DNA-Fragmente können mit dem Urin ausgeschieden werden. Beispielsweise führt die Exposition gegenüber Ethylenoxid zu Reaktionen mit DNA-Basen, und nach Entfernung der beschädigten Base wird N-7-(2-Hydroxyethyl)guanin im Urin ausgeschieden. Einige Addukte beziehen sich möglicherweise nicht direkt auf eine bestimmte Exposition. Beispielsweise spiegelt 8-Hydroxy-2´-desoxyguanosin eine oxidative Schädigung der DNA wider, und diese Reaktion kann durch mehrere chemische Verbindungen ausgelöst werden, von denen die meisten auch eine Lipidperoxidation induzieren.
Auch andere Makromoleküle können durch Adduktbildung oder Oxidation verändert werden. Von besonderem Interesse ist, dass solche reaktiven Verbindungen Hämoglobin-Addukte erzeugen können, die als Biomarker der Exposition gegenüber den Verbindungen bestimmt werden können. Der Vorteil besteht darin, dass aus einer Blutprobe reichlich Hämoglobin gewonnen werden kann und angesichts der viermonatigen Lebensdauer der roten Blutkörperchen die mit den Aminosäuren des Proteins gebildeten Addukte die Gesamtbelastung während dieses Zeitraums anzeigen.
Addukte können durch empfindliche Techniken wie Hochleistungs-Lipidchromatographie bestimmt werden, und einige immunologische Methoden sind ebenfalls verfügbar. Im Allgemeinen sind die Analysemethoden neu, teuer und müssen weiterentwickelt und validiert werden. Eine bessere Empfindlichkeit kann durch die Verwendung von erreicht werden 32P Post-Labeling-Assay, was ein unspezifischer Hinweis darauf ist, dass eine DNA-Schädigung stattgefunden hat. Alle diese Techniken sind potenziell nützlich für die biologische Überwachung und wurden in einer wachsenden Zahl von Studien angewendet. Es werden jedoch einfachere und empfindlichere analytische Methoden benötigt. Angesichts der begrenzten Spezifität einiger Methoden bei geringer Exposition können Tabakrauchen oder andere Faktoren die Messergebnisse erheblich beeinflussen und somit zu Interpretationsschwierigkeiten führen.
Die Exposition gegenüber mutagenen Verbindungen oder gegenüber Verbindungen, die zu Mutagenen metabolisiert werden, kann auch durch Beurteilung der Mutagenität des Urins einer exponierten Person bestimmt werden. Die Urinprobe wird mit einem Bakterienstamm inkubiert, in dem eine bestimmte Punktmutation leicht messbar exprimiert ist. Wenn in der Urinprobe mutagene Chemikalien vorhanden sind, kommt es zu einer erhöhten Mutationsrate in den Bakterien.
Expositionsbiomarker müssen im Hinblick auf die zeitliche Variation der Exposition und den Bezug zu verschiedenen Kompartimenten bewertet werden. Daher müssen der/die durch den Biomarker repräsentierte(n) Zeitrahmen, d. h. das Ausmaß, in dem die Biomarkermessung frühere Exposition(en) und/oder akkumulierte Körperbelastung widerspiegelt, aus toxikokinetischen Daten bestimmt werden, um das Ergebnis zu interpretieren. Insbesondere sollte berücksichtigt werden, inwieweit der Biomarker auf eine Retention in bestimmten Zielorganen hinweist. Obwohl Blutproben häufig für Biomarkerstudien verwendet werden, wird peripheres Blut im Allgemeinen nicht als Kompartiment angesehen, obwohl es als Transportmedium zwischen Kompartimenten fungiert. Das Ausmaß, in dem die Konzentration im Blut die Spiegel in verschiedenen Organen widerspiegelt, variiert stark zwischen verschiedenen Chemikalien und hängt normalerweise auch von der Dauer der Exposition sowie der Zeit seit der Exposition ab.
Manchmal wird diese Art von Nachweis verwendet, um einen Biomarker als Indikator für die (gesamte) absorbierte Dosis oder als Indikator für die effektive Dosis (dh die Menge, die das Zielgewebe erreicht hat) zu klassifizieren. Beispielsweise kann die Exposition gegenüber einem bestimmten Lösungsmittel anhand von Daten über die tatsächliche Konzentration des Lösungsmittels im Blut zu einem bestimmten Zeitpunkt nach der Exposition bewertet werden. Diese Messung spiegelt die Menge des Lösungsmittels wider, die in den Körper aufgenommen wurde. Ein Teil der absorbierten Menge wird aufgrund des Dampfdrucks des Lösungsmittels ausgeatmet. Während das Lösungsmittel im Blut zirkuliert, interagiert es mit verschiedenen Komponenten des Körpers und wird schließlich durch Enzyme abgebaut. Das Ergebnis der Stoffwechselvorgänge kann durch die Bestimmung spezifischer Mercaptursäuren, die durch Konjugation mit Glutathion entstehen, beurteilt werden. Die kumulative Ausscheidung von Mercaptursäuren kann die effektive Dosis besser widerspiegeln als die Blutkonzentration.
Lebensereignisse wie Reproduktion und Alterung können die Verteilung einer Chemikalie beeinflussen. Die Verteilung von Chemikalien im Körper wird durch eine Schwangerschaft erheblich beeinflusst, und viele Chemikalien können die Plazentaschranke passieren und so zu einer Exposition des Fötus führen. Laktation kann zur Ausscheidung von fettlöslichen Chemikalien führen, was zu einer verringerten Retention bei der Mutter zusammen mit einer erhöhten Aufnahme durch den Säugling führt. Bei Gewichtsabnahme oder Entwicklung einer Osteoporose können gespeicherte Chemikalien freigesetzt werden, was dann zu einer erneuten und langwierigen „körpereigenen“ Belastung von Zielorganen führen kann. Andere Faktoren können die individuelle Absorption, den Metabolismus, die Retention und Verteilung chemischer Verbindungen beeinflussen, und einige Biomarker für die Empfindlichkeit sind verfügbar (siehe unten).
Biomarker der Wirkung
Ein Wirkungsmarker kann eine endogene Komponente oder ein Maß für die Funktionsfähigkeit oder ein anderer Indikator für den Zustand oder das Gleichgewicht des Körpers oder Organsystems sein, das durch die Exposition beeinflusst wird. Solche Effektmarker sind im Allgemeinen präklinische Indikatoren für Anomalien.
Diese Biomarker können spezifisch oder unspezifisch sein. Die spezifischen Biomarker sind nützlich, da sie auf eine biologische Wirkung einer bestimmten Exposition hinweisen und somit Hinweise liefern, die potenziell für präventive Zwecke verwendet werden können. Die unspezifischen Biomarker weisen nicht auf eine einzelne Wirkungsursache hin, sondern können aufgrund einer Mischexposition die gesamte, integrierte Wirkung widerspiegeln. Beide Arten von Biomarkern können daher im Arbeitsschutz von erheblichem Nutzen sein.
Es gibt keine klare Unterscheidung zwischen Expositions-Biomarkern und Wirkungs-Biomarkern. Beispielsweise könnte man sagen, dass die Adduktbildung eher eine Wirkung als die Exposition widerspiegelt. Wirkungsbiomarker weisen jedoch meist auf Veränderungen der Funktionen von Zellen, Geweben oder des gesamten Körpers hin. Einige Forscher zählen grobe Veränderungen wie eine Zunahme des Lebergewichts von exponierten Labortieren oder ein vermindertes Wachstum bei Kindern als Biomarker für die Wirkung. Wirkungsbiomarker sollten im Sinne des Arbeitsschutzes auf solche beschränkt werden, die auf subklinische oder reversible biochemische Veränderungen, wie z. B. Hemmung von Enzymen, hinweisen. Der wohl am häufigsten verwendete Wirkungsbiomarker ist die Hemmung der Cholinesterase durch bestimmte Insektizide, also Organophosphate und Carbamate. In den meisten Fällen ist dieser Effekt vollständig reversibel, und die Enzymhemmung spiegelt die Gesamtexposition gegenüber dieser speziellen Gruppe von Insektiziden wider.
Einige Expositionen führen nicht zu einer Enzymhemmung, sondern zu einer erhöhten Aktivität eines Enzyms. Dies ist bei mehreren Enzymen der P450-Familie der Fall (siehe „Genetische Determinanten der toxischen Reaktion“). Sie können durch den Kontakt mit bestimmten Lösungsmitteln und polyaromatischen Kohlenwasserstoffen (PAKs) induziert werden. Da diese Enzyme hauptsächlich in Geweben exprimiert werden, aus denen eine Biopsie möglicherweise schwierig zu gewinnen ist, wird die Enzymaktivität indirekt in vivo bestimmt, indem eine Verbindung verabreicht wird, die von diesem bestimmten Enzym metabolisiert wird, und dann das Abbauprodukt im Urin oder Plasma gemessen wird.
Andere Expositionen können die Synthese eines schützenden Proteins im Körper induzieren. Bestes Beispiel ist wohl Metallothionein, das Cadmium bindet und die Ausscheidung dieses Metalls fördert; Cadmiumexposition ist einer der Faktoren, die zu einer erhöhten Expression des Metallothionein-Gens führen. Ähnliche Schutzproteine könnten existieren, wurden aber noch nicht ausreichend erforscht, um als Biomarker akzeptiert zu werden. Zu den Kandidaten für einen möglichen Einsatz als Biomarker gehören die sogenannten Stressproteine, ursprünglich als Hitzeschockproteine bezeichnet. Diese Proteine werden von einer Reihe verschiedener Organismen als Reaktion auf eine Vielzahl von nachteiligen Expositionen erzeugt.
Oxidative Schäden können durch Bestimmung der Konzentration von Malondialdehyd im Serum oder der Exhalation von Ethan bewertet werden. Ebenso kann die Urinausscheidung von Proteinen mit geringem Molekulargewicht, wie Albumin, als Biomarker für frühe Nierenschäden verwendet werden. Mehrere in der klinischen Praxis routinemäßig verwendete Parameter (z. B. Serumhormon- oder Enzymspiegel) können ebenfalls als Biomarker nützlich sein. Viele dieser Parameter sind jedoch möglicherweise nicht ausreichend empfindlich, um eine frühzeitige Beeinträchtigung zu erkennen.
Eine weitere Gruppe von Wirkungsparametern betrifft genotoxische Wirkungen (Veränderungen in der Chromosomenstruktur). Solche Wirkungen können durch Mikroskopie von weißen Blutkörperchen nachgewiesen werden, die eine Zellteilung durchlaufen. Schwerwiegende Schäden an den Chromosomen – Chromosomenaberrationen oder die Bildung von Mikrokernen – können im Mikroskop gesehen werden. Schäden können auch durch Hinzufügen eines Farbstoffs zu den Zellen während der Zellteilung aufgedeckt werden. Die Exposition gegenüber einem genotoxischen Agens kann dann als verstärkter Austausch des Farbstoffs zwischen den beiden Chromatiden jedes Chromosoms (Schwesterchromatidenaustausch) sichtbar gemacht werden. Chromosomenaberrationen sind mit einem erhöhten Krebsrisiko verbunden, aber die Bedeutung einer erhöhten Schwesterchromatidaustauschrate ist weniger klar.
Eine differenziertere Bewertung der Genotoxizität basiert auf bestimmten Punktmutationen in somatischen Zellen, dh weißen Blutkörperchen oder Epithelzellen, die aus der Mundschleimhaut gewonnen werden. Eine Mutation an einem bestimmten Ort kann die Zellen in die Lage versetzen, in einer Kultur zu wachsen, die eine ansonsten toxische Chemikalie enthält (z. B. 6-Thioguanin). Alternativ kann ein spezifisches Genprodukt bewertet werden (z. B. Serum- oder Gewebekonzentrationen von Onkoproteinen, die von bestimmten Onkogenen kodiert werden). Offensichtlich spiegeln diese Mutationen den gesamten entstandenen genotoxischen Schaden wider und sagen nicht unbedingt etwas über die ursächliche Exposition aus. Diese Methoden sind noch nicht praxisreif für den Arbeitsschutz, aber schnelle Fortschritte in dieser Forschungsrichtung lassen darauf schließen, dass solche Methoden in wenigen Jahren verfügbar sein werden.
Biomarker der Anfälligkeit
Ein Marker für Anfälligkeit, ob ererbt oder induziert, ist ein Indikator dafür, dass das Individuum besonders empfindlich auf die Wirkung eines Xenobiotikums oder auf die Wirkung einer Gruppe solcher Verbindungen reagiert. Die meiste Aufmerksamkeit wurde auf die genetische Anfälligkeit gerichtet, obwohl andere Faktoren mindestens ebenso wichtig sein können. Überempfindlichkeit kann auf eine erbliche Eigenschaft, die Konstitution des Individuums oder Umweltfaktoren zurückzuführen sein.
Die Fähigkeit, bestimmte Chemikalien zu metabolisieren, ist variabel und genetisch bedingt (siehe „Genetische Determinanten der toxischen Reaktion“). Mehrere relevante Enzyme scheinen von einem einzigen Gen kontrolliert zu werden. Beispielsweise wird die Oxidation von Fremdchemikalien hauptsächlich durch eine Familie von Enzymen durchgeführt, die zur P450-Familie gehören. Andere Enzyme machen die Metaboliten durch Konjugation wasserlöslicher (z. B. N-Acetyltransferase und μ-Glutathion-S-Transferase). Die Aktivität dieser Enzyme ist genetisch gesteuert und variiert erheblich. Wie oben erwähnt, kann die Aktivität bestimmt werden, indem eine kleine Dosis eines Arzneimittels verabreicht wird und dann die Menge des Metaboliten im Urin bestimmt wird. Einige der Gene wurden inzwischen charakterisiert, und es stehen Techniken zur Bestimmung des Genotyps zur Verfügung. Wichtige Studien deuten darauf hin, dass das Risiko, bestimmte Krebsformen zu entwickeln, mit der Fähigkeit zusammenhängt, Fremdstoffe zu metabolisieren. Viele Fragen bleiben noch unbeantwortet, was derzeit die Verwendung dieser potenziellen Anfälligkeits-Biomarker in der Arbeitsmedizin einschränkt.
Andere vererbte Merkmale wie Alpha1-Antitrypsin-Mangel oder Glucose-6-Phosphat-Dehydrogenase-Mangel, führen ebenfalls zu mangelhaften Abwehrmechanismen im Körper, wodurch eine Überempfindlichkeit gegenüber bestimmten Expositionen entsteht.
Die meisten Forschungen zur Anfälligkeit haben sich mit der genetischen Veranlagung befasst. Andere Faktoren spielen ebenfalls eine Rolle und wurden teilweise vernachlässigt. Zum Beispiel können Personen mit einer chronischen Krankheit empfindlicher auf eine berufliche Exposition reagieren. Auch wenn ein Krankheitsprozess oder eine frühere Exposition gegenüber toxischen Chemikalien subklinische Organschäden verursacht hat, ist die Fähigkeit, einer neuen toxischen Exposition standzuhalten, wahrscheinlich geringer. Als Suszeptibilitäts-Biomarker können dabei biochemische Indikatoren der Organfunktion verwendet werden. Das vielleicht beste Beispiel für Überempfindlichkeit bezieht sich auf allergische Reaktionen. Wenn eine Person für eine bestimmte Exposition sensibilisiert wurde, können spezifische Antikörper im Serum nachgewiesen werden. Selbst wenn die Person nicht sensibilisiert wurde, können andere aktuelle oder frühere Expositionen das Risiko einer unerwünschten Wirkung im Zusammenhang mit einer beruflichen Exposition erhöhen.
Ein großes Problem besteht darin, die gemeinsame Wirkung von Mischbelastungen bei der Arbeit zu bestimmen. Darüber hinaus können persönliche Gewohnheiten und Drogenkonsum zu einer erhöhten Anfälligkeit führen. Beispielsweise enthält Tabakrauch normalerweise eine beträchtliche Menge Cadmium. Ein starker Raucher, der erhebliche Mengen dieses Metalls im Körper angesammelt hat, ist daher bei beruflicher Exposition gegenüber Cadmium einem erhöhten Risiko ausgesetzt, eine cadmiumbedingte Nierenerkrankung zu entwickeln.
Anwendung in der Arbeitsmedizin
Biomarker sind in der toxikologischen Forschung äußerst nützlich, und viele können in der biologischen Überwachung eingesetzt werden. Allerdings müssen auch die Grenzen anerkannt werden. Viele Biomarker wurden bisher nur an Versuchstieren untersucht. Toxikokinetische Muster bei anderen Arten spiegeln möglicherweise nicht unbedingt die Situation beim Menschen wider, und die Extrapolation kann bestätigende Studien an freiwilligen Versuchspersonen erfordern. Auch individuelle Variationen aufgrund genetischer oder konstitutioneller Faktoren müssen berücksichtigt werden.
In manchen Fällen sind Expositions-Biomarker überhaupt nicht durchführbar (z. B. bei Chemikalien, die in vivo nur von kurzer Dauer sind). Andere Chemikalien können in Organen gespeichert sein oder diese beeinträchtigen, die für Routineverfahren nicht zugänglich sind, wie z. B. das Nervensystem. Auch der Expositionsweg kann das Verteilungsmuster und damit auch die Biomarkermessung und deren Interpretation beeinflussen. Beispielsweise entgeht die direkte Exposition des Gehirns über den Geruchsnerv wahrscheinlich der Erkennung durch Messung von Expositions-Biomarkern. Viele der Wirkungsbiomarker sind überhaupt nicht spezifisch, und die Veränderung kann auf eine Vielzahl von Ursachen zurückzuführen sein, einschließlich Lebensstilfaktoren. Vielleicht muss gerade bei den Suszeptibilitäts-Biomarkern die Interpretation derzeit sehr vorsichtig sein, da viele Unsicherheiten über die gesundheitliche Gesamtbedeutung einzelner Genotypen bestehen.
Im Arbeitsschutz sollte der ideale Biomarker mehrere Anforderungen erfüllen. Zunächst einmal müssen die Probennahme und -analyse einfach und zuverlässig sein. Für eine optimale analytische Qualität ist eine Standardisierung erforderlich, aber die spezifischen Anforderungen sind sehr unterschiedlich. Zu den wichtigsten Problembereichen gehören: Vorbereitung des Individuums, Probenahmeverfahren und Probenhandhabung sowie Messverfahren; Letzteres umfasst technische Faktoren, wie Kalibrierungs- und Qualitätssicherungsverfahren, und personenbezogene Faktoren, wie Ausbildung und Training der Bediener.
Zur Dokumentation der analytischen Gültigkeit und Rückverfolgbarkeit sollten Referenzmaterialien auf relevanten Matrizes und mit angemessenen Konzentrationen toxischer Substanzen oder relevanter Metaboliten in angemessenen Mengen basieren. Damit Biomarker für die biologische Überwachung oder für diagnostische Zwecke verwendet werden können, müssen die verantwortlichen Labors über gut dokumentierte Analyseverfahren mit definierten Leistungsmerkmalen und zugänglichen Aufzeichnungen verfügen, um eine Überprüfung der Ergebnisse zu ermöglichen. Gleichzeitig muss jedoch die Ökonomie der Charakterisierung und Verwendung von Referenzmaterialien zur Ergänzung von Qualitätssicherungsverfahren im Allgemeinen berücksichtigt werden. Daher müssen die erreichbare Qualität der Ergebnisse und die Verwendungen, für die sie eingesetzt werden, gegen die zusätzlichen Kosten der Qualitätssicherung, einschließlich Referenzmaterialien, Personal und Instrumentierung, abgewogen werden.
Eine weitere Anforderung besteht darin, dass der Biomarker zumindest unter den Umständen der Studie für eine bestimmte Art der Exposition spezifisch sein sollte und eine eindeutige Beziehung zum Grad der Exposition aufweisen sollte. Andernfalls kann das Ergebnis der Biomarkermessung zu schwer zu interpretieren sein. Für die richtige Interpretation des Messergebnisses eines Expositionsbiomarkers muss die diagnostische Validität bekannt sein (dh die Übersetzung des Biomarkerwerts in die Größenordnung möglicher Gesundheitsrisiken). In diesem Bereich dienen Metalle als Paradigma für die Biomarkerforschung. Jüngste Forschungen haben die Komplexität und Subtilität von Dosis-Wirkungs-Beziehungen gezeigt, mit erheblichen Schwierigkeiten bei der Identifizierung von Nicht-Effekt-Konzentrationen und daher auch bei der Definition tolerierbarer Expositionen. Diese Art der Forschung hat jedoch auch die Arten der Untersuchung und die Verfeinerung veranschaulicht, die erforderlich sind, um die relevanten Informationen aufzudecken. Für die meisten organischen Verbindungen liegen noch keine quantitativen Zusammenhänge zwischen Expositionen und den entsprechenden gesundheitsschädlichen Wirkungen vor; in vielen Fällen sind sogar die primären Zielorgane nicht sicher bekannt. Darüber hinaus wird die Bewertung von Toxizitätsdaten und Biomarkerkonzentrationen häufig durch die Exposition gegenüber Stoffgemischen und nicht durch die Exposition gegenüber einer einzelnen Verbindung zu diesem Zeitpunkt erschwert.
Bevor der Biomarker für arbeitsmedizinische Zwecke eingesetzt wird, sind einige zusätzliche Überlegungen notwendig. Erstens darf der Biomarker nur eine subklinische und reversible Veränderung widerspiegeln. Zweitens, da die Biomarker-Ergebnisse im Hinblick auf Gesundheitsrisiken interpretiert werden können, sollten vorbeugende Maßnahmen verfügbar sein und als realistisch angesehen werden, falls die Biomarker-Daten darauf hindeuten, dass die Exposition reduziert werden muss. Drittens muss die praktische Nutzung des Biomarkers allgemein als ethisch vertretbar angesehen werden.
Arbeitshygienemessungen können mit geltenden Expositionsgrenzwerten verglichen werden. Ebenso können Ergebnisse zu Expositions-Biomarkern oder Wirkungs-Biomarkern mit biologischen Aktionsgrenzen verglichen werden, die manchmal als biologische Expositionsindizes bezeichnet werden. Solche Grenzwerte sollten auf den besten Ratschlägen von Klinikern und Wissenschaftlern aus geeigneten Disziplinen beruhen, und verantwortliche Administratoren als „Risikomanager“ sollten dann relevante ethische, soziale, kulturelle und wirtschaftliche Faktoren berücksichtigen. Die wissenschaftliche Grundlage sollte nach Möglichkeit Dosis-Wirkungs-Beziehungen umfassen, ergänzt durch Informationen über unterschiedliche Empfindlichkeiten innerhalb der Risikopopulation. In einigen Ländern sind Arbeitnehmer und Mitglieder der breiten Öffentlichkeit am Standardsetzungsprozess beteiligt und leisten wichtige Beiträge, insbesondere wenn die wissenschaftliche Unsicherheit beträchtlich ist. Eine der größten Unsicherheiten besteht darin, wie eine gesundheitsschädigende Wirkung definiert werden soll, die verhindert werden sollte – zum Beispiel, ob die Adduktbildung als Expositions-Biomarker an sich eine schädigende Wirkung (dh Wirkungs-Biomarker) darstellt, die verhindert werden sollte. Schwierige Fragen stellen sich wahrscheinlich bei der Entscheidung, ob es ethisch vertretbar ist, für dieselbe Verbindung unterschiedliche Grenzwerte für zufällige Exposition einerseits und berufliche Exposition andererseits zu haben.
Die durch den Einsatz von Biomarkern generierten Informationen sollten den untersuchten Personen grundsätzlich im Rahmen der Arzt-Patienten-Beziehung übermittelt werden. Ethische Bedenken sind insbesondere im Zusammenhang mit sehr experimentellen Biomarkeranalysen zu berücksichtigen, die derzeit nicht im Detail im Hinblick auf tatsächliche Gesundheitsrisiken interpretiert werden können. Für die Allgemeinbevölkerung gibt es beispielsweise derzeit nur begrenzte Leitlinien zur Interpretation von anderen Expositions-Biomarkern als der Blutbleikonzentration. Ebenfalls von Bedeutung ist das Vertrauen in die generierten Daten (dh ob eine angemessene Probenahme durchgeführt wurde und ob in dem beteiligten Labor solide Qualitätssicherungsverfahren angewendet wurden). Ein weiterer Bereich besonderer Sorge betrifft die individuelle Überempfindlichkeit. Diese Aspekte müssen bei der Bereitstellung des Feedbacks aus der Studie berücksichtigt werden.
Alle Bereiche der Gesellschaft, die von einer Biomarker-Studie betroffen sind oder an deren Durchführung beteiligt sind, müssen in den Entscheidungsprozess über den Umgang mit den durch die Studie generierten Informationen einbezogen werden. Spezifische Verfahren zur Vermeidung oder Überwindung unvermeidlicher ethischer Konflikte sollten innerhalb der rechtlichen und sozialen Rahmenbedingungen der Region oder des Landes entwickelt werden. Jede Situation stellt jedoch eine andere Reihe von Fragen und Fallstricken dar, und es kann kein einziges Verfahren zur Beteiligung der Öffentlichkeit entwickelt werden, das alle Anwendungen von Expositions-Biomarkern abdeckt.
Das Konzept der Vigilanz bezieht sich auf den Wachzustand eines menschlichen Beobachters bei Aufgaben, die eine effiziente Registrierung und Verarbeitung von Signalen erfordern. Die Hauptmerkmale von Wachsamkeitsaufgaben sind eine relativ lange Dauer und die Anforderung, seltene und unvorhersehbare Zielreize (Signale) vor dem Hintergrund anderer Reizereignisse zu erkennen.
Wachsamkeitsaufgaben
Die prototypische Aufgabe für die Vigilanzforschung war die des Radaroperators. Historisch gesehen war ihre offensichtlich unbefriedigende Leistung während des Zweiten Weltkriegs ein wichtiger Impuls für die umfassende Untersuchung der Wachsamkeit. Eine weitere wichtige Aufgabe, die Wachsamkeit erfordert, ist eine industrielle Inspektion. Allgemeiner ausgedrückt beinhalten alle Arten von Überwachungsaufgaben, die die Erkennung relativ seltener Signale erfordern, das Risiko, dass diese kritischen Ereignisse nicht erkannt und nicht darauf reagiert werden.
Vigilanzaufgaben bilden ein heterogenes Set und unterscheiden sich trotz ihrer gemeinsamen Merkmale in mehreren Dimensionen. Eine offensichtlich wichtige Dimension ist die Gesamtreizrate sowie die Rate der Zielreize. Die Stimulusrate lässt sich nicht immer eindeutig definieren. Dies ist der Fall bei Aufgaben, die die Erkennung von Zielereignissen gegen kontinuierlich dargebotene Hintergrundreize erfordern, wie bei der Erkennung kritischer Werte auf einer Reihe von Skalen in einer Überwachungsaufgabe. Eine weniger offensichtlich wichtige Unterscheidung ist die zwischen Aufgaben mit sukzessiver Unterscheidung und Aufgaben mit gleichzeitiger Unterscheidung. Bei simultanen Diskriminierungsaufgaben sind sowohl Zielreize als auch Hintergrundreize gleichzeitig vorhanden, während bei sukzessiven Diskriminierungsaufgaben einer nach dem anderen dargeboten wird, so dass einige Anforderungen an das Gedächtnis gestellt werden. Obwohl die meisten Wachsamkeitsaufgaben die Erkennung visueller Stimuli erfordern, wurden auch Stimuli in anderen Modalitäten untersucht. Reize können auf einen einzigen räumlichen Ort beschränkt sein, oder es können verschiedene Quellen für Zielreize vorhanden sein. Zielreize können sich von Hintergrundreizen durch physikalische Eigenschaften unterscheiden, aber auch durch eher konzeptionelle Eigenschaften (wie ein bestimmtes Muster von Zählerständen, das sich von anderen Mustern unterscheiden kann). Natürlich kann die Auffälligkeit von Zielen variieren: Einige können leicht erkannt werden, während andere möglicherweise nur schwer von Hintergrundreizen unterschieden werden können. Zielstimuli können einzigartig sein, oder es kann Sätze von Zielstimuli ohne klar definierte Grenzen geben, um sie von Hintergrundstimuli abzugrenzen, wie es bei vielen industriellen Inspektionsaufgaben der Fall ist. Diese Liste von Dimensionen, in denen sich Wachsamkeitsaufgaben unterscheiden, kann erweitert werden, aber selbst diese Länge der Liste reicht aus, um die Heterogenität von Wachsamkeitsaufgaben und damit die Risiken zu betonen, die mit der Verallgemeinerung bestimmter Beobachtungen über den gesamten Satz verbunden sind.
Leistungsvariationen und das Vigilanz-Dekrement
Das am häufigsten verwendete Leistungsmaß bei Vigilanzaufgaben ist der Anteil der erkannten Zielreize, beispielsweise fehlerhafte Produkte in der Industrieinspektion; dies ist eine Schätzung der Wahrscheinlichkeit von sog Hits. Die unbemerkt bleibenden Zielreize werden aufgerufen vermisst. Obwohl die Trefferquote ein praktisches Maß ist, ist sie etwas unvollständig. Es gibt eine triviale Strategie, mit der man 100% Treffer erzielen kann: man muss nur alle Reize als Ziele klassifizieren. Allerdings geht die Trefferquote von 100 % dann mit einer Fehlalarmquote von 100 % einher, dh es werden nicht nur die Zielreize richtig erkannt, sondern auch die Hintergrundreize werden falsch „erkannt“. Diese Argumentation macht deutlich, dass es bei Fehlalarmen wichtig ist, neben der Trefferquote auch deren Anteil zu kennen. Ein weiteres Maß für die Leistung bei einer Wachsamkeitsaufgabe ist die Zeit, die benötigt wird, um auf Zielreize zu reagieren (Reaktionszeit).
Die Leistung bei Vigilanzaufgaben weist zwei typische Merkmale auf. Der erste ist die insgesamt niedrige Vigilanzleistung. Sie ist gering im Vergleich zu einer idealen Situation für die gleichen Stimuli (kurze Beobachtungszeiträume, hohe Bereitschaft des Beobachters für jede Diskriminierung etc.). Das zweite Attribut ist das sogenannte Vigilanz-Dekrement, der Leistungsabfall im Laufe der Uhr, der bereits in den ersten Minuten einsetzen kann. Diese beiden Beobachtungen beziehen sich auf den Anteil der Treffer, wurden aber auch für Antwortzeiten berichtet. Obwohl das Vigilanz-Dekrement typisch für Vigilanzaufgaben ist, ist es nicht universell.
Bei der Untersuchung der Ursachen von schlechter Gesamtleistung und Vigilanzminderungen wird zwischen Konzepten unterschieden, die sich auf die grundlegenden Eigenschaften der Aufgabe beziehen, und Konzepten, die sich auf organismische und aufgabenunabhängige Situationsfaktoren beziehen. Bei den aufgabenbezogenen Faktoren können strategische und nicht-strategische unterschieden werden.
Strategische Prozesse in Vigilanzaufgaben
Das Erkennen eines Signals wie eines fehlerhaften Produkts ist teilweise eine Frage der Strategie des Beobachters und teilweise eine Frage der Unterscheidbarkeit des Signals. Diese Unterscheidung basiert auf der Theorie der Signaldetektion (TSD), und einige Grundlagen der Theorie müssen vorgestellt werden, um die Bedeutung der Unterscheidung hervorzuheben. Stellen Sie sich eine hypothetische Variable vor, die als „Beweis für das Vorhandensein eines Signals“ definiert ist. Immer wenn ein Signal präsentiert wird, nimmt diese Variable einen gewissen Wert an, und wenn ein Hintergrundstimulus präsentiert wird, nimmt sie einen Wert an, der im Durchschnitt niedriger ist. Es wird angenommen, dass der Wert der Nachweisvariablen über wiederholte Präsentationen des Signals hinweg variiert. Daher kann sie durch eine sogenannte Wahrscheinlichkeitsdichtefunktion charakterisiert werden, wie in Abbildung 1 dargestellt. Eine andere Dichtefunktion charakterisiert die Werte der Evidenzvariable bei Präsentation eines Hintergrundreizes. Wenn die Signale den Hintergrundreizen ähnlich sind, überlappen sich die Funktionen, so dass ein bestimmter Wert der Evidenzvariablen entweder von einem Signal oder von einem Hintergrundreiz stammen kann. Die besondere Form der Dichtefunktionen von Abbildung 1 ist für die Argumentation nicht wesentlich.
Abbildung 1. Schwellenwerte und Unterscheidbarkeit
Die Detektionsantwort des Beobachters basiert auf der Beweisvariablen. Es wird angenommen, dass ein Schwellenwert festgelegt wird, so dass eine Erkennungsantwort immer dann gegeben wird, wenn der Wert der Evidenzvariablen über dem Schwellenwert liegt. Wie in Abbildung 1 dargestellt, entsprechen die Flächen unter den Dichtefunktionen rechts vom Schwellwert den Wahrscheinlichkeiten von Treffern und Fehlalarmen. In der Praxis können Schätzungen der Trennung der zwei Funktionen und der Position der Schwelle abgeleitet werden. Die Trennung der beiden Dichtefunktionen charakterisiert die Unterscheidbarkeit der Zielreize von den Hintergrundreizen, während die Lage der Schwelle die Strategie des Beobachters charakterisiert. Eine Variation der Schwelle erzeugt eine gemeinsame Variation der Anteile von Treffern und Fehlalarmen. Bei einer hohen Schwelle sind die Anteile von Treffern und Fehlalarmen gering, bei einer niedrigen Schwelle sind die Anteile groß. Die Auswahl einer Strategie (Setzen der Schwelle) ist also im Wesentlichen die Auswahl einer bestimmten Kombination aus Trefferquote und Fehlalarmrate unter den Kombinationen, die für eine bestimmte Unterscheidbarkeit möglich sind.
Zwei Hauptfaktoren, die die Position der Schwelle beeinflussen, sind Auszahlungen und Signalfrequenz. Der Schwellenwert wird auf niedrigere Werte eingestellt, wenn durch einen Treffer viel zu gewinnen und durch einen Fehlalarm wenig zu verlieren ist, und er wird auf höhere Werte eingestellt, wenn Fehlalarme kostspielig und die Vorteile von Treffern gering sind. Eine niedrige Schwellenwerteinstellung kann auch durch einen hohen Signalanteil induziert werden, während ein niedriger Signalanteil tendenziell höhere Schwellenwerteinstellungen induziert. Der Einfluss der Signalfrequenz auf die Schwellwerteinstellungen ist ein wesentlicher Faktor für die geringe Gesamtleistung in Bezug auf den Trefferanteil bei Vigilanzaufgaben und für das Vigilanzdekrement.
Eine Berücksichtigung des Vigilance-Dekrements bei strategischen Änderungen (Schwellwertänderungen) erfordert, dass die Reduzierung des Trefferanteils im Wachverlauf mit einer Reduzierung des Fehlalarmanteils einhergeht. Dies ist in der Tat in vielen Studien der Fall, und es ist wahrscheinlich, dass die insgesamt schlechte Leistung bei Vigilanzaufgaben (im Vergleich zur optimalen Situation) zumindest teilweise auch auf eine Schwellenanpassung zurückzuführen ist. Im Laufe einer Überwachung gleicht sich die relative Häufigkeit von Detektionsantworten der relativen Häufigkeit von Zielen an, und diese Anpassung impliziert eine hohe Schwelle mit einem relativ geringen Anteil an Treffern und auch einem relativ geringen Anteil an Fehlalarmen. Dennoch gibt es Wachsamkeitsabnahmen, die eher aus Änderungen der Unterscheidbarkeit als aus Änderungen der Schwellenwerteinstellungen resultieren. Diese wurden vor allem bei sukzessiven Diskriminationsaufgaben mit einer relativ hohen Rate an Stimulusereignissen beobachtet.
Nichtstrategische Prozesse in Vigilanzaufgaben
Obwohl ein Teil der insgesamt schlechten Leistung bei Wachsamkeitsaufgaben und viele Fälle der Wachsamkeitsabnahme im Hinblick auf strategische Anpassungen der Erkennungsschwelle an niedrige Signalraten erklärt werden können, ist eine solche Darstellung nicht vollständig. Während einer Überwachung treten beim Beobachter Veränderungen auf, die die Unterscheidbarkeit von Reizen verringern oder zu scheinbaren Schwellenverschiebungen führen können, die nicht als Anpassung an die Aufgabencharakteristik gewertet werden können. In den mehr als 40 Jahren der Vigilanzforschung wurde eine Reihe nicht strategischer Faktoren identifiziert, die zu einer schlechten Gesamtleistung und zur Abnahme der Vigilanz beitragen.
Eine korrekte Reaktion auf ein Ziel in einer Wachsamkeitsaufgabe erfordert eine ausreichend genaue sensorische Registrierung, eine geeignete Schwellenlage und eine Verbindung zwischen den Wahrnehmungsprozessen und den zugehörigen reaktionsbezogenen Prozessen. Während der Beobachtung müssen die Beobachter eine bestimmte Aufgabenstellung aufrechterhalten, eine bestimmte Bereitschaft, auf Zielreize in einer bestimmten Weise zu reagieren. Dies ist eine nicht triviale Anforderung, da ohne eine bestimmte Aufgabenstellung kein Beobachter auf Zielreize in der erforderlichen Weise reagieren würde. Zwei Hauptquellen für Fehler sind daher eine ungenaue sensorische Registrierung und ein Versäumnis der Bereitschaft, auf Zielreize zu reagieren. Wichtige Hypothesen zur Erklärung solcher Fehler werden kurz überprüft.
Erkennung und Identifizierung eines Stimulus sind schneller, wenn es keine zeitliche oder räumliche Ungewissheit über sein Auftreten gibt. Zeitliche und/oder räumliche Unsicherheit verringert wahrscheinlich die Vigilanzleistung. Dies ist die wesentliche Vorhersage von Erwartungstheorie. Optimale Bereitschaft des Beobachters erfordert zeitliche und räumliche Sicherheit; Offensichtlich sind Wachsamkeitsaufgaben in dieser Hinsicht nicht optimal. Obwohl das Hauptaugenmerk der Erwartungstheorie auf der insgesamt niedrigen Leistung liegt, kann sie auch dazu dienen, Teile des Vigilanz-Dekrements zu erklären. Bei seltenen Signalen in zufälligen Intervallen kann zu Zeiten, in denen kein Signal präsentiert wird, zunächst ein hohes Maß an Bereitschaft bestehen; Darüber hinaus werden Signale auf niedrigem Bereitschaftsniveau angezeigt. Dies entmutigt gelegentliche hohe Bereitschaftsniveaus im Allgemeinen, so dass alle Vorteile, die sich daraus ergeben, im Laufe einer Wache verschwinden.
Erwartungstheorie hat eine enge Beziehung zu Aufmerksamkeitstheorien. Varianten von Aufmerksamkeitstheorien der Vigilanz sind natürlich mit den vorherrschenden Aufmerksamkeitstheorien im Allgemeinen verwandt. Betrachten Sie Aufmerksamkeit als „Auswahl zur Verarbeitung“ oder „Auswahl zum Handeln“. Stimuli werden nach dieser Sichtweise immer dann aus der Umwelt ausgewählt und mit hoher Effizienz verarbeitet, wenn sie dem gerade vorherrschenden Handlungsplan oder Aufgabenbereich dienen. Wie bereits gesagt, profitiert die Auswahl von genauen Erwartungen darüber, wann und wo solche Reize auftreten werden. Stimuli werden jedoch nur ausgewählt, wenn der Aktionsplan – das Aufgabenset – aktiv ist. (Autofahrer beispielsweise reagieren auf Ampeln, anderen Verkehr etc.; Mitfahrer normalerweise nicht, obwohl beide in fast der gleichen Situation sind. Der entscheidende Unterschied besteht zwischen den Aufgabenstellungen der beiden: nur der Aufgabensatz des Fahrers erfordert Reaktionen auf Ampeln.)
Die Auswahl der Stimuli für die Verarbeitung leidet, wenn der Aktionsplan vorübergehend deaktiviert wird, das heißt, wenn der Aufgabensatz vorübergehend fehlt. Wachsamkeitsaufgaben beinhalten eine Reihe von Merkmalen, die von der kontinuierlichen Aufrechterhaltung des Aufgabensatzes abhalten, wie z. B. kurze Zykluszeiten für die Verarbeitung von Reizen, fehlendes Feedback und geringe Motivationsherausforderung durch offensichtliche Aufgabenschwierigkeiten. Bei fast allen einfachen kognitiven Aufgaben mit kurzen Zykluszeiten wie einfachen Kopfrechnen oder schnellen Serienreaktionen auf einfache Signale lassen sich sogenannte Blockaden beobachten. Ähnliche Blockaden treten auch bei der Aufrechterhaltung des Aufgabensatzes in einer Wachsamkeitsaufgabe auf. Sie sind nicht sofort als verspätete Antworten erkennbar, da Antworten selten sind und Ziele, die während eines Zeitraums des abwesenden Aufgabensatzes präsentiert werden, möglicherweise nicht mehr da sind, wenn die Abwesenheit vorbei ist, so dass ein Fehlschlag anstelle einer verzögerten Antwort beobachtet wird. Blockierungen werden mit der Zeit, die für die Aufgabe aufgewendet wird, häufiger. Dies kann zu einem Wachsamkeitsdekrement führen. Es kann zusätzliche Gründe für vorübergehende Aussetzer in der Verfügbarkeit des entsprechenden Aufgabensatzes geben, zum Beispiel Ablenkung.
Bestimmte Stimuli werden nicht im Dienste des aktuellen Aktionsplans ausgewählt, sondern aufgrund ihrer eigenen Eigenschaften. Dies sind Reize, die intensiv, neuartig sind, sich auf den Beobachter zubewegen, einen abrupten Beginn haben oder aus irgendeinem anderen Grund ein sofortiges Handeln erfordern könnten, unabhängig davon, wie der aktuelle Aktionsplan des Beobachters aussieht. Es besteht ein geringes Risiko, solche Stimuli nicht zu erkennen. Sie ziehen automatisch Aufmerksamkeit auf sich, was beispielsweise durch die Orientierungsantwort angezeigt wird, die eine Verschiebung der Blickrichtung auf die Reizquelle beinhaltet. Das Antworten auf eine Alarmglocke wird jedoch normalerweise nicht als Wachsamkeitsaufgabe angesehen. Neben Reizen, die durch ihre eigenen Eigenschaften Aufmerksamkeit erregen, gibt es Reize, die als Folge der Übung automatisch verarbeitet werden. Sie scheinen aus der Umgebung herauszuspringen. Diese Art der automatischen Verarbeitung erfordert eine längere Übung mit einem sogenannten konsistenten Mapping, also einer konsistenten Zuordnung von Reaktionen zu Reizen. Das Wachsamkeitsdekrement ist wahrscheinlich gering oder fehlt sogar, sobald die automatische Verarbeitung von Stimuli entwickelt wurde.
Schließlich leidet die Wachsamkeitsleistung unter einem Mangel an Erregung. Dieses Konzept bezieht sich auf ziemlich globale Weise auf die Intensität der neuronalen Aktivität, die von Schlaf über normale Wachheit bis hin zu hoher Erregung reicht. Einer der Faktoren, von denen angenommen wird, dass sie die Erregung beeinflussen, ist die externe Stimulation, und diese ist bei den meisten Wachsamkeitsaufgaben ziemlich niedrig und gleichmäßig. Somit kann die Intensität der Aktivität des Zentralnervensystems im Laufe einer Uhr insgesamt abnehmen. Ein wichtiger Aspekt der Erregungstheorie besteht darin, dass sie die Wachsamkeitsleistung mit verschiedenen aufgabenunabhängigen Situationsfaktoren und Faktoren im Zusammenhang mit dem Organismus verknüpft.
Der Einfluss situativer und organischer Faktoren
Eine geringe Erregung trägt zu einer schlechten Leistung bei Wachsamkeitsaufgaben bei. So kann die Leistung durch situative Faktoren gesteigert werden, die eher die Erregung steigern, und sie kann durch alle Maßnahmen reduziert werden, die das Erregungsniveau reduzieren. Insgesamt ist diese Verallgemeinerung für das Gesamtleistungsniveau bei Wachsamkeitsaufgaben größtenteils richtig, aber die Auswirkungen auf das Wachsamkeitsdekrement sind bei verschiedenen Arten der Erregungsmanipulation nicht oder weniger zuverlässig zu beobachten.
Eine Möglichkeit, den Erregungspegel zu erhöhen, ist die Einführung von zusätzlichem Lärm. Das Vigilanz-Dekrement bleibt jedoch im Allgemeinen unbeeinflusst, und in Bezug auf die Gesamtleistung sind die Ergebnisse uneinheitlich: Es wurden erhöhte, unveränderte und verringerte Leistungsniveaus beobachtet. Vielleicht ist die komplexe Natur des Rauschens relevant. Zum Beispiel kann es affektiv neutral oder nervig sein; es kann nicht nur erregend sein, sondern auch ablenken. Konsistenter sind die Auswirkungen von Schlafentzug, der „de-erregend“ ist. Es verringert im Allgemeinen die Wachsamkeitsleistung und es wurde manchmal beobachtet, dass es die Wachsamkeitsverringerung erhöht. Entsprechende Veränderungen der Vigilanzleistung wurden auch bei dämpfenden Medikamenten wie Benzodiazepinen oder Alkohol und Stimulanzien wie Amphetamin, Koffein oder Nikotin beobachtet.
Individuelle Unterschiede sind ein auffälliges Leistungsmerkmal bei Vigilanzaufgaben. Obwohl individuelle Unterschiede nicht bei allen Arten von Wachsamkeitsaufgaben konsistent sind, sind sie bei ähnlichen Aufgaben ziemlich konsistent. Geschlecht und allgemeine Intelligenz haben nur einen geringen oder keinen Einfluss. Mit zunehmendem Alter nimmt die Vigilanzleistung im Kindesalter zu und nimmt ab dem XNUMX. Lebensjahr tendenziell ab. Außerdem besteht eine gute Chance, dass Introvertierte bessere Leistungen zeigen als Extrovertierte.
Die Verbesserung der Vigilanzleistung
Die bestehenden Theorien und Daten legen einige Mittel zur Verbesserung der Vigilanzleistung nahe. Je nach Konkretheit der Vorschläge ist es nicht schwierig, Listen unterschiedlicher Länge zusammenzustellen. Im Folgenden werden einige ziemlich allgemeine Vorschläge gemacht, die an spezifische Aufgabenanforderungen angepasst werden müssen. Sie beziehen sich auf die Leichtigkeit der Wahrnehmungsdiskriminierung, die geeigneten strategischen Anpassungen, die Verringerung von Unsicherheit, die Vermeidung der Auswirkungen von Aufmerksamkeitsstörungen und die Aufrechterhaltung der Erregung.
Vigilanzaufgaben erfordern Unterscheidungen unter nicht optimalen Bedingungen. Man ist also gut beraten, die Unterscheidung möglichst einfach, bzw. die Signale möglichst auffällig zu gestalten. Maßnahmen im Zusammenhang mit diesem allgemeinen Ziel können einfach (wie angemessene Beleuchtung oder längere Inspektionszeiten pro Produkt) oder anspruchsvoller sein, einschließlich spezieller Geräte zur Verbesserung der Auffälligkeit von Zielen. Gleichzeitige Vergleiche sind einfacher als aufeinanderfolgende, daher kann die Verfügbarkeit eines Referenzstandards hilfreich sein. Durch technische Hilfsmittel ist es teilweise möglich, den Standard und das zu untersuchende Objekt in schnellem Wechsel darzustellen, so dass Unterschiede als Bewegungen in der Anzeige oder andere Veränderungen, für die das visuelle System besonders empfindlich ist, in Erscheinung treten.
Um den strategischen Änderungen des Schwellenwerts entgegenzuwirken, die zu einem relativ geringen Anteil an korrekten Erkennungen von Zielen führen (und um die Aufgabe hinsichtlich der Häufigkeit der zu ergreifenden Maßnahmen weniger langweilig zu gestalten), wurde vorgeschlagen, gefälschte Ziele einzuführen. Dies scheint jedoch keine gute Empfehlung zu sein. Gefälschte Ziele werden den Anteil der Treffer insgesamt erhöhen, jedoch auf Kosten häufigerer Fehlalarme. Außerdem wird der Anteil unerkannter Ziele an allen Stimuli, auf die nicht reagiert wird (das ausgehende fehlerhafte Material bei einer industriellen Inspektionsaufgabe), nicht unbedingt reduziert. Besser geeignet scheinen explizite Kenntnisse über die relative Bedeutung von Treffern und Fehlalarmen und ggf. andere Maßnahmen zu sein, um eine angemessene Platzierung der Schwelle für die Entscheidung zwischen „gut“ und „schlecht“ zu erreichen.
Zeitliche und räumliche Unsicherheit sind wichtige Determinanten einer schlechten Vigilanzleistung. Bei manchen Aufgabenstellungen kann die räumliche Unsicherheit reduziert werden, indem eine bestimmte Position des zu inspizierenden Objekts definiert wird. Gegen die zeitliche Unsicherheit kann jedoch wenig getan werden: Der Beobachter wäre bei einer Wachsamkeitsaufgabe unnötig, wenn das Auftreten eines Ziels vor seiner Präsentation signalisiert werden könnte. Grundsätzlich ist es aber möglich, zu prüfende Objekte zu mischen, wenn Fehler büschelweise auftreten; dies dient dazu, sowohl sehr lange Intervalle ohne Ziele als auch sehr kurze Intervalle zu vermeiden.
Es gibt einige offensichtliche Vorschläge zur Reduzierung von Aufmerksamkeitsstörungen oder zumindest deren Auswirkungen auf die Leistung. Durch richtiges Training kann vielleicht eine Art automatische Verarbeitung von Zielen erreicht werden, vorausgesetzt, dass die Hintergrund- und Zielstimuli nicht zu variabel sind. Durch häufige Kurzpausen, Jobrotation, Job-Enlargement oder Job-Enrichment kann die Forderung nach nachhaltiger Aufrechterhaltung des Aufgabensets vermieden werden. Die Einführung von Sorten kann so einfach sein, dass der Inspektor selbst das zu inspizierende Material aus einer Kiste oder einem anderen Ort holt. Dies führt auch eine Selbstabstimmung ein, die dabei helfen kann, Signalpräsentationen während vorübergehender Deaktivierungen des Aufgabensatzes zu vermeiden. Die nachhaltige Aufrechterhaltung des Aufgabensatzes kann durch Rückmeldungen, bekundetes Interesse von Vorgesetzten und das Bewusstsein des Bedieners für die Wichtigkeit der Aufgabe unterstützt werden. Natürlich ist eine genaue Rückmeldung des Leistungsniveaus bei typischen Wachsamkeitsaufgaben nicht möglich; aber auch ungenaue oder unvollständige Rückmeldungen können für die Motivation des Beobachters hilfreich sein.
Es gibt einige Maßnahmen, die ergriffen werden können, um ein ausreichendes Erregungsniveau aufrechtzuerhalten. Kontinuierlicher Drogenkonsum kann in der Praxis vorkommen, wird aber nie unter den Empfehlungen gefunden. Etwas Hintergrundmusik kann nützlich sein, kann aber auch einen gegenteiligen Effekt haben. Soziale Isolation bei Vigilanzaufgaben sollte weitgehend vermieden werden, und in Tageszeiten mit geringer Erregung wie in den späten Nachtstunden sind unterstützende Maßnahmen wie kurze Wachen besonders wichtig.
Die Bewertung der genetischen Toxizität ist die Bewertung von Wirkstoffen auf ihre Fähigkeit, eine der drei allgemeinen Arten von Veränderungen (Mutationen) im genetischen Material (DNA) hervorzurufen: Gen, Chromosomen und Genom. In Organismen wie dem Menschen bestehen die Gene aus DNA, die aus einzelnen Einheiten besteht, die Nukleotidbasen genannt werden. Die Gene sind in diskreten physikalischen Strukturen angeordnet, die als Chromosomen bezeichnet werden. Genotoxizität kann erhebliche und irreversible Auswirkungen auf die menschliche Gesundheit haben. Genotoxische Schäden sind ein entscheidender Schritt bei der Entstehung von Krebs und können auch an der Entstehung von Geburtsfehlern und fötalem Tod beteiligt sein. Die drei oben erwähnten Klassen von Mutationen können in jeder der beiden Arten von Geweben auftreten, die Organismen wie Menschen besitzen: Spermien oder Eier (Keimzellen) und das übrige Gewebe (somatische Zellen).
Assays, die Genmutationen messen, sind solche, die die Substitution, Addition oder Deletion von Nukleotiden innerhalb eines Gens nachweisen. Assays, die chromosomale Mutationen messen, sind solche, die Brüche oder chromosomale Umlagerungen nachweisen, an denen ein oder mehrere Chromosomen beteiligt sind. Assays, die genomische Mutationen messen, sind solche, die Veränderungen in der Anzahl der Chromosomen erkennen, ein Zustand, der als Aneuploidie bezeichnet wird. Die Bewertung der genetischen Toxizität hat sich seit der Entwicklung des ersten Assays zum Nachweis genotoxischer (mutagener) Wirkstoffe durch Herman Muller im Jahr 1927 erheblich verändert. Seitdem wurden mehr als 200 Assays entwickelt, die Mutationen in der DNA messen; jedoch werden heute üblicherweise weniger als zehn Assays zur Bewertung der genetischen Toxizität verwendet. Dieser Artikel gibt einen Überblick über diese Assays, beschreibt, was sie messen, und untersucht die Rolle dieser Assays bei der Toxizitätsbewertung.
Identifizierung von KrebsgefahrenVor der Entwicklung des Bereich der genetischen Toxikologie
Die genetische Toxikologie ist zu einem integralen Bestandteil des gesamten Risikobewertungsprozesses geworden und hat in letzter Zeit als zuverlässiger Prädiktor für krebserzeugende Aktivität an Bedeutung gewonnen. Vor der Entwicklung der genetischen Toxikologie (vor 1970) wurden und werden jedoch andere Methoden verwendet, um potenzielle Krebsgefahren für den Menschen zu identifizieren. Es gibt sechs Hauptkategorien von Methoden, die derzeit zur Identifizierung von Krebsrisiken beim Menschen verwendet werden: epidemiologische Studien, langfristige In-vivo-Bioassays, mittelfristige In-vivo-Bioassays, kurzfristige In-vivo- und In-vitro-Bioassays, künstliche Intelligenz (Struktur-Aktivität), und mechanismusbasierte Inferenz.
Tabelle 1 gibt Vor- und Nachteile dieser Methoden an.
Tabelle 1. Vor- und Nachteile aktueller Methoden zur Identifizierung menschlicher Krebsrisiken
Vorteile | Nachteile | |
Epidemiologische Studien | (1) Menschen sind die ultimativen Krankheitsindikatoren; (2) empfindliche oder anfällige Populationen zu bewerten; (3) berufliche Expositionskohorten; (4) Umweltwächterwarnungen |
(1) im Allgemeinen retrospektiv (Sterbeurkunden, Erinnerungsverzerrungen usw.); (2) unsensibel, kostspielig, langwierig; (3) zuverlässige Expositionsdaten, die manchmal nicht verfügbar oder schwer zu beschaffen sind; (4) kombinierte, mehrfache und komplexe Expositionen; Fehlen geeigneter Kontrollkohorten; (5) Experimente an Menschen nicht durchgeführt; (6) Krebserkennung, nicht Prävention |
Langzeit-in-vivo-Bioassays | (1) prospektive und retrospektive (Validierungs-)Bewertungen; (2) ausgezeichnete Korrelation mit identifizierten menschlichen Karzinogenen; (3) bekannte Expositionsniveaus und -bedingungen; (4) identifiziert chemische Toxizitäts- und Karzinogenitätswirkungen; (5) relativ schnell erhaltene Ergebnisse; (6) qualitative Vergleiche zwischen chemischen Klassen; (7) integrative und interaktive biologische Systeme, die eng mit dem Menschen verwandt sind | (1) selten repliziert, ressourcenintensiv; (3) begrenzte Einrichtungen, die für solche Experimente geeignet sind; (4) Debatte über Artenextrapolation; (5) die verwendeten Expositionen liegen oft weit über denen, denen Menschen ausgesetzt sind; (6) Die Exposition gegenüber einer einzelnen Chemikalie entspricht nicht der Exposition des Menschen, die im Allgemeinen mehreren Chemikalien gleichzeitig ausgesetzt ist |
Mittel- und kurzfristige In-vivo- und In-vitro-Bioassays | (1) schneller und kostengünstiger als andere Assays; (2) große Proben, die leicht repliziert werden können; (3) biologisch bedeutsame Endpunkte werden gemessen (Mutation usw.); (4) können als Screening-Assays verwendet werden, um Chemikalien für Langzeit-Bioassays auszuwählen |
(1) in vitro nicht vollständig prädiktiv für in vivo; (2) normalerweise organismus- oder organspezifisch; (3) Potenzen, die nicht mit ganzen Tieren oder Menschen vergleichbar sind |
Verbindungen zwischen chemischer Struktur und biologischer Aktivität | (1) relativ einfach, schnell und kostengünstig; (2) zuverlässig für bestimmte chemische Klassen (z. B. Nitrosamine und Benzidin-Farbstoffe); (3) aus biologischen Daten entwickelt, aber nicht von zusätzlichen biologischen Experimenten abhängig | (1) nicht „biologisch“; (2) viele Ausnahmen von formulierten Regeln; (3) retrospektiv und selten (aber zunehmend) prospektiv |
Mechanismusbasierte Schlussfolgerungen | (1) ziemlich genau für bestimmte Klassen von Chemikalien; (2) erlaubt Verfeinerungen von Hypothesen; (3) können Risikobewertungen auf empfindliche Bevölkerungsgruppen ausrichten | (1) Mechanismen der chemischen Karzinogenese undefiniert, mehrfach und wahrscheinlich chemikalien- oder klassenspezifisch; (2) kann es versäumen, Ausnahmen von allgemeinen Mechanismen hervorzuheben |
Begründung und konzeptionelle Grundlage für genetische Toxikologie-Assays
Obwohl sich die genaue Art und Anzahl der für die Bewertung der genetischen Toxizität verwendeten Assays ständig weiterentwickeln und von Land zu Land unterschiedlich sind, umfassen die gebräuchlichsten Assays für (1) Genmutationen in Bakterien und/oder kultivierten Säugetierzellen und (2) Chromosomenmutationen in kultivierte Säugetierzellen und/oder Knochenmark in lebenden Mäusen. Einige der Assays innerhalb dieser zweiten Kategorie können auch Aneuploidie nachweisen. Obwohl diese Assays keine Mutationen in Keimzellen nachweisen, werden sie hauptsächlich wegen der zusätzlichen Kosten und der Komplexität der Durchführung von Keimzellassays verwendet. Dennoch werden Keimzellassays an Mäusen verwendet, wenn Informationen über Keimzellwirkungen erwünscht sind.
Systematische Studien über einen Zeitraum von 25 Jahren (1970-1995), insbesondere beim US National Toxicology Program in North Carolina, haben zur Verwendung einer diskreten Anzahl von Assays zum Nachweis der mutagenen Aktivität von Mitteln geführt. Die Begründung für die Bewertung der Nützlichkeit der Assays basierte auf ihrer Fähigkeit, Mittel nachzuweisen, die bei Nagetieren Krebs verursachen und die im Verdacht stehen, beim Menschen Krebs zu verursachen (dh Karzinogene). Denn Studien der letzten Jahrzehnte haben gezeigt, dass Krebszellen Mutationen in bestimmten Genen enthalten und dass viele Karzinogene auch Mutagene sind. Daher wird angenommen, dass Krebszellen somatische Zellmutationen enthalten, und Karzinogenese wird als eine Art von somatischer Zellmutagenese angesehen.
Die heute am häufigsten verwendeten genetischen Toxizitätsassays wurden nicht nur wegen ihrer großen Datenbank, relativ niedrigen Kosten und einfachen Durchführung ausgewählt, sondern weil sie gezeigt haben, dass sie viele Nagetier- und vermutlich auch menschliche Karzinogene nachweisen. Folglich werden genetische Toxizitätstests verwendet, um die potenzielle Karzinogenität von Wirkstoffen vorherzusagen.
Eine wichtige konzeptionelle und praktische Entwicklung auf dem Gebiet der genetischen Toxikologie war die Erkenntnis, dass viele Karzinogene durch Enzyme im Körper modifiziert werden, wodurch veränderte Formen (Metaboliten) entstehen, die häufig die ultimative karzinogene und mutagene Form der Ausgangschemikalie darstellen. Um diesen Metabolismus in einer Petrischale zu duplizieren, zeigte Heinrich Malling, dass die Zugabe eines Präparats aus Nagetierleber viele der Enzyme enthielt, die notwendig sind, um diese metabolische Umwandlung oder Aktivierung durchzuführen. Daher verwenden viele genetische Toxizitätsassays, die in Schalen oder Röhrchen (in vitro) durchgeführt werden, die Zugabe ähnlicher Enzympräparate. Einfache Präparate werden als S9-Mix und gereinigte Präparate als Mikrosomen bezeichnet. Einige Bakterien- und Säugetierzellen wurden nun gentechnisch verändert, um einige der Gene von Nagetieren oder Menschen zu enthalten, die diese Enzyme produzieren, wodurch die Notwendigkeit reduziert wird, S9-Mix oder Mikrosomen hinzuzufügen.
Genetische Toxikologie-Assays und -Techniken
Die primären bakteriellen Systeme, die für das genetische Toxizitäts-Screening verwendet werden, sind der Salmonella (Ames)-Mutagenitätstest und, in viel geringerem Ausmaß, der Stamm WP2 von Escherichia coli. Studien Mitte der 1980er Jahre zeigten, dass die Verwendung von nur zwei Stämmen des Salmonella-Systems (TA98 und TA100) ausreichte, um etwa 90 % der bekannten Salmonella-Mutagene nachzuweisen. Somit werden diese zwei Stämme für die meisten Screening-Zwecke verwendet; Es stehen jedoch verschiedene andere Stämme für umfangreichere Tests zur Verfügung.
Diese Assays werden auf verschiedene Weise durchgeführt, aber zwei allgemeine Verfahren sind die Platten-Inkorporations- und Flüssigsuspensions-Assays. Beim Platten-Inkorporations-Assay werden die Zellen, die Testchemikalie und (falls gewünscht) das S9 zusammen in einen verflüssigten Agar gegeben und auf die Oberfläche einer Agar-Petriplatte gegossen. Der Top-Agar härtet innerhalb weniger Minuten aus, und die Platten werden zwei bis drei Tage lang inkubiert. Nach dieser Zeit sind mutierte Zellen gewachsen, um visuell erkennbare Zellcluster, sogenannte Kolonien, zu bilden, die dann gezählt werden. Das Agar-Medium enthält selektive Mittel oder ist aus Bestandteilen zusammengesetzt, so dass nur die neu mutierten Zellen wachsen werden. Der Flüssigkeitsinkubationsassay ist ähnlich, außer dass die Zellen, das Testmittel und S9 zusammen in einer Flüssigkeit inkubiert werden, die keinen verflüssigten Agar enthält, und dann die Zellen von dem Testmittel und S9 freigewaschen und auf dem Agar ausgesät werden.
Mutationen in kultivierten Säugetierzellen werden hauptsächlich in einem von zwei Genen nachgewiesen: hpt und tk. Ähnlich wie bei den bakteriellen Assays werden Säugetierzelllinien (aus Nagetier- oder menschlichen Zellen entwickelt) dem Testmittel in Plastikkulturschalen oder -röhrchen ausgesetzt und dann in Kulturschalen ausgesät, die Medium mit einem selektiven Mittel enthalten, das nur das Wachstum mutierter Zellen zulässt . Die für diesen Zweck verwendeten Assays schließen den CHO/HPRT, den TK6 und das Maus-Lymphom L5178Y/TK ein+/- Tests. Andere Zelllinien, die verschiedene DNA-Reparaturmutationen sowie einige am Stoffwechsel beteiligte menschliche Gene enthalten, werden ebenfalls verwendet. Diese Systeme ermöglichen die Wiederherstellung von Mutationen innerhalb des Gens (Genmutation) sowie von Mutationen, die Bereiche des Chromosoms betreffen, die das Gen flankieren (chromosomale Mutation). Diese letztere Art von Mutation wird jedoch in viel größerem Ausmaß durch die wiederhergestellt tk Gensysteme als durch die hpt Gensysteme aufgrund der Lage der tk Gen.
Ähnlich wie der Flüssiginkubationsassay auf bakterielle Mutagenität umfassen Mutagenitätsassays von Säugetierzellen im Allgemeinen das mehrstündige Aussetzen der Zellen in Kulturschalen oder -röhrchen in Gegenwart des Testmittels und S9. Die Zellen werden dann gewaschen, für einige weitere Tage kultiviert, damit die normalen (Wildtyp-)Genprodukte abgebaut und die neu mutierten Genprodukte exprimiert und angereichert werden können, und dann werden sie in Medium ausgesät, das ein selektives Mittel enthält, das dies zulässt nur die mutierten Zellen wachsen. Wie bei den bakteriellen Assays wachsen die mutierten Zellen zu visuell nachweisbaren Kolonien heran, die dann gezählt werden.
Chromosomenmutationen werden hauptsächlich durch zytogenetische Assays identifiziert, bei denen Nagetiere und/oder Nagetier- oder menschliche Zellen in Kulturschalen einer Testchemikalie ausgesetzt werden, eine oder mehrere Zellteilungen stattfinden können, die Chromosomen gefärbt werden und die Chromosomen dann visuell durch ein Mikroskop untersucht werden um Veränderungen in der Struktur oder Anzahl der Chromosomen zu erkennen. Obwohl eine Vielzahl von Endpunkten untersucht werden können, sind die beiden, die derzeit von den Aufsichtsbehörden als die aussagekräftigsten akzeptiert werden, Chromosomenaberrationen und eine Unterkategorie namens Mikronuklei.
Um Zellen auf das Vorhandensein von Chromosomenaberrationen zu untersuchen, sind erhebliche Schulungen und Fachkenntnisse erforderlich, was dies zu einem zeit- und kostenintensiven Verfahren macht. Im Gegensatz dazu erfordern Mikronuklei wenig Training und ihre Erkennung kann automatisiert werden. Mikrokerne erscheinen als kleine Punkte innerhalb der Zelle, die sich vom Kern unterscheiden, der die Chromosomen enthält. Mikrokerne entstehen entweder durch Chromosomenbruch oder durch Aneuploidie. Aufgrund der Leichtigkeit, Mikrokerne im Vergleich zu Chromosomenaberrationen zu bestimmen, und weil neuere Studien darauf hindeuten, dass Mittel, die Chromosomenaberrationen im Knochenmark von lebenden Mäusen induzieren, im Allgemeinen Mikrokerne in diesem Gewebe induzieren, werden Mikrokerne heute allgemein als Hinweis auf die Fähigkeit einer gemessen Mittel zur Induktion chromosomaler Mutationen.
Keimzellassays werden zwar weitaus seltener eingesetzt als die anderen oben beschriebenen Assays, sind aber unverzichtbar, um festzustellen, ob ein Agens ein Risiko für die Keimzellen darstellt, deren Mutationen zu gesundheitlichen Auswirkungen auf nachfolgende Generationen führen können. Die am häufigsten verwendeten Keimzellen-Assays finden bei Mäusen statt und umfassen Systeme, die (1) erbliche Translokationen (Austausche) zwischen Chromosomen (erblicher Translokations-Assay), (2) Gen- oder Chromosomenmutationen nachweisen, an denen spezifische Gene (sichtbarer oder biochemischer spezifischer Locus) beteiligt sind Assays) und (3) Mutationen, die die Lebensfähigkeit beeinträchtigen (Dominant-Letal-Assay). Wie bei den somatischen Zellassays besteht die Arbeitsannahme bei den Keimzellassays darin, dass in diesen Assays positive Mittel als potenzielle humane Keimzellmutagene angesehen werden.
Aktueller Stand und Zukunftsaussichten
Jüngste Studien haben gezeigt, dass nur drei Informationen erforderlich waren, um etwa 90 % einer Reihe von 41 Nagetier-Karzinogenen (dh mutmaßliche menschliche Karzinogene und somatische Zellmutagene) nachzuweisen. Dazu gehörten (1) Kenntnisse der chemischen Struktur des Mittels, insbesondere wenn es elektrophile Einheiten enthält (siehe Abschnitt über Struktur-Wirkungs-Beziehungen); (2) Salmonella-Mutagenitätsdaten; und (3) Daten aus einem 90-Tage-Test auf chronische Toxizität bei Nagetieren (Mäuse und Ratten). Tatsächlich sind im Wesentlichen alle von der IARC deklarierten menschlichen Karzinogene allein mit dem Salmonella-Assay und dem Maus-Knochenmark-Mikronukleus-Assay als Mutagen nachweisbar. Die Verwendung dieser Mutagenitätstests zum Nachweis potenzieller menschlicher Karzinogene wird weiter gestützt durch die Erkenntnis, dass die meisten menschlichen Karzinogene sowohl bei Ratten als auch bei Mäusen karzinogen sind (trans-species Karzinogene) und dass die meisten trans-species Karzinogene bei Salmonellen mutagen sind und/oder Mikronuklei induzieren im Knochenmark der Maus.
Mit Fortschritten in der DNA-Technologie, dem Humangenomprojekt und einem besseren Verständnis der Rolle von Mutationen bei Krebs werden neue Genotoxizitätsassays entwickelt, die wahrscheinlich in Standard-Screening-Verfahren integriert werden. Dazu gehören die Verwendung von transgenen Zellen und Nagetieren. Transgene Systeme sind solche, bei denen ein Gen einer anderen Spezies in eine Zelle oder einen Organismus eingeführt wurde. Zum Beispiel werden jetzt transgene Mäuse experimentell verwendet, die den Nachweis von Mutationen in jedem Organ oder Gewebe des Tieres ermöglichen, basierend auf der Einführung eines bakteriellen Gens in die Maus. Bakterienzellen wie Salmonella und Säugetierzellen (einschließlich menschlicher Zelllinien) sind jetzt verfügbar, die Gene enthalten, die am Metabolismus von karzinogenen/mutagenen Stoffen beteiligt sind, wie die P450-Gene. Molekulare Analyse der tatsächlichen Mutationen, die im Transgen innerhalb transgener Nagetiere oder innerhalb nativer Gene wie z hpt, oder der Zielgene in Salmonella können jetzt durchgeführt werden, so dass die genaue Art der durch die Chemikalien induzierten Mutationen bestimmt werden kann, Einblicke in den Wirkungsmechanismus der Chemikalie erhalten und Vergleiche mit Mutationen bei Menschen ermöglichen, die mutmaßlich dem Agens ausgesetzt waren .
Molekulare Fortschritte in der Zytogenetik erlauben jetzt eine detailliertere Bewertung chromosomaler Mutationen. Dazu gehört die Verwendung von Sonden (kleine DNA-Stücke), die an bestimmte Gene binden (hybridisieren). Neuanordnungen von Genen auf dem Chromosom können dann durch die veränderte Position der Sonden aufgedeckt werden, die fluoreszieren und leicht als farbige Sektoren auf den Chromosomen sichtbar gemacht werden. Der Einzelzell-Gelelektrophorese-Assay für DNA-Brüche (allgemein als „Comet“-Assay bezeichnet) ermöglicht den Nachweis von DNA-Brüchen innerhalb einzelner Zellen und kann in Kombination mit zytogenetischen Techniken zu einem äußerst nützlichen Werkzeug zum Nachweis von Chromosomenschäden werden.
Nach vielen Jahren der Nutzung und dem Aufbau einer großen und systematisch aufgebauten Datenbank kann die genetische Toxizitätsbewertung nun mit nur wenigen Assays zu relativ geringen Kosten in kurzer Zeit (wenige Wochen) durchgeführt werden. Die erzeugten Daten können verwendet werden, um die Fähigkeit eines Mittels vorherzusagen, ein Nagetier und vermutlich menschliches Karzinogen/Mutagen somatischer Zellen zu sein. Eine solche Fähigkeit ermöglicht es, das Einbringen von mutagenen und karzinogenen Stoffen in die Umwelt zu begrenzen und alternative, nicht mutagene Stoffe zu entwickeln. Zukünftige Studien sollten zu noch besseren Methoden mit größerer Vorhersagekraft als die derzeitigen Assays führen.
HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."