27. Biologische Überwachung
Kapitelherausgeber: Robert Lauwerys
Inhaltsverzeichnis
Allgemeine Grundsätze
Vito Foà und Lorenzo Alessio
Qualitätssicherung
D. Gompertz
Metalle und metallorganische Verbindungen
P. Hoet und Robert Lauwerys
Organische Lösungsmittel
Masayuki Ikeda
Genotoxische Chemikalien
Marja Sorsa
Pestizide
Marco Maroni und Adalberto Ferioli
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. ACGIH, DFG & andere Grenzwerte für Metalle
2. Beispiele für Chemikalien- und biologisches Monitoring
3. Biologische Überwachung auf organische Lösungsmittel
4. Genotoxizität von Chemikalien, bewertet von IARC
5. Biomarker und einige Zell-/Gewebeproben und Genotoxizität
6. Menschliche Karzinogene, berufliche Exposition und zytogenetische Endpunkte
8. Exposition durch Produktion und Verwendung von Pestiziden
9. Akute OP-Toxizität bei verschiedenen Graden der ACHE-Hemmung
10 Variationen von ACHE & PCHE & ausgewählten Gesundheitszuständen
11 Cholinesterase-Aktivitäten von nicht exponierten gesunden Menschen
12 Alkylphosphate im Urin und OP-Pestizide
13 Alkylphosphatmessungen im Urin & OP
14 Carbamat-Metaboliten im Urin
15 Dithiocarbamat-Metaboliten im Urin
16 Vorgeschlagene Indizes für die biologische Überwachung von Pestiziden
17 Empfohlene biologische Grenzwerte (Stand 1996)
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
28. Epidemiologie und Statistik
Kapitel-Editoren: Franco Merletti, Colin L. Soskolne und Paolo Vineis
Epidemiologische Methode für Arbeitssicherheit und Gesundheitsschutz
Franco Merletti, Colin L. Soskolne und Paolo Vineis
Expositionsbewertung
M. Gerald Ott
Zusammenfassung der Expositionsmaßnahmen im Arbeitsleben
Colin L. Soskolne
Messung der Auswirkungen von Expositionen
Shelia Hoar Zahm
Fallbeispiel: Maßnahmen
Franco Merletti, Colin L. Soskolne und Paola Vineis
Optionen im Studiendesign
Sven Herberg
Validitätsprobleme im Studiendesign
Annie J. Sasco
Einfluss zufälliger Messfehler
Paolo Vineis und Colin L. Soskolne
Statistische Methoden
Annibale Biggeri und Mario Braga
Kausalitätsbewertung und Ethik in der epidemiologischen Forschung
Paolo Vineis
Fallstudien zur Veranschaulichung methodischer Probleme bei der Überwachung von Berufskrankheiten
Jung-Der Wang
Fragebögen in der epidemiologischen Forschung
Steven D. Stellman und Colin L. Soskolne
Asbest Historische Perspektive
Laurent Garfinkel
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Fünf ausgewählte zusammenfassende Maßnahmen zur Exposition im Berufsleben
2. Maße für das Auftreten von Krankheiten
3. Assoziationsmaße für eine Kohortenstudie
4. Assoziationsmaße für Fall-Kontroll-Studien
5. Allgemeines Häufigkeitstabellenlayout für Kohortendaten
6. Musterlayout von Fallkontrolldaten
7. Layout-Fallkontrolldaten – eine Kontrolle pro Fall
8. Hypothetische Kohorte von 1950 Individuen zu T2
9. Indizes der zentralen Tendenz und Streuung
10 Ein binomiales Experiment & Wahrscheinlichkeiten
11 Mögliche Ergebnisse eines binomialen Experiments
12 Binomialverteilung, 15 Erfolge/30 Versuche
13 Binomialverteilung, p = 0.25; 30 Versuche
14 Fehler XNUMX. Art & Leistung; x = 12, n = 30, a = 0.05
15 Fehler XNUMX. Art & Leistung; x = 12, n = 40, a = 0.05
16 632 Arbeitnehmer, die 20 Jahre oder länger Asbest ausgesetzt waren
17 O/E Zahl der Todesfälle unter 632 Asbestarbeitern
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
29. Ergonomie
Kapitel-Editoren: Wolfgang Laurig und Joachim Vedder
Inhaltsverzeichnis
Überblick
Wolfgang Laurig und Joachim Vedder
Wesen und Ziele der Ergonomie
William T. Singleton
Analyse von Aktivitäten, Aufgaben und Arbeitssystemen
Véronique De Keyser
Ergonomie und Standardisierung
Friedhelm Nachreiner
Prüflisten
Pranab Kumar Nag
Anthropometrie
Melchiorre Masali
Muskelarbeit
Juhani Smolander und Veikko Louhevaara
Körperhaltungen bei der Arbeit
Ilkka Kurinka
Biomechanik
Frank Darby
Allgemeine Müdigkeit
Etienne Grandjean
Müdigkeit und Erholung
Rolf Helbig und Walter Rohmert
Geistige Arbeitsbelastung
Winfried Hacker
Wachsamkeit
Herbert Heuer
Geistige Müdigkeit
Peter Richter
Arbeitsorganisation
Eberhard Ulich und Gudela Grote
Schlafentzug
Kazutaka Kogi
Workstations
Roland Kadefors
Tools
TM Fraser
Bedienelemente, Anzeigen und Bedienfelder
Karl HE Kroemer
Informationsverarbeitung und Design
Andries F. Sanders
Entwerfen für bestimmte Gruppen
Witz H. Grady-van den Nieuwboer
Fallstudie: Die internationale Klassifikation der Funktionseinschränkung beim Menschen
Kulturelle Unterschiede
Houshang Shahnavaz
Ältere Arbeitnehmer
Antoine Laville und Serge Volkoff
Arbeitnehmer mit besonderen Bedürfnissen
Witz H. Grady-van den Nieuwboer
Systemdesign in der Diamantherstellung
Issachar Gilad
Missachtung ergonomischer Gestaltungsprinzipien: Tschernobyl
Wladimir M. Munipov
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Grundlegende anthropometrische Kernliste
2. Ermüdung und Erholung abhängig vom Aktivitätsniveau
3. Regeln der Kombinationswirkung zweier Stressfaktoren auf die Belastung
4. Es wird zwischen mehreren negativen Folgen psychischer Belastung unterschieden
5. Arbeitsorientierte Prinzipien zur Produktionsgestaltung
6. Partizipation im organisatorischen Kontext
7. Benutzerbeteiligung am Technologieprozess
8. Unregelmäßige Arbeitszeiten und Schlafentzug
9. Aspekte von Früh-, Anker- und Verzögerungsschlaf
10 Kontrollieren Sie Bewegungen und erwartete Effekte
11 Steuerungs-Wirkungs-Beziehungen gängiger Handsteuerungen
12 Regeln für die Anordnung von Kontrollen
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
30. Arbeitshygiene
Kapitel-Editor: Robert F. Herrick
Inhaltsverzeichnis
Ziele, Definitionen und allgemeine Informationen
Berenice I. Ferrari Goelzer
Gefahren erkennen
Linnea Lillienberg
Bewertung der Arbeitsumgebung
Lori A. Todd
Arbeitshygiene: Expositionskontrolle durch Intervention
James Stewart
Die biologische Grundlage für die Expositionsbewertung
Dick Heederik
Arbeitsplatzgrenzwerte
Dennis J. Pausenbach
1. Gefahren durch Chemikalien; biologische und physikalische Wirkstoffe
2. Arbeitsplatzgrenzwerte (OELs) – verschiedene Länder
31. Persönlicher Schutz
Kapitel-Editor: Robert F. Herrick
Inhaltsverzeichnis
Überblick und Philosophie des Personenschutzes
Robert F. Herrick
Augen- und Gesichtsschutz
Kikuzi Kimura
Fuß- und Beinschutz
Toyohiko Miura
Kopfschutz
Isabelle Balty und Alain Mayer
Gehörschutz
John R. Franks und Elliott H. Berger
Schutzkleidung
S.Zack Mansdorf
Atemschutz
Thomas J. Nelson
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Transmissionsanforderungen (ISO 4850-1979)
2. Schutzmaßstäbe - Gasschweißen & Lötschweißen
3. Schutzwaage - Sauerstoffschneiden
4. Schutzmaßstäbe - Plasmalichtbogenschneiden
5. Schutzwaagen - Lichtbogenschweißen oder Fugenhobeln
6. Schutzmaßstäbe - Plasma-Lichtbogen-Direktschweißen
7. Schutzhelm: ISO-Norm 3873-1977
8. Geräuschreduzierungsbewertung eines Gehörschutzes
9. Berechnung der A-bewerteten Rauschunterdrückung
10 Beispiele für Hautgefahrenkategorien
11 Physikalische, chemische und biologische Leistungsanforderungen
12 Sachgefahren im Zusammenhang mit bestimmten Tätigkeiten
13 Zugewiesene Schutzfaktoren aus ANSI Z88 2 (1992)
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
32. Aufzeichnungssysteme und Überwachung
Kapitel-Editor: Steven D. Stellman
Inhaltsverzeichnis
Überwachungs- und Meldesysteme für Berufskrankheiten
Steven B. Markowitz
Überwachung von Arbeitsgefahren
David H. Wegman und Steven D. Stellman
Überwachung in Entwicklungsländern
David Koh und Kee-Seng Chia
Entwicklung und Anwendung eines Klassifizierungssystems für Arbeitsunfälle und Berufskrankheiten
Elyce Biddle
Risikoanalyse von nicht tödlichen Verletzungen und Krankheiten am Arbeitsplatz
John W. Ruser
Fallstudie: Arbeitnehmerschutz und Statistiken zu Unfällen und Berufskrankheiten - HVBG, Deutschland
Martin Butz und Burkhard Hoffmann
Fallstudie: Wismut – Eine Neuauflage der Uranexposition
Heinz Otten und Horst Schulz
Messstrategien und -techniken für die berufsbedingte Expositionsabschätzung in der Epidemiologie
Frank Bochmann und Helmut Blome
Fallstudie: Arbeitsmedizinische Erhebungen in China
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Angiosarkom der Leber - Weltregister
2. Berufskrankheit, USA, 1986 versus 1992
3. US-Todesfälle durch Pneumokoniose und Pleuramesotheliom
4. Musterliste meldepflichtiger Berufskrankheiten
5. Codestruktur für die Meldung von Krankheiten und Verletzungen, USA
6. Nichttödliche Arbeitsunfälle und Berufskrankheiten, USA 1993
7. Risiko von Arbeitsunfällen und Berufskrankheiten
8. Relatives Risiko für sich wiederholende Bewegungszustände
9. Arbeitsunfälle, Deutschland, 1981-93
10 Schleifmaschinen bei Unfällen in der Metallverarbeitung, Deutschland, 1984-93
11 Berufskrankheit, Deutschland, 1980-93
12 Infektionskrankheiten, Deutschland, 1980-93
13 Strahlenbelastung in den Wismut-Bergwerken
14 Berufskrankheiten im Wismuter Uranbergwerk 1952-90
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
33. Toxikologie
Kapitelherausgeberin: Ellen K. Silbergeld
Einleitung
Ellen K. Silbergeld, Kapitelredakteurin
Definitionen und Konzepte
Bo Holmberg, Johan Hogberg und Gunnar Johanson
Toxikokinetik
Dušan Djuric
Zielorgan und kritische Wirkungen
Marek Jakubowski
Auswirkungen von Alter, Geschlecht und anderen Faktoren
Spomenka Telisman
Genetische Determinanten der toxischen Reaktion
Daniel W. Nebert und Ross A. McKinnon
Einführung und Konzepte
Philip G. Watanabe
Zellschädigung und Zelltod
Benjamin F. Trump und Irene K. Berezesky
Genetische Toxikologie
R. Rita Misra und Michael P. Waalkes
Immuntoxikologie
Joseph G. Vos und Henk van Loveren
Zielorgan-Toxikologie
Ellen K. Silbergeld
Biomarker
Philipp Grandjean
Bewertung der genetischen Toxizität
David M. DeMarini und James Huff
In-vitro-Toxizitätstest
Joanne Zürlo
Aktivitätsbeziehungen strukturieren
Ellen K. Silbergeld
Toxikologie in der Gesundheits- und Sicherheitsverordnung
Ellen K. Silbergeld
Prinzipien der Gefahrenidentifizierung - Der japanische Ansatz
Masayuki Ikeda
Der Ansatz der Vereinigten Staaten zur Risikobewertung von reproduktionstoxischen und neurotoxischen Wirkstoffen
Ellen K. Silbergeld
Ansätze zur Gefahrenidentifizierung - IARC
Harri Vainio und Julian Wilbourn
Anhang – Gesamtbewertungen der Karzinogenität beim Menschen: IARC-Monographien, Bände 1–69 (836)
Karzinogen-Risikobewertung: Andere Ansätze
Cees A. van der Heijden
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
Psychische Belastungen sind eine normale Folge des Bewältigungsprozesses mit psychischer Arbeitsbelastung (MWL). Dauerbelastung oder hohe Arbeitsintensität können zu kurzfristigen Folgen von Über- (Müdigkeit) und Unterbelastung (Eintönigkeit, Sättigung) und zu langfristigen Folgen (z. B. Stresssymptome und arbeitsbedingte Erkrankungen) führen. Die Aufrechterhaltung der stabilen Handlungsregulation unter Belastung kann durch Veränderung des Handlungsstils (durch Variation von Informationsfindungs- und Entscheidungsstrategien), durch Absenkung des Leistungsbedarfs (durch Neudefinition von Aufgaben) realisiert werden und Abbau von Qualitätsstandards) und durch eine kompensatorische Steigerung der psychophysiologischen Belastung und anschließende Reduktion der Belastung während der Arbeitszeit.
Dieses Verständnis des Prozesses der psychischen Belastung kann als transaktionaler Prozess der Handlungsregulation bei der Auferlegung von Belastungsfaktoren konzeptualisiert werden, die neben den negativen Komponenten des Belastungsprozesses auch die positiven Aspekte des Lernens wie Akkretion, Tuning und Restrukturierung beinhalten Motivation (siehe Abbildung 2).
Abbildung 1. Bestandteile des Dehnungsprozesses und seine Folgen
Psychische Erschöpfung kann als ein Prozess der zeitreversiblen Abnahme der Verhaltensstabilität in Leistung, Stimmung und Aktivität nach längerer Arbeitszeit definiert werden. Dieser Zustand ist temporär reversibel durch Veränderung der Arbeitsanforderungen, der Umwelteinflüsse oder Reize und durch Schlaf vollständig reversibel.
Geistige Erschöpfung ist eine Folge der Ausführung von Aufgaben mit hohem Schwierigkeitsgrad, die überwiegend Informationsverarbeitung beinhalten und/oder von längerer Dauer sind. Im Gegensatz zur Monotonie, die Erholung der Dekremente ist zeitaufwändig und tritt nicht plötzlich nach sich ändernden Aufgabenbedingungen auf. Ermüdungserscheinungen werden auf mehreren Ebenen der Verhaltensregulation identifiziert: Fehlregulation in der biologischen Homöostase zwischen Umwelt und Organismus, Fehlregulation in den kognitiven Prozessen zielgerichteten Handelns und Stabilitätsverlust in zielgerichteter Motivation und Leistungsniveau.
Symptome geistiger Erschöpfung können in allen Subsystemen des menschlichen Informationsverarbeitungssystems identifiziert werden:
Differentialdiagnostik der psychischen Ermüdung
Zur Abgrenzung von psychischer Erschöpfung, Monotonie, psychischer Erschöpfung und Stress (im engeren Sinne) liegen genügend Kriterien vor (Tab. 1).
Tabelle 1. Differenzierung mehrerer negativer Folgen psychischer Belastung
Eigenschaften |
Geistige Müdigkeit |
Monotonie |
Sättigung |
Stress |
Wesentliche |
Schlechte Passform in Bezug auf Überlastung |
Schlechte Passform in Bezug auf |
Verlust des wahrgenommenen Sinns für Aufgaben |
Tore wahrgenommen |
Stimmung |
Müdigkeit ohne |
Müdigkeit mit |
Reizbarkeit |
Angst, Bedrohung |
Emotionen |
Neutral |
Neutral |
Erhöhte affektive Abneigung |
Erhöhte Angst |
Aktivierung |
Ständig |
Nicht durchgehend |
Mehr |
Mehr |
Recovery |
Zeitaufwendig |
Plötzlich nach Aufgabenwechsel |
? |
Langfristig |
abwehr |
Aufgabengestaltung, |
Bereicherung der Arbeitsinhalte |
Ziele setzen |
Arbeitsplatz neu gestalten, |
Grade der geistigen Ermüdung
Die gut beschriebene Phänomenologie der psychischen Ermüdung (Schmidtke 1965), viele gültige Erhebungsmethoden und die große Menge an experimentellen und Feldergebnissen bieten die Möglichkeit einer ordinalen Skalierung von Graden der psychischen Ermüdung (Hacker und Richter 1994). Die Skalierung basiert auf der Fähigkeit des Individuums, mit Verhaltensdekrementen fertig zu werden:
Niveau 1: Optimale und effiziente Leistung: keine Anzeichen von Leistungs-, Stimmungs- und Aktivierungsminderung.
Niveau 2: Vollständige Kompensation, gekennzeichnet durch erhöhte periphere psychophysiologische Aktivierung (z. B. gemessen durch Elektromyogramm der Fingermuskulatur), wahrgenommene Steigerung der mentalen Anstrengung, erhöhte Variabilität der Leistungskriterien.
Niveau 3: Labile Kompensation zusätzlich zu der in Stufe 2 beschriebenen: Handlungsfehler, wahrgenommene Müdigkeit, zunehmende (kompensatorische) psychophysiologische Aktivität in zentralen Indikatoren, Herzfrequenz, Blutdruck.
Niveau 4: Reduzierte Effizienz zusätzlich zu der in Stufe 3 beschriebenen: Abnahme der Leistungskriterien.
Niveau 5: Noch weitere Funktionsstörungen: Störungen in den sozialen Beziehungen und der Zusammenarbeit am Arbeitsplatz; Symptome klinischer Erschöpfung wie Verlust der Schlafqualität und vitale Erschöpfung.
Vorbeugung gegen geistige Ermüdung
Die Gestaltung von Aufgabenstrukturen, Umgebung, Ruhezeiten während der Arbeitszeit und ausreichend Schlaf sind die Mittel, um Symptome der psychischen Ermüdung zu reduzieren, damit keine klinischen Folgen auftreten:
1. Änderungen in der Aufgabenstruktur. Die Gestaltung von Voraussetzungen für eine adäquate Lern- und Aufgabenstrukturierung ist nicht nur ein Mittel, um die Entwicklung effizienter Arbeitsstrukturen voranzutreiben, sondern ist auch unerlässlich, um einer Fehlanpassung im Sinne einer psychischen Über- oder Unterforderung vorzubeugen:
2. Einführung von Systemen für Kurzzeitpausen während der Arbeit. Die positiven Auswirkungen solcher Pausen hängen von der Einhaltung einiger Voraussetzungen ab. Mehr kurze Pausen sind effizienter als weniger lange Pausen; Wirkungen hängen von einem festen und damit vorhersehbaren Zeitplan ab; und die Pauseninhalte sollten eine Ausgleichsfunktion zu den körperlichen und geistigen Arbeitsanforderungen haben.
3. Ausreichend Entspannung und Schlaf. Spezielle Mitarbeiter-Assistenz-Programme und Stressbewältigungstechniken können die Entspannungsfähigkeit unterstützen und der Entstehung chronischer Müdigkeit vorbeugen (Sethi, Caro und Schuler 1987).
Das Aufkommen anspruchsvoller Technologien in der Molekular- und Zellbiologie hat eine relativ schnelle Entwicklung in den Biowissenschaften, einschließlich der Toxikologie, vorangetrieben. Tatsächlich verlagert sich der Fokus der Toxikologie von ganzen Tieren und Populationen ganzer Tiere auf die Zellen und Moleküle einzelner Tiere und Menschen. Seit Mitte der 1980er Jahre haben Toxikologen damit begonnen, diese neuen Methoden zur Bewertung der Auswirkungen von Chemikalien auf lebende Systeme einzusetzen. Als logische Weiterentwicklung werden solche Methoden für Zwecke der Toxizitätsprüfung angepasst. Diese wissenschaftlichen Fortschritte haben mit sozialen und wirtschaftlichen Faktoren zusammengearbeitet, um eine Änderung bei der Bewertung der Produktsicherheit und des potenziellen Risikos zu bewirken.
Wirtschaftliche Faktoren beziehen sich insbesondere auf die Menge der zu testenden Materialien. Jedes Jahr werden unzählige neue Kosmetika, Arzneimittel, Pestizide, Chemikalien und Haushaltsprodukte auf den Markt gebracht. Alle diese Produkte müssen auf ihre potenzielle Toxizität bewertet werden. Darüber hinaus gibt es einen Rückstand an Chemikalien, die bereits verwendet werden und nicht ausreichend getestet wurden. Die enorme Aufgabe, detaillierte Sicherheitsinformationen zu all diesen Chemikalien mit herkömmlichen Ganztierversuchsmethoden zu erhalten, wäre sowohl zeit- als auch kostenintensiv, wenn sie überhaupt bewältigt werden könnte.
Es gibt auch gesellschaftliche Probleme im Zusammenhang mit der öffentlichen Gesundheit und Sicherheit sowie die zunehmende Besorgnis der Öffentlichkeit über die Verwendung von Tieren für Produktsicherheitstests. Im Hinblick auf die menschliche Sicherheit haben Interessengruppen des öffentlichen Interesses und des Umweltschutzes erheblichen Druck auf Regierungsbehörden ausgeübt, strengere Vorschriften für Chemikalien anzuwenden. Ein aktuelles Beispiel dafür war eine Bewegung einiger Umweltgruppen, Chlor und chlorhaltige Verbindungen in den Vereinigten Staaten zu verbieten. Einer der Beweggründe für solch ein extremes Vorgehen liegt in der Tatsache, dass die meisten dieser Verbindungen nie ausreichend getestet wurden. Aus toxikologischer Sicht ist das Konzept, eine ganze Klasse verschiedener Chemikalien nur aufgrund des Vorhandenseins von Chlor zu verbieten, sowohl wissenschaftlich als auch unverantwortlich. Es ist jedoch verständlich, dass aus Sicht der Öffentlichkeit eine gewisse Sicherheit bestehen muss, dass in die Umwelt freigesetzte Chemikalien kein erhebliches Gesundheitsrisiko darstellen. Eine solche Situation unterstreicht die Notwendigkeit effizienterer und schnellerer Methoden zur Bewertung der Toxizität.
Das andere gesellschaftliche Anliegen, das sich auf den Bereich der Toxizitätstests ausgewirkt hat, ist der Tierschutz. Die wachsende Zahl von Tierschutzgruppen auf der ganzen Welt hat erheblichen Widerstand gegen die Verwendung ganzer Tiere für Produktsicherheitstests geäußert. Es wurden aktive Kampagnen gegen Hersteller von Kosmetika, Haushalts- und Körperpflegeprodukten und Arzneimitteln geführt, um Tierversuche zu stoppen. Diese Bemühungen in Europa haben zur Verabschiedung der Sechsten Änderung der Richtlinie 76/768/EWG (Kosmetikrichtlinie) geführt. Die Folge dieser Richtlinie ist, dass kosmetische Mittel oder kosmetische Inhaltsstoffe, die nach dem 1. Januar 1998 an Tieren getestet wurden, nicht in der Europäischen Union vermarktet werden dürfen, es sei denn, alternative Methoden sind unzureichend validiert. Obwohl diese Richtlinie keine Zuständigkeit für den Verkauf solcher Produkte in den Vereinigten Staaten oder anderen Ländern hat, wird sie Unternehmen mit internationalen Märkten, einschließlich Europa, erheblich beeinträchtigen.
Das Konzept der Alternativen, das die Grundlage für die Entwicklung von anderen Tests als denen an ganzen Tieren bildet, wird von den dreien definiert Rs: Reduktion in der Anzahl der verwendeten Tiere; Raffinesse von Protokollen, damit die Tiere weniger Stress oder Unbehagen erfahren; und Ersatz von aktuellen Tierversuchen mit In-vitro-Tests (dh Tests, die außerhalb des lebenden Tieres durchgeführt werden), Computermodellen oder Tests an niederen Wirbeltieren oder wirbellosen Arten. Die Drei Rs wurden in einem Buch vorgestellt, das 1959 von zwei britischen Wissenschaftlern, WMS Russell und Rex Burch, veröffentlicht wurde. Die Prinzipien der humanen experimentellen Technik. Russell und Burch behaupteten, dass der einzige Weg, auf dem gültige wissenschaftliche Ergebnisse erzielt werden könnten, die humane Behandlung von Tieren sei, und waren der Ansicht, dass Methoden entwickelt werden sollten, um die Verwendung von Tieren zu reduzieren und sie letztendlich zu ersetzen. Interessanterweise fanden die von Russell und Burch umrissenen Prinzipien bis zum Wiederaufleben der Tierschutzbewegung Mitte der 1970er Jahre wenig Beachtung. Heute das Konzept der Drei Rs ist in Bezug auf Forschung, Erprobung und Ausbildung ganz vorne mit dabei.
Zusammenfassend lässt sich sagen, dass die Entwicklung von In-vitro-Testmethoden von einer Vielzahl von Faktoren beeinflusst wurde, die in den letzten zehn bis 20 Jahren zusammengekommen sind. Es ist schwer festzustellen, ob einer dieser Faktoren allein eine so tiefgreifende Wirkung auf die Toxizitätsteststrategien gehabt hätte.
Konzept der In-vitro-Toxizitätstests
Dieser Abschnitt konzentriert sich ausschließlich auf In-vitro-Methoden zur Bewertung der Toxizität als eine der Alternativen zu Ganztierversuchen. Weitere nicht-tierische Alternativen wie Computermodellierung und quantitative Struktur-Wirkungs-Beziehungen werden in anderen Artikeln dieses Kapitels diskutiert.
In-vitro-Studien werden im Allgemeinen in tierischen oder menschlichen Zellen oder Geweben außerhalb des Körpers durchgeführt. In vitro bedeutet wörtlich „in Glas“ und bezieht sich auf Verfahren, die an lebendem Material oder Bestandteilen von lebendem Material durchgeführt werden, das in Petrischalen oder in Reagenzgläsern unter definierten Bedingungen kultiviert wird. Diese können In-vivo-Studien oder Studien, die „am lebenden Tier“ durchgeführt werden, gegenübergestellt werden. Während es schwierig, wenn nicht sogar unmöglich ist, die Auswirkungen einer Chemikalie auf einen komplexen Organismus zu prognostizieren, wenn die Beobachtungen auf einen einzigen Zelltyp in einer Schale beschränkt sind, liefern In-vitro-Studien auch eine beträchtliche Menge an Informationen über die intrinsische Toxizität als zelluläre und molekulare Toxizitätsmechanismen. Darüber hinaus bieten sie viele Vorteile gegenüber In-vivo-Studien, da sie im Allgemeinen kostengünstiger sind und unter besser kontrollierten Bedingungen durchgeführt werden können. Darüber hinaus können diese Methoden trotz der Tatsache, dass immer noch eine kleine Anzahl von Tieren benötigt wird, um Zellen für In-vitro-Kulturen zu erhalten, als Reduktionsalternativen (da im Vergleich zu In-vivo-Studien viel weniger Tiere verwendet werden) und Verfeinerungsalternativen (weil sie die Notwendigkeit beseitigen) betrachtet werden Tiere den nachteiligen toxischen Folgen von In-vivo-Experimenten auszusetzen).
Um die Ergebnisse von In-vitro-Toxizitätstests zu interpretieren, ihre potenzielle Nützlichkeit bei der Bewertung der Toxizität zu bestimmen und sie mit dem gesamten toxikologischen Prozess in vivo in Beziehung zu setzen, ist es notwendig zu verstehen, welcher Teil des toxikologischen Prozesses untersucht wird. Der gesamte toxikologische Prozess besteht aus Ereignissen, die damit beginnen, dass der Organismus einem physikalischen oder chemischen Mittel ausgesetzt wird, sich durch zelluläre und molekulare Wechselwirkungen weiterentwickeln und sich schließlich in der Reaktion des gesamten Organismus manifestieren. In-vitro-Tests beschränken sich im Allgemeinen auf den Teil des toxikologischen Prozesses, der auf zellulärer und molekularer Ebene stattfindet. Zu den Arten von Informationen, die aus In-vitro-Studien gewonnen werden können, gehören Stoffwechselwege, Wechselwirkung aktiver Metaboliten mit zellulären und molekularen Zielen und potenziell messbare toxische Endpunkte, die als molekulare Biomarker für die Exposition dienen können. Im Idealfall wäre der Toxizitätsmechanismus jeder Chemikalie aufgrund der Exposition gegenüber Organismen bekannt, sodass die aus In-vitro-Tests erhaltenen Informationen vollständig interpretiert und mit der Reaktion des gesamten Organismus in Beziehung gesetzt werden könnten. Dies ist jedoch praktisch unmöglich, da relativ wenige vollständige toxikologische Mechanismen aufgeklärt wurden. Daher sind Toxikologen mit einer Situation konfrontiert, in der die Ergebnisse eines In-vitro-Tests nicht als völlig genaue Vorhersage der In-vivo-Toxizität verwendet werden können, da der Mechanismus unbekannt ist. Jedoch werden während des Entwicklungsprozesses eines In-vitro-Tests häufig Komponenten der zellulären und molekularen Toxizitätsmechanismen aufgeklärt.
Eine der zentralen ungelösten Fragen bei der Entwicklung und Durchführung von In-vitro-Tests hängt mit der folgenden Überlegung zusammen: Sollen sie mechanistisch fundiert sein oder reicht es, wenn sie deskriptiv sind? Aus wissenschaftlicher Sicht ist es unbestreitbar besser, nur mechanistisch basierte Tests als Ersatz für In-vivo-Tests einzusetzen. In Ermangelung vollständiger mechanistischer Kenntnisse ist die Aussicht, In-vitro-Tests zu entwickeln, die Ganztierversuche in naher Zukunft vollständig ersetzen, jedoch nahezu gleich Null. Dies schließt jedoch die Verwendung von aussagekräftigeren Arten von Assays als frühe Screening-Instrumente nicht aus, was derzeit der Fall ist. Diese Screens haben zu einer deutlichen Reduzierung des Einsatzes von Tieren geführt. Bis zu dem Zeitpunkt, an dem mehr mechanistische Informationen generiert werden, kann es daher erforderlich sein, in begrenztem Umfang Tests anzuwenden, deren Ergebnisse einfach gut mit den in vivo erhaltenen korrelieren.
In-vitro-Tests auf Zytotoxizität
In diesem Abschnitt werden mehrere In-vitro-Tests beschrieben, die zur Bewertung des zytotoxischen Potenzials einer Chemikalie entwickelt wurden. Diese Tests sind größtenteils einfach durchzuführen und die Analyse kann automatisiert werden. Ein häufig verwendeter In-vitro-Test für Zytotoxizität ist der Neutralrot-Assay. Dieser Assay wird an Zellen in Kultur durchgeführt, und für die meisten Anwendungen können die Zellen in Kulturschalen gehalten werden, die 96 kleine Vertiefungen mit jeweils 6.4 mm Durchmesser enthalten. Da jede Vertiefung für eine einzelne Bestimmung verwendet werden kann, kann diese Anordnung mehrere Konzentrationen der Prüfchemikalie sowie Positiv- und Negativkontrollen mit jeweils einer ausreichenden Anzahl von Wiederholungen aufnehmen. Nach der Behandlung der Zellen mit verschiedenen Konzentrationen der Prüfchemikalie im Bereich von mindestens zwei Größenordnungen (z. B. von 0.01 mM bis 1 mM) sowie Positiv- und Negativkontrollchemikalien werden die Zellen gespült und mit Neutralrot behandelt, a Farbstoff, der nur von lebenden Zellen aufgenommen und zurückgehalten werden kann. Der Farbstoff kann nach dem Entfernen der Prüfchemikalie hinzugefügt werden, um unmittelbare Wirkungen zu bestimmen, oder er kann zu verschiedenen Zeitpunkten nach dem Entfernen der Prüfchemikalie hinzugefügt werden, um kumulative oder verzögerte Wirkungen zu bestimmen. Die Intensität der Farbe in jeder Vertiefung entspricht der Anzahl lebender Zellen in dieser Vertiefung. Die Farbintensität wird mit einem Spektrophotometer gemessen, das mit einem Plattenlesegerät ausgestattet sein kann. Der Plattenleser ist so programmiert, dass er einzelne Messungen für jede der 96 Vertiefungen der Kulturschale liefert. Diese automatisierte Methodik ermöglicht es dem Forscher, schnell ein Konzentrations-Wirkungs-Experiment durchzuführen und statistisch nützliche Daten zu erhalten.
Ein weiterer relativ einfacher Assay für Zytotoxizität ist der MTT-Test. MTT (3[4,5-Dimethylthiazol-2-yl]-2,5-Diphenyltetrazoliumbromid) ist ein Tetrazolium-Farbstoff, der durch mitochondriale Enzyme zu einer blauen Farbe reduziert wird. Nur Zellen mit lebensfähigen Mitochondrien behalten die Fähigkeit, diese Reaktion durchzuführen; daher steht die Farbintensität in direktem Zusammenhang mit dem Grad der mitochondrialen Integrität. Dies ist ein nützlicher Test zum Nachweis allgemeiner zytotoxischer Verbindungen sowie von Mitteln, die spezifisch auf Mitochondrien abzielen.
Die Messung der Laktatdehydrogenase (LDH)-Aktivität wird auch als breit angelegter Assay für Zytotoxizität verwendet. Dieses Enzym ist normalerweise im Zytoplasma lebender Zellen vorhanden und wird durch undichte Zellmembranen von toten oder sterbenden Zellen, die durch ein toxisches Mittel beeinträchtigt wurden, in das Zellkulturmedium freigesetzt. Kleine Mengen des Kulturmediums können zu verschiedenen Zeitpunkten nach der chemischen Behandlung der Zellen entfernt werden, um die Menge an freigesetztem LDH zu messen und den Zeitverlauf der Toxizität zu bestimmen. Während der LDH-Freisetzungstest eine sehr allgemeine Bewertung der Zytotoxizität ist, ist er nützlich, da er einfach durchzuführen ist und in Echtzeit durchgeführt werden kann.
Es werden viele neue Methoden entwickelt, um Zellschäden zu erkennen. Anspruchsvollere Methoden verwenden fluoreszierende Sonden, um eine Vielzahl von intrazellulären Parametern zu messen, wie z. B. die Calciumfreisetzung und Änderungen des pH-Werts und des Membranpotentials. Im Allgemeinen sind diese Sonden sehr empfindlich und können subtilere zelluläre Veränderungen erkennen, wodurch die Notwendigkeit, den Zelltod als Endpunkt zu verwenden, reduziert wird. Zusätzlich können viele dieser Fluoreszenz-Assays durch die Verwendung von 96-Well-Platten und Fluoreszenzplatten-Lesegeräten automatisiert werden.
Sobald Daten zu einer Reihe von Chemikalien mit einem dieser Tests gesammelt wurden, können die relativen Toxizitäten bestimmt werden. Die relative Toxizität einer Chemikalie, bestimmt in einem In-vitro-Test, kann als die Konzentration ausgedrückt werden, die eine 50 %-ige Wirkung auf die Endpunktreaktion unbehandelter Zellen ausübt. Diese Bestimmung wird als EC bezeichnet50 (Effektiv CKonzentration für 50% der Zellen) und kann verwendet werden, um die Toxizität verschiedener Chemikalien in vitro zu vergleichen. (Ein ähnlicher Begriff, der zur Bewertung der relativen Toxizität verwendet wird, ist IC50, die die Konzentration einer Chemikalie angibt, die eine 50%ige Hemmung eines zellulären Prozesses bewirkt, z. B. die Fähigkeit zur Aufnahme von Neutralrot.) Es ist nicht einfach zu beurteilen, ob die relative In-vitro-Toxizität der Chemikalien mit ihrer relativen Toxizität vergleichbar ist vivo-Toxizitäten, da es im in vivo-System so viele Störfaktoren wie Toxikokinetik, Metabolismus, Reparatur- und Abwehrmechanismen gibt. Da die meisten dieser Assays außerdem allgemeine Zytotoxizitätsendpunkte messen, sind sie nicht mechanistisch begründet. Daher ist die Übereinstimmung zwischen relativen In-vitro- und In-vivo-Toxizitäten einfach korrelativ. Trotz der zahlreichen Komplexitäten und Schwierigkeiten bei der Extrapolation von In-vitro- auf In-vivo-Tests erweisen sich diese In-vitro-Tests als sehr wertvoll, da sie einfach und kostengünstig durchzuführen sind und als Screens verwendet werden können, um hochgiftige Medikamente oder Chemikalien in frühen Stadien der Krankheit zu identifizieren Entwicklung.
Zielorgantoxizität
In-vitro-Tests können auch zur Beurteilung der spezifischen Zielorgantoxizität verwendet werden. Es gibt eine Reihe von Schwierigkeiten, die mit der Gestaltung solcher Tests verbunden sind, wobei die bemerkenswerteste die Unfähigkeit von In-vitro-Systemen ist, viele der Merkmale des Organs in vivo aufrechtzuerhalten. Wenn Zellen Tieren entnommen und in Kultur gebracht werden, neigen sie häufig entweder dazu, schnell zu degenerieren und/oder zu dedifferenzieren, dh sie verlieren ihre organähnlichen Funktionen und werden generischer. Dies stellt insofern ein Problem dar, als die Kulturen innerhalb eines kurzen Zeitraums, in der Regel wenige Tage, nicht mehr zur Beurteilung organspezifischer Wirkungen eines Toxins geeignet sind.
Viele dieser Probleme werden aufgrund der jüngsten Fortschritte in der Molekular- und Zellbiologie überwunden. Informationen, die über die zelluläre Umgebung in vivo erhalten werden, können zum Modulieren von Kulturbedingungen in vitro verwendet werden. Seit Mitte der 1980er Jahre wurden neue Wachstumsfaktoren und Zytokine entdeckt, und viele davon sind jetzt im Handel erhältlich. Die Zugabe dieser Faktoren zu Zellen in Kultur hilft, ihre Integrität zu bewahren und kann auch dazu beitragen, differenziertere Funktionen für längere Zeiträume beizubehalten. Andere Grundlagenstudien haben das Wissen über die Ernährungs- und Hormonanforderungen von Zellen in Kultur erweitert, so dass neue Medien formuliert werden können. Kürzlich wurden auch Fortschritte bei der Identifizierung sowohl natürlich vorkommender als auch künstlicher extrazellulärer Matrizen gemacht, auf denen Zellen kultiviert werden können. Die Kultivierung von Zellen auf diesen verschiedenen Matrizen kann tiefgreifende Auswirkungen sowohl auf ihre Struktur als auch auf ihre Funktion haben. Ein großer Vorteil, der sich aus diesem Wissen ergibt, ist die Fähigkeit, die Umgebung von Zellen in Kultur genau zu kontrollieren und die Auswirkungen dieser Faktoren auf grundlegende Zellprozesse und ihre Reaktionen auf verschiedene chemische Mittel einzeln zu untersuchen. Kurz gesagt, diese Systeme können einen großartigen Einblick in organspezifische Toxizitätsmechanismen liefern.
Viele Zielorgan-Toxizitätsstudien werden in Primärzellen durchgeführt, die definitionsgemäß frisch aus einem Organ isoliert werden und in der Regel eine begrenzte Lebensdauer in Kultur aufweisen. Es gibt viele Vorteile, Primärkulturen eines einzelnen Zelltyps aus einem Organ für die Toxizitätsbewertung zu haben. Aus mechanistischer Sicht sind solche Kulturen nützlich, um spezifische zelluläre Ziele einer Chemikalie zu untersuchen. In einigen Fällen können zwei oder mehr Zelltypen aus einem Organ zusammen kultiviert werden, und dies stellt einen zusätzlichen Vorteil bereit, indem man Zell-Zell-Wechselwirkungen als Reaktion auf ein Toxin betrachten kann. Einige Kokultursysteme für die Haut wurden so konstruiert, dass sie in vivo eine dreidimensionale Struktur bilden, die der Haut ähnelt. Es ist auch möglich, Zellen aus verschiedenen Organen – zum Beispiel Leber und Niere – zu kultivieren. Diese Art von Kultur wäre nützlich, um die für Nierenzellen spezifischen Wirkungen einer Chemikalie zu beurteilen, die in der Leber bioaktiviert werden muss.
Molekularbiologische Werkzeuge haben auch eine wichtige Rolle bei der Entwicklung kontinuierlicher Zelllinien gespielt, die für Zielorgan-Toxizitätstests nützlich sein können. Diese Zelllinien werden durch Transfektion von DNA in Primärzellen erzeugt. Beim Transfektionsverfahren werden die Zellen und die DNA so behandelt, dass die DNA von den Zellen aufgenommen werden kann. Die DNA stammt normalerweise von einem Virus und enthält ein Gen oder Gene, die es den Zellen ermöglichen, wenn sie exprimiert werden, unsterblich zu werden (dh in der Lage zu sein, über längere Zeiträume in Kultur zu leben und zu wachsen). Die DNA kann auch so verändert werden, dass das immortalisierende Gen von einem induzierbaren Promotor kontrolliert wird. Der Vorteil dieser Art von Konstrukt besteht darin, dass sich die Zellen nur dann teilen, wenn sie den geeigneten chemischen Stimulus erhalten, um die Expression des immortalisierenden Gens zu ermöglichen. Ein Beispiel für ein solches Konstrukt ist das große T-Antigen-Gen aus Simian Virus 40 (SV40) (das immortalisierende Gen), dem die Promotorregion des Metallothionein-Gens vorangeht, das durch die Anwesenheit eines Metalls im Kulturmedium induziert wird. Daher können die Zellen, nachdem das Gen in die Zellen transfiziert wurde, mit niedrigen Zinkkonzentrationen behandelt werden, um den MT-Promotor zu stimulieren und die Expression des T-Antigen-Gens einzuschalten. Unter diesen Bedingungen proliferieren die Zellen. Wenn Zink aus dem Medium entfernt wird, hören die Zellen auf, sich zu teilen und kehren unter idealen Bedingungen in einen Zustand zurück, in dem sie ihre gewebespezifischen Funktionen ausüben.
Die Fähigkeit, unsterblich gemachte Zellen zu erzeugen, hat zusammen mit den Fortschritten in der Zellkulturtechnologie wesentlich zur Schaffung von Zelllinien aus vielen verschiedenen Organen, einschließlich Gehirn, Niere und Leber, beigetragen. Bevor diese Zelllinien jedoch als Ersatz für die echten Zelltypen verwendet werden können, müssen sie sorgfältig charakterisiert werden, um festzustellen, wie „normal“ sie wirklich sind.
Andere In-vitro-Systeme zur Untersuchung der Zielorgantoxizität sind mit zunehmender Komplexität verbunden. Mit fortschreitender Komplexität von In-vitro-Systemen von der Einzelzell- zur Ganzorgankultur werden sie vergleichbarer mit dem In-vivo-Milieu, aber gleichzeitig werden sie angesichts der erhöhten Anzahl von Variablen viel schwieriger zu kontrollieren. Was durch den Übergang zu einer höheren Organisationsebene gewonnen werden kann, kann daher durch die Unfähigkeit des Forschers verloren gehen, die experimentelle Umgebung zu kontrollieren. Tabelle 1 vergleicht einige der Eigenschaften verschiedener In-vitro-Systeme, die zur Untersuchung der Hepatotoxizität verwendet wurden.
Tabelle 1. Vergleich von In-vitro-Systemen für Hepatotoxizitätsstudien
System | Komplexität (Ebene der Interaktion) |
Fähigkeit, leberspezifische Funktionen beizubehalten | Mögliche Dauer der Kultur | Fähigkeit, die Umgebung zu kontrollieren |
Immortalisierte Zelllinien | einige Zelle zu Zelle (variiert je nach Zelllinie) | schlecht bis gut (variiert je nach Zelllinie) | unbestimmt | Ausgezeichnet |
Primäre Hepatozytenkulturen | Zelle zu Zelle | mäßig bis ausgezeichnet (variiert je nach Kulturbedingungen) | Tage bis Wochen | Ausgezeichnet |
Co-Kulturen von Leberzellen | Zelle zu Zelle (zwischen gleichen und unterschiedlichen Zelltypen) | gut bis großartig | Wochen | Ausgezeichnet |
Leberscheiben | Zelle zu Zelle (unter allen Zelltypen) | gut bis großartig | Stunden bis Tage | gut |
Isolierte, perfundierte Leber | Zelle zu Zelle (unter allen Zelltypen) und innerhalb eines Organs | Ausgezeichnet | Stunden | Messe |
Präzise geschnittene Gewebeschnitte werden zunehmend für toxikologische Studien verwendet. Es gibt neue Instrumente, die es dem Forscher ermöglichen, gleichmäßige Gewebescheiben in einer sterilen Umgebung zu schneiden. Gewebeschnitte bieten gegenüber Zellkultursystemen einen gewissen Vorteil, da alle Zelltypen des Organs vorhanden sind und sie ihre in vivo-Architektur und interzelluläre Kommunikation beibehalten. Somit können In-vitro-Studien durchgeführt werden, um den Zielzelltyp innerhalb eines Organs zu bestimmen sowie um die spezifische Zielorgantoxizität zu untersuchen. Ein Nachteil der Schnitte besteht darin, dass sie nach den ersten 24 Stunden der Kultivierung schnell degenerieren, hauptsächlich aufgrund der schlechten Diffusion von Sauerstoff zu den Zellen im Inneren der Schnitte. Jüngste Studien haben jedoch gezeigt, dass eine effizientere Belüftung durch sanfte Rotation erreicht werden kann. Dies ermöglicht zusammen mit der Verwendung eines komplexeren Mediums, dass die Scheiben bis zu 96 Stunden überleben.
Gewebeexplantate haben ein ähnliches Konzept wie Gewebeschnitte und können auch verwendet werden, um die Toxizität von Chemikalien in bestimmten Zielorganen zu bestimmen. Gewebeexplantate werden hergestellt, indem ein kleines Gewebestück (für Teratogenitätsstudien ein intakter Embryo) entnommen und für weitere Untersuchungen in Kultur gebracht wird. Explantatkulturen waren für kurzfristige Toxizitätsstudien nützlich, einschließlich Reizung und Ätzwirkung in der Haut, Asbeststudien in der Luftröhre und Neurotoxizitätsstudien in Hirngewebe.
Zur Beurteilung der Zielorgantoxizität können auch isoliert perfundierte Organe herangezogen werden. Diese Systeme bieten einen ähnlichen Vorteil wie Gewebeschnitte und Explantate, da alle Zelltypen vorhanden sind, jedoch ohne die Belastung des Gewebes durch die Manipulationen, die mit der Herstellung von Schnitten verbunden sind. Darüber hinaus ermöglichen sie die Aufrechterhaltung von Wechselwirkungen zwischen Organen. Ein Hauptnachteil ist ihre kurzfristige Lebensfähigkeit, die ihre Verwendung für In-vitro-Toxizitätstests einschränkt. Als Alternative können diese Kulturen als Verfeinerung angesehen werden, da die Tiere nicht die nachteiligen Folgen einer In-vivo-Behandlung mit Giftstoffen erfahren. Ihre Verwendung verringert jedoch die Anzahl der erforderlichen Tiere nicht wesentlich.
Zusammenfassend stehen mehrere Arten von In-vitro-Systemen zur Bewertung der Zielorgantoxizität zur Verfügung. Mit einer oder mehreren dieser Techniken können viele Informationen über Toxizitätsmechanismen gewonnen werden. Die Schwierigkeit besteht darin, zu wissen, wie man von einem In-vitro-System, das einen relativ kleinen Teil des toxikologischen Prozesses darstellt, auf den gesamten in vivo ablaufenden Prozess extrapoliert.
In-vitro-Tests auf Augenreizung
Der vielleicht umstrittenste Ganztier-Toxizitätstest aus Sicht des Tierschutzes ist der Draize-Test auf Augenreizung, der an Kaninchen durchgeführt wird. Bei diesem Test wird eine kleine feste Dosis einer Chemikalie in eines der Augen des Kaninchens gegeben, während das andere Auge als Kontrolle dient. Der Grad der Reizung und Entzündung wird zu verschiedenen Zeitpunkten nach der Exposition bewertet. Es werden große Anstrengungen unternommen, um Methoden zu entwickeln, um diesen Test zu ersetzen, der nicht nur aus humanen Gründen, sondern auch wegen der Subjektivität der Beobachtungen und der Variabilität der Ergebnisse kritisiert wurde. Es ist interessant festzustellen, dass sich der Draize-Test trotz der heftigen Kritik als bemerkenswert erfolgreich bei der Vorhersage von Reizstoffen für das menschliche Auge erwiesen hat, insbesondere von leicht bis mäßig reizenden Substanzen, die mit anderen Methoden schwer zu identifizieren sind. Die Anforderungen an In-vitro-Alternativen sind daher groß.
Die Suche nach Alternativen zum Draize-Test ist kompliziert, auch wenn ihr Erfolg prognostiziert wird. Zahlreiche In-vitro- und andere Alternativen wurden entwickelt und teilweise umgesetzt. Verfeinerungsalternativen zum Draize-Test, die per Definition weniger schmerzhaft oder quälend für die Tiere sind, umfassen den Low-Volume-Augentest, bei dem kleinere Mengen an Testmaterial in die Augen der Kaninchen eingebracht werden, nicht nur aus humanen Gründen, sondern um besser die Mengen nachahmen, denen Menschen tatsächlich versehentlich ausgesetzt sind. Eine weitere Verbesserung besteht darin, dass Substanzen mit einem pH-Wert von weniger als 2 oder mehr als 11.5 nicht mehr an Tieren getestet werden, da sie als stark augenreizend bekannt sind.
Zwischen 1980 und 1989 ist die Zahl der Kaninchen, die für Augenreizungstests von Kosmetika verwendet werden, um schätzungsweise 87 % zurückgegangen. In-vitro-Tests wurden als Teil eines Tier-Testing-Ansatzes integriert, um diese enorme Reduzierung von Ganztiertests zu erreichen. Dieser Ansatz ist ein mehrstufiger Prozess, der mit einer gründlichen Untersuchung der historischen Augenreizungsdaten und einer physikalischen und chemischen Analyse der zu bewertenden Chemikalie beginnt. Wenn diese beiden Prozesse nicht genügend Informationen liefern, wird eine Reihe von In-vitro-Tests durchgeführt. Die zusätzlichen Daten aus den In-vitro-Tests könnten dann ausreichen, um die Sicherheit des Stoffes zu beurteilen. Wenn nicht, wäre der letzte Schritt, begrenzte In-vivo-Tests durchzuführen. Es ist leicht einzusehen, wie dieser Ansatz die Zahl der Tiere, die zur Vorhersage der Sicherheit einer Testsubstanz erforderlich sind, eliminieren oder zumindest drastisch reduzieren kann.
Die Reihe von In-vitro-Tests, die im Rahmen dieser Tier-Testing-Strategie verwendet werden, hängt von den Anforderungen der jeweiligen Branche ab. Augenreizungstests werden von einer Vielzahl von Branchen durchgeführt, von der Kosmetik über die Pharmazie bis hin zu Industriechemikalien. Die Art der von den einzelnen Branchen geforderten Informationen ist unterschiedlich, und daher ist es nicht möglich, eine einzelne Reihe von In-vitro-Tests zu definieren. Eine Testbatterie ist im Allgemeinen so konzipiert, dass sie fünf Parameter bewertet: Zytotoxizität, Veränderungen in der Gewebephysiologie und -biochemie, quantitative Struktur-Wirkungs-Beziehungen, Entzündungsmediatoren sowie Erholung und Reparatur. Ein Beispiel für einen Test auf Zytotoxizität, die eine mögliche Ursache für Irritationen ist, ist der Neutralrottest unter Verwendung von kultivierten Zellen (siehe oben). Veränderungen in der Zellphysiologie und Biochemie, die sich aus der Exposition gegenüber einer Chemikalie ergeben, können in Kulturen menschlicher Hornhautepithelzellen untersucht werden. Alternativ haben Forscher auch intakte oder sezierte Rinder- oder Hühneraugäpfel aus Schlachthöfen verwendet. Viele der in diesen Ganzorgankulturen gemessenen Endpunkte sind die gleichen wie die in vivo gemessenen, wie z. B. Hornhauttrübung und Hornhautschwellung.
Entzündungen sind häufig eine Komponente von chemikalieninduzierten Augenverletzungen, und es gibt eine Reihe von Assays, um diesen Parameter zu untersuchen. Verschiedene biochemische Assays weisen das Vorhandensein von Mediatoren nach, die während des Entzündungsprozesses freigesetzt werden, wie Arachidonsäure und Zytokine. Auch die Chorioallantoismembran (CAM) des Hühnereis kann als Indikator für eine Entzündung herangezogen werden. Beim CAM-Assay wird ein kleines Stück der Schale eines 14- bis XNUMX-tägigen Hühnerembryos entfernt, um die CAM freizulegen. Die Chemikalie wird dann auf die CAM aufgetragen und Entzündungszeichen, wie etwa Gefäßblutungen, werden danach zu verschiedenen Zeitpunkten bewertet.
Einer der am schwierigsten in vitro zu beurteilenden in vivo-Prozesse ist die Genesung und Reparatur einer Augenverletzung. Ein neu entwickeltes Instrument, das Silizium-Mikrophysiometer, misst kleine Änderungen des extrazellulären pH-Werts und kann zur Überwachung von kultivierten Zellen in Echtzeit verwendet werden. Es hat sich gezeigt, dass diese Analyse ziemlich gut mit der In-vivo-Erholung korreliert und als In-vitro-Test für dieses Verfahren verwendet wurde. Dies war ein kurzer Überblick über die Arten von Tests, die als Alternativen zum Draize-Test für Augenreizungen eingesetzt werden. Es ist wahrscheinlich, dass innerhalb der nächsten Jahre eine vollständige Reihe von In-vitro-Testbatterien definiert und jede für ihren spezifischen Zweck validiert wird.
Validierung
Der Schlüssel zur behördlichen Akzeptanz und Implementierung von In-vitro-Testmethoden ist die Validierung, der Prozess, durch den die Glaubwürdigkeit eines Kandidatentests für einen bestimmten Zweck festgestellt wird. Sowohl in den Vereinigten Staaten als auch in Europa wurden Anstrengungen unternommen, um den Validierungsprozess zu definieren und zu koordinieren. Die Europäische Union gründete 1993 das Europäische Zentrum für die Validierung alternativer Methoden (ECVAM), um die dortigen Bemühungen zu koordinieren und mit amerikanischen Organisationen wie dem Johns Hopkins Center for Alternatives to Animal Testing (CAAT), einem akademischen Zentrum in den Vereinigten Staaten, zusammenzuarbeiten , und das Interagency Coordinating Committee for the Validation of Alternative Methods (ICCVAM), das sich aus Vertretern der National Institutes of Health, der US Environmental Protection Agency, der US Food and Drug Administration und der Consumer Products Safety Commission zusammensetzt.
Die Validierung von In-vitro-Tests erfordert eine umfangreiche Organisation und Planung. Es muss ein Konsens zwischen staatlichen Regulierungsbehörden und industriellen und akademischen Wissenschaftlern über akzeptable Verfahren und eine ausreichende Aufsicht durch einen wissenschaftlichen Beirat bestehen, um sicherzustellen, dass die Protokolle festgelegten Standards entsprechen. Die Validierungsstudien sollten in einer Reihe von Referenzlabors unter Verwendung kalibrierter Chemikaliensätze aus einer Chemikalienbank und Zellen oder Geweben aus einer einzigen Quelle durchgeführt werden. Sowohl die laborinterne Wiederholbarkeit als auch die interlaboratorische Reproduzierbarkeit eines Kandidatentests müssen nachgewiesen und die Ergebnisse einer angemessenen statistischen Analyse unterzogen werden. Nachdem die Ergebnisse aus den verschiedenen Komponenten der Validierungsstudien zusammengestellt wurden, kann der wissenschaftliche Beirat Empfehlungen zur Validität des/der Kandidatentests für einen bestimmten Zweck abgeben. Darüber hinaus sollen die Ergebnisse der Studien in peer-reviewed Journals veröffentlicht und in eine Datenbank gestellt werden.
Die Definition des Validierungsprozesses ist derzeit noch in Arbeit. Jede neue Validierungsstudie liefert Informationen, die für das Design der nächsten Studie nützlich sind. Internationale Kommunikation und Zusammenarbeit sind für die zügige Entwicklung einer allgemein akzeptablen Reihe von Protokollen unerlässlich, insbesondere angesichts der erhöhten Dringlichkeit, die durch die Verabschiedung der EG-Kosmetikrichtlinie auferlegt wird. Diese Rechtsvorschriften können in der Tat den nötigen Anstoß für ernsthafte Validierungsbemühungen geben. Erst durch den Abschluss dieses Prozesses kann die Akzeptanz von In-vitro-Methoden durch die verschiedenen Regulierungsbehörden beginnen.
Fazit
Dieser Artikel hat einen breiten Überblick über den aktuellen Stand der In-vitro-Toxizitätsprüfung gegeben. Die Wissenschaft der In-vitro-Toxikologie ist relativ jung, wächst aber exponentiell. Die Herausforderung für die kommenden Jahre besteht darin, das durch zelluläre und molekulare Studien generierte mechanistische Wissen in den riesigen Bestand an In-vivo-Daten einzubeziehen, um eine vollständigere Beschreibung toxikologischer Mechanismen zu liefern und ein Paradigma zu etablieren, mit dem In-vitro-Daten verwendet werden können Toxizität in vivo vorherzusagen. Nur durch die konzertierten Bemühungen von Toxikologen und Regierungsvertretern kann der inhärente Wert dieser In-vitro-Methoden realisiert werden.
Bei der Analyse von Struktur-Aktivitäts-Beziehungen (SAR) werden Informationen über die Molekularstruktur von Chemikalien genutzt, um wichtige Eigenschaften in Bezug auf Persistenz, Verteilung, Aufnahme und Absorption sowie Toxizität vorherzusagen. SAR ist eine alternative Methode zur Identifizierung potenziell gefährlicher Chemikalien, die verspricht, Industrien und Regierungen bei der Priorisierung von Stoffen für die weitere Bewertung oder für die frühzeitige Entscheidungsfindung für neue Chemikalien zu unterstützen. Die Toxikologie ist ein zunehmend teures und ressourcenintensives Unterfangen. Zunehmende Bedenken hinsichtlich des Potenzials von Chemikalien, nachteilige Auswirkungen auf exponierte menschliche Populationen zu verursachen, haben Regulierungs- und Gesundheitsbehörden dazu veranlasst, den Umfang und die Empfindlichkeit von Tests zum Nachweis toxikologischer Gefahren zu erweitern. Gleichzeitig haben die tatsächlichen und vermeintlichen Regulierungslasten für die Industrie Bedenken hinsichtlich der Praktikabilität von Toxizitätstestmethoden und Datenanalysen geweckt. Gegenwärtig hängt die Bestimmung der chemischen Karzinogenität von Lebenszeittests an mindestens zwei Arten beiderlei Geschlechts bei mehreren Dosen mit sorgfältiger histopathologischer Analyse mehrerer Organe sowie dem Nachweis präneoplastischer Veränderungen in Zellen und Zielorganen ab. In den Vereinigten Staaten wird der Krebs-Bioassay auf über 3 Millionen Dollar (1995 Dollar) geschätzt.
Selbst mit unbegrenzten finanziellen Mitteln würde der Testaufwand für die etwa 70,000 existierenden Chemikalien, die heute weltweit hergestellt werden, die verfügbaren Ressourcen ausgebildeter Toxikologen übersteigen. Es würden Jahrhunderte erforderlich sein, um selbst eine Erstbewertung dieser Chemikalien abzuschließen (NRC 1984). In vielen Ländern haben ethische Bedenken hinsichtlich der Verwendung von Tieren in Toxizitätstests zugenommen, was zusätzlichen Druck auf die Verwendung von Standardmethoden für Toxizitätstests ausübt. SAR wurde in der pharmazeutischen Industrie weit verbreitet verwendet, um Moleküle mit einem Potenzial für eine vorteilhafte Verwendung in der Behandlung zu identifizieren (Hansch und Zhang 1993). In der Umwelt- und Arbeitsschutzpolitik wird SAR verwendet, um die Ausbreitung von Verbindungen in der physikalisch-chemischen Umgebung vorherzusagen und neue Chemikalien für eine weitere Bewertung der potenziellen Toxizität zu screenen. Gemäß dem US-amerikanischen Toxic Substances Control Act (TSCA) verwendet die EPA seit 1979 einen SAR-Ansatz als „erstes Screening“ neuer Chemikalien im Premanufacture Notification (PMN)-Prozess; Australien verwendet einen ähnlichen Ansatz im Rahmen seines Verfahrens zur Meldung neuer Chemikalien (NICNAS). In den USA ist die SAR-Analyse eine wichtige Grundlage für die Feststellung, dass eine vernünftige Grundlage für die Schlussfolgerung besteht, dass die Herstellung, Verarbeitung, Verteilung, Verwendung oder Entsorgung des Stoffes ein unzumutbares Verletzungsrisiko für die menschliche Gesundheit oder die Umwelt darstellt, wie in Abschnitt gefordert 5(f) TSCA. Auf der Grundlage dieser Feststellung kann die EPA dann tatsächliche Tests des Stoffes gemäß Abschnitt 6 des TSCA verlangen.
Begründung für SAR
Die wissenschaftliche Begründung für SAR basiert auf der Annahme, dass die Molekularstruktur einer Chemikalie wichtige Aspekte ihres Verhaltens in physikalisch-chemischen und biologischen Systemen vorhersagt (Hansch und Leo 1979).
SAR-Prozess
Der SAR-Überprüfungsprozess umfasst die Identifizierung der chemischen Struktur, einschließlich empirischer Formulierungen, sowie der reinen Verbindung; Identifizierung strukturanaloger Substanzen; Durchsuchen von Datenbanken und Literatur nach Informationen über strukturelle Analoga; und Analyse von Toxizität und anderen Daten zu Strukturanaloga. In einigen seltenen Fällen können Informationen über die Struktur der Verbindung allein ausreichen, um eine SAR-Analyse zu unterstützen, die auf gut verstandenen Toxizitätsmechanismen basiert. Mehrere Datenbanken zu SAR wurden zusammengestellt, ebenso wie computergestützte Methoden zur Vorhersage der Molekülstruktur.
Mit diesen Informationen können die folgenden Endpunkte mit SAR geschätzt werden:
Es ist zu beachten, dass für so wichtige Gesundheitsendpunkte wie Karzinogenität, Entwicklungstoxizität, Reproduktionstoxizität, Neurotoxizität, Immuntoxizität oder andere Zielorganwirkungen keine SAR-Methoden existieren. Dies ist auf drei Faktoren zurückzuführen: das Fehlen einer großen Datenbank zum Testen von SAR-Hypothesen, das Fehlen von Kenntnissen über strukturelle Determinanten der toxischen Wirkung und die Vielzahl von Zielzellen und Mechanismen, die an diesen Endpunkten beteiligt sind (siehe „Die Vereinigten Staaten Ansatz zur Risikobewertung von reproduktionstoxischen und neurotoxischen Stoffen“). Einige begrenzte Versuche, SAR zur Vorhersage der Pharmakokinetik unter Verwendung von Informationen über Verteilungskoeffizienten und Löslichkeit zu verwenden (Johanson und Naslund 1988). Umfangreichere quantitative SAR wurden durchgeführt, um den P450-abhängigen Metabolismus einer Reihe von Verbindungen und die Bindung von Dioxin- und PCB-ähnlichen Molekülen an den zytosolischen „Dioxin“-Rezeptor vorherzusagen (Hansch und Zhang 1993).
Es hat sich gezeigt, dass SAR für einige der oben aufgeführten Endpunkte eine unterschiedliche Vorhersagbarkeit aufweist, wie in Tabelle 1 gezeigt. Diese Tabelle enthält Daten aus zwei Vergleichen der vorhergesagten Aktivität mit tatsächlichen Ergebnissen, die durch empirische Messungen oder Toxizitätstests erhalten wurden. SAR, durchgeführt von Experten der US EPA, schnitt bei der Vorhersage physikalisch-chemischer Eigenschaften schlechter ab als bei der Vorhersage der biologischen Aktivität, einschließlich des biologischen Abbaus. Bei Toxizitätsendpunkten schnitt SAR am besten ab, um Mutagenität vorherzusagen. Ashby und Tennant (1991) stellten in einer umfassenderen Studie bei ihrer Analyse von NTP-Chemikalien ebenfalls eine gute Vorhersagbarkeit der kurzfristigen Genotoxizität fest. Diese Ergebnisse sind angesichts des derzeitigen Verständnisses der molekularen Mechanismen der Genotoxizität (siehe „Gentoxikologie“) und der Rolle der Elektrophilie bei der DNA-Bindung nicht überraschend. Im Gegensatz dazu neigte SAR dazu, die systemische und subchronische Toxizität bei Säugetieren zu unterschätzen und die akute Toxizität für Wasserorganismen zu überschätzen.
Tabelle 1. Vergleich von SAR- und Testdaten: OECD/NTP-Analysen
Endpunkt | Zustimmung (%) | Ablehnung (%) | Nummer |
Siedepunkt | 50 | 50 | 30 |
Dampfdruck | 63 | 37 | 113 |
Wasserlöslichkeit | 68 | 32 | 133 |
Verteilungskoeffizient | 61 | 39 | 82 |
Bioabbau | 93 | 7 | 107 |
Fischtoxizität | 77 | 22 | 130 |
Daphnientoxizität | 67 | 33 | 127 |
Akute Säugetiertoxizität (LD50 ) | 80 | 201 | 142 |
Hautreizung | 82 | 18 | 144 |
Augen Irritation | 78 | 22 | 144 |
Hautsensibilisierung | 84 | 16 | 144 |
Subchronische Toxizität | 57 | 32 | 143 |
Mutagenität2 | 88 | 12 | 139 |
Mutagenität3 | 82-944 | 1-10 | 301 |
Kanzerogenität3 : Zweijähriger Bioassay | 72-954 | - | 301 |
Quelle: Daten der OECD, persönliche Mitteilung C. Auer, US EPA. In dieser Analyse wurden nur diejenigen Endpunkte verwendet, für die vergleichbare SAR-Vorhersagen und tatsächliche Testdaten verfügbar waren. NTP-Daten stammen von Ashby und Tennant 1991.
1 Besorgniserregend war das Versäumnis von SAR, die akute Toxizität bei 12 % der getesteten Chemikalien vorherzusagen.
2 OECD-Daten, basierend auf Ames-Test-Konkordanz mit SAR
3 NTP-Daten, basierend auf Gentox-Assays im Vergleich zu SAR-Vorhersagen für mehrere Klassen von „strukturell alarmierenden Chemikalien“.
4 Die Übereinstimmung variiert mit der Klasse; höchste Übereinstimmung war mit aromatischen Amino/Nitro-Verbindungen; am niedrigsten bei „verschiedenen“ Strukturen.
Für andere toxische Endpunkte hat SAR, wie oben erwähnt, einen weniger nachweisbaren Nutzen. Vorhersagen zur Säugetiertoxizität werden durch das Fehlen von SAR für die Toxikokinetik komplexer Moleküle erschwert. Dennoch wurden einige Versuche unternommen, SAR-Prinzipien für komplexe Endpunkte der Toxizität bei Säugetieren vorzuschlagen (siehe beispielsweise Bernstein (1984) für eine SAR-Analyse potenzieller reproduktionstoxischer Stoffe für Männer). In den meisten Fällen ist die Datenbank zu klein, um strukturbasierte Vorhersagen gründlich zu testen.
An dieser Stelle kann der Schluss gezogen werden, dass SAR hauptsächlich nützlich sein kann, um die Investition in Toxizitätstestressourcen zu priorisieren oder um frühzeitig Bedenken hinsichtlich potenzieller Gefahren zu äußern. Nur im Fall von Mutagenität ist es wahrscheinlich, dass die SAR-Analyse selbst zuverlässig verwendet werden kann, um andere Entscheidungen zu informieren. Für keinen Endpunkt ist es wahrscheinlich, dass SAR die Art von quantitativen Informationen liefern kann, die für Risikobewertungszwecke erforderlich sind, wie an anderer Stelle in diesem Kapitel und erörtert Enzyklopädie.
In der 3. Auflage der ILO's Enzyklopädie, erschienen 1983, wurde Ergonomie in einem nur etwa vier Seiten langen Artikel zusammengefasst. Seit dem Erscheinen der 3. Auflage hat sich die Gewichtung und das Verständnis von Zusammenhängen in Sicherheit und Gesundheit stark verändert: Die Welt lässt sich nicht mehr ohne Weiteres in Medizin, Sicherheit und Gefahrenabwehr einordnen. Nahezu alle Branchen der Produktions- und Dienstleistungsindustrie haben im letzten Jahrzehnt große Anstrengungen unternommen, um Produktivität und Qualität zu verbessern. Aus diesem Umstrukturierungsprozess sind praktische Erfahrungen entstanden, die deutlich machen, dass Produktivität und Qualität in direktem Zusammenhang mit der Gestaltung der Arbeitsbedingungen stehen. Ein direktes wirtschaftliches Maß für die Produktivität – die Kosten für krankheitsbedingte Fehlzeiten – wird von den Arbeitsbedingungen beeinflusst. Daher sollte es möglich sein, Produktivität und Qualität zu steigern und Fehlzeiten zu vermeiden, indem der Gestaltung der Arbeitsbedingungen mehr Aufmerksamkeit geschenkt wird.
Zusammenfassend lässt sich die einfache Hypothese der modernen Ergonomie so formulieren: Schmerzen und Erschöpfung verursachen Gesundheitsgefährdung, Produktivitätsverschwendung und Qualitätsminderung, die ein Maß für Kosten und Nutzen menschlicher Arbeit sind.
Diese einfache Hypothese steht im Gegensatz zur Arbeitsmedizin, die sich in der Regel auf die Feststellung der Ätiologie von Berufskrankheiten beschränkt. Ziel der Arbeitsmedizin ist es, Bedingungen zu schaffen, unter denen die Wahrscheinlichkeit, solche Erkrankungen zu entwickeln, minimiert wird. Unter ergonomischen Gesichtspunkten lassen sich diese Bedingungen am einfachsten in Form von Anforderungen und Belastungsgrenzen formulieren. Arbeitsmedizin lässt sich zusammenfassend als „Begrenzung durch medizinisch-wissenschaftliche Studien“ zusammenfassen. Die traditionelle Ergonomie sieht ihre Rolle darin, Methoden zu formulieren, mit denen durch Gestaltung und Arbeitsorganisation die arbeitsmedizinisch festgestellten Grenzen in die Praxis umgesetzt werden können. Traditionelle Ergonomie könnte man dann als Entwicklung von „Korrekturen durch wissenschaftliche Studien“ bezeichnen, wobei unter „Korrekturen“ alle Arbeitsgestaltungsempfehlungen zu verstehen sind, die dazu auffordern, Belastungsgrenzen nur zu beachten, um Gesundheitsgefährdungen vorzubeugen. Charakteristisch für solche Korrekturempfehlungen ist, dass der Praktiker mit dem Problem der Anwendung am Ende allein gelassen wird – es gibt keine multidisziplinäre Teamarbeit.
Das ursprüngliche Ziel, die Ergonomie 1857 zu erfinden, steht im Gegensatz zu dieser Art „Ergonomie durch Korrektur“:
... ein wissenschaftlicher Ansatz, der es uns ermöglicht, die besten Früchte der Lebensarbeit zum Nutzen für uns selbst und für andere mit minimalem Aufwand und maximaler Befriedigung zu ernten (Jastrzebowski 1857).
Die Wurzel des Begriffs „Ergonomie“ stammt aus dem Griechischen „nomos“ bedeutet Herrschaft und „ergo“ bedeutet Arbeit. Man könnte vorschlagen, dass die Ergonomie „Regeln“ für ein zukunftsorientiertes, vorausschauendes Designkonzept entwickelt. Im Gegensatz zur „korrigierenden Ergonomie“ ist die Idee der Vorausschauende Ergonomie basiert auf der Anwendung ergonomischer Empfehlungen, die gleichzeitig die Rentabilitätsmargen berücksichtigen (Laurig 1992).
Die Grundregeln für die Entwicklung dieses Ansatzes lassen sich aus der Praxis ableiten und durch Ergebnisse arbeitshygienischer und ergonomischer Forschung untermauern. Mit anderen Worten, Vorausschauende Ergonomie bedeutet, nach Alternativen in der Arbeitsgestaltung zu suchen, die Ermüdung und Erschöpfung des Arbeitssubjekts vorbeugen, um die menschliche Leistungsfähigkeit zu fördern („... zum Wohle unserer selbst und anderer“). Dieser umfassende Ansatz von Vorausschauende Ergonomie umfasst die Arbeitsplatz- und Gerätegestaltung sowie die Gestaltung von Arbeitsbedingungen, die durch eine zunehmende Informationsverarbeitung und eine sich verändernde Arbeitsorganisation bestimmt werden. Vorausschauende Ergonomie ist daher ein interdisziplinärer Ansatz von Forschern und Praktikern aus den unterschiedlichsten Bereichen, die das gleiche Ziel verfolgen, und ein Teil einer allgemeinen Grundlage für ein modernes Verständnis von Arbeitssicherheit und Gesundheitsschutz (UNESCO 1992).
Basierend auf diesem Verständnis, die Ergonomie Kapitel in der 4. Ausgabe der IAO Enzyklopädie umfasst die unterschiedlichen Wissens- und Erfahrungscluster, die sich an den Eigenschaften und Fähigkeiten der Arbeitnehmer orientieren und darauf abzielen, die Ressource „Menschliche Arbeit“ optimal zu nutzen, indem die Arbeit „ergonomischer“, also humaner gestaltet wird.
Die Themenwahl und die Gliederung der Artikel in diesem Kapitel folgt der Gliederung typischer Fragestellungen aus der Praxis, wie sie in der Industrie praktiziert werden. Beginnend mit der Ziele, Prinzipien und Methoden der Ergonomie behandeln die folgenden Artikel grundlegende Prinzipien aus den Grundlagenwissenschaften wie Physiologie und Psychologie. Auf dieser Grundlage stellen die nächsten Beiträge wesentliche Aspekte einer ergonomischen Gestaltung der Arbeitsbedingungen von der Arbeitsorganisation bis zur Produktgestaltung vor. „Designing for everyone“ legt besonderen Wert auf einen ergonomischen Ansatz, der sich an den Eigenschaften und Fähigkeiten des Mitarbeiters orientiert, ein Konzept, das in der Praxis oft übersehen wird. Die Bedeutung und Vielfalt der Ergonomie wird an zwei Beispielen am Ende des Kapitels aufgezeigt und findet sich auch darin wieder, dass viele weitere Kapitel dieser Ausgabe der ILO Enzyklopädie stehen in direktem Zusammenhang mit Ergonomie, wie z Hitze und Kälte, Lärm, Vibration, Visuelle Anzeigeeinheiten, und praktisch alle Kapitel in den Abschnitten Unfall- und Sicherheitsmanagement und Management und Politik.
Gestaltung von Produktionssystemen
Viele Unternehmen investieren Millionen in computergestützte Produktionssysteme und schöpfen gleichzeitig ihre Humanressourcen nicht voll aus, deren Wert durch Investitionen in Ausbildung deutlich gesteigert werden kann. Tatsächlich kann der Einsatz von qualifiziertem Mitarbeiterpotenzial statt hochkomplexer Automatisierung unter Umständen nicht nur die Investitionskosten deutlich senken, sondern auch die Flexibilität und Systemfähigkeit deutlich steigern.
Ursachen für ineffizienten Einsatz von Technologie
Die angestrebten Verbesserungen durch Investitionen in moderne Technik werden häufig nicht einmal annähernd erreicht (Strohm, Kuark und Schilling 1993; Ulich 1994). Die wichtigsten Gründe dafür sind Probleme in den Bereichen Technik, Organisation und Mitarbeiterqualifikation.
Für Probleme mit der Technik lassen sich drei Hauptursachen identifizieren:
Organisationsprobleme sind in erster Linie darauf zurückzuführen, dass ständig versucht wird, neueste Technologien in ungeeignete Organisationsstrukturen zu implementieren. Beispielsweise macht es wenig Sinn, Computer der dritten, vierten und fünften Generation in Organisationen der zweiten Generation einzuführen. Aber genau das tun viele Unternehmen (Savage und Appleton 1988). In vielen Unternehmen ist ein radikaler Umbau der Organisation Voraussetzung für den erfolgreichen Einsatz neuer Technologien. Dazu gehört insbesondere eine Auseinandersetzung mit den Konzepten der Produktionsplanung und -steuerung. Letztlich kann eine lokale Selbststeuerung durch qualifiziertes Bedienpersonal unter Umständen deutlich effizienter und wirtschaftlicher sein als ein technisch hoch entwickeltes Produktionsplanungs- und Steuerungssystem.
Probleme bei der Qualifizierung von Mitarbeitern entstehen vor allem dadurch, dass eine Vielzahl von Unternehmen die Notwendigkeit von Qualifizierungsmaßnahmen im Zusammenhang mit der Einführung computergestützter Produktionssysteme nicht erkennen. Darüber hinaus wird die Ausbildung zu häufig als Kostenfaktor angesehen, der kontrolliert und minimiert werden muss, und nicht als strategische Investition. Tatsächlich können Anlagenstillstandszeiten und die daraus resultierenden Kosten oft effektiv reduziert werden, indem Fehler auf der Grundlage der Kompetenz und des anlagenspezifischen Wissens und der Erfahrung des Bedieners diagnostiziert und behoben werden können. Dies ist insbesondere in eng gekoppelten Produktionsanlagen der Fall (Köhler et al. 1989). Gleiches gilt für die Einführung neuer Produkte oder Produktvarianten. Viele Beispiele ineffizienten exzessiven Technologieeinsatzes zeugen von solchen Zusammenhängen.
Die Konsequenz der hier kurz vorgestellten Analyse ist, dass die Einführung computergestützter Produktionssysteme nur dann Erfolg versprechend ist, wenn sie in ein Gesamtkonzept integriert ist, das darauf abzielt, den Technologieeinsatz, die Organisationsstruktur und die Steigerung der Mitarbeiterqualifikation gemeinsam zu optimieren .
Von der Aufgabe zum Design sozio-technischer Systeme
Arbeitspsychologische Konzepte des Production Design basieren auf der Primat von
die Aufgabe. Einerseits bildet die Aufgabe die Schnittstelle zwischen Individuum und Organisation (Volpert 1987). Andererseits verbindet die Aufgabe das soziale Subsystem mit dem technischen Subsystem. „Die Aufgabe muss der Artikulationspunkt zwischen sozialem und technischem System sein – die Verknüpfung der Arbeit im technischen System mit dem ihr zugeordneten Rollenverhalten im sozialen System“ (Blumberg 1988).
Das bedeutet, dass ein soziotechnisches System, beispielsweise eine Produktionsinsel, primär durch die Aufgabe definiert wird, die es zu erfüllen hat. Die Arbeitsverteilung zwischen Mensch und Maschine spielt dabei eine zentrale Rolle, denn sie entscheidet darüber, ob der Mensch als verlängerter Arm der Maschine mit einer in einer Automatisierungs-„Lücke“ übriggebliebenen Funktion „funktioniert“ oder ob die Maschine als verlängerter Arm der Maschine fungiert Person, mit einer Werkzeugfunktion, die menschliche Fähigkeiten und Kompetenzen unterstützt. Wir bezeichnen diese gegensätzlichen Positionen als „technikorientiert“ und „arbeitsorientiert“ (Ulich 1994).
Das Konzept der vollständigen Aufgabe
Das Prinzip der vollständigen Aktivität (Hacker 1986) bzw komplette Aufgabe spielt in arbeitspsychologischen Konzepten zur Definition von Arbeitsaufgaben und zur Arbeitsteilung zwischen Mensch und Maschine eine zentrale Rolle. Erledigte Aufgaben sind solche, „über die der Einzelne eine beträchtliche persönliche Kontrolle hat“ und die „starke Kräfte im Einzelnen hervorrufen, um sie zu erledigen oder fortzusetzen“. Vollständige Aufgaben tragen zur „Entwicklung dessen bei, was als ‚Aufgabenorientierung‘ beschrieben wurde – das heißt, ein Zustand, in dem das Interesse des Einzelnen geweckt, engagiert und durch den Charakter der Aufgabe gelenkt wird“ (Emery 1959). . Abbildung 1 fasst Vollständigkeitsmerkmale zusammen, die bei Maßnahmen zur arbeitsorientierten Gestaltung von Produktionssystemen berücksichtigt werden müssen.
Abbildung 1. Merkmale vollständiger Aufgaben
Diese Hinweise auf die Konsequenzen, die sich aus der Verwirklichung des Prinzips der vollständigen Aufgabe ergeben, machen zweierlei deutlich: (1) In vielen Fällen – wahrscheinlich sogar in der Mehrzahl der Fälle – können vollständige Aufgaben im Sinne von Abbildung 1 nur als Gruppenaufgaben strukturiert werden Berücksichtigung der daraus resultierenden Komplexität und des damit verbundenen Umfangs; (2) Die Umstrukturierung von Arbeitsaufgaben – insbesondere wenn sie mit der Einführung von Gruppenarbeit verbunden ist – erfordert deren Einbindung in ein umfassendes Umstrukturierungskonzept, das alle Ebenen des Unternehmens umfasst.
Die für die verschiedenen Ebenen geltenden Strukturprinzipien sind in Tabelle 1 zusammengefasst.
Tabelle 1. Arbeitsorientierte Prinzipien zur Produktionsgestaltung
Organisationsebene |
Strukturprinzip |
Firma |
Dezentralisierung |
Organisationseinheit |
Funktionsintegration |
Gruppe an |
Selbstregulierung1 |
Individual |
Gekonnte Produktionsarbeit1 |
1 Berücksichtigung des Prinzips der differentiellen Arbeitsgestaltung.
Quelle: Ulich 1994.
Möglichkeiten zur Umsetzung der in Tabelle 1 skizzierten Grundsätze zur Produktionsstrukturierung verdeutlicht der in Abbildung 2 dargestellte Vorschlag zur Umstrukturierung eines Produktionsunternehmens. Dieser Vorschlag wurde sowohl von den Produktionsverantwortlichen als auch von der dafür gebildeten Projektgruppe einstimmig angenommen Umstrukturierung, demonstriert auch eine grundlegende Abkehr von tayloristischen Konzepten der Arbeits- und Autoritätsteilung. Die Beispiele vieler Unternehmen zeigen, dass die Umstrukturierung von Arbeits- und Organisationsstrukturen auf der Grundlage solcher Modelle sowohl arbeitspsychologischen Kriterien der Gesundheitsförderung und Persönlichkeitsentwicklung als auch der Forderung nach langfristiger Wirtschaftlichkeit gerecht werden kann (vgl. Ulich 1994).
Abbildung 2. Vorschlag zur Umstrukturierung eines Produktionsunternehmens
Die hier favorisierte Argumentationslinie – aus Platzgründen nur sehr kurz skizziert – will dreierlei deutlich machen:
Arbeitnehmerbeteiligung
In den vorangegangenen Abschnitten wurden Formen der Arbeitsorganisation beschrieben, die als ein grundlegendes Merkmal die Demokratisierung auf niedrigeren Hierarchieebenen einer Organisation durch erhöhte Autonomie und Entscheidungsspielraum bezüglich Arbeitsinhalten sowie Arbeitsbedingungen in der Produktion aufweisen. In diesem Abschnitt wird die Demokratisierung aus einem anderen Blickwinkel betrachtet, indem die partizipative Entscheidungsfindung im Allgemeinen betrachtet wird. Zunächst wird ein Definitionsrahmen für Partizipation vorgestellt, gefolgt von einer Diskussion der Forschung zu den Wirkungen von Partizipation. Abschließend wird die partizipative Systemgestaltung näher betrachtet.
Definitionsrahmen für Partizipation
Organisationsentwicklung, Führung, Systemdesign und Arbeitsbeziehungen sind Beispiele für die Vielfalt der Aufgaben und Kontexte, in denen Partizipation als relevant erachtet wird. Ein gemeinsamer Nenner, der als Kern der Partizipation angesehen werden kann, ist die Möglichkeit für Einzelpersonen und Gruppen, ihre Interessen durch die Beeinflussung der Wahl zwischen Handlungsalternativen in einer bestimmten Situation zu fördern (Wilpert 1989). Um Partizipation genauer zu beschreiben, sind jedoch einige Dimensionen notwendig. Häufig vorgeschlagene Dimensionen sind (a) formal-informell, (b) direkt-indirekt, (c) Einflussgrad und (d) Entscheidungsinhalt (zB Dachler und Wilpert 1978; Locke und Schweiger 1979). Formelle Partizipation bezieht sich auf Partizipation innerhalb gesetzlich oder anderweitig vorgeschriebener Regeln (z. B. Verhandlungsverfahren, Richtlinien für das Projektmanagement), während informelle Partizipation auf nicht vorgeschriebenem Austausch basiert, z. B. zwischen Vorgesetzten und Untergebenen. Die direkte Beteiligung ermöglicht eine direkte Einflussnahme der Betroffenen, während die indirekte Beteiligung über ein Repräsentationssystem funktioniert. Der Grad der Einflussnahme wird üblicherweise anhand einer Skala beschrieben, die von „keine Information der Mitarbeiter über eine Entscheidung“, über „Vorabinformation der Mitarbeiter“ und „Beratung der Mitarbeiter“ bis hin zu „gemeinsame Entscheidung aller Beteiligten“ reicht. In Bezug auf die Bereitstellung von Vorabinformationen ohne Konsultation oder gemeinsame Entscheidungsfindung argumentieren einige Autoren, dass dies keineswegs ein geringes Maß an Partizipation ist, sondern lediglich eine Form der „Pseudo-Partizipation“ (Wall und Lischeron 1977). Schließlich kann der Inhaltsbereich für partizipative Entscheidungsfindung spezifiziert werden, beispielsweise technologischer oder organisatorischer Wandel, Arbeitsbeziehungen oder alltägliche betriebliche Entscheidungen.
Ein Klassifikationsschema, das sich von den bisher vorgestellten Dimensionen unterscheidet, wurde von Hornby und Clegg (1992) entwickelt. Basierend auf Arbeiten von Wall und Lischeron (1977) unterscheiden sie drei Aspekte partizipativer Prozesse:
Anschließend nutzten sie diese Aspekte, um einen von Gowler und Legge (1978) vorgeschlagenen Rahmen zu ergänzen, der Partizipation als eine Funktion von zwei organisatorischen Variablen beschreibt, nämlich der Art der Struktur (mechanistisch versus organisch) und der Art des Prozesses (stabil versus instabil). Da dieses Modell eine Reihe von Annahmen über Partizipation und ihre Beziehung zur Organisation enthält, kann es nicht zur Klassifizierung allgemeiner Arten von Partizipation verwendet werden. Sie wird hier als ein Versuch präsentiert, Partizipation in einem breiteren Kontext zu definieren (siehe Tabelle 2). (Im letzten Abschnitt dieses Artikels wird die Studie von Hornby und Clegg (1992) diskutiert, die auch darauf abzielte, die Annahmen des Modells zu testen.)
Tabelle 2. Beteiligung im organisatorischen Kontext
Organisatorische Struktur |
||
Mechanistisch |
Organic |
|
Organisatorische Prozesse |
||
Stabil |
Geregelte |
Offen |
Instabile |
Willkürlich |
Geregelte |
Quelle: Adaptiert von Hornby und Clegg 1992.
Eine wichtige Dimension, die normalerweise nicht in Klassifikationen für Partizipation enthalten ist, ist das organisatorische Ziel hinter der Wahl einer partizipativen Strategie (Dachler und Wilpert 1978). Grundsätzlich kann Partizipation erfolgen, um einer demokratischen Norm zu entsprechen, unabhängig von ihrem Einfluss auf die Effektivität des Entscheidungsprozesses und die Qualität des Entscheidungsergebnisses und der Umsetzung. Andererseits kann ein partizipatives Verfahren gewählt werden, um vom Wissen und der Erfahrung der Beteiligten zu profitieren oder die Akzeptanz einer Entscheidung sicherzustellen. Oft ist es schwierig, die Ziele hinter der Wahl eines partizipativen Ansatzes für eine Entscheidung zu identifizieren, und oft werden mehrere Ziele gleichzeitig gefunden, sodass diese Dimension nicht ohne weiteres zur Einordnung von Partizipation herangezogen werden kann. Für das Verständnis partizipativer Prozesse ist dies jedoch eine wichtige Dimension, die es zu beachten gilt.
Forschung zu den Wirkungen von Partizipation
Eine weit verbreitete Annahme besagt, dass sowohl Zufriedenheit als auch Produktivitätsgewinne erreicht werden können, indem die Möglichkeit zur direkten Beteiligung an der Entscheidungsfindung geboten wird. Insgesamt hat die Forschung diese Annahme gestützt, aber die Beweise sind nicht eindeutig und viele der Studien wurden aus theoretischen und methodischen Gründen kritisiert (Cotton et al. 1988; Locke und Schweiger 1979; Wall und Lischeron 1977). Cottonet al. (1988) argumentierten, dass widersprüchliche Befunde auf Unterschiede in der untersuchten Beteiligungsform zurückzuführen seien; Beispielsweise werden informelle Beteiligung und Mitarbeiterbeteiligung mit hoher Produktivität und Zufriedenheit in Verbindung gebracht, während kurzfristige Beteiligung in beiden Hinsichten unwirksam ist. Obwohl ihre Schlussfolgerungen stark kritisiert wurden (Leana, Locke und Schweiger 1990), besteht Einigkeit darüber, dass die Partizipationsforschung im Allgemeinen durch eine Reihe von Mängeln gekennzeichnet ist, die von konzeptionellen Problemen wie den von Cotton et al. (1988) zu methodologischen Aspekten wie Ergebnisvariationen aufgrund unterschiedlicher Operationalisierungen der abhängigen Variablen (z. B. Wagner und Gooding 1987).
Um die Schwierigkeiten der Partizipationsforschung zu veranschaulichen, wird die klassische Studie von Coch und French (1948) kurz beschrieben, gefolgt von der Kritik von Bartlem und Locke (1981). Der Fokus der erstgenannten Studie lag auf der Überwindung von Veränderungswiderständen durch Partizipation. In einem Textilbetrieb mit häufig wechselnden Arbeitsaufgaben erhielten die Bediener die Möglichkeit, ihren neuen Arbeitsplatz in unterschiedlichem Maße mitzugestalten. An den Entscheidungen (detaillierte Arbeitsverfahren für neue Arbeitsplätze und Stücklöhne) war eine Gruppe von Operateuren durch gewählte Vertreter, dh mehrere Operateure ihrer Gruppe, beteiligt. In zwei kleineren Gruppen nahmen alle Betreiber an diesen Entscheidungen teil, und eine vierte Gruppe diente als Kontrolle, wobei keine Teilnahme erlaubt war. Zuvor war in der Anlage festgestellt worden, dass die meisten Bediener eine Versetzung ablehnen und langsamer darin waren, ihre neuen Jobs neu zu erlernen als bei ihrer ersten Tätigkeit im Werk, und dass die Fehlzeiten und die Fluktuation unter den versetzten Bedienern höher waren als bei den nicht kürzlich versetzten Bedienern.
Dies geschah trotz der Tatsache, dass eine Versetzungsprämie gewährt wurde, um den anfänglichen Verlust an Stücklohn nach einer Versetzung auf eine neue Stelle zu kompensieren. Beim Vergleich der drei Versuchsbedingungen zeigte sich, dass die Gruppe ohne Beteiligung im ersten Monat nach dem Transfer auf einem niedrigen Produktionsniveau blieb, das als Gruppenstandard festgelegt worden war, während die Gruppen mit voller Beteiligung ihre frühere Produktivität wiedererlangten innerhalb weniger Tage und zum Monatsende sogar übertroffen. Die dritte Gruppe, die durch ausgewählte Vertreter teilnahm, erholte sich nicht so schnell, zeigte aber nach einem Monat ihre alte Leistungsfähigkeit. (Sie hatten jedoch auch für die erste Woche nicht genügend Material, um daran zu arbeiten.) In den teilnehmenden Gruppen kam es zu keiner Fluktuation und es wurde wenig Aggression gegenüber dem Management beobachtet. Der Umsatz in der Beteiligungsgruppe ohne Beteiligung lag bei 17 % und die Haltung gegenüber dem Management war allgemein feindselig. Die Gruppe ohne Beteiligung wurde nach einem Monat aufgelöst und nach weiteren zweieinhalb Monaten wieder zusammengeführt, um an einem neuen Arbeitsplatz zu arbeiten und dieses Mal die Möglichkeit zu erhalten, ihren Arbeitsplatz mitzugestalten. Sie zeigten dann das gleiche Erholungsmuster und eine gesteigerte Produktivität wie die Gruppen mit Teilnahme am ersten Experiment. Die Ergebnisse wurden von Coch und French auf der Grundlage eines allgemeinen Modells des Widerstands gegen Veränderungen erklärt, das aus der Arbeit von Lewin (1951, siehe unten) abgeleitet wurde.
Bartlem und Locke (1981) argumentierten, dass diese Befunde nicht als Beleg für die positiven Effekte der Teilnahme interpretiert werden könnten, da es erhebliche Unterschiede zwischen den Gruppen hinsichtlich der Erklärung des Änderungsbedarfs in den Einführungsgesprächen mit dem Management, des Schulungsumfangs gab erhalten, die Art und Weise, wie die Zeitstudien durchgeführt wurden, um den Akkordsatz festzulegen, der verfügbare Arbeitsumfang und die Gruppengröße. Sie gingen davon aus, dass die wahrgenommene Fairness der Lohnsätze und das allgemeine Vertrauen in das Management zur besseren Leistung der Beteiligungsgruppen beitrugen, nicht die Beteiligung an sich.
Abgesehen von der Problematik der Partizipationswirkungsforschung ist nur sehr wenig über die Prozesse bekannt, die zu diesen Wirkungen führen (zB Wilpert 1989). Baitsch (1985) hat in einer Längsschnittstudie zu den Wirkungen partizipativer Arbeitsgestaltung detailliert Prozesse der Kompetenzentwicklung bei einer Reihe von Beschäftigten in der Produktion beschrieben. Seine Studie kann mit Decis (1975) Theorie der intrinsischen Motivation verknüpft werden, die auf dem Bedürfnis nach Kompetenz und Selbstbestimmung basiert. Ein theoretischer Rahmen, der sich auf die Auswirkungen der Partizipation auf den Widerstand gegen Veränderungen konzentriert, wurde von Lewin (1951) vorgeschlagen, der argumentierte, dass soziale Systeme ein quasi stationäres Gleichgewicht erreichen, das durch jeden Versuch einer Veränderung gestört wird. Damit der Wandel erfolgreich durchgeführt werden kann, müssen die Kräfte, die den Wandel befürworten, stärker sein als die sich widersetzenden Kräfte. Partizipation hilft sowohl beim Abbau der Widerstände als auch bei der Steigerung der Antriebskräfte, weil Gründe für Widerstände offen diskutiert und bearbeitet werden können und individuelle Anliegen und Bedürfnisse in die vorgeschlagene Veränderung integriert werden können. Darüber hinaus ging Lewin davon aus, dass gemeinsame Entscheidungen, die aus partizipativen Veränderungsprozessen resultieren, die Verbindung zwischen der Motivation zur Veränderung und den tatsächlichen Verhaltensänderungen herstellen.
Mitarbeit am Systemdesign
Angesichts der – wenn auch nicht ganz konsistenten – empirischen Unterstützung für die Wirksamkeit von Partizipation sowie ihrer ethischen Untermauerung in der industriellen Demokratie besteht weitgehend Einigkeit darüber, dass für die Zwecke der Systemgestaltung eine partizipative Strategie verfolgt werden sollte (Greenbaum und Kyng 1991; Majchrzak 1988; Scarbrough und Corbett 1992). Darüber hinaus haben eine Reihe von Fallstudien zu partizipativen Designprozessen die spezifischen Vorteile der Partizipation am Systemdesign aufgezeigt, beispielsweise in Bezug auf die Qualität des resultierenden Designs, die Benutzerzufriedenheit und die Akzeptanz (dh die tatsächliche Nutzung) des neuen Systems (Mumford und Henshall 1979; Spinas 1989; Ulich et al. 1991).
Die wichtige Frage ist dann nicht das Ob, sondern das Wie der Partizipation. Scarbrough und Corbett (1992) gaben einen Überblick über verschiedene Arten der Beteiligung in den verschiedenen Phasen des Designprozesses (siehe Tabelle 3). Wie sie betonen, ist die Beteiligung der Benutzer an der eigentlichen Gestaltung der Technologie eher selten und geht oft nicht über die Informationsverteilung hinaus. Partizipation erfolgt meist in späteren Phasen der Implementierung und Optimierung des technischen Systems und bei der Entwicklung soziotechnischer Gestaltungsmöglichkeiten, also Möglichkeiten der Organisations- und Arbeitsgestaltung in Kombination mit Möglichkeiten der Nutzung des technischen Systems.
Tabelle 3. Benutzerbeteiligung am Technologieprozess
Art der Teilnahme |
||
Phasen des Technologieprozesses |
formal |
Informell |
Design |
Gewerkschaftliche Beratung |
Neugestaltung durch Benutzer |
Sytemimplementierung |
Neue Technologievereinbarungen |
Skills-Verhandlungen |
Verwenden Sie die |
Arbeitsgestaltung |
Informelle Neugestaltung des Arbeitsplatzes |
Adaptiert von Scarbrough und Corbett 1992.
Neben dem Widerstand von Managern und Ingenieuren gegen die Einbeziehung von Benutzern in die Gestaltung technischer Systeme und möglichen Einschränkungen, die in die formale Beteiligungsstruktur eines Unternehmens eingebettet sind, betrifft eine wichtige Schwierigkeit den Bedarf an Methoden, die die Diskussion und Bewertung von Systemen ermöglichen, die dies noch nicht tun existieren (Grote 1994). In der Softwareentwicklung können Usability Labs helfen, diese Schwierigkeit zu überwinden, da sie die Möglichkeit für frühzeitige Tests durch zukünftige Benutzer bieten.
Bei der Betrachtung des Prozesses des Systemdesigns, einschließlich partizipativer Prozesse, haben Hirschheim und Klein (1989) die Auswirkungen impliziter und expliziter Annahmen von Systementwicklern und -managern über grundlegende Themen wie die Natur der sozialen Organisation, die Natur der Technologie und ihre Bedeutung betont eigene Rolle im Entwicklungsprozess. Ob sich Systemdesigner als Experten, Katalysatoren oder Emanzipatoren verstehen, wird den Design- und Implementierungsprozess stark beeinflussen. Außerdem muss, wie bereits erwähnt, der breitere organisatorische Kontext berücksichtigt werden, in dem partizipatives Design stattfindet. Hornby und Clegg (1992) lieferten einige Belege für die Beziehung zwischen allgemeinen Organisationsmerkmalen und der gewählten Beteiligungsform (oder genauer gesagt, der Form, die sich im Laufe des Systemdesigns und der Systemimplementierung herausbildet). Sie untersuchten die Einführung eines Informationssystems, die in einer partizipativen Projektstruktur und mit ausdrücklicher Verpflichtung zur Nutzerbeteiligung durchgeführt wurde. Die Benutzer berichteten jedoch, dass sie wenig Informationen über die geplanten Änderungen und einen geringen Einfluss auf das Systemdesign und damit verbundene Fragen wie Arbeitsplatzgestaltung und Arbeitsplatzsicherheit hatten. Dieser Befund wurde im Hinblick auf die mechanistische Struktur und instabile Prozesse der Organisation interpretiert, die eine „willkürliche“ Beteiligung anstelle der gewünschten offenen Beteiligung förderten (siehe Tabelle 2).
Zusammenfassend lässt sich sagen, dass es genügend Beweise gibt, die die Vorteile partizipativer Veränderungsstrategien belegen. Allerdings muss noch viel über die zugrunde liegenden Prozesse und Einflussfaktoren gelernt werden, die diese positiven Effekte hervorrufen, abschwächen oder verhindern.
Arbeit ist essentiell für das Leben, die Entwicklung und die persönliche Entfaltung. Unverzichtbare Aktivitäten wie die Nahrungsmittelproduktion, die Gewinnung von Rohstoffen, die Herstellung von Waren, die Energieerzeugung und Dienstleistungen beinhalten leider Prozesse, Vorgänge und Materialien, die mehr oder weniger Gefahren für die Gesundheit von Arbeitnehmern und denen in nahe gelegenen Gemeinden darstellen können , sowie auf das allgemeine Umfeld.
Die Erzeugung und Freisetzung von Schadstoffen in der Arbeitsumgebung kann jedoch durch angemessene Maßnahmen zur Gefahrenkontrolle verhindert werden, die nicht nur die Gesundheit der Arbeitnehmer schützen, sondern auch die mit der Industrialisierung häufig verbundenen Umweltschäden begrenzen. Wenn eine schädliche Chemikalie aus einem Arbeitsprozess entfernt wird, wird sie weder die Arbeiter beeinträchtigen noch darüber hinaus die Umwelt belasten.
Der Beruf, der speziell auf die Verhütung und Beherrschung von Gefahren abzielt, die sich aus Arbeitsabläufen ergeben, ist die Arbeitshygiene. Zu den Zielen der Arbeitshygiene gehören der Schutz und die Förderung der Gesundheit der Arbeitnehmer, der Schutz der Umwelt und der Beitrag zu einer sicheren und nachhaltigen Entwicklung.
Die Notwendigkeit der Arbeitshygiene zum Schutz der Gesundheit der Arbeitnehmer kann nicht genug betont werden. Die Diagnose und Heilung einer Berufskrankheit wird auch dann, wenn möglich, weitere Ausprägungen nicht verhindern, wenn die Exposition gegenüber dem Krankheitserreger nicht aufhört. Solange die ungesunde Arbeitsumgebung unverändert bleibt, bleibt ihr Potenzial, die Gesundheit zu beeinträchtigen. Nur die Kontrolle von Gesundheitsgefahren kann den in Abbildung 1 dargestellten Teufelskreis durchbrechen.
Abbildung 1. Wechselwirkungen zwischen Mensch und Umwelt
Vorbeugende Maßnahmen sollten jedoch viel früher ansetzen, nicht nur vor dem Auftreten einer gesundheitlichen Beeinträchtigung, sondern sogar bevor eine Exposition tatsächlich eintritt. Die Arbeitsumgebung sollte ständig überwacht werden, damit gefährliche Stoffe und Faktoren erkannt und entfernt oder kontrolliert werden können, bevor sie negative Auswirkungen haben; Dies ist die Aufgabe der Arbeitshygiene.
Darüber hinaus kann Arbeitshygiene auch zu einer sicheren und nachhaltigen Entwicklung beitragen, d. h. „sicherstellen, dass (Entwicklung) den Bedürfnissen der Gegenwart entspricht, ohne die Fähigkeit künftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen“ (World Commission on Environment and Development 1987). Um die Bedürfnisse der heutigen Weltbevölkerung zu erfüllen, ohne die globale Ressourcenbasis zu erschöpfen oder zu schädigen und ohne nachteilige Folgen für Gesundheit und Umwelt zu verursachen, sind Wissen und Mittel erforderlich, um Maßnahmen zu beeinflussen (WHO 1992a); In Bezug auf Arbeitsprozesse ist dies eng mit der arbeitshygienischen Praxis verbunden.
Arbeitsmedizin erfordert einen multidisziplinären Ansatz und umfasst grundlegende Disziplinen, von denen eine die Arbeitshygiene ist, zusammen mit anderen, die Arbeitsmedizin und Krankenpflege, Ergonomie und Arbeitspsychologie umfassen. Eine schematische Darstellung der Handlungsspielräume für Arbeitsmediziner und Arbeitshygieniker ist in Abbildung 2 dargestellt.
Abbildung 2. Handlungsspielräume für Arbeitsmediziner und Arbeitshygieniker.
Es ist wichtig, dass Entscheidungsträger, Manager und Arbeitnehmer selbst sowie alle Fachleute auf dem Gebiet der Arbeitsmedizin die wesentliche Rolle verstehen, die Arbeitshygiene beim Schutz der Gesundheit der Arbeitnehmer und der Umwelt spielt, sowie den Bedarf an spezialisierten Fachleuten in diesem Bereich Gebiet. Die enge Verbindung zwischen Arbeits- und Umweltgesundheit sollte ebenfalls berücksichtigt werden, da die Vermeidung von Umweltverschmutzung durch industrielle Quellen durch die angemessene Handhabung und Entsorgung gefährlicher Abwässer und Abfälle auf Arbeitsplatzebene beginnen sollte. (Siehe „Bewertung des Arbeitsumfelds“).
Konzepte und Definitionen
Arbeitshygiene
Arbeitshygiene ist die Wissenschaft von der Antizipation, Erkennung, Bewertung und Beherrschung von Gefahren, die am oder vom Arbeitsplatz ausgehen und die Gesundheit und das Wohlbefinden der Arbeitnehmer beeinträchtigen könnten, auch unter Berücksichtigung der möglichen Auswirkungen auf die umliegenden Gemeinden und die Allgemeinheit Umgebung.
Definitionen der Arbeitshygiene können auf unterschiedliche Weise dargestellt werden; sie alle haben jedoch im Wesentlichen die gleiche Bedeutung und zielen auf das gleiche grundlegende Ziel ab, nämlich den Schutz und die Förderung der Gesundheit und des Wohlbefindens der Arbeitnehmer sowie den Schutz der allgemeinen Umwelt durch vorbeugende Maßnahmen am Arbeitsplatz.
Arbeitshygiene ist noch nicht überall als Beruf anerkannt; In vielen Ländern entstehen jedoch Rahmengesetze, die zu ihrer Einführung führen werden.
Arbeitshygieniker
Ein Arbeitshygieniker ist ein Fachmann, der in der Lage ist:
Es sollte bedacht werden, dass ein Beruf nicht nur aus einem Wissensbestand besteht, sondern auch aus einem Ethikkodex; Nationale Verbände für Arbeitshygiene sowie die International Occupational Hygiene Association (IOHA) haben ihre eigenen Ethikkodizes (WHO 1992b).
Fachkraft für Arbeitshygiene
Ein Arbeitshygienetechniker ist „eine Person, die befähigt ist, Messungen der Arbeitsumgebung durchzuführen“, aber nicht „die Interpretationen, Beurteilungen und Empfehlungen abzugeben, die von einem Arbeitshygieniker verlangt werden“. Das erforderliche Kompetenzniveau kann in einem umfassenden oder begrenzten Bereich erworben werden (WHO 1992b).
Internationale Vereinigung für Arbeitshygiene (IOHA)
IOHA wurde während eines Treffens in Montreal am 2. Juni 1987 offiziell gegründet. Gegenwärtig hat IOHA die Beteiligung von 19 nationalen Arbeitshygieneverbänden mit über neunzehntausend Mitgliedern aus siebzehn Ländern.
Das Hauptziel von IOHA ist die weltweite Förderung und Entwicklung der Arbeitshygiene auf einem hohen Niveau professioneller Kompetenz durch Mittel, die den Informationsaustausch zwischen Organisationen und Einzelpersonen, die Weiterentwicklung der Humanressourcen und die Förderung eines hohen Standards umfassen der ethischen Praxis. Zu den Aktivitäten von IOHA gehören wissenschaftliche Tagungen und die Veröffentlichung eines Newsletters. Mitglieder von angeschlossenen Vereinen sind automatisch Mitglieder von IOHA; es ist auch möglich, als Einzelmitglied beizutreten, für diejenigen aus Ländern, in denen es noch keinen nationalen Verband gibt.
Zertifizierung
Zusätzlich zu einer anerkannten Definition der Arbeitshygiene und der Rolle des Arbeitshygienikers müssen Zertifizierungssysteme eingerichtet werden, um akzeptable Standards für die Kompetenz und Praxis der Arbeitshygiene zu gewährleisten. Zertifizierung bezieht sich auf ein formelles Schema, das auf Verfahren zur Feststellung und Aufrechterhaltung von Wissen, Fähigkeiten und Kompetenzen von Fachleuten basiert (Burdorf 1995).
Die IOHA hat eine Untersuchung bestehender nationaler Zertifizierungssysteme (Burdorf 1995) zusammen mit Empfehlungen zur Förderung der internationalen Zusammenarbeit zur Sicherung der Qualität professioneller Arbeitshygieniker gefördert, die Folgendes umfassen:
Andere Vorschläge in diesem Bericht umfassen Punkte wie: „Gegenseitigkeit“ und „gegenseitige Anerkennung nationaler Bezeichnungen, die letztlich auf ein Dachsystem mit einer international akzeptierten Bezeichnung abzielen“.
Die Praxis der Arbeitshygiene
Die klassischen Schritte in der arbeitshygienischen Praxis sind:
Der ideale Ansatz zur Gefahrenabwehr ist „vorausschauendes und integriertes Vorbeugen“, das Folgendes umfassen sollte:
Es kann nicht genug betont werden, wie wichtig es ist, alle Arten von Umweltverschmutzung vorherzusehen und zu verhindern. Erfreulicherweise gibt es eine zunehmende Tendenz, neue Technologien unter dem Gesichtspunkt möglicher negativer Auswirkungen und ihrer Vermeidung zu betrachten, von der Konstruktion und Installation des Prozesses bis hin zum Umgang mit den entstehenden Abwässern und Abfällen in der sogenannten Wiege -to-Grave-Ansatz. Umweltkatastrophen, die sowohl in Industrie- als auch in Entwicklungsländern aufgetreten sind, hätten durch die Anwendung geeigneter Kontrollstrategien und Notfallverfahren am Arbeitsplatz vermieden werden können.
Ökonomische Aspekte sollten weiter gefasst werden als die übliche anfängliche Kostenbetrachtung; Teurere Optionen, die einen guten Gesundheits- und Umweltschutz bieten, können sich auf lange Sicht als wirtschaftlicher erweisen. Der Schutz der Gesundheit der Arbeitnehmer und der Umwelt muss viel früher ansetzen, als dies normalerweise der Fall ist. Technische Informationen und Ratschläge zur Arbeits- und Umwelthygiene sollten immer für diejenigen verfügbar sein, die neue Prozesse, Maschinen, Ausrüstungen und Arbeitsplätze entwerfen. Leider werden solche Informationen oft viel zu spät zur Verfügung gestellt, wenn die einzige Lösung eine kostspielige und schwierige Nachrüstung ist, oder schlimmer noch, wenn die Folgen bereits desaströs sind.
Erkennen von Gefahren
Das Erkennen von Gefahren ist ein grundlegender Schritt in der Praxis der Arbeitshygiene, unabdingbar für die angemessene Planung von Gefahrenbewertungs- und -bekämpfungsstrategien sowie für die Festlegung von Handlungsprioritäten. Zur adäquaten Gestaltung von Bekämpfungsmaßnahmen ist es außerdem erforderlich, Schadstoffquellen und Schadstoffausbreitungswege physikalisch zu charakterisieren.
Das Erkennen von Gefährdungen führt zur Bestimmung von:
Die Identifizierung gefährlicher Stoffe, ihrer Quellen und der Expositionsbedingungen erfordert umfassende Kenntnisse und sorgfältige Untersuchungen der Arbeitsprozesse und -vorgänge, der verwendeten oder erzeugten Rohstoffe und Chemikalien, der Endprodukte und eventuellen Nebenprodukte sowie der Möglichkeiten der zufälligen Entstehung von Chemikalien, Zersetzung von Materialien, Verbrennung von Brennstoffen oder das Vorhandensein von Verunreinigungen. Das Erkennen der Art und des potenziellen Ausmaßes der biologischen Wirkungen, die solche Stoffe verursachen können, wenn eine Überexposition auftritt, erfordert Kenntnisse und den Zugang zu toxikologischen Informationen. Zu den internationalen Informationsquellen in dieser Hinsicht gehören das Internationale Programm für Chemikaliensicherheit (IPCS), die Internationale Agentur für Krebsforschung (IARC) und das Internationale Register potenziell toxischer Chemikalien des Umweltprogramms der Vereinten Nationen (UNEP-IRPTC).
Zu den gesundheitsgefährdenden Stoffen in der Arbeitsumgebung gehören Luftschadstoffe; nicht luftgetragene Chemikalien; physikalische Einwirkungen wie Hitze und Lärm; Biologische Mittel; ergonomische Faktoren wie unzureichende Hebevorgänge und Arbeitshaltungen; und psychosoziale Belastungen.
Arbeitshygienische Bewertungen
Bewertungen der Arbeitshygiene werden durchgeführt, um die Exposition der Arbeitnehmer zu bewerten sowie Informationen für die Gestaltung oder Prüfung der Wirksamkeit von Kontrollmaßnahmen bereitzustellen.
Die Bewertung der Exposition von Arbeitnehmern gegenüber berufsbedingten Gefahren, wie Luftschadstoffen, physikalischen und biologischen Arbeitsstoffen, wird an anderer Stelle in diesem Kapitel behandelt. Dennoch sollen hier einige allgemeine Überlegungen zum besseren Verständnis des Bereichs Arbeitshygiene angestellt werden.
Es ist wichtig zu bedenken, dass die Gefährdungsbeurteilung kein Selbstzweck ist, sondern als Teil eines viel umfassenderen Verfahrens betrachtet werden muss, das mit der Erkenntnis beginnt, dass ein bestimmter Stoff, der gesundheitliche Beeinträchtigungen verursachen kann, in der Arbeit vorhanden sein kann Umwelt und schließt mit der Kontrolle dieses Mittels ab, damit es keinen Schaden anrichtet. Die Gefährdungsbeurteilung ebnet den Weg zur Gefahrenabwehr, ersetzt sie aber nicht.
Expositionsabschätzung
Die Expositionsbewertung zielt darauf ab, zu bestimmen, wie viel von einem Arbeitsstoff Arbeiter wie oft und wie lange ausgesetzt waren. Sowohl auf nationaler als auch auf internationaler Ebene sind diesbezügliche Richtlinien aufgestellt worden, beispielsweise die EN 689, erarbeitet vom Comité Européen de Normalization (Europäisches Komitee für Normung) (CEN 1994).
Bei der Bewertung der Exposition gegenüber luftgetragenen Schadstoffen ist das gebräuchlichste Verfahren die Bewertung der Inhalationsexposition, die die Bestimmung der Luftkonzentration des Arbeitsstoffs erfordert, dem die Arbeitnehmer ausgesetzt sind (oder im Fall von luftgetragenen Partikeln die Luftkonzentration von die relevante Fraktion, z. B. die „lungengängige Fraktion“) und die Dauer der Exposition. Wenn jedoch andere Wege als die Inhalation erheblich zur Aufnahme einer Chemikalie beitragen, kann eine falsche Beurteilung erfolgen, wenn nur die Inhalationsexposition betrachtet wird. In solchen Fällen muss die Gesamtexposition bewertet werden, und ein sehr nützliches Instrument dafür ist die biologische Überwachung.
Die Praxis der Arbeitshygiene befasst sich mit drei Arten von Situationen:
Ein Hauptgrund für die Feststellung, ob eine übermäßige Exposition gegenüber einem gefährlichen Stoff in der Arbeitsumgebung vorliegt, ist die Entscheidung, ob Maßnahmen erforderlich sind. Dies bedeutet häufig, aber nicht notwendigerweise, festzustellen, ob eine angenommene Norm eingehalten wird, was normalerweise in Form eines Arbeitsplatzgrenzwerts ausgedrückt wird. Die Bestimmung der Situation der „schlechtesten Exposition“ kann ausreichen, um diesen Zweck zu erfüllen. Wenn zu erwarten ist, dass die Exposition im Verhältnis zu den akzeptierten Grenzwerten entweder sehr hoch oder sehr niedrig ist, können die Genauigkeit und Präzision quantitativer Bewertungen geringer sein, als wenn zu erwarten ist, dass die Expositionen näher an den Grenzwerten liegen. Tatsächlich kann es bei offensichtlichen Gefahren klüger sein, zunächst Ressourcen in Kontrollen zu investieren und nach der Einführung von Kontrollen genauere Umweltbewertungen durchzuführen.
Folgebewertungen sind häufig erforderlich, insbesondere wenn die Notwendigkeit bestand, Kontrollmaßnahmen zu installieren oder zu verbessern, oder wenn Änderungen in den verwendeten Verfahren oder verwendeten Materialien vorgesehen waren. In diesen Fällen spielen quantitative Bewertungen eine wichtige Überwachungsrolle bei:
Immer dann, wenn im Rahmen einer epidemiologischen Studie eine arbeitshygienische Erhebung durchgeführt wird, um quantitative Daten zu Zusammenhängen zwischen Exposition und gesundheitlichen Wirkungen zu erhalten, muss die Exposition mit hoher Genauigkeit und Präzision charakterisiert werden. In diesem Fall müssen alle Expositionshöhen angemessen charakterisiert werden, da es beispielsweise nicht ausreicht, nur die Worst-Case-Expositionssituation zu charakterisieren. Es wäre ideal, wenn auch in der Praxis schwierig, immer genaue und genaue Aufzeichnungen zur Expositionsbewertung zu führen, da möglicherweise in Zukunft historische Expositionsdaten benötigt werden.
Um sicherzustellen, dass die Bewertungsdaten repräsentativ für die Exposition der Arbeitnehmer sind und dass keine Ressourcen verschwendet werden, muss eine angemessene Stichprobenstrategie entwickelt und befolgt werden, die alle möglichen Quellen von Schwankungen berücksichtigt. Stichprobenstrategien sowie Messtechniken werden in „Bewertung der Arbeitsumgebung“ behandelt.
Interpretation der Ergebnisse
Der Grad der Unsicherheit bei der Schätzung eines Expositionsparameters, beispielsweise der wahren Durchschnittskonzentration einer luftgetragenen Schadstoffe, wird durch statistische Behandlung der Ergebnisse von Messungen (z. B. Probenahme und Analyse) bestimmt. Das Vertrauen in die Ergebnisse hängt vom Variationskoeffizienten des „Messsystems“ und von der Anzahl der Messungen ab. Sobald ein akzeptables Vertrauen besteht, besteht der nächste Schritt darin, die gesundheitlichen Auswirkungen der Exposition zu berücksichtigen: Was bedeutet dies für die Gesundheit der exponierten Arbeitnehmer: jetzt? in naher Zukunft? in ihrem Berufsleben? Wird es Auswirkungen auf zukünftige Generationen geben?
Der Bewertungsprozess ist erst abgeschlossen, wenn Messergebnisse im Hinblick auf Daten (manchmal als „Daten zur Risikobewertung“ bezeichnet) interpretiert werden, die aus experimenteller Toxikologie, epidemiologischen und klinischen Studien und in bestimmten Fällen aus klinischen Studien stammen. Es sollte klargestellt werden, dass der Begriff Risikobewertung im Zusammenhang mit zwei Arten von Bewertungen verwendet wurde – der Bewertung von Art und Ausmaß des Risikos, das sich aus der Exposition gegenüber Chemikalien oder anderen Stoffen im Allgemeinen ergibt, und der Risikobewertung für einen bestimmten Arbeitnehmer oder eine Gruppe von Arbeitnehmern in einer bestimmten Situation am Arbeitsplatz.
In der Praxis der Arbeitshygiene werden die Ergebnisse der Expositionsbewertung häufig mit angenommenen Grenzwerten für die Exposition am Arbeitsplatz verglichen, die als Orientierungshilfe für die Gefahrenbewertung und für die Festlegung von Zielwerten für die Kontrolle dienen sollen. Eine Exposition, die diese Grenzwerte überschreitet, erfordert sofortige Abhilfemaßnahmen durch die Verbesserung bestehender Kontrollmaßnahmen oder die Einführung neuer. Tatsächlich sollten vorbeugende Maßnahmen auf der „Eingriffsebene“ erfolgen, die von Land zu Land unterschiedlich ist (z. B. die Hälfte oder ein Fünftel des Arbeitsplatzgrenzwerts). Ein niedriges Aktionsniveau ist die beste Garantie, zukünftige Probleme zu vermeiden.
Der Vergleich der Ergebnisse der Expositionsbewertung mit Arbeitsplatzgrenzwerten ist eine Vereinfachung, da neben anderen Einschränkungen viele Faktoren, die die Aufnahme von Chemikalien beeinflussen (z. B. individuelle Empfindlichkeiten, körperliche Aktivität und Körperbau), bei diesem Verfahren nicht berücksichtigt werden. Darüber hinaus gibt es an den meisten Arbeitsplätzen eine gleichzeitige Exposition gegenüber vielen Arbeitsstoffen; Daher ist die Frage der kombinierten Expositionen und Wechselwirkungen von Wirkstoffen ein sehr wichtiges Thema, da sich die gesundheitlichen Folgen der Exposition gegenüber einem bestimmten Wirkstoff allein erheblich von den Folgen der Exposition gegenüber demselben Wirkstoff in Kombination mit anderen unterscheiden können, insbesondere wenn es zu Synergismus oder Potenzierung kommt Auswirkungen.
Messungen zur Kontrolle
Messungen mit dem Ziel, das Vorhandensein von Arbeitsstoffen und die Muster von Expositionsparametern in der Arbeitsumgebung zu untersuchen, können für die Planung und Gestaltung von Kontrollmaßnahmen und Arbeitspraktiken äußerst nützlich sein. Zu den Zielen solcher Messungen gehören:
Direkt anzeigende Instrumente sind äußerst nützlich für Kontrollzwecke, insbesondere solche, die für kontinuierliche Probenahmen verwendet werden können und in Echtzeit widerspiegeln, was passiert, wodurch Expositionssituationen offengelegt werden, die andernfalls möglicherweise nicht erkannt werden und die kontrolliert werden müssen. Beispiele für solche Instrumente sind: Photoionisationsdetektoren, Infrarotanalysatoren, Aerosolmeter und Detektorröhrchen. Bei der Probenentnahme, um ein Bild des Verhaltens von Schadstoffen von der Quelle in der gesamten Arbeitsumgebung zu erhalten, sind Genauigkeit und Präzision nicht so entscheidend wie bei der Expositionsbewertung.
Jüngste Entwicklungen bei dieser Art von Messung für Kontrollzwecke schließen Visualisierungstechniken ein, von denen eine Picture Mix Exposure – PIMEX (Rosen 1993) ist. Diese Methode kombiniert ein Videobild des Arbeiters mit einer Skala, die die Schadstoffkonzentrationen in der Luft anzeigt, die kontinuierlich im Atembereich gemessen werden, mit einem Echtzeit-Überwachungsinstrument, wodurch es möglich wird, zu visualisieren, wie sich die Konzentration während der Ausführung der Aufgabe ändert . Dies bietet ein hervorragendes Werkzeug zum Vergleichen der relativen Wirksamkeit verschiedener Kontrollmaßnahmen, wie z. B. Belüftung und Arbeitspraktiken, und trägt so zu einem besseren Design bei.
Messungen sind auch erforderlich, um die Wirksamkeit von Kontrollmaßnahmen zu beurteilen. In diesem Fall ist die Probenahme an der Quelle oder aus der Fläche allein oder zusätzlich zur persönlichen Probenahme für die Bewertung der Exposition der Arbeitnehmer zweckmäßig. Um die Gültigkeit zu gewährleisten, sollten die Orte für „vor“ und „nach“ der Probenahme (oder Messungen) und die verwendeten Techniken in Bezug auf Empfindlichkeit, Genauigkeit und Präzision gleich oder gleichwertig sein.
Gefahrenabwehr und -kontrolle
Oberstes Ziel der Arbeitshygiene ist die Umsetzung geeigneter Maßnahmen zur Gefahrenabwehr und -beherrschung im Arbeitsumfeld. Standards und Vorschriften sind, wenn sie nicht durchgesetzt werden, für den Gesundheitsschutz der Arbeitnehmer bedeutungslos, und die Durchsetzung erfordert normalerweise sowohl Überwachungs- als auch Kontrollstrategien. Das Fehlen gesetzlich festgelegter Standards sollte kein Hindernis für die Umsetzung der erforderlichen Maßnahmen sein, um schädliche Expositionen zu verhindern oder sie auf dem geringstmöglichen Niveau zu kontrollieren. Wenn ernsthafte Gefahren offensichtlich sind, sollte eine Kontrolle empfohlen werden, noch bevor quantitative Bewertungen durchgeführt werden. Es kann manchmal erforderlich sein, das klassische Konzept „Erkennung-Bewertung-Kontrolle“ in „Erkennung-Kontrolle-Bewertung“ oder sogar in „Erkennung-Kontrolle“ zu ändern, wenn keine Möglichkeiten zur Bewertung von Gefährdungen vorhanden sind. Einige Beispiele für Gefahren, bei denen offensichtlich Handlungsbedarf besteht, ohne dass eine vorherige Umgebungsprobenahme erforderlich ist, sind Galvanik, die in einem unbelüfteten, kleinen Raum durchgeführt wird, oder die Verwendung eines Presslufthammers oder einer Sandstrahlausrüstung ohne Umgebungskontrollen oder Schutzausrüstung. Bei solchen anerkannten Gesundheitsgefahren besteht der unmittelbare Bedarf in der Kontrolle, nicht in der quantitativen Bewertung.
Vorbeugende Maßnahmen sollten in irgendeiner Weise die Kette unterbrechen, durch die der gefährliche Stoff – eine Chemikalie, Staub, eine Energiequelle – von der Quelle zum Arbeitnehmer übertragen wird. Es gibt drei Hauptgruppen von Kontrollmaßnahmen: technische Kontrollen, Arbeitspraktiken und persönliche Maßnahmen.
Der effizienteste Ansatz zur Gefahrenprävention ist die Anwendung technischer Kontrollmaßnahmen, die berufliche Expositionen durch Management der Arbeitsumgebung verhindern und so die Notwendigkeit von Initiativen seitens der Arbeitnehmer oder potenziell exponierten Personen verringern. Technische Maßnahmen erfordern normalerweise einige Prozessmodifikationen oder mechanische Strukturen und umfassen technische Maßnahmen, die die Verwendung, Erzeugung oder Freisetzung gefährlicher Stoffe an ihrer Quelle beseitigen oder verringern, oder, wenn die Beseitigung der Quelle nicht möglich ist, sollten technische Maßnahmen zur Verhinderung oder Verringerung konzipiert werden die Ausbreitung gefährlicher Arbeitsstoffe in die Arbeitsumgebung durch:
Kontrollmaßnahmen, die eine gewisse Änderung der Quelle beinhalten, sind der beste Ansatz, da der schädliche Stoff eliminiert oder in seiner Konzentration oder Intensität reduziert werden kann. Maßnahmen zur Reduzierung von Quellen umfassen die Substitution von Materialien, die Substitution/Änderung von Prozessen oder Ausrüstung und eine bessere Wartung der Ausrüstung.
Wenn Änderungen an der Quelle nicht durchführbar oder nicht ausreichend sind, um das gewünschte Maß an Kontrolle zu erreichen, sollte die Freisetzung und Verbreitung gefährlicher Stoffe in der Arbeitsumgebung verhindert werden, indem ihr Übertragungsweg durch Maßnahmen wie Isolierung (z. B. geschlossene Systeme, Einhausungen), örtliche Absaugung, Barrieren und Abschirmungen, Isolierung von Arbeitern.
Andere Maßnahmen, die darauf abzielen, die Exposition in der Arbeitsumgebung zu verringern, umfassen eine angemessene Gestaltung des Arbeitsplatzes, Verdünnungs- oder Verdrängungslüftung, gute Ordnung und angemessene Lagerung. Kennzeichnungs- und Warnschilder können Arbeitnehmer bei sicheren Arbeitspraktiken unterstützen. Überwachungs- und Alarmsysteme können in einem Kontrollprogramm erforderlich sein. Beispiele sind Überwachungsgeräte für Kohlenmonoxid in der Nähe von Öfen, für Schwefelwasserstoff in Abwasseranlagen und für Sauerstoffmangel in geschlossenen Räumen.
Arbeitspraktiken sind ein wichtiger Teil der Kontrolle – zum Beispiel Jobs, bei denen die Arbeitshaltung eines Arbeiters die Exposition beeinflussen kann, z. B. ob sich ein Arbeiter über seine Arbeit beugt. Die Position des Arbeitnehmers kann die Expositionsbedingungen beeinflussen (z. B. Atemzone in Bezug auf die Schadstoffquelle, Möglichkeit der Hautabsorption).
Schließlich kann die berufliche Exposition vermieden oder verringert werden, indem der Arbeitnehmer an der kritischen Eintrittsstelle für den betreffenden Schadstoff (Mund, Nase, Haut, Ohr) mit einer Schutzbarriere versehen wird, dh durch die Verwendung von persönlichen Schutzausrüstungen. Es sollte darauf hingewiesen werden, dass alle anderen Kontrollmöglichkeiten erkundet werden sollten, bevor die Verwendung von persönlicher Schutzausrüstung in Betracht gezogen wird, da dies das am wenigsten zufriedenstellende Mittel zur routinemäßigen Kontrolle der Exposition, insbesondere von Luftschadstoffen, ist.
Andere persönliche vorbeugende Maßnahmen umfassen Aufklärung und Schulung, persönliche Hygiene und Begrenzung der Expositionszeit.
Kontinuierliche Bewertungen durch Umweltüberwachung und Gesundheitsüberwachung sollten Teil jeder Strategie zur Gefahrenprävention und -kontrolle sein.
Eine angemessene Steuerungstechnik für das Arbeitsumfeld muss auch Maßnahmen zur Vermeidung von Umweltbelastungen (Luft, Wasser, Boden) umfassen, einschließlich einer angemessenen Entsorgung gefährlicher Abfälle.
Obwohl die meisten der hier erwähnten Kontrollprinzipien für Luftschadstoffe gelten, sind viele auch auf andere Arten von Gefahren anwendbar. Beispielsweise kann ein Prozess modifiziert werden, um weniger Luftverunreinigungen oder weniger Lärm oder weniger Wärme zu erzeugen. Eine isolierende Barriere kann Arbeiter von einer Lärm-, Wärme- oder Strahlungsquelle isolieren.
Viel zu oft verweilt die Prävention bei den bekanntesten Maßnahmen wie lokaler Absaugung und persönlicher Schutzausrüstung, ohne andere wertvolle Kontrolloptionen wie alternative Reinigungstechnologien, Ersatz von Materialien, Änderung von Prozessen und gute Arbeitspraktiken angemessen zu berücksichtigen. Oftmals werden Arbeitsabläufe als unveränderlich angesehen, wenn in der Realität Änderungen vorgenommen werden können, die die damit verbundenen Gefährdungen wirksam verhindern oder zumindest verringern.
Gefahrenverhütung und -beherrschung in der Arbeitsumgebung erfordert Wissen und Einfallsreichtum. Eine wirksame Kontrolle erfordert nicht unbedingt sehr kostspielige und komplizierte Maßnahmen. In vielen Fällen kann die Gefahrenkontrolle durch geeignete Technologie erreicht werden, die so einfach sein kann wie ein Stück undurchlässiges Material zwischen der nackten Schulter eines Hafenarbeiters und einem Beutel mit giftigem Material, das durch die Haut aufgenommen werden kann. Es kann auch aus einfachen Verbesserungen bestehen, wie z. B. das Anbringen einer beweglichen Barriere zwischen einer UV-Quelle und einem Arbeiter oder die Schulung von Arbeitern in sicheren Arbeitspraktiken.
Zu berücksichtigende Aspekte bei der Auswahl geeigneter Bekämpfungsstrategien und -technologien umfassen die Art des gefährlichen Stoffs (Art, physikalischer Zustand, Auswirkungen auf die Gesundheit, Eintrittswege in den Körper), Art der Quelle(n), Ausmaß und Bedingungen der Exposition, Eigenschaften von der Arbeitsplatz und die relative Lage der Arbeitsplätze.
Die erforderlichen Fähigkeiten und Ressourcen für den korrekten Entwurf, die Implementierung, den Betrieb, die Bewertung und die Wartung von Steuerungssystemen müssen sichergestellt werden. Systeme wie lokale Absaugung müssen nach der Installation bewertet und danach routinemäßig überprüft werden. Nur regelmäßige Überwachung und Wartung können dauerhafte Effizienz gewährleisten, da selbst gut konzipierte Systeme ihre Anfangsleistung verlieren können, wenn sie vernachlässigt werden.
Kontrollmaßnahmen sollten in Gefahrenverhütungs- und Kontrollprogramme mit klaren Zielen und effizientem Management integriert werden, wobei multidisziplinäre Teams aus Arbeitshygienikern und anderem Gesundheits- und Sicherheitspersonal am Arbeitsplatz, Produktionsingenieuren, Management und Arbeitern einzubeziehen sind. Die Programme müssen auch Aspekte wie Gefahrenkommunikation, Schulung und Schulung zu sicheren Arbeitspraktiken und Notfallverfahren umfassen.
Auch gesundheitsfördernde Aspekte sollten einbezogen werden, da der Arbeitsplatz ein ideales Umfeld ist, um eine gesunde Lebensweise im Allgemeinen zu fördern und vor den Gefahren gefährlicher nichtberuflicher Expositionen zu warnen, die beispielsweise durch Schießen ohne angemessenen Schutz oder Rauchen verursacht werden.
Die Zusammenhänge zwischen Arbeitshygiene, Gefährdungsbeurteilung und Risikomanagement
Risikobewertung
Die Risikobewertung ist eine Methodik, die darauf abzielt, die Arten von gesundheitlichen Auswirkungen zu charakterisieren, die als Folge einer bestimmten Exposition gegenüber einem bestimmten Stoff erwartet werden, sowie Schätzungen zur Wahrscheinlichkeit des Auftretens dieser gesundheitlichen Auswirkungen bei unterschiedlichen Expositionsniveaus bereitzustellen. Es wird auch verwendet, um bestimmte Risikosituationen zu charakterisieren. Es umfasst die Identifizierung von Gefahren, die Festlegung von Expositions-Wirkungs-Beziehungen und die Expositionsbewertung, die zur Risikocharakterisierung führt.
Der erste Schritt bezieht sich auf die Identifizierung eines Wirkstoffs – beispielsweise einer Chemikalie – als Verursacher einer gesundheitsschädlichen Wirkung (z. B. Krebs oder systemische Vergiftung). Im zweiten Schritt wird festgestellt, wie viel Exposition bei wie vielen der exponierten Personen wie viel von einer bestimmten Wirkung hervorruft. Dieses Wissen ist für die Interpretation von Expositionsabschätzungsdaten unerlässlich.
Die Expositionsabschätzung ist Teil der Risikoabschätzung, sowohl bei der Gewinnung von Daten zur Charakterisierung einer Risikosituation als auch bei der Gewinnung von Daten zur Ermittlung von Expositions-Wirkungs-Beziehungen aus epidemiologischen Studien. Im letzteren Fall muss die Exposition, die zu einer bestimmten arbeits- oder umweltbedingten Wirkung geführt hat, genau charakterisiert werden, um die Gültigkeit der Korrelation zu gewährleisten.
Obwohl die Risikobewertung für viele Entscheidungen, die in der Praxis der Arbeitshygiene getroffen werden, von grundlegender Bedeutung ist, hat sie nur begrenzte Auswirkungen auf den Schutz der Gesundheit der Arbeitnehmer, wenn sie nicht in tatsächliche Präventionsmaßnahmen am Arbeitsplatz umgesetzt wird.
Die Risikobewertung ist ein dynamischer Prozess, da neue Erkenntnisse häufig schädliche Wirkungen von Stoffen offenbaren, die bis dahin als relativ harmlos galten; daher muss der Arbeitshygieniker jederzeit Zugang zu aktuellen toxikologischen Informationen haben. Eine weitere Implikation ist, dass Expositionen immer auf das niedrigstmögliche Niveau kontrolliert werden sollten.
Abbildung 3 dient zur Veranschaulichung verschiedener Elemente der Risikobewertung.
Abbildung 3. Elemente der Risikobewertung.
Risikomanagement im Arbeitsumfeld
Es ist nicht immer möglich, alle gesundheitsgefährdenden Arbeitsstoffe zu eliminieren, da einige unverzichtbare oder wünschenswerte Arbeitsprozesse sind; Risiken können und müssen jedoch gemanagt werden.
Die Risikobewertung bildet die Grundlage für das Risikomanagement. Während die Risikobewertung ein wissenschaftliches Verfahren ist, ist das Risikomanagement pragmatischer und umfasst Entscheidungen und Maßnahmen, die darauf abzielen, das Auftreten von Stoffen zu verhindern oder auf ein akzeptables Maß zu reduzieren, die eine Gefahr für die Gesundheit von Arbeitnehmern, umliegenden Gemeinden und der Umwelt darstellen können , wobei auch der sozioökonomische und öffentliche Gesundheitskontext berücksichtigt wird.
Das Risikomanagement findet auf verschiedenen Ebenen statt; Entscheidungen und Maßnahmen auf nationaler Ebene ebnen den Weg für die Praxis des Risikomanagements auf Arbeitsplatzebene.
Risikomanagement auf Arbeitsplatzebene erfordert Informationen und Kenntnisse über:
als Grundlage für Entscheidungen dienen, die Folgendes beinhalten:
und die zu Aktionen führen sollte wie:
Traditionell ist der Beruf, der für die meisten dieser Entscheidungen und Handlungen am Arbeitsplatz verantwortlich ist, die Arbeitshygiene.
Eine Schlüsselentscheidung im Risikomanagement, die des akzeptablen Risikos (welche Auswirkungen können akzeptiert werden, in welchem Prozentsatz der arbeitenden Bevölkerung, wenn überhaupt?), wird normalerweise, aber nicht immer, auf nationaler Ebene getroffen und befolgt B. durch die Verabschiedung von Arbeitsplatzgrenzwerten und die Verkündung arbeitsmedizinischer Vorschriften und Standards. Dies führt zur Festlegung von Kontrollzielen, normalerweise auf Arbeitsplatzebene durch den Arbeitshygieniker, der die gesetzlichen Anforderungen kennen sollte. Es kann jedoch vorkommen, dass Entscheidungen über akzeptable Risiken vom Arbeitshygieniker auf Arbeitsplatzebene getroffen werden müssen – beispielsweise in Situationen, in denen keine Standards verfügbar sind oder nicht alle potenziellen Expositionen abdecken.
All diese Entscheidungen und Maßnahmen müssen in einen realistischen Plan integriert werden, was eine multidisziplinäre und multisektorale Koordination und Zusammenarbeit erfordert. Obwohl Risikomanagement pragmatische Ansätze beinhaltet, sollte seine Effizienz wissenschaftlich evaluiert werden. Leider sind Risikomanagementmaßnahmen in den meisten Fällen ein Kompromiss zwischen dem, was getan werden sollte, um Risiken zu vermeiden, und dem Besten, was angesichts finanzieller und anderer Beschränkungen in der Praxis getan werden kann.
Das Risikomanagement in Bezug auf das Arbeitsumfeld und das allgemeine Umfeld sollte gut koordiniert sein; es gibt nicht nur bereichsüberschneidungen, sondern in den meisten situationen ist der erfolg des einen mit dem erfolg des anderen verknüpft.
Arbeitshygieneprogramme und -dienste
Der politische Wille und die Entscheidungsfindung auf nationaler Ebene beeinflussen direkt oder indirekt die Einrichtung von Arbeitshygieneprogrammen oder -diensten, entweder auf staatlicher oder privater Ebene. Es würde den Rahmen dieses Artikels sprengen, detaillierte Modelle für alle Arten von Arbeitshygieneprogrammen und -diensten bereitzustellen; Es gibt jedoch allgemeine Prinzipien, die auf viele Situationen anwendbar sind und zu ihrer effizienten Implementierung und Anwendung beitragen können.
Ein umfassender arbeitshygienischer Dienst sollte in der Lage sein, angemessene Voruntersuchungen, Probenahmen, Messungen und Analysen zur Gefährdungsbeurteilung und zu Kontrollzwecken durchzuführen und Kontrollmaßnahmen zu empfehlen, wenn nicht sogar zu konzipieren.
Schlüsselelemente eines umfassenden Arbeitshygieneprogramms oder -dienstes sind menschliche und finanzielle Ressourcen, Einrichtungen, Ausrüstung und Informationssysteme, die durch sorgfältige Planung gut organisiert und koordiniert sind, unter effizienter Verwaltung stehen und auch Qualitätssicherung und kontinuierliche Programmbewertung beinhalten. Erfolgreiche Arbeitshygieneprogramme erfordern eine politische Grundlage und das Engagement des Top-Managements. Die Beschaffung von Finanzmitteln geht über den Rahmen dieses Artikels hinaus.
Personal
Angemessene Humanressourcen sind das wichtigste Kapital jedes Programms und sollten vorrangig sichergestellt werden. Alle Mitarbeiter sollten klare Aufgabenbeschreibungen und Verantwortlichkeiten haben. Falls erforderlich, sollten Vorkehrungen für Aus- und Weiterbildung getroffen werden. Zu den Grundvoraussetzungen für Arbeitshygieneprogramme gehören:
Ein wichtiger Aspekt ist die Fachkompetenz, die nicht nur erworben, sondern auch erhalten werden muss. Kontinuierliche Weiterbildung, innerhalb oder außerhalb des Programms oder Dienstes, sollte beispielsweise Aktualisierungen der Gesetzgebung, neue Fortschritte und Techniken sowie Wissenslücken abdecken. Auch die Teilnahme an Konferenzen, Symposien und Workshops trägt zum Kompetenzerhalt bei.
Gesundheit und Sicherheit für das Personal
Gesundheit und Sicherheit sollten für alle Mitarbeiter in Feldstudien, Labors und Büros gewährleistet sein. Arbeitshygieniker können ernsthaften Gefahren ausgesetzt sein und sollten die erforderliche persönliche Schutzausrüstung tragen. Je nach Art der Arbeit kann eine Impfung erforderlich sein. Handelt es sich um ländliche Arbeit, sollten je nach Region Vorkehrungen getroffen werden, z. B. Gegenmittel für Schlangenbisse. Laborsicherheit ist ein Spezialgebiet, das an anderer Stelle in diesem Dokument diskutiert wird Enzyklopädie.
Arbeitsgefahren in Büros sollten nicht außer Acht gelassen werden – zum Beispiel die Arbeit mit Bildschirmgeräten und Schadstoffquellen in Innenräumen wie Laserdrucker, Kopierer und Klimaanlagen. Ergonomische und psychosoziale Faktoren sollten ebenfalls berücksichtigt werden.
Einrichtungen
Dazu gehören Büros und Besprechungsräume, Labors und Geräte, Informationssysteme und Bibliothek. Die Einrichtungen sollten gut gestaltet sein und zukünftige Anforderungen berücksichtigen, da spätere Umzüge und Anpassungen normalerweise kostspieliger und zeitaufwändiger sind.
Labore und Geräte für Arbeitshygiene
Laboratorien für Arbeitshygiene sollten grundsätzlich in der Lage sein, qualitative und quantitative Bewertungen der Exposition gegenüber luftgetragenen Schadstoffen (Chemikalien und Stäube), physikalischen Einwirkungen (Lärm, Hitzebelastung, Strahlung, Beleuchtung) und biologischen Einwirkungen durchzuführen. Bei den meisten biologischen Arbeitsstoffen reichen qualitative Bewertungen aus, um Kontrollen zu empfehlen, wodurch die normalerweise schwierigen quantitativen Bewertungen entfallen.
Obwohl einige direkt anzeigende Instrumente für luftgetragene Schadstoffe Einschränkungen für Expositionsbewertungszwecke aufweisen können, sind diese äußerst nützlich für die Erkennung von Gefahren und die Identifizierung ihrer Quellen, die Bestimmung von Konzentrationsspitzen, die Erfassung von Daten für Kontrollmaßnahmen und für die Überprüfung an Steuerungen wie Lüftungsanlagen. In Verbindung mit letzterem werden auch Instrumente zur Überprüfung der Luftgeschwindigkeit und des statischen Drucks benötigt.
Eine der möglichen Strukturen würde die folgenden Einheiten umfassen:
Bei der Auswahl arbeitshygienischer Geräte sind neben den Leistungsmerkmalen auch praktische Aspekte im Hinblick auf die zu erwartenden Einsatzbedingungen zu berücksichtigen – beispielsweise vorhandene Infrastruktur, Klima, Standort. Diese Aspekte umfassen Tragbarkeit, erforderliche Energiequelle, Kalibrierungs- und Wartungsanforderungen und Verfügbarkeit der erforderlichen Verbrauchsmaterialien.
Ausrüstung sollte nur gekauft werden, wenn und wann:
Die Kalibrierung aller Arten arbeitshygienischer Mess- und Probenahme- sowie Analysegeräte sollte ein integraler Bestandteil jedes Verfahrens sein, und die erforderliche Ausrüstung sollte verfügbar sein.
Wartung und Reparaturen sind unerlässlich, um zu verhindern, dass Geräte längere Zeit stillstehen, und sollten von den Herstellern entweder durch direkte Unterstützung oder durch Schulung des Personals sichergestellt werden.
Wenn ein komplett neues Programm entwickelt wird, sollte zunächst nur eine Grundausstattung angeschafft werden, weitere Artikel werden hinzugefügt, wenn der Bedarf ermittelt und die Betriebsfähigkeit sichergestellt ist. Doch noch bevor Geräte und Labore verfügbar und betriebsbereit sind, kann viel erreicht werden, indem Arbeitsplätze inspiziert werden, um Gesundheitsgefahren qualitativ zu bewerten, und indem Kontrollmaßnahmen für erkannte Gefahren empfohlen werden. Mangelnde Fähigkeit zur Durchführung quantitativer Expositionsbewertungen sollte niemals eine Untätigkeit in Bezug auf offensichtlich gefährliche Expositionen rechtfertigen. Dies gilt insbesondere für Situationen, in denen Gefahren am Arbeitsplatz unkontrolliert sind und starke Expositionen üblich sind.
Informationen
Dazu gehören Bibliothek (Bücher, Zeitschriften und andere Publikationen), Datenbanken (z. B. auf CD-ROM) und Kommunikation.
Soweit möglich, sollten PCs und CD-ROM-Lesegeräte sowie Verbindungen zum INTERNET bereitgestellt werden. Es gibt immer mehr Möglichkeiten für vernetzte öffentliche Online-Informationsserver (World Wide Web und GOPHER-Sites), die Zugang zu einer Fülle von Informationsquellen bieten, die für die Gesundheit von Arbeitnehmern relevant sind, und daher Investitionen in Computer und Kommunikation voll rechtfertigen. Solche Systeme sollten E-Mail umfassen, das neue Horizonte für Kommunikation und Diskussionen eröffnet, entweder einzeln oder in Gruppen, und so den Informationsaustausch auf der ganzen Welt erleichtert und fördert.
Planung
Eine rechtzeitige und sorgfältige Planung für die Umsetzung, das Management und die regelmäßige Bewertung eines Programms ist wesentlich, um sicherzustellen, dass die Ziele erreicht werden, während die verfügbaren Ressourcen optimal genutzt werden.
Zunächst sollten folgende Informationen eingeholt und analysiert werden:
Zu den Planungs- und Organisationsprozessen gehören:
Die Betriebskosten sollten nicht unterschätzt werden, da ein Mangel an Ressourcen die Kontinuität eines Programms ernsthaft behindern kann. Zu den nicht zu vernachlässigenden Anforderungen gehören:
Ressourcen müssen durch sorgfältiges Studium aller Elemente optimiert werden, die als integrale Bestandteile eines umfassenden Dienstes betrachtet werden sollten. Eine ausgewogene Verteilung der Ressourcen auf die verschiedenen Einheiten (Feldmessungen, Probenahmen, Analyselabore usw.) und alle Komponenten (Einrichtungen und Ausrüstung, Personal, betriebliche Aspekte) ist für ein erfolgreiches Programm unerlässlich. Darüber hinaus sollte die Zuweisung von Ressourcen Flexibilität ermöglichen, da arbeitshygienische Dienste möglicherweise Anpassungen unterzogen werden müssen, um auf den tatsächlichen Bedarf zu reagieren, der regelmäßig bewertet werden sollte.
Kommunikation, Austausch und Zusammenarbeit sind Schlüsselwörter für erfolgreiche Teamarbeit und gesteigerte individuelle Fähigkeiten. Wirksame Kommunikationsmechanismen innerhalb und außerhalb des Programms sind erforderlich, um den erforderlichen multidisziplinären Ansatz für den Schutz und die Förderung der Gesundheit der Arbeitnehmer zu gewährleisten. Es sollte eine enge Zusammenarbeit mit anderen arbeitsmedizinischen Fachkräften stattfinden, insbesondere mit Arbeitsmedizinern und -pflegern, Ergonomen und Arbeitspsychologen sowie Sicherheitsfachkräften. Auf Arbeitsplatzebene sollte dies Arbeitnehmer, Produktionspersonal und Manager umfassen.
Die Umsetzung erfolgreicher Programme ist ein schrittweiser Prozess. Daher sollte in der Planungsphase ein realistischer Zeitplan nach feststehenden Prioritäten und unter Berücksichtigung der verfügbaren Ressourcen erstellt werden.
Management
Das Management umfasst die Entscheidungsfindung hinsichtlich der zu erreichenden Ziele und der erforderlichen Maßnahmen, um diese Ziele effizient zu erreichen, unter Beteiligung aller Beteiligten, sowie das Vorhersehen und Vermeiden oder Erkennen und Lösen von Problemen, die Hindernisse für die Verwirklichung des Ziels darstellen können erforderliche Aufgaben. Es sollte beachtet werden, dass wissenschaftliche Erkenntnisse keine Garantie für die Managementkompetenz sind, die für die Durchführung eines effizienten Programms erforderlich ist.
Die Bedeutung der Implementierung und Durchsetzung korrekter Verfahren und der Qualitätssicherung kann nicht genug betont werden, da es einen großen Unterschied zwischen geleisteter und gut erledigter Arbeit gibt. Außerdem sollten die wirklichen Ziele, nicht die Zwischenschritte, als Maßstab dienen; Die Effizienz eines Arbeitshygieneprogramms sollte nicht an der Anzahl der durchgeführten Erhebungen gemessen werden, sondern an der Anzahl der Erhebungen, die zu tatsächlichen Maßnahmen zum Schutz der Gesundheit der Arbeitnehmer geführt haben.
Gutes Management sollte zwischen Beeindruckendem und Wichtigem unterscheiden können; Sehr detaillierte Erhebungen mit Probenahmen und Analysen, die sehr genaue und präzise Ergebnisse liefern, mögen sehr beeindruckend sein, aber was wirklich wichtig ist, sind die Entscheidungen und Maßnahmen, die danach getroffen werden.
Qualitätssicherung
Das Konzept der Qualitätssicherung, einschließlich Qualitätskontrolle und Eignungsprüfung, bezieht sich hauptsächlich auf Tätigkeiten, die Messungen beinhalten. Obwohl diese Konzepte häufiger im Zusammenhang mit analytischen Laboratorien in Betracht gezogen wurden, muss ihr Anwendungsbereich erweitert werden, um auch Probenahmen und Messungen einzuschließen.
Wann immer Probenahme und Analyse erforderlich sind, sollte das gesamte Verfahren unter Qualitätsgesichtspunkten als eins betrachtet werden. Da keine Kette stärker ist als das schwächste Glied, ist es eine Verschwendung von Ressourcen, für die verschiedenen Schritte ein und desselben Bewertungsverfahrens Instrumente und Techniken unterschiedlicher Qualität einzusetzen. Die Genauigkeit und Präzision einer sehr guten Analysenwaage kann eine Pumpenprobenahme mit falscher Durchflussrate nicht kompensieren.
Die Leistungsfähigkeit von Laboratorien muss überprüft werden, damit Fehlerquellen identifiziert und behoben werden können. Es bedarf eines systematischen Vorgehens, um die zahlreichen Details im Griff zu behalten. Es ist wichtig, Qualitätssicherungsprogramme für arbeitshygienische Laboratorien einzurichten, und dies bezieht sich sowohl auf die interne Qualitätskontrolle als auch auf externe Qualitätsbewertungen (häufig als „Eignungsprüfungen“ bezeichnet).
Bei Probenahmen oder Messungen mit direkt anzeigenden Instrumenten (einschließlich der Messung physikalischer Einwirkungen) bedeutet Qualität angemessen und korrekt:
In Bezug auf das Analyselabor bedeutet Qualität angemessen und richtig:
Für beides ist unabdingbar:
Darüber hinaus ist eine korrekte Behandlung der erhaltenen Daten und Interpretation der Ergebnisse sowie eine genaue Berichterstattung und Aufzeichnung unerlässlich.
Die Laborakkreditierung, definiert von CEN (EN 45001) als „formelle Anerkennung, dass ein Prüflabor kompetent ist, bestimmte Tests oder bestimmte Arten von Tests durchzuführen“, ist ein sehr wichtiges Kontrollinstrument und sollte gefördert werden. Sie sollte sowohl die Probenahme als auch die Analyseverfahren abdecken.
Programmevaluierung
Der Qualitätsbegriff muss auf alle Schritte der arbeitshygienischen Praxis angewendet werden, von der Erkennung von Gefahren bis zur Umsetzung von Gefahrenverhütungs- und Kontrollprogrammen. Vor diesem Hintergrund müssen Arbeitshygieneprogramme und -dienste regelmäßig und kritisch bewertet werden, um eine kontinuierliche Verbesserung anzustreben.
Abschließende Bemerkungen
Arbeitshygiene ist für den Schutz der Gesundheit der Arbeitnehmer und der Umwelt unerlässlich. Seine Praxis umfasst viele Schritte, die miteinander verknüpft sind und für sich genommen keine Bedeutung haben, sondern in einen umfassenden Ansatz integriert werden müssen.
Die Toxikologie spielt eine wichtige Rolle bei der Entwicklung von Vorschriften und anderen Arbeitsschutzmaßnahmen. Um Arbeitsunfälle und Berufskrankheiten zu vermeiden, basieren Entscheidungen zunehmend auf Informationen, die vor oder ohne die Art der menschlichen Exposition erhältlich sind, die definitive Informationen über das Risiko liefern würden, wie z. B. epidemiologische Studien. Darüber hinaus können toxikologische Studien, wie sie in diesem Kapitel beschrieben werden, genaue Informationen über Dosis und Wirkung unter den kontrollierten Bedingungen der Laborforschung liefern; Diese Informationen sind in der unkontrollierten Umgebung beruflicher Expositionen oft schwer zu erhalten. Diese Informationen müssen jedoch sorgfältig ausgewertet werden, um die Wahrscheinlichkeit schädlicher Wirkungen beim Menschen, die Art dieser schädlichen Wirkungen und die quantitative Beziehung zwischen Expositionen und Wirkungen abzuschätzen.
Seit den 1980er Jahren wurde in vielen Ländern der Entwicklung objektiver Methoden zur Nutzung toxikologischer Informationen bei der Entscheidungsfindung in Regulierungsfragen große Aufmerksamkeit geschenkt. Formale Methoden, häufig bezeichnet als Risikobewertung, wurden in diesen Ländern sowohl von Regierungs- als auch von Nichtregierungsorganisationen vorgeschlagen und verwendet. Die Risikobewertung wurde unterschiedlich definiert; Grundsätzlich handelt es sich um einen Bewertungsprozess, der Toxikologie, Epidemiologie und Expositionsinformationen umfasst, um die Wahrscheinlichkeit unerwünschter Wirkungen im Zusammenhang mit der Exposition gegenüber gefährlichen Stoffen oder Bedingungen zu identifizieren und abzuschätzen. Die Risikobewertung kann qualitativer Natur sein und die Art einer nachteiligen Wirkung und eine allgemeine Schätzung der Wahrscheinlichkeit angeben, oder sie kann quantitativ sein und Schätzungen der Anzahl betroffener Personen bei bestimmten Expositionsniveaus enthalten. In vielen Regulierungssystemen erfolgt die Risikobewertung in vier Stufen: Gefahrenerkennung, die Beschreibung der Art der toxischen Wirkung; Dosis-Wirkungs-Bewertung, eine halbquantitative oder quantitative Analyse der Beziehung zwischen Exposition (oder Dosis) und Schweregrad oder Wahrscheinlichkeit einer toxischen Wirkung; Expositionsbewertung, die Bewertung von Informationen über die Bandbreite der Expositionen, die für Bevölkerungsgruppen im Allgemeinen oder für Untergruppen innerhalb von Bevölkerungsgruppen wahrscheinlich auftreten; Risikocharakterisierung, die Zusammenstellung aller oben genannten Informationen zu einem Ausdruck der Größenordnung des Risikos, das unter bestimmten Expositionsbedingungen zu erwarten ist (siehe NRC 1983 für eine Erklärung dieser Grundsätze).
In diesem Abschnitt werden zur Veranschaulichung drei Ansätze zur Risikobewertung vorgestellt. Es ist unmöglich, ein umfassendes Kompendium von Risikobewertungsmethoden bereitzustellen, die weltweit verwendet werden, und diese Auswahl sollte nicht als verbindlich angesehen werden. Es sollte beachtet werden, dass es Tendenzen zur Harmonisierung von Risikobewertungsmethoden gibt, teilweise als Reaktion auf Bestimmungen in den jüngsten GATT-Abkommen. Derzeit laufen zwei Prozesse zur internationalen Harmonisierung von Risikobewertungsmethoden durch das Internationale Programm für Chemikaliensicherheit (IPCS) und die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD). Diese Organisationen halten auch aktuelle Informationen über nationale Ansätze zur Risikobewertung bereit.
Die WHO (Weltgesundheitsorganisation) führte 1980 eine Klassifikation der Funktionseinschränkung bei Menschen ein; die ICIDH (Internationale Klassifikation für Beeinträchtigung, Behinderung und Handicap). Bei dieser Einteilung wird zwischen Krankheit, Einschränkung und Behinderung unterschieden.
Dieses Referenzmodell wurde geschaffen, um die internationale Kommunikation zu erleichtern. Das Modell wurde einerseits vorgestellt, um politischen Entscheidungsträgern einen Bezugsrahmen zu bieten, und andererseits um Ärzten einen Bezugsrahmen zu bieten, die Menschen mit Krankheitsfolgen diagnostizieren.
Warum dieser Referenzrahmen? Es entstand mit dem Ziel, die Teilhabe von Menschen mit dauerhaft eingeschränkten Fähigkeiten zu verbessern und zu steigern. Zwei Ziele werden genannt:
Ab dem 1. Januar 1994 ist die Klassifizierung offiziell. Die darauf folgenden Aktivitäten sind breit gefächert und befassen sich insbesondere mit Themen wie: Informations- und Bildungsmaßnahmen für bestimmte Gruppen; Vorschriften zum Schutz der Arbeitnehmer; oder fordert zum Beispiel, dass Unternehmen zum Beispiel mindestens 5 Prozent Arbeitnehmer mit einer Behinderung beschäftigen sollten. Die Einstufung selbst führt langfristig zu Integration und Nichtdiskriminierung.
Krankheit
Krankheit trifft jeden von uns. Bestimmten Krankheiten kann vorgebeugt werden, anderen nicht. Manche Krankheiten sind heilbar, andere nicht. Krankheiten sollen nach Möglichkeit verhindert und wenn möglich geheilt werden.
Beeinträchtigung
Beeinträchtigung bedeutet jedes Fehlen oder jede Anomalie einer psychologischen, physiologischen oder anatomischen Struktur oder Funktion.
Mit drei statt fünf Fingern geboren zu sein, muss nicht zu einer Behinderung führen. Die Fähigkeiten der Person und der mit den drei Fingern mögliche Manipulationsgrad bestimmen, ob die Person behindert ist oder nicht. Wenn jedoch auf einer zentralen Ebene im Gehirn eine ausreichende Signalverarbeitung nicht möglich ist, führt die Beeinträchtigung mit Sicherheit zu einer Behinderung, da es derzeit keine Methode gibt, dieses Problem für den Patienten zu „heilen“ (zu lösen).
Behinderung
Behinderung beschreibt das funktionelle Niveau einer Person, die Schwierigkeiten bei der Ausführung von Aufgaben hat, z. B. Schwierigkeiten beim Aufstehen von ihrem Stuhl. Diese Schwierigkeiten hängen natürlich mit der Beeinträchtigung zusammen, aber auch mit den Begleitumständen. Eine Person, die einen Rollstuhl benutzt und in einem flachen Land wie den Niederlanden lebt, hat mehr Möglichkeiten zur Selbstbeförderung als die gleiche Person, die in einer Bergregion wie Tibet lebt.
Behinderung
Wenn die Probleme auf eine Behinderungsebene gestellt werden, kann festgestellt werden, in welchem Bereich die Hauptprobleme wirksam sind, z. B. Immobilität oder körperliche Abhängigkeit. Diese können die Arbeitsleistung beeinträchtigen; zum Beispiel ist die Person möglicherweise nicht in der Lage, sich selbst zur Arbeit zu bringen; oder, einmal bei der Arbeit, Unterstützung bei der Körperpflege usw. benötigen.
Eine Behinderung zeigt die negativen Folgen einer Behinderung und kann nur gelöst werden, indem die negativen Folgen weggenommen werden.
Zusammenfassung und Fazit
Die oben erwähnte Klassifikation und die dazugehörigen Richtlinien bieten einen wohldefinierten, international praktikablen Rahmen. Jede Diskussion über Design für bestimmte Gruppen benötigt einen solchen Rahmen, um unsere Aktivitäten zu definieren und zu versuchen, diese Gedanken im Design umzusetzen.
Gesunde Menschen schlafen regelmäßig mehrere Stunden am Tag. Normalerweise schlafen sie während der Nachtstunden. Sie finden es am schwierigsten, in den Stunden zwischen Mitternacht und dem frühen Morgen wach zu bleiben, wenn sie normalerweise schlafen. Wenn eine Person während dieser Stunden ganz oder teilweise wach bleiben muss, kommt die Person in einen Zustand erzwungenen Schlafverlusts oder Schlafentzug, die normalerweise als Müdigkeit empfunden wird. Es wird ein Schlafbedürfnis mit schwankendem Schläfrigkeitsgrad empfunden, das anhält, bis ausreichend Schlaf genommen wurde. Dies ist der Grund, warum oft gesagt wird, dass Phasen von Schlafentzug dazu führen, dass eine Person auftritt Schlafdefizit or Schlafschuld.
Schlafentzug stellt ein besonderes Problem für Arbeitnehmer dar, die aufgrund von Arbeitszeiten (z. B. Nachtarbeit) oder verlängerter Freizeitaktivitäten nicht ausreichend schlafen können. Einem Arbeiter in einer Nachtschicht bleibt Schlafentzug, bis am Ende der Schicht die Gelegenheit für eine Schlafperiode verfügbar wird. Da der während der Tagesstunden genommene Schlaf normalerweise kürzer als nötig ist, kann sich der Arbeiter nicht ausreichend von dem Zustand des Schlafverlusts erholen, bis eine lange Schlafperiode, höchstwahrscheinlich ein Nachtschlaf, genommen wird. Bis dahin baut die Person ein Schlafdefizit auf. (Ein ähnlicher Zustand—Jetlag– entsteht nach Reisen zwischen Zeitzonen, die sich um einige Stunden oder mehr unterscheiden. Der Reisende leidet tendenziell unter Schlafmangel, da die Aktivitätszeiten in der neuen Zeitzone deutlicher der normalen Schlafzeit am Herkunftsort entsprechen.) Während der Schlafmangelzeiten fühlen sich die Arbeitnehmer müde und ihre Leistungsfähigkeit wird auf verschiedene Weise beeinträchtigt. Somit sind verschiedene Grade von Schlafentzug in das tägliche Leben von Arbeitern integriert, die unregelmäßig arbeiten müssen, und es ist wichtig, Maßnahmen zu ergreifen, um mit den ungünstigen Auswirkungen eines solchen Schlafmangels fertig zu werden. Die Hauptbedingungen unregelmäßiger Arbeitszeiten, die zu Schlafentzug beitragen, sind in Tabelle 1 dargestellt.
Tabelle 1. Hauptbedingungen unregelmäßiger Arbeitszeiten, die zu Schlafentzug unterschiedlichen Ausmaßes beitragen
Unregelmäßige Arbeitszeiten |
Bedingungen, die zu Schlafentzug führen |
Nachtdienst |
Kein oder verkürzter Nachtschlaf |
Dienst am frühen Morgen oder am späten Abend |
Verkürzter Schlaf, gestörter Schlaf |
Lange Arbeitszeiten oder zwei Schichten zusammen |
Phasenverschiebung des Schlafes |
Direkte Nacht- oder Frühschicht |
Konsekutive Phasenverschiebung des Schlafes |
Kurze Zeit zwischen den Schichten |
Kurzer und unterbrochener Schlaf |
Lange Pause zwischen den freien Tagen |
Anhäufung von Schlafmangel |
Arbeiten Sie in einer anderen Zeitzone |
Kein oder verkürzter Schlaf während der „Nachtstunden“ am Ursprungsort (Jetlag) |
Unausgeglichene Freizeitzeiten |
Phasenverschiebung des Schlafes, Kurzschlaf |
Unter extremen Bedingungen kann der Schlafentzug länger als einen Tag andauern. Dann nehmen Schläfrigkeit und Leistungsänderungen zu, wenn die Zeit des Schlafentzugs verlängert wird. Arbeiter nehmen jedoch normalerweise irgendeine Form von Schlaf, bevor der Schlafentzug zu langwierig wird. Reicht der so genommene Schlaf nicht aus, bleiben die Folgen des Schlafmangels bestehen. Daher ist es wichtig, nicht nur die Auswirkungen von Schlafentzug in verschiedenen Formen zu kennen, sondern auch die Möglichkeiten, wie Arbeitnehmer sich davon erholen können.
Abbildung 1. Leistung, Schlafbewertungen und physiologische Variablen einer Gruppe von Probanden, die zwei Nächten Schlafentzug ausgesetzt waren
Die komplexe Natur des Schlafentzugs zeigt Abbildung 1, die Daten aus Laborstudien über die Auswirkungen von zwei Tagen Schlafentzug darstellt (Fröberg 1985). Die Daten zeigen drei grundlegende Veränderungen, die sich aus längerem Schlafentzug ergeben:
Die Tatsache, dass die Auswirkungen von Schlafentzug mit physiologischen zirkadianen Rhythmen korrelieren, hilft uns, seine komplexe Natur zu verstehen (Folkard und Akerstedt 1992). Diese Effekte sind als Folge einer Phasenverschiebung des Schlaf-Wach-Rhythmus im Alltag zu sehen.
Die Folgen von Dauerarbeit oder Schlafentzug sind also nicht nur eine verminderte Aufmerksamkeit, sondern auch eine verminderte Leistungsfähigkeit, eine erhöhte Einschlafwahrscheinlichkeit, ein vermindertes Wohlbefinden und eine verminderte Arbeitssicherheit. Bei wiederholten Schlafentzugsphasen wie bei Schichtarbeitern kann deren Gesundheit beeinträchtigt werden (Rutenfranz 1982; Koller 1983; Costa et al. 1990). Ein wichtiges Ziel der Forschung ist es daher, herauszufinden, inwieweit Schlafentzug das Wohlbefinden des Einzelnen beeinträchtigt und wie wir die Erholungsfunktion des Schlafs am besten nutzen können, um solche Auswirkungen zu reduzieren.
Auswirkungen von Schlafentzug
Während und nach einer Nacht mit Schlafentzug scheinen die physiologischen zirkadianen Rhythmen des menschlichen Körpers aufrechterhalten zu bleiben. Beispielsweise behält die Körpertemperaturkurve während des ersten Arbeitstages bei Nachtschichtarbeitern tendenziell ihr grundlegendes zirkadianes Muster bei. Während der Nachtstunden sinkt die Temperatur in Richtung der frühen Morgenstunden, steigt während des darauffolgenden Tages wieder an und fällt nach einem Nachmittagspeak wieder ab. Es ist bekannt, dass sich die physiologischen Rhythmen im Laufe von mehreren Tagen wiederholter Nachtschichten nur allmählich an die umgekehrten Schlaf-Wach-Zyklen von Nachtschichtarbeitern „anpassen“. Das bedeutet, dass die Auswirkungen auf Leistungsfähigkeit und Schläfrigkeit in den Nachtstunden stärker ausgeprägt sind als tagsüber. Die Auswirkungen von Schlafentzug sind daher unterschiedlich mit den ursprünglichen zirkadianen Rhythmen verbunden, die in physiologischen und psychologischen Funktionen zu sehen sind.
Die Auswirkungen von Schlafentzug auf die Leistung hängen von der Art der auszuführenden Aufgabe ab. Unterschiedliche Charakteristika der Aufgabe beeinflussen die Effekte (Fröberg 1985; Folkard und Monk 1985; Folkard und Akerstedt 1992). Im Allgemeinen ist eine komplexe Aufgabe anfälliger als eine einfachere Aufgabe. Die Bewältigung einer Aufgabe mit zunehmender Ziffernzahl oder komplexerer Kodierung verschlechtert sich während drei Tagen Schlafmangels stärker (Fröberg 1985; Wilkinson 1964). Temporierte Aufgaben, auf die innerhalb eines bestimmten Intervalls reagiert werden muss, verschlechtern sich stärker als selbstgesteuerte Aufgaben. Praktische Beispiele für anfällige Aufgaben sind serielle Reaktionen auf definierte Reize, einfache Sortiervorgänge, das Aufzeichnen verschlüsselter Nachrichten, Abtippen, Anzeigenüberwachung und kontinuierliche Inspektion. Auch Auswirkungen von Schlafentzug auf anstrengende körperliche Leistungsfähigkeit sind bekannt. Typische Auswirkungen von längerem Schlafentzug auf die Leistungsfähigkeit (bei einer Sehaufgabe) sind in Abbildung 2 dargestellt (Dinges 1992). Die Wirkungen sind nach zwei Nächten ohne Schlafmangel (40-56 Stunden) stärker ausgeprägt als nach einer Nacht ohne Schlafmangel (16-40 Stunden).
Abbildung 2. Regressionslinien passen sich der Reaktionsgeschwindigkeit (dem Kehrwert der Reaktionszeiten) bei einer 10-minütigen einfachen, unvorbereiteten Sehaufgabe an, die gesunden jungen Erwachsenen wiederholt ohne Schlafverlust (5-16 Stunden), einer Nacht ohne Schlafverlust (16 -40 Stunden) und zwei Nächte ohne Schlaf (40-56 Stunden)
Das Ausmaß, in dem die Ausführung von Aufgaben beeinträchtigt wird, scheint auch davon abzuhängen, wie sie von den „maskierenden“ Komponenten der zirkadianen Rhythmen beeinflusst wird. Beispielsweise stellt sich heraus, dass sich einige Leistungsmaße, wie z. 1993). Solche Unterschiede in den Auswirkungen der endogenen physiologischen Körperuhrrhythmen und ihrer maskierenden Komponenten müssen bei der Betrachtung der Sicherheit und Genauigkeit der Leistung unter dem Einfluss von Schlafentzug berücksichtigt werden.
Eine besondere Auswirkung von Schlafentzug auf die Leistungseffizienz ist das Auftreten häufiger „Aussetzer“ oder Perioden ohne Reaktion (Wilkinson 1964; Empson 1993). Diese Leistungseinbrüche sind kurze Perioden mit verminderter Aufmerksamkeit oder leichtem Schlaf. Dies kann in Aufzeichnungen von auf Video aufgenommenen Leistungen, Augenbewegungen oder Elektroenzephalogrammen (EEGs) verfolgt werden. Eine längere Aufgabe (eine halbe Stunde oder länger), insbesondere wenn die Aufgabe wiederholt wird, kann leichter zu solchen Fehlern führen. Monotone Aufgaben wie das Wiederholen einfacher Reaktionen oder das Beobachten seltener Signale sind in dieser Hinsicht sehr empfindlich. Eine neuartige Aufgabe ist dagegen weniger betroffen. Auch die Leistung in wechselnden Arbeitssituationen ist beständig.
Während es Hinweise auf eine allmähliche Abnahme der Erregung bei Schlafentzug gibt, würde man erwarten, dass die Leistungsniveaus zwischen den Phasen weniger beeinträchtigt sind. Dies erklärt, warum die Ergebnisse einiger Leistungstests einen geringen Einfluss auf den Schlafverlust zeigen, wenn die Tests in einem kurzen Zeitraum durchgeführt werden. Bei einer einfachen Reaktionszeitaufgabe würden Versäumnisse zu sehr langen Reaktionszeiten führen, während die restlichen gemessenen Zeiten unverändert bleiben würden. Daher ist bei der Interpretation von Testergebnissen bezüglich Schlafverlusteffekten in tatsächlichen Situationen Vorsicht geboten.
Änderungen der Schläfrigkeit während des Schlafentzugs beziehen sich offensichtlich sowohl auf physiologische zirkadiane Rhythmen als auch auf solche Übergangsperioden. Die Schläfrigkeit nimmt mit der Zeit der ersten Nachtschichtarbeit stark zu, nimmt jedoch während der folgenden Tagesstunden ab. Wenn der Schlafentzug bis zur zweiten Nacht andauert, wird die Schläfrigkeit während der Nachtstunden sehr weit fortgeschritten (Costa et al. 1990; Matsumoto und Harada 1994). Es gibt Momente, in denen das Schlafbedürfnis als fast unwiderstehlich empfunden wird; diese Momente entsprechen dem Auftreten von Aussetzern sowie dem Auftreten von Unterbrechungen der zerebralen Funktionen, wie durch EEG-Aufzeichnungen belegt. Nach einer Weile wird die Schläfrigkeit als reduziert empfunden, aber es folgt eine weitere Periode mit nachlassenden Effekten. Wenn Arbeitnehmer jedoch zu verschiedenen Ermüdungsgefühlen befragt werden, erwähnen sie in der Regel zunehmende Erschöpfungsgrade und allgemeine Müdigkeit, die während der Schlafentzugsperiode und zwischen den Phasen des Schlafentzugs anhalten. Nach einer Nacht mit Schlafentzug ist tagsüber eine leichte Erholung des subjektiven Ermüdungsniveaus zu beobachten, aber die Ermüdungsgefühle sind in der zweiten und den folgenden Nächten mit anhaltendem Schlafentzug deutlich ausgeprägter.
Während des Schlafentzugs kann immer bis zu einem gewissen Grad Schlafdruck durch das Zusammenspiel von vorheriger Wachheit und zirkadianer Phase vorhanden sein, aber die Labilität des Zustands bei schläfrigen Personen wird auch durch Kontexteffekte moduliert (Dinges 1992). Die Schläfrigkeit wird durch die Menge und Art der Stimulation, das Interesse der Umgebung und die Bedeutung der Stimulation für das Subjekt beeinflusst. Eine monotone Stimulation oder eine Stimulation, die anhaltende Aufmerksamkeit erfordert, kann leichter zu einer Verringerung der Wachsamkeit und zu Aussetzern führen. Je größer die physiologische Schläfrigkeit aufgrund von Schlafverlust ist, desto anfälliger ist das Subjekt für Umweltmonotonie. Motivation und Anreiz können helfen, diesen Umwelteffekt aufzuheben, aber nur für einen begrenzten Zeitraum.
Auswirkungen von teilweisem Schlafentzug und kumuliertem Schlafmangel
Wenn ein Proband eine ganze Nacht ununterbrochen ohne Schlaf arbeitet, werden viele Leistungsfunktionen definitiv nachgelassen haben. Geht der Proband ungeschlafen zur zweiten Nachtschicht, ist der Leistungsabfall weit fortgeschritten. Nach der dritten oder vierten Nacht des totalen Schlafentzugs können nur sehr wenige Menschen wach bleiben und Aufgaben erledigen, selbst wenn sie hochmotiviert sind. Im wirklichen Leben treten solche Zustände des totalen Schlafverlusts jedoch selten auf. Normalerweise schlafen die Leute während der nachfolgenden Nachtschichten etwas. Berichte aus verschiedenen Ländern zeigen jedoch, dass der tagsüber eingenommene Schlaf fast immer nicht ausreicht, um sich von dem durch die Nachtarbeit verursachten Schlafmangel zu erholen (Knauth und Rutenfranz 1981; Kogi 1981; ILO 1990). Infolgedessen häufen sich Schlafknappheiten, wenn Schichtarbeiter Nachtschichten wiederholen. Ähnliche Schlafknappheit ergibt sich auch, wenn die Schlafzeiten aufgrund der Notwendigkeit, Schichtpläne einzuhalten, verkürzt werden. Selbst wenn Nachtschlaf genommen werden kann, ist bekannt, dass eine Schlafbeschränkung von nur zwei Stunden pro Nacht für die meisten Personen zu einer unzureichenden Schlafmenge führt. Eine solche Schlafreduktion kann zu einer Beeinträchtigung der Leistungsfähigkeit und Aufmerksamkeit führen (Monk 1991).
Beispiele für Bedingungen in Schichtsystemen, die zur Akkumulation von Schlafmangel oder teilweisem Schlafentzug beitragen, sind in Tabelle 1 aufgeführt. Zusätzlich fortgesetzte Nachtarbeit für zwei oder mehr Tage, kurze Zwischenschichtperioden, Wiederholung eines frühen Morgenbeginns Schichten, häufige Nachtschichten und unangemessene Urlaubszuteilung beschleunigen die Akkumulation von Schlafmangel.
Auch die schlechte Qualität des Tagesschlafs oder verkürzter Schlaf ist wichtig. Der Tagesschlaf wird von einer erhöhten Aufwachhäufigkeit, weniger tiefem und langsamwelligem Schlaf und einer anderen Verteilung des REM-Schlafs als der normale Nachtschlaf begleitet (Torsvall, Akerstedt und Gillberg 1981; Folkard und Monk 1985; Empson 1993). Daher ist ein Tagesschlaf selbst in einer günstigen Umgebung möglicherweise nicht so gesund wie ein Nachtschlaf.
Diese Schwierigkeit, aufgrund unterschiedlicher Schlafzeiten in einem Schichtsystem guten Schlaf zu finden, wird durch Abbildung 3 veranschaulicht, die die Schlafdauer als Funktion des Zeitpunkts des Einschlafens für deutsche und japanische Arbeiter auf der Grundlage von Tagebuchaufzeichnungen zeigt (Knauth und Rutenfranz 1981; Kögi 1985). Aufgrund des zirkadianen Einflusses ist der Tagesschlaf gezwungen, kurz zu sein. Viele Arbeitnehmer haben tagsüber möglicherweise einen Split-Schlaf und fügen abends, wenn möglich, oft etwas Schlaf hinzu.
Abbildung 3. Mittlere Schlafdauer als Funktion des Zeitpunkts des Einschlafens. Vergleich der Daten von deutschen und japanischen Schichtarbeitern.
In realen Umgebungen ergreifen Schichtarbeiter eine Vielzahl von Maßnahmen, um mit einer solchen Häufung von Schlafmangel fertig zu werden (Wedderburn 1991). Viele von ihnen versuchen zum Beispiel, vor einer Nachtschicht vorzuschlafen oder danach lange zu schlafen. Obwohl solche Bemühungen keineswegs vollständig wirksam sind, um die Auswirkungen des Schlafdefizits auszugleichen, werden sie ganz bewusst unternommen. Im Rahmen von Bewältigungsmaßnahmen können soziale und kulturelle Aktivitäten eingeschränkt werden. Ausgehende Freizeitaktivitäten werden beispielsweise zwischen zwei Nachtschichten seltener wahrgenommen. Schlafzeitpunkt und -dauer sowie die tatsächliche Akkumulation von Schlafdefizit hängen also sowohl von beruflichen als auch von sozialen Umständen ab.
Erholung von Schlafentzug und Gesundheitsmaßnahmen
Das einzig wirksame Mittel, um sich von Schlafentzug zu erholen, ist zu schlafen. Diese erholsame Wirkung des Schlafes ist bekannt (Kogi 1982). Da die Erholung durch Schlaf je nach Zeitpunkt und Dauer unterschiedlich sein kann (Costa et al. 1990), ist es wichtig zu wissen, wann und wie lange Menschen schlafen sollten. Im normalen täglichen Leben ist es immer am besten, eine ganze Nacht zu schlafen, um die Erholung vom Schlafdefizit zu beschleunigen, aber normalerweise werden Anstrengungen unternommen, um das Schlafdefizit zu minimieren, indem Schlaf zu verschiedenen Gelegenheiten als Ersatz für den normalen Nachtschlaf genommen wird, der einem entzogen wurde . Aspekte solcher Ersatzschlafzeiten sind in Tabelle 2 dargestellt.
Tabelle 2. Aspekte von Früh-, Anker- und Verzögerungsschlaf als Ersatz für normalen Nachtschlaf
Aspekt |
Vorausschlafen |
Anker schlafen |
Schlaf verzögern |
Thematisch |
Vor einer Nachtschicht |
Unterbrochene Nacht |
Nach einer Nachtschicht |
Dauer |
Normalerweise kurz |
Kurz per Definition |
Meist kurz aber |
Qualität |
Längere Latenz von |
Kurze Latenz |
Kürzere Latenz für |
Interaktion mit |
Gestörte Rhythmen; |
förderlich für |
Gestörte Rhythmen; |
Um das Nachtschlafdefizit auszugleichen, besteht die übliche Anstrengung darin, tagsüber Schlaf in „früheren“ und „verzögerten“ Phasen (dh vor und nach der Nachtschichtarbeit) zu nehmen. Ein solcher Schlaf fällt mit der zirkadianen Aktivitätsphase zusammen. So ist der Schlaf durch längere Latenzzeiten, verkürzten Tiefschlaf, gestörten REM-Schlaf und Störungen des sozialen Lebens gekennzeichnet. Soziale und Umweltfaktoren sind wichtig, um die Erholungswirkung eines Schlafes zu bestimmen. Dass eine vollständige Umstellung der zirkadianen Rhythmen für einen Schichtarbeiter in einer realen Situation unmöglich ist, sollte bei der Betrachtung der Wirksamkeit der Erholungsfunktionen des Schlafes berücksichtigt werden.
In diesem Zusammenhang wurde über interessante Merkmale eines kurzen „Ankerschlafs“ berichtet (Minors und Waterhouse 1981; Kogi 1982; Matsumoto und Harada 1994). Wenn ein Teil des üblichen täglichen Schlafs während der normalen Nachtschlafperiode und der Rest zu unregelmäßigen Zeiten genommen wird, können die zirkadianen Rhythmen der rektalen Temperatur und der Urinsekretion mehrerer Elektrolyte über einen Zeitraum von 24 Stunden beibehalten werden. Das bedeutet, dass ein kurzer Nachtschlaf während der Nachtruhe dazu beitragen kann, die ursprünglichen zirkadianen Rhythmen in den folgenden Perioden zu bewahren.
Wir können davon ausgehen, dass Schlafen zu unterschiedlichen Tageszeiten bestimmte komplementäre Wirkungen im Hinblick auf die unterschiedlichen Erholungsfunktionen dieser Schlafen haben könnten. Ein interessanter Ansatz für Nachtschichtarbeiter ist die Verwendung eines Nachtschlafs, der normalerweise bis zu einigen Stunden dauert. Umfragen zeigen, dass dieser kurze Schlaf während einer Nachtschicht bei einigen Gruppen von Arbeitnehmern üblich ist. Dieser Ankerschlaftyp ist wirksam bei der Verringerung der nächtlichen Arbeitsermüdung (Kogi 1982) und kann die Notwendigkeit von Erholungsschlaf verringern. Abbildung 4 vergleicht das subjektive Ermüdungsgefühl während zweier aufeinanderfolgender Nachtschichten und der dienstfreien Erholungsphase zwischen der Gruppe, die ein Nickerchen macht, und der Gruppe, die kein Nickerchen macht (Matsumoto und Harada 1994). Die positiven Auswirkungen eines nächtlichen Nickerchens auf die Verringerung der Müdigkeit waren offensichtlich. Diese Wirkungen hielten für einen großen Teil der Erholungsphase nach der Nachtarbeit an. Zwischen diesen beiden Gruppen wurde kein signifikanter Unterschied beim Vergleich der Länge des Tagesschlafs der Nichtschlafgruppe mit der Gesamtschlafzeit (Nachtschlaf plus nachfolgender Tagesschlaf) der Schlafgruppe festgestellt. Daher ermöglicht ein nächtlicher Mittagsschlaf, einen Teil des notwendigen Schlafs vor dem Tagesschlaf nach der Nachtarbeit zu nehmen. Es kann daher vermutet werden, dass Nickerchen während der Nachtarbeit bis zu einem gewissen Grad die Erholung von der durch diese Arbeit verursachten Müdigkeit und dem damit einhergehenden Schlafentzug unterstützen können (Sakai et al. 1984; Saito und Matsumoto 1988).
Abbildung 4. Mittlere Werte für das subjektive Ermüdungsgefühl während zweier aufeinanderfolgender Nachtschichten und der dienstfreien Erholungsphase für Mittagsschlaf- und Nicht-Nickerchen-Gruppen
Es muss jedoch zugegeben werden, dass es nicht möglich ist, optimale Strategien zu erarbeiten, die jeder unter Schlafdefizit leidende Arbeitnehmer anwenden kann. Dies zeigt sich in der Entwicklung internationaler Arbeitsnormen für Nachtarbeit, die eine Reihe von Maßnahmen für Arbeitnehmer empfehlen, die häufig Nachtarbeit leisten (Kogi und Thurman 1993). Die Vielfältigkeit dieser Maßnahmen und der Trend zur zunehmenden Flexibilisierung von Schichtsystemen spiegeln deutlich das Bestreben wider, flexible Schlafstrategien zu entwickeln (Kogi 1991). Alter, körperliche Fitness, Schlafgewohnheiten und andere individuelle Toleranzunterschiede können eine wichtige Rolle spielen (Folkard und Monk 1985; Costa et al. 1990; Härmä 1993). Dabei ist eine zunehmende Flexibilität bei der Arbeitszeitgestaltung in Kombination mit einer besseren Arbeitsplatzgestaltung sinnvoll (Kogi 1991).
Schlafstrategien gegen Schlafentzug sollten abhängig von der Art des Arbeitslebens und flexibel genug sein, um individuellen Situationen gerecht zu werden (Knauth, Rohmert und Rutenfranz 1979; Rutenfranz, Knauth und Angersbach 1981; Wedderburn 1991; Monk 1991). Eine allgemeine Schlussfolgerung ist, dass wir den nächtlichen Schlafentzug minimieren sollten, indem wir geeignete Arbeitszeiten auswählen, und die Erholung erleichtern, indem wir individuell geeigneten Schlaf fördern, einschließlich Ersatzschlaf und einen gesunden Nachtschlaf in den frühen Phasen nach dem Schlafentzug. Es ist wichtig, die Akkumulation von Schlafdefizit zu verhindern. Die Nachtarbeitszeit, die Arbeitnehmern den Schlaf in der normalen Nachtruhezeit entzieht, sollte so kurz wie möglich sein. Die Intervalle zwischen den Schichten sollten lang genug sein, um einen ausreichend langen Schlaf zu ermöglichen. Auch ein besseres Schlafumfeld und Maßnahmen zur Bewältigung sozialer Bedürfnisse sind sinnvoll. Daher ist soziale Unterstützung bei der Gestaltung von Arbeitszeitregelungen, Arbeitsgestaltung und individuellen Bewältigungsstrategien zur Förderung der Gesundheit von Arbeitnehmern, die mit häufigem Schlafmangel konfrontiert sind, unerlässlich.
Eine Gefährdung am Arbeitsplatz kann als jeder Zustand definiert werden, der das Wohlbefinden oder die Gesundheit von exponierten Personen beeinträchtigen kann. Das Erkennen von Gefahren bei jeder beruflichen Tätigkeit beinhaltet die Charakterisierung des Arbeitsplatzes durch die Identifizierung gefährlicher Stoffe und Gruppen von Arbeitnehmern, die diesen Gefahren potenziell ausgesetzt sind. Die Gefahren können chemischen, biologischen oder physikalischen Ursprungs sein (siehe Tabelle 1). Einige Gefahren in der Arbeitsumgebung sind leicht zu erkennen – zum Beispiel Reizstoffe, die nach Hautkontakt oder Einatmen sofort reizend wirken. Andere sind nicht so leicht zu erkennen – zum Beispiel Chemikalien, die zufällig entstehen und keine Warneigenschaften haben. Einige Stoffe wie Metalle (z. B. Blei, Quecksilber, Cadmium, Mangan), die nach mehrjähriger Exposition zu Verletzungen führen können, sind möglicherweise leicht zu identifizieren, wenn Sie sich des Risikos bewusst sind. Ein toxischer Stoff stellt bei niedrigen Konzentrationen oder wenn niemand exponiert ist, möglicherweise keine Gefahr dar. Grundlage für das Erkennen von Gefährdungen sind die Identifizierung möglicher Arbeitsstoffe am Arbeitsplatz, Kenntnisse über Gesundheitsrisiken dieser Arbeitsstoffe und das Bewusstsein für mögliche Expositionssituationen.
Tabelle 1. Gefahren durch chemische, biologische und physikalische Wirkstoffe.
Art der Gefahr |
Beschreibung |
Beispiele |
Chemikalien GEFAHREN
|
Chemikalien gelangen hauptsächlich durch Einatmen, Aufnahme über die Haut oder Verschlucken in den Körper. Die toxische Wirkung kann akut, chronisch oder beides sein., |
|
Korrosion |
Ätzende Chemikalien verursachen tatsächlich Gewebezerstörung an der Kontaktstelle. Haut, Augen und Verdauungssystem sind die am häufigsten betroffenen Körperteile. |
Konzentrierte Säuren und Laugen, Phosphor |
Reizung |
Reizstoffe verursachen eine Entzündung des Gewebes, wo sie sich ablagern. Hautreizstoffe können Reaktionen wie Ekzeme oder Dermatitis hervorrufen. Schwere Atemwegsreizstoffe können Kurzatmigkeit, Entzündungsreaktionen und Ödeme verursachen. |
Haut: Säuren, Laugen, Lösungsmittel, Öle Atem: Aldehyde, alkalische Stäube, Ammoniak, Stickstoffdioxid, Phosgen, Chlor, Brom, Ozon |
Allergische Reaktionen |
Chemische Allergene oder Sensibilisatoren können allergische Haut- oder Atemwegsreaktionen hervorrufen. |
Haut: Kolophonium (Kolophonium), Formaldehyd, Metalle wie Chrom oder Nickel, einige organische Farbstoffe, Epoxidhärter, Terpentin Atem: Isocyanate, faserreaktive Farbstoffe, Formaldehyd, viele Tropenholzstäube, Nickel
|
Erstickung |
Erstickungsmittel üben ihre Wirkung aus, indem sie die Sauerstoffversorgung des Gewebes stören. Einfache Erstickungsmittel sind Inertgase, die den verfügbaren atmosphärischen Sauerstoff unter das für die Lebenserhaltung erforderliche Niveau verdünnen. Sauerstoffarme Atmosphären können in Tanks, Schiffsräumen, Silos oder Bergwerken auftreten. Die Sauerstoffkonzentration in der Luft sollte niemals unter 19.5 Vol.-% liegen. Chemische Erstickungsmittel verhindern den Sauerstofftransport und die normale Sauerstoffversorgung des Blutes oder verhindern die normale Sauerstoffversorgung des Gewebes. |
Einfache Erstickungsmittel: Methan, Ethan, Wasserstoff, Helium Chemische Erstickungsmittel: Kohlenmonoxid, Nitrobenzol, Cyanwasserstoff, Schwefelwasserstoff
|
Krebs |
Bekannte menschliche Karzinogene sind Chemikalien, die nachweislich beim Menschen Krebs verursachen. Wahrscheinliche menschliche Karzinogene sind Chemikalien, die nachweislich Krebs bei Tieren verursachen oder bei denen der Nachweis beim Menschen nicht eindeutig ist. Ruß und Kohlenteer waren die ersten Chemikalien, die im Verdacht standen, Krebs zu verursachen. |
Bekannt: Benzol (Leukämie); Vinylchlorid (Leber-Angiosarkom); 2-Naphthylamin, Benzidin (Blasenkrebs); Asbest (Lungenkrebs, Mesotheliom); Hartholzstaub (Nasal-Nasennebenhöhlen-Adenokarzinom) Wahrscheinlich: Formaldehyd, Tetrachlorkohlenstoff, Dichromate, Beryllium |
Fortpflanzungsfähig Effekten
|
Reproduktionstoxische Stoffe beeinträchtigen die reproduktive oder sexuelle Funktion einer Person. |
Mangan, Schwefelkohlenstoff, Monomethyl- und Ethylether von Ethylenglykol, Quecksilber |
|
Entwicklungstoxische Stoffe sind Stoffe, die bei den Nachkommen exponierter Personen schädliche Wirkungen haben können; zum Beispiel Geburtsfehler. Embryotoxische oder fetotoxische Chemikalien können spontane Aborte oder Fehlgeburten verursachen. |
Organische Quecksilberverbindungen, Kohlenmonoxid, Blei, Thalidomid, Lösungsmittel |
Systemisch Gifte
|
Systemische Gifte sind Wirkstoffe, die bestimmte Organe oder Körpersysteme schädigen. |
Gehirn: Lösungsmittel, Blei, Quecksilber, Mangan Periphäres Nervensystem: n-Hexan, Blei, Arsen, Schwefelkohlenstoff Blutbildendes System: Benzol, Ethylenglykolether Nieren: Cadmium, Blei, Quecksilber, chlorierte Kohlenwasserstoffe Lunge: Kieselerde, Asbest, Kohlenstaub (Pneumokoniose)
|
BIOLOGISCHE GEFAHREN
|
Biologische Gefahren können als organische Stäube definiert werden, die aus verschiedenen Quellen biologischen Ursprungs wie Viren, Bakterien, Pilzen, tierischen Proteinen oder pflanzlichen Stoffen wie Abbauprodukten von Naturfasern stammen. Das ätiologische Agens kann von einem lebensfähigen Organismus oder von Kontaminanten stammen oder eine spezifische Komponente im Staub darstellen. Biologische Gefahren werden in infektiöse und nicht infektiöse Agenzien eingeteilt. Nicht-infektiöse Gefahren können weiter unterteilt werden in lebensfähige Organismen, biogene Toxine und biogene Allergene. |
|
Infektionsgefahren |
Berufskrankheiten durch Infektionserreger sind relativ selten. Zu den gefährdeten Arbeitnehmern gehören Angestellte in Krankenhäusern, Laboranten, Landwirte, Schlachthofarbeiter, Tierärzte, Tierpfleger und Köche. Die Empfindlichkeit ist sehr variabel (z. B. Personen, die mit immundepressiven Arzneimitteln behandelt werden, haben eine hohe Empfindlichkeit). |
Hepatitis B, Tuberkulose, Anthrax, Brucella, Tetanus, Chlamydia psittaci, Salmonellen |
Lebensfähige Organismen und biogene Toxine |
Zu lebensfähigen Organismen gehören Pilze, Sporen und Mykotoxine; Zu den biogenen Toxinen zählen Endotoxine, Aflatoxin und Bakterien. Die Stoffwechselprodukte von Bakterien und Pilzen sind komplex und zahlreich und werden von Temperatur, Feuchtigkeit und Art des Substrats, auf dem sie wachsen, beeinflusst. Chemisch können sie aus Proteinen, Lipoproteinen oder Mucopolysacchariden bestehen. Beispiele sind grampositive und gramnegative Bakterien und Schimmelpilze. Zu den gefährdeten Arbeitnehmern gehören Arbeiter in Baumwollfabriken, Hanf- und Flachsarbeiter, Arbeiter in der Abwasser- und Schlammbehandlung und Arbeiter in Getreidesilos. |
Byssinose, „Getreidefieber“, Legionärskrankheit |
Biogene Allergene |
Zu den biogenen Allergenen gehören Pilze, tierische Proteine, Terpene, Vorratsmilben und Enzyme. Ein erheblicher Teil der biogenen Allergene in der Landwirtschaft stammt von Proteinen aus Tierhaut, Fellhaaren und Proteinen aus Fäkalien und Urin. Allergene können in vielen industriellen Umgebungen gefunden werden, wie z. B. Fermentationsverfahren, Arzneimittelherstellung, Bäckereien, Papierherstellung, Holzverarbeitung (Sägewerke, Produktion, Fertigung) sowie in der Biotechnologie (Enzym- und Impfstoffherstellung, Gewebekultur) und Gewürzen Produktion. Bei sensibilisierten Personen kann die Exposition gegenüber den Allergenen allergische Symptome wie allergische Rhinitis, Konjunktivitis oder Asthma hervorrufen. Die allergische Alveolitis ist gekennzeichnet durch akute respiratorische Symptome wie Husten, Schüttelfrost, Fieber, Kopf- und Muskelschmerzen, die zu einer chronischen Lungenfibrose führen können. |
Berufsasthma: Wolle, Pelze, Weizenkörner, Mehl, rote Zeder, Knoblauchpulver Allergische Alveolitis: Bauernkrankheit, Bagassose, „Vogelzüchterkrankheit“, Befeuchterfieber, Sequoiose
|
PHYSIKALISCHE GEFAHREN |
|
|
Lärm |
Als Lärm gelten alle unerwünschten Geräusche, die die Gesundheit und das Wohlbefinden von Einzelpersonen oder Bevölkerungsgruppen beeinträchtigen können. Zu den Aspekten der Lärmgefährdung gehören die Gesamtenergie des Schalls, die Frequenzverteilung, die Expositionsdauer und Impulslärm. Die Hörschärfe wird im Allgemeinen zuerst mit einem Verlust oder Einbruch bei 4000 Hz beeinträchtigt, gefolgt von Verlusten im Frequenzbereich von 2000 bis 6000 Hz. Lärm kann zu akuten Folgen wie Kommunikationsproblemen, Konzentrationsschwäche, Schläfrigkeit und in der Folge zu Beeinträchtigungen der Arbeitsleistung führen. Die Exposition gegenüber hohen Lärmpegeln (normalerweise über 85 dBA) oder impulsivem Lärm (etwa 140 dBC) über einen längeren Zeitraum kann sowohl zu vorübergehendem als auch zu chronischem Hörverlust führen. Bleibender Hörverlust ist die häufigste Berufskrankheit bei Schadensersatzansprüchen. |
Gießereien, Holzverarbeitung, Textilfabriken, Metallverarbeitung |
Vibration |
Vibration hat mehrere Parameter gemeinsam mit Geräuschfrequenz, Amplitude, Expositionsdauer und ob sie kontinuierlich oder intermittierend ist. Arbeitsweise und Geschicklichkeit des Bedieners scheinen eine wichtige Rolle bei der Entstehung schädlicher Wirkungen von Vibrationen zu spielen. Manuelles Arbeiten mit angetriebenen Werkzeugen ist mit Symptomen peripherer Durchblutungsstörungen verbunden, die als „Raynaud-Phänomen“ oder „vibrationsinduzierte weiße Finger“ (VWF) bekannt sind. Vibrierende Werkzeuge können auch das periphere Nervensystem und den Bewegungsapparat mit verminderter Griffkraft, Kreuzschmerzen und degenerativen Rückenerkrankungen beeinträchtigen. |
Lohnmaschinen, Bergbaulader, Gabelstapler, pneumatische Werkzeuge, Kettensägen |
Ionisieren Strahlung
|
Die wichtigste chronische Wirkung ionisierender Strahlung ist Krebs, einschließlich Leukämie. Eine Überexposition durch vergleichsweise niedrige Strahlungswerte wurde mit Dermatitis der Hand und Auswirkungen auf das hämatologische System in Verbindung gebracht. Prozesse oder Tätigkeiten, die zu einer übermäßigen Exposition gegenüber ionisierender Strahlung führen könnten, sind stark eingeschränkt und reguliert. |
Kernreaktoren, medizinische und zahnärztliche Röntgenröhren, Teilchenbeschleuniger, Radioisotope |
Nicht ionisierend Strahlung
|
Nichtionisierende Strahlung besteht aus ultravioletter Strahlung, sichtbarer Strahlung, Infrarot, Lasern, elektromagnetischen Feldern (Mikrowellen und Hochfrequenz) und extrem niederfrequenter Strahlung. IR-Strahlung kann Katarakte verursachen. Hochleistungslaser können Augen- und Hautschäden verursachen. Es besteht zunehmende Besorgnis über die Exposition gegenüber schwachen elektromagnetischen Feldern als Ursache für Krebs und als potenzielle Ursache für nachteilige Fortpflanzungsergebnisse bei Frauen, insbesondere durch die Exposition gegenüber Videoanzeigegeräten. Die Frage nach einem kausalen Zusammenhang mit Krebs ist noch nicht beantwortet. Jüngste Überprüfungen der verfügbaren wissenschaftlichen Erkenntnisse kommen im Allgemeinen zu dem Schluss, dass kein Zusammenhang zwischen der Verwendung von Bildschirmgeräten und Beeinträchtigungen der Fortpflanzungsfähigkeit besteht. |
UV-Strahlung: Lichtbogenschweißen und -schneiden; UV-Härtung von Tinten, Klebstoffen, Farben usw.; Desinfektion; Produktkontrolle Infrarotstrahlung: Öfen, Glasbläserei Laser: Kommunikation, Chirurgie, Bauwesen
|
Identifizierung und Klassifizierung von Gefahren
Vor jeder arbeitshygienischen Untersuchung muss der Zweck klar definiert werden. Zweck einer arbeitshygienischen Untersuchung kann es sein, mögliche Gefährdungen zu identifizieren, bestehende Risiken am Arbeitsplatz zu bewerten, die Einhaltung gesetzlicher Vorschriften nachzuweisen, Kontrollmaßnahmen zu bewerten oder die Exposition im Hinblick auf eine epidemiologische Untersuchung zu bewerten. Dieser Artikel beschränkt sich auf Programme zur Identifizierung und Klassifizierung von Gefahren am Arbeitsplatz. Viele Modelle oder Techniken wurden entwickelt, um Gefahren in der Arbeitsumgebung zu identifizieren und zu bewerten. Sie unterscheiden sich in ihrer Komplexität, von einfachen Checklisten, arbeitshygienischen Vorerhebungen, Arbeitsplatz-Expositions-Matrizen und Gefährdungs- und Betriebsfähigkeitsstudien bis hin zu Arbeitsplatz-Expositionsprofilen und Arbeitsüberwachungsprogrammen (Renes 1978; Gressel und Gideon 1991; Holzner, Hirsh und Perper 1993; Goldberg et al 1993; Bouyer und Hémon 1993; Panett, Coggon und Acheson 1985; Tait 1992). Keine einzelne Technik ist eine klare Wahl für jeden, aber alle Techniken haben Teile, die bei jeder Untersuchung nützlich sind. Die Nützlichkeit der Modelle hängt auch vom Untersuchungszweck, der Größe des Arbeitsplatzes, der Art der Produktion und Tätigkeit sowie der Komplexität der Betriebe ab.
Die Identifizierung und Einstufung von Gefahren kann in drei grundlegende Elemente unterteilt werden: Arbeitsplatzcharakterisierung, Expositionsmuster und Gefahrenbewertung.
Charakterisierung des Arbeitsplatzes
Ein Arbeitsplatz kann einige wenige Mitarbeiter bis hin zu mehreren Tausend haben und unterschiedliche Aktivitäten haben (z. B. Produktionsstätten, Baustellen, Bürogebäude, Krankenhäuser oder landwirtschaftliche Betriebe). An einem Arbeitsplatz können verschiedene Tätigkeiten auf spezielle Bereiche wie Abteilungen oder Abteilungen verortet werden. In einem industriellen Prozess können verschiedene Phasen und Vorgänge identifiziert werden, wenn die Produktion vom Rohmaterial bis zum fertigen Produkt erfolgt.
Es sollten detaillierte Informationen über Prozesse, Vorgänge oder andere relevante Aktivitäten eingeholt werden, um verwendete Mittel zu identifizieren, einschließlich Rohmaterialien, Materialien, die im Prozess gehandhabt oder hinzugefügt werden, Primärprodukte, Zwischenprodukte, Endprodukte, Reaktionsprodukte und Nebenprodukte. Zusätze und Katalysatoren in einem Prozess könnten ebenfalls von Interesse sein. Rohstoffe oder Zusatzstoffe, die nur anhand des Handelsnamens identifiziert wurden, müssen nach ihrer chemischen Zusammensetzung bewertet werden. Informationen oder Sicherheitsdatenblätter sollten vom Hersteller oder Lieferanten erhältlich sein.
Einige Phasen in einem Prozess können in einem geschlossenen System stattfinden, ohne dass jemand davon betroffen ist, außer während Wartungsarbeiten oder Prozessausfällen. Diese Ereignisse sollten erkannt und Vorkehrungen getroffen werden, um die Exposition gegenüber gefährlichen Stoffen zu verhindern. Andere Prozesse finden in offenen Systemen statt, die mit oder ohne lokale Absaugung versehen sind. Eine allgemeine Beschreibung des Lüftungssystems sollte bereitgestellt werden, einschließlich des örtlichen Abluftsystems.
Wenn möglich, sollten Gefahren bei der Planung oder Konstruktion neuer Anlagen oder Prozesse identifiziert werden, wenn Änderungen in einem frühen Stadium vorgenommen und Gefahren vorhergesehen und vermieden werden können. Bedingungen und Verfahren, die von der beabsichtigten Ausführung abweichen können, müssen im Prozesszustand identifiziert und bewertet werden. Die Erkennung von Gefahren sollte auch Emissionen in die Außenumgebung und Abfallstoffe umfassen. Anlagenstandorte, Betriebe, Emissionsquellen und -mittel sollten systematisch gruppiert werden, um erkennbare Einheiten in der weiteren Analyse der potenziellen Exposition zu bilden. In jeder Einheit sollten Vorgänge und Arbeitsstoffe nach gesundheitlichen Auswirkungen der Arbeitsstoffe und Schätzung der emittierten Mengen an die Arbeitsumgebung gruppiert werden.
Belichtungsmuster
Die Hauptexpositionswege für chemische und biologische Arbeitsstoffe sind die Inhalation und die dermale Aufnahme oder zufällig durch Verschlucken. Das Expositionsmuster hängt von der Häufigkeit des Kontakts mit den Gefahren, der Expositionsintensität und der Expositionszeit ab. Arbeitsaufgaben müssen systematisch untersucht werden. Es ist wichtig, nicht nur Arbeitshandbücher zu studieren, sondern sich anzusehen, was tatsächlich am Arbeitsplatz passiert. Arbeitnehmer können aufgrund der tatsächlichen Ausführung von Aufgaben direkt exponiert sein oder indirekt exponiert sein, da sie sich in demselben allgemeinen Bereich oder Ort wie die Expositionsquelle befinden. Es kann notwendig sein, sich zunächst auf Arbeitsaufgaben mit hohem Schadenspotenzial zu konzentrieren, auch wenn die Exposition nur von kurzer Dauer ist. Nicht routinemäßige und intermittierende Vorgänge (z. B. Wartung, Reinigung und Änderungen der Produktionszyklen) müssen berücksichtigt werden. Arbeitsaufgaben und -situationen können sich auch im Laufe des Jahres ändern.
Innerhalb derselben Berufsbezeichnung kann die Exposition oder Aufnahme unterschiedlich sein, da einige Arbeitnehmer Schutzausrüstung tragen und andere nicht. In großen Betrieben kann eine Gefährdungserkennung oder eine qualitative Gefährdungsbeurteilung nur selten für jeden einzelnen Arbeiter durchgeführt werden. Daher müssen Arbeitnehmer mit ähnlichen Arbeitsaufgaben in dieselbe Expositionsgruppe eingestuft werden. Unterschiede in den Arbeitsaufgaben, Arbeitstechniken und Arbeitszeiten führen zu erheblich unterschiedlichen Expositionen und müssen berücksichtigt werden. Personen, die im Freien arbeiten, und Personen, die ohne lokale Absaugung arbeiten, haben eine größere tägliche Variabilität als Gruppen, die in Innenräumen mit lokaler Absaugung arbeiten (Kromhout, Symanski und Rappaport 1993). Arbeitsprozesse, Agenten, die sich für diesen Prozess/Job beworben haben, oder verschiedene Aufgaben innerhalb einer Berufsbezeichnung können anstelle der Berufsbezeichnung verwendet werden, um Gruppen mit ähnlicher Exposition zu charakterisieren. Innerhalb der Gruppen müssen potenziell exponierte Arbeitnehmer identifiziert und nach gefährlichen Arbeitsstoffen, Expositionswegen, gesundheitlichen Auswirkungen der Arbeitsstoffe, Häufigkeit des Kontakts mit den Gefahren, Intensität und Dauer der Exposition klassifiziert werden. Verschiedene Expositionsgruppen sollten nach Gefahrstoffen und geschätzter Exposition eingestuft werden, um die am stärksten gefährdeten Arbeitnehmer zu bestimmen.
Qualitative Gefährdungsbeurteilung
Mögliche gesundheitliche Auswirkungen chemischer, biologischer und physikalischer Arbeitsstoffe am Arbeitsplatz sollten auf einer Bewertung verfügbarer epidemiologischer, toxikologischer, klinischer und umweltbezogener Forschungsergebnisse beruhen. Aktuelle Informationen über Gesundheitsgefahren durch Produkte oder Arbeitsstoffe, die am Arbeitsplatz verwendet werden, sollten aus Gesundheits- und Sicherheitszeitschriften, Datenbanken über Toxizität und Auswirkungen auf die Gesundheit sowie einschlägiger wissenschaftlicher und technischer Literatur eingeholt werden.
Materialsicherheitsdatenblätter (MSDSs) sollten bei Bedarf aktualisiert werden. Datenblätter dokumentieren Prozentsätze gefährlicher Inhaltsstoffe zusammen mit der Chemikalienkennung des Chemical Abstracts Service, der CAS-Nummer und dem Schwellenwert (TLV), falls vorhanden. Sie enthalten auch Informationen über Gesundheitsgefahren, Schutzausrüstung, vorbeugende Maßnahmen, Hersteller oder Lieferanten und so weiter. Teilweise sind die angegebenen Inhaltsstoffe eher rudimentär und müssen durch genauere Angaben ergänzt werden.
Überwachte Daten und Aufzeichnungen von Messungen sollten untersucht werden. Arbeitsstoffe mit TLVs bieten eine allgemeine Orientierungshilfe bei der Entscheidung, ob die Situation akzeptabel ist oder nicht, obwohl mögliche Wechselwirkungen berücksichtigt werden müssen, wenn Arbeitnehmer mehreren Chemikalien ausgesetzt sind. Innerhalb und zwischen verschiedenen Expositionsgruppen sollten Arbeitnehmer nach den gesundheitlichen Auswirkungen der vorhandenen Arbeitsstoffe und der geschätzten Exposition eingestuft werden (z. B. von leichten gesundheitlichen Auswirkungen und geringer Exposition bis hin zu schweren gesundheitlichen Auswirkungen und geschätzter hoher Exposition). Diejenigen mit den höchsten Rängen verdienen höchste Priorität. Vor dem Beginn von Präventionsmaßnahmen kann es erforderlich sein, ein Expositionsüberwachungsprogramm durchzuführen. Alle Ergebnisse sollten dokumentiert und leicht erreichbar sein. Ein Arbeitsschema ist in Abbildung 1 dargestellt.
Abbildung 1. Elemente der Risikobewertung
Bei arbeitshygienischen Untersuchungen können auch die Gefährdungen der Außenumgebung (z. B. Umweltverschmutzung und Treibhauseffekte sowie Auswirkungen auf die Ozonschicht) berücksichtigt werden.
Chemische, biologische und physikalische Wirkstoffe
Gefahren können chemischen, biologischen oder physikalischen Ursprungs sein. In diesem Abschnitt und in Tabelle 1 wird eine kurze Beschreibung der verschiedenen Gefahren gegeben, zusammen mit Beispielen für Umgebungen oder Tätigkeiten, in denen sie anzutreffen sind (Casarett 1980; International Congress on Occupational Health 1985; Jacobs 1992; Leidel, Busch und Lynch 1977; Olishifski 1988; Rylander 1994). Genauere Informationen finden sich an anderer Stelle in diesem Enzyklopädie.
Chemische Mittel
Chemikalien können in Gase, Dämpfe, Flüssigkeiten und Aerosole (Stäube, Dämpfe, Nebel) eingeteilt werden.
Gase
Gase sind Substanzen, die nur durch die kombinierte Wirkung von erhöhtem Druck und verringerter Temperatur in den flüssigen oder festen Zustand überführt werden können. Der Umgang mit Gasen birgt immer ein Expositionsrisiko, es sei denn, sie werden in geschlossenen Systemen verarbeitet. Gase in Behältern oder Verteilerrohren können versehentlich austreten. Bei Prozessen mit hohen Temperaturen (z. B. Schweißarbeiten und Motorabgase) entstehen Gase.
Dämpfe
Dämpfe sind die gasförmige Form von Stoffen, die normalerweise bei Raumtemperatur und Normaldruck im flüssigen oder festen Zustand vorliegen. Wenn eine Flüssigkeit verdunstet, wird sie gasförmig und vermischt sich mit der Umgebungsluft. Ein Dampf kann als Gas betrachtet werden, wobei die maximale Konzentration eines Dampfes von der Temperatur und dem Sättigungsdruck des Stoffes abhängt. Jeder Verbrennungsprozess erzeugt Dämpfe oder Gase. Entfettungsvorgänge können durch Dampfphasenentfettung oder Einweichreinigung mit Lösungsmitteln durchgeführt werden. Arbeitstätigkeiten wie Füllen und Mischen von Flüssigkeiten, Lackieren, Sprühen, Reinigen und Trockenreinigen können schädliche Dämpfe erzeugen.
Flüssigkeiten
Flüssigkeiten können aus einem reinen Stoff oder einer Lösung aus zwei oder mehreren Stoffen bestehen (z. B. Lösungsmittel, Säuren, Laugen). Eine in einem offenen Behälter gelagerte Flüssigkeit verdampft teilweise in die Gasphase. Die Konzentration in der Dampfphase im Gleichgewicht hängt vom Dampfdruck des Stoffes, seiner Konzentration in der flüssigen Phase und der Temperatur ab. Bei Arbeiten oder Tätigkeiten mit Flüssigkeiten können neben gesundheitsschädlichen Dämpfen auch Spritzer oder andere Hautkontakte entstehen.
Stäube
Stäube bestehen aus anorganischen und organischen Partikeln, die je nach Partikelgröße in atembare, thorakale oder lungengängige klassifiziert werden können. Die meisten organischen Stäube sind biologischen Ursprungs. Anorganische Stäube entstehen bei mechanischen Prozessen wie Schleifen, Sägen, Schneiden, Brechen, Sieben oder Sieben. Beim Umgang mit staubigem Material können Stäube aufgewirbelt oder durch Luftbewegungen des Verkehrs aufgewirbelt werden. Beim Umgang mit trockenen Materialien oder Pulvern wie Wiegen, Abfüllen, Beladen, Transportieren und Verpacken entsteht Staub, ebenso wie bei Aktivitäten wie Isolier- und Reinigungsarbeiten.
Dämpfe
Dämpfe sind feste Partikel, die bei hoher Temperatur verdampft und zu kleinen Partikeln kondensiert werden. Die Verdampfung wird oft von einer chemischen Reaktion wie Oxidation begleitet. Die einzelnen Partikel, aus denen ein Rauch besteht, sind extrem fein, normalerweise kleiner als 0.1 μm, und aggregieren oft zu größeren Einheiten. Beispiele sind Rauche beim Schweißen, Plasmaschneiden und ähnlichen Vorgängen.
Nebel
Nebel sind schwebende Flüssigkeitströpfchen, die durch Kondensation vom gasförmigen in den flüssigen Zustand oder durch Aufbrechen einer Flüssigkeit in einen dispergierten Zustand durch Verspritzen, Schäumen oder Zerstäuben entstehen. Beispiele sind Ölnebel aus Schneid- und Schleifarbeiten, Säurenebel aus der Galvanik, Säure- oder Laugennebel aus Beizarbeiten oder Farbsprühnebel aus Spritzarbeiten.
Wie in vielen anderen Ländern wird das Risiko aufgrund der Exposition gegenüber Chemikalien in Japan gemäß der Kategorie der betreffenden Chemikalien reguliert, wie in Tabelle 1 aufgeführt. Das zuständige Ministerium oder die zuständige Behörde ist unterschiedlich. Bei Industriechemikalien im Allgemeinen gilt als wichtigstes Gesetz das Gesetz zur Prüfung und Regulierung der Herstellung usw. chemischer Stoffe oder kurz CSCL (Chemical Substances Control Law). Zuständige Behörden sind das Ministerium für internationalen Handel und Industrie und das Ministerium für Gesundheit und Wohlfahrt. Darüber hinaus sieht das Arbeitssicherheits- und Hygienegesetz (vom Arbeitsministerium) vor, dass Industriechemikalien auf mögliche Mutagenität untersucht werden sollten und, wenn sich herausstellt, dass die betreffende Chemikalie mutagen ist, die Exposition der Arbeitnehmer gegenüber der Chemikalie minimiert werden sollte Einhausung von Produktionsanlagen, Installation lokaler Abgassysteme, Verwendung von Schutzausrüstung und so weiter.
Tabelle 1. Regulierung chemischer Stoffe durch Gesetze, Japan
Kategorie | Recht | Missionsdienst |
Lebensmittel und Lebensmittelzusatzstoffe | Lebensmittelhygienegesetz | MHW |
Medizin | Arzneimittelgesetz | MHW |
Betäubungsmittel | Betäubungsmittelgesetz | MHW |
Chemikalien für die Landwirtschaft | Agrarchemikalienkontrollgesetz | MAFF |
Industrielle Chemikalien | Gesetz zur Kontrolle chemischer Stoffe | MHW & MITI |
Alle Chemikalien außer radioaktiven Stoffen | Gesetz über die Regulierung von Haushaltsprodukte mit Gefahrstoffe Giftig und schädlich Stoffkontrollgesetz Arbeitsschutz- und Hygienerecht |
MHW MHW MOL |
Radioaktive Substanzen | Gesetz über radioaktive Stoffe | STA |
Abkürzungen: MHW – Ministerium für Gesundheit und Soziales; MAFF – Ministerium für Landwirtschaft, Forstwirtschaft und Fischerei; MITI – Ministerium für internationalen Handel und Industrie; MOL – Arbeitsministerium; STA – Agentur für Wissenschaft und Technologie.
Da gefährliche Industriechemikalien in erster Linie durch CSCL identifiziert werden, wird in diesem Abschnitt der Testrahmen für die Gefahrenidentifizierung unter CSCL beschrieben.
Das Konzept des Chemikalienkontrollgesetzes
Die ursprüngliche CSCL wurde 1973 vom Landtag (dem japanischen Parlament) verabschiedet und trat am 16. April 1974 in Kraft. Die grundlegende Motivation für das Gesetz war die Vermeidung von Umweltverschmutzung und den daraus resultierenden Auswirkungen auf die menschliche Gesundheit durch PCB und PCB-ähnliche Substanzen. PCB sind gekennzeichnet durch (1) Persistenz in der Umwelt (schwer biologisch abbaubar), (2) zunehmende Konzentration in der Nahrungskette (oder dem Nahrungsnetz) (Bioakkumulation) und (3) chronische Toxizität beim Menschen. Dementsprechend schreibt das Gesetz vor, dass jede Industriechemikalie vor der Vermarktung in Japan auf solche Eigenschaften untersucht wird. Parallel zur Verabschiedung des Gesetzes beschloss der Landtag, dass die Umweltbehörde die allgemeine Umwelt auf mögliche chemische Verschmutzung überwachen sollte. Das Gesetz wurde dann 1986 vom Landtag geändert (die Änderung trat 1987 in Kraft), um es mit Maßnahmen der OECD in Bezug auf Gesundheit und Umwelt, die Senkung nichttarifärer Handelshemmnisse und insbesondere die Festlegung eines Mindestbetrags in Einklang zu bringen Premarketing-Datensatz (MPD) und zugehörige Testrichtlinien. Die Änderung spiegelt auch die damalige Beobachtung durch Umweltüberwachung wider, dass Chemikalien wie Trichlorethylen und Tetrachlorethylen, die keine hohe Bioakkumulation aufweisen, obwohl sie schlecht biologisch abbaubar und chronisch toxisch sind, die Umwelt verschmutzen können; Diese chemischen Substanzen wurden bundesweit im Grundwasser nachgewiesen.
Das Gesetz unterteilt Industriechemikalien in zwei Kategorien: bestehende Chemikalien und neue Chemikalien. Die vorhandenen Chemikalien sind diejenigen, die im „Bestandsverzeichnis der Chemikalien“ aufgeführt sind (erstellt mit der Verabschiedung des ursprünglichen Gesetzes) und belaufen sich auf etwa 20,000, wobei die Anzahl davon abhängt, wie einige Chemikalien im Verzeichnis benannt sind. Chemikalien, die nicht im Inventar enthalten sind, werden als neue Chemikalien bezeichnet. Die Regierung ist für die Gefahrenidentifizierung der bestehenden Chemikalien verantwortlich, während das Unternehmen oder eine andere Einheit, die eine neue Chemikalie auf den Markt in Japan einführen möchte, für die Gefahrenidentifizierung der neuen Chemikalie verantwortlich ist. Zwei Regierungsministerien, das Ministerium für Gesundheit und Wohlfahrt (MHW) und das Ministerium für internationalen Handel und Industrie (MITI), sind für das Gesetz zuständig, und die Umweltbehörde kann bei Bedarf ihre Meinung äußern. Radioaktive Stoffe, bestimmte Gifte, Genussmittel und Betäubungsmittel sind ausgeschlossen, da sie anderen Gesetzen unterliegen.
Testsystem unter CSCL
Das Ablaufschema der Untersuchung ist in Abbildung 1 dargestellt, die im Prinzip ein schrittweises System ist. Alle Chemikalien (Ausnahmen siehe unten) sollten auf ihre biologische Abbaubarkeit in vitro untersucht werden. Wenn die Chemikalie leicht biologisch abbaubar ist, gilt sie als „sicher“. Andernfalls wird die Chemikalie anschließend auf Bioakkumulation untersucht. Wenn festgestellt wird, dass sie „stark akkumulierend“ ist, werden vollständige Toxizitätsdaten angefordert, auf deren Grundlage die Chemikalie bei bestätigter Toxizität als „spezifizierter chemischer Stoff der Klasse 1“ oder andernfalls als „sicher“ eingestuft wird. Die Chemikalie ohne oder mit geringer Akkumulation wird Toxizitäts-Screening-Tests unterzogen, die aus Mutagenitätstests und 28-tägiger wiederholter Verabreichung an Versuchstiere bestehen (Einzelheiten siehe Tabelle 2). Nach umfassender Bewertung der Toxizitätsdaten wird die Chemikalie als „Designierter chemischer Stoff“ eingestuft, wenn die Daten auf Toxizität hinweisen. Andernfalls gilt es als „sicher“. Wenn andere Daten darauf hindeuten, dass eine große Möglichkeit einer Umweltverschmutzung durch die betreffende Chemikalie besteht, werden vollständige Toxizitätsdaten angefordert, aus denen die bezeichnete Chemikalie im positiven Fall als „spezifizierter chemischer Stoff der Klasse 2“ neu eingestuft wird. Andernfalls gilt es als „sicher“. Toxikologische und ökotoxikologische Eigenschaften von „spezifischen chemischen Stoffen der Klasse 1“, „spezifischen chemischen Stoffen der Klasse 2“ und „ausgewiesenen chemischen Stoffen“ sind in Tabelle 3 zusammen mit Umrissen von Regulierungsmaßnahmen aufgeführt.
Abbildung 1. Untersuchungsschema
Tabelle 2. Prüfgegenstände gemäß dem Gesetz zur Kontrolle chemischer Substanzen, Japan
Artikel | Testdesign |
Bioabbau | Prinzipiell für 2 Wochen, in vitro, mit aktiviertem Schlamm |
Bioakkumulation | Prinzipiell für 8 Wochen mit Karpfen |
Toxizitäts-Screening Mutagenitätstests Bakterielles System Chromosomenaberration |
Ames-Test und Test mit E. coli, ± S9-Mix CHL-Zellen usw., ±S9-Mischung |
28-tägige wiederholte Dosierung | Ratten, 3 Dosisstufen plus Kontrolle für NOEL, 2 Wochen Erholungstest auf der höchsten Dosisstufe zusätzlich |
Tabelle 3. Eigenschaften klassifizierter chemischer Substanzen und Vorschriften nach dem japanischen Gesetz zur Kontrolle chemischer Substanzen
Chemische Substanz | Eigenschaften | Rechtliches |
Kurs 1 bestimmten chemischen Substanzen |
Nicht biologisch abbaubar Hohe Bioakkumulation Chronische Toxizität |
Genehmigung zur Herstellung oder Einfuhr erforderlich1 Nutzungsbeschränkung |
Kurs 2 bestimmten chemischen Substanzen |
Nicht biologisch abbaubar Keine oder geringe Bioakkumulation Chronische Toxizität Verdacht auf Umweltverschmutzung |
Benachrichtigung über geplante Herstellungs- oder Importmenge Technische Richtlinie zur Vermeidung von Umweltverschmutzung/Heideeinwirkung |
Ausgewiesene chemische Substanzen | Nicht biologisch abbaubar Keine oder geringe Bioakkumulation Verdacht auf chronische Toxizität |
Bericht über die Herstellungs- oder Importmenge Studien- und Literaturrecherche |
1 Keine Berechtigung in der Praxis.
Für eine neue Chemikalie mit begrenzter Verwendungsmenge (dh weniger als 1,000 kg/Unternehmen/Jahr und weniger als 1,000 kg/Jahr für ganz Japan) ist keine Prüfung erforderlich. Polymere werden nach dem Fließschema für Verbindungen mit hohem Molekulargewicht untersucht, das unter der Annahme entwickelt wurde, dass die Wahrscheinlichkeit einer Absorption in den Körper gering ist, wenn die Chemikalie ein Molekulargewicht von mehr als 1,000 hat und in der Umwelt stabil ist.
Ergebnisse der Klassifizierung von Industriechemikalien, Stand 1996
In den 26 Jahren seit dem Inkrafttreten des CSCL im Jahr 1973 bis Ende 1996 wurden 1,087 vorhandene Chemikalien im Rahmen des ursprünglichen und des geänderten CSCL untersucht. Unter den 1,087 wurden neun Artikel (einige sind durch Gattungsnamen gekennzeichnet) als „spezifizierte chemische Substanz der Klasse 1“ eingestuft. Von den verbleibenden wurden 36 als „benannt“ eingestuft, von denen 23 als „spezifizierter chemischer Stoff der Klasse 2“ umklassifiziert wurden und weitere 13 als „benannt“ verblieben. Die Namen der spezifizierten chemischen Substanzen der Klassen 1 und 2 sind in Abbildung 2 aufgeführt. Aus der Tabelle geht hervor, dass die meisten Chemikalien der Klasse 1 Organochlor-Pestizide sind, zusätzlich zu PCB und seinen Ersatzstoffen, mit Ausnahme eines Algenkillers. Ein Großteil der Chemikalien der Klasse 2 sind Algenkiller, mit Ausnahme von drei einst weit verbreiteten chlorierten Kohlenwasserstoff-Lösungsmitteln.
Abbildung 2. Spezifizierte und bezeichnete chemische Substanzen gemäß dem japanischen Gesetz zur Kontrolle chemischer Substanzen
Im gleichen Zeitraum von 1973 bis Ende 1996 wurden ca. 2,335 neue Chemikalien zur Zulassung eingereicht, von denen 221 (ca. 9.5 %) als „designated“, aber keine als Klasse 1 oder 2 Chemikalien identifiziert wurden. Andere Chemikalien wurden als „sicher“ angesehen und für die Herstellung oder den Import zugelassen.
Gefahrenüberwachungs- und Erhebungsmethoden
Die Überwachung am Arbeitsplatz umfasst aktive Programme zur Vorhersage, Beobachtung, Messung, Bewertung und Kontrolle der Exposition gegenüber potenziellen Gesundheitsgefahren am Arbeitsplatz. An der Überwachung ist häufig ein Team von Personen beteiligt, zu dem ein Arbeitshygieniker, ein Betriebsarzt, eine Betriebskrankenschwester, ein Sicherheitsbeauftragter, ein Toxikologe und ein Ingenieur gehören. Je nach Arbeitsumfeld und Problemstellung kommen drei Überwachungsmethoden zum Einsatz: medizinisch, umwelttechnisch und biologisch. Die medizinische Überwachung wird verwendet, um das Vorhandensein oder Nichtvorhandensein schädlicher Auswirkungen auf die Gesundheit einer Person durch die berufliche Exposition gegenüber Schadstoffen festzustellen, indem medizinische Untersuchungen und geeignete biologische Tests durchgeführt werden. Die Umweltüberwachung wird verwendet, um die potenzielle Exposition gegenüber Schadstoffen für eine Gruppe von Mitarbeitern zu dokumentieren, indem die Konzentration von Schadstoffen in der Luft, in Materialproben und auf Oberflächen gemessen wird. Die biologische Überwachung wird verwendet, um die Aufnahme von Schadstoffen in den Körper zu dokumentieren und mit Schadstoffwerten in der Umwelt zu korrelieren, indem die Konzentration gefährlicher Stoffe oder ihrer Metaboliten im Blut, Urin oder in der Atemluft von Arbeitern gemessen wird.
Medizinische Überwachung
Eine medizinische Überwachung wird durchgeführt, da Krankheiten durch die Exposition gegenüber gefährlichen Stoffen verursacht oder verschlimmert werden können. Es erfordert ein aktives Programm mit Fachleuten, die sich mit Berufskrankheiten, Diagnosen und Behandlung auskennen. Medizinische Überwachungsprogramme bieten Schritte zum Schutz, zur Aufklärung, Überwachung und in einigen Fällen zur Entschädigung des Mitarbeiters. Dies kann berufsvorbereitende Screening-Programme, regelmäßige ärztliche Untersuchungen, spezielle Tests zur Früherkennung von Veränderungen und Beeinträchtigungen durch gefährliche Stoffe, medizinische Behandlung und umfangreiche Aufzeichnungen umfassen. Das Screening vor der Einstellung umfasst die Auswertung arbeits- und gesundheitsbezogener Fragebögen sowie der Ergebnisse körperlicher Untersuchungen. Fragebögen geben Auskunft über frühere Krankheiten und chronische Erkrankungen (insbesondere Asthma, Haut-, Lungen- und Herzerkrankungen) und frühere berufliche Expositionen. Es gibt ethische und rechtliche Implikationen von Screening-Programmen vor der Einstellung, wenn sie verwendet werden, um die Eignung für eine Beschäftigung zu bestimmen. Sie sind jedoch von grundlegender Bedeutung, wenn sie verwendet werden, um (1) Aufzeichnungen über frühere Beschäftigungen und damit verbundene Expositionen zu liefern, (2) eine Basislinie für die Gesundheit eines Mitarbeiters festzulegen und (3) auf Überempfindlichkeit zu testen. Ärztliche Untersuchungen können audiometrische Tests auf Hörverlust, Sehtests, Tests der Organfunktion, Beurteilung der Eignung zum Tragen von Atemschutzgeräten sowie grundlegende Urin- und Bluttests umfassen. Regelmäßige ärztliche Untersuchungen sind für die Bewertung und Erkennung von Trends beim Auftreten gesundheitsschädlicher Auswirkungen unerlässlich und können die biologische Überwachung auf bestimmte Schadstoffe und die Verwendung anderer Biomarker umfassen.
Umwelt- und biologische Überwachung
Die Umwelt- und biologische Überwachung beginnt mit einer arbeitshygienischen Untersuchung der Arbeitsumgebung, um potenzielle Gefahren und Schadstoffquellen zu identifizieren und die Notwendigkeit einer Überwachung zu bestimmen. Bei chemischen Arbeitsstoffen könnte die Überwachung Luft-, Massen-, Oberflächen- und biologische Probenahmen umfassen. Bei physikalischen Einwirkungen könnte die Überwachung Geräusch-, Temperatur- und Strahlungsmessungen umfassen. Wenn eine Überwachung angezeigt ist, muss der Arbeitshygieniker eine Probenahmestrategie entwickeln, die beinhaltet, welche Mitarbeiter, Prozesse, Geräte oder Bereiche beprobt werden, die Anzahl der Proben, wie lange und wie oft Probenahmen durchgeführt werden und die Probenahmemethode. Erhebungen zur Arbeitshygiene sind je nach Zweck der Untersuchung, Art und Größe des Betriebs und Art des Problems unterschiedlich komplex und zielgerichtet.
Es gibt keine starren Formeln für die Durchführung von Umfragen; Eine gründliche Vorbereitung vor der Begehung vor Ort erhöht jedoch die Effektivität und Effizienz erheblich. Untersuchungen, die durch Beschwerden und Erkrankungen von Mitarbeitern motiviert sind, haben einen zusätzlichen Fokus darauf, die Ursache der gesundheitlichen Probleme zu identifizieren. Untersuchungen zur Luftqualität in Innenräumen konzentrieren sich sowohl auf Kontaminationsquellen im Innen- als auch im Außenbereich. Ungeachtet des Berufsrisikos ist der Gesamtansatz für die Vermessung und Probenahme von Arbeitsplätzen ähnlich; Daher werden in diesem Kapitel chemische Mittel als Modell für die Methodik verwendet.
Expositionswege
Das bloße Vorhandensein beruflicher Belastungen am Arbeitsplatz impliziert nicht automatisch, dass ein erhebliches Expositionspotenzial besteht; der Agent muss den Arbeiter erreichen. Bei Chemikalien muss die flüssige oder dampfförmige Form des Mittels mit dem Körper in Kontakt kommen und/oder in den Körper absorbiert werden, um eine gesundheitsschädliche Wirkung hervorzurufen. Wenn der Wirkstoff in einem Gehäuse isoliert oder von einem lokalen Absaugsystem aufgefangen wird, ist das Expositionspotential gering, unabhängig von der inhärenten Toxizität der Chemikalie.
Der Expositionsweg kann die Art der durchgeführten Überwachung sowie das Gefährdungspotential beeinflussen. Bei chemischen und biologischen Stoffen sind Arbeiter durch Einatmen, Hautkontakt, Verschlucken und Injektion exponiert; Die häufigsten Aufnahmewege im beruflichen Umfeld verlaufen über die Atemwege und die Haut. Um das Einatmen zu beurteilen, beobachtet der Arbeitshygieniker die Möglichkeit, dass Chemikalien in Form von Gasen, Dämpfen, Stäuben, Dämpfen oder Nebeln in die Luft gelangen.
Die Aufnahme von Chemikalien über die Haut ist vor allem bei direktem Kontakt mit der Haut durch Spritzen, Sprühen, Benetzen oder Eintauchen in fettlösliche Kohlenwasserstoffe und andere organische Lösungsmittel wichtig. Eintauchen umfasst Körperkontakt mit kontaminierter Kleidung, Handkontakt mit kontaminierten Handschuhen und Hand- und Armkontakt mit Massenflüssigkeiten. Bei manchen Stoffen, wie Aminen und Phenolen, kann die Aufnahme durch die Haut so schnell erfolgen wie bei eingeatmeten Stoffen die Aufnahme durch die Lunge. Bei einigen Verunreinigungen wie Pestiziden und Benzidin-Farbstoffen ist die Hautabsorption der primäre Aufnahmeweg und die Inhalation ein sekundärer Aufnahmeweg. Solche Chemikalien können leicht durch die Haut in den Körper gelangen, die Körperbelastung erhöhen und systemische Schäden verursachen. Wenn allergische Reaktionen oder wiederholtes Waschen die Haut austrocknen und rissig machen, steigt die Anzahl und Art der Chemikalien, die vom Körper aufgenommen werden können, dramatisch an. Verschlucken, ein ungewöhnlicher Absorptionsweg für Gase und Dämpfe, kann für Partikel wie Blei wichtig sein. Verschlucken kann durch den Verzehr von kontaminierten Lebensmitteln, Essen oder Rauchen mit kontaminierten Händen und durch Husten und anschließendes Verschlucken von zuvor eingeatmeten Partikeln erfolgen.
Die Injektion von Materialien direkt in den Blutkreislauf kann durch subkutane Nadeln erfolgen, die versehentlich die Haut von medizinischem Personal in Krankenhäusern durchstechen, und durch Hochgeschwindigkeitsgeschosse, die aus Hochdruckquellen freigesetzt werden und direkt mit der Haut in Kontakt kommen. Airless-Farbspritzgeräte und Hydrauliksysteme haben einen Druck, der hoch genug ist, um die Haut zu durchstechen und Substanzen direkt in den Körper einzubringen.
Die Walk-Through-Inspektion
Der Zweck der Erstbesichtigung, der so genannten Rundgangsinspektion, besteht darin, systematisch Informationen zu sammeln, um zu beurteilen, ob eine potenziell gefährliche Situation vorliegt und ob eine Überwachung angezeigt ist. Ein Arbeitshygieniker beginnt die Walk-Through-Befragung mit einer Eröffnungssitzung, an der Vertreter des Managements, der Mitarbeiter, der Vorgesetzten, der Betriebskrankenpfleger und der Gewerkschaftsvertreter teilnehmen können. Der Arbeitshygieniker kann den Erfolg der Umfrage und aller nachfolgenden Überwachungsinitiativen stark beeinflussen, indem er ein Team von Personen zusammenstellt, die offen und ehrlich miteinander kommunizieren und die Ziele und den Umfang der Inspektion verstehen. Die Arbeitnehmer müssen von Anfang an einbezogen und informiert werden, um sicherzustellen, dass bei der Untersuchung die Zusammenarbeit und nicht die Angst dominiert.
Während des Treffens werden Prozessflussdiagramme, Anlagenlayoutzeichnungen, frühere Umweltinspektionsberichte, Produktionspläne, Anlagenwartungspläne, Dokumentationen von persönlichen Schutzprogrammen und Statistiken über die Anzahl der Mitarbeiter, Schichten und Gesundheitsbeschwerden angefordert. Alle gefährlichen Materialien, die von einem Betrieb verwendet und produziert werden, werden identifiziert und quantifiziert. Ein chemisches Inventar von Produkten, Nebenprodukten, Zwischenprodukten und Verunreinigungen wird zusammengestellt und alle zugehörigen Materialsicherheitsdatenblätter werden eingeholt. Wartungspläne, Alter und Zustand der Geräte werden dokumentiert, da die Verwendung älterer Geräte aufgrund fehlender Kontrollen zu einer höheren Exposition führen kann.
Nach der Besprechung führt der Arbeitshygieniker eine visuelle Begehung des Arbeitsplatzes durch, wobei er die Abläufe und Arbeitspraktiken untersucht, mit dem Ziel, potenzielle berufliche Belastungen zu identifizieren, das Expositionspotenzial einzustufen, den Expositionsweg zu ermitteln und die Dauer abzuschätzen Häufigkeit der Exposition. Beispiele für berufliche Belastungen sind in Abbildung 1 dargestellt. Der Arbeitshygieniker nutzt die Begehung, um den Arbeitsplatz zu beobachten und sich Fragen beantworten zu lassen. Beispiele für Beobachtungen und Fragen sind in Abbildung 2 dargestellt.
Abbildung 1. Berufliche Belastungen.
Abbildung 2. Beobachtungen und Fragen, die bei einer Walk-Through-Umfrage gestellt werden sollten.
Zusätzlich zu den in Abbildung 5 gezeigten Fragen sollten Fragen gestellt werden, die aufdecken, was nicht sofort offensichtlich ist. Fragen könnten adressieren:
Nicht routinemäßige Aufgaben können zu erheblichen Spitzenbelastungen durch Chemikalien führen, die während eines typischen Arbeitstages schwer vorherzusagen und zu messen sind. Prozessänderungen und chemische Substitutionen können die Freisetzung von Stoffen in die Luft verändern und die nachfolgende Exposition beeinflussen. Änderungen in der physischen Anordnung eines Arbeitsbereichs können die Wirksamkeit eines bestehenden Belüftungssystems verändern. Änderungen der Arbeitsfunktionen können dazu führen, dass Aufgaben von unerfahrenen Arbeitern ausgeführt werden und die Exposition erhöht wird. Renovierungen und Reparaturen können neue Materialien und Chemikalien in die Arbeitsumgebung einführen, die flüchtige organische Chemikalien abgeben oder Reizstoffe sind.
Erhebungen zur Luftqualität in Innenräumen
Erhebungen zur Luftqualität in Innenräumen unterscheiden sich von herkömmlichen Erhebungen zur Arbeitshygiene, da sie typischerweise an nichtindustriellen Arbeitsplätzen durchgeführt werden und Expositionen gegenüber Gemischen von Spurenmengen von Chemikalien beinhalten können, von denen keine allein geeignet erscheint, Krankheiten zu verursachen (Ness 1991). Das Ziel von Raumluftqualitätserhebungen ist ähnlich wie bei arbeitshygienischen Erhebungen in Bezug auf die Identifizierung von Kontaminationsquellen und die Bestimmung des Überwachungsbedarfs. Umfragen zur Luftqualität in Innenräumen sind jedoch immer durch Gesundheitsbeschwerden der Mitarbeiter motiviert. In vielen Fällen haben die Mitarbeiter eine Vielzahl von Symptomen, darunter Kopfschmerzen, Halsreizungen, Lethargie, Husten, Juckreiz, Übelkeit und unspezifische Überempfindlichkeitsreaktionen, die verschwinden, wenn sie nach Hause gehen. Wenn gesundheitliche Beschwerden nach Beendigung der Arbeit nicht verschwinden, sollten auch nichtberufliche Expositionen in Betracht gezogen werden. Zu den nichtberuflichen Expositionen gehören Hobbys, andere Jobs, städtische Luftverschmutzung, Passivrauchen und häusliche Expositionen. Umfragen zur Luftqualität in Innenräumen verwenden häufig Fragebögen, um Symptome und Beschwerden von Mitarbeitern zu dokumentieren und sie mit dem Arbeitsort oder der Arbeitsfunktion innerhalb des Gebäudes zu verknüpfen. Die Bereiche mit der höchsten Inzidenz von Symptomen werden dann einer weiteren Inspektion unterzogen.
Zu den Quellen von Schadstoffen in der Raumluft, die in Untersuchungen zur Luftqualität in Innenräumen dokumentiert wurden, gehören:
Bei Innenraumluftqualitätsuntersuchungen ist die Begehung im Wesentlichen eine Gebäude- und Umgebungsbegehung, um potenzielle Kontaminationsquellen innerhalb und außerhalb des Gebäudes zu ermitteln. Zu den Quellen innerhalb von Gebäuden gehören:
Beobachtungen und Fragen, die während der Umfrage gestellt werden können, sind in Abbildung 3 aufgeführt.
Abbildung 3. Beobachtungen und Fragen für eine begehbare Raumluftqualitätsstudie.
Stichproben- und Messstrategien
Grenzwerte für die berufliche Exposition
Nach Abschluss der Begehungsinspektion muss der Arbeitshygieniker feststellen, ob eine Probenahme erforderlich ist; Probenahmen sollten nur durchgeführt werden, wenn der Zweck klar ist. Der Arbeitshygieniker muss fragen: „Was wird aus den Probenahmeergebnissen gemacht und welche Fragen werden die Ergebnisse beantworten?“ Es ist relativ einfach, Zahlen zu erfassen und zu erhalten; es ist viel schwieriger, sie zu interpretieren.
Luft- und biologische Probenahmedaten werden normalerweise mit empfohlenen oder vorgeschriebenen Arbeitsplatzgrenzwerten (OELs) verglichen. In vielen Ländern wurden Grenzwerte für die Exposition am Arbeitsplatz für das Einatmen und die biologische Exposition gegenüber chemischen und physikalischen Stoffen entwickelt. Bis heute wurden aus einem Universum von über 60,000 kommerziell verwendeten Chemikalien etwa 600 von einer Vielzahl von Organisationen und Ländern bewertet. Die philosophischen Grundlagen für die Grenzen werden von den Organisationen bestimmt, die sie entwickelt haben. Die am weitesten verbreiteten Grenzwerte, die als Schwellenwerte (TLVs) bezeichnet werden, sind diejenigen, die in den Vereinigten Staaten von der American Conference of Governmental Industrial Hygienists (ACGIH) herausgegeben wurden. Die meisten OELs, die von der Occupational Safety and Health Administration (OSHA) in den Vereinigten Staaten verwendet werden, basieren auf den TLVs. Das National Institute for Occupational Safety and Health (NIOSH) des US-Gesundheitsministeriums hat jedoch eigene Grenzwerte vorgeschlagen, die als empfohlene Expositionsgrenzwerte (RELs) bezeichnet werden.
Für luftgetragene Expositionen gibt es drei Arten von TLVs: eine achtstündige zeitgewichtete durchschnittliche Exposition, TLV-TWA, zum Schutz vor chronischen Gesundheitsschäden; ein fünfzehnminütiger durchschnittlicher Kurzzeit-Expositionsgrenzwert, TLV-STEL, zum Schutz vor akuten gesundheitlichen Auswirkungen; und einen momentanen Höchstwert, TLV-C, zum Schutz vor erstickenden oder sofort reizenden Chemikalien. Richtlinien für die Höhe der biologischen Exposition werden als biologische Expositionsindizes (BEIs) bezeichnet. Diese Richtlinien stellen die Konzentration von Chemikalien im Körper dar, die der Inhalationsexposition eines gesunden Arbeiters bei einer bestimmten Konzentration in der Luft entsprechen würde. Außerhalb der Vereinigten Staaten haben bis zu 50 Länder oder Gruppen OELs festgelegt, von denen viele mit den TLVs identisch sind. In Großbritannien heißen die Grenzwerte Health and Safety Executive Occupational Exposure Standards (OES) und in Deutschland OELs werden Maximum Workplace Concentrations (MAKs) genannt.
OELs wurden für Expositionen in der Luft gegenüber Gasen, Dämpfen und Partikeln festgelegt; sie bestehen nicht für Expositionen in der Luft gegenüber biologischen Arbeitsstoffen. Daher vergleichen die meisten Untersuchungen zur Exposition gegenüber Bioaerosolen Konzentrationen in Innenräumen mit denen im Freien. Wenn das Innen-/Außenprofil und die Konzentration von Organismen unterschiedlich sind, kann ein Expositionsproblem bestehen. Für die Haut- und Oberflächenprobenahme gibt es keine AGW, und jeder Fall muss separat bewertet werden. Bei der Oberflächenprobenahme werden die Konzentrationen in der Regel mit akzeptablen Hintergrundkonzentrationen verglichen, die in anderen Studien gemessen oder in der aktuellen Studie ermittelt wurden. Für Hautproben werden akzeptable Konzentrationen basierend auf Toxizität, Absorptionsrate, absorbierter Menge und Gesamtdosis berechnet. Darüber hinaus kann die biologische Überwachung eines Arbeiters verwendet werden, um die Hautabsorption zu untersuchen.
Sampling-Strategie
Eine umwelt- und biologische Probenahmestrategie ist ein Ansatz zur Erlangung von Expositionsmessungen, der einen Zweck erfüllt. Eine sorgfältig konzipierte und effektive Strategie ist wissenschaftlich vertretbar, optimiert die Anzahl der erhaltenen Proben, ist kostengünstig und priorisiert die Bedürfnisse. Das Ziel der Probenahmestrategie bestimmt die Entscheidungen darüber, was beprobt werden soll (Auswahl chemischer Arbeitsstoffe), wo beprobt werden soll (Personen-, Bereichs- oder Quellenprobe), wen beprobt werden soll (welcher Arbeiter oder welche Gruppe von Arbeitern), Probendauer (Echtzeit oder integriert), wie oft zu entnehmen (wie viele Tage), wie viele Proben und wie zu entnehmen (Analysemethode). Üblicherweise umfasst die Probenahme für regulatorische Zwecke kurze Kampagnen (ein oder zwei Tage), die sich auf die Worst-Case-Expositionen konzentrieren. Während diese Strategie einen minimalen Ressourcen- und Zeitaufwand erfordert, erfasst sie oft die geringste Menge an Informationen und ist für die Bewertung langfristiger beruflicher Expositionen wenig anwendbar. Um chronische Expositionen so zu bewerten, dass sie für Arbeitsmediziner und epidemiologische Studien nützlich sind, müssen Probenahmestrategien wiederholte Probenahmen im Laufe der Zeit für eine große Anzahl von Arbeitnehmern umfassen.
Zweck
Das Ziel umweltbezogener und biologischer Probenahmestrategien besteht entweder darin, die Exposition einzelner Mitarbeiter zu bewerten oder Schadstoffquellen zu bewerten. Mitarbeiterüberwachung kann durchgeführt werden, um:
Quellen- und Umgebungsluftüberwachung können durchgeführt werden, um:
Bei der Überwachung von Mitarbeitern liefert die Luftprobenahme Ersatzmaße für die Dosis, die sich aus der Inhalationsexposition ergibt. Die biologische Überwachung kann die tatsächliche Dosis einer Chemikalie liefern, die sich aus allen Absorptionswegen ergibt, einschließlich Einatmen, Verschlucken, Injektion und Haut. Daher kann die biologische Überwachung die Gesamtkörperbelastung und -dosis einer Person genauer widerspiegeln als die Luftüberwachung. Wenn die Beziehung zwischen luftgetragener Exposition und interner Dosis bekannt ist, kann die biologische Überwachung verwendet werden, um vergangene und gegenwärtige chronische Expositionen zu bewerten.
Ziele des biologischen Monitorings sind in Abbildung 4 aufgeführt.
Abbildung 4. Ziele des biologischen Monitorings.
Die biologische Überwachung hat ihre Grenzen und sollte nur durchgeführt werden, wenn sie Ziele erreicht, die mit Luftüberwachung allein nicht erreicht werden können (Fiserova-Bergova 1987). Es ist invasiv und erfordert, dass Proben direkt von Arbeitern genommen werden. Blutproben stellen im Allgemeinen das nützlichste biologische Medium zur Überwachung dar; Blut wird jedoch nur entnommen, wenn nicht-invasive Tests wie Urin oder Atemluft nicht anwendbar sind. Für die meisten Industriechemikalien sind Daten zum Verbleib der vom Körper aufgenommenen Chemikalien unvollständig oder nicht vorhanden; Daher steht nur eine begrenzte Anzahl analytischer Messmethoden zur Verfügung, und viele sind nicht empfindlich oder spezifisch.
Die Ergebnisse der biologischen Überwachung können zwischen Personen, die denselben Chemikalienkonzentrationen in der Luft ausgesetzt sind, sehr unterschiedlich sein; Alter, Gesundheit, Gewicht, Ernährungszustand, Drogen, Rauchen, Alkoholkonsum, Medikamente und Schwangerschaft können die Aufnahme, Absorption, Verteilung, den Stoffwechsel und die Ausscheidung von Chemikalien beeinflussen.
Was zu probieren
Die meisten Arbeitsumgebungen sind mehreren Schadstoffen ausgesetzt. Chemische Kampfstoffe werden sowohl einzeln als auch als mehrere gleichzeitige Angriffe auf Arbeiter bewertet. Chemische Wirkstoffe können im Körper selbstständig wirken oder in einer Weise interagieren, die die toxische Wirkung verstärkt. Die Frage, was zu messen und wie die Ergebnisse zu interpretieren sind, hängt vom biologischen Wirkungsmechanismus der Mittel ab, wenn sie sich im Körper befinden. Wirkstoffe können getrennt bewertet werden, wenn sie unabhängig voneinander auf ganz unterschiedliche Organsysteme wirken, wie beispielsweise ein Augenreizstoff und ein Neurotoxin. Wenn sie auf dasselbe Organsystem einwirken, wie z. B. zwei Atemwegsreizstoffe, ist ihre kombinierte Wirkung wichtig. Ist die toxische Wirkung des Gemisches die Summe der Einzelwirkungen der Einzelkomponenten, spricht man von Additiv. Wenn die toxische Wirkung der Mischung größer ist als die Summe der Wirkungen der einzelnen Wirkstoffe, wird ihre kombinierte Wirkung als synergistisch bezeichnet. Die Exposition gegenüber Zigarettenrauchen und das Einatmen von Asbestfasern führt zu einem viel größeren Lungenkrebsrisiko als ein einfacher additiver Effekt.Die Probenahme aller chemischen Arbeitsstoffe an einem Arbeitsplatz wäre sowohl teuer als auch nicht unbedingt vertretbar. Der Arbeitshygieniker muss die Wäscheliste potenzieller Arbeitsstoffe nach Gefahr oder Risiko priorisieren, um zu bestimmen, welche Arbeitsstoffe im Fokus stehen.
Zu den Faktoren, die bei der Einstufung von Chemikalien eine Rolle spielen, gehören:
Um die Exposition der Arbeitnehmer bestmöglich abzuschätzen, werden Luftproben im Atembereich des Arbeitnehmers (in einem Radius von 30 cm um den Kopf) entnommen und als persönliche Proben bezeichnet. Zur Gewinnung von Atemzonenproben wird das Probenahmegerät für die Dauer der Probenahme direkt am Arbeiter angebracht. Wenn Luftproben in der Nähe des Arbeitnehmers außerhalb der Atemzone entnommen werden, werden sie als Flächenproben bezeichnet. Flächenproben neigen dazu, die persönliche Exposition zu unterschätzen und liefern keine guten Schätzungen der Inhalationsexposition. Bereichsproben sind jedoch nützlich, um Schadstoffquellen zu bewerten und Schadstoffkonzentrationen in der Umgebung zu messen. Flächenproben können beim Gehen durch den Arbeitsplatz mit einem tragbaren Gerät oder mit festen Probenahmestationen entnommen werden. Flächenprobenahmen werden routinemäßig an Asbestsanierungsstandorten für Freigabeprobenahmen und für Innenraumluftuntersuchungen verwendet.
Wen zu probieren
Um die berufliche Exposition zu bewerten, würde idealerweise jeder Arbeitnehmer über mehrere Tage im Laufe von Wochen oder Monaten einzeln beprobt. Sofern der Arbeitsplatz jedoch nicht klein ist (< 10 Beschäftigte), ist es normalerweise nicht möglich, alle Arbeitnehmer zu beproben. Um den Probenahmeaufwand in Bezug auf Ausrüstung und Kosten zu minimieren und die Wirksamkeit des Probenahmeprogramms zu erhöhen, wird eine Untergruppe von Arbeitnehmern am Arbeitsplatz beprobt, und ihre Überwachungsergebnisse werden verwendet, um die Expositionen für die größere Belegschaft darzustellen.
Um Arbeitnehmer auszuwählen, die repräsentativ für die größere Belegschaft sind, besteht ein Ansatz darin, Arbeitnehmer in Gruppen mit ähnlichen erwarteten Expositionen einzuteilen, die als homogene Expositionsgruppen (HEGs) bezeichnet werden (Corn 1985). Nachdem die HEGs gebildet wurden, wird aus jeder Gruppe zufällig eine Untergruppe von Arbeitern für die Stichprobenziehung ausgewählt. Methoden zur Bestimmung der geeigneten Stichprobenumfänge gehen von einer logarithmischen Normalverteilung der Expositionen, einer geschätzten mittleren Exposition und einer geometrischen Standardabweichung von 2.2 bis 2.5 aus. Frühere Stichprobendaten könnten die Verwendung einer kleineren geometrischen Standardabweichung ermöglichen. Um Mitarbeiter in verschiedene HEGs einzuteilen, beobachten die meisten Arbeitshygieniker die Mitarbeiter bei ihrer Arbeit und prognostizieren die Exposition qualitativ.
Es gibt viele Ansätze zur Bildung von HEGs; Im Allgemeinen können Arbeitnehmer nach Ähnlichkeit der Arbeitsaufgabe oder des Arbeitsbereichs klassifiziert werden. Wenn sowohl Job- als auch Arbeitsbereichsähnlichkeit verwendet werden, wird die Klassifizierungsmethode als Zoning bezeichnet (siehe Abbildung 5). Sobald sie in der Luft sind, können chemische und biologische Arbeitsstoffe komplexe und unvorhersehbare räumliche und zeitliche Konzentrationsmuster in der gesamten Arbeitsumgebung aufweisen. Daher ist die Nähe der Quelle relativ zum Mitarbeiter möglicherweise nicht der beste Indikator für eine Expositionsähnlichkeit. Expositionsmessungen an Arbeitern, von denen ursprünglich erwartet wurde, dass sie ähnliche Expositionen haben, können zeigen, dass zwischen den Arbeitern mehr Unterschiede bestehen als vorhergesagt. In diesen Fällen sollten die Expositionsgruppen in kleinere Gruppen von Arbeitern rekonstruiert werden, und die Probennahme sollte weiterhin sicherstellen, dass die Arbeiter innerhalb jeder Gruppe tatsächlich ähnlichen Expositionen ausgesetzt sind (Rappaport 1995).
Abbildung 5. Faktoren, die beim Erstellen von HEGs mit Zoning eine Rolle spielen.
Die Expositionen können für alle Mitarbeiter ungeachtet der Berufsbezeichnung oder des Risikos geschätzt werden, oder sie können nur für die Mitarbeiter geschätzt werden, von denen angenommen wird, dass sie die höchsten Expositionen haben; dies wird als Worst-Case-Sampling bezeichnet. Die Auswahl der Mitarbeiter für die Worst-Case-Probenahme kann auf der Grundlage der Produktion, der Nähe zur Quelle, früherer Probenahmedaten, des Inventars und der chemischen Toxizität erfolgen. Die Worst-Case-Methode wird für Regulierungszwecke verwendet und liefert kein Maß für die langfristige mittlere Exposition und die Schwankungen von Tag zu Tag. Bei der aufgabenbezogenen Stichprobenauswahl werden Arbeitnehmer mit Jobs ausgewählt, die ähnliche Aufgaben haben, die weniger als täglich anfallen.
Es gibt viele Faktoren, die in die Exposition einfließen und den Erfolg der HEG-Klassifizierung beeinflussen können, einschließlich der folgenden:
Beispieldauer
Die Konzentrationen chemischer Arbeitsstoffe in Luftproben werden entweder direkt im Feld gemessen, wobei sofortige Ergebnisse erzielt werden (Echtzeit oder Stichprobe), oder sie werden im Laufe der Zeit im Feld auf Probenahmemedien oder in Probenahmebeuteln gesammelt und in einem Labor gemessen (integriert ) (Lynch 1995). Der Vorteil der Probenahme in Echtzeit besteht darin, dass die Ergebnisse schnell vor Ort erhalten werden und Messungen kurzfristiger akuter Expositionen erfasst werden können. Echtzeitmethoden sind jedoch begrenzt, da sie nicht für alle besorgniserregenden Kontaminanten verfügbar sind und möglicherweise nicht analytisch empfindlich oder genau genug sind, um die Zielkontaminanten zu quantifizieren. Probenahmen in Echtzeit sind möglicherweise nicht anwendbar, wenn der Arbeitshygieniker an chronischen Expositionen interessiert ist und zeitgewichtete Durchschnittsmessungen zum Vergleich mit AGW benötigt.Die Probenahme in Echtzeit wird für Notfallbewertungen, zum Erhalten grober Konzentrationsschätzungen, zum Auffinden von Lecks, zur Umgebungsluft- und Quellenüberwachung, zur Bewertung technischer Kontrollen, zur Überwachung kurzfristiger Expositionen von weniger als 15 Minuten, zur Überwachung episodischer Expositionen, zur Überwachung hochgiftiger Chemikalien ( Kohlenmonoxid), explosionsfähige Gemische und Prozessüberwachung. Echtzeit-Probenahmemethoden können sich ändernde Konzentrationen im Laufe der Zeit erfassen und sofortige qualitative und quantitative Informationen liefern. Integrierte Luftprobenahmen werden in der Regel zur Personenüberwachung, Flächenprobenahme und zum Vergleich von Konzentrationen mit zeitgewichteten AGW-Mitteln durchgeführt. Die Vorteile der integrierten Probenahme bestehen darin, dass Methoden für eine Vielzahl von Kontaminanten verfügbar sind; es kann verwendet werden, um Unbekannte zu identifizieren; Genauigkeit und Spezifität sind hoch und die Nachweisgrenzen sind normalerweise sehr niedrig. Integrierte Proben, die in einem Labor analysiert werden, müssen genügend Kontaminanten enthalten, um die Mindestanforderungen an die nachweisbare Analyse zu erfüllen; daher werden Proben über einen vorbestimmten Zeitraum gesammelt.
Neben den analytischen Anforderungen an ein Probenahmeverfahren sollte die Probenahmedauer auf den Probenahmezweck abgestimmt sein. Bei der Probenahme an der Quelle basiert die Dauer auf der Prozess- oder Zykluszeit oder darauf, wann Konzentrationsspitzen zu erwarten sind. Bei Spitzenproben sollten Proben den ganzen Tag über in regelmäßigen Abständen entnommen werden, um Verzerrungen zu minimieren und unvorhersehbare Spitzen zu identifizieren. Der Probenahmezeitraum sollte kurz genug sein, um Spitzen zu identifizieren und gleichzeitig die tatsächliche Expositionszeit widerzuspiegeln.
Bei personenbezogener Probenahme wird die Dauer an den Arbeitsplatzgrenzwert, die Aufgabendauer oder die erwartete biologische Wirkung angepasst. Echtzeit-Probenahmeverfahren werden zur Bewertung akuter Expositionen gegenüber Reizstoffen, Erstickungsmitteln, Sensibilisatoren und Allergenen eingesetzt. Chlor, Kohlenmonoxid und Schwefelwasserstoff sind Beispiele für Chemikalien, die ihre Wirkung schnell und in relativ geringen Konzentrationen entfalten können.
Chronische Krankheitserreger wie Blei und Quecksilber werden normalerweise über eine ganze Schicht (sieben Stunden oder mehr pro Probe) mit integrierten Probenahmemethoden beprobt. Zur Bewertung der Exposition während einer ganzen Schicht verwendet der Arbeitshygieniker entweder eine einzelne Probe oder eine Reihe aufeinanderfolgender Proben, die die gesamte Schicht abdecken. Die Probenahmedauer für Expositionen, die weniger als eine volle Schicht dauern, ist normalerweise mit bestimmten Aufgaben oder Prozessen verbunden. Bauarbeiter, Wartungspersonal für Innenräume und Straßenwartungsteams sind Beispiele für Jobs mit aufgabengebundenen Expositionen.
Wie viele Proben und wie oft sollen Proben genommen werden?
Konzentrationen von Schadstoffen können von Minute zu Minute, von Tag zu Tag und von Jahreszeit zu Jahreszeit variieren, und es kann zwischen Individuen und innerhalb einer Person zu Schwankungen kommen. Die Expositionsvariabilität wirkt sich sowohl auf die Anzahl der Proben als auch auf die Genauigkeit der Ergebnisse aus. Schwankungen in der Exposition können sich aus unterschiedlichen Arbeitspraktiken, Änderungen der Schadstoffemissionen, der Menge der verwendeten Chemikalien, Produktionsquoten, Belüftung, Temperaturänderungen, Mobilität der Arbeitnehmer und Aufgabenzuweisungen ergeben. Die meisten Probenahmekampagnen werden an ein paar Tagen im Jahr durchgeführt; daher sind die erhaltenen Messungen nicht repräsentativ für die Exposition. Der Zeitraum, in dem Proben gesammelt werden, ist sehr kurz im Vergleich zum Zeitraum ohne Probennahme; der Arbeitshygieniker muss vom beprobten auf den unbeprobten Zeitraum extrapolieren. Zur Überwachung der Langzeitexposition sollten von jedem aus einem HEG ausgewählten Arbeiter im Laufe von Wochen oder Monaten mehrmals Proben genommen und die Expositionen für alle Schichten charakterisiert werden. Während die Tagschicht am geschäftigsten sein kann, wird die Nachtschicht möglicherweise am wenigsten überwacht, und es kann zu Fehlern in der Arbeitspraxis kommen.
Messtechniken
Aktives und passives Sampling
Verunreinigungen werden auf Probenahmemedien gesammelt, indem entweder aktiv eine Luftprobe durch die Medien gezogen wird oder indem der Luft passiv ermöglicht wird, die Medien zu erreichen. Die aktive Probenahme verwendet eine batteriebetriebene Pumpe, und die passive Probenahme nutzt Diffusion oder Schwerkraft, um die Verunreinigungen in die Probenahmemedien zu bringen. Gase, Dämpfe, Partikel und Bioaerosole werden alle durch aktive Probenahmeverfahren gesammelt; Gase und Dämpfe können auch durch passive Diffusionsprobenahme gesammelt werden.
Bei Gasen, Dämpfen und den meisten Partikeln wird nach der Entnahme der Probe die Masse der Verunreinigung gemessen und die Konzentration berechnet, indem die Masse durch das Volumen der entnommenen Luft dividiert wird. Bei Gasen und Dämpfen wird die Konzentration als Teile pro Million (ppm) oder mg/m ausgedrückt3, und die Partikelkonzentration wird in mg/m ausgedrückt3 (Dinardi 1995).
Bei der integrierten Probenahme sind Luftprobenahmepumpen kritische Komponenten des Probenahmesystems, da Konzentrationsschätzungen die Kenntnis des Volumens der entnommenen Luft erfordern. Die Pumpen werden basierend auf der gewünschten Durchflussrate, Wartungs- und Kalibrierungsfreundlichkeit, Größe, Kosten und Eignung für gefährliche Umgebungen ausgewählt. Das primäre Auswahlkriterium ist die Durchflussrate: Low-Flow-Pumpen (0.5 bis 500 ml/min) werden zur Probenahme von Gasen und Dämpfen verwendet; High-Flow-Pumpen (500 bis 4,500 ml/min) werden zur Probenahme von Partikeln, Bioaerosolen sowie Gasen und Dämpfen eingesetzt. Um genaue Probenvolumina sicherzustellen, müssen Pumpen genau kalibriert werden. Die Kalibrierung erfolgt mit Primärnormalen wie manuellen oder elektronischen Seifenblasenmessgeräten, die das Volumen direkt messen, oder mit Sekundärmethoden wie Nasstestmessgeräten, Trockengasmessgeräten und Präzisionsrotametern, die gegen Primärmethoden kalibriert werden.
Gase und Dämpfe: Probenahmemedien
Gase und Dämpfe werden mit porösen Feststoff-Sorptionsröhrchen, Impingern, passiven Monitoren und Beuteln gesammelt. Sorbensröhrchen sind hohle Glasröhrchen, die mit einem körnigen Feststoff gefüllt sind, der eine unveränderte Adsorption von Chemikalien auf seiner Oberfläche ermöglicht. Feste Sorbentien sind spezifisch für Verbindungsgruppen; Zu den häufig verwendeten Sorbentien gehören Holzkohle, Kieselgel und Tenax. Aktivkohle-Sorbens, eine amorphe Form von Kohlenstoff, ist elektrisch unpolar und adsorbiert vorzugsweise organische Gase und Dämpfe. Kieselgel, eine amorphe Form von Kieselsäure, wird verwendet, um polare organische Verbindungen, Amine und einige anorganische Verbindungen zu sammeln. Aufgrund seiner Affinität zu polaren Verbindungen adsorbiert es Wasserdampf; Daher kann Wasser bei erhöhter Luftfeuchtigkeit die interessierenden weniger polaren Chemikalien aus dem Kieselgel verdrängen. Tenax, ein poröses Polymer, wird zur Probenahme sehr niedriger Konzentrationen unpolarer flüchtiger organischer Verbindungen verwendet.
Die Fähigkeit, die Schadstoffe in der Luft genau einzufangen und Schadstoffverluste zu vermeiden, hängt von der Probenahmerate, dem Probenahmevolumen und der Flüchtigkeit und Konzentration des in der Luft befindlichen Schadstoffs ab. Die Sammeleffizienz fester Sorbentien kann durch erhöhte Temperatur, Feuchtigkeit, Durchflussrate, Konzentration, Sorbenspartikelgröße und Anzahl konkurrierender Chemikalien beeinträchtigt werden. Wenn die Sammeleffizienz abnimmt, gehen Chemikalien während der Probenahme verloren und die Konzentrationen werden unterschätzt. Um den Verlust oder Durchbruch von Chemikalien zu erkennen, haben Feststoff-Sorbensröhrchen zwei Abschnitte aus körnigem Material, die durch einen Schaumstoffstopfen getrennt sind. Der vordere Teil dient zur Probenentnahme und der hintere Teil zur Bestimmung des Durchbruchs. Ein Durchbruch ist aufgetreten, wenn mindestens 20 bis 25 % der Verunreinigung im hinteren Abschnitt des Röhrchens vorhanden sind. Die Analyse von Verunreinigungen aus festen Sorbentien erfordert die Extraktion der Verunreinigungen aus dem Medium unter Verwendung eines Lösungsmittels. Für jede Charge von Sorbensröhrchen und gesammelten Chemikalien muss das Labor die Desorptionseffizienz bestimmen, die Effizienz der Entfernung von Chemikalien aus dem Sorbens durch das Lösungsmittel. Für Aktivkohle und Kieselgel ist das am häufigsten verwendete Lösungsmittel Schwefelkohlenstoff. Bei Tenax werden die Chemikalien mittels Thermodesorption direkt in einen Gaschromatographen extrahiert.
Impinger sind normalerweise Glasflaschen mit einem Einlassrohr, das es ermöglicht, Luft durch eine Lösung in die Flasche zu saugen, die die Gase und Dämpfe durch Absorption entweder unverändert in Lösung oder durch eine chemische Reaktion sammelt. Impinger werden in der Arbeitsplatzüberwachung, insbesondere bei der personenbezogenen Probenahme, immer seltener eingesetzt, da sie brechen können und die flüssigen Medien auf den Mitarbeiter schwappen können. Es gibt eine Vielzahl von Arten von Impingern, darunter Gaswaschflaschen, Spiralabsorber, Glasperlensäulen, Zwerg-Impinger und Sprudler. Alle Impinger können zur Entnahme von Flächenproben verwendet werden; Der am häufigsten verwendete Impinger, der Zwerg-Impinger, kann auch für die persönliche Probenahme verwendet werden.
Passive oder Diffusionsmonitore sind klein, haben keine beweglichen Teile und sind sowohl für organische als auch für anorganische Verunreinigungen erhältlich. Die meisten organischen Monitore verwenden Aktivkohle als Sammelmedium. Theoretisch kann jede Verbindung, die mit einem Aktivkohle-Sorbensröhrchen und einer Pumpe gemessen werden kann, mit einem passiven Monitor getestet werden. Jeder Monitor hat eine einzigartig gestaltete Geometrie, um eine effektive Abtastrate zu erreichen. Die Probenahme beginnt mit dem Entfernen der Monitorabdeckung und endet mit dem Aufsetzen der Abdeckung. Die meisten Diffusionsmonitore sind für zeitgewichtete durchschnittliche Expositionen von acht Stunden genau und für kurzfristige Expositionen nicht geeignet.
Mit Probenahmebeuteln können integrierte Proben von Gasen und Dämpfen entnommen werden. Sie haben Durchlässigkeits- und Adsorptionseigenschaften, die eine Lagerung für einen Tag mit minimalem Verlust ermöglichen. Beutel bestehen aus Teflon (Polytetrafluorethylen) und Tedlar (Polyvinylfluorid).
Probenahmemedien: Partikelmaterialien
Die berufsbezogene Probenahme nach Partikeln oder Aerosolen befindet sich derzeit im Wandel; traditionelle Probenahmeverfahren werden schließlich durch partikelgrößenselektive (PSS) Probenahmeverfahren ersetzt. Zuerst werden traditionelle Probenahmeverfahren besprochen, gefolgt von PSS-Verfahren.
Die am häufigsten verwendeten Medien zum Sammeln von Aerosolen sind Faser- oder Membranfilter; Die Aerosolentfernung aus dem Luftstrom erfolgt durch Kollision und Anhaftung der Partikel an der Oberfläche der Filter. Die Wahl des Filtermediums hängt von den physikalischen und chemischen Eigenschaften der zu beprobenden Aerosole, der Art des Probenehmers und der Art der Analyse ab. Bei der Auswahl von Filtern müssen diese hinsichtlich Abscheidungseffizienz, Druckabfall, Hygroskopizität, Hintergrundkontamination, Stärke und Porengröße, die zwischen 0.01 und 10 μm liegen kann, bewertet werden. Membranfilter werden in verschiedenen Porengrößen hergestellt und bestehen üblicherweise aus Zelluloseester, Polyvinylchlorid oder Polytetrafluorethylen. Die Partikelsammlung erfolgt an der Oberfläche des Filters; Daher werden Membranfilter normalerweise in Anwendungen verwendet, in denen Mikroskopie durchgeführt wird. Gemischte Zelluloseesterfilter können leicht mit Säure aufgelöst werden und werden normalerweise zum Sammeln von Metallen für die Analyse durch Atomabsorption verwendet. Nucleopore-Filter (Polycarbonat) sind sehr stark und thermisch stabil und werden zur Probenahme und Analyse von Asbestfasern mittels Transmissionselektronenmikroskopie verwendet. Faserfilter bestehen normalerweise aus Glasfaser und werden zur Probenahme von Aerosolen wie Pestiziden und Blei verwendet.
Bei beruflicher Exposition gegenüber Aerosolen kann ein bekanntes Luftvolumen durch die Filter entnommen werden, die gesamte Massenzunahme (gravimetrische Analyse) kann gemessen werden (mg/m3 Luft), kann die Gesamtzahl der Partikel gezählt (Fasern/cc) oder die Aerosole identifiziert werden (chemische Analyse). Für Massenberechnungen kann der gesamte Staub, der in den Probenehmer gelangt, oder nur die lungengängige Fraktion gemessen werden. Für Gesamtstaub repräsentiert die Massenzunahme die Exposition durch Ablagerung in allen Teilen des Atemtrakts. Gesamtstaub-Probenehmer sind aufgrund von starken Winden, die über den Probenehmer streichen, und einer unsachgemäßen Ausrichtung des Probenehmers fehleranfällig. Starke Winde und aufrecht ausgerichtete Filter können dazu führen, dass sich zusätzliche Partikel ansammeln und die Exposition überschätzt wird.
Bei der Probenahme von einatembarem Staub repräsentiert die Massenzunahme die Exposition durch Ablagerung im Gasaustauschbereich (Alveolarbereich) der Atemwege. Um nur die lungengängige Fraktion zu sammeln, wird ein als Zyklon bezeichneter Vorklassierer verwendet, um die Verteilung des in der Luft befindlichen Staubs zu verändern, der dem Filter zugeführt wird. Aerosole werden in den Zyklon gesaugt, beschleunigt und verwirbelt, wodurch die schwereren Partikel an den Rand des Luftstroms geschleudert und zu einem Entfernungsabschnitt am Boden des Zyklons fallen gelassen werden. Die lungengängigen Partikel, die kleiner als 10 μm sind, verbleiben im Luftstrom und werden zur anschließenden gravimetrischen Analyse auf dem Filter angesaugt und gesammelt.
Probenahmefehler, die bei der Durchführung von Gesamt- und lungengängigen Staubproben auftreten, führen zu Messungen, die die Exposition nicht genau widerspiegeln oder sich auf nachteilige Auswirkungen auf die Gesundheit beziehen. Daher wurde PSS vorgeschlagen, um die Beziehung zwischen Partikelgröße, gesundheitsschädlichen Auswirkungen und Probenahmeverfahren neu zu definieren. Bei der PSS-Probenahme bezieht sich die Messung von Partikeln auf die Größen, die mit bestimmten gesundheitlichen Auswirkungen verbunden sind. Die Internationale Organisation für Normung (ISO) und der ACGIH haben drei Partikelmassenfraktionen vorgeschlagen: einatembare Partikelmasse (IPM), thorakale Partikelmasse (TPM) und lungengängige Partikelmasse (RPM). IPM bezieht sich auf Partikel, von denen erwartet werden kann, dass sie durch Nase und Mund eindringen, und würde den herkömmlichen Gesamtmassenanteil ersetzen. TPM bezieht sich auf Partikel, die über den Kehlkopf in die oberen Atemwege eindringen können. RPM bezieht sich auf Partikel, die sich in der Gasaustauschregion der Lunge ablagern können und den aktuellen lungengängigen Massenanteil ersetzen würden. Die praktische Übernahme der PSS-Probenahme erfordert die Entwicklung neuer Aerosol-Probenahmeverfahren und PSS-spezifischer Arbeitsplatzgrenzwerte.
Probenahmemedien: biologische Materialien
Es gibt nur wenige standardisierte Methoden zur Probenahme von biologischem Material oder Bioaerosolen. Obwohl die Probenahmemethoden denen ähnlich sind, die für andere luftgetragene Partikel verwendet werden, muss die Lebensfähigkeit der meisten Bioaerosole erhalten bleiben, um die Kultivierbarkeit im Labor zu gewährleisten. Daher sind sie schwieriger zu sammeln, zu speichern und zu analysieren. Die Strategie zur Probenahme von Bioaerosolen umfasst das Sammeln direkt auf halbfestem Nähragar oder das Ausplattieren nach dem Sammeln in Flüssigkeiten, die mehrtägige Inkubation und die Identifizierung und Quantifizierung der gewachsenen Zellen. Die Zellhaufen, die sich auf dem Agar vermehrt haben, können als koloniebildende Einheiten (CFU) für lebensfähige Bakterien oder Pilze und als Plaque-bildende Einheiten (PFU) für aktive Viren gezählt werden. Mit Ausnahme von Sporen werden Filter für die Sammlung von Bioaerosolen nicht empfohlen, da Austrocknung Zellschäden verursacht.
Lebensfähige aerosolisierte Mikroorganismen werden unter Verwendung von Ganzglas-Impingern (AGI-30), Schlitzprobennehmern und Trägheitsimpaktoren gesammelt. Impinger sammeln Bioaerosole in Flüssigkeiten und der Schlitzsammler sammelt Bioaerosole auf Glasobjektträgern bei hohen Volumina und Durchflussraten. Der Impaktor wird mit einer bis sechs Stufen verwendet, die jeweils eine Petrischale enthalten, um eine Trennung der Partikel nach Größe zu ermöglichen.
Die Interpretation der Probenahmeergebnisse muss von Fall zu Fall erfolgen, da es keine Arbeitsplatzgrenzwerte gibt. Bewertungskriterien müssen vor der Probenahme festgelegt werden; Insbesondere bei Innenraumluftuntersuchungen werden außerhalb des Gebäudes entnommene Proben als Hintergrundreferenz verwendet. Als Faustregel gilt, dass die Konzentrationen das Zehnfache des Hintergrunds betragen sollten, um eine Kontamination zu vermuten. Bei der Verwendung von Kulturplattierungstechniken werden die Konzentrationen wahrscheinlich aufgrund von Verlusten an Lebensfähigkeit während der Probenahme und Inkubation unterschätzt.
Haut- und Oberflächenprobenahme
Es gibt keine Standardmethoden zur Bewertung der Hautexposition gegenüber Chemikalien und zur Vorhersage der Dosis. Oberflächenproben werden hauptsächlich durchgeführt, um Arbeitspraktiken zu bewerten und potenzielle Quellen der Hautabsorption und -aufnahme zu identifizieren. Zwei Arten von Oberflächenprobenahmemethoden werden verwendet, um das Haut- und Aufnahmepotential zu bewerten: direkte Methoden, bei denen die Haut eines Arbeiters entnommen wird, und indirekte Methoden, bei denen Oberflächenproben mit Wischproben entnommen werden.
Bei der direkten Hautprobenahme werden Mulltupfer auf die Haut gelegt, um Chemikalien zu absorbieren, die Haut mit Lösungsmitteln gespült, um Verunreinigungen zu entfernen, und die Hautkontamination mithilfe von Fluoreszenz identifiziert. Mullkompressen werden auf verschiedene Körperteile gelegt und entweder freigelegt oder unter der persönlichen Schutzausrüstung platziert. Am Ende des Arbeitstages werden die Pads entfernt und im Labor analysiert; die Verteilung von Konzentrationen aus verschiedenen Körperteilen werden verwendet, um Hautexpositionsbereiche zu identifizieren. Dieses Verfahren ist kostengünstig und einfach durchzuführen; Die Ergebnisse sind jedoch begrenzt, da Gazetupfer keine guten physikalischen Modelle der Absorptions- und Retentionseigenschaften der Haut sind und die gemessenen Konzentrationen nicht unbedingt repräsentativ für den gesamten Körper sind.
Hautspülungen umfassen das Abwischen der Haut mit Lösungsmitteln oder das Einlegen der Hände in mit Lösungsmitteln gefüllte Plastiktüten, um die Konzentration von Chemikalien auf der Oberfläche zu messen. Bei dieser Methode kann die Dosis unterschätzt werden, da nur der nicht absorbierte Anteil der Chemikalien gesammelt wird.
Die Fluoreszenzüberwachung wird verwendet, um die Hautexposition gegenüber Chemikalien zu identifizieren, die von Natur aus fluoreszieren, wie z. B. mehrkernige Aromaten, und um die Exposition gegenüber Chemikalien zu identifizieren, denen absichtlich fluoreszierende Verbindungen zugesetzt wurden. Die Haut wird mit ultraviolettem Licht gescannt, um die Kontamination sichtbar zu machen. Diese Visualisierung liefert den Arbeitnehmern Hinweise auf die Auswirkungen der Arbeitspraktiken auf die Exposition; Derzeit wird geforscht, um die Fluoreszenzintensität zu quantifizieren und sie mit der Dosis in Beziehung zu setzen.
Indirekte Wischprobenahmemethoden umfassen die Verwendung von Gaze, Glasfaserfiltern oder Zellulosepapierfiltern, um die Innenseiten von Handschuhen oder Atemschutzmasken oder die Oberseiten von Oberflächen abzuwischen. Lösungsmittel können hinzugefügt werden, um die Sammeleffizienz zu erhöhen. Die Gaze oder Filter werden dann im Labor analysiert. Um die Ergebnisse zu standardisieren und einen Vergleich zwischen Proben zu ermöglichen, wird eine quadratische Schablone verwendet, um eine 100 cm lange Probe zu nehmen2 Bereich.
Biologische Medien
Blut-, Urin- und Atemluftproben sind die am besten geeigneten Proben für das routinemäßige biologische Monitoring, während Haare, Milch, Speichel und Nägel weniger häufig verwendet werden. Die biologische Überwachung erfolgt durch die Entnahme von Blut- und Urinproben am Arbeitsplatz und deren Analyse im Labor. Ausgeatmete Luftproben werden in Tedlar-Beutel, speziell entwickelten Glaspipetten oder Sorptionsröhrchen gesammelt und vor Ort mit direkt ablesbaren Instrumenten oder im Labor analysiert. Blut-, Urin- und Ausatemluftproben werden hauptsächlich verwendet, um die unveränderte Ausgangsverbindung (dieselbe Chemikalie, die in der Luft am Arbeitsplatz entnommen wird), ihren Metaboliten oder eine im Körper induzierte biochemische Veränderung (Zwischenprodukt) zu messen. Beispielsweise wird die Ausgangsverbindung Blei im Blut gemessen, um die Bleiexposition zu bewerten, der Metabolit Mandelsäure wird im Urin sowohl auf Styrol als auch auf Ethylbenzol gemessen, und Carboxyhämoglobin ist das Zwischenprodukt, das im Blut sowohl auf Kohlenmonoxid- als auch auf Methylenchlorid-Exposition gemessen wird. Für die Expositionsüberwachung korreliert die Konzentration einer idealen Determinante stark mit der Intensität der Exposition. Für die medizinische Überwachung wird die Konzentration einer idealen Determinante stark mit der Zielorgankonzentration korrelieren.
Der Zeitpunkt der Probenentnahme kann sich auf die Nützlichkeit der Messungen auswirken; Proben sollten zu Zeiten entnommen werden, die die Exposition am genauesten widerspiegeln. Das Timing hängt mit der biologischen Ausscheidungshalbwertszeit einer Chemikalie zusammen, die widerspiegelt, wie schnell eine Chemikalie aus dem Körper ausgeschieden wird; dies kann von Stunden bis zu Jahren variieren. Zielorgankonzentrationen von Chemikalien mit kurzen biologischen Halbwertszeiten folgen eng der Umweltkonzentration; Zielorgankonzentrationen von Chemikalien mit langen biologischen Halbwertszeiten schwanken nur sehr wenig als Reaktion auf Umweltbelastungen. Bei Chemikalien mit kurzen biologischen Halbwertszeiten von weniger als drei Stunden wird unmittelbar am Ende des Arbeitstages, bevor die Konzentrationen schnell abfallen, eine Probe entnommen, um die Exposition an diesem Tag widerzuspiegeln. Bei Chemikalien mit langen Halbwertszeiten wie polychlorierten Biphenylen und Blei können jederzeit Proben entnommen werden.
Echtzeit-Monitore
Direkt anzeigende Instrumente ermöglichen die Quantifizierung von Schadstoffen in Echtzeit; die Probe wird innerhalb der Ausrüstung analysiert und erfordert keine externe Laboranalyse (Maslansky und Maslansky 1993). Verbindungen können gemessen werden, ohne sie zuerst auf separaten Medien zu sammeln und sie dann zu versenden, zu lagern und zu analysieren. Die Konzentration wird direkt von einem Messgerät, Display, Streifenschreiber und Datenlogger oder von einer Farbänderung abgelesen. Direkt anzeigende Instrumente werden hauptsächlich für Gase und Dämpfe verwendet; Für die Überwachung von Partikeln stehen einige Instrumente zur Verfügung. Die Instrumente unterscheiden sich in Kosten, Komplexität, Zuverlässigkeit, Größe, Empfindlichkeit und Spezifität. Dazu gehören einfache Geräte wie kolorimetrische Röhrchen, die eine Farbänderung verwenden, um die Konzentration anzuzeigen; dedizierte Instrumente, die spezifisch für eine Chemikalie sind, wie z. B. Kohlenmonoxid-Anzeiger, Anzeiger für brennbare Gase (Explosimeter) und Quecksilberdampfmessgeräte; und Überwachungsinstrumente wie Infrarotspektrometer, die große Gruppen von Chemikalien untersuchen. Direkt anzeigende Instrumente verwenden eine Vielzahl physikalischer und chemischer Methoden zur Analyse von Gasen und Dämpfen, darunter Leitfähigkeit, Ionisation, Potentiometrie, Photometrie, radioaktive Tracer und Verbrennung.
Üblicherweise verwendete tragbare direkt anzeigende Instrumente umfassen batteriebetriebene Gaschromatographen, Analysegeräte für organische Dämpfe und Infrarotspektrometer. Gaschromatographen und Monitore für organische Dämpfe werden hauptsächlich zur Umweltüberwachung an Sondermülldeponien und zur Überwachung der Umgebungsluft in Gemeinden verwendet. Gaschromatographen mit geeigneten Detektoren sind spezifisch und empfindlich und können Chemikalien in sehr geringen Konzentrationen quantifizieren. Analysatoren für organische Dämpfe werden normalerweise verwendet, um Klassen von Verbindungen zu messen. Tragbare Infrarot-Spektrometer werden hauptsächlich für die Arbeitsplatzüberwachung und Lecksuche verwendet, da sie empfindlich und spezifisch für eine Vielzahl von Verbindungen sind.
Für einige gängige Gase (Chlor, Cyanwasserstoff, Schwefelwasserstoff, Hydrazin, Sauerstoff, Phosgen, Schwefeldioxid, Stickstoffdioxid und Kohlenmonoxid) sind kleine, direkt ablesbare Personenmonitore erhältlich. Sie akkumulieren Konzentrationsmessungen im Laufe des Tages und können eine direkte Anzeige der zeitgewichteten durchschnittlichen Konzentration sowie ein detailliertes Schadstoffprofil für den Tag liefern.
Kolorimetrische Röhrchen (Prüfröhrchen) sind einfach zu handhaben, günstig und für eine Vielzahl von Chemikalien erhältlich. Sie können verwendet werden, um Klassen von Luftverunreinigungen schnell zu identifizieren und ungefähre Konzentrationsschätzungen bereitzustellen, die bei der Bestimmung von Pumpendurchflussraten und -volumina verwendet werden können. Kolorimetrische Röhrchen sind Glasröhrchen, die mit festem körnigem Material gefüllt sind, das mit einem chemischen Mittel imprägniert wurde, das mit einer Verunreinigung reagieren und eine Farbänderung hervorrufen kann. Nachdem die beiden verschlossenen Enden eines Schlauchs aufgebrochen sind, wird ein Ende des Schlauchs in eine Handpumpe gegeben. Das empfohlene Volumen an kontaminierter Luft wird durch das Rohr entnommen, indem eine bestimmte Anzahl von Pumpenhüben für eine bestimmte Chemikalie verwendet wird. Auf dem Röhrchen wird normalerweise innerhalb von zwei Minuten eine Farbänderung oder ein Fleck erzeugt, und die Länge des Flecks ist proportional zur Konzentration. Einige kolorimetrische Röhrchen wurden für eine Langzeitprobenahme angepasst und werden mit batteriebetriebenen Pumpen verwendet, die mindestens acht Stunden lang laufen können. Die erzeugte Farbänderung repräsentiert eine zeitgewichtete durchschnittliche Konzentration. Kolorimetrische Röhrchen eignen sich sowohl für qualitative als auch für quantitative Analysen; ihre Spezifität und Genauigkeit ist jedoch begrenzt. Die Genauigkeit kolorimetrischer Röhrchen ist nicht so hoch wie die von Labormethoden oder vielen anderen Echtzeitinstrumenten. Es gibt Hunderte von Röhrchen, von denen viele Querempfindlichkeiten aufweisen und mehr als eine Chemikalie erkennen können. Dies kann zu Störungen führen, die die gemessenen Konzentrationen verändern.
Direkt anzeigende Aerosolmonitore können nicht zwischen Kontaminanten unterscheiden, werden normalerweise zum Zählen oder Bestimmen von Partikeln verwendet und werden hauptsächlich zum Screening verwendet, nicht zum Bestimmen von TWA oder akuten Expositionen. Echtzeit-Instrumente verwenden optische oder elektrische Eigenschaften, um die gesamte und lungengängige Masse, die Partikelanzahl und die Partikelgröße zu bestimmen. Lichtstreuende Aerosolmonitore oder Aerosolphotometer erfassen das Licht, das von Partikeln gestreut wird, wenn sie ein Volumen in der Ausrüstung passieren. Mit zunehmender Teilchenzahl nimmt die Streulichtmenge zu und ist proportional zur Masse. Lichtstreuende Aerosolmonitore können nicht verwendet werden, um zwischen Partikeltypen zu unterscheiden; Wenn sie jedoch an einem Arbeitsplatz verwendet werden, an dem eine begrenzte Anzahl von Stäuben vorhanden ist, kann die Masse einem bestimmten Material zugeordnet werden. Faserförmige Aerosolmonitore werden verwendet, um die Luftkonzentration von Partikeln wie Asbest zu messen. Fasern werden in einem oszillierenden elektrischen Feld ausgerichtet und mit einem Helium-Neon-Laser beleuchtet; die resultierenden Lichtimpulse werden von einem Photomultiplier detektiert. Lichtabschwächungsphotometer messen die Auslöschung von Licht durch Partikel; das Verhältnis von einfallendem Licht zu gemessenem Licht ist proportional zur Konzentration.
Analytische Techniken
Es gibt viele verfügbare Methoden zur Analyse von Laborproben auf Schadstoffe. Zu den häufiger verwendeten Techniken zur Quantifizierung von Gasen und Dämpfen in der Luft gehören Gaschromatographie, Massenspektrometrie, Atomabsorption, Infrarot- und UV-Spektroskopie und Polarographie.
Die Gaschromatographie ist eine Technik, die zum Trennen und Konzentrieren von Chemikalien in Mischungen für die anschließende quantitative Analyse verwendet wird. Das System besteht aus drei Hauptkomponenten: dem Probeninjektionssystem, einer Säule und einem Detektor. Eine flüssige oder gasförmige Probe wird mit einer Spritze in einen Luftstrom injiziert, der die Probe durch eine Säule trägt, wo die Komponenten getrennt werden. Die Säule ist mit Materialien gefüllt, die mit verschiedenen Chemikalien unterschiedlich interagieren und die Bewegung der Chemikalien verlangsamen. Die unterschiedliche Wechselwirkung bewirkt, dass jede Chemikalie mit unterschiedlicher Geschwindigkeit durch die Säule wandert. Nach der Trennung gelangen die Chemikalien direkt in einen Detektor, beispielsweise einen Flammenionisationsdetektor (FID), einen Photoionisationsdetektor (PID) oder einen Elektroneneinfangdetektor (ECD); ein konzentrationsproportionales Signal wird auf einem Schreiber registriert. Der FID wird für fast alle organischen Stoffe verwendet, einschließlich: Aromaten, geradkettige Kohlenwasserstoffe, Ketone und einige chlorierte Kohlenwasserstoffe. Die Konzentration wird durch die Zunahme der Anzahl von Ionen gemessen, die erzeugt werden, wenn ein flüchtiger Kohlenwasserstoff durch eine Wasserstoffflamme verbrannt wird. Die PID wird für organische und einige anorganische Stoffe verwendet; Es ist besonders nützlich für aromatische Verbindungen wie Benzol und kann aliphatische, aromatische und halogenierte Kohlenwasserstoffe erkennen. Die Konzentration wird durch die Zunahme der Anzahl der erzeugten Ionen gemessen, wenn die Probe mit ultravioletter Strahlung beschossen wird. Der ECD wird hauptsächlich für halogenhaltige Chemikalien verwendet; Es gibt eine minimale Reaktion auf Kohlenwasserstoffe, Alkohole und Ketone. Die Konzentration wird durch den Stromfluss zwischen zwei Elektroden gemessen, der durch die Ionisierung des Gases durch Radioaktivität verursacht wird.
Das Massenspektrophotometer wird verwendet, um komplexe Mischungen von Chemikalien zu analysieren, die in Spurenmengen vorhanden sind. Es wird oft mit einem Gaschromatographen zur Trennung und Quantifizierung verschiedener Verunreinigungen gekoppelt.
Die Atomabsorptionsspektroskopie wird hauptsächlich zur Quantifizierung von Metallen wie Quecksilber verwendet. Atomabsorption ist die Absorption von Licht einer bestimmten Wellenlänge durch ein freies Atom im Grundzustand; Die absorbierte Lichtmenge hängt von der Konzentration ab. Die Technik ist hochspezifisch, empfindlich und schnell und kann direkt auf ungefähr 68 Elemente angewendet werden. Die Nachweisgrenzen liegen im Sub-ppb- bis niedrigen ppm-Bereich.
Die Infrarotanalyse ist eine leistungsstarke, empfindliche, spezifische und vielseitige Technik. Es nutzt die Absorption von Infrarotenergie, um viele anorganische und organische Chemikalien zu messen; Die absorbierte Lichtmenge ist proportional zur Konzentration. Das Absorptionsspektrum einer Verbindung liefert Informationen, die ihre Identifizierung und Quantifizierung ermöglichen.
Die UV-Absorptionsspektroskopie wird zur Analyse von aromatischen Kohlenwasserstoffen eingesetzt, wenn bekannt ist, dass die Interferenzen gering sind. Die Absorptionsmenge von UV-Licht ist direkt proportional zur Konzentration.
Polarographische Verfahren basieren auf der Elektrolyse einer Probenlösung unter Verwendung einer leicht polarisierbaren Elektrode und einer nicht polarisierbaren Elektrode. Sie dienen zur qualitativen und quantitativen Analyse von Aldehyden, chlorierten Kohlenwasserstoffen und Metallen.
Neurotoxizität und Reproduktionstoxizität sind wichtige Bereiche für die Risikobewertung, da das Nerven- und Fortpflanzungssystem sehr empfindlich auf xenobiotische Wirkungen reagiert. Viele Wirkstoffe wurden als toxisch für diese Systeme beim Menschen identifiziert (Barlow und Sullivan 1982; OTA 1990). Viele Pestizide wurden bewusst entwickelt, um die Reproduktion und neurologische Funktion in Zielorganismen wie Insekten durch Eingriffe in die hormonelle Biochemie und Neurotransmission zu stören.
Es ist aus drei miteinander verbundenen Gründen schwierig, Substanzen zu identifizieren, die für diese Systeme potenziell toxisch sind: Erstens gehören diese zu den komplexesten biologischen Systemen des Menschen, und Tiermodelle der Fortpflanzungs- und neurologischen Funktion gelten allgemein als unzureichend, um so kritische Ereignisse wie Kognition darzustellen oder frühe embryofetale Entwicklung; zweitens gibt es keine einfachen Tests zur Identifizierung potentieller reproduktions- oder neurologischer Giftstoffe; und drittens enthalten diese Systeme mehrere Zelltypen und Organe, so dass kein einziger Satz von Toxizitätsmechanismen verwendet werden kann, um Dosis-Wirkungs-Beziehungen abzuleiten oder Struktur-Wirkungs-Beziehungen (SAR) vorherzusagen. Darüber hinaus ist bekannt, dass die Empfindlichkeit sowohl des Nerven- als auch des Fortpflanzungssystems mit dem Alter variiert und dass Expositionen zu kritischen Zeiten viel schwerwiegendere Auswirkungen haben können als zu anderen Zeiten.
Neurotoxizitäts-Risikobewertung
Neurotoxizität ist ein wichtiges Problem der öffentlichen Gesundheit. Wie in Tabelle 1 gezeigt, gab es mehrere Episoden von menschlicher Neurotoxizität, an denen Tausende von Arbeitern und anderen Bevölkerungsgruppen beteiligt waren, die durch industrielle Freisetzungen, kontaminierte Lebensmittel, kontaminiertes Wasser und andere Vektoren exponiert waren. Berufsbedingte Expositionen gegenüber Neurotoxinen wie Blei, Quecksilber, Organophosphat-Insektiziden und chlorierten Lösungsmitteln sind weltweit weit verbreitet (OTA 1990; Johnson 1978).
Tabelle 1. Ausgewählte größere Neurotoxizitätsvorfälle
Jahre) | Ort | Substanz | Ihre Nachricht |
400 BC | Rom | Führen (Lead) | Hippokrates erkennt die Toxizität von Blei in der Bergbauindustrie an. |
1930er-Jahre | Vereinigte Staaten (Südosten) | Inhaltsverzeichnis | Verbindung, die Schmierölen oft zugesetzt wird, kontaminiert „Ginger Jake“, ein alkoholisches Getränk; mehr als 5,000 Gelähmte, 20,000 bis 100,000 Betroffene. |
1930er-Jahre | Europa | Apiol (mit TOCP) | Abtreibungsverursachendes Medikament, das TOCP enthält, verursacht 60 Fälle von Neuropathie. |
1932 | Vereinigte Staaten (Kalifornien) | Thallium | Mit Thalliumsulfat versetzte Gerste, die als Rodentizid verwendet wird, wird gestohlen und zur Herstellung von Tortillas verwendet; 13 Familienmitglieder mit neurologischen Symptomen ins Krankenhaus eingeliefert; 6 Todesfälle. |
1937 | Südafrika | Inhaltsverzeichnis | 60 Südafrikaner entwickeln Lähmungen, nachdem sie kontaminiertes Speiseöl verwendet haben. |
1946 | - | Tetraethyl Blei | Mehr als 25 Personen leiden nach der Reinigung von Benzintanks unter neurologischen Auswirkungen. |
1950er-Jahre | Japan (Miniaturen) | Merkur | Hunderte nehmen mit Quecksilber kontaminierte Fische und Schalentiere aus Chemiefabriken zu sich; 121 Vergiftete, 46 Tote, viele Säuglinge mit schweren Nervenschäden. |
1950er-Jahre | Frankreich | Organozinn | Die Kontamination von Stallinon mit Triethylzinn führt zu mehr als 100 Todesfällen. |
1950er-Jahre | Marokko | Mangan | 150 Erzbergleute leiden unter einer chronischen Manganvergiftung mit schweren neurologischen Verhaltensproblemen. |
1950s-1970s | USA | AETT | Als neurotoxisch befundener Bestandteil von Duftstoffen; 1978 vom Markt genommen; Auswirkungen auf die menschliche Gesundheit unbekannt. |
1956 | - | Endrin | 49 Personen erkranken nach dem Verzehr von Backwaren, die aus mit dem Insektizid Endrin verseuchtem Mehl hergestellt wurden; Krämpfe führen in einigen Fällen. |
1956 | Türkei | HCB | Hexachlorbenzol, ein Saatkornfungizid, führt zu Vergiftungen von 3,000 bis 4,000; 10 Prozent Sterblichkeitsrate. |
1956-1977 | Japan | Clioquinol | Medikament zur Behandlung von Reisedurchfall, das Neuropathie verursacht; so viele wie 10,000 betroffen über zwei Jahrzehnte. |
1959 | Marokko | Inhaltsverzeichnis | Mit Schmieröl kontaminiertes Speiseöl betrifft etwa 10,000 Personen. |
1960 | Irak | Merkur | Quecksilber, das als Fungizid zur Behandlung von Saatgetreide verwendet wird, das in Brot verwendet wird; mehr als 1,000 Menschen betroffen. |
1964 | Japan | Merkur | Methylquecksilber betrifft 646 Personen. |
1968 | Japan | Leiterplatten | Polychlorierte Biphenyle gelangten in Reisöl; 1,665 Menschen betroffen. |
1969 | Japan | n-Hexan | 93 Fälle von Neuropathie treten nach Kontakt mit n-Hexan auf, das zur Herstellung von Vinylsandalen verwendet wird. |
1971 | USA | Hexachlorophen | Nachdem Säuglinge jahrelang in 3-prozentigem Hexachlorophen gebadet wurden, wurde festgestellt, dass das Desinfektionsmittel für das Nervensystem und andere Systeme toxisch ist. |
1971 | Irak | Merkur | Quecksilber, das als Fungizid zur Behandlung von Saatgetreide verwendet wird, wird in Brot verwendet; mehr als 5,000 schwere Vergiftungen, 450 Krankenhaustote, Auswirkungen auf viele pränatal exponierte Säuglinge nicht dokumentiert. |
1973 | Vereinigte Staaten (Ohio) | MIBK | Mitarbeiter einer Stoffproduktionsanlage, die Lösungsmitteln ausgesetzt waren; Mehr als 80 Arbeiter leiden unter Neuropathie, 180 haben weniger schwere Folgen. |
1974-1975 | Vereinigte Staaten (Hopewell, Virginia) | Chlordecon (Kepon) | Mitarbeiter einer Chemiefabrik, die Insektiziden ausgesetzt waren; mehr als 20 leiden an schweren neurologischen Problemen, mehr als 40 haben weniger schwere Probleme. |
1976 | Vereinigte Staaten (Texas) | Leptophos (Phosvel) | Mindestens 9 Mitarbeiter leiden unter schweren neurologischen Problemen, nachdem sie während des Herstellungsprozesses Insektiziden ausgesetzt waren. |
1977 | Vereinigte Staaten (Kalifornien) | Dichlorpropen (Telone II) | 24 Personen ins Krankenhaus eingeliefert, nachdem sie nach einem Verkehrsunfall dem Pestizid Telone ausgesetzt waren. |
1979-1980 | Vereinigte Staaten (Lancaster, TX) | BHMH (Lucel-7) | Sieben Mitarbeiter einer Produktionsstätte für Kunststoffbadewannen leiden unter ernsthaften neurologischen Problemen, nachdem sie BHMH ausgesetzt waren. |
1980er-Jahre | USA | MPTP | Es wurde festgestellt, dass eine Verunreinigung in der Synthese einer illegalen Droge Symptome verursacht, die mit denen der Parkinson-Krankheit identisch sind. |
1981 | Spanien | Kontaminiertes giftiges Öl | 20,000 Personen wurden durch giftige Substanzen in Öl vergiftet, was zu mehr als 500 Todesfällen führte; Viele leiden unter schwerer Neuropathie. |
1985 | Vereinigte Staaten und Kanada | Aldicarb | Mehr als 1,000 Personen in Kalifornien und anderen westlichen Bundesstaaten und British Columbia leiden unter neuromuskulären und kardialen Problemen nach der Einnahme von Melonen, die mit dem Pestizid Aldicarb kontaminiert sind. |
1987 | Kanada | Domonsäure | Der Verzehr von mit Domoinsäure kontaminierten Muscheln verursacht 129 Erkrankungen und 2 Todesfälle; Zu den Symptomen gehören Gedächtnisverlust, Orientierungslosigkeit und Krampfanfälle. |
Quelle: OTA 1990.
Chemikalien können das Nervensystem durch Wirkungen auf mehrere zelluläre Ziele oder biochemische Prozesse innerhalb des zentralen oder peripheren Nervensystems beeinflussen. Toxische Wirkungen auf andere Organe können auch das Nervensystem betreffen, wie im Beispiel der hepatischen Enzephalopathie. Zu den Manifestationen der Neurotoxizität gehören Auswirkungen auf das Lernen (einschließlich Gedächtnis, Kognition und intellektuelle Leistung), somatosensorische Prozesse (einschließlich Empfindung und Propriozeption), Motorik (einschließlich Gleichgewicht, Gang und Feinbewegungskontrolle), Affekt (einschließlich Persönlichkeitsstatus und Emotionalität) und Autonomie Funktion (nervöse Kontrolle der endokrinen Funktion und der inneren Organsysteme). Die toxischen Wirkungen von Chemikalien auf das Nervensystem variieren oft in Empfindlichkeit und Ausprägung mit dem Alter: Während der Entwicklung kann das Zentralnervensystem aufgrund des ausgedehnten Prozesses der Zelldifferenzierung, Migration und des Zell-zu-Zell-Kontakts besonders anfällig für toxische Belastungen sein die beim Menschen stattfindet (OTA 1990). Darüber hinaus kann eine zytotoxische Schädigung des Nervensystems irreversibel sein, da Neuronen nach der Embryogenese nicht ersetzt werden. Während das Zentralnervensystem (ZNS) durch ein System eng miteinander verbundener Zellen (die Blut-Hirn-Schranke, bestehend aus kapillaren Endothelzellen, die das Gefäßsystem des Gehirns auskleiden) vor Kontakt mit absorbierten Verbindungen geschützt ist, können toxische Chemikalien Zugang zu ihnen erhalten das ZNS durch drei Mechanismen: Lösungsmittel und lipophile Verbindungen können Zellmembranen passieren; einige Verbindungen können an endogene Transportproteine binden, die dazu dienen, das ZNS mit Nährstoffen und Biomolekülen zu versorgen; Kleine Proteine können beim Einatmen direkt vom Geruchsnerv aufgenommen und zum Gehirn transportiert werden.
US-Regulierungsbehörden
Die gesetzliche Autorität für die Regulierung von Substanzen für Neurotoxizität ist in den Vereinigten Staaten vier Behörden zugeordnet: der Food and Drug Administration (FDA), der Environmental Protection Agency (EPA), der Occupational Safety and Health Administration (OSHA) und der Consumer Product Safety Commission (CPSC). Während die OSHA im Allgemeinen die berufliche Exposition gegenüber neurotoxischen (und anderen) Chemikalien reguliert, ist die EPA befugt, die berufliche und nichtberufliche Exposition gegenüber Pestiziden gemäß dem Bundesgesetz über Insektizide, Fungizide und Rodentizide (FIFRA) zu regulieren. Die EPA regelt auch neue Chemikalien vor der Herstellung und Vermarktung, wodurch die Behörde verpflichtet ist, sowohl berufliche als auch nichtberufliche Risiken zu berücksichtigen.
Gefahrenerkennung
Stoffe, die die Physiologie, Biochemie oder strukturelle Integrität des Nervensystems oder die durch das Verhalten ausgedrückte Funktion des Nervensystems beeinträchtigen, werden als neurotoxische Gefahren definiert (EPA 1993). Die Bestimmung der inhärenten Neurotoxizität ist aufgrund der Komplexität des Nervensystems und der vielfältigen Ausdrucksformen der Neurotoxizität ein schwieriger Prozess. Einige Wirkungen können verzögert auftreten, wie z. B. die verzögerte Neurotoxizität bestimmter Organophosphat-Insektizide. Bei der Bestimmung der neurotoxischen Gefahren sind Vorsicht und Urteilsvermögen erforderlich, einschließlich der Berücksichtigung der Expositionsbedingungen, der Dosis, der Dauer und des Zeitpunkts.
Die Gefahrenidentifizierung basiert normalerweise auf toxikologischen Studien an intakten Organismen, in denen Verhaltens-, kognitive, motorische und somatosensorische Funktionen mit einer Reihe von Untersuchungsinstrumenten einschließlich Biochemie, Elektrophysiologie und Morphologie bewertet werden (Tilson und Cabe 1978; Spencer und Schaumberg 1980). Die Bedeutung einer sorgfältigen Beobachtung des Verhaltens des gesamten Organismus kann nicht genug betont werden. Die Gefahrenidentifizierung erfordert auch eine Bewertung der Toxizität in verschiedenen Entwicklungsstadien, einschließlich des frühen Lebens (intrauterin und früh neonatal) und der Seneszenz. Beim Menschen umfasst die Identifizierung von Neurotoxizität eine klinische Bewertung mit Methoden der neurologischen Beurteilung der Motorik, Sprachflüssigkeit, Reflexe, Sensorik, Elektrophysiologie, neuropsychologischer Tests und in einigen Fällen fortschrittlicher Techniken der Bildgebung des Gehirns und der quantitativen Elektroenzephalographie. Die WHO hat eine neurobehaviorale Kerntestbatterie (NCTB) entwickelt und validiert, die Sonden zu Motorik, Hand-Auge-Koordination, Reaktionszeit, unmittelbarem Gedächtnis, Aufmerksamkeit und Stimmung enthält. Diese Batterie wurde durch einen koordinierten Prozess international validiert (Johnson 1978).
Die Gefahrenidentifizierung mit Tieren hängt auch von sorgfältigen Beobachtungsmethoden ab. Die US EPA hat eine funktionale Beobachtungsbatterie als First-Tier-Test entwickelt, der darauf ausgelegt ist, größere offensichtliche neurotoxische Wirkungen zu erkennen und zu quantifizieren (Moser 1990). Dieser Ansatz ist auch in den OECD-Testmethoden für subchronische und chronische Toxizität enthalten. Eine typische Batterie umfasst die folgenden Maßnahmen: Körperhaltung; Gangart; Mobilität; allgemeine Erregung und Reaktivität; Vorhandensein oder Fehlen von Zittern, Krämpfen, Tränenfluss, Piloerektion, Speichelfluss, übermäßiges Wasserlassen oder Stuhlgang, Stereotypie, Kreisen oder andere bizarre Verhaltensweisen. Zu den ausgelösten Verhaltensweisen gehören Reaktionen auf Handhabung, Schwanzkneifen oder Klicks; Gleichgewicht, Stellreflex und Griffstärke der Hinterbeine. Einige repräsentative Tests und Mittel, die mit diesen Tests identifiziert wurden, sind in Tabelle 2 aufgeführt.
Tabelle 2. Beispiele für spezialisierte Tests zur Messung der Neurotoxizität
Funktion | Verfahren | Repräsentative Agenten |
Neuromuskulär | ||
Schwäche | Griffstärke; Schwimmausdauer; Aufhängung an Stange; Unterscheidungsmotorik; Spreizung der Hinterbeine | n-Hexan, Methylbutylketon, Carbaryl |
In Abstimmung | Rotorod, Gangmessungen | 3-Acetylpyridin, Ethanol |
Tremor | Bewertungsskala, Spektralanalyse | Chlordecon, Pyrethroide vom Typ I, DDT |
Myoklonien, Krämpfe | Bewertungsskala, Spektralanalyse | DDT, Pyrethroide vom Typ II |
sensorisch | ||
Hör- | Diskriminante Konditionierung, Reflexmodifikation | Toluol, Trimethylzinn |
Visuelle Toxizität | Diskriminante Konditionierung | Methylquecksilber |
Somatosensorische Toxizität | Diskriminante Konditionierung | Acrylamid |
Schmerzempfindlichkeit | Diskriminante Konditionierung (Btration); funktionale Beobachtungsbatterie | Parathion |
Olfaktorische Toxizität | Diskriminante Konditionierung | 3-Methylindolmethylbromid |
Lernen, Gedächtnis | ||
Gewöhnung | Schreckreflex | Diisopropylfluorphosphat (DFP) |
Klassische Konditionierung | Nickhaut, konditionierte Geschmacksaversion, passive Vermeidung, olfaktorische Konditionierung | Aluminium, Carbaryl, Trimethylzinn, IDPN, Trimethylzinn (Neugeborene) |
Operante oder instrumentelle Konditionierung | Einweg-Vermeidung, Zwei-Wege-Vermeidung, Y-Labyrinth-Vermeidung, Biol-Wasserlabyrinth, Morris-Wasserlabyrinth, Radialarm-Labyrinth, verzögerter Abgleich mit Probe, wiederholte Erfassung, visuelles Unterscheidungslernen | Chlordecon, Blei (Neugeborene), Hypervitaminose A, Styrol, DFP, Trimethylzinn, DFP. Carbaryl, Blei |
Quelle: EPA 1993.
Auf diese Tests können komplexere Bewertungen folgen, die normalerweise eher mechanistischen Studien als der Identifizierung von Gefahren vorbehalten sind. In-vitro-Methoden zur Identifizierung von Neurotoxizitätsgefahren sind begrenzt, da sie keine Hinweise auf Auswirkungen auf komplexe Funktionen, wie z WHO 1986 und EPA 1993 für umfassende Diskussionen über Prinzipien und Methoden zur Identifizierung potenzieller Neurotoxine).
Dosis-Wirkungs-Beurteilung
Die Beziehung zwischen Toxizität und Dosis kann auf Humandaten, sofern verfügbar, oder auf Tierversuchen, wie oben beschrieben, basieren. In den Vereinigten Staaten wird für Neurotoxine im Allgemeinen ein Unsicherheits- oder Sicherheitsfaktoransatz verwendet. Dieser Prozess umfasst die Bestimmung eines „No Observed Adverse Effect Level“ (NOAEL) oder „Lowest Observed Adverse Effect Level“ (LOAEL) und die anschließende Division dieser Zahl durch Unsicherheits- oder Sicherheitsfaktoren (normalerweise ein Vielfaches von 10), um Überlegungen wie Unvollständigkeit zu berücksichtigen Daten, potenziell höhere Empfindlichkeit des Menschen und Variabilität der menschlichen Reaktion aufgrund des Alters oder anderer Wirtsfaktoren. Die resultierende Zahl wird als Referenzdosis (RfD) oder Referenzkonzentration (RfC) bezeichnet. Zur Bestimmung des LOAEL bzw. NOAEL wird im Allgemeinen die Wirkung herangezogen, die bei der niedrigsten Dosis bei der empfindlichsten Tierart und dem Geschlecht auftritt. Die Umrechnung der Tierdosis in die Exposition beim Menschen erfolgt mit Standardmethoden der speziesübergreifenden Dosimetrie unter Berücksichtigung von Unterschieden in der Lebensdauer und Expositionsdauer.
Bei der Verwendung des Unsicherheitsfaktoransatzes wird davon ausgegangen, dass es einen Schwellenwert oder eine Dosis gibt, unterhalb derer keine nachteilige Wirkung hervorgerufen wird. Schwellenwerte für spezifische Neurotoxine können experimentell schwer zu bestimmen sein; sie beruhen auf Annahmen über Wirkungsmechanismen, die für alle Neurotoxine gelten können oder nicht (Silbergeld 1990).
Expositionsabschätzung
In dieser Phase werden Informationen über Quellen, Wege, Dosen und Dauer der Exposition gegenüber dem Neurotoxin für menschliche Populationen, Subpopulationen oder sogar Einzelpersonen ausgewertet. Diese Informationen können aus der Überwachung von Umweltmedien oder menschlichen Probenahmen oder aus Schätzungen auf der Grundlage von Standardszenarien (wie Arbeitsplatzbedingungen und Stellenbeschreibungen) oder Modellen des Verbleibs und der Ausbreitung in der Umwelt stammen (siehe EPA 1992 für allgemeine Richtlinien zu Expositionsbewertungsmethoden). In einigen begrenzten Fällen können biologische Marker verwendet werden, um Expositionsrückschlüsse und -schätzungen zu validieren; Allerdings gibt es relativ wenige brauchbare Biomarker für Neurotoxine.
Risikocharakterisierung
Die Kombination aus Gefahrenidentifikation, Dosis-Wirkungs- und Expositionsbeurteilung wird verwendet, um die Risikobeschreibung zu entwickeln. Dieser Prozess beinhaltet Annahmen zur Extrapolation von hohen auf niedrige Dosen, die Extrapolation von Tieren auf den Menschen und die Angemessenheit von Schwellenwertannahmen und die Verwendung von Unsicherheitsfaktoren.
Reproduktionstoxikologie – Methoden zur Risikobewertung
Gefahren für die Fortpflanzung können mehrere funktionelle Endpunkte und zelluläre Ziele beim Menschen betreffen, mit Folgen für die Gesundheit des betroffenen Individuums und zukünftiger Generationen. Gefahren für die Fortpflanzung können die Entwicklung des Fortpflanzungssystems bei Männern oder Frauen, das Fortpflanzungsverhalten, die Hormonfunktion, den Hypothalamus und die Hypophyse, die Keimdrüsen und Keimzellen, die Fruchtbarkeit, die Schwangerschaft und die Dauer der Fortpflanzungsfähigkeit beeinträchtigen (OTA 1985). Darüber hinaus können mutagene Chemikalien auch die Fortpflanzungsfunktion beeinträchtigen, indem sie die Integrität der Keimzellen schädigen (Dixon 1985).
Die Art und das Ausmaß der nachteiligen Auswirkungen chemischer Expositionen auf die Fortpflanzungsfunktion in menschlichen Populationen sind weitgehend unbekannt. Zu Endpunkten wie Fertilität von Männern oder Frauen, Alter der Menopause bei Frauen oder Spermienzahl bei Männern sind relativ wenige Überwachungsinformationen verfügbar. Allerdings sind sowohl Männer als auch Frauen in Branchen beschäftigt, in denen Gefährdungen der Fortpflanzungsfähigkeit auftreten können (OTA 1985).
Dieser Abschnitt rekapituliert nicht die Elemente, die der Risikobewertung von neurotoxischen und reproduktionstoxischen Stoffen gemeinsam sind, sondern konzentriert sich auf Fragen, die für die Risikobewertung von reproduktionstoxischen Stoffen spezifisch sind. Wie bei Neurotoxinen ist die Autorität zur Regulierung von Chemikalien für die Reproduktionstoxizität gesetzlich bei der EPA, OSHA, der FDA und dem CPSC verankert. Von diesen Behörden verfügt nur die EPA über einen festgelegten Satz von Richtlinien für die Risikobewertung der Reproduktionstoxizität. Darüber hinaus hat der Bundesstaat Kalifornien als Reaktion auf ein staatliches Gesetz, Proposition 65 (Pease et al. 1991), Methoden zur Risikobewertung der Reproduktionstoxizität entwickelt.
Reproduktionstoxische Substanzen können wie Neurotoxine wirken, indem sie eine Reihe von Zielorganen oder molekularen Wirkorten angreifen. Ihre Bewertung ist zusätzlich kompliziert, da drei unterschiedliche Organismen einzeln und zusammen bewertet werden müssen – das Männchen, das Weibchen und die Nachkommen (Mattison und Thomford 1989). Während ein wichtiger Endpunkt der Fortpflanzungsfunktion die Erzeugung eines gesunden Kindes ist, spielt die Fortpflanzungsbiologie auch eine Rolle bei der Gesundheit von sich entwickelnden und reifen Organismen, unabhängig von ihrer Beteiligung an der Fortpflanzung. Beispielsweise hat der Verlust der ovulatorischen Funktion durch natürliche Erschöpfung oder chirurgische Entfernung von Eizellen erhebliche Auswirkungen auf die Gesundheit von Frauen, was Veränderungen des Blutdrucks, des Fettstoffwechsels und der Knochenphysiologie mit sich bringt. Veränderungen in der Hormonbiochemie können die Anfälligkeit für Krebs beeinflussen.
Gefahrenerkennung
Die Identifizierung einer reproduktionsgefährdenden Gefährdung kann auf der Grundlage von Human- oder Tierdaten erfolgen. Im Allgemeinen sind Daten von Menschen relativ spärlich, da eine sorgfältige Überwachung erforderlich ist, um Veränderungen der Fortpflanzungsfunktion, wie Spermienzahl oder -qualität, Ovulationsfrequenz und Zykluslänge oder Alter in der Pubertät, zu erkennen. Das Erkennen von Gefahren für die Fortpflanzung durch das Sammeln von Informationen über Fruchtbarkeitsraten oder Daten zum Schwangerschaftsausgang kann durch die absichtliche Unterdrückung der Fruchtbarkeit, die von vielen Paaren durch Maßnahmen der Familienplanung ausgeübt wird, verfälscht werden. Eine sorgfältige Überwachung ausgewählter Populationen weist darauf hin, dass die Raten des Reproduktionsversagens (Fehlgeburt) sehr hoch sein können, wenn Biomarker der Frühschwangerschaft bewertet werden (Sweeney et al. 1988).
Testprotokolle mit Versuchstieren werden häufig verwendet, um reproduktionstoxische Stoffe zu identifizieren. Bei den meisten dieser Designs, wie sie in den Vereinigten Staaten von der FDA und der EPA und international vom OECD-Testrichtlinienprogramm entwickelt wurden, werden die Wirkungen verdächtiger Wirkstoffe im Hinblick auf die Fruchtbarkeit nach männlicher und/oder weiblicher Exposition nachgewiesen; Beobachtung sexueller Verhaltensweisen im Zusammenhang mit der Paarung; und histopathologische Untersuchung von Keimdrüsen und akzessorischen Geschlechtsdrüsen, wie Brustdrüsen (EPA 1994). Häufig beinhalten Studien zur Reproduktionstoxizität die kontinuierliche Verabreichung von Tieren über eine oder mehrere Generationen, um Auswirkungen auf den integrierten Fortpflanzungsprozess zu erkennen und Auswirkungen auf bestimmte Fortpflanzungsorgane zu untersuchen. Studien über mehrere Generationen werden empfohlen, da sie den Nachweis von Wirkungen ermöglichen, die durch die Exposition während der Entwicklung des Fortpflanzungssystems in utero induziert werden können. Ein spezielles Testprotokoll, das Reproductive Assessment by Continuous Breeding (RACB), wurde in den Vereinigten Staaten vom National Toxicology Program entwickelt. Dieser Test liefert Daten zu Veränderungen des zeitlichen Abstands von Schwangerschaften (spiegelt die Ovulationsfunktion wider) sowie zu Anzahl und Größe der Würfe über den gesamten Testzeitraum. Wenn es auf die Lebenszeit des Weibchens ausgedehnt wird, kann es Informationen über ein frühes Fortpflanzungsversagen liefern. Spermienmessungen können dem RACB hinzugefügt werden, um Veränderungen in der männlichen Fortpflanzungsfunktion zu erkennen. Ein spezieller Test zum Nachweis von Prä- oder Postimplantationsverlusten ist der Dominant-Letal-Test, der zum Nachweis mutagener Wirkungen in der männlichen Spermatogenese entwickelt wurde.
In-vitro-Tests wurden auch als Screens für Reproduktions- (und Entwicklungs-) Toxizität entwickelt (Heindel und Chapin 1993). Diese Tests werden im Allgemeinen verwendet, um In-vivo-Testergebnisse zu ergänzen, indem sie mehr Informationen über den Zielort und den Mechanismus der beobachteten Wirkungen liefern.
Tabelle 3 zeigt die drei Arten von Endpunkten bei der Bewertung der Reproduktionstoxizität – paarvermittelt, spezifisch für Frauen und spezifisch für Männer. Paarvermittelte Endpunkte umfassen solche, die in Studien mit mehreren Generationen und Einzelorganismen nachweisbar sind. Sie umfassen in der Regel auch die Beurteilung der Nachkommen. Es sollte beachtet werden, dass die Fertilitätsmessung bei Nagern im Allgemeinen im Vergleich zu einer solchen Messung beim Menschen unempfindlich ist und dass bei niedrigeren Dosen durchaus nachteilige Wirkungen auf die Fortpflanzungsfunktion auftreten können als bei solchen, die die Fertilität signifikant beeinträchtigen (EPA 1994). Männliche spezifische Endpunkte können dominante Letalitätstests sowie histopathologische Beurteilung von Organen und Spermien, Messung von Hormonen und Markern der sexuellen Entwicklung umfassen. Die Spermienfunktion kann auch durch In-vitro-Fertilisationsmethoden bewertet werden, um Keimzelleigenschaften der Penetration und Kapazitation zu erkennen; Diese Tests sind wertvoll, weil sie direkt mit in vitro-Beurteilungen vergleichbar sind, die in menschlichen Fertilitätskliniken durchgeführt werden, aber sie liefern an sich keine Dosis-Wirkungs-Informationen. Weibchenspezifische Endpunkte umfassen neben der Organhistopathologie und Hormonmessungen die Beurteilung der Folgen der Fortpflanzung, einschließlich Laktation und Nachwuchswachstum.
Tabelle 3. Endpunkte in der Reproduktionstoxikologie
Paarvermittelte Endpunkte | |
Mehrgenerationenstudien | Andere reproduktive Endpunkte |
Paarungsrate, Zeit bis zur Paarung (Zeit bis zur Trächtigkeit1) Schwangerschaftsrate1 Zustelltarif1 Tragzeit1 Wurfgröße (gesamt und lebend) Anzahl lebender und toter Nachkommen (fötale Sterblichkeitsrate1) Geschlecht der Nachkommen1 Geburtsgewicht1 Postnatale Gewichte1 Überleben der Nachkommen1 Äußere Fehlbildungen und Variationen1 Fortpflanzung der Nachkommen1 |
Ovulationsrate Befruchtungsrate Präimplantationsverlust Implantationsnummer Postimplantationsverlust1 Innere Missbildungen und Variationen1 Postnatale strukturelle und funktionelle Entwicklung1 |
Männliche spezifische Endpunkte | |
Organgewichte Visuelle Untersuchung und Histopathologie Spermienauswertung1 Hormonspiegel1 Entwicklungsfähig |
Hoden, Nebenhoden, Samenbläschen, Prostata, Hypophyse Hoden, Nebenhoden, Samenbläschen, Prostata, Hypophyse Anzahl (Anzahl) und Qualität (Morphologie, Beweglichkeit) der Spermien Luteinisierendes Hormon, follikelstimulierendes Hormon, Testosteron, Östrogen, Prolaktin Hodenabstieg1, Präputialtrennung, Spermienproduktion1, anogenitaler Abstand, Normalität der äußeren Genitalien1 |
Frauenspezifische Endpunkte | |
Körpergewicht Organgewichte Visuelle Untersuchung und Histopathologie Östrus (Menstruations-1) Zyklus Normalität Hormonspiegel1 Laktation1 Entwicklung Seneszenz (Wechseljahre1) |
Eierstock, Gebärmutter, Vagina, Hypophyse Eierstock, Gebärmutter, Vagina, Hypophyse, Eileiter, Milchdrüse Zytologie des Vaginalabstrichs LH, FSH, Östrogen, Progesteron, Prolaktin Nachwuchswachstum Normalität der äußeren Genitalien1, Vaginalöffnung, Vaginalabstrich, Zytologie, Einsetzen des Brunstverhaltens (Menstruation1) Vaginalabstrichzytologie, Ovarialhistologie |
1 Endpunkte, die relativ nichtinvasiv mit Menschen erhalten werden können.
Quelle: EPA 1994.
In den Vereinigten Staaten schließt die Gefahrenidentifikation mit einer qualitativen Bewertung von Toxizitätsdaten ab, anhand derer beurteilt wird, dass Chemikalien entweder einen ausreichenden oder einen unzureichenden Beweis für eine Gefahr haben (EPA 1994). „Ausreichende“ Beweise umfassen epidemiologische Daten, die überzeugende Beweise für einen kausalen Zusammenhang (oder dessen Fehlen) liefern, basierend auf Fall-Kontroll- oder Kohortenstudien oder gut unterstützten Fallserien. Ausreichende Tierdaten können mit begrenzten Humandaten gekoppelt werden, um die Feststellung einer Gefahr für die Fortpflanzung zu unterstützen: Um ausreichend zu sein, müssen die experimentellen Studien im Allgemeinen die Zwei-Generationen-Testrichtlinien der EPA anwenden und ein Minimum an Daten enthalten, die eine nachteilige Auswirkung auf die Fortpflanzung belegen in einer geeigneten, gut durchgeführten Studie an einer Testart. Begrenzte Humandaten können verfügbar sein oder nicht; es ist für die Zwecke der Gefahrenerkennung nicht erforderlich. Um eine potenzielle Gefahr für die Fortpflanzung auszuschließen, müssen die Tierdaten eine angemessene Reihe von Endpunkten aus mehr als einer Studie enthalten, die keine nachteilige Wirkung auf die Fortpflanzungsfähigkeit bei für das Tier minimal toxischen Dosen zeigten (EPA 1994).
Dosis-Wirkungs-Beurteilung
Wie bei der Bewertung von Neurotoxinen ist der Nachweis dosisabhängiger Wirkungen ein wichtiger Bestandteil der Risikobewertung für reproduktionstoxische Substanzen. Zwei besondere Schwierigkeiten bei Dosis-Wirkungs-Analysen ergeben sich aufgrund der komplizierten Toxikokinetik während der Schwangerschaft und der Wichtigkeit, zwischen spezifischer Reproduktionstoxizität und allgemeiner Toxizität für den Organismus zu unterscheiden. Bei geschwächten Tieren oder Tieren mit erheblicher unspezifischer Toxizität (z. B. Gewichtsverlust) kann der Eisprung oder die Paarung ausbleiben. Maternale Toxizität kann die Lebensfähigkeit der Schwangerschaft oder die Unterstützung der Laktation beeinträchtigen. Diese Wirkungen weisen zwar auf Toxizität hin, sind aber nicht reproduktionsspezifisch (Kimmel et al. 1986). Die Beurteilung der Dosiswirkung für einen bestimmten Endpunkt, wie z. B. Fertilität, muss im Zusammenhang mit einer Gesamtbeurteilung der Fortpflanzung und Entwicklung erfolgen. Dosis-Wirkungs-Beziehungen für verschiedene Wirkungen können sich erheblich unterscheiden, beeinträchtigen jedoch den Nachweis. Zum Beispiel können Mittel, die die Wurfgröße reduzieren, aufgrund der verringerten Konkurrenz um die intrauterine Ernährung keine Auswirkungen auf das Wurfgewicht haben.
Expositionsabschätzung
Ein wichtiger Bestandteil der Expositionsbeurteilung für die Bewertung des reproduktiven Risikos bezieht sich auf Informationen über den Zeitpunkt und die Dauer von Expositionen. Messungen der kumulativen Exposition können je nach betroffenem biologischen Prozess unzureichend genau sein. Es ist bekannt, dass Expositionen in unterschiedlichen Entwicklungsstadien bei Männchen und Weibchen sowohl bei Menschen als auch bei Versuchstieren zu unterschiedlichen Ergebnissen führen können (Gray et al. 1988). Die zeitliche Natur der Spermatogenese und des Eisprungs beeinflusst auch das Ergebnis. Die Auswirkungen auf die Spermatogenese können reversibel sein, wenn die Exposition beendet wird; die Oozytentoxizität ist jedoch nicht reversibel, da Frauen einen festen Satz von Keimzellen haben, auf die sie sich für die Ovulation stützen können (Mattison und Thomford 1989).
Risikocharakterisierung
Wie bei Neurotoxinen wird auch bei reproduktionstoxischen Stoffen in der Regel von der Existenz eines Schwellenwertes ausgegangen. Die Wirkungen mutagener Verbindungen auf Keimzellen können jedoch als Ausnahme von dieser allgemeinen Annahme angesehen werden. Für andere Endpunkte wird ein RfD oder RfC wie bei Neurotoxinen durch Bestimmung des NOAEL oder LOAEL und Anwendung geeigneter Unsicherheitsfaktoren berechnet. Der zur Bestimmung des NOAEL oder LOAEL verwendete Effekt ist der empfindlichste unerwünschte reproduktive Endpunkt der am besten geeigneten oder empfindlichsten Säugetierart (EPA 1994). Zu den Unsicherheitsfaktoren gehören die Berücksichtigung von Interspezies- und Intraspezies-Variationen, die Fähigkeit, einen echten NOAEL zu definieren, und die Sensitivität des erkannten Endpunkts.
Risikobeschreibungen sollten sich auch auf bestimmte Risikosubpopulationen konzentrieren, möglicherweise mit Angabe von Männern und Frauen, Schwangerschaftsstatus und Alter. Auch besonders empfindliche Personen wie z. B. stillende Frauen, Frauen mit reduzierter Eizellzahl oder Männer mit reduzierter Spermienzahl sowie vorpubertäre Jugendliche kommen in Frage.
Nachdem eine Gefahr erkannt und bewertet wurde, müssen die am besten geeigneten Interventionen (Methoden zur Beherrschung) für eine bestimmte Gefahr bestimmt werden. Kontrollmethoden fallen normalerweise in drei Kategorien:
Wie bei jeder Änderung von Arbeitsprozessen müssen Schulungen durchgeführt werden, um den Erfolg der Änderungen sicherzustellen.
Technische Kontrollen sind Änderungen am Prozess oder an der Ausrüstung, die die Exposition gegenüber einem Arbeitsstoff verringern oder eliminieren. Beispiele für technische Kontrollen sind beispielsweise der Ersatz einer weniger giftigen Chemikalie in einem Prozess oder die Installation einer Absaugung zur Entfernung von Dämpfen, die während eines Prozessschritts entstehen. Im Fall des Lärmschutzes sind die Installation von schallabsorbierenden Materialien, Gebäudehüllen und die Installation von Schalldämpfern an Luftauslässen Beispiele für technische Kontrollen. Eine andere Art der technischen Kontrolle könnte die Änderung des Prozesses selbst sein. Ein Beispiel für diese Art der Kontrolle wäre das Entfernen von einem oder mehreren Entfettungsschritten in einem Prozess, der ursprünglich drei Entfettungsschritte erforderte. Durch den Wegfall der Tätigkeit, die die Exposition verursacht hat, wurde die Gesamtexposition des Arbeitnehmers kontrolliert. Der Vorteil technischer Kontrollen ist die relativ geringe Beteiligung des Arbeiters, der seine Arbeit in einer kontrollierteren Umgebung erledigen kann, wenn beispielsweise Schadstoffe automatisch aus der Luft entfernt werden. Vergleichen Sie dies mit der Situation, in der die ausgewählte Kontrollmethode ein Atemschutzgerät ist, das vom Arbeiter getragen wird, während er die Aufgabe an einem „unkontrollierten“ Arbeitsplatz ausführt. Zusätzlich zur aktiven Installation technischer Steuerungen durch den Arbeitgeber an bestehenden Geräten können neue Geräte erworben werden, die die Steuerungen oder andere effektivere Steuerungen enthalten. Ein kombinierter Ansatz war oft effektiv (dh jetzt einige technische Kontrollen installieren und persönliche Schutzausrüstung fordern, bis neue Ausrüstung mit effektiveren Kontrollen eintrifft, die den Bedarf an persönlicher Schutzausrüstung eliminieren). Einige gängige Beispiele für technische Kontrollen sind:
Der Arbeitshygieniker muss für die Arbeitsaufgaben des Arbeiters sensibel sein und muss die Arbeiter zur Teilnahme anhalten, wenn er technische Kontrollen entwirft oder auswählt. Das Aufstellen von Barrieren am Arbeitsplatz könnte beispielsweise die Fähigkeit eines Arbeitnehmers, die Arbeit auszuführen, erheblich beeinträchtigen und „Workarounds“ fördern. Technische Kontrollen sind die wirksamsten Methoden zur Reduzierung von Expositionen. Sie sind auch oft die teuersten. Da technische Kontrollen effektiv und teuer sind, ist es wichtig, die Mitarbeiter bei der Auswahl und Gestaltung der Kontrollen maximal einzubeziehen. Dies sollte zu einer größeren Wahrscheinlichkeit führen, dass die Kontrollen die Exposition verringern.
Verwaltungskontrollen umfassen Änderungen in der Art und Weise, wie ein Arbeitnehmer die erforderlichen Arbeitsaufgaben erfüllt – zum Beispiel, wie lange er in einem Bereich arbeitet, in dem Expositionen auftreten, oder Änderungen in den Arbeitspraktiken, wie z. B. Verbesserungen der Körperpositionierung, um Expositionen zu reduzieren. Verwaltungskontrollen können die Wirksamkeit einer Intervention erhöhen, haben jedoch mehrere Nachteile:
Persönliche Schutzausrüstung besteht aus Geräten, die dem Arbeitnehmer zur Verfügung gestellt werden und bei der Ausführung bestimmter (oder aller) Arbeitsaufgaben getragen werden müssen. Beispiele hierfür sind Atemschutzmasken, Chemikalienschutzbrillen, Schutzhandschuhe und Gesichtsschutzschilde. Persönliche Schutzausrüstung wird üblicherweise in Fällen verwendet, in denen technische Kontrollen die Exposition nicht auf akzeptable Niveaus kontrollieren konnten oder wenn sich technische Kontrollen als nicht durchführbar erwiesen haben (aus Kosten- oder Betriebsgründen). Persönliche Schutzausrüstung kann Arbeitern erheblichen Schutz bieten, wenn sie korrekt getragen und verwendet wird. Im Falle des Atemschutzes können die Schutzfaktoren (Verhältnis der Konzentration außerhalb des Atemschutzgeräts zu der innerhalb des Atemschutzgeräts) 1,000 oder mehr für Atemschutzgeräte mit Überdruck und zehn für luftreinigende Halbgesichtsgeräte betragen. Handschuhe (bei entsprechender Auswahl) können die Hände stundenlang vor Lösungsmitteln schützen. Schutzbrillen können einen wirksamen Schutz vor Chemikalienspritzern bieten.
Intervention: Zu berücksichtigende Faktoren
Häufig wird eine Kombination von Kontrollen verwendet, um die Exposition auf ein akzeptables Niveau zu reduzieren. Welche Methoden auch immer gewählt werden, der Eingriff muss die Exposition und die daraus resultierende Gefährdung auf ein akzeptables Maß reduzieren. Es gibt jedoch viele andere Faktoren, die bei der Auswahl einer Intervention berücksichtigt werden müssen. Zum Beispiel:
Wirksamkeit der Kontrollen
Die Wirksamkeit von Kontrollen ist offensichtlich ein vorrangiges Kriterium, wenn Maßnahmen zur Verringerung der Exposition ergriffen werden. Beim Vergleich einer Interventionsart mit einer anderen muss das erforderliche Schutzniveau der Herausforderung angemessen sein; Zu viel Kontrolle ist eine Verschwendung von Ressourcen. Diese Ressourcen könnten verwendet werden, um andere Expositionen oder Expositionen anderer Mitarbeiter zu reduzieren. Andererseits setzt zu wenig Kontrolle den Arbeiter ungesunden Bedingungen aus. Ein nützlicher erster Schritt besteht darin, die Interventionen nach ihrer Wirksamkeit zu ordnen und diese Rangfolge dann zu verwenden, um die Bedeutung der anderen Faktoren zu bewerten.
Benutzerfreundlichkeit
Damit eine Kontrolle wirksam ist, muss der Arbeitnehmer in der Lage sein, seine Arbeitsaufgaben mit der vorhandenen Kontrolle auszuführen. Wenn beispielsweise die Substitution als Kontrollmethode ausgewählt wurde, muss der Arbeiter die Gefahren der neuen Chemikalie kennen, in sicheren Handhabungsverfahren geschult sein, die ordnungsgemäßen Entsorgungsverfahren verstehen und so weiter. Wenn es sich bei der Kontrolle um eine Isolierung handelt, bei der ein Gehäuse um den Stoff oder den Arbeiter gelegt wird, muss das Gehäuse es dem Arbeiter ermöglichen, seine Arbeit zu erledigen. Wenn die Kontrollmaßnahmen die Aufgaben der Arbeit beeinträchtigen, wird der Arbeitnehmer zögern, sie zu verwenden, und kann Wege finden, um die Aufgaben zu erfüllen, die zu einer erhöhten statt einer verringerten Exposition führen könnten.
Kosten
Jede Organisation hat begrenzte Ressourcen. Die Herausforderung besteht darin, die Nutzung dieser Ressourcen zu maximieren. Wenn gefährliche Expositionen identifiziert und eine Interventionsstrategie entwickelt wird, müssen die Kosten eine Rolle spielen. Der „beste Kauf“ wird oft nicht die kostengünstigste oder kostenintensivste Lösung sein. Die Kosten werden erst dann zu einem Faktor, wenn mehrere praktikable Kontrollmethoden identifiziert wurden. Die Kosten der Kontrollen können dann verwendet werden, um die Kontrollen auszuwählen, die in dieser bestimmten Situation am besten funktionieren. Wenn die Kosten zu Beginn der entscheidende Faktor sind, können schlechte oder ineffektive Kontrollen ausgewählt werden oder Kontrollen, die den Prozess beeinträchtigen, in dem der Mitarbeiter arbeitet. Es wäre unklug, einen kostengünstigen Satz von Steuerungen auszuwählen, die einen Herstellungsprozess stören und verlangsamen. Der Prozess hätte dann einen geringeren Durchsatz und höhere Kosten. In sehr kurzer Zeit würden die „realen“ Kosten dieser „low cost“ Kontrollen enorm werden. Wirtschaftsingenieure verstehen das Layout und den Gesamtprozess; Produktionsingenieure verstehen die Herstellungsschritte und -prozesse; die Finanzanalysten verstehen die Probleme der Ressourcenallokation. Arbeitshygieniker können aufgrund ihres Verständnisses der spezifischen Arbeitsaufgaben des Mitarbeiters, der Interaktion des Mitarbeiters mit der Produktionsanlage sowie der Funktionsweise der Kontrollen in einer bestimmten Umgebung einen einzigartigen Einblick in diese Diskussionen geben. Dieser Teamansatz erhöht die Wahrscheinlichkeit, die (aus einer Vielzahl von Perspektiven) am besten geeignete Kontrolle auszuwählen.
Angemessenheit der Warneigenschaften
Beim Schutz eines Arbeitnehmers vor einem Gesundheitsrisiko am Arbeitsplatz müssen die Warneigenschaften des Materials, wie Geruch oder Reizung, berücksichtigt werden. Wenn beispielsweise ein Halbleiterarbeiter in einem Bereich arbeitet, in dem Arsengas verwendet wird, stellt die extreme Toxizität des Gases eine erhebliche potenzielle Gefahr dar. Die Situation wird durch die sehr schlechten Warneigenschaften von Arsenwasser verschlimmert – die Arbeiter können das Arsengas nicht durch Sehen oder Riechen wahrnehmen, bis es deutlich über akzeptablen Werten liegt. In diesem Fall sollten Kontrollen, die die Exposition unter akzeptablen Werten halten, nicht in Betracht gezogen werden, da Überschreitungen über akzeptable Werte von den Arbeitern nicht erkannt werden können. In diesem Fall sollten technische Kontrollen installiert werden, um den Arbeiter vom Material zu isolieren. Darüber hinaus sollte ein kontinuierliches Arsengas-Überwachungsgerät installiert werden, um die Arbeiter vor dem Versagen der technischen Kontrollen zu warnen. In Situationen mit hoher Toxizität und schlechten Warneigenschaften wird vorbeugende Arbeitshygiene praktiziert. Der Arbeitshygieniker muss flexibel und umsichtig sein, wenn er ein Expositionsproblem angeht.
Akzeptables Expositionsniveau
Wenn Kontrollen in Betracht gezogen werden, um einen Arbeiter vor einer Substanz wie Aceton zu schützen, bei der das akzeptable Expositionsniveau im Bereich von 800 ppm liegen kann, kann eine Kontrolle auf ein Niveau von 400 ppm oder weniger relativ einfach erreicht werden. Vergleichen Sie das Beispiel der Acetonkontrolle mit der Kontrolle von 2-Ethoxyethanol, wo das akzeptable Expositionsniveau im Bereich von 0.5 ppm liegen kann. Um dieselbe prozentuale Verringerung (0.5 ppm bis 0.25 ppm) zu erhalten, wären wahrscheinlich unterschiedliche Steuerungen erforderlich. Tatsächlich kann bei diesen niedrigen Expositionsniveaus die Isolierung des Materials das primäre Kontrollmittel werden. Bei hohen Expositionsniveaus kann die Belüftung die erforderliche Reduzierung bewirken. Daher kann die (von der Regierung, dem Unternehmen usw.) für einen Stoff festgelegte akzeptable Konzentration die Auswahl der Kontrollen einschränken.
Häufigkeit der Exposition
Bei der Bewertung der Toxizität verwendet das klassische Modell die folgende Beziehung:
ZEIT x KONZENTRATION = DOSIS
Dosis ist in diesem Fall die Menge an Material, die für die Absorption verfügbar gemacht wird. Die vorherige Diskussion konzentrierte sich auf die Minimierung (Senkung) des Konzentrationsanteils dieser Beziehung. Man könnte auch die Zeit verkürzen, die für die Offenlegung aufgewendet wird (der eigentliche Grund für Verwaltungskontrollen). Dies würde in ähnlicher Weise die Dosis verringern. Dabei geht es nicht darum, wie viele Mitarbeiter sich in einem Raum aufhalten, sondern wie oft eine Operation (Aufgabe) durchgeführt wird. Die Unterscheidung ist wichtig. Im ersten Beispiel wird die Exposition kontrolliert, indem die Arbeiter entfernt werden, wenn sie einer ausgewählten Menge an Giftstoff ausgesetzt sind; Die Interventionsbemühungen richten sich nicht auf die Kontrolle der Giftstoffmenge (in vielen Situationen kann es einen kombinierten Ansatz geben). Im zweiten Fall wird die Häufigkeit der Operation verwendet, um die geeigneten Kontrollen bereitzustellen, nicht um einen Arbeitsplan festzulegen. Wenn beispielsweise ein Arbeitsgang wie das Entfetten routinemäßig von einem Mitarbeiter durchgeführt wird, können die Kontrollen eine Belüftung, den Ersatz eines weniger toxischen Lösungsmittels oder sogar die Automatisierung des Prozesses umfassen. Wenn die Operation selten durchgeführt wird (z. B. einmal pro Quartal), kann eine persönliche Schutzausrüstung eine Option sein (abhängig von vielen der in diesem Abschnitt beschriebenen Faktoren). Wie diese beiden Beispiele zeigen, kann sich die Häufigkeit, mit der eine Operation durchgeführt wird, direkt auf die Auswahl der Kontrollen auswirken. Unabhängig von der Expositionssituation muss die Häufigkeit, mit der ein Arbeitnehmer die Aufgaben ausführt, berücksichtigt und bei der Auswahl der Kontrollmaßnahmen berücksichtigt werden.
Der Expositionsweg wird offensichtlich die Kontrollmethode beeinflussen. Wenn ein Reizstoff für die Atemwege vorhanden ist, werden Belüftung, Beatmungsgeräte usw. in Betracht gezogen. Die Herausforderung für den Arbeitshygieniker besteht darin, alle Expositionswege zu identifizieren. Beispielsweise werden Glykolether als Trägerlösungsmittel bei Druckvorgängen verwendet. Atemzonenluftkonzentrationen können gemessen und Kontrollen implementiert werden. Glykolether hingegen werden durch intakte Haut schnell resorbiert. Die Haut stellt einen wichtigen Expositionsweg dar und muss berücksichtigt werden. Wenn die falschen Handschuhe gewählt werden, kann die Hautexposition tatsächlich noch lange andauern, nachdem die Luftexposition abgenommen hat (da der Mitarbeiter weiterhin Handschuhe verwendet, die einen Durchbruch erfahren haben). Der Hygieniker muss den Stoff – seine physikalischen Eigenschaften, chemischen und toxikologischen Eigenschaften usw. – bewerten, um festzustellen, welche Expositionswege möglich und plausibel sind (basierend auf den vom Mitarbeiter ausgeführten Aufgaben).
Einer der Faktoren, die bei jeder Diskussion über Kontrollen berücksichtigt werden müssen, sind die regulatorischen Anforderungen für Kontrollen. Möglicherweise gibt es Verhaltenskodizes, Vorschriften usw., die einen bestimmten Satz von Kontrollen erfordern. Der Arbeitshygieniker hat Flexibilität, die über die gesetzlichen Anforderungen hinausgeht, aber die vorgeschriebenen Mindestkontrollen müssen installiert werden. Ein weiterer Aspekt der behördlichen Anforderungen besteht darin, dass die vorgeschriebenen Kontrollen möglicherweise nicht so gut funktionieren oder dem besten Urteil des Arbeitshygienikers widersprechen können. Der Hygieniker muss in diesen Situationen kreativ sein und Lösungen finden, die sowohl die regulatorischen als auch die Best-Practice-Ziele der Organisation erfüllen.
Schulung und Kennzeichnung
Unabhängig davon, welche Form der Intervention letztendlich gewählt wird, müssen Schulungen und andere Formen der Benachrichtigung bereitgestellt werden, um sicherzustellen, dass die Arbeiter die Interventionen verstehen, warum sie gewählt wurden, welche Reduzierungen der Exposition erwartet werden und welche Rolle die Arbeiter bei der Erreichung dieser Reduzierungen spielen . Ohne die Beteiligung und das Verständnis der Belegschaft werden die Interventionen wahrscheinlich scheitern oder zumindest mit reduzierter Effizienz arbeiten. Schulungen stärken das Gefahrenbewusstsein der Belegschaft. Dieses neue Bewusstsein kann für den Arbeitshygieniker von unschätzbarem Wert sein, wenn es darum geht, zuvor nicht erkannte Expositionen oder neue Expositionen zu identifizieren und zu reduzieren.
Schulungen, Kennzeichnung und damit verbundene Aktivitäten können Teil eines Systems zur Einhaltung gesetzlicher Vorschriften sein. Es wäre ratsam, die örtlichen Vorschriften zu überprüfen, um sicherzustellen, dass jede Art von Schulung oder Kennzeichnung, die durchgeführt wird, sowohl den gesetzlichen als auch den betrieblichen Anforderungen entspricht.
Fazit
In dieser kurzen Diskussion über Interventionen wurden einige allgemeine Überlegungen angestellt, um zum Nachdenken anzuregen. In der Praxis werden diese Regeln sehr komplex und haben oft erhebliche Auswirkungen auf die Mitarbeiter- und Unternehmensgesundheit. Das professionelle Urteil des Arbeitshygienikers ist bei der Auswahl der besten Kontrollen von entscheidender Bedeutung. Best ist ein Begriff mit vielen verschiedenen Bedeutungen. Der Arbeitshygieniker muss in der Lage sein, in Teams zu arbeiten und Beiträge von Arbeitern, Führungskräften und technischem Personal einzuholen.
HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."