27. Biologische Überwachung
Kapitelherausgeber: Robert Lauwerys
Inhaltsverzeichnis
Allgemeine Grundsätze
Vito Foà und Lorenzo Alessio
Qualitätssicherung
D. Gompertz
Metalle und metallorganische Verbindungen
P. Hoet und Robert Lauwerys
Organische Lösungsmittel
Masayuki Ikeda
Genotoxische Chemikalien
Marja Sorsa
Pestizide
Marco Maroni und Adalberto Ferioli
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. ACGIH, DFG & andere Grenzwerte für Metalle
2. Beispiele für Chemikalien- und biologisches Monitoring
3. Biologische Überwachung auf organische Lösungsmittel
4. Genotoxizität von Chemikalien, bewertet von IARC
5. Biomarker und einige Zell-/Gewebeproben und Genotoxizität
6. Menschliche Karzinogene, berufliche Exposition und zytogenetische Endpunkte
8. Exposition durch Produktion und Verwendung von Pestiziden
9. Akute OP-Toxizität bei verschiedenen Graden der ACHE-Hemmung
10 Variationen von ACHE & PCHE & ausgewählten Gesundheitszuständen
11 Cholinesterase-Aktivitäten von nicht exponierten gesunden Menschen
12 Alkylphosphate im Urin und OP-Pestizide
13 Alkylphosphatmessungen im Urin & OP
14 Carbamat-Metaboliten im Urin
15 Dithiocarbamat-Metaboliten im Urin
16 Vorgeschlagene Indizes für die biologische Überwachung von Pestiziden
17 Empfohlene biologische Grenzwerte (Stand 1996)
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
28. Epidemiologie und Statistik
Kapitel-Editoren: Franco Merletti, Colin L. Soskolne und Paolo Vineis
Epidemiologische Methode für Arbeitssicherheit und Gesundheitsschutz
Franco Merletti, Colin L. Soskolne und Paolo Vineis
Expositionsbewertung
M. Gerald Ott
Zusammenfassung der Expositionsmaßnahmen im Arbeitsleben
Colin L. Soskolne
Messung der Auswirkungen von Expositionen
Shelia Hoar Zahm
Fallbeispiel: Maßnahmen
Franco Merletti, Colin L. Soskolne und Paola Vineis
Optionen im Studiendesign
Sven Herberg
Validitätsprobleme im Studiendesign
Annie J. Sasco
Einfluss zufälliger Messfehler
Paolo Vineis und Colin L. Soskolne
Statistische Methoden
Annibale Biggeri und Mario Braga
Kausalitätsbewertung und Ethik in der epidemiologischen Forschung
Paolo Vineis
Fallstudien zur Veranschaulichung methodischer Probleme bei der Überwachung von Berufskrankheiten
Jung-Der Wang
Fragebögen in der epidemiologischen Forschung
Steven D. Stellman und Colin L. Soskolne
Asbest Historische Perspektive
Laurent Garfinkel
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Fünf ausgewählte zusammenfassende Maßnahmen zur Exposition im Berufsleben
2. Maße für das Auftreten von Krankheiten
3. Assoziationsmaße für eine Kohortenstudie
4. Assoziationsmaße für Fall-Kontroll-Studien
5. Allgemeines Häufigkeitstabellenlayout für Kohortendaten
6. Musterlayout von Fallkontrolldaten
7. Layout-Fallkontrolldaten – eine Kontrolle pro Fall
8. Hypothetische Kohorte von 1950 Individuen zu T2
9. Indizes der zentralen Tendenz und Streuung
10 Ein binomiales Experiment & Wahrscheinlichkeiten
11 Mögliche Ergebnisse eines binomialen Experiments
12 Binomialverteilung, 15 Erfolge/30 Versuche
13 Binomialverteilung, p = 0.25; 30 Versuche
14 Fehler XNUMX. Art & Leistung; x = 12, n = 30, a = 0.05
15 Fehler XNUMX. Art & Leistung; x = 12, n = 40, a = 0.05
16 632 Arbeitnehmer, die 20 Jahre oder länger Asbest ausgesetzt waren
17 O/E Zahl der Todesfälle unter 632 Asbestarbeitern
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
29. Ergonomie
Kapitel-Editoren: Wolfgang Laurig und Joachim Vedder
Inhaltsverzeichnis
Überblick
Wolfgang Laurig und Joachim Vedder
Wesen und Ziele der Ergonomie
William T. Singleton
Analyse von Aktivitäten, Aufgaben und Arbeitssystemen
Véronique De Keyser
Ergonomie und Standardisierung
Friedhelm Nachreiner
Prüflisten
Pranab Kumar Nag
Anthropometrie
Melchiorre Masali
Muskelarbeit
Juhani Smolander und Veikko Louhevaara
Körperhaltungen bei der Arbeit
Ilkka Kurinka
Biomechanik
Frank Darby
Allgemeine Müdigkeit
Etienne Grandjean
Müdigkeit und Erholung
Rolf Helbig und Walter Rohmert
Geistige Arbeitsbelastung
Winfried Hacker
Wachsamkeit
Herbert Heuer
Geistige Müdigkeit
Peter Richter
Arbeitsorganisation
Eberhard Ulich und Gudela Grote
Schlafentzug
Kazutaka Kogi
Workstations
Roland Kadefors
Tools
TM Fraser
Bedienelemente, Anzeigen und Bedienfelder
Karl HE Kroemer
Informationsverarbeitung und Design
Andries F. Sanders
Entwerfen für bestimmte Gruppen
Witz H. Grady-van den Nieuwboer
Fallstudie: Die internationale Klassifikation der Funktionseinschränkung beim Menschen
Kulturelle Unterschiede
Houshang Shahnavaz
Ältere Arbeitnehmer
Antoine Laville und Serge Volkoff
Arbeitnehmer mit besonderen Bedürfnissen
Witz H. Grady-van den Nieuwboer
Systemdesign in der Diamantherstellung
Issachar Gilad
Missachtung ergonomischer Gestaltungsprinzipien: Tschernobyl
Wladimir M. Munipov
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Grundlegende anthropometrische Kernliste
2. Ermüdung und Erholung abhängig vom Aktivitätsniveau
3. Regeln der Kombinationswirkung zweier Stressfaktoren auf die Belastung
4. Es wird zwischen mehreren negativen Folgen psychischer Belastung unterschieden
5. Arbeitsorientierte Prinzipien zur Produktionsgestaltung
6. Partizipation im organisatorischen Kontext
7. Benutzerbeteiligung am Technologieprozess
8. Unregelmäßige Arbeitszeiten und Schlafentzug
9. Aspekte von Früh-, Anker- und Verzögerungsschlaf
10 Kontrollieren Sie Bewegungen und erwartete Effekte
11 Steuerungs-Wirkungs-Beziehungen gängiger Handsteuerungen
12 Regeln für die Anordnung von Kontrollen
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
30. Arbeitshygiene
Kapitel-Editor: Robert F. Herrick
Inhaltsverzeichnis
Ziele, Definitionen und allgemeine Informationen
Berenice I. Ferrari Goelzer
Gefahren erkennen
Linnea Lillienberg
Bewertung der Arbeitsumgebung
Lori A. Todd
Arbeitshygiene: Expositionskontrolle durch Intervention
James Stewart
Die biologische Grundlage für die Expositionsbewertung
Dick Heederik
Arbeitsplatzgrenzwerte
Dennis J. Pausenbach
1. Gefahren durch Chemikalien; biologische und physikalische Wirkstoffe
2. Arbeitsplatzgrenzwerte (OELs) – verschiedene Länder
31. Persönlicher Schutz
Kapitel-Editor: Robert F. Herrick
Inhaltsverzeichnis
Überblick und Philosophie des Personenschutzes
Robert F. Herrick
Augen- und Gesichtsschutz
Kikuzi Kimura
Fuß- und Beinschutz
Toyohiko Miura
Kopfschutz
Isabelle Balty und Alain Mayer
Gehörschutz
John R. Franks und Elliott H. Berger
Schutzkleidung
S.Zack Mansdorf
Atemschutz
Thomas J. Nelson
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Transmissionsanforderungen (ISO 4850-1979)
2. Schutzmaßstäbe - Gasschweißen & Lötschweißen
3. Schutzwaage - Sauerstoffschneiden
4. Schutzmaßstäbe - Plasmalichtbogenschneiden
5. Schutzwaagen - Lichtbogenschweißen oder Fugenhobeln
6. Schutzmaßstäbe - Plasma-Lichtbogen-Direktschweißen
7. Schutzhelm: ISO-Norm 3873-1977
8. Geräuschreduzierungsbewertung eines Gehörschutzes
9. Berechnung der A-bewerteten Rauschunterdrückung
10 Beispiele für Hautgefahrenkategorien
11 Physikalische, chemische und biologische Leistungsanforderungen
12 Sachgefahren im Zusammenhang mit bestimmten Tätigkeiten
13 Zugewiesene Schutzfaktoren aus ANSI Z88 2 (1992)
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
32. Aufzeichnungssysteme und Überwachung
Kapitel-Editor: Steven D. Stellman
Inhaltsverzeichnis
Überwachungs- und Meldesysteme für Berufskrankheiten
Steven B. Markowitz
Überwachung von Arbeitsgefahren
David H. Wegman und Steven D. Stellman
Überwachung in Entwicklungsländern
David Koh und Kee-Seng Chia
Entwicklung und Anwendung eines Klassifizierungssystems für Arbeitsunfälle und Berufskrankheiten
Elyce Biddle
Risikoanalyse von nicht tödlichen Verletzungen und Krankheiten am Arbeitsplatz
John W. Ruser
Fallstudie: Arbeitnehmerschutz und Statistiken zu Unfällen und Berufskrankheiten - HVBG, Deutschland
Martin Butz und Burkhard Hoffmann
Fallstudie: Wismut – Eine Neuauflage der Uranexposition
Heinz Otten und Horst Schulz
Messstrategien und -techniken für die berufsbedingte Expositionsabschätzung in der Epidemiologie
Frank Bochmann und Helmut Blome
Fallstudie: Arbeitsmedizinische Erhebungen in China
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Angiosarkom der Leber - Weltregister
2. Berufskrankheit, USA, 1986 versus 1992
3. US-Todesfälle durch Pneumokoniose und Pleuramesotheliom
4. Musterliste meldepflichtiger Berufskrankheiten
5. Codestruktur für die Meldung von Krankheiten und Verletzungen, USA
6. Nichttödliche Arbeitsunfälle und Berufskrankheiten, USA 1993
7. Risiko von Arbeitsunfällen und Berufskrankheiten
8. Relatives Risiko für sich wiederholende Bewegungszustände
9. Arbeitsunfälle, Deutschland, 1981-93
10 Schleifmaschinen bei Unfällen in der Metallverarbeitung, Deutschland, 1984-93
11 Berufskrankheit, Deutschland, 1980-93
12 Infektionskrankheiten, Deutschland, 1980-93
13 Strahlenbelastung in den Wismut-Bergwerken
14 Berufskrankheiten im Wismuter Uranbergwerk 1952-90
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
33. Toxikologie
Kapitelherausgeberin: Ellen K. Silbergeld
Einleitung
Ellen K. Silbergeld, Kapitelredakteurin
Definitionen und Konzepte
Bo Holmberg, Johan Hogberg und Gunnar Johanson
Toxikokinetik
Dušan Djuric
Zielorgan und kritische Wirkungen
Marek Jakubowski
Auswirkungen von Alter, Geschlecht und anderen Faktoren
Spomenka Telisman
Genetische Determinanten der toxischen Reaktion
Daniel W. Nebert und Ross A. McKinnon
Einführung und Konzepte
Philip G. Watanabe
Zellschädigung und Zelltod
Benjamin F. Trump und Irene K. Berezesky
Genetische Toxikologie
R. Rita Misra und Michael P. Waalkes
Immuntoxikologie
Joseph G. Vos und Henk van Loveren
Zielorgan-Toxikologie
Ellen K. Silbergeld
Biomarker
Philipp Grandjean
Bewertung der genetischen Toxizität
David M. DeMarini und James Huff
In-vitro-Toxizitätstest
Joanne Zürlo
Aktivitätsbeziehungen strukturieren
Ellen K. Silbergeld
Toxikologie in der Gesundheits- und Sicherheitsverordnung
Ellen K. Silbergeld
Prinzipien der Gefahrenidentifizierung - Der japanische Ansatz
Masayuki Ikeda
Der Ansatz der Vereinigten Staaten zur Risikobewertung von reproduktionstoxischen und neurotoxischen Wirkstoffen
Ellen K. Silbergeld
Ansätze zur Gefahrenidentifizierung - IARC
Harri Vainio und Julian Wilbourn
Anhang – Gesamtbewertungen der Karzinogenität beim Menschen: IARC-Monographien, Bände 1–69 (836)
Karzinogen-Risikobewertung: Andere Ansätze
Cees A. van der Heijden
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
Die Identifizierung krebserzeugender Risiken für den Menschen war das Ziel der IARC-Monographien zur Bewertung krebserzeugender Risiken für den Menschen seit 1971. Bis heute sind 69 Bände Monographien mit Bewertungen zur Kanzerogenität von 836 Stoffen oder Expositionsumständen erschienen oder im Druck (siehe Anhang).
Diese qualitativen Bewertungen des krebserzeugenden Risikos für den Menschen entsprechen der Phase der Gefahrenidentifizierung im inzwischen allgemein anerkannten Schema der Risikobewertung, die die Identifizierung der Gefahren, die Dosis-Wirkungs-Bewertung (einschließlich Extrapolation außerhalb der Beobachtungsgrenzen), die Expositionsbewertung und die Risikobeschreibung umfasst .
Das Ziel der IARC-Monographien Ziel war es, durch internationale Zusammenarbeit in Form von Expertenarbeitskreisen kritische qualitative Bewertungen zur Kanzerogenität von Arbeitsstoffen (Chemikalien, Chemikaliengruppen, komplexe Gemische, physikalische oder biologische Faktoren) oder Expositionsumständen (berufliche Expositionen, kulturelle Gewohnheiten) für den Menschen zu veröffentlichen . Die Arbeitsgruppen erstellen Monographien über eine Reihe von einzelnen Agenten oder Expositionen, und jeder Band wird veröffentlicht und weit verbreitet. Jede Monographie besteht aus einer kurzen Beschreibung der physikalischen und chemischen Eigenschaften des Mittels; Methoden zu seiner Analyse; eine Beschreibung, wie es produziert wird, wie viel produziert wird und wie es verwendet wird; Daten zu Vorkommen und menschlicher Exposition; Zusammenfassungen von Fallberichten und epidemiologischen Studien zu Krebs beim Menschen; Zusammenfassungen experimenteller Kanzerogenitätstests; eine kurze Beschreibung anderer relevanter biologischer Daten, wie z. B. Toxizität und genetische Wirkungen, die auf einen möglichen Wirkungsmechanismus hinweisen können; und eine Bewertung seiner Karzinogenität. Der erste Teil dieses allgemeinen Schemas wird entsprechend angepasst, wenn es sich um andere Stoffe als Chemikalien oder Chemikaliengemische handelt.
Die Leitprinzipien für die Bewertung von Karzinogenen wurden von verschiedenen Ad-hoc-Expertengruppen erarbeitet und sind in der Präambel des Monographien (IARC 1994a).
Werkzeuge zur qualitativen Identifizierung krebserzeugender Risiken (Gefahren).
Assoziationen werden hergestellt, indem die verfügbaren Daten aus Studien an exponierten Menschen, die Ergebnisse von Bioassays an Versuchstieren und Studien zu Exposition, Metabolismus, Toxizität und genetischen Wirkungen sowohl bei Menschen als auch bei Tieren untersucht werden.
Studien zu Krebs beim Menschen
Drei Arten von epidemiologischen Studien tragen zur Beurteilung der Karzinogenität bei: Kohortenstudien, Fall-Kontroll-Studien und Korrelationsstudien (oder ökologische Studien). Fallberichte über Krebs können ebenfalls überprüft werden.
Kohorten- und Fall-Kontroll-Studien setzen die untersuchten individuellen Expositionen mit dem Auftreten von Krebs bei Einzelpersonen in Beziehung und liefern eine Schätzung des relativen Risikos (Verhältnis der Inzidenz bei den Exponierten zur Inzidenz bei den Nicht-Exponierten) als Hauptmaß für den Zusammenhang.
In Korrelationsstudien ist die Untersuchungseinheit normalerweise ganze Bevölkerungsgruppen (z. B. bestimmte geografische Gebiete) und die Krebshäufigkeit wird mit einem zusammenfassenden Maß der Exposition der Bevölkerung gegenüber dem Wirkstoff in Beziehung gesetzt. Da die individuelle Exposition nicht dokumentiert wird, lässt sich aus solchen Studien weniger leicht auf einen kausalen Zusammenhang schließen als aus Kohorten- und Fall-Kontroll-Studien. Fallberichte entstehen in der Regel aus dem auf klinischer Erfahrung basierenden Verdacht, dass das Zusammentreffen zweier Ereignisse – also eine bestimmte Exposition und das Auftreten einer Krebserkrankung – eher häufiger vorgekommen ist, als zufällig zu erwarten wäre. Die Unsicherheiten bei der Interpretation von Fallberichten und Korrelationsstudien machen sie, außer in seltenen Fällen, ungeeignet, um die alleinige Grundlage für den Schluss auf einen kausalen Zusammenhang zu bilden.
Bei der Interpretation epidemiologischer Studien ist es notwendig, die mögliche Rolle von Bias und Confounding zu berücksichtigen. Unter Voreingenommenheit versteht man das Wirken von Faktoren im Studiendesign oder in der Durchführung, die fälschlicherweise zu einer stärkeren oder schwächeren Assoziation führen, als tatsächlich zwischen einer Krankheit und einem Agens besteht. Mit Confounding ist eine Situation gemeint, in der die Beziehung zu einer Krankheit als Ergebnis einer Assoziation zwischen dem offensichtlichen kausalen Faktor und einem anderen Faktor, der entweder mit einer Zunahme oder Abnahme der Inzidenz verbunden ist, stärker oder schwächer erscheint, als sie tatsächlich ist die Krankheit.
Bei der Bewertung der epidemiologischen Studien deutet eine starke Assoziation (dh ein großes relatives Risiko) eher auf eine Kausalität hin als eine schwache Assoziation, obwohl anerkannt wird, dass relative Risiken geringer Größenordnung keine fehlende Kausalität implizieren und wichtig sein können wenn die Krankheit häufig ist. Assoziationen, die in mehreren Studien mit gleichem Design oder mit unterschiedlichen epidemiologischen Ansätzen oder unter unterschiedlichen Expositionsbedingungen repliziert werden, stellen eher einen kausalen Zusammenhang dar als isolierte Beobachtungen aus einzelnen Studien. Ein Anstieg des Krebsrisikos mit zunehmender Exposition gilt als starker Hinweis auf Kausalität, obwohl das Fehlen einer abgestuften Reaktion nicht unbedingt gegen einen kausalen Zusammenhang spricht. Auch der Nachweis eines Risikorückgangs nach Beendigung oder Reduktion der Exposition bei einzelnen Personen oder ganzen Populationen unterstützt eine kausale Interpretation der Befunde.
Wenn mehrere epidemiologische Studien wenig oder keinen Hinweis auf einen Zusammenhang zwischen einer Exposition und Krebs zeigen, kann gefolgert werden, dass sie insgesamt Hinweise auf eine fehlende Karzinogenität liefern. Die Möglichkeit, dass Verzerrungen, Verwechslungen oder Fehlklassifizierungen der Exposition oder des Ergebnisses die beobachteten Ergebnisse erklären könnten, muss in Betracht gezogen und mit hinreichender Sicherheit ausgeschlossen werden. Belege aus mehreren epidemiologischen Studien, die auf mangelnde Karzinogenität hindeuten, können nur für die untersuchte(n) Krebsart(en), Dosisniveaus und Intervalle zwischen der ersten Exposition und der Beobachtung der Erkrankung gelten. Bei einigen Krebsarten beim Menschen beträgt der Zeitraum zwischen der ersten Exposition und der Entwicklung einer klinischen Erkrankung selten weniger als 20 Jahre; Latenzzeiten, die wesentlich kürzer als 30 Jahre sind, können keinen Hinweis auf fehlende Kanzerogenität liefern.
Die für die Kanzerogenität relevanten Hinweise aus Studien am Menschen werden in eine der folgenden Kategorien eingeordnet:
Ausreichende Hinweise auf Karzinogenität. Es wurde ein kausaler Zusammenhang zwischen der Exposition gegenüber dem Stoff, dem Gemisch oder den Expositionsumständen und Krebs beim Menschen festgestellt. Das heißt, in Studien, in denen Zufall, Bias und Confounding mit hinreichender Sicherheit ausgeschlossen werden konnten, wurde ein positiver Zusammenhang zwischen der Exposition und Krebs beobachtet.
Begrenzter Hinweis auf Karzinogenität. Es wurde ein positiver Zusammenhang zwischen der Exposition gegenüber dem Wirkstoff, dem Gemisch oder den Expositionsumständen und Krebs beobachtet, für den eine kausale Interpretation als glaubwürdig erachtet wird, aber Zufall, Verzerrung oder Verwechslung kann nicht mit hinreichender Sicherheit ausgeschlossen werden.
Unzureichender Nachweis der Karzinogenität. Die verfügbaren Studien sind von unzureichender Qualität, Konsistenz oder statistischer Aussagekraft, um auf das Vorliegen oder Fehlen eines kausalen Zusammenhangs schließen zu können, oder es liegen keine Daten zu Krebserkrankungen beim Menschen vor.
Hinweise auf mangelnde Karzinogenität. Es gibt mehrere adäquate Studien, die das gesamte Spektrum der Expositionsniveaus abdecken, denen Menschen bekanntermaßen ausgesetzt sind, die übereinstimmend darin sind, dass sie bei keinem beobachteten Expositionsniveau einen positiven Zusammenhang zwischen der Exposition gegenüber dem Wirkstoff und dem untersuchten Krebs zeigen. Die Schlussfolgerung „Hinweise auf fehlende Karzinogenität“ beschränkt sich zwangsläufig auf die von den verfügbaren Studien abgedeckten Krebsorte, -bedingungen und -niveaus sowie die Beobachtungsdauer.
Die Anwendbarkeit einer Bewertung der Kanzerogenität eines Gemisches, Verfahrens, Berufes oder Industriezweiges auf der Grundlage von Erkenntnissen aus epidemiologischen Studien ist zeit- und ortsabhängig. Es sollte nach der spezifischen Exposition, dem Prozess oder der Aktivität gesucht werden, die am wahrscheinlichsten für ein übermäßiges Risiko verantwortlich ist, und die Bewertung sollte so eng wie möglich ausgerichtet werden. Die lange Latenzzeit von Krebs beim Menschen erschwert die Interpretation epidemiologischer Studien. Eine weitere Komplikation ist die Tatsache, dass Menschen gleichzeitig einer Vielzahl von Chemikalien ausgesetzt sind, die miteinander interagieren können, um das Risiko für Neoplasien entweder zu erhöhen oder zu verringern.
Untersuchungen zur Kanzerogenität bei Versuchstieren
Studien, in denen Versuchstiere (normalerweise Mäuse und Ratten) potenziellen Karzinogenen ausgesetzt und auf Anzeichen von Krebs untersucht wurden, wurden vor etwa 50 Jahren mit dem Ziel eingeführt, einen wissenschaftlichen Ansatz für die Untersuchung der chemischen Karzinogenese einzuführen und einige der Nachteile zu vermeiden unter ausschließlicher Verwendung epidemiologischer Daten beim Menschen. Im IARC-Monographien alle verfügbaren, veröffentlichten Studien zur Kanzerogenität an Tieren werden zusammengefasst und der Grad der Evidenz der Kanzerogenität wird dann in eine der folgenden Kategorien eingeteilt:
Ausreichende Hinweise auf Karzinogenität. Es wurde ein kausaler Zusammenhang zwischen dem Mittel oder dem Gemisch und einem erhöhten Auftreten von bösartigen Neubildungen oder einer geeigneten Kombination von gutartigen und bösartigen Neubildungen bei zwei oder mehr Tierarten oder in zwei oder mehr unabhängigen Studien bei einer Art, die zu unterschiedlichen Zeiten durchgeführt wurden, festgestellt oder in verschiedenen Labors oder unter verschiedenen Protokollen. Ausnahmsweise kann eine einzelne Studie an einer Tierart als ausreichender Beweis für die Karzinogenität angesehen werden, wenn bösartige Neubildungen in ungewöhnlichem Ausmaß in Bezug auf Inzidenz, Ort, Art des Tumors oder Alter bei Ausbruch auftreten.
Begrenzter Hinweis auf Karzinogenität. Die Daten deuten auf eine krebserzeugende Wirkung hin, sind jedoch für eine endgültige Bewertung begrenzt, da beispielsweise (a) der Nachweis der krebserzeugenden Wirkung auf einen einzigen Versuch beschränkt ist; oder (b) es gibt einige ungelöste Fragen bezüglich der Angemessenheit des Designs, der Durchführung oder der Interpretation der Studie; oder (c) das Mittel oder Gemisch erhöht nur das Auftreten von gutartigen Neoplasmen oder Läsionen mit ungewissem neoplastischem Potenzial oder von bestimmten Neoplasmen, die bei bestimmten Stämmen spontan mit hoher Inzidenz auftreten können.
Unzureichender Nachweis der Karzinogenität. Die Studien können aufgrund erheblicher qualitativer oder quantitativer Einschränkungen nicht dahingehend interpretiert werden, dass sie eine krebserzeugende Wirkung zeigen oder nicht, oder es liegen keine Daten zu Krebs bei Versuchstieren vor.
Hinweise auf mangelnde Karzinogenität. Es liegen geeignete Studien mit mindestens zwei Arten vor, die zeigen, dass der Stoff oder das Gemisch im Rahmen der verwendeten Tests nicht krebserzeugend ist. Eine Schlussfolgerung aus Hinweisen auf mangelnde Karzinogenität ist zwangsläufig auf die untersuchten Arten, Tumorstellen und Expositionsniveaus beschränkt.
Andere Daten, die für eine Bewertung der Karzinogenität relevant sind
Daten zu biologischen Wirkungen beim Menschen, die von besonderer Relevanz sind, umfassen toxikologische, kinetische und metabolische Überlegungen sowie Hinweise auf DNA-Bindung, Persistenz von DNA-Läsionen oder genetische Schäden bei exponierten Menschen. Toxikologische Informationen, wie die zur Zytotoxizität und Regeneration, zur Rezeptorbindung und zu hormonellen und immunologischen Wirkungen, sowie Daten zur Kinetik und zum Metabolismus bei Versuchstieren werden zusammengefasst, wenn sie für den möglichen Mechanismus der krebserzeugenden Wirkung des Mittels relevant sind. Die Ergebnisse der Tests auf genetische und verwandte Wirkungen werden für ganze Säugetiere einschließlich Menschen, kultivierte Säugetierzellen und Nicht-Säugetiersysteme zusammengefasst. Struktur-Wirkungs-Beziehungen werden erwähnt, wenn relevant.
Für den zu bewertenden Stoff, das Gemisch oder die Expositionssituation werden die verfügbaren Daten zu Endpunkten oder anderen Phänomenen, die für Mechanismen der Karzinogenese relevant sind, aus Studien an Menschen, Versuchstieren und Gewebe- und Zelltestsystemen innerhalb einer oder mehrerer der folgenden beschreibenden Dimensionen zusammengefasst :
Diese Dimensionen schließen sich nicht gegenseitig aus, und ein Agent kann unter mehr als eine fallen. So könnte beispielsweise die Wirkung eines Agens auf die Expression relevanter Gene sowohl unter der ersten als auch der zweiten Dimension zusammengefasst werden, selbst wenn mit hinreichender Sicherheit bekannt wäre, dass diese Wirkungen auf Genotoxizität zurückzuführen sind.
Gesamtbewertungen
Schließlich wird die Beweislage als Ganzes betrachtet, um zu einer Gesamtbewertung der Karzinogenität eines Stoffes, einer Mischung oder eines Expositionsumstands für den Menschen zu gelangen. Eine Bewertung kann für eine Gruppe von Chemikalien vorgenommen werden, wenn unterstützende Daten darauf hindeuten, dass andere, verwandte Verbindungen, für die es keine direkten Beweise dafür gibt, dass sie bei Menschen oder Tieren Krebs hervorrufen können, ebenfalls karzinogen sein können, wobei eine Begründung für diese Schlussfolgerung enthalten ist der Bewertungserzählung hinzugefügt.
Der Stoff, das Gemisch oder die Expositionssituation wird gemäß dem Wortlaut einer der folgenden Kategorien beschrieben und die bezeichnete Gruppe angegeben. Die Kategorisierung eines Stoffs, Gemischs oder einer Expositionssituation ist eine Frage der wissenschaftlichen Beurteilung, die die Stärke der Beweise widerspiegelt, die aus Studien am Menschen und an Versuchstieren sowie aus anderen relevanten Daten stammen.
Gruppe 1
Der Stoff (das Gemisch) ist für den Menschen krebserzeugend. Der Expositionsfall beinhaltet Expositionen, die für den Menschen krebserzeugend sind.
Diese Kategorie wird verwendet, wenn ausreichende Hinweise auf Karzinogenität beim Menschen vorliegen. Ausnahmsweise kann ein Stoff (Gemisch) in diese Kategorie eingestuft werden, wenn der Nachweis beim Menschen nicht ausreicht, aber ausreichende Hinweise auf Karzinogenität bei Versuchstieren vorliegen und starke Hinweise bei exponierten Menschen vorliegen, dass der Stoff (das Gemisch) über einen relevanten Mechanismus der Karzinogenität wirkt .
Gruppe 2
In diese Kategorie fallen Arbeitsstoffe, Gemische und Expositionssituationen, für die einerseits der Beweisgrad der Kanzerogenität beim Menschen nahezu ausreichend ist, und andererseits solche, für die es keine Humandaten gibt, für die es aber Daten gibt Hinweise auf Karzinogenität bei Versuchstieren. Stoffe, Gemische und Expositionsumstände werden aufgrund epidemiologischer und experimenteller Hinweise auf Kanzerogenität und anderer relevanter Daten entweder der Gruppe 2A (wahrscheinlich krebserzeugend für den Menschen) oder der Gruppe 2B (möglicherweise krebserzeugend für den Menschen) zugeordnet.
Gruppe 2A. Der Stoff (das Gemisch) ist wahrscheinlich krebserzeugend für den Menschen. Der Expositionsfall bringt Expositionen mit sich, die wahrscheinlich krebserzeugend für den Menschen sind. Diese Kategorie wird verwendet, wenn begrenzte Hinweise auf Karzinogenität beim Menschen und ausreichende Hinweise auf Karzinogenität bei Versuchstieren vorliegen. In einigen Fällen kann ein Stoff (Gemisch) in diese Kategorie eingestuft werden, wenn es unzureichende Beweise für die Karzinogenität beim Menschen und ausreichende Beweise für die Karzinogenität bei Versuchstieren und starke Beweise dafür gibt, dass die Karzinogenese durch einen Mechanismus vermittelt wird, der auch beim Menschen funktioniert. Ausnahmsweise kann ein Stoff, ein Gemisch oder eine Expositionssituation nur aufgrund begrenzter Hinweise auf Karzinogenität beim Menschen in diese Kategorie eingestuft werden.
Gruppe 2B. Der Stoff (das Gemisch) ist möglicherweise krebserzeugend für den Menschen. Der Expositionsfall bringt Expositionen mit sich, die möglicherweise krebserzeugend für den Menschen sind. Diese Kategorie wird für Stoffe, Mischungen und Expositionsumstände verwendet, für die es begrenzte Hinweise auf eine Karzinogenität beim Menschen und weniger als ausreichende Hinweise auf eine Karzinogenität bei Versuchstieren gibt. Es kann auch verwendet werden, wenn es keine ausreichenden Beweise für die Karzinogenität beim Menschen gibt, aber ausreichende Beweise für die Karzinogenität bei Versuchstieren. In einigen Fällen können Stoffe, Gemische oder Expositionsumstände, für die unzureichende Beweise für die Karzinogenität beim Menschen, aber begrenzte Beweise für die Karzinogenität bei Versuchstieren zusammen mit unterstützenden Beweisen aus anderen relevanten Daten vorliegen, in diese Gruppe eingeordnet werden.
Gruppe 3
Der Stoff (Gemisch oder Expositionssituation) ist hinsichtlich seiner Karzinogenität für den Menschen nicht einstufbar. Diese Kategorie wird am häufigsten für Stoffe, Gemische und Expositionsumstände verwendet, für die der Nachweis der Karzinogenität beim Menschen unzureichend und bei Versuchstieren unzureichend oder begrenzt ist.
Ausnahmsweise können Stoffe (Gemische), deren Karzinogenität beim Menschen unzureichend, bei Versuchstieren jedoch ausreichend nachgewiesen ist, in diese Kategorie eingestuft werden, wenn starke Hinweise darauf vorliegen, dass der Mechanismus der Karzinogenität bei Versuchstieren beim Menschen nicht funktioniert.
Gruppe 4
Das Mittel (Gemisch) ist wahrscheinlich nicht krebserzeugend für den Menschen. Diese Kategorie wird für Stoffe oder Gemische verwendet, für die Hinweise auf mangelnde Karzinogenität beim Menschen und bei Versuchstieren vorliegen. In einigen Fällen können Stoffe oder Gemische, für die unzureichende Beweise für die Karzinogenität beim Menschen vorliegen, die jedoch Hinweise auf eine fehlende Karzinogenität bei Versuchstieren vermuten lassen, die durchgängig und stark durch eine breite Palette anderer relevanter Daten gestützt werden, in diese Gruppe eingeordnet werden.
Von Menschen gemachte Klassifikationssysteme sind nicht perfekt genug, um alle komplexen Entitäten der Biologie zu erfassen. Sie sind jedoch als Leitprinzipien nützlich und können modifiziert werden, wenn sich neue Erkenntnisse über die Karzinogenese fester etablieren. Bei der Einstufung eines Stoffs, Gemischs oder Expositionsfalls ist es unerlässlich, sich auf wissenschaftliche Urteile der Expertengruppe zu stützen.
Bisherige Ergebnisse
Bisher 69 Bände von IARC-Monographien erschienen oder im Druck sind, in denen für 836 Stoffe oder Expositionssituationen Bewertungen der Kanzerogenität für den Menschen vorgenommen wurden. 1 Stoffe oder Expositionen wurden als krebserzeugend für den Menschen (Gruppe 56), 2 als wahrscheinlich krebserzeugend für den Menschen (Gruppe 225A), 2 als möglicherweise krebserzeugend für den Menschen (Gruppe 4B) und einer als wahrscheinlich nicht krebserzeugend für den Menschen (Gruppe 480) bewertet ). Für 3 Stoffe oder Expositionen erlaubten die verfügbaren epidemiologischen und experimentellen Daten keine Bewertung ihrer Karzinogenität für den Menschen (Gruppe XNUMX).
Bedeutung mechanistischer Daten
Die überarbeitete Präambel, die erstmals in Band 54 der IARC-Monographien, lässt die Möglichkeit zu, dass ein Stoff, für den epidemiologische Beweise für Krebs weniger als ausreichend sind, in Gruppe 1 eingestuft werden kann, wenn es ausreichende Hinweise auf Karzinogenität bei Versuchstieren und starke Hinweise bei exponierten Menschen gibt, dass der Stoff über einen relevanten Mechanismus der Karzinogenität wirkt. Umgekehrt kann ein Stoff, für den unzureichende Beweise für die Karzinogenität beim Menschen zusammen mit ausreichenden Beweisen bei Versuchstieren und starken Beweisen dafür vorliegen, dass der Mechanismus der Karzinogenese beim Menschen nicht funktioniert, in Gruppe 3 anstelle der normalerweise zugewiesenen Gruppe 2B eingestuft werden – möglicherweise krebserregend für Menschen – Kategorie.
Die Verwendung solcher Daten zu Mechanismen wurde kürzlich bei drei Gelegenheiten diskutiert:
Während allgemein anerkannt ist, dass Sonnenstrahlung für den Menschen krebserzeugend ist (Gruppe 1), liefern epidemiologische Studien zu Krebs beim Menschen für UVA- und UVB-Strahlung von Höhensonnen nur begrenzte Hinweise auf eine krebserzeugende Wirkung. Spezielle Tandem-Basensubstitutionen (GCTTT) wurden in p53-Tumorsuppressionsgenen in Plattenepitheltumoren an sonnenexponierten Stellen beim Menschen beobachtet. Obwohl UVR in einigen experimentellen Systemen ähnliche Übergänge induzieren kann und UVB, UVA und UVC bei Versuchstieren karzinogen sind, wurden die verfügbaren mechanistischen Daten als nicht stark genug erachtet, um es der Arbeitsgruppe zu ermöglichen, UVB, UVA und UVC höher als Gruppe 2A einzustufen (IARC 1992 ). In einer nach dem Treffen veröffentlichten Studie (Kress et al. 1992) wurden CCTTT-Übergänge in p53 in UVB-induzierten Hauttumoren bei Mäusen nachgewiesen, was darauf hindeuten könnte, dass UVB auch als krebserzeugend für den Menschen einzustufen ist (Gruppe 1).
Der zweite Fall, in dem die Möglichkeit in Erwägung gezogen wurde, einen Wirkstoff in Gruppe 1 einzustufen, wenn keine ausreichenden epidemiologischen Beweise vorliegen, war 4,4´-Methylen-bis(2-Chloranilin) (MOCA). MOCA ist bei Hunden und Nagetieren krebserregend und umfassend genotoxisch. Es bindet an DNA durch Reaktion mit N-Hydroxy-MOCA, und die gleichen Addukte, die in Zielgeweben für Karzinogenität bei Tieren gebildet werden, wurden in Urothelzellen einer kleinen Anzahl exponierter Menschen gefunden. Nach langen Diskussionen über die Möglichkeit einer Hochstufung hat die Arbeitsgruppe schließlich eine Gesamtbewertung der Gruppe 2A, wahrscheinlich krebserzeugend für den Menschen, vorgenommen (IARC 1993).
Während einer kürzlich durchgeführten Bewertung von Ethylenoxid (IARC 1994b) lieferten die verfügbaren epidemiologischen Studien begrenzte Hinweise auf eine Karzinogenität beim Menschen, und Studien an Versuchstieren lieferten ausreichende Hinweise auf eine Karzinogenität. Unter Berücksichtigung der anderen relevanten Daten, dass (1) Ethylenoxid einen empfindlichen, anhaltenden, dosisabhängigen Anstieg der Häufigkeit von Chromosomenaberrationen und Schwesterchromatid-Austauschen in peripheren Lymphozyten und Mikronuklei in Knochenmarkszellen von exponierten Arbeitern induziert; (2) es wurde sowohl bei Menschen als auch bei Versuchstieren mit bösartigen Erkrankungen des lymphatischen und hämatopoetischen Systems in Verbindung gebracht; (3) es induziert eine dosisabhängige Zunahme der Häufigkeit von Hämoglobin-Addukten bei exponierten Menschen und eine dosisabhängige Zunahme der Anzahl von Addukten sowohl in DNA als auch in Hämoglobin bei exponierten Nagetieren; (4) es induziert Genmutationen und vererbbare Translokationen in Keimzellen exponierter Nagetiere; und (5) es ist ein starkes Mutagen und Klastogen auf allen phylogenetischen Ebenen; Ethylenoxid wurde als krebserzeugend für den Menschen (Gruppe 1) eingestuft.
In dem Fall, in dem die Präambel die Möglichkeit zulässt, dass ein Stoff, für den es ausreichende Beweise für die Karzinogenität bei Tieren gibt, in Gruppe 3 eingestuft werden kann (anstelle von Gruppe 2B, in die er normalerweise eingestuft würde), wenn es starke Beweise dafür gibt, dass die Mechanismus der Kanzerogenität bei Tieren beim Menschen nicht funktioniert, wurde diese Möglichkeit bisher noch von keiner Arbeitsgruppe genutzt. Eine solche Möglichkeit hätte im Fall von in Betracht gezogen werden können d-Limonen hätte es genügend Beweise für seine Karzinogenität bei Tieren gegeben, da es Daten gibt, die darauf hindeuten, dass α2-Mikroglobulin-Produktion in männlichen Rattennieren ist mit den beobachteten Nierentumoren verbunden.
Unter den vielen Chemikalien, die im Dezember 1993 von einer Ad-hoc-Arbeitsgruppe als Prioritäten nominiert wurden, tauchten einige allgemein postulierte intrinsische Wirkungsmechanismen auf oder bestimmte Klassen von Wirkstoffen wurden auf der Grundlage ihrer biologischen Eigenschaften identifiziert. Die Arbeitsgruppe empfahl, dass vorab Bewertungen zu Wirkstoffen wie Peroxisom-Proliferatoren, Fasern, Stäuben und thyreostatischen Wirkstoffen vorgenommen werden Monographien Programms sollten spezielle Ad-hoc-Gruppen einberufen werden, um den neuesten Stand der Technik zu ihren besonderen Wirkungsmechanismen zu erörtern.
Die Expositionsbeurteilung am Arbeitsplatz befasst sich mit der Identifizierung und Bewertung von Stoffen, mit denen ein Arbeiter in Kontakt kommen kann, und Expositionsindizes können so konstruiert werden, dass sie die Menge eines Stoffs widerspiegeln, der in der allgemeinen Umgebung oder in der eingeatmeten Luft vorhanden ist, sowie die Menge von Wirkstoff, der tatsächlich eingeatmet, geschluckt oder anderweitig aufgenommen wird (die Einnahme). Andere Indizes umfassen die resorbierte Wirkstoffmenge (die Aufnahme) und die Exposition am Zielorgan. Dosis ist ein pharmakologischer oder toxikologischer Begriff, der verwendet wird, um die Menge einer Substanz anzugeben, die einem Subjekt verabreicht wird. Die Dosisrate ist die Menge, die pro Zeiteinheit verabreicht wird. Die Dosis einer Arbeitsplatzexposition ist in der Praxis schwer zu bestimmen, da physikalische und biologische Prozesse wie Einatmen, Aufnahme und Verteilung eines Arbeitsstoffs im menschlichen Körper dazu führen, dass Exposition und Dosis in komplexen, nichtlinearen Beziehungen stehen. Die Ungewissheit über die tatsächliche Höhe der Exposition gegenüber Arbeitsstoffen erschwert zudem die Quantifizierung von Zusammenhängen zwischen Exposition und gesundheitlichen Auswirkungen.
Für viele berufliche Expositionen gibt es a Zeitfenster während der die Exposition oder Dosis für die Entwicklung eines bestimmten gesundheitlichen Problems oder Symptoms am relevantesten ist. Daher wäre die biologisch relevante Exposition oder Dosis diejenige Exposition, die während des relevanten Zeitfensters auftritt. Es wird angenommen, dass einige Expositionen gegenüber berufsbedingten Karzinogenen ein solches relevantes Zeitfenster der Exposition haben. Krebs ist eine Krankheit mit einer langen Latenzzeit, und daher könnte es sein, dass die Exposition, die mit der endgültigen Entwicklung der Krankheit zusammenhängt, viele Jahre vor der tatsächlichen Manifestation des Krebses stattgefunden hat. Dieses Phänomen ist kontraintuitiv, da man erwartet hätte, dass die kumulative Exposition über ein Arbeitsleben der relevante Parameter gewesen wäre. Die Exposition zum Zeitpunkt der Manifestation der Krankheit ist möglicherweise nicht von besonderer Bedeutung.
Das Expositionsmuster – kontinuierliche Exposition, intermittierende Exposition und Exposition mit oder ohne scharfe Spitzen – kann ebenfalls relevant sein. Die Berücksichtigung von Expositionsmustern ist sowohl für epidemiologische Studien als auch für Umweltmessungen wichtig, die zur Überwachung der Einhaltung von Gesundheitsstandards oder zur Umweltkontrolle im Rahmen von Kontroll- und Präventionsprogrammen verwendet werden können. Wenn zum Beispiel eine gesundheitliche Auswirkung durch Spitzenbelastungen verursacht wird, müssen diese Spitzenwerte überwacht werden können, um kontrolliert werden zu können. Eine Überwachung, die nur Daten über langfristige durchschnittliche Expositionen liefert, ist nicht sinnvoll, da die Spitzenabweichungswerte durch die Mittelwertbildung möglicherweise überdeckt werden und sicherlich nicht während ihres Auftretens kontrolliert werden können.
Die biologisch relevante Exposition oder Dosis für einen bestimmten Endpunkt ist oft nicht bekannt, weil die Aufnahme-, Aufnahme-, Verteilungs- und Ausscheidungsmuster oder die Mechanismen der Biotransformation nicht ausreichend genau verstanden werden. Sowohl die Geschwindigkeit, mit der ein Stoff in den Körper eintritt und ihn verlässt (die Kinetik), als auch die biochemischen Prozesse zum Umgang mit dem Stoff (Biotransformation) helfen dabei, die Beziehungen zwischen Exposition, Dosis und Wirkung zu bestimmen.
Umweltüberwachung ist die Messung und Bewertung von Arbeitsstoffen am Arbeitsplatz, um die Umweltbelastung und die damit verbundenen Gesundheitsrisiken zu bewerten. Biologisches Monitoring ist die Messung und Bewertung von Arbeitsstoffen oder deren Metaboliten in Geweben, Sekreten oder Exkrementen, um die Exposition zu bewerten und Gesundheitsrisiken abzuschätzen. Manchmal Biomarker, wie DNA-Addukte, werden als Expositionsmaß verwendet. Biomarker können auch auf die Mechanismen des Krankheitsprozesses selbst hinweisen, aber dies ist ein komplexes Thema, das in diesem Kapitel ausführlicher behandelt wird Biologische Überwachung und später in der Diskussion hier.
Eine Vereinfachung des Grundmodells in der Expositions-Wirkungs-Modellierung lautet wie folgt:
Belichtung Aufnahme Verteilung,
Eliminierung, UmwandlungZieldosisPhysiopathologiebewirken
Je nach Agens können Expositions-Aufnahme- und Expositions-Aufnahme-Beziehungen komplex sein. Für viele Gase lassen sich anhand der Konzentration des Arbeitsstoffes in der Luft im Laufe eines Arbeitstages und der eingeatmeten Luftmenge einfache Näherungswerte machen. Bei der Staubprobenahme hängen die Ablagerungsmuster auch von der Partikelgröße ab. Größenüberlegungen können auch zu einer komplexeren Beziehung führen. Das Kapitel Atmungssystem näher auf den Aspekt der Atemwegstoxizität ein.
Expositions- und Dosisabschätzung sind Elemente der quantitativen Risikoabschätzung. Methoden zur Bewertung von Gesundheitsrisiken bilden häufig die Grundlage, auf der Expositionsgrenzwerte für Emissionswerte von toxischen Stoffen in der Luft sowohl für Umwelt- als auch für Berufsstandards festgelegt werden. Die Gesundheitsrisikoanalyse liefert eine Schätzung der Wahrscheinlichkeit (Risiko) des Auftretens bestimmter gesundheitlicher Auswirkungen oder eine Schätzung der Anzahl der Fälle mit diesen gesundheitlichen Auswirkungen. Mittels Gesundheitsrisikoanalyse kann eine akzeptable Konzentration eines Giftstoffes in Luft, Wasser oder Lebensmitteln angegeben werden a priori gewählte akzeptable Größe des Risikos. Die quantitative Risikoanalyse hat eine Anwendung in der Krebsepidemiologie gefunden, was die starke Betonung der retrospektiven Expositionsbewertung erklärt. Aber Anwendungen ausgefeilterer Expositionsbewertungsstrategien können sowohl in der retrospektiven als auch in der prospektiven Expositionsbewertung gefunden werden, und die Prinzipien der Expositionsbewertung haben auch in Studien Anwendung gefunden, die sich auf andere Endpunkte konzentrierten, wie etwa gutartige Atemwegserkrankungen (Wegman et al. 1992; Post et al. 1994). Derzeit dominieren zwei Forschungsrichtungen. Die eine verwendet Dosisschätzungen aus Expositionsüberwachungsinformationen, die andere stützt sich auf Biomarker als Maß für die Exposition.
Expositionsüberwachung und Dosisvorhersage
Leider sind für viele Expositionen nur wenige quantitative Daten verfügbar, um das Risiko für die Entwicklung eines bestimmten Endpunkts vorherzusagen. Bereits 1924 postulierte Haber, dass die Schwere der gesundheitlichen Wirkung (H) proportional zum Produkt aus Expositionskonzentration (X) und Expositionszeit (T) ist:
H=X x T
Das so genannte Habersche Gesetz bildete die Grundlage für die Entwicklung des Konzepts, dass Expositionsmessungen mit zeitlich gewichtetem Durchschnitt (TWA) – dh über einen bestimmten Zeitraum durchgeführte und gemittelte Messungen – ein nützliches Maß für die Exposition wären. Diese Annahme über die Angemessenheit des zeitgewichteten Durchschnitts wird seit vielen Jahren in Frage gestellt. 1952 stellten Adams und Mitarbeiter fest, dass „es keine wissenschaftliche Grundlage für die Verwendung des zeitgewichteten Mittelwerts gibt, um unterschiedliche Expositionen zu integrieren …“ (in Atherly 1985). Das Problem ist, dass viele Beziehungen komplexer sind als die Beziehung, die das Habersche Gesetz darstellt. Es gibt viele Beispiele von Mitteln, bei denen die Wirkung stärker von der Konzentration als von der Zeitdauer bestimmt wird. Beispielsweise haben interessante Beweise aus Laborstudien gezeigt, dass bei Tetrachlorkohlenstoff ausgesetzten Ratten das Expositionsmuster (kontinuierlich versus intermittierend und mit oder ohne Spitzen) sowie die Dosis das beobachtete Risiko für die Entwicklung von Veränderungen des Leberenzymspiegels bei Ratten verändern können (Bogers et al. 1987). Ein weiteres Beispiel sind Bioaerosole wie das α-Amylase-Enzym, ein Teigverbesserer, der bei Beschäftigten in der Backindustrie allergische Erkrankungen hervorrufen kann (Houba et al. 1996). Es ist nicht bekannt, ob das Risiko, an einer solchen Krankheit zu erkranken, hauptsächlich von der Spitzenexposition, der durchschnittlichen Exposition oder der kumulativen Expositionshöhe bestimmt wird. (Wong 1987; Checkoway und Rice 1992). Informationen zu zeitlichen Mustern sind für die meisten Wirkstoffe nicht verfügbar, insbesondere nicht für Wirkstoffe mit chronischen Wirkungen.
Die ersten Versuche, Expositionsmuster zu modellieren und die Dosis abzuschätzen, wurden in den 1960er und 1970er Jahren von Roach (1966; 1977) veröffentlicht. Er zeigte, dass die Konzentration eines Agens am Rezeptor nach einer Exposition von unendlicher Dauer einen Gleichgewichtswert erreicht, weil die Elimination die Aufnahme des Agens ausgleicht. Bei einer achtstündigen Exposition kann ein Wert von 90 % dieses Gleichgewichtsniveaus erreicht werden, wenn die Halbwertszeit des Wirkstoffs am Zielorgan kleiner als etwa zweieinhalb Stunden ist. Dies verdeutlicht, dass bei Wirkstoffen mit kurzer Halbwertszeit die Dosis am Zielorgan durch eine Exposition von weniger als acht Stunden bestimmt wird. Die Dosis am Zielorgan ist bei Wirkstoffen mit langer Halbwertszeit eine Funktion des Produkts aus Einwirkzeit und Konzentration. Ein ähnlicher, aber ausgefeilterer Ansatz wurde von Rappaport (1985) angewandt. Er zeigte, dass die Variabilität der Exposition innerhalb eines Tages einen begrenzten Einfluss hat, wenn es um Wirkstoffe mit langen Halbwertszeiten geht. Er hat den Begriff eingeführt Dämpfung am Empfänger.
Die oben dargestellten Informationen wurden hauptsächlich verwendet, um Schlussfolgerungen zu angemessenen Mittelungszeiten für Expositionsmessungen für Konformitätszwecke zu ziehen. Seit den Veröffentlichungen von Roach ist allgemein bekannt, dass für Reizstoffe Stichproben mit kurzen Mittelungszeiten genommen werden müssen, während für Stoffe mit langen Halbwertszeiten, wie Asbest, der Langzeitdurchschnitt der kumulativen Exposition angenähert werden muss. Man sollte sich jedoch darüber im Klaren sein, dass die Dichotomisierung in Stichprobenstrategien und XNUMX-Stunden-Zeitdurchschnitts-Expositionsstrategien, wie sie in vielen Ländern für Compliance-Zwecke angenommen wird, eine äußerst grobe Übersetzung der oben diskutierten biologischen Prinzipien ist.
Ein Beispiel für die Verbesserung einer Expositionsbewertungsstrategie basierend auf pharmakokinetischen Prinzipien in der Epidemiologie findet sich in einem Artikel von Wegman et al. (1992). Sie wendeten eine interessante Strategie zur Expositionsbewertung an, indem sie kontinuierliche Überwachungsgeräte verwendeten, um die Spitzenwerte der persönlichen Staubexposition zu messen und diese mit akuten reversiblen Atemwegssymptomen in Beziehung zu setzen, die alle 15 Minuten auftreten. Ein konzeptionelles Problem bei dieser Art von Studie, das in ihrem Artikel ausführlich diskutiert wird, ist die Definition einer gesundheitsrelevanten Spitzenbelastung. Die Definition eines Peaks hängt wiederum von biologischen Erwägungen ab. Rappaport (1991) gibt zwei Voraussetzungen dafür, dass Spitzenbelastungen im Krankheitsprozess von ätiologischer Relevanz sind: (1) das Agens wird schnell aus dem Körper eliminiert und (2) es gibt eine nichtlineare Rate biologischer Schäden während einer Spitzenbelastung. Nichtlineare Raten biologischer Schäden können mit Änderungen der Aufnahme zusammenhängen, die wiederum mit Expositionsniveaus, Wirtsanfälligkeit, Synergie mit anderen Expositionen, Beteiligung anderer Krankheitsmechanismen bei höheren Expositionen oder Schwellenwerten für Krankheitsprozesse zusammenhängen.
Diese Beispiele zeigen auch, dass pharmakokinetische Ansätze anderswohin führen können als zu Dosisschätzungen. Die Ergebnisse der pharmakokinetischen Modellierung können auch verwendet werden, um die biologische Relevanz bestehender Expositionsindizes zu untersuchen und neue gesundheitsrelevante Expositionsbewertungsstrategien zu entwerfen.
Die pharmakokinetische Modellierung der Exposition kann auch Schätzungen der tatsächlichen Dosis am Zielorgan liefern. Beispielsweise wurden für Ozon, ein akutes Reizgas, Modelle entwickelt, die die Gewebekonzentration in den Atemwegen als Funktion der durchschnittlichen Ozonkonzentration im Luftraum der Lunge in einem bestimmten Abstand von der Luftröhre, dem Radius, vorhersagen der Atemwege, die durchschnittliche Luftgeschwindigkeit, die effektive Dispersion und der Ozonfluss von der Luft zur Lungenoberfläche (Menzel 1987; Miller und Overton 1989). Solche Modelle können verwendet werden, um die Ozondosis in einem bestimmten Bereich der Atemwege abhängig von Ozonkonzentrationen und Atmungsmustern in der Umgebung vorherzusagen.
In den meisten Fällen basieren Schätzungen der Zieldosis auf Informationen über das zeitliche Expositionsmuster, den beruflichen Werdegang und pharmakokinetische Informationen über Aufnahme, Verteilung, Elimination und Umwandlung des Wirkstoffs. Der gesamte Prozess kann durch einen mathematisch lösbaren Satz von Gleichungen beschrieben werden. Oft sind Informationen zu pharmakokinetischen Parametern für den Menschen nicht verfügbar, und Parameterschätzungen auf der Grundlage von Tierversuchen müssen verwendet werden. Inzwischen gibt es mehrere Beispiele für die Verwendung von pharmakokinetischen Expositionsmodellen zur Generierung von Dosisschätzungen. Die ersten Verweise auf die Modellierung von Expositionsdaten in Dosisschätzungen in der Literatur gehen auf die Arbeit von Jahr (1974) zurück.
Obwohl Dosisschätzungen im Allgemeinen nicht validiert sind und nur begrenzte Anwendung in epidemiologischen Studien gefunden haben, wird erwartet, dass die neue Generation von Expositions- oder Dosisindizes zu optimalen Expositions-Wirkungs-Analysen in epidemiologischen Studien führt (Smith 1985, 1987). Ein Problem, das bei der pharmakokinetischen Modellierung noch nicht angegangen wurde, besteht darin, dass große Unterschiede zwischen den Spezies in der Kinetik toxischer Wirkstoffe bestehen und daher die Auswirkungen der intra-individuellen Variation der pharmakokinetischen Parameter von Interesse sind (Droz 1992).
Biomonitoring und Biomarker der Exposition
Die biologische Überwachung bietet eine Dosisschätzung und wird daher der Umweltüberwachung oft als überlegen angesehen. Die intraindividuelle Variabilität von Biomonitoring-Indizes kann jedoch beträchtlich sein. Um eine akzeptable Abschätzung der Dosis eines Arbeiters abzuleiten, müssen wiederholte Messungen durchgeführt werden, und manchmal kann der Messaufwand größer werden als bei der Umweltüberwachung.
Dies zeigt eine interessante Studie über Arbeiter, die Boote aus glasfaserverstärktem Kunststoff herstellen (Rappaport et al. 1995). Die Variabilität der Styrolbelastung wurde durch wiederholte Messung von Styrol in Luft bewertet. Styrol in der ausgeatmeten Luft von exponierten Arbeitern wurde überwacht, ebenso wie Schwesterchromatid-Austausche (SCEs). Sie zeigten, dass eine epidemiologische Studie, die Styrol in der Luft als Expositionsmaß verwendet, hinsichtlich der Anzahl der erforderlichen Messungen effizienter wäre als eine Studie, die die anderen Expositionsindizes verwendet. Für Styrol in Luft waren drei Wiederholungen erforderlich, um die langfristige durchschnittliche Exposition mit einer gegebenen Genauigkeit abzuschätzen. Für Styrol in der ausgeatmeten Luft waren vier Wiederholungen pro Arbeiter erforderlich, während für die SCE 20 Wiederholungen erforderlich waren. Die Erklärung für diese Beobachtung ist das Signal-Rausch-Verhältnis, bestimmt durch die Expositionsvariabilität von Tag zu Tag und zwischen Arbeitern, das für Styrol in der Luft günstiger war als für die beiden Biomarker der Exposition. Obwohl die biologische Relevanz eines bestimmten Expositionssurrogats möglicherweise optimal ist, kann die Leistung in einer Expositions-Wirkungs-Analyse aufgrund eines begrenzten Signal-Rausch-Verhältnisses dennoch schlecht sein, was zu Fehlklassifizierungsfehlern führt.
Droz (1991) wendete pharmakokinetische Modelle an, um die Vorteile von Expositionsbewertungsstrategien auf der Grundlage von Luftproben im Vergleich zu Biomonitoring-Strategien in Abhängigkeit von der Halbwertszeit des Wirkstoffs zu untersuchen. Er zeigte, dass das biologische Monitoring auch stark von der biologischen Variabilität beeinflusst wird, die nicht mit der Variabilität des toxikologischen Tests zusammenhängt. Er schlug vor, dass es keinen statistischen Vorteil bei der Verwendung biologischer Indikatoren gibt, wenn die Halbwertszeit des betrachteten Mittels kleiner als etwa zehn Stunden ist.
Auch wenn man sich aufgrund der Variabilität der Messgröße eher für die Messung der Umweltexposition anstelle eines biologischen Indikators einer Wirkung entscheiden könnte, lassen sich zusätzliche Argumente für die Wahl eines Biomarkers finden, auch wenn dies zu einem größeren Messaufwand führen würde, wie z wenn eine erhebliche dermale Exposition vorliegt. Bei Stoffen wie Pestiziden und einigen organischen Lösungsmitteln kann die dermale Exposition von größerer Bedeutung sein als die Exposition über die Luft. Ein Expositions-Biomarker würde diesen Expositionsweg einschließen, während die Messung der dermalen Exposition komplex und die Ergebnisse nicht leicht interpretierbar sind (Boleij et al. 1995). Frühe Studien unter Landarbeitern, die „Pads“ zur Beurteilung der Hautbelastung verwendeten, zeigten bemerkenswerte Verteilungen von Pestiziden über die Körperoberfläche, abhängig von den Aufgaben des Arbeiters. Da jedoch nur wenige Informationen zur Hautaufnahme vorliegen, können Expositionsprofile noch nicht zur Abschätzung einer inneren Dosis verwendet werden.
Auch in der Krebsepidemiologie können Biomarker erhebliche Vorteile haben. Wenn ein Biomarker ein früher Marker für die Wirkung ist, könnte seine Verwendung zu einer Verkürzung des Nachbeobachtungszeitraums führen. Obwohl Validierungsstudien erforderlich sind, könnten Biomarker der Exposition oder der individuellen Anfälligkeit zu aussagekräftigeren epidemiologischen Studien und genaueren Risikoabschätzungen führen.
Zeitfensteranalyse
Parallel zur Entwicklung der pharmakokinetischen Modellierung haben Epidemiologen neue Ansätze in der Datenanalysephase untersucht, wie z. B. die „Zeitrahmenanalyse“, um relevante Expositionszeiträume mit Endpunkten in Beziehung zu setzen und Auswirkungen zeitlicher Muster bei der Exposition oder Expositionsspitzen in der beruflichen Krebsepidemiologie zu implementieren (Checkoway und Reis 1992). Konzeptionell ist diese Technik mit der pharmakokinetischen Modellierung verwandt, da die Beziehung zwischen Exposition und Ergebnis optimiert wird, indem unterschiedliche Expositionszeiträume, Expositionsmuster und Expositionsniveaus gewichtet werden. Bei der pharmakokinetischen Modellierung wird angenommen, dass diese Gewichte eine physiologische Bedeutung haben, und sie werden im Voraus geschätzt. Bei der Zeitrahmenanalyse werden die Gewichte anhand statistischer Kriterien aus den Daten geschätzt. Beispiele für diesen Ansatz werden von Hodgson und Jones (1990) gegeben, die die Beziehung zwischen Radongasbelastung und Lungenkrebs in einer Kohorte britischer Zinnminenarbeiter analysierten, und von Seixas, Robins und Becker (1993), die die Beziehung zwischen Staub analysierten Exposition und Gesundheit der Atemwege in einer Kohorte von US-Kohlenarbeitern. Eine sehr interessante Studie, die die Relevanz der Zeitfensteranalyse unterstreicht, ist die von Peto et al. (1982).
Sie zeigten, dass die Mesotheliom-Sterblichkeitsraten proportional zu einer gewissen Funktion der Zeit seit der ersten Exposition und der kumulativen Exposition in einer Kohorte von Isolierarbeitern zu sein schienen. Die Zeit seit der ersten Exposition war von besonderer Relevanz, da diese Variable eine Annäherung an die Zeit war, die eine Faser benötigt, um von ihrem Ablageort in der Lunge zum Brustfell zu wandern. Dieses Beispiel zeigt, wie die Kinetik der Ablagerung und Migration die Risikofunktion maßgeblich bestimmt. Ein potenzielles Problem bei der Zeitrahmenanalyse besteht darin, dass sie detaillierte Informationen über Expositionszeiträume und Expositionsniveaus erfordert, was ihre Anwendung in vielen Studien über die Folgen chronischer Krankheiten behindert.
Abschließende Bemerkungen
Zusammenfassend sind die zugrunde liegenden Prinzipien der pharmakokinetischen Modellierung und der Zeitrahmen- oder Zeitfensteranalyse weithin anerkannt. Das Wissen auf diesem Gebiet wurde hauptsächlich zur Entwicklung von Strategien zur Expositionsbewertung verwendet. Eine weitergehende Nutzung dieser Ansätze erfordert jedoch einen erheblichen Forschungsaufwand und muss entwickelt werden. Die Zahl der Bewerbungen ist daher noch begrenzt. Relativ einfache Anwendungen, wie die Entwicklung optimaler Strategien zur Expositionsbewertung in Abhängigkeit vom Endpunkt, haben eine breitere Anwendung gefunden. Ein wichtiges Thema bei der Entwicklung von Expositions- oder Wirkungs-Biomarkern ist die Validierung dieser Indizes. Oft wird angenommen, dass ein messbarer Biomarker das Gesundheitsrisiko besser vorhersagen kann als herkömmliche Methoden. Leider untermauern nur sehr wenige Validierungsstudien diese Annahme.
Gruppe 1 – Karzinogen für den Menschen (74)
Agenten und Gruppen von Agenten
Aflatoxine [1402-68-2] (1993)
4-Aminobiphenyl [92-67-1]
Arsen [7440-38-2] und Arsenverbindungen2
Asbest [1332-21-4]
Azathioprin [446-86-6]
Benzol [71-43-2]
Benzidin [92-87-5]
Beryllium [7440-41-7] und Berylliumverbindungen (1993)3
Bis(2-chloroethyl)-2-naphthylamine (Chlornaphazine)[494-03-1]
Bis(chlormethyl)ether [542-88-1] und Chlormethylmethylether [107-30-2] (technisch)
1,4-Butandioldimethansulfonat (Myleran) [55-98-1]
Cadmium [7440-43-9] und Cadmiumverbindungen (1993)3
Chlorambucil [305-03-3]
1-(2-Chloroethyl)-3-(4-methylcyclohexyl)-1-nitrosourea (Methyl-CCNU; Semustine) [13909-09-6]
Chrom[VI]-Verbindungen (1990)3
Ciclosporin [79217-60-0] (1990)
Cyclophosphamide [50-18-0] [6055-19-2]
Diethylstilboöstrol [56-53-1]
Erionit [66733-21-9]
Ethylenoxid4 [75-21-8] (1994)
Helicobacter pylori (Infektion mit) (1994)
Hepatitis-B-Virus (chronische Infektion mit) (1993)
Hepatitis-C-Virus (chronische Infektion mit) (1993)
Humanes Papillomavirus Typ 16 (1995)
Humanes Papillomavirus Typ 18 (1995)
Humanes T-Zell-lymphotropes Virus Typ I (1996)
Melphalan [148-82-3]
8-Methoxypsoralen (Methoxsalen) [298-81-7] plus UV-A-Strahlung
MOPP und andere kombinierte Chemotherapien einschließlich Alkylanzien
Senfgas (Schwefelsenf) [505-60-2]
2-Naphthylamin [91-59-8]
Nickelverbindungen (1990)3
Östrogenersatztherapie
Östrogene, nichtsteroidal2
Östrogene, steroidal2
Opisthorchis viverrini (Infektion mit) (1994)
Orale Kontrazeptiva, kombiniert5
Orale Kontrazeptiva, sequentiell
Radon [10043-92-2] und seine Zerfallsprodukte (1988)
Schistosoma haematobium (Infektion mit) (1994)
Kieselsäure [14808-60-7] kristallin (inhaliert in Form von Quarz oder Cristobalit aus beruflichen Quellen)
Sonnenstrahlung (1992)
Talk, der asbestiforme Fasern enthält
Tamoxifen [10540-29-1]6
Thiotepa [52-24-4] (1990)
Treosulfan [299-75-2]
Vinylchlorid [75-01-4]
Mischungen
Alkoholische Getränke (1988)
Analgetische Mischungen, die Phenacetin enthalten
Betelpfand mit Tabak
Kohlenteerplätze [65996-93-2]
Kohlenteere [8007-45-2]
Mineralöle, unbehandelt und mild behandelt
Gesalzener Fisch (chinesischer Stil) (1993)
Schieferöle [68308-34-9]
Ruß
Tabakwaren, rauchfrei
Tabakrauch
Holzstaub
Expositionsumstände
Aluminiumproduktion
Auramin, Herstellung von
Herstellung und Reparatur von Stiefeln und Schuhen
Kohlevergasung
Cola-Produktion
Möbel- und Möbelbau
Hämatitabbau (Untertage) mit Radonbelastung
Eisen- und Stahlgießen
Isopropanolherstellung (Starksäureverfahren)
Magenta, Herstellung von (1993)
Maler (Ausbildung als A) (1989)
Gummiindustrie
Schwefelsäurehaltige Nebel starker anorganischer Säuren (berufliche Exposition gegenüber) (1992)
Gruppe 2A – Wahrscheinlich krebserregend für den Menschen (56)
Agenten und Gruppen von Agenten
Acrylamid [79-06-1] (1994)8
Acrylnitril [107-13-1]
Adriamycin8 [23214-92-8]
Androgene (anabole) Steroide
Azacitidin8 [320-67-2] (1990)
Benz[a]Anthracen8 [56-55-3]
Farbstoffe auf Benzidinbasis8
Benzo[a]Pyren8 [50-32-8]
Bischlorethylnitrosoharnstoff (BCNU) [154-93-8]
1,3-Butadiene [106-99-0] (1992)
Captafol [2425-06-1] (1991)
Chloramphenicol [56-75-7] (1990)
1-(2-Chlorethyl)-3-cyclohexyl-1-nitrosoharnstoff8 (CCNU)[13010-47-4]
p-Chlor-o-Toluidin [95-69-2] und seine Salze starker Säuren (1990)3
Chlorzotocin8 [54749-90-5] (1990)
Cisplatin8 [15663-27-1]
Clonorchis sinensis (Infektion mit)8 (1994)
Dibenz[Ah]Anthracen8 [53-70-3]
Diethylsulfat [64-67-5] (1992)
Dimethylcarbamoylchlorid8 [79-44-7]
Dimethylsulfat8 [77-78-1]
Epichlorhydrin8 [106-89-8]
Ethylendibromid8 [106-93-4]
N-Ethyl-N-Nitrosoharnstoff8 [759-73-9]
Formaldehyd [50-00-0])
IQ8 (2-Amino-3-methylimidazo[4,5-f]Chinolin) [76180-96-6] (1993)
5-Methoxypsoralen8 [484-20-8]
4,4´-Methylenbis(2-chloranilin) (MOCA)8 [101-14-4] (1993)
N-Methyl-N´-nitro-N-nitrosoguanidin8 (MNNG) [70-25-7]
N-Methyl-N-nitrosoharnstoff8 [684-93-5]
Stickstoffsenf [51-75-2]
N-Nitrosodiethylamin8 [55-18-5]
N-Nitrosodimethylamin 8 [62-75-9]
Phenacetin [62-44-2]
Procarbazinhydrochlorid8 [366-70-1]
Tetrachlorethylen [127-18-4]
Trichlorethylen [79-01-6]
Styrol-7,8-oxid8 [96-09-3] (1994)
Tris(2,3-dibrompropyl)phosphat8 [126-72-7]
Ultraviolette Strahlung A8 (1992)
UV-Strahlung B8 (1992)
Ultraviolette Strahlung C8 (1992)
Vinylbromid6 [593-60-2]
Vinylfluorid [75-02-5]
Mischungen
Kreosot [8001-58-9]
Dieselmotor-Auspuff (1989)
Heißer Kumpel (1991)
Arsenfreie Insektizide (berufliche Expositionen beim Versprühen und Ausbringen) (1991)
Polychlorierte Biphenyle [1336-36-3]
Expositionsumstände
Kunstglas, Glasbehälter und Pressware (Herstellung von) (1993)
Friseur oder Barbier (berufliche Exposition als a) (1993)
Erdölraffination (berufliche Expositionen in) (1989)
Höhensonne und Solarium (Nutzung) (1992)
Gruppe 2B – Möglicherweise krebserzeugend für den Menschen (225)
Agenten und Gruppen von Agenten
A–α–C (2-Amino-9H-Pyrido[2,3-b]Indol) [26148-68-5]
Acetaldehyd [75-07-0]
Acetamid [60-35-5]
AF-2 [2-(2-Furyl)-3-(5-nitro-2-furyl)acrylamide] [3688-53-7]
Aflatoxin M1 [6795-23-9] (1993)
p-Aminoazobenzol [60-09-3]
o-Aminoazotoluol [97-56-3]
2-Amino-5-(5-nitro-2-furyl)-1,3,4-thiadiazole [712-68-5]
Amitrol [61-82-5]
o-Anisidin [90-04-0]
Antimontrioxid [1309-64-4] (1989)
Aramit [140-57-8]
Atrazin9 [1912-24-9] (1991)
Auramin [492-80-8] (technische Qualität)
Azaserin [115-02-6]
Benzo[b]Fluoranthen [205-99-2]
Benzo[j]Fluoranthen [205-82-3]
Benzo[k]Fluoranthen [207-08-9]
Benzylviolett 4B [1694-09-3]
Bleomycine [11056-06-7]
Adlerfarn
Bromdichlormethan [75-27-4] (1991)
Butylhydroxyanisol (BHA) [25013-16-5]
β-Butyrolacton [3068-88-0]
Kaffeesäure [331-39-5] (1993)
Rußextrakte
Tetrachlorkohlenstoff [56-23-5]
Keramische Fasern
Chlordan [57-74-9] (1991)
Chlordecon (Kepon) [143-50-0]
Chlorensäure [115-28-6] (1990)
α-chlorierte Toluole (Benzylchlorid, Benzalchlorid, Benzotrichlorid)
p-Chloranilin [106-47-8] (1993)
Chloroform [67-66-3]
1-Chloro-2-methylpropene [513-37-1]
Chlorphenole
Chlorphenoxy-Herbizide
4-Chlor-o-Phenylendiamin [95-83-0]
CI Säurerot 114 [6459-94-5] (1993)
CI Basisrot 9 [569-61-9] (1993)
CI Direktblau 15 [2429-74-5] (1993)
Zitrusrot Nr. 2 [6358-53-8]
Kobalt [7440-48-4] und Kobaltverbindungen3 (1991)
p-Cresidin [120-71-8]
Cycasin [14901-08-7]
Dacarbazin [4342-03-4]
Dantron (Chrysazin; 1,8-Dihydroxyanthrachinon) [117-10-2] (1990)
Daunomycin [20830-81-3]
DDT´-DDT, 50-29-3] (1991)
N,N´-Diacetylbenzidin [613-35-4]
2,4-Diaminoanisol [615-05-4]
4,4´-Diaminodiphenylether [101-80-4]
2,4-Diaminotoluol [95-80-7]
Dibenz[Ah]Acridin [226-36-8]
Dibenz[ein,j]Acridin [224-42-0]
7H-Dibenzo[c, g]Carbazol [194-59-2]
Dibenzo[a, e]Pyren [192-65-4]
Dibenzo[Ah]Pyren [189-64-0]
Dibenzo[ein, ich]Pyren [189-55-9]
Dibenzo[a, l]Pyren [191-30-0]
1,2-Dibromo-3-chloropropane [96-12-8]
p-Dichlorbenzol [106-46-7]
3,3´-Dichlorbenzidin [91-94-1]
3,3´-Dichloro-4,4´-diaminodiphenyl ether [28434-86-8]
1,2-Dichlorethan [107-06-2]
Dichlormethan (Methylenchlorid) [75-09-2]
1,3-Dichlorpropen [542-75-6] (technische Qualität)
Dichlorvos [62-73-7] (1991)
Diepoxybutan [1464-53-5]
Di(2-ethylhexyl)phthalat [117-81-7]
1,2-Diethylhydrazin [1615-80-1]
Diglycidylresorcinether [101-90-6]
Dihydrosafrol [94-58-6]
Diisopropylsulfat [2973-10-6] (1992)
3,3´-Dimethoxybenzidin (o-Dianisidin) [119-90-4]
p-Dimethylaminoazobenzol [60-11-7]
trans-2-[(Dimethylamino)methylimino]-5-[2-(5-nitro-2-furyl)-vinyl]-1,3,4-oxadiazole [25962-77-0]
2,6-Dimethylanilin (2,6-Xylidin) [87-62-7] (1993)
3,3´-Dimethylbenzidin (o-Tolidin) [119-93-7]
Dimethylformamid [68-12-2] (1989)
1,1-Dimethylhydrazin [57-14-7]
1,2-Dimethylhydrazin [540-73-8]
3,7-Dinitrofluoranthen [105735-71-5]
3,9-Dinitrofluoranthen [22506-53-2]
1,6-Dinitropyrene [42397-64-8] (1989)
1,8-Dinitropyrene [42397-65-9] (1989)
2,4-Dinitrotoluol [121-14-2]
2,6-Dinitrotoluol [606-20-2]
1,4-Dioxan [123-91-1]
Blau zerstreuen 1 [2475-45-8] (1990)
Ethylacrylat [140-88-5]
Ethylenthioharnstoff [96-45-7]
Ethylmethansulfonat [62-50-0]
2-(2-Formylhydrazino)-4-(5-nitro-2-furyl)thiazole [3570-75-0]
Glaswolle (1988)
Glu-P-1 (2-Amino-6-methyldipyrido[1,2-a:3´,2´-d]Imidazol)[67730-11-4]
Glu-P-2 (2-Aminodipyrido[1,2-a:3´,2´-d]Imidazol) [67730-10-3]
Glycidaldehyd [765-34-4]
Griseofulvin [126-07-8]
HC Blau Nr. 1 [2784-94-3] (1993)
Heptachlor [76-44-8] (1991)
Hexachlorbenzol [118-74-1]
Hexachlorcyclohexane
Hexamethylphosphoramid [680-31-9]
Humanes Immunschwächevirus Typ 2 (Infektion mit) (1996)
Humane Papillomaviren: einige andere Typen als 16, 18, 31 und 33 (1995)
Hydrazin [302-01-2]
Indeno[1,2,3-cd]pyren [193-39-5]
Eisen-Dextran-Komplex [9004-66-4]
Isopren [78-79-5] (1994)
Lasiocarpin [303-34-4]
Blei [7439-92-1] und Bleiverbindungen, anorganisch3
Magenta [632-99-5] (enthält CI Basic Red 9) (1993)
MeA-α-C (2-Amino-3-methyl-9H-pyrido[2,3-b]Indol)[68006-83-7]
Medroxyprogesteronacetat [71-58-9]
MeIQ (2-Amino-3,4-dimethylimidazo[4,5-f]Chinolin)[77094-11-2] (1993)
MeIQx (2-Amino-3,8-dimethylimidazo[4,5-f]quinoxaline) [77500-04-0] (1993)
Merphalan [531-76-0]
2-Methylaziridin (Propylenimin) [75-55-8]
Methylazoxymethanolacetat [592-62-1]
5-Methylchrysen [3697-24-3]
4,4´-Methylene bis(2-methylaniline) [838-88-0]
4,4´-Methylendianilin [101-77-9]
Methylquecksilberverbindungen (1993)3
Methylmethansulfonat [66-27-3]
2-Methyl-1-nitroanthrachinon [129-15-7] (unsichere Reinheit)
N-Methyl-N-nitrosourethan [615-53-2]
Methylthiouracil [56-04-2]
Metronidazol [443-48-1]
Mirex [2385-85-5]
Mitomycin C [50-07-7]
Monocrotalin [315-22-0]
5-(Morpholinomethyl)-3-[(5-nitrofurfurylidene)amino]-2-oxazolidinone [3795-88-8]
Nafenopin [3771-19-5]
Nickel, metallisch [7440-02-0] (1990)
Niridazol [61-57-4]
Nitrilotriessigsäure [139-13-9] und ihre Salze (1990)3
5-Nitroacenaphthen [602-87-9]
2-Nitroanisole [91-23-6] (1996)
Nitrobenzol [98-95-3] (1996)
6-Nitrochrysene [7496-02-8] (1989)
Nitrofen [1836-75-5], technische Qualität
2-Nitrofluorene [607-57-8] (1989)
1-[(5-Nitrofurfurylidene)amino]-2-imidazolidinone [555-84-0]
N-[4-(5-Nitro-2-furyl)-2-thiazolyl]acetamide [531-82-8]
Stickstofflost-N-oxid [126-85-2]
2-Nitropropan [79-46-9]
1-Nitropyrene [5522-43-0] (1989)
4-Nitropyrene [57835-92-4] (1989)
N-Nitrosodi-n-Butylamin [924-16-3]
N-Nitrosodiethanolamin [1116-54-7]
N-Nitrosodi-n-Propylamin [621-64-7]
3-(N-Nitrosomethylamino)propionitril [60153-49-3]
4-(N-Nitrosomethylamino)-1-(3-pyridyl)-1-butanone (NNK) [64091-91-4]
N-Nitrosomethylethylamin [10595-95-6]
N-Nitrosomethylvinylamin [4549-40-0]
N-Nitrosomorpholin [59-89-2]
N'-Nitrosonornicotin [16543-55-8]
N-Nitrosopiperidin [100-75-4]
N-Nitrosopyrrolidin [930-55-2]
N-Nitrososarcosin [13256-22-9]
Ochratoxin A [303-47-9] (1993)
Ölorange SS [2646-17-5]
Oxazepam [604-75-1] (1996)
Palygorskit (Attapulgit) [12174-11-7] (lange Fasern, >>5 Mikrometer) (1997)
Panfuran S (enthält Dihydroxymethylfuratrizin [794-93-4])
Pentachlorphenol [87-86-5] (1991)
Phenazopyridinhydrochlorid [136-40-3]
Phenobarbital [50-06-6]
Phenoxybenzaminhydrochlorid [63-92-3]
Phenylglycidylether [122-60-1] (1989)
Phenytoin [57-41-0]
PhIP (2-Amino-1-methyl-6-phenylimidazo[4,5-b]Pyridin) [105650-23-5] (1993)
Ponceau MX [3761-53-3]
Ponceau 3R [3564-09-8]
Kaliumbromat [7758-01-2]
Progestine
1,3-Propansulton [1120-71-4]
β-Propiolacton [57-57-8]
Propylenoxid [75-56-9] (1994)
Propylthiouracil [51-52-5]
Steinwolle (1988)
Saccharin [81-07-2]
Safrol [94-59-7]
Schistosoma japonicum (Infektion mit) (1994)
Schlackenwolle (1988)
Natrium o-Phenylphenat [132-27-4]
Sterigmatocystin [10048-13-2]
Streptozotocin [18883-66-4]
Styrol [100-42-5] (1994)
Sulfallat [95-06-7]
Tetranitromethan [509-14-8] (1996)
Thioacetamid [62-55-5]
4,4´-Thiodianilin [139-65-1]
Thioharnstoff [62-56-6]
Toluoldiisocyanate [26471-62-5]
o-Toluidin [95-53-4]
Trichlormethin (Trimustinhydrochlorid) [817-09-4] (1990)
Trp-P-1 (3-Amino-1,4-dimethyl-5H-pyrido [4,3-b]Indol) [62450-06-0]
Trp-P-2 (3-Amino-1-methyl-5H-pyrido[4,3-b]indole) [62450-07-1]
Trypanblau [72-57-1]
Uracil-Senf [66-75-1]
Urethan [51-79-6]
Vinylacetat [108-05-4] (1995)
4-Vinylcyclohexene [100-40-3] (1994)
4-Vinylcyclohexendiepoxid [107-87-6] (1994)
Mischungen
Bitumen [8052-42-4], Extrakte aus Dampf- und Luftraffination
Carrageenan [9000-07-1], abgebaut
Chlorierte Paraffine mit mittlerer Kohlenstoffkettenlänge C12 und mittlerem Chlorierungsgrad ca. 60 % (1990)
Kaffee (Harnblase)9 (1991)
Dieselkraftstoff, Marine (1989)
Motorabgase, Benzin (1989)
Heizöle, Rückstand (schwer) (1989)
Benzin (1989)
Eingelegtes Gemüse (traditionell in Asien) (1993)
Polybromierte Biphenyle [Firemaster BP-6, 59536-65-1]
Toxaphen (polychlorierte Camphene) [8001-35-2]
Toxine abgeleitet von Fusarium moniliforme (1993)
Schweißrauch (1990)
Expositionsumstände
Zimmerei und Tischlerei
Chemische Reinigung (berufliche Expositionen in) (1995)
Druckverfahren (berufliche Aufnahmen in) (1996)
Textilindustrie (Arbeit in) (1990)
Gruppe 3 – Nicht klassifizierbar hinsichtlich Karzinogenität für den Menschen (480)
Agenten und Gruppen von Agenten
Acridinorange [494-38-2]
Acriflaviniumchlorid [8018-07-3]
Acrolein [107-02-8]
Acrylsäure [79-10-7]
Acrylfasern
Acrylnitril-Butadien-Styrol-Copolymere
Actinomycin D [50-76-0]
Aldicarb [116-06-3] (1991)
Aldrin [309-00-2]
Allylchlorid [107-05-1]
Allylisothiocyanat [57-06-7]
Allylisovalerat [2835-39-4]
Amaranth [915-67-3]
5-Aminoacenaphthen [4657-93-6]
2-Aminoanthrachinon [117-79-3]
p-Aminobenzoesäure [150-13-0]
1-Amino-2-methylanthraquinone [82-28-0]
2-Amino-4-nitrophenol [99-57-0] (1993)
2-Amino-5-nitrophenol [121-88-0] (1993)
4-Amino-2-nitrophenol [119-34-6]
2-Amino-5-nitrothiazole [121-66-4]
11-Aminoundecansäure [2432-99-7]
Ampicillin [69-53-4] (1990)
Anästhetika, flüchtig
Angelicin [523-50-2] plus ultraviolette A-Strahlung
Anilin [62-53-3]
p-Anisidin [104-94-9]
Anthanthren [191-26-4]
Anthracen [120-12-7]
Anthranilsäure [118-92-3]
Antimontrisulfid [1345-04-6] (1989)
Apholat [52-46-0]
p-Aramidfibrillen [24938-64-5] (1997)
Aurothioglucose [12192-57-3]
Aziridin [151-56-4]
2-(1-Aziridinyl)ethanol [1072-52-2]
Aziridylbenzochinon [800-24-8]
Azobenzol [103-33-3]
Benz[a]Acridin [225-11-6]
Benz[c]Acridin [225-51-4]
Benzo[ghi]Fluoranthen [203-12-3]
Benzo[a]Fluoren [238-84-6]
Benzo[b]Fluoren [243-17-4]
Benzo[c]Fluoren [205-12-9]
Benzo[ghi]Perylen [191-24-2]
Benzo[c]Phenanthren [195-19-7]
Benzo[e]Pyren [192-97-2]
p-Benzochinondioxim [105-11-3]
Benzoylchlorid [98-88-4]
Benzoylperoxid [94-36-0]
Benzylacetat [140-11-4]
Bis(1-aziridinyl)morpholinophosphinsulfid [2168-68-5]
Bis(2-chlorethyl)ether [111-44-4]
1,2-Bis(chlormethoxy)ethan [13483-18-6]
1,4-Bis(chlormethoxymethyl)benzol [56894-91-8]
Bis(2-chloro-1-methylethyl)ether [108-60-1]
Bis(2,3-epoxycyclopentyl)ether [2386-90-5] (1989)
Bisphenol-A-diglycidylether [1675-54-3] (1989)
Bisulfite (1992)
Blauer VRS [129-17-9]
Brilliant Blue FCF, Dinatriumsalz [3844-45-9]
Bromchloracetonitril [83463-62-1] (1991)
Bromethan [74-96-4] (1991)
Bromoform [75-25-2] (1991)
n-Butylacrylat [141-32-2]
Butylhydroxytoluol (BHT) [128-37-0]
Butylbenzylphthalat [85-68-7]
γ-Butyrolacton [96-48-0]
Koffein [58-08-2] (1991)
Cantharidin [56-25-7]
Kapitän [133-06-2]
Carbaryl [63-25-2]
Carbazol [86-74-8]
3-Carbethoxypsoralen [20073-24-9]
Carmoisin [3567-69-9]
Carrageenan [9000-07-1], nativ
Katechol [120-80-9]
Chloral [75-87-6] (1995)
Chloralhydrat [302-17-0] (1995)
Chlordimeform [6164-98-3]
Chlorierte Dibenzodioxine (außer TCDD)
Chloriertes Trinkwasser (1991)
Chloracetonitril [107-14-2] (1991)
Chlorbenzilat [510-15-6]
Chlordibrommethan [124-48-1] (1991)
Chlordifluormethan [75-45-6]
Chlorethan [75-00-3] (1991)
Chlorfluormethan [593-70-4]
3-Chloro-2-methylpropene [563-47-3] (1995)
4-Chlor-m-Phenylendiamin [5131-60-2]
Chloronitrobenzenes [88-73-3; 121-73-3; 100-00-5] (1996)
Chloropren [126-99-8]
Chlorpropham [101-21-3]
Chloroquin [54-05-7]
Chlorthalonil [1897-45-6]
2-Chloro-1,1,1-trifluoroethane [75-88-7]
Cholesterin [57-88-5]
Chrom[III]-Verbindungen (1990)
Chrom [7440-47-3], metallisch (1990)
Chrysen [218-01-9]
Chrysoidin [532-82-1]
CI Säureorange 3 [6373-74-6] (1993)
Cimetidin [51481-61-9] (1990)
Zimtanthranilat [87-29-6]
CI Pigmentrot 3 [2425-85-6] (1993)
Citrinin [518-75-2]
Clofibrat [637-07-0]
Clomifencitrat [50-41-9]
Kohlenstaub (1997)
Kupfer-8-hydroxychinolin [10380-28-6]
Coronen [191-07-1]
Cumarin [91-64-5]
m-Cresidin [102-50-1]
Crotonaldehyd [4170-30-3] (1995)
Cyclamate [Natriumcyclamat, 139-05-9]
Cyclochlorotin [12663-46-6]
Cyclohexanon [108-94-1] (1989)
Cyclopenta[cd]Pyren [27208-37-3]
D & C Rot Nr. 9 [5160-02-1] (1993)
Dapson [80-08-0]
Decabromdiphenyloxid [1163-19-5] (1990)
Deltamethrin [52918-63-5] (1991)
Diacetylaminoazotoluol [83-63-6]
Dialate [2303-16-4]
1,2-Diamino-4-nitrobenzene [99-56-9]
1,4-Diamino-2-nitrobenzene [5307-14-2] (1993)
2,5-Diaminotoluol [95-70-5]
Diazepam [439-14-5]
Diazomethan [334-88-3]
Dibenz[a, c]Anthracen [215-58-7]
Dibenz[ein,j]Anthracen [224-41-9]
Dibenzo-p-Dioxin (1997)
Dibenzo[a, e]Fluoranthen [5385-75-1]
Dibenzo[h, zuerst]Pentaphen [192-47-2]
Dibromacetonitril [3252-43-5] (1991)
Dichloressigsäure [79-43-6] (1995)
Dichloracetonitril [3018-12-0] (1991)
Dichloracetylen [7572-29-4]
o-Dichlorbenzol [95-50-1]
trans-1,4-Dichlorbuten [110-57-6]
2,6-Dichlor-para-phenylendiamin [609-20-1]
1,2-Dichlorpropan [78-87-5]
Dicofol [115-32-2]
Dieldrin [60-57-1]
Di(2-ethylhexyl)adipat [103-23-1]
Dihydroxymethylfuratrizin [794-93-4]
Dimethoxan [828-00-2]
3,3´-Dimethoxybenzidine-4,4´-diisocyanate [91-93-0]
p-Dimethylaminoazobenzoldiazonatriumsulfonat[140-56-7]
4,4´-Dimethylangelicin [22975-76-4] plus UV-Bestrahlung
4,5´-Dimethylangelicin [4063-41-6] plus ultraviolettes A
N,N-Dimethylanilin [121-69-7] (1993)
Dimethylhydrogenphosphit [868-85-9] (1990)
1,4-Dimethylphenanthren [22349-59-3]
1,3-Dinitropyrene [75321-20-9] (1989)
Dinitrosopentamethylentetramin [101-25-7]
2,4´-Diphenyldiamin [492-17-1]
Gelb verteilen 3 [2832-40-8] (1990)
Disulfiram [97-77-8]
Dithranol [1143-38-0]
Doxefazepam [40762-15-0] (1996)
Droloxifen [82413-20-5] (1996)
Dulcin [150-69-6]
Endrin [72-20-8]
Eosin [15086-94-9]
1,2-Epoxybutane [106-88-7] (1989)
3,4-Epoxy-6-methylcyclohexylmethyl-3,4-epoxy-6-methylcyclohexane carboxylate [141-37-7]
cis-9,10-Epoxystearinsäure [2443-39-2]
Estazolam [29975-16-4] (1996)
Ethionamid [536-33-4]
Ethylen [74-85-1] (1994)
Ethylensulfid [420-12-2]
2-Ethylhexylacrylat [103-11-7] (1994)
Ethylselenac [5456-28-0]
Ethyltellurac [20941-65-5]
Eugenol [97-53-0]
Evansblau [314-13-6]
Fast Green FCF [2353-45-9]
Fenvalerat [51630-58-1] (1991)
Ferbam [14484-64-1]
Eisenoxid [1309-37-1]
Fluometuron [2164-17-2]
Fluoranthen [206-44-0]
Fluoren [86-73-7]
Leuchtstofflampen (1992)
Fluoride (anorganisch, im Trinkwasser verwendet)
5-Fluoruracil [51-21-8]
Furazolidon [67-45-8]
Furfural [98-01-1] (1995)
Furosemid (Frusemid) [54-31-9] (1990)
Gemfibrozil [25812-30-0] (1996)
Glasfäden (1988)
Glycidyloleat [5431-33-4]
Glycidylstearat [7460-84-6]
Guineagrün B [4680-78-8]
Gyromitrin [16568-02-8]
Hämatit [1317-60-8]
HC Blau Nr. 2 [33229-34-4] (1993)
HC Rot Nr. 3 [2871-01-4] (1993)
HC Gelb Nr. 4 [59820-43-8] (1993)
Hepatitis-D-Virus (1993)
Hexachlorbutadien [87-68-3]
Hexachlorethan [67-72-1]
Hexachlorophen [70-30-4]
Humanes T-Zell-lymphotropes Virus Typ II (1996)
Hycanthonmesylat [23255-93-8]
Hydralazin [86-54-4]
Salzsäure [7647-01-0] (1992)
Hydrochlorothiazid [58-93-5] (1990)
Wasserstoffperoxid [7722-84-1]
Hydrochinon [123-31-9]
4-Hydroxyazobenzol [1689-82-3]
8-Hydroxychinolin [148-24-3]
Hydroxysenkirkin [26782-43-4]
Hypochloritsalze (1991)
Eisen-Dextrin-Komplex [9004-51-7]
Eisensorbitol-Citronensäure-Komplex [1338-16-5]
Isatidin [15503-86-3]
Isonicotinsäurehydrazid (Isoniazid) [54-85-3]
Isophosphamid [3778-73-2]
Isopropanol [67-63-0]
Isopropylöle
Isosafrol [120-58-1]
Jakobine [6870-67-3]
Kämpferol [520-18-3]
Lauroylperoxid [105-74-8]
Blei, Organo [75-74-1], [78-00-2]
Hellgrün SF [5141-20-8]
d-Limonen [5989-27-5] (1993)
Luteoskyrin [21884-44-6]
Malathion [121-75-5]
Maleinsäurehydrazid [123-33-1]
Malonaldehyd [542-78-9]
Maneb [12427-38-2]
Mannomustindihydrochlorid [551-74-6]
Medphalan [13045-94-8]
Melamin [108-78-1]
6-Mercaptopurin [50-44-2]
Quecksilber [7439-97-6] und anorganische Quecksilberverbindungen (1993)
Metabisulfite (1992)
Methotrexat [59-05-2]
Methoxychlor [72-43-5]
Methylacrylat [96-33-3]
5-Methylangelicin [73459-03-7] plus UV-A-Strahlung
Methylbromid [74-83-9]
Methylcarbamat [598-55-0]
Methylchlorid [74-87-3]
1-Methylchrysen [3351-28-8]
2-Methylchrysen [3351-32-4]
3-Methylchrysen [3351-31-3]
4-Methylchrysen [3351-30-2]
6-Methylchrysen [1705-85-7]
N-Methyl-N,4-Dinitrosoanilin [99-80-9]
4,4´-Methylenbis(N,N-Dimethyl)benzolamin [101-61-1]
4,4´-Methylendiphenyldiisocyanat [101-68-8]
2-Methylfluoranthen [33543-31-6]
3-Methylfluoranthen [1706-01-0]
Methylglyoxal [78-98-8] (1991)
Methyliodid [74-88-4]
Methylmethacrylat [80-62-6] (1994)
N-Methylolacrylamid [90456-67-0] (1994)
Methylparathion [298-00-0]
1-Methylphenanthren [832-69-9]
7-Methylpyrido[3,4-c]psoralen [85878-62-2]
Methylrot [493-52-7]
Methylselenac [144-34-3]
Modacrylfasern
Monuron [150-68-5] (1991)
Morpholin [110-91-8] (1989)
Moschus-Ambrette [83-66-9] (1996)
Moschus-Xylol [81-15-2] (1996)
1,5-Naphthalindiamin [2243-62-1]
1,5-Naphthalindiisocyanat [3173-72-6]
1-Naphthylamin [134-32-7]
1-Naphthylthioharnstoff (ANTU) [86-88-4]
Nithiazid [139-94-6]
5-Nitro-o-anisidin [99-59-2]
9-Nitroanthracen [602-60-8]
7-Nitrobenz[a]Anthracen [20268-51-3] (1989
6-Nitrobenzo[a]Pyren [63041-90-7] (1989)
4-Nitrobiphenyl [92-93-3]
3-Nitrofluoranthen [892-21-7]
Nitrofural (Nitrofurazon) [59-87-0] (1990)
Nitrofurantoin [67-20-9] (1990)
1-Nitronaphthalene [86-57-7] (1989)
2-Nitronaphthalene [581-89-5] (1989)
3-Nitroperylene [20589-63-3] (1989)
2-Nitropyrene [789-07-1] (1989)
N´-Nitrosoanabasin [37620-20-5]
N-Nitrosoanatabin [71267-22-6]
N-Nitrosodiphenylamin [86-30-6]
p-Nitrosodiphenylamin [156-10-5]
N-Nitrosofolsäure [29291-35-8]
N-Nitrosoguvacin [55557-01-2]
N-Nitrosoguvacolin [55557-02-3]
N-Nitrosohydroxyprolin [30310-80-6]
3-(N-Nitrosomethylamino)propionaldehyd [85502-23-4]
4-(N-Nitrosomethylamino)-4-(3-pyridyl)-1-butanal (NNA) [64091-90-3]
N-Nitrosoprolin [7519-36-0]
5-Nitro-o-Toluidin [99-55-8] (1990)
Nitrovin [804-36-4]
Nylon 6 [25038-54-4]
Östradiol-Senf [22966-79-6]
Östrogen-Gestagen-Ersatztherapie
Opisthorchis felineus (Infektion mit) (1994)
Orange I [523-44-4]
Orange G [1936-15-8]
Oxyphenbutazon [129-20-4]
Palygorskit (Attapulgit) [12174-11-7] (kurze Fasern, <<5 Mikrometer) (1997)
Paracetamol (Acetaminophen) [103-90-2] (1990)
Parasorbinsäure [10048-32-5]
Paratheon [56-38-2]
Patulin [149-29-1]
Penicillinsäure [90-65-3]
Pentachlorethan [76-01-7]
Permethrin [52645-53-1] (1991)
Perylen [198-55-0]
Petasitenin [60102-37-6]
Phenanthren [85-01-8]
Phenelzinsulfat [156-51-4]
Phenicarbazid [103-03-7]
Phenol [108-95-2] (1989)
Phenylbutazon [50-33-9]
m-Phenylendiamin [108-45-2]
p-Phenylendiamin [106-50-3]
N-Phenyl-2-naphthylamin [135-88-6]
o-Phenylphenol [90-43-7]
Picloram [1918-02-1] (1991)
Piperonylbutoxid [51-03-6]
Polyacrylsäure [9003-01-4]
Polychloriertes Dibenzo-p-Dioxine (andere als 2,3,7,8-Tetrachlordibenzo-p-Dioxin) (1997)
Polychlorierte Dibenzofurane (1997)
Polychloropren [9010-98-4]
Polyethylen [9002-88-4]
Polymethylenpolyphenylisocyanat [9016-87-9]
Polymethylmethacrylat [9011-14-7]
Polypropylen [9003-07-0]
Polystyrol [9003-53-6]
Polytetrafluorethylen [9002-84-0]
Polyurethanschäume [9009-54-5]
Polyvinylacetat [9003-20-7]
Polyvinylalkohol [9002-89-5]
Polyvinylchlorid [9002-86-2]
Polyvinylpyrrolidon [9003-39-8]
Ponceau SX [4548-53-2]
Kalium-bis(2-hydroxyethyl)dithiocarbamat[23746-34-1]
Prazepam [2955-38-6] (1996)
Prednimustin [29069-24-7] (1990)
Prednison [53-03-2]
Proflavinsalze
Pronetalolhydrochlorid [51-02-5]
Propham [122-42-9]
n-Propylcarbamat [627-12-3]
Propylen [115-07-1] (1994)
Ptaquilosid [87625-62-5]
Pyren [129-00-0]
Pyrido[3,4-c]psoralen [85878-62-2]
Pyrimethamin [58-14-0]
Quercetin [117-39-5]
p-Chinon [106-51-4]
Quintozen (Pentachlornitrobenzol) [82-68-8]
Reserpin [50-55-5]
Resorcin [108-46-3]
Retrorsin [480-54-6]
Rhodamin B [81-88-9]
Rhodamin 6G [989-38-8]
Riddelliin [23246-96-0]
Rifampicin [13292-46-1]
Ripazepam [26308-28-1] (1996)
Rugulosin [23537-16-8]
Verzuckertes Eisenoxid [8047-67-4]
Scharlachrot [85-83-6]
Schistosoma mansoni (Infektion mit) (1994)
Selen [7782-49-2] und Selenverbindungen
Semicarbazidhydrochlorid [563-41-7]
Seneciphyllin [480-81-9]
Senkirkin [2318-18-5]
Sepiolith [15501-74-3]
Shikimisäure [138-59-0]
Kieselsäure [7631-86-9], amorph
Simazin [122-34-9] (1991)
Natriumchlorit [7758-19-2] (1991)
Natriumdiethyldithiocarbamat [148-18-5]
Spironolacton [52-01-7]
Styrol-Acrylnitril-Copolymere [9003-54-7]
Styrol-Butadien-Copolymere [9003-55-8]
Bernsteinsäureanhydrid [108-30-5]
Sudan I [842-07-9]
Sudan II [3118-97-6]
Sudan III [85-86-9]
Sudanbraun RR [6416-57-5]
Sudanrot 7B [6368-72-5]
Sulfafurazol (Sulfisoxazol) [127-69-5]
Sulfamethoxazol [723-46-6]
Sulfite (1992)
Schwefeldioxid [7446-09-5] (1992)
Sonnenuntergangsgelb FCF [2783-94-0]
Symphytin [22571-95-5]
Talkum [14807-96-6], ohne Asbestfasern
Gerbsäure [1401-55-4] und Gerbstoffe
Temazepam [846-50-4] (1996)
2,2´,5,5´-Tetrachlorobenzidine [15721-02-5]
1,1,1,2-Tetrachlorethan [630-20-6]
1,1,2,2-Tetrachlorethan [79-34-5]
Tetrachlorvinphos [22248-79-9]
Tetrafluorethylen [116-14-3]
Tetrakis(hydroxymethyl)phosphoniumsalze (1990)
Theobromin [83-67-0] (1991)
Theophyllin [58-55-9] (1991)
Thiouracil [141-90-2]
Thiram [137-26-8] (1991)
Titandioxid [13463-67-7] (1989)
Toluol [108-88-3] (1989)
Toremifen [89778-26-7] (1996)
Toxine abgeleitet von Fusarium von Gräsern, F. culmorum undF. krummwellense (1993)
Toxine abgeleitet von Fusarium sporotrichioides (1993)
Trichlorfon [52-68-6]
Trichloressigsäure [76-03-9] (1995)
Trichloracetonitril [545-06-2] (1991)
1,1,1-Trichlorethan [71-55-6]
1,1,2-Trichloroethane [79-00-5] (1991)
Triethylenglycoldiglycylether [1954-28-5]
Trifluralin [1582-09-8] (1991)
4,4´,6-Trimethylangelicin [90370-29-9] plus UV-Strahlung
2,4,5-Trimethylanilin [137-17-7]
2,4,6-Trimethylanilin [88-05-1]
4,5´,8-Trimethylpsoralen [3902-71-4]
2,4,6-Trinitrotoluene [118-96-7] (1996)
Triphenylen [217-59-4]
Tris(aziridinyl)-p-Benzochinon (Triaziquon) [68-76-8]
Tris(1-aziridinyl)phosphinoxid [545-55-1]
2,4,6-Tris(1-aziridinyl)-s-triazine [51-18-3]
Tris(2-chloroethyl)phosphate [115-96-8] (1990)
1,2,3-Tris(chlormethoxy)propan [38571-73-2]
Tris(2-methyl-1-aziridinyl)phosphine oxide [57-39-6]
Bottichgelb 4 [128-66-5] (1990)
Vinblastinsulfat [143-67-9]
Vincristinsulfat [2068-78-2]
Vinylacetat [108-05-4]
Vinylchlorid-Vinylacetat-Copolymere [9003-22-9]
Vinylidenchlorid [75-35-4]
Vinylidenchlorid-Vinylchlorid-Copolymere [9011-06-7]
Vinylidenfluorid [75-38-7]
N-Vinyl-2-pyrrolidon [88-12-0]
Vinyltoluol [25013-15-4] (1994)
Wollastonit [13983-17-0]
Xylol [1330-20-7] (1989)
2,4-Xylidin [95-68-1]
2,5-Xylidin [95-78-3]
Gelb AB [85-84-7]
Gelber OB [131-79-3]
Zectran [315-18-4]
Zeolithe [1318-02-1] außer Erionit (Klinoptilolith, Phillipsit, Mordenit, nichtfaseriger japanischer Zeolith, synthetische Zeolithe) (1997)
Zineb [12122-67-7]
Ziram [137-30-4] (1991)
Mischungen
Betelquid, ohne Tabak
Bitumen [8052-42-4], dampfgereinigt, Crackrückstände und luftgereinigt
Rohöl [8002-05-9] (1989)
Dieselkraftstoffe, Destillat (leicht) (1989)
Heizöle, Destillat (leicht) (1989)
Düsentreibstoff (1989)
Kumpel (1990)
Mineralöle, hochraffiniert
Erdöllösungsmittel (1989)
Druckfarben (1996)
Tee (1991)
Terpenpolychlorate (Strobane®) [8001-50-1]
Expositionsumstände
Flachglas und Spezialglas (Herstellung) (1993)
Haarfärbemittel (persönlicher Gebrauch) (1993)
Herstellung von Lederwaren
Ledergerbung und -verarbeitung
Holz- und Sägeindustrie (einschließlich Holzeinschlag)
Lackherstellung (berufliche Exposition in) (1989)
Zellstoff- und Papierherstellung
Gruppe 4 – wahrscheinlich nicht krebserzeugend für den Menschen (1)
Caprolactam [105-60-2]
Die Geschichte der Arbeitsplatzgrenzwerte
In den letzten 40 Jahren haben viele Organisationen in zahlreichen Ländern Arbeitsplatzgrenzwerte (OELs) für luftgetragene Schadstoffe vorgeschlagen. Die Grenzwerte oder Richtlinien, die sowohl in den Vereinigten Staaten als auch in den meisten anderen Ländern nach und nach am weitesten akzeptiert wurden, sind diejenigen, die jährlich von der American Conference of Governmental Industrial Hygienists (ACGIH) herausgegeben werden und als Schwellenwerte (TLVs) bezeichnet werden (LaNier 1984 ; Cook 1986; ACGIH 1994).
Die Nützlichkeit der Festlegung von Arbeitsplatzgrenzwerten für potenziell schädliche Arbeitsstoffe wurde seit ihrer Einführung wiederholt nachgewiesen (Stokinger 1970; Cook 1986; Doull 1994). Der Beitrag von OELs zur Vorbeugung oder Minimierung von Krankheiten ist heute allgemein anerkannt, aber viele Jahre lang gab es solche Grenzwerte nicht, und selbst wenn, wurden sie oft nicht eingehalten (Cook 1945; Smyth 1956; Stokinger 1981; LaNier 1984; Koch 1986).
Bereits im 1700. Jahrhundert war bekannt, dass luftgetragene Stäube und Chemikalien Krankheiten und Verletzungen verursachen können, aber die Konzentrationen und Expositionsdauern, bei denen dies zu erwarten war, waren unklar (Ramazinni XNUMX).
Wie von Baetjer (1980) berichtet: „Anfang dieses Jahrhunderts, als Dr. Alice Hamilton ihre bemerkenswerte Karriere im Bereich der Berufskrankheiten begann, standen ihr weder Luftproben noch Standards zur Verfügung, noch waren sie notwendig. Eine einfache Beobachtung der Arbeitsbedingungen und der Krankheit und Todesfälle der Arbeiter bewies ohne weiteres, dass schädliche Expositionen bestanden. Bald jedoch wurde die Notwendigkeit der Festlegung von Standards für eine sichere Exposition offensichtlich.“
Die frühesten Bestrebungen zur Festlegung eines AGW richteten sich auf Kohlenmonoxid, das Giftgas, dem mehr Menschen beruflich ausgesetzt sind als jedem anderen (chronologische Entwicklung der AGW siehe Abbildung 1. Die Arbeiten von Max Gruber am Hygienic Institute in München wurde 1883 veröffentlicht. Der Aufsatz beschrieb die Exposition von zwei Hühnern und zwölf Kaninchen gegenüber bekannten Konzentrationen von Kohlenmonoxid für bis zu 47 Stunden über drei Tage hinweg und stellte fest, dass „die Grenze der schädlichen Wirkung von Kohlenmonoxid aller Wahrscheinlichkeit nach bei einer Konzentration liegt von 500 parts per million, aber bestimmt (nicht weniger als) 200 parts per million.“ Gruber hatte zu diesem Schluss auch selbst Kohlenmonoxid eingeatmet und berichtete an zwei aufeinanderfolgenden Tagen nach jeweils drei Stunden von keinerlei Symptomen oder unangenehmen Empfindungen Konzentrationen von 210 ppm und 240 ppm (Cook 1986).
Abbildung 1. Chronologie der beruflichen Expositionswerte (OELS).
Die früheste und umfangreichste Reihe von Tierversuchen zu Expositionsgrenzwerten wurden von KB Lehmann und anderen unter seiner Leitung durchgeführt. Sie berichteten in einer 50-jährigen Publikationsreihe über Untersuchungen an Ammoniak- und Chlorwasserstoffgas, chlorierten Kohlenwasserstoffen und einer Vielzahl anderer chemischer Substanzen (Lehmann 1886; Lehmann und Schmidt-Kehl 1936).
Kobert (1912) veröffentlichte eine der früheren Tabellen der akuten Expositionsgrenzwerte. Konzentrationen für 20 Substanzen wurden unter den Überschriften aufgeführt: (1) schnell tödlich für Mensch und Tier, (2) gefährlich in 0.5 bis einer Stunde, (3) 0.5 bis eine Stunde ohne ernsthafte Störungen und (4) nur minimale Symptome beobachtet. Schrenk (1947) stellt in seiner Arbeit „Auslegung zulässiger Grenzwerte“ fest, dass die „Werte für Salzsäure, Cyanwasserstoff, Ammoniak, Chlor und Brom, wie sie unter der Überschrift „nur minimale Symptome nach mehreren Stunden“ in der vorangegangenen Kobert-Arbeit angegeben sind, übereinstimmen mit Werten, wie sie in den heutigen MAC-Tabellen für gemeldete Expositionen üblicherweise akzeptiert werden“. Die Werte für einige der giftigeren organischen Lösungsmittel, wie Benzol, Tetrachlorkohlenstoff und Schwefelkohlenstoff, übertrafen jedoch die derzeit verwendeten Werte bei weitem (Cook 1986).
Eine der ersten aus den Vereinigten Staaten stammenden Grenzwerttabellen wurde vom US Bureau of Mines veröffentlicht (Fieldner, Katz und Kenney 1921). Obwohl der Titel dies nicht andeutet, handelt es sich bei den 33 aufgeführten Stoffen um solche, die am Arbeitsplatz vorkommen. Cook (1986) bemerkte auch, dass die meisten Expositionsgrenzwerte in den 1930er Jahren, mit Ausnahme von Stäuben, auf ziemlich kurzen Tierversuchen basierten. Eine bemerkenswerte Ausnahme war die Studie über chronische Benzolexposition von Leonard Greenburg vom US Public Health Service, die unter der Leitung eines Ausschusses des National Safety Council (NSC 1926) durchgeführt wurde. Aus dieser Arbeit wurde eine akzeptable Exposition für den Menschen auf Basis von Langzeit-Tierversuchen abgeleitet.
Laut Cook (1986) basierten die vor 1920 festgelegten zulässigen Grenzwerte für die Staubexposition auf der Exposition von Arbeitern in den südafrikanischen Goldminen, wo der Staub aus Bohrarbeiten einen hohen Gehalt an kristallinem freiem Siliziumdioxid aufwies. 1916 wurde eine Expositionsgrenze von 8.5 Millionen Partikeln pro Kubikfuß Luft (mpcff) für den Staub mit einem Quarzgehalt von 80 bis 90 % festgelegt (Phthisis Prevention Committee 1916). Später wurde das Niveau auf 5 mpcff gesenkt. Cook berichtete auch, dass in den Vereinigten Staaten von Higgins und Mitarbeitern nach einer Studie in den Zink- und Bleiminen im Südwesten von Missouri im Jahr 1917 Standards für Staub empfohlen wurden, die ebenfalls auf der Exposition von Arbeitern basierten Staub mit hohem Quarzgehalt lag bei 1930 mpcff, deutlich höher als in späteren Staubstudien des US Public Health Service festgestellt wurde. 12 erließ das Arbeitsministerium der UdSSR einen Erlass, der die maximal zulässigen Konzentrationen für XNUMX industrielle Giftstoffe enthielt.
Die umfassendste Liste von Arbeitsplatzgrenzwerten bis 1926 umfasste 27 Stoffe (Sayers 1927). 1935 veröffentlichten Sayers und Dalle Valle physiologische Reaktionen auf fünf Konzentrationen von 37 Substanzen, wobei die fünfte die maximal zulässige Konzentration für längere Exposition war. Lehmann und Flury (1938) und Bowditch et al. (1940) veröffentlichten Arbeiten, die Tabellen mit einem einzigen Wert für wiederholte Expositionen gegenüber jeder Substanz präsentierten.
Viele der von Lehmann entwickelten Expositionsgrenzwerte wurden in eine Monographie aufgenommen, die erstmals 1927 von Henderson und Haggard (1943) und wenig später von Flury und Zernik veröffentlicht wurde Schädliche Gase (1931). Laut Cook (1986) galt dieses Buch bis zum Band II des XNUMX. Jahrhunderts als maßgebliches Nachschlagewerk über die Wirkung schädlicher Gase, Dämpfe und Stäube am Arbeitsplatz Pattys Arbeitshygiene und Toxikologie (1949) erschienen.
Die ersten Normenlisten für chemische Belastungen in der Industrie, die als maximal zulässige Konzentrationen (MACs) bezeichnet werden, wurden 1939 und 1940 erstellt (Baetjer 1980). Sie stellten einen Konsens der Meinung der American Standard Association und einer Reihe von Industriehygienikern dar, die 1938 die ACGIH gegründet hatten. Diese „vorgeschlagenen Standards“ wurden 1943 von James Sterner veröffentlicht. Ein Ausschuss des ACGIH trat Anfang 1940 zusammen, um mit der Aufgabe zu beginnen, sichere Expositionsniveaus gegenüber Chemikalien am Arbeitsplatz zu ermitteln, indem alle Daten zusammengetragen wurden, die das Ausmaß der Exposition gegenüber einem Giftstoff mit der Wahrscheinlichkeit einer schädlichen Wirkung in Beziehung setzen würden (Stokinger 1981; Lanier 1984). Die erste Reihe von Werten wurde 1941 von diesem Komitee veröffentlicht, das sich aus Warren Cook, Manfred Boditch (angeblich der erste von der Industrie angestellte Hygieniker in den Vereinigten Staaten), William Fredrick, Philip Drinker, Lawrence Fairhall und Alan Dooley zusammensetzte (Stokinger 1981 ).
1941 entwickelte ein Komitee (mit der Bezeichnung Z-37) der American Standards Association, das später zum American National Standards Institute wurde, seinen ersten Standard von 100 ppm für Kohlenmonoxid. Bis 1974 hatte das Komitee separate Bulletins für 33 Expositionsstandards für giftige Stäube und Gase herausgegeben.
Auf der Jahrestagung des ACGIH im Jahr 1942 legte der neu ernannte Unterausschuss für Grenzwerte in seinem Bericht eine Tabelle mit 63 toxischen Substanzen mit den „maximal zulässigen Konzentrationen atmosphärischer Schadstoffe“ aus Listen vor, die von den verschiedenen staatlichen Arbeitshygieneeinheiten bereitgestellt wurden. Der Bericht enthält die Aussage: „Die Tabelle ist nicht als empfohlene sichere Konzentration zu verstehen. Das Material wird kommentarlos präsentiert“ (Cook 1986).
1945 wurde von Cook eine Liste von 132 industriellen atmosphärischen Schadstoffen mit maximal zulässigen Konzentrationen veröffentlicht, einschließlich der damals aktuellen Werte für sechs Bundesstaaten sowie von Bundesbehörden als Leitfaden für die Bekämpfung von Berufskrankheiten vorgelegten Werten und maximal zulässigen Konzentrationen, die am besten unterstützt schienen durch die Hinweise auf Originaluntersuchungen (Cook 1986).
Auf der Jahrestagung des ACGIH 1946 legte das Subcommittee on Threshold Limits seinen zweiten Bericht mit den Werten von 131 Gasen, Dämpfen, Stäuben, Dämpfen und Nebeln und 13 Mineralstäuben vor. Die Werte wurden aus der Liste zusammengestellt, die 1942 vom Unterausschuss gemeldet wurde, aus der Liste, die von Warren Cook in veröffentlicht wurde Arbeitsmedizin (1945) und aus veröffentlichten Werten des Z-37-Ausschusses der American Standards Association. Das Komitee betonte, dass die „Liste der MAC-Werte vorgelegt wird … mit der definitiven Vereinbarung, dass sie einer jährlichen Überarbeitung unterzogen wird“.
Bestimmungsgemäße Verwendung von OELs
Die ACGIH-TLVs und die meisten anderen OELs, die in den Vereinigten Staaten und einigen anderen Ländern verwendet werden, sind Grenzwerte, die sich auf Stoffkonzentrationen in der Luft beziehen und Bedingungen darstellen, unter denen „man annimmt, dass fast alle Arbeitnehmer Tag für Tag wiederholt ohne gesundheitliche Auswirkungen exponiert werden können“. (ACGIH 1994). (Siehe Tabelle 1). In einigen Ländern ist der OEL auf eine Konzentration festgelegt, die praktisch jeden schützt. Es ist wichtig zu erkennen, dass im Gegensatz zu einigen Expositionsgrenzwerten für Luftschadstoffe, kontaminiertes Wasser oder Lebensmittelzusatzstoffe, die von anderen Berufsgruppen oder Aufsichtsbehörden festgelegt wurden, die Exposition gegenüber dem TLV nicht unbedingt Unbehagen oder Verletzungen für alle, die exponiert sind, verhindert (Adkins et al . 1990). Der ACGIH hat vor langer Zeit erkannt, dass aufgrund der großen Bandbreite individueller Anfälligkeit ein kleiner Prozentsatz von Arbeitnehmern bei einigen Stoffen bei Konzentrationen an oder unter dem Grenzwert Beschwerden empfinden kann und dass ein kleinerer Prozentsatz von einer Verschlechterung einer Vorerkrankung ernsthafter betroffen sein kann. bestehenden Zustand oder durch Entwicklung einer Berufskrankheit (Cooper 1973; ACGIH 1994). Dies wird in der Einleitung zur Jahresbroschüre des ACGIH deutlich gemacht Grenzwerte für chemische Stoffe und physikalische Einwirkungen und biologische Expositionsindizes (ACGIH 1994).
Tabelle 1. Arbeitsplatzgrenzwerte (OELs) in verschiedenen Ländern (Stand 1986)
Land/Provinz |
Art der Norm |
Argentina |
OELs sind im Wesentlichen die gleichen wie die der ACGIH TLVs von 1978. Der Hauptunterschied zur ACGIH-Liste besteht darin, dass für die 144 Stoffe (von insgesamt 630), für die ACGIH keine STELs auflistet, die für die argentinischen TWAs verwendeten Werte auch unter dieser Überschrift eingetragen werden. |
Australien |
Der National Health and Medical Research Council (NHMRC) verabschiedete 1990 eine überarbeitete Ausgabe des Arbeitsschutzleitfadens Threshold Limit Values (91-1992). Die OELs haben in Australien keinen Rechtsstatus, es sei denn, sie wurden ausdrücklich durch Bezugnahme in das Gesetz aufgenommen. Die ACGIHTLVs werden in Australien als Anhang zu den Arbeitsschutzleitfäden veröffentlicht, die mit den ACGIH-Revisionen in ungeraden Jahren überarbeitet wurden. |
Österreich |
Die vom Sachverständigenausschuss der Arbeitnehmerschutzkommission zur Bewertung von MAK-Werten (Höchstzulässigkeitskonzentration) in Zusammenarbeit mit der Allgemeinen Unfallverhütungsanstalt der BG Chemie empfohlenen Werte werden vom Bundesministerium für Sozialverwaltung als verbindlich angesehen. Sie werden von der Arbeitsaufsichtsbehörde gemäß dem Arbeitsschutzgesetz angewendet. |
Belgien |
Die Verwaltung für Hygiene und Arbeitsmedizin des Ministeriums für Beschäftigung und Arbeit verwendet die TLVs des ACGIH als Richtlinie. |
Brasil |
Die TLVs der ACGIH werden seit 1978 als Grundlage für das Arbeitsschutzrecht Brasiliens verwendet. Da die brasilianische Arbeitswoche in der Regel 48 Stunden beträgt, wurden die Werte der ACGIH nach einer dafür entwickelten Formel angepasst. Die ACGIH-Liste wurde nur für die damals landesweit geltenden Luftverunreinigungen übernommen. Das Arbeitsministerium hat die Grenzwerte mit der Festlegung von Werten für zusätzliche Schadstoffe gemäß den Empfehlungen der Fundacentro-Stiftung für Arbeitssicherheit und -medizin aktualisiert. |
Kanada (und Provinzen) |
Jedes Bundesland hat seine eigenen Vorschriften: |
Alberta |
OELs unterliegen dem Arbeitsschutzgesetz, der Verordnung über chemische Gefahren, die den Arbeitgeber verpflichtet sicherzustellen, dass die Arbeitnehmer nicht über die Grenzwerte hinaus exponiert werden. |
British Columbia |
Die Industrial Health and Safety Regulations legen gesetzliche Anforderungen für den größten Teil der Industrie von British Columbia fest, die sich auf die aktuelle Liste der TLVs für atmosphärische Schadstoffe beziehen, die von der ACGIH veröffentlicht wurde. |
Manitoba |
Für die Gesetzgebung und Verwaltung der AGW ist die Abteilung Umwelt und Arbeitssicherheit zuständig. Die derzeit zur Interpretation des Gesundheitsrisikos verwendeten Leitlinien sind die ACGIH-TLVs, mit der Ausnahme, dass Karzinogene „so weit wie vernünftigerweise praktikabel“ mit einem Null-Expositionswert versehen werden. |
New Brunswick |
Die anwendbaren Standards sind diejenigen, die in der neuesten ACGIH-Ausgabe veröffentlicht wurden, und im Falle eines Verstoßes ist es die zum Zeitpunkt des Verstoßes veröffentlichte Ausgabe, die die Einhaltung vorschreibt. |
Nordwest-Territorien |
Die Sicherheitsabteilung der Northwest Territories des Justiz- und Dienstleistungsministeriums regelt die Arbeitssicherheit für nichtstaatliche Angestellte gemäß der neuesten Ausgabe der ACGIH TLVs. |
Neuschottland |
Die Liste der OELs ist die gleiche wie die des ACGIH, wie sie 1976 veröffentlicht wurde, und ihre nachfolgenden Änderungen und Überarbeitungen. |
Ontario |
Vorschriften für eine Reihe gefährlicher Stoffe werden im Rahmen des Arbeitsschutzgesetzes durchgesetzt, die jeweils in einer separaten Broschüre veröffentlicht werden, die die zulässige Expositionshöhe und Codes für Atemschutzgeräte, Techniken zur Messung von Konzentrationen in der Luft und medizinische Überwachungsansätze enthält. |
Quebec |
Die zulässigen Expositionsniveaus ähneln den ACGIH-TLVs, und die Einhaltung der zulässigen Expositionsniveaus für Luftverunreinigungen am Arbeitsplatz ist erforderlich. |
Chile |
Die Höchstkonzentration von elf Stoffen, die akute, schwere oder tödliche Wirkungen hervorrufen können, darf keinen Augenblick überschritten werden. Die Werte im Chile-Standard sind die der ACGIH-TLVs, auf die aufgrund der 0.8-Stunden-Woche ein Faktor von 48 angewendet wird. |
Dänemark |
OELs beinhalten Werte für 542 chemische Substanzen und 20 Partikel. Diese dürfen als zeitlich gewichtete Mittelwerte gesetzlich nicht überschritten werden. Daten des ACGIH werden bei der Erstellung der dänischen Standards verwendet. Etwa 25 Prozent der Werte weichen von denen der ACGIH ab, wobei fast alle etwas strenger sind. |
Ecuador |
Ecuador hat keine Liste zulässiger Expositionsniveaus in seine Gesetzgebung aufgenommen. Die TLVs des ACGIH dienen als Leitfaden für eine gute industrielle Hygienepraxis. |
Finnland |
OELs sind definiert als Konzentrationen, die zumindest für einige Arbeitnehmer bei Langzeitexposition als gefährlich angesehen werden. Während der ACGIH die Philosophie vertritt, dass fast alle Arbeitnehmer Stoffen unterhalb des TLV-Wertes ohne nachteilige Wirkung ausgesetzt werden können, vertritt Finnland den Standpunkt, dass bei Expositionen über dem Grenzwert gesundheitsschädliche Auswirkungen auftreten können. |
Deutschland |
Der MAK-Wert ist „die maximal zulässige Konzentration einer in der Luft innerhalb eines Arbeitsbereichs vorhandenen chemischen Verbindung (als Gas, Dampf, Feinstaub), die nach heutigem Kenntnisstand im Allgemeinen weder die Gesundheit des Arbeitnehmers beeinträchtigt noch zu einer übermäßigen Belästigung führt . Unter diesen Bedingungen kann die Exposition über einen täglichen Zeitraum von acht Stunden wiederholt und von langer Dauer sein, was einer durchschnittlichen Arbeitswoche von 40 Stunden entspricht (42 Stunden pro Woche im Durchschnitt über vier aufeinanderfolgende Wochen für Unternehmen mit vier Arbeitsschichten). - Wissenschaftlich fundiert Kriterien des Gesundheitsschutzes und nicht deren technische oder wirtschaftliche Machbarkeit herangezogen werden.“ |
Irland |
Üblicherweise werden die neuesten TLVs des ACGIH verwendet. Die ACGIH-Liste wird jedoch nicht in die nationalen Gesetze oder Vorschriften aufgenommen. |
Niederlande |
MAC-Werte werden weitgehend der Liste des ACGIH, sowie der Bundesrepublik Deutschland und NIOSH entnommen. Die MAK ist definiert als „diejenige Konzentration in der Luft am Arbeitsplatz, die nach heutigem Kenntnisstand auch nach wiederholter Langzeitexposition bis hin zum gesamten Arbeitsleben im Allgemeinen die Gesundheit der Beschäftigten und ihrer Nachkommen nicht beeinträchtigt.“ |
Philippinen |
Es werden die TLVs von 1970 des ACGIH verwendet, mit Ausnahme von 50 ppm für Vinylchlorid und 0.15 mg/m(3) für Blei, anorganische Verbindungen, Rauch und Staub. |
Russische Föderation |
Die ehemalige UdSSR hat viele ihrer Grenzen mit dem Ziel festgelegt, jede Möglichkeit für sogar reversible Auswirkungen auszuschließen. Solche subklinischen und vollständig reversiblen Reaktionen auf Expositionen am Arbeitsplatz wurden bisher als zu restriktiv angesehen, um in den Vereinigten Staaten und in den meisten anderen Ländern nützlich zu sein. Tatsächlich gibt es aufgrund der wirtschaftlichen und technischen Schwierigkeiten beim Erreichen solch niedriger Luftschadstoffwerte am Arbeitsplatz kaum Anzeichen dafür, dass diese Grenzwerte in den Ländern, die sie übernommen haben, tatsächlich erreicht wurden. Stattdessen scheinen die Grenzwerte eher als idealisierte Ziele zu dienen als als Grenzwerte, zu deren Erreichung die Hersteller gesetzlich oder moralisch verpflichtet sind. |
USA |
Mindestens sechs Gruppen empfehlen Expositionsgrenzwerte für den Arbeitsplatz: die TLVs des ACGIH, die vom National Institute for Occupational Safety and Health (NIOSH) vorgeschlagenen Recommended Exposure Limits (RELs), die vom Amerikaner entwickelten Workplace Environment Exposure Limits (WEEL). Industrial Hygiene Association (AIHA), Standards für Luftverunreinigungen am Arbeitsplatz, vorgeschlagen vom Z-37-Ausschuss des American National Standards Institute (EAL), die vorgeschlagenen Arbeitsplatzleitfäden der American Public Health Association (APHA 1991) und Empfehlungen von lokalen, staatlichen oder Regionalregierungen. Darüber hinaus wurden vom Arbeitsministerium zulässige Expositionsgrenzwerte (PELs) erlassen, bei denen es sich um gesetzlich vorgeschriebene Vorschriften handelt, die am Arbeitsplatz eingehalten werden müssen und von der Arbeitsschutzbehörde (OSHA) durchgesetzt werden. |
Quelle: Koch 1986.
Diese Einschränkung, obwohl vielleicht weniger als ideal, wurde als praktisch angesehen, da Konzentrationen in der Luft, die so niedrig sind, dass sie überempfindlich sind, traditionell entweder aufgrund technischer oder wirtschaftlicher Einschränkungen als nicht machbar angesehen wurden. Bis etwa 1990 wurde dieser Mangel der TLVs nicht als schwerwiegend angesehen. Angesichts der dramatischen Verbesserungen seit Mitte der 1980er Jahre in unseren analytischen Fähigkeiten, persönlichen Überwachungs-/Probenahmegeräten, biologischen Überwachungstechniken und dem Einsatz von Robotern als plausible technische Kontrolle sind wir jetzt technologisch in der Lage, strengere Arbeitsplatzgrenzwerte in Betracht zu ziehen.
Die Hintergrundinformationen und Begründungen für jeden TLV werden regelmäßig im veröffentlicht Dokumentation der Grenzwerte (ACGIH 1995). Für OELs, die in anderen Ländern festgelegt wurden, ist gelegentlich eine Art von Dokumentation verfügbar. Die Begründung oder Dokumentation für einen bestimmten OEL sollte immer konsultiert werden, bevor ein Expositionsgrenzwert interpretiert oder angepasst wird, sowie die spezifischen Daten, die bei seiner Festlegung berücksichtigt wurden (ACGIH 1994).
TLVs basieren auf den besten verfügbaren Informationen aus industrieller Erfahrung und human- und tierexperimentellen Studien – wenn möglich aus einer Kombination dieser Quellen (Smith und Olishifski 1988; ACGIH 1994). Die Begründung für die Wahl von Grenzwerten ist von Stoff zu Stoff unterschiedlich. Beispielsweise mag der Schutz vor gesundheitlichen Beeinträchtigungen für die einen richtungsweisend sein, während für andere eine angemessene Freiheit von Irritationen, Narkosen, Belästigungen oder sonstigen Belastungen die Grundlage bilden kann. Alter und Vollständigkeit der verfügbaren Informationen zur Festlegung von Arbeitsplatzgrenzwerten variieren ebenfalls von Stoff zu Stoff; folglich ist die Genauigkeit jedes TLV unterschiedlich. Zur Beurteilung der Qualität der Daten, auf deren Grundlage dieser Wert festgelegt wurde, sollten immer der aktuellste TLV und seine Dokumentation (oder ein Äquivalent) hinzugezogen werden.
Obwohl alle Veröffentlichungen, die OELs enthalten, betonen, dass sie nur dazu bestimmt waren, sichere Expositionsniveaus für Personen am Arbeitsplatz festzulegen, wurden sie gelegentlich in anderen Situationen verwendet. Aus diesem Grund sollten alle Expositionsgrenzwerte nur von jemandem interpretiert und angewendet werden, der sich mit Arbeitshygiene und Toxikologie auskennt. Das TLV-Komitee (ACGIH 1994) beabsichtigte nicht, dass sie verwendet oder für die Verwendung modifiziert werden:
Der TLV-Ausschuss und andere Gruppen, die OELs festlegen, warnen davor, dass diese Werte nicht „direkt verwendet“ oder extrapoliert werden sollten, um sichere Expositionsniveaus für andere Expositionseinstellungen vorherzusagen. Wenn man jedoch die wissenschaftliche Begründung für die Richtlinie und die geeigneten Ansätze zur Extrapolation von Daten versteht, können sie verwendet werden, um akzeptable Expositionsniveaus für viele verschiedene Arten von Expositionsszenarien und Arbeitsplänen vorherzusagen (ACGIH 1994; Hickey und Reist 1979).
Philosophie und Ansätze bei der Festlegung von Expositionsgrenzwerten
TLVs waren ursprünglich nur für den Gebrauch durch Industriehygieniker bestimmt, die bei der Anwendung dieser Werte ihr eigenes Urteilsvermögen ausüben konnten. Sie durften nicht für legale Zwecke verwendet werden (Baetjer 1980). 1968 wurde jedoch in den Walsh-Healey Public Contract Act der Vereinigten Staaten die TLV-Liste von 1968 aufgenommen, die etwa 400 Chemikalien umfasste. Als in den Vereinigten Staaten das Arbeitsschutzgesetz (OSHA) verabschiedet wurde, verlangte es, dass alle Standards nationale Konsensstandards oder etablierte Bundesstandards sein mussten.
Expositionsgrenzwerte für Luftverunreinigungen am Arbeitsplatz basieren auf der Prämisse, dass, obwohl alle chemischen Substanzen bei einer gewissen Konzentration toxisch sind, wenn sie über einen bestimmten Zeitraum einwirken, es für alle Substanzen eine Konzentration (z. B. Dosis) gibt, bei der keine schädliche Wirkung auftreten sollte egal wie oft die Belichtung wiederholt wird. Eine ähnliche Prämisse gilt für Substanzen, deren Wirkung auf Reizung, Narkose, Belästigung oder andere Formen von Stress beschränkt ist (Stokinger 1981; ACGIH 1994).
Diese Philosophie unterscheidet sich somit von derjenigen, die für physikalische Einwirkungen wie ionisierende Strahlung und einige chemische Karzinogene gilt, da es möglicherweise keinen Schwellenwert oder keine Dosis gibt, bei der kein Risiko zu erwarten wäre (Stokinger 1981). Die Frage der Schwelleneffekte ist umstritten, wobei namhafte Wissenschaftler sowohl für als auch gegen Schwellentheorien argumentieren (Seiler 1977; Watanabe et al. 1980, Stott et al. 1981; Butterworth und Slaga 1987; Bailer et al. 1988; Wilkinson 1988; Bus und Gibson 1994). Vor diesem Hintergrund wurden Anfang der 1980er Jahre einige Grenzwerte für die Exposition am Arbeitsplatz von Aufsichtsbehörden auf Werte festgelegt, die zwar nicht völlig risikolos waren, aber Risiken aufwiesen, die nicht größer waren als klassische Berufsgefahren wie Stromschlag, Stürze usw. Selbst in Umgebungen, in denen keine Industriechemikalien verwendet werden, beträgt das Gesamtrisiko tödlicher Verletzungen am Arbeitsplatz etwa eins zu tausend. Dies ist die Begründung, die verwendet wurde, um die Auswahl dieses theoretischen Krebsrisikokriteriums für die Festlegung von TLVs für chemische Karzinogene zu rechtfertigen (Rodricks, Brett und Wrenn 1987; Travis et al. 1987).
Arbeitsplatzgrenzwerte, die sowohl in den USA als auch anderswo festgelegt wurden, stammen aus einer Vielzahl von Quellen. Die TLVs von 1968 (die von der OSHA 1970 als Bundesvorschriften angenommen wurden) basierten weitgehend auf menschlicher Erfahrung. Dies mag viele Hygieniker überraschen, die kürzlich in den Beruf eingetreten sind, da dies darauf hindeutet, dass die Festlegung eines Expositionsgrenzwerts in den meisten Fällen erfolgt ist, nachdem festgestellt wurde, dass ein Stoff toxische, reizende oder anderweitig unerwünschte Wirkungen auf den Menschen hat . Wie zu erwarten war, basierten viele der neueren Expositionsgrenzwerte für systemische Toxine, insbesondere die von den Herstellern festgelegten internen Grenzwerte, hauptsächlich auf toxikologischen Tests, die an Tieren durchgeführt wurden, im Gegensatz dazu, auf Beobachtungen von schädlichen Wirkungen bei exponierten Arbeitern zu warten (Paustenbach et al Langer 1986). Tierversuche wurden jedoch bereits 1945 vom TLV-Komitee als sehr wertvoll anerkannt und stellen tatsächlich die zweithäufigste Informationsquelle dar, auf der diese Richtlinien basieren (Stokinger 1970).
In den letzten 40 Jahren wurden mehrere Ansätze zur Ableitung von OELs aus Tierdaten vorgeschlagen und angewendet. Der vom TLV-Ausschuss und anderen verwendete Ansatz unterscheidet sich nicht wesentlich von dem, der von der US-amerikanischen Food and Drug Administration (FDA) bei der Festlegung akzeptabler täglicher Aufnahmemengen (ADI) für Lebensmittelzusatzstoffe verwendet wurde. Ein Verständnis des FDA-Ansatzes zur Festlegung von Expositionsgrenzwerten für Lebensmittelzusatzstoffe und Kontaminanten kann Industriehygienikern, die an der Interpretation von OELs beteiligt sind, einen guten Einblick verschaffen (Dourson und Stara 1983).
Es wurden auch methodische Ansätze diskutiert, die verwendet werden können, um ausschließlich auf Tierdaten basierende Arbeitsplatzgrenzwerte festzulegen (Weil 1972; WHO 1977; Zielhuis und van der Kreek 1979a, 1979b; Calabrese 1983; Dourson und Stara 1983; Leung und Paustenbach 1988a ; Finley et al. 1992; Paustenbach 1995). Obwohl diese Ansätze ein gewisses Maß an Unsicherheit aufweisen, scheinen sie viel besser zu sein als eine qualitative Extrapolation von Tierversuchsergebnissen auf den Menschen.
Ungefähr 50 % der TLVs von 1968 wurden von Humandaten und ungefähr 30 % von Tierdaten abgeleitet. Bis 1992 wurden fast 50 % hauptsächlich aus Tierdaten abgeleitet. Die zur Entwicklung der TLVs verwendeten Kriterien können in vier Gruppen eingeteilt werden: morphologisch, funktionell, biochemisch und verschieden (Belästigung, Kosmetik). Von den TLVs, die auf Humandaten basieren, leiten sich die meisten von Wirkungen ab, die bei Arbeitern beobachtet wurden, die dem Stoff viele Jahre lang ausgesetzt waren. Folglich basieren die meisten bestehenden TLVs auf den Ergebnissen der Arbeitsplatzüberwachung, die mit qualitativen und quantitativen Beobachtungen der menschlichen Reaktion zusammengestellt wurden (Stokinger 1970; Park und Snee 1983). In jüngster Zeit basierten TLVs für neue Chemikalien hauptsächlich auf den Ergebnissen von Tierversuchen und weniger auf menschlichen Erfahrungen (Leung und Paustenbach 1988b; Leung et al. 1988).
Bemerkenswert ist, dass 1968 nur etwa 50 % der TLVs in erster Linie dazu bestimmt waren, systemische toxische Wirkungen zu verhindern. Etwa 40 % basierten auf Irritationen und etwa zwei Prozent sollten Krebs vorbeugen. Bis 1993 sollten etwa 50 % systemische Wirkungen verhindern, 35 % Irritationen verhindern und fünf Prozent Krebs verhindern. Abbildung 2 bietet eine Zusammenfassung der Daten, die häufig bei der Entwicklung von OELs verwendet werden.
Abbildung 2. Daten, die häufig zur Entwicklung einer beruflichen Exposition verwendet werden.
Grenzwerte für Reizstoffe
Vor 1975 basierten OELs zur Vermeidung von Reizungen weitgehend auf Versuchen am Menschen. Seitdem wurden mehrere experimentelle Tiermodelle entwickelt (Kane und Alarie 1977; Alarie 1981; Abraham et al. 1990; Nielsen 1991). Ein weiteres Modell, das auf chemischen Eigenschaften basiert, wurde verwendet, um vorläufige OELs für organische Säuren und Basen festzulegen (Leung und Paustenbach 1988).
Grenzwerte für Karzinogene
1972 begann der ACGIH-Ausschuss, in seiner TLV-Liste zwischen menschlichen und tierischen Karzinogenen zu unterscheiden. Laut Stokinger (1977) bestand ein Grund für diese Unterscheidung darin, die Interessengruppen in Diskussionen (Gewerkschaftsvertreter, Arbeitnehmer und die Öffentlichkeit) dabei zu unterstützen, sich auf die Chemikalien mit wahrscheinlicheren Expositionen am Arbeitsplatz zu konzentrieren.
Schützen die TLVs genügend Arbeitnehmer?
Ab 1988 wurden von zahlreichen Personen Bedenken hinsichtlich der Angemessenheit oder des Gesundheitsschutzes von TLVs geäußert. Die aufgeworfene Schlüsselfrage war, welcher Prozentsatz der arbeitenden Bevölkerung wirklich vor gesundheitsschädlichen Wirkungen geschützt ist, wenn sie TLV ausgesetzt sind?
Castleman und Ziem (1988) sowie Ziem und Castleman (1989) argumentierten, dass die wissenschaftliche Grundlage der Standards unzureichend sei und dass sie von Hygienikern mit Interessen in den regulierten Branchen formuliert wurden.
Diese Papiere lösten eine enorme Menge an Diskussionen aus, sowohl für als auch gegen die Arbeit des ACGIH (Finklea 1988; Paustenbach 1990a, 1990b, 1990c; Tarlau 1990).
Eine Folgestudie von Roach und Rappaport (1990) versuchte, die Sicherheitsspanne und die wissenschaftliche Gültigkeit der TLVs zu quantifizieren. Sie kamen zu dem Schluss, dass es schwerwiegende Widersprüche zwischen den verfügbaren wissenschaftlichen Daten und der Interpretation von 1976 gab Dokumentation vom TLV-Ausschuss. Sie stellen auch fest, dass die TLVs wahrscheinlich das widerspiegelten, was der Ausschuss damals als realistisch und erreichbar ansah. Sowohl die Roach- und Rappaport- als auch die Castleman- und Ziem-Analysen wurden von der ACGIH beantwortet, die auf der Ungenauigkeit der Kritik bestanden hat.
Obwohl der Wert der Analyse von Roach und Rappaport oder in diesem Zusammenhang von Ziem und Castleman noch einige Jahre diskutiert wird, ist klar, dass der Prozess, mit dem TLVs und andere OELs festgelegt werden, wahrscheinlich nie so sein wird es war zwischen 1945 und 1990. Es ist wahrscheinlich, dass in den kommenden Jahren sowohl die Gründe als auch der Grad des mit einem TLV verbundenen Risikos ausführlicher in der Dokumentation für jedes TLV beschrieben werden. Sicher ist auch, dass sich die Definition von „praktisch sicher“ oder „unerhebliches Risiko“ in Bezug auf die Exposition am Arbeitsplatz ändern wird, wenn sich die Werte der Gesellschaft ändern (Paustenbach 1995, 1997).
Der Grad der Verringerung der TLVs oder anderer OELs, die zweifellos in den kommenden Jahren eintreten wird, hängt von der Art der zu verhindernden gesundheitsschädlichen Wirkung ab (Depression des zentralen Nervensystems, akute Toxizität, Geruch, Reizung, Auswirkungen auf die Entwicklung usw.). Es ist unklar, inwieweit sich das TLV-Komitee auf verschiedene prädiktive Toxizitätsmodelle stützen oder welche Risikokriterien sie übernehmen werden, wenn wir in das nächste Jahrhundert eintreten.
Standards und nicht traditionelle Arbeitspläne
Das Ausmaß, in dem Schichtarbeit die Fähigkeiten, die Langlebigkeit, die Sterblichkeit und das allgemeine Wohlbefinden eines Arbeitnehmers beeinflusst, ist noch immer nicht gut verstanden. Sogenannte nicht-traditionelle Arbeitsschichten und Arbeitspläne wurden in einer Reihe von Branchen eingeführt, um zu versuchen, einige der Probleme zu beseitigen oder zumindest zu verringern, die durch normale Schichtarbeit verursacht werden, die aus drei achtstündigen Arbeitsschichten pro Tag besteht. Eine Art von Arbeitszeitplan, die als nicht traditionell eingestuft wird, ist die Art, die Arbeitszeiten von mehr als acht Stunden beinhaltet und die Anzahl der Arbeitstage pro Woche variiert (komprimiert) (z. B. eine 12-Stunden-pro-Tag-Drei-Tage-Arbeitswoche). Eine andere Art von nicht-traditionellem Arbeitsplan beinhaltet eine Reihe von kurzen Expositionen gegenüber einer Chemikalie oder einem physikalischen Mittel während eines bestimmten Arbeitsplans (z. B. ein Plan, bei dem eine Person fünfmal täglich 30 Minuten lang einer Chemikalie ausgesetzt ist, mit einer Stunde zwischen den Expositionen). . Die letzte Kategorie des nicht-traditionellen Zeitplans betrifft den „kritischen Fall“, in dem Personen kontinuierlich einer Luftverunreinigung ausgesetzt sind (z. B. Raumfahrzeuge, U-Boote).
Komprimierte Arbeitswochen sind eine Art nicht traditioneller Arbeitsplan, der hauptsächlich in Umgebungen außerhalb des verarbeitenden Gewerbes verwendet wurde. Es bezieht sich auf eine Vollzeitbeschäftigung (praktisch 40 Stunden pro Woche), die an weniger als fünf Tagen pro Woche geleistet wird. Derzeit werden viele komprimierte Zeitpläne verwendet, aber die gebräuchlichsten sind: (a) Vier-Tage-Arbeitswochen mit Zehn-Stunden-Tagen; (b) Drei-Tage-Arbeitswochen mit 12-Stunden-Tagen; (c) 4-1/2-Tage-Arbeitswochen mit vier 1978-Stunden-Tagen und einem 1981-Stunden-Tag (normalerweise Freitag); und (d) der Fünf-/Vier-Neun-Plan mit abwechselnden Fünf- und Vier-Tage-Arbeitswochen mit neun Stunden Tagen (Nollen und Martin XNUMX; Nollen XNUMX).
Von allen Arbeitnehmern machen diejenigen mit nicht traditionellen Arbeitszeiten nur etwa 5 % der Erwerbsbevölkerung aus. Von dieser Zahl sind nur etwa 50,000 bis 200,000 Amerikaner, die nicht-traditionellen Arbeitszeiten nachgehen, in Branchen beschäftigt, in denen sie routinemäßig erheblichen Mengen an Chemikalien in der Luft ausgesetzt sind. In Kanada wird angenommen, dass der Anteil der Chemiearbeiter mit nicht-traditionellen Arbeitszeiten größer ist (Paustenbach 1994).
Ein Ansatz zur Festlegung internationaler OELs
Wie von Lundberg (1994) festgestellt, besteht eine Herausforderung für alle nationalen Komitees darin, einen gemeinsamen wissenschaftlichen Ansatz zur Festlegung von OELs zu finden. Internationale Joint Ventures sind für die beteiligten Parteien von Vorteil, da das Verfassen von Kriteriendokumenten sowohl zeit- als auch kostenintensiv ist (Paustenbach 1995).
Das war die Idee, als der Nordische Ministerrat 1977 beschloss, die Nordic Expert Group (NEG) einzurichten. Die Aufgabe der NEG bestand darin, wissenschaftlich fundierte Kriteriendokumente zu entwickeln, die von den Regulierungsbehörden in den fünf nordischen Ländern (Dänemark, Finnland, Island, Norwegen und Schweden) als gemeinsame wissenschaftliche Grundlage für OELs verwendet werden sollten. Die Kriteriendokumente der NEG führen zur Definition einer kritischen Wirkung und von Dosis-Wirkungs-/Dosis-Wirkungs-Beziehungen. Die kritische Wirkung ist die nachteilige Wirkung, die bei der niedrigsten Exposition auftritt. Es gibt keine Diskussion über Sicherheitsfaktoren und ein numerischer OEL wird nicht vorgeschlagen. Seit 1987 werden von der NEG jährlich gleichzeitig Kriteriendokumente in englischer Sprache veröffentlicht.
Lundberg (1994) hat einen standardisierten Ansatz vorgeschlagen, den jeder Bezirk anwenden würde. Er schlug vor, ein Dokument mit den folgenden Merkmalen zu erstellen:
In der Praxis gibt es nur geringfügige Unterschiede in der Festlegung von OELs in den verschiedenen Ländern, die sie entwickeln. Es sollte daher relativ einfach sein, sich auf das Format eines standardisierten Kriteriendokuments zu einigen, das die Schlüsselinformationen enthält. Ab diesem Zeitpunkt wäre die Entscheidung über die Höhe des in den Grenzwert einfließenden Sicherheitsspielraums dann Sache der nationalen Politik.
Während die Prinzipien und Methoden der Risikobewertung für nicht krebserzeugende Chemikalien in verschiedenen Teilen der Welt ähnlich sind, fällt auf, dass die Ansätze zur Risikobewertung von krebserzeugenden Chemikalien sehr unterschiedlich sind. Es gibt nicht nur deutliche Unterschiede zwischen den Ländern, sondern sogar innerhalb eines Landes werden verschiedene Ansätze von verschiedenen Regulierungsbehörden, Gremien und Wissenschaftlern im Bereich der Risikobewertung angewandt oder befürwortet. Die Risikobewertung für Nicht-Karzinogene ist ziemlich konsistent und ziemlich gut etabliert, teilweise aufgrund der langen Geschichte und des besseren Verständnisses der Natur toxischer Wirkungen im Vergleich zu Karzinogenen und eines hohen Maßes an Konsens und Vertrauen sowohl bei Wissenschaftlern als auch in der Öffentlichkeit in Bezug auf die verwendeten Methoden und deren Ergebnis.
Für nicht krebserzeugende Chemikalien wurden Sicherheitsfaktoren eingeführt, um Unsicherheiten in den toxikologischen Daten (die größtenteils aus Tierversuchen stammen) und in ihrer Anwendbarkeit auf große, heterogene menschliche Populationen auszugleichen. Dabei wurden empfohlene oder erforderliche Grenzwerte für sichere Expositionen von Menschen in der Regel auf einen Bruchteil (Sicherheits- oder Unsicherheitsfaktoransatz) der Expositionsniveaus bei Tieren festgelegt, die eindeutig als NOAEL-Wert (No Observed Adverse Effects Level) oder der niedrigste Wert dokumentiert werden konnten Beobachtetes Nebenwirkungsniveau (LOAEL). Es wurde dann davon ausgegangen, dass die gefährlichen Eigenschaften chemischer Stoffe nicht zum Tragen kommen würden, solange die Exposition des Menschen die empfohlenen Grenzwerte nicht überschreite. Für viele Arten von Chemikalien setzt sich diese Praxis in etwas verfeinerter Form bis heute in der toxikologischen Risikobewertung fort.
In den späten 1960er und frühen 1970er Jahren wurden die Aufsichtsbehörden, beginnend in den Vereinigten Staaten, mit einem zunehmend wichtigen Problem konfrontiert, für das viele Wissenschaftler den Sicherheitsfaktoransatz als ungeeignet und sogar gefährlich betrachteten. Das war das Problem mit Chemikalien, die unter bestimmten Bedingungen nachweislich das Krebsrisiko bei Menschen oder Versuchstieren erhöhen. Diese Stoffe wurden betrieblich als Karzinogene bezeichnet. Es gibt immer noch Debatten und Kontroversen über die Definition eines Karzinogens, und es gibt eine breite Palette von Meinungen über Techniken zur Identifizierung und Klassifizierung von Karzinogenen und den Prozess der Krebsentstehung durch Chemikalien.
Die anfängliche Diskussion begann viel früher, als Wissenschaftler in den 1940er Jahren entdeckten, dass chemische Karzinogene Schäden durch einen biologischen Mechanismus verursachten, der von völlig anderer Art war als diejenigen, die andere Formen der Toxizität hervorriefen. Diese Wissenschaftler stellten unter Verwendung von Prinzipien aus der Biologie strahleninduzierter Krebsarten die so genannte „Nicht-Schwellenwert“-Hypothese auf, die sowohl auf Strahlung als auch auf krebserregende Chemikalien anwendbar war. Es wurde die Hypothese aufgestellt, dass jede Exposition gegenüber einem Karzinogen, das sein kritisches biologisches Ziel, insbesondere das genetische Material, erreicht und mit ihm interagiert, die Wahrscheinlichkeit (das Risiko) der Krebsentstehung erhöhen kann.
Parallel zur laufenden wissenschaftlichen Diskussion über Schwellenwerte gab es in der Öffentlichkeit eine wachsende Besorgnis über die nachteilige Rolle chemischer Karzinogene und die dringende Notwendigkeit, die Menschen vor einer Reihe von Krankheiten zu schützen, die zusammenfassend als Krebs bezeichnet werden. Krebs wurde mit seinem heimtückischen Charakter und seiner langen Latenzzeit zusammen mit Daten, die zeigten, dass die Krebsinzidenz in der allgemeinen Bevölkerung zunimmt, von der Öffentlichkeit und der Politik als ein Problem angesehen, das einen optimalen Schutz verdient. Die Regulierungsbehörden standen vor dem Problem, dass viele Menschen, manchmal fast die gesamte Bevölkerung, relativ geringen Mengen chemischer Substanzen (in Konsumgütern und Arzneimitteln, am Arbeitsplatz sowie in Luft, Wasser) ausgesetzt waren oder sein könnten , Lebensmittel und Böden), die bei Menschen oder Versuchstieren unter Bedingungen relativ intensiver Exposition als krebserzeugend identifiziert wurden.
Diese Regulierungsbeamten wurden mit zwei grundlegenden Fragen konfrontiert, die mit den verfügbaren wissenschaftlichen Methoden in den meisten Fällen nicht vollständig beantwortet werden konnten:
Die Regulierungsbehörden erkannten die Notwendigkeit von Annahmen an, die manchmal wissenschaftlich begründet, aber oft auch nicht durch experimentelle Beweise gestützt sind. Um Einheitlichkeit zu erreichen, wurden Definitionen und spezifische Annahmen angepasst, die allgemein auf alle Karzinogene angewendet würden.
Karzinogenese ist ein mehrstufiger Prozess
Mehrere Beweislinien stützen die Schlussfolgerung, dass die chemische Karzinogenese ein mehrstufiger Prozess ist, der durch genetische Schäden und epigenetische Veränderungen angetrieben wird, und diese Theorie ist in der wissenschaftlichen Gemeinschaft auf der ganzen Welt weithin akzeptiert (Barrett 1993). Obwohl der Prozess der chemischen Karzinogenese oft in drei Phasen unterteilt wird – Initiation, Promotion und Progression – ist die Anzahl der relevanten genetischen Veränderungen nicht bekannt.
Die Initiation beinhaltet die Induktion einer irreversibel veränderten Zelle und ist bei genotoxischen Kanzerogenen immer mit einem Mutationsereignis gleichzusetzen. Mutagenese als Mechanismus der Karzinogenese wurde bereits 1914 von Theodor Boveri vermutet, und viele seiner Annahmen und Vorhersagen haben sich später als wahr erwiesen. Da bereits kleinste Mengen eines DNA-modifizierenden Karzinogens irreversible und selbstreplizierende mutagene Wirkungen hervorrufen können, wird kein Schwellenwert angenommen. Promotion ist der Prozess, durch den sich die initiierte Zelle (klonal) durch eine Reihe von Teilungen ausdehnt und (prä)neoplastische Läsionen bildet. Ob während dieser Promotionsphase initiierte Zellen weitere genetische Veränderungen erfahren, ist umstritten.
Schließlich wird im Progressionsstadium die „Unsterblichkeit“ erreicht und es können sich durch Beeinflussung der Angiogenese vollwertige maligne Tumore entwickeln, die der Reaktion der Kontrollsysteme des Wirts entgehen. Sie ist durch invasives Wachstum und häufig metastasierende Ausbreitung des Tumors gekennzeichnet. Die Progression wird durch zusätzliche genetische Veränderungen aufgrund der Instabilität proliferierender Zellen und Selektion begleitet.
Daher gibt es drei allgemeine Mechanismen, durch die ein Stoff den mehrstufigen krebserzeugenden Prozess beeinflussen kann. Eine Chemikalie kann eine relevante genetische Veränderung induzieren, die klonale Expansion einer initiierten Zelle fördern oder erleichtern oder das Fortschreiten zu Malignität durch somatische und/oder genetische Veränderungen stimulieren.
Risikobewertungsprozess
Risiko kann definiert werden als die vorhergesagte oder tatsächliche Häufigkeit des Auftretens einer nachteiligen Wirkung auf Mensch oder Umwelt aufgrund einer gegebenen Exposition gegenüber einer Gefahr. Die Risikobewertung ist eine Methode zur systematischen Organisation der wissenschaftlichen Informationen und der damit verbundenen Unsicherheiten zur Beschreibung und Einstufung der mit gefährlichen Stoffen, Verfahren, Handlungen oder Ereignissen verbundenen Gesundheitsrisiken. Es erfordert die Bewertung relevanter Informationen und die Auswahl der Modelle, die verwendet werden sollen, um Schlussfolgerungen aus diesen Informationen zu ziehen. Darüber hinaus erfordert es die ausdrückliche Anerkennung von Unsicherheiten und die angemessene Anerkennung, dass eine alternative Interpretation der verfügbaren Daten wissenschaftlich plausibel sein kann. Die derzeit in der Risikobewertung verwendete Terminologie wurde 1984 von der US National Academy of Sciences vorgeschlagen. Die qualitative Risikobewertung wurde in Gefahrenbeschreibung/-identifikation geändert und die quantitative Risikobewertung wurde in die Komponenten Dosis-Wirkungs-Beziehung, Expositionsbewertung und Risikobeschreibung unterteilt.
Im Folgenden werden diese Komponenten im Hinblick auf unseren derzeitigen Kenntnisstand zum Prozess der (chemischen) Karzinogenese kurz diskutiert. Es wird deutlich, dass die vorherrschende Unsicherheit bei der Risikobewertung von Karzinogenen das Dosis-Wirkungs-Muster bei niedrigen Dosisniveaus ist, die für Umweltexposition charakteristisch sind.
Gefahrenerkennung
Dieser Prozess identifiziert, welche Verbindungen das Potenzial haben, beim Menschen Krebs zu verursachen – mit anderen Worten, es identifiziert ihre intrinsischen genotoxischen Eigenschaften. Die Kombination von Informationen aus verschiedenen Quellen und zu unterschiedlichen Eigenschaften dient als Grundlage für die Einstufung krebserzeugender Verbindungen. Im Allgemeinen werden die folgenden Informationen verwendet:
Die Einstufung von Chemikalien in Gruppen auf der Grundlage der Bewertung der Angemessenheit der Beweise für die Karzinogenese bei Tieren oder beim Menschen, wenn epidemiologische Daten verfügbar sind, ist ein Schlüsselprozess bei der Gefahrenidentifizierung. Die bekanntesten Schemata zur Kategorisierung krebserregender Chemikalien sind die von IARC (1987), EU (1991) und EPA (1986). Eine Übersicht über ihre Einstufungskriterien (z. B. Niedrigdosis-Extrapolationsverfahren) ist in Tabelle 1 gegeben.
Tabelle 1. Vergleich von Niedrigdosis-Extrapolationsverfahren
Aktuelle US EPA | Dänemark | EWG | UK | Niederlande | Norwegen | |
Genotoxisches Karzinogen | Linearisiertes mehrstufiges Verfahren unter Verwendung des am besten geeigneten Niedrigdosismodells | MLE von 1- und 2-Hit-Modellen plus Beurteilung des besten Ergebnisses | Kein Verfahren angegeben | Kein Modell, wissenschaftliche Expertise und Beurteilung aller verfügbaren Daten | Lineares Modell mit TD50 (Peto-Methode) oder „Einfache niederländische Methode“, wenn kein TD50 | Kein Verfahren angegeben |
Nicht genotoxisches Karzinogen | Das gleiche wie oben | Biologisch basiertes Thorslund-Modell oder Mehrstufen- oder Mantel-Bryan-Modell, basierend auf Tumorursprung und Dosis-Wirkungs-Verhältnis | Verwenden Sie NOAEL und Sicherheitsfaktoren | Verwenden Sie NOEL und Sicherheitsfaktoren, um den ADI einzustellen | Verwenden Sie NOEL und Sicherheitsfaktoren, um den ADI einzustellen |
Ein wichtiger Punkt bei der Einstufung von Kanzerogenen mit zum Teil weitreichenden Konsequenzen für deren Regulierung ist die Unterscheidung zwischen genotoxischen und nicht-genotoxischen Wirkmechanismen. Die Standardannahme der US-Umweltschutzbehörde (EPA) für alle Substanzen, die in Tierversuchen krebserzeugende Aktivität zeigen, ist, dass es keinen Schwellenwert gibt (oder zumindest keiner nachgewiesen werden kann), sodass bei jeder Exposition ein gewisses Risiko besteht. Dies wird gemeinhin als Annahme ohne Schwellenwert für genotoxische (DNA-schädigende) Verbindungen bezeichnet. Die EU und viele ihrer Mitglieder, wie das Vereinigte Königreich, die Niederlande und Dänemark, unterscheiden zwischen Karzinogenen, die genotoxisch sind, und solchen, von denen angenommen wird, dass sie durch nicht-genotoxische Mechanismen Tumore erzeugen. Für genotoxische Karzinogene werden quantitative Dosis-Wirkungs-Abschätzungsverfahren angewendet, die keinen Schwellenwert annehmen, obwohl die Verfahren von denen der EPA abweichen können. Bei nicht genotoxischen Stoffen wird davon ausgegangen, dass ein Schwellenwert existiert, und es werden Dosis-Wirkungs-Verfahren verwendet, die einen Schwellenwert annehmen. Im letzteren Fall basiert die Risikobewertung im Allgemeinen auf einem Sicherheitsfaktoransatz, ähnlich dem Ansatz für nicht karzinogene Stoffe.
Es ist wichtig zu bedenken, dass diese verschiedenen Schemata entwickelt wurden, um mit Risikobewertungen in unterschiedlichen Kontexten und Umgebungen umzugehen. Das IARC-Schema wurde nicht für Regulierungszwecke erstellt, obwohl es als Grundlage für die Entwicklung von Regulierungsrichtlinien verwendet wurde. Das EPA-System wurde entwickelt, um als Entscheidungspunkt für die Eingabe einer quantitativen Risikobewertung zu dienen, während das EU-System derzeit verwendet wird, um dem Etikett der Chemikalie ein Gefahrensymbol (Einstufung) und Risikosätze zuzuweisen. Eine ausführlichere Diskussion zu diesem Thema findet sich in einer kürzlich erschienenen Übersicht (Moolenaar 1994), die Verfahren abdeckt, die von acht Regierungsbehörden und zwei oft zitierten unabhängigen Organisationen, der International Agency for Research on Cancer (IARC) und der American Conference of Governmental, verwendet werden Industriehygieniker (ACGIH).
Die Klassifikationsschemata berücksichtigen im Allgemeinen nicht die umfangreichen negativen Beweise, die möglicherweise verfügbar sind. Außerdem hat sich in den letzten Jahren ein besseres Verständnis des Wirkungsmechanismus von Karzinogenen herausgebildet. Es häufen sich Hinweise darauf, dass einige Mechanismen der Karzinogenität artspezifisch und für den Menschen nicht relevant sind. Die folgenden Beispiele veranschaulichen dieses wichtige Phänomen. Erstens wurde kürzlich in Studien zur Kanzerogenität von Dieselpartikeln gezeigt, dass Ratten auf eine starke Belastung der Lunge mit Partikeln mit Lungentumoren reagieren. Bei Kohlebergleuten mit sehr starker Partikelbelastung der Lunge wird Lungenkrebs jedoch nicht beobachtet. Zweitens gibt es die Behauptung der Nichtrelevanz von Nierentumoren bei der männlichen Ratte auf der Grundlage, dass das Schlüsselelement der tumorgenen Reaktion die Akkumulation von α-2-Mikroglobulin in der Niere ist, einem Protein, das beim Menschen nicht vorkommt (Borghoff, Kurz und Swenberg 1990). Zu nennen sind in diesem Zusammenhang auch Störungen der Schilddrüsenfunktion von Nagern und der Peroxisomenproliferation bzw. -mitogenese in der Mausleber.
Dieses Wissen ermöglicht eine differenziertere Interpretation der Ergebnisse eines Karzinogenitäts-Bioassays. Forschungen zum besseren Verständnis der Wirkungsmechanismen der Karzinogenität werden gefördert, da dies zu einer geänderten Einstufung und zur Hinzufügung einer Kategorie führen kann, in der Chemikalien als nicht krebserzeugend für den Menschen eingestuft werden.
Expositionsabschätzung
Die Expositionsbeurteilung wird oft als die Komponente der Risikobeurteilung mit der geringsten inhärenten Unsicherheit angesehen, da in einigen Fällen Expositionen überwacht werden können und relativ gut validierte Expositionsmodelle zur Verfügung stehen. Dies trifft jedoch nur teilweise zu, da die meisten Expositionsbeurteilungen nicht so durchgeführt werden, dass die Bandbreite der verfügbaren Informationen voll ausgeschöpft wird. Aus diesem Grund gibt es viel Raum für die Verbesserung der Schätzungen der Expositionsverteilung. Dies gilt sowohl für externe als auch für interne Expositionsbeurteilungen. Insbesondere bei Karzinogenen würde die Verwendung von Zielgewebedosen anstelle externer Expositionsniveaus bei der Modellierung von Dosis-Wirkungs-Beziehungen zu relevanteren Risikovorhersagen führen, obwohl viele Annahmen zu Standardwerten erforderlich sind. Physiologisch basierte pharmakokinetische (PBPK) Modelle zur Bestimmung der Menge an reaktiven Metaboliten, die das Zielgewebe erreichen, sind möglicherweise von großem Wert, um diese Gewebedosen abzuschätzen.
Risikocharakterisierung
Aktuelle Ansätze
Die Dosishöhe oder Expositionshöhe, die in einer Tierstudie eine Wirkung hervorruft, und die wahrscheinliche Dosis, die eine ähnliche Wirkung beim Menschen verursacht, sind eine Schlüsselüberlegung bei der Risikocharakterisierung. Dies umfasst sowohl die Dosis-Wirkungs-Beurteilung von hoher zu niedriger Dosis als auch die Interspezies-Extrapolation. Die Extrapolation stellt ein logisches Problem dar, nämlich dass Daten durch empirische Modelle, die die zugrunde liegenden Mechanismen der Karzinogenität nicht widerspiegeln, viele Größenordnungen unter die experimentellen Expositionswerte extrapoliert werden. Dies verstößt gegen ein Grundprinzip bei der Anpassung empirischer Modelle, nämlich nicht außerhalb des Bereichs der beobachtbaren Daten zu extrapolieren. Daher führt diese empirische Hochrechnung sowohl aus statistischer als auch aus biologischer Sicht zu großen Unsicherheiten. Gegenwärtig wird kein einzelnes mathematisches Verfahren als das geeignetste für die Low-Dose-Extrapolation in der Karzinogenese anerkannt. Die mathematischen Modelle, die verwendet wurden, um die Beziehung zwischen der verabreichten externen Dosis, der Zeit und der Tumorinzidenz zu beschreiben, basieren entweder auf Toleranzverteilungs- oder mechanistischen Annahmen und manchmal auf beiden. Eine Zusammenfassung der am häufigsten zitierten Modelle (Kramer et al. 1995) ist in Tabelle 2 aufgeführt.
Tabelle 2. Häufig zitierte Modelle zur Charakterisierung des Karzinogenrisikos
Toleranzverteilungsmodelle | Mechanistische Modelle | |
Hit-Modelle | Biobasierte Modelle | |
Logit | Ein Treffer | Moolgavkar (MVK)1 |
Probit | Mehrfachtreffer | Cohen und Ellwein |
Mantel-Bryan | Weibull (Hecht)1 | |
Weibull | Mehrstufig (Armitage-Puppe)1 | |
Gamma-Multihit | Linearisiert mehrstufig, |
1 Time-to-Tumor-Modelle.
Diese Dosis-Wirkungs-Modelle werden normalerweise auf Daten zum Auftreten von Tumoren angewendet, die nur einer begrenzten Anzahl von experimentellen Dosen entsprechen. Dies ist auf das Standarddesign des angewandten Bioassays zurückzuführen. Anstatt die vollständige Dosis-Wirkungs-Kurve zu bestimmen, ist eine Karzinogenitätsstudie im Allgemeinen auf drei (oder zwei) relativ hohe Dosen beschränkt, wobei die maximal tolerierte Dosis (MTD) als höchste Dosis verwendet wird. Diese hohen Dosen werden verwendet, um die inhärente geringe statistische Empfindlichkeit (10 bis 15 % über dem Hintergrund) solcher Bioassays zu überwinden, die darauf zurückzuführen ist, dass (aus praktischen und anderen Gründen) eine relativ kleine Anzahl von Tieren verwendet wird. Da Daten für den Niedrigdosisbereich nicht verfügbar sind (dh nicht experimentell bestimmt werden können), ist eine Extrapolation außerhalb des Beobachtungsbereichs erforderlich. Für fast alle Datensätze passen die meisten der oben aufgeführten Modelle aufgrund der begrenzten Anzahl von Dosen und Tieren gleich gut in den beobachteten Dosisbereich. Im Niedrigdosisbereich weichen diese Modelle jedoch um mehrere Größenordnungen voneinander ab, wodurch große Unsicherheiten in das Risiko eingeführt werden, das für diese niedrigen Expositionsniveaus geschätzt wird.
Da die tatsächliche Form der Dosis-Wirkungs-Kurve im Niedrigdosisbereich experimentell nicht erzeugt werden kann, ist ein mechanistischer Einblick in den Prozess der Kanzerogenität entscheidend, um in diesem Aspekt zwischen den verschiedenen Modellen diskriminieren zu können. Umfassende Übersichtsarbeiten zu den verschiedenen Aspekten der verschiedenen mathematischen Extrapolationsmodelle finden sich in Kramer et al. (1995) und Park und Hawkins (1993).
Andere Ansätze
Neben der derzeitigen Praxis der mathematischen Modellierung wurden kürzlich mehrere alternative Ansätze vorgeschlagen.
Biologisch motivierte Modelle
Derzeit sind die biologisch basierten Modelle wie die Moolgavkar-Venzon-Knudson (MVK)-Modelle sehr vielversprechend, aber derzeit sind diese für den routinemäßigen Einsatz noch nicht weit genug fortgeschritten und erfordern viel spezifischere Informationen, als sie derzeit in Bioassays gewonnen werden. Große Studien (4,000 Ratten), wie sie mit N-Nitrosoalkylaminen durchgeführt wurden, weisen auf die für die Erhebung solcher Daten erforderliche Studiengröße hin, obwohl eine Extrapolation auf niedrige Dosen noch nicht möglich ist. Bis zur Weiterentwicklung dieser Modelle können sie nur im Einzelfall angewendet werden.
Bewertungsfaktoransatz
Die Verwendung mathematischer Modelle zur Extrapolation unterhalb des experimentellen Dosisbereichs entspricht tatsächlich einem Sicherheitsfaktoransatz mit einem großen und schlecht definierten Unsicherheitsfaktor. Die einfachste Alternative wäre die Anwendung eines Bewertungsfaktors auf den scheinbaren „No-Effect-Level“ oder den „niedrigsten getesteten Level“. Der für diesen Bewertungsfaktor verwendete Wert sollte von Fall zu Fall unter Berücksichtigung der Art der Chemikalie und der exponierten Bevölkerung bestimmt werden.
Benchmarkdosis (BMD)
Grundlage dieses Ansatzes ist ein mathematisches Modell, das an die experimentellen Daten innerhalb des beobachtbaren Bereichs angepasst wird, um eine Dosis zu schätzen oder zu interpolieren, die einem definierten Wirkungsniveau entspricht, wie z01, Ed05, Ed10). Da eine Erhöhung um zehn Prozent ungefähr die kleinste Änderung ist, die statistisch in einem Standard-Bioassay, dem ED, bestimmt werden kann10 ist für Krebsdaten geeignet. Die Verwendung einer BMD, die innerhalb des beobachtbaren Bereichs des Experiments liegt, vermeidet die mit der Dosisextrapolation verbundenen Probleme. Schätzungen der BMD oder ihrer unteren Vertrauensgrenze spiegeln die Dosen wider, bei denen Änderungen in der Tumorinzidenz auftraten, sind jedoch ziemlich unempfindlich gegenüber dem verwendeten mathematischen Modell. Eine Benchmark-Dosis kann bei der Risikobewertung als Maß für die Tumorwirksamkeit verwendet und mit geeigneten Bewertungsfaktoren kombiniert werden, um akzeptable Werte für die Exposition des Menschen festzulegen.
Regulierungsschwelle
Krewskiet al. (1990) haben das Konzept einer „Regulierungsschwelle“ für chemische Karzinogene überprüft. Basierend auf Daten aus der Karzinogen-Potenz-Datenbank (CPDB) für 585 Experimente, die Dosis entspricht 10-6 Das Risiko war ungefähr log-normal verteilt um einen Median von 70 bis 90 ng/kg/d. Die Exposition gegenüber Dosisniveaus, die diesen Bereich überschreiten, würde als inakzeptabel angesehen. Die Dosis wurde durch lineare Extrapolation aus der TD geschätzt50 (die Dosis, die Toxizität induziert, beträgt 50 % der getesteten Tiere) und lag innerhalb eines Faktors von fünf bis zehn der Zahl, die aus dem linearisierten Mehrstufenmodell erhalten wurde. Leider ist der TD50 Werte werden auf die MTD bezogen, was wiederum Zweifel an der Validität der Messung aufkommen lässt. Aber der TD50 liegt oft innerhalb oder sehr nahe am experimentellen Datenbereich.
Ein solcher Ansatz wie die Verwendung einer Regulierungsschwelle würde viel mehr Berücksichtigung biologischer, analytischer und mathematischer Fragen und eine viel breitere Datenbank erfordern, bevor er in Betracht gezogen werden könnte. Eine weitere Untersuchung der Potenzen verschiedener Karzinogene könnte dieses Gebiet weiter beleuchten.
Ziele und Zukunft der KarzinogenRisikobewertung
Rückblickend auf die ursprünglichen Erwartungen an die Regulierung von (Umwelt-)Karzinogenen, nämlich eine deutliche Reduzierung von Krebs zu erreichen, erscheinen die Ergebnisse derzeit enttäuschend. Im Laufe der Jahre wurde deutlich, dass die geschätzte Anzahl von Krebsfällen, die durch regulierbare Karzinogene verursacht wurden, beunruhigend gering war. In Anbetracht der hohen Erwartungen, mit denen die Regulierungsbemühungen in den 1970er Jahren in Gang gesetzt wurden, wurde eine große erwartete Verringerung der Krebstodesrate im Hinblick auf die geschätzten Auswirkungen von Umweltkarzinogenen nicht erreicht, nicht einmal mit ultrakonservativen quantitativen Bewertungsverfahren. Das Hauptmerkmal der EPA-Verfahren besteht darin, dass Niedrigdosis-Extrapolationen für jede Chemikalie auf die gleiche Weise durchgeführt werden, unabhängig vom Mechanismus der Tumorbildung in experimentellen Studien. Es sollte jedoch beachtet werden, dass dieser Ansatz in scharfem Kontrast zu Ansätzen anderer Regierungsbehörden steht. Wie oben angegeben, unterscheiden die EU und mehrere europäische Regierungen – Dänemark, Frankreich, Deutschland, Italien, die Niederlande, Schweden, die Schweiz und das Vereinigte Königreich – zwischen genotoxischen und nicht-genotoxischen Karzinogenen und gehen bei der Risikoabschätzung für die beiden Kategorien unterschiedlich vor. Im Allgemeinen werden nicht genotoxische Karzinogene als Schwellengifte behandelt. Es werden keine Wirkungsstärken bestimmt und Unsicherheitsfaktoren werden verwendet, um einen ausreichenden Sicherheitsspielraum zu bieten. Ob eine Chemikalie als nicht genotoxisch einzustufen ist oder nicht, ist Gegenstand wissenschaftlicher Debatten und erfordert eine klare Expertenmeinung.
Die grundlegende Frage lautet: Was ist die Ursache von Krebs beim Menschen und welche Rolle spielen umweltbedingte Karzinogene bei dieser Verursachung? Die erblichen Aspekte von Krebs beim Menschen sind viel wichtiger als bisher angenommen. Der Schlüssel zu signifikanten Fortschritten bei der Risikobewertung von Karzinogenen ist ein besseres Verständnis der Ursachen und Mechanismen von Krebs. Die Krebsforschung betritt ein sehr spannendes Gebiet. Die Molekularforschung kann die Art und Weise, wie wir die Auswirkungen von Umweltkarzinogenen und die Ansätze zur Kontrolle und Prävention von Krebs sehen, radikal verändern, sowohl für die breite Öffentlichkeit als auch für den Arbeitsplatz. Die Risikobewertung von Karzinogenen muss auf Konzepten der Wirkungsmechanismen beruhen, die tatsächlich gerade erst entstehen. Einer der wichtigen Aspekte ist der Mechanismus von erblichem Krebs und die Wechselwirkung von Karzinogenen mit diesem Prozess. Dieses Wissen muss in die bereits bestehende systematische und kohärente Methodik für die Risikobewertung von Karzinogenen einfließen.
Ein integrierter Ansatz bei der Gestaltung von Arbeitsplätzen
In der Ergonomie ist die Gestaltung von Arbeitsplätzen eine kritische Aufgabe. Es besteht allgemeine Einigkeit darüber, dass in jedem Arbeitsumfeld, ob Arbeiter oder Angestellter, ein gut gestalteter Arbeitsplatz nicht nur die Gesundheit und das Wohlbefinden der Arbeitnehmer, sondern auch die Produktivität und die Qualität der Produkte fördert. Umgekehrt kann ein schlecht gestalteter Arbeitsplatz zur Entstehung von Gesundheitsbeschwerden oder chronischen Berufskrankheiten sowie zu Problemen bei der Aufrechterhaltung der Produktqualität und Produktivität auf einem vorgeschriebenen Niveau führen oder dazu beitragen.
Für jeden Ergonomen mag die obige Aussage trivial erscheinen. Dass das Arbeitsleben weltweit nicht nur von ergonomischen Mängeln, sondern von eklatanten Verstößen gegen ergonomische Grundprinzipien geprägt ist, wird auch von jedem Ergonomen anerkannt. Es ist deutlich zu erkennen, dass bei den Verantwortlichen – Fertigungsingenieuren, Vorgesetzten und Managern – ein weit verbreitetes Unbewusstsein hinsichtlich der Bedeutung der Arbeitsplatzgestaltung herrscht.
Bemerkenswert ist, dass es in Bezug auf die Industriearbeit einen internationalen Trend gibt, der die Bedeutung ergonomischer Faktoren zu unterstreichen scheint: die steigende Nachfrage nach verbesserter Produktqualität, Flexibilität und Präzision bei der Produktlieferung. Diese Forderungen sind mit einer konservativen Sicht auf die Gestaltung von Arbeit und Arbeitsplatz nicht vereinbar.
Obwohl es im vorliegenden Zusammenhang vor allem um die physikalischen Faktoren der Arbeitsplatzgestaltung geht, ist zu bedenken, dass die physikalische Gestaltung des Arbeitsplatzes in der Praxis nicht von der Arbeitsorganisation getrennt werden kann. Dieses Prinzip wird in dem im Folgenden beschriebenen Entwurfsprozess deutlich gemacht. Die Qualität des Endergebnisses des Prozesses stützt sich auf drei Stützen: ergonomisches Wissen, Integration mit Produktivitäts- und Qualitätsanforderungen und Partizipation. Das Prozess der Umsetzung einer neuen Workstation muss diese Integration berücksichtigen, und das ist das Hauptaugenmerk dieses Artikels.
Entwurfsüberlegungen
Arbeitsplätze sind zum Arbeiten da. Es muss erkannt werden, dass der Ausgangspunkt in der Arbeitsplatzgestaltung darin besteht, dass ein bestimmtes Produktionsziel erreicht werden muss. Der Designer – häufig ein Produktionsingenieur oder eine andere Person im mittleren Management – entwickelt intern eine Vision des Arbeitsplatzes und beginnt, diese Vision durch seine oder ihre Planungsmedien umzusetzen. Der Prozess ist iterativ: Von einem groben ersten Versuch werden die Lösungen nach und nach immer raffinierter. Ergonomische Aspekte müssen im Arbeitsfortschritt bei jeder Iteration unbedingt berücksichtigt werden.
Es sollte angemerkt werden, dass ergonomisches Design von Arbeitsplätzen ist eng verbunden mit ergonomische Beurteilung von Arbeitsplätzen. Tatsächlich gilt die hier zu befolgende Struktur gleichermaßen für die Fälle, in denen der Arbeitsplatz bereits besteht oder in Planung ist.
Im Designprozess bedarf es einer Struktur, die sicherstellt, dass alle relevanten Aspekte berücksichtigt werden. Der traditionelle Weg, dies zu handhaben, besteht darin, Checklisten zu verwenden, die eine Reihe von Variablen enthalten, die berücksichtigt werden sollten. Allzweck-Checklisten sind jedoch in der Regel umfangreich und schwierig zu verwenden, da in einer bestimmten Konstruktionssituation möglicherweise nur ein Bruchteil der Checkliste relevant ist. Darüber hinaus sind in einer praktischen Entwurfssituation einige Variablen wichtiger als andere. Eine Methodik zur gemeinsamen Berücksichtigung dieser Faktoren in einer Entwurfssituation ist erforderlich. Eine solche Methodik wird in diesem Artikel vorgeschlagen.
Empfehlungen für die Arbeitsplatzgestaltung müssen auf einem relevanten Anforderungsprofil basieren. Es ist zu beachten, dass es im Allgemeinen nicht ausreicht, Schwellenwerte für einzelne Variablen zu berücksichtigen. Ein anerkanntes kombiniertes Ziel von Produktivität und Gesundheitserhaltung macht es erforderlich, ehrgeiziger zu sein als in einer traditionellen Entwurfssituation. Insbesondere die Frage der muskuloskelettalen Beschwerden ist ein wesentlicher Aspekt in vielen industriellen Situationen, wobei diese Problemkategorie keineswegs auf das industrielle Umfeld beschränkt ist.
Ein Workstation-Designprozess
Schritte im Prozess
Bei der Gestaltung und Implementierung von Arbeitsplätzen besteht immer zunächst die Notwendigkeit, die Benutzer zu informieren und das Projekt so zu organisieren, dass eine vollständige Benutzerbeteiligung möglich ist und die Chance auf eine vollständige Akzeptanz des Endergebnisses durch die Mitarbeiter erhöht wird. Eine Behandlung dieses Ziels liegt nicht im Rahmen der vorliegenden Abhandlung, die sich auf das Problem konzentriert, zu einer optimalen Lösung für die physische Gestaltung des Arbeitsplatzes zu gelangen, aber der Designprozess erlaubt dennoch die Integration eines solchen Ziels. Dabei sollten immer folgende Schritte beachtet werden:
Der Fokus liegt hier auf den Schritten eins bis fünf. Oft wird nur ein Teil all dieser Schritte tatsächlich in die Gestaltung von Arbeitsplätzen einbezogen. Dies kann verschiedene Gründe haben. Handelt es sich bei dem Arbeitsplatz um eine Standardausführung, wie beispielsweise in manchen Bildschirmarbeitssituationen, können einige Schritte gebührend ausgeschlossen werden. In den meisten Fällen würde jedoch der Ausschluss einiger der aufgeführten Schritte zu einer Arbeitsstation von geringerer Qualität führen, als als akzeptabel angesehen werden kann. Dies kann der Fall sein, wenn die wirtschaftlichen oder zeitlichen Zwänge zu groß sind, oder wenn schlichte Vernachlässigung aufgrund mangelnder Kenntnisse oder Einsichten auf Führungsebene vorliegt.
Sammlung von benutzerspezifischen Anforderungen
Es ist wichtig, den Benutzer des Arbeitsplatzes als jedes Mitglied des Herstellungsbetriebs zu identifizieren, das in der Lage sein könnte, qualifizierte Ansichten zu seiner Gestaltung beizutragen. Zu den Benutzern können beispielsweise die Arbeiter, die Vorgesetzten, die Produktionsplaner und Produktionsingenieure sowie der Sicherheitsbeauftragte gehören. Die Erfahrung zeigt deutlich, dass diese Akteure alle über ihr einzigartiges Wissen verfügen, das im Prozess genutzt werden sollte.
Die Sammlung der benutzerspezifischen Anforderungen sollte eine Reihe von Kriterien erfüllen:
Der obige Satz von Kriterien kann erfüllt werden, indem eine Methodik verwendet wird, die auf basiert hochwertige Funktionsbereitstellung (QFD) nach Sullivan (1986). Hier können die Benutzeranforderungen in einer Sitzung gesammelt werden, in der eine gemischte Gruppe von Akteuren (nicht mehr als acht bis zehn Personen) anwesend ist. Alle Teilnehmer erhalten einen Block mit ablösbaren selbstklebenden Zetteln. Sie werden gebeten, alle Anforderungen am Arbeitsplatz, die sie für relevant halten, jeweils auf einem separaten Zettel zu notieren. Aspekte in Bezug auf Arbeitsumgebung und -sicherheit, Produktivität und Qualität sollten abgedeckt werden. Diese Aktivität kann so lange fortgesetzt werden, wie es für notwendig befunden wird, typischerweise zehn bis fünfzehn Minuten. Nach dieser Sitzung wird einer nach dem anderen gebeten, seine Forderungen vorzulesen und die Notizen für alle in der Gruppe sichtbar auf eine Tafel im Raum zu kleben. Die Anforderungen werden in natürliche Kategorien wie Beleuchtung, Hebehilfen, Produktionsausrüstung, Reichweitenanforderungen und Flexibilitätsanforderungen gruppiert. Nach Abschluss der Runde erhält die Gruppe die Möglichkeit, den Forderungskatalog kategorieweise hinsichtlich Relevanz und Priorität zu diskutieren und zu kommentieren.
Der Satz von benutzerspezifizierten Anforderungen, die in einem Prozess wie dem oben beschriebenen gesammelt werden, bildet eine der Grundlagen für die Entwicklung der Anforderungsspezifikation. Zusätzliche Informationen in diesem Prozess können von anderen Kategorien von Akteuren produziert werden, beispielsweise Produktdesignern, Qualitätsingenieuren oder Ökonomen; Es ist jedoch wichtig, den potenziellen Beitrag zu erkennen, den die Benutzer in diesem Zusammenhang leisten können.
Priorisierung und Anforderungsspezifikation
Im Hinblick auf den Spezifikationsprozess ist es wesentlich, dass die unterschiedlichen Anforderungstypen entsprechend ihrer jeweiligen Bedeutung berücksichtigt werden; Andernfalls müssen alle berücksichtigten Aspekte parallel betrachtet werden, was die Entwurfssituation tendenziell komplex und schwer handhabbar machen kann. Aus diesem Grund sind Checklisten, die aufwändig sein müssen, um ihren Zweck zu erfüllen, in einer bestimmten Entwurfssituation oft schwierig zu handhaben.
Es kann schwierig sein, ein Prioritätsschema zu entwickeln, das allen Typen von Arbeitsstationen gleichermaßen gut dient. Geht man jedoch davon aus, dass der manuelle Umgang mit Materialien, Werkzeugen oder Produkten ein wesentlicher Aspekt der am Arbeitsplatz durchzuführenden Arbeiten ist, stehen mit hoher Wahrscheinlichkeit Aspekte der muskuloskelettalen Belastung ganz oben auf der Prioritätenliste. Die Gültigkeit dieser Annahme kann in der Benutzeranforderungserfassungsstufe des Prozesses überprüft werden. Relevante Benutzeranforderungen können beispielsweise mit Muskelbelastung und -ermüdung, Greifen, Sehen oder einfacher Handhabung verbunden sein.
Es ist wichtig zu erkennen, dass es möglicherweise nicht möglich ist, alle benutzerspezifischen Anforderungen in technische Anforderungsspezifikationen umzuwandeln. Solche Anforderungen können sich zwar auf subtilere Aspekte wie Komfort beziehen, können aber dennoch von hoher Relevanz sein und sollten im Prozess berücksichtigt werden.
Belastungsvariablen des Bewegungsapparates
In Übereinstimmung mit der obigen Argumentation werden wir hier die Ansicht vertreten, dass es eine Reihe grundlegender ergonomischer Variablen in Bezug auf die muskuloskelettale Belastung gibt, die im Designprozess vorrangig berücksichtigt werden müssen, um das Risiko von zu eliminieren arbeitsbedingte Erkrankungen des Bewegungsapparates (WRMD). Diese Art von Störung ist ein im Bewegungsapparat lokalisiertes Schmerzsyndrom, das sich durch wiederholte Belastung eines bestimmten Körperteils über lange Zeiträume entwickelt (Putz-Anderson 1988). Die wesentlichen Variablen sind (z. B. Corlett 1988):
Gegenüber Muskelkraftkann die Kriterieneinstellung auf einer Kombination aus biomechanischen, physiologischen und psychologischen Faktoren beruhen. Dies ist eine Variable, die durch die Messung des Ausgangskraftbedarfs in Bezug auf die zu handhabende Masse oder die erforderliche Kraft, beispielsweise für die Betätigung von Griffen, operationalisiert wird. Auch Belastungsspitzen in Verbindung mit hochdynamischen Arbeiten müssen ggf. berücksichtigt werden.
Arbeitshaltung Die Anforderungen können bewertet werden, indem (a) Situationen, in denen die Gelenkstrukturen über den natürlichen Bewegungsbereich hinaus gedehnt werden, und (b) bestimmte besonders unangenehme Situationen wie kniende, verdrehte oder gebeugte Haltungen oder Arbeiten mit der Hand über der Schulter erfasst werden Niveau.
Zeit fordert kann auf der Grundlage der Zuordnung von (a) kurzzyklischer, sich wiederholender Arbeit und (b) statischer Arbeit bewertet werden. Es sollte beachtet werden, dass die Bewertung der statischen Arbeit nicht ausschließlich das Aufrechterhalten einer Arbeitshaltung oder das Erzeugen einer konstanten Ausgangskraft über längere Zeiträume betreffen muss; aus Sicht der stabilisierenden Muskulatur, insbesondere im Schultergelenk, kann scheinbar dynamische Arbeit einen statischen Charakter haben. Es kann daher erforderlich sein, längere Zeiträume der gemeinsamen Mobilisierung zu berücksichtigen.
Die Akzeptanz einer Situation richtet sich in der Praxis natürlich nach der Beanspruchung des am stärksten belasteten Körperteils.
Es ist wichtig zu beachten, dass diese Variablen nicht einzeln, sondern gemeinsam betrachtet werden sollten. Beispielsweise können hohe Kraftanforderungen akzeptabel sein, wenn sie nur gelegentlich auftreten; Hin und wieder den Arm über Schulterhöhe zu heben, ist normalerweise kein Risikofaktor. Aber Kombinationen zwischen solchen Basisvariablen müssen berücksichtigt werden. Dies macht die Festlegung von Kriterien tendenziell schwierig und kompliziert.
Im Überarbeitete NIOSH-Gleichung für die Gestaltung und Bewertung manueller Handhabungsaufgaben (Waters et al. 1993) wird dieses Problem angegangen, indem eine Gleichung für empfohlene Gewichtsgrenzen aufgestellt wird, die die folgenden vermittelnden Faktoren berücksichtigt: horizontaler Abstand, vertikale Hubhöhe, Hubasymmetrie, Griffkopplung und Hubhäufigkeit. Auf diese Weise kann die nach biomechanischen, physiologischen und psychologischen Kriterien unter idealen Bedingungen zulässige Belastungsgrenze von 23 Kilogramm unter Berücksichtigung der Besonderheiten der Arbeitssituation erheblich modifiziert werden. Die NIOSH-Gleichung bietet eine Grundlage für die Bewertung von Arbeiten und Arbeitsplätzen mit Hebeaufgaben. Es gibt jedoch schwerwiegende Einschränkungen hinsichtlich der Verwendbarkeit der NIOSH-Gleichung: Beispielsweise können nur zweihändige Hebevorgänge analysiert werden; Wissenschaftliche Beweise für die Analyse von einhändigen Hebevorgängen sind noch nicht schlüssig. Dies verdeutlicht die Problematik der ausschließlichen Anwendung wissenschaftlicher Erkenntnisse als Grundlage für die Arbeits- und Arbeitsplatzgestaltung: In der Praxis müssen wissenschaftliche Erkenntnisse mit fundierten Ansichten von Personen zusammengeführt werden, die über direkte oder indirekte Erfahrungen mit der betrachteten Art von Arbeit verfügen.
Das Würfelmodell
Die ergonomische Bewertung von Arbeitsplätzen unter Berücksichtigung der komplexen Menge an zu berücksichtigenden Variablen ist in hohem Maße ein Kommunikationsproblem. Basierend auf der oben beschriebenen Priorisierungsdiskussion wurde ein Würfelmodell zur ergonomischen Bewertung von Arbeitsplätzen entwickelt (Kadefors 1993). Hier war das primäre Ziel, ein didaktisches Werkzeug für Kommunikationszwecke zu entwickeln, basierend auf der Annahme, dass Ausgangskraft, Körperhaltung und Zeitmaße in den allermeisten Situationen zusammenhängende, priorisierte Basisvariablen darstellen.
Für jede der Basisvariablen wird anerkannt, dass die Anforderungen in Bezug auf die Schwere gruppiert werden können. Hier wird vorgeschlagen, dass eine solche Gruppierung in drei Klassen erfolgen kann: (1) geringe Ansprüche(2) mittlere Ansprüche oder (3) hohe anforderungen. Die Bedarfsniveaus können entweder unter Verwendung aller verfügbaren wissenschaftlichen Beweise oder durch einen Konsensansatz mit einem Gremium von Benutzern festgelegt werden. Diese beiden Alternativen schließen sich natürlich nicht gegenseitig aus und können durchaus zu ähnlichen Ergebnissen führen, aber wahrscheinlich mit unterschiedlichem Grad an Allgemeingültigkeit.
Wie oben erwähnt, bestimmen Kombinationen der Basisvariablen weitgehend das Risikoniveau in Bezug auf die Entwicklung von muskuloskelettalen Beschwerden und kumulativen Traumaerkrankungen. Beispielsweise können hohe zeitliche Anforderungen eine Arbeitssituation unzumutbar machen, wenn gleichzeitig mindestens mittlere Anforderungen an Kraft und Körperhaltung gestellt werden. Wesentlich bei der Gestaltung und Bewertung von Arbeitsplätzen ist die gemeinsame Betrachtung der wichtigsten Variablen. Hier ein Würfelmodell für solche Bewertungszwecke vorgeschlagen. Die Grundvariablen – Kraft, Körperhaltung und Zeit – bilden die drei Achsen des Würfels. Für jede Anforderungskombination kann ein Unterwürfel definiert werden; insgesamt enthält das Modell 27 solcher Teilwürfel (siehe Abbildung 1).
Abbildung 1. Das "Würfelmodell" für die Ergonomiebewertung. Jeder Würfel repräsentiert eine Kombination aus Kraft-, Haltungs- und Zeitanforderungen. Licht: akzeptable Kombination; grau: bedingt akzeptabel; schwarz: nicht akzeptabel
Ein wesentlicher Aspekt des Modells ist der Akzeptanzgrad der Nachfragekombinationen. In dem Modell wird ein Drei-Zonen-Klassifizierungsschema für die Akzeptanz vorgeschlagen: (1) Die Situation ist akzeptabel, (2) die Situation ist bedingt akzeptabel oder (3) die Situation ist nicht akzeptabel. Zu didaktischen Zwecken kann jedem Teilwürfel eine bestimmte Textur oder Farbe gegeben werden (z. B. grün-gelb-rot). Auch hier kann die Bewertung nutzerbasiert oder auf wissenschaftlichen Erkenntnissen beruhen. Der bedingt akzeptable (gelbe) Bereich bedeutet, dass „ein nicht zu vernachlässigendes Krankheits- oder Verletzungsrisiko für die gesamte oder einen Teil der betreffenden Anwenderpopulation besteht“ (CEN 1994).
Um diesen Ansatz zu entwickeln, ist es nützlich, einen Fall zu betrachten: die Bewertung der Belastung auf der Schulter bei mäßig schnellem einhändigem Materialhandling. Dies ist ein gutes Beispiel, da in solchen Situationen normalerweise die Schulterstrukturen am stärksten belastet werden.
Hinsichtlich der Kraftgröße kann dabei auf die handhabbare Masse zurückgegriffen werden. Hier, geringer Kraftbedarf wird als Werte unter 10 % der maximalen freiwilligen Tragfähigkeit (MVLC) identifiziert, die in einem optimalen Arbeitsbereich etwa 1.6 kg beträgt. Hoher Kraftbedarf erfordert mehr als 30 % MVLC, ungefähr 4.8 kg. Mittlerer Kraftbedarf liegt zwischen diesen Grenzen. Geringe Haltungsbelastung ist, wenn der Oberarm nahe am Brustkorb liegt. Hohe Haltungsbelastung ist, wenn die Humerusabduktion oder -flexion 45° überschreitet. Mittlere Haltungsbelastung liegt vor, wenn der Abduktions-/Flexionswinkel zwischen 15° und 45° liegt. Geringer Zeitbedarf ist, wenn die Handhabung weniger als eine Stunde pro Arbeitstag ein- und ausschaltet oder ununterbrochen weniger als 10 Minuten pro Tag dauert. Hoher Zeitbedarf liegt vor, wenn die Handhabung mehr als vier Stunden pro Arbeitstag oder ununterbrochen mehr als 30 Minuten (anhaltend oder wiederholt) stattfindet. Mittelfristiger Anspruch ist, wenn die Exposition zwischen diesen Grenzwerten liegt.
In Abbildung 1 wurden Anforderungskombinationen Akzeptabilitätsgrade zugeordnet. So zeigt sich, dass hohe Zeitanforderungen nur mit kombiniert geringen Kraft- und Haltungsanforderungen kombiniert werden können. Der Übergang von inakzeptabel zu akzeptabel kann durch Reduzierung der Anforderungen in beiden Dimensionen erfolgen, aber die Reduzierung der Zeitanforderungen ist in vielen Fällen der effizienteste Weg. Mit anderen Worten, in einigen Fällen sollte die Arbeitsplatzgestaltung geändert werden, in anderen Fällen kann es effizienter sein, die Arbeitsorganisation zu ändern.
Die Verwendung eines Konsensgremiums mit einer Gruppe von Benutzern zur Definition von Anforderungsniveaus und zur Klassifizierung des Akzeptanzgrades kann den Arbeitsstationsdesignprozess erheblich verbessern, wie unten betrachtet wird.
Zusätzliche Variablen
Zusätzlich zu den oben betrachteten Basisvariablen müssen abhängig von den besonderen Bedingungen der zu analysierenden Situation eine Reihe von Variablen und Faktoren berücksichtigt werden, die den Arbeitsplatz aus ergonomischer Sicht charakterisieren. Sie beinhalten:
Diese Faktoren können weitgehend einzeln betrachtet werden; daher kann der Checklistenansatz nützlich sein. Grandjean (1988) behandelt in seinem Lehrbuch die wesentlichen Aspekte, die in diesem Zusammenhang üblicherweise zu berücksichtigen sind. Konz (1990) stellt in seinen Richtlinien für die Organisation und Gestaltung von Arbeitsplätzen eine Reihe von Leitfragen zur Verfügung, die sich auf die Schnittstelle zwischen Mensch und Maschine in Fertigungssystemen konzentrieren.
Im hier folgenden Designprozess sollte die Checkliste in Verbindung mit den benutzerspezifischen Anforderungen gelesen werden.
Beispiel für ein Arbeitsplatzdesign: Manuelles Schweißen
Als veranschaulichendes (hypothetisches) Beispiel wird hier der Entwurfsprozess beschrieben, der zur Implementierung einer Arbeitsstation für manuelles Schweißen führte (Sundin et al. 1994). Schweißen ist eine Tätigkeit, die häufig hohe Anforderungen an die Muskelkraft mit hohen Anforderungen an die manuelle Präzision verbindet. Die Arbeit hat einen statischen Charakter. Der Schweißer schweißt oft ausschließlich. Die Arbeitsumgebung beim Schweißen ist im Allgemeinen feindlich, mit einer Kombination aus hohen Lärmpegeln, Schweißrauch und optischer Strahlung.
Die Aufgabe bestand darin, einen Arbeitsplatz zum manuellen MIG (Metall-Inertgas)-Schweißen von mittelgroßen Objekten (bis 300 kg) in einer Werkstattumgebung zu entwickeln. Der Arbeitsplatz musste flexibel sein, da eine Vielzahl von Objekten zu fertigen waren. Es gab hohe Anforderungen an Produktivität und Qualität.
Ein QFD-Prozess wurde durchgeführt, um eine Reihe von Workstation-Anforderungen in Bezug auf Benutzer bereitzustellen. Beteiligt waren Schweißer, Produktionsingenieure und Produktdesigner. Benutzeranforderungen, die hier nicht aufgeführt sind, deckten ein breites Spektrum an Aspekten ab, darunter Ergonomie, Sicherheit, Produktivität und Qualität.
Unter Verwendung des Würfelmodellansatzes identifizierte das Gremium im Konsens Grenzen zwischen hoher, mittlerer und niedriger Last:
Aus der Auswertung mit dem Würfelmodell (Abbildung 1) ging hervor, dass hohe Zeitanforderungen bei gleichzeitig hoher oder mittlerer Kraft- und Haltungsbelastung nicht akzeptiert werden konnten. Um diese Anforderungen zu reduzieren, wurde eine mechanisierte Objekthandhabung und Werkzeugaufhängung als notwendig erachtet. Über diese Schlussfolgerung wurde Konsens entwickelt. Unter Verwendung eines einfachen computergestützten Konstruktionsprogramms (CAD) (ROOMER) wurde eine Ausrüstungsbibliothek erstellt. Verschiedene Arbeitsplatz-Layouts konnten sehr einfach entwickelt und in enger Zusammenarbeit mit den Anwendern modifiziert werden. Dieser Entwurfsansatz hat erhebliche Vorteile gegenüber der reinen Betrachtung von Plänen. Es gibt dem Benutzer eine sofortige Vorstellung davon, wie der vorgesehene Arbeitsplatz aussehen könnte.
Abbildung 2. Eine CAD-Version einer Arbeitsstation für manuelles Schweißen, die im Konstruktionsprozess entstanden ist
Bild 2 zeigt den mit dem CAD-System erreichten Schweißarbeitsplatz. Es ist ein Arbeitsplatz, der die Kraft- und Körperhaltungsanforderungen reduziert und nahezu alle verbleibenden Benutzeranforderungen erfüllt.
Abbildung 3. Die implementierte Schweißarbeitsstation
Basierend auf den Ergebnissen der ersten Schritte des Designprozesses wurde ein Schweißarbeitsplatz (Bild 3) implementiert. Zu den Vermögenswerten dieses Arbeitsplatzes gehören:
In einer realen Entwurfssituation müssen aufgrund von wirtschaftlichen, räumlichen und anderen Beschränkungen möglicherweise Kompromisse verschiedener Art eingegangen werden. Es sollte jedoch beachtet werden, dass lizenzierte Schweißer für die Schweißindustrie weltweit schwer zu bekommen sind und eine beträchtliche Investition darstellen. Kaum ein Schweißer geht als aktiver Schweißer in den Ruhestand. Den qualifizierten Schweißer am Arbeitsplatz zu halten, ist für alle Beteiligten von Vorteil: Schweißer, Unternehmen und Gesellschaft. Es gibt zum Beispiel sehr gute Gründe, warum Einrichtungen zur Objekthandhabung und -positionierung ein fester Bestandteil vieler Schweißarbeitsplätze sein sollten.
Daten für Arbeitsplatzgestaltung
Um einen Arbeitsplatz richtig gestalten zu können, bedarf es unter Umständen umfangreicher Basisinformationen. Solche Informationen umfassen anthropometrische Daten von Benutzerkategorien, Hebekraft und andere Ausgangskraftkapazitätsdaten von männlichen und weiblichen Populationen, Spezifikationen dessen, was optimale Arbeitszonen ausmacht, und so weiter. In diesem Artikel werden Verweise auf einige Schlüsselpapiere gegeben.
Die vollständigste Behandlung praktisch aller Aspekte der Arbeits- und Arbeitsplatzgestaltung ist wohl immer noch das Lehrbuch von Grandjean (1988). Informationen zu einem breiten Spektrum anthropometrischer Aspekte, die für die Gestaltung von Arbeitsplätzen relevant sind, werden von Pheasant (1986) präsentiert. Große Mengen biomechanischer und anthropometrischer Daten werden von Chaffin und Andersson (1984) angegeben. Konz (1990) hat einen praktischen Leitfaden zur Gestaltung von Arbeitsplätzen vorgelegt, der viele nützliche Faustregeln enthält. Bewertungskriterien für die obere Extremität, insbesondere in Bezug auf kumulative Traumaerkrankungen, wurden von Putz-Anderson (1988) vorgestellt. Ein Bewertungsmodell für die Arbeit mit Handwerkzeugen wurde von Sperling et al. (1993). In Bezug auf das manuelle Heben haben Waters und Mitarbeiter die überarbeitete NIOSH-Gleichung entwickelt, die bestehende wissenschaftliche Erkenntnisse zu diesem Thema zusammenfasst (Waters et al. 1993). Die Spezifikation der funktionellen Anthropometrie und der optimalen Arbeitszonen wurden beispielsweise von Rebiffé, Zayana und Tarrière (1969) sowie Das und Grady (1983a, 1983b) vorgestellt. Mital und Karwowski (1991) haben ein nützliches Buch herausgegeben, das verschiedene Aspekte insbesondere im Zusammenhang mit der Gestaltung industrieller Arbeitsplätze behandelt.
Die große Datenmenge, die benötigt wird, um Arbeitsplätze unter Berücksichtigung aller relevanten Aspekte richtig zu gestalten, wird den Einsatz moderner Informationstechnologie durch Produktionsingenieure und andere Verantwortliche erforderlich machen. Es ist wahrscheinlich, dass in naher Zukunft verschiedene Arten von Entscheidungsunterstützungssystemen verfügbar gemacht werden, beispielsweise in Form von wissensbasierten oder Expertensystemen. Berichte über solche Entwicklungen wurden beispielsweise von DeGreve und Ayoub (1987), Laurig und Rombach (1989) und Pham und Onder (1992) vorgelegt. Es ist jedoch eine äußerst schwierige Aufgabe, ein System zu entwickeln, das es dem Endbenutzer ermöglicht, einfachen Zugriff auf alle relevanten Daten zu haben, die in einer bestimmten Entwurfssituation benötigt werden.
Das gesamte Thema Personenschutz muss im Rahmen von Kontrollmethoden zur Verhütung von Arbeitsunfällen und Berufskrankheiten betrachtet werden. Dieser Artikel enthält eine detaillierte technische Erörterung der verfügbaren Arten von persönlicher Schutzausrüstung, der Gefahren, für die ihre Verwendung angezeigt sein kann, und der Kriterien für die Auswahl geeigneter Schutzausrüstung. Sofern zutreffend, sind die für Schutzgeräte und -ausrüstungen bestehenden Zulassungen, Zertifizierungen und Normen zusammengefasst. Bei der Verwendung dieser Informationen ist es wichtig, dies ständig zu berücksichtigen Persönlicher Schutz sollte als letztes Mittel angesehen werden bei der Verringerung der Risiken am Arbeitsplatz. In der Hierarchie der Methoden, die zur Beherrschung von Gefahren am Arbeitsplatz eingesetzt werden können, ist der persönliche Schutz nicht die Methode der ersten Wahl. Tatsächlich darf es nur dann verwendet werden, wenn die möglichen technischen Kontrollen, die die Gefahr reduzieren (durch Methoden wie Isolierung, Einhausung, Belüftung, Substitution oder andere Prozessänderungen), und administrative Kontrollen (wie Verkürzung der arbeitsgefährdeten Expositionszeit) vorhanden sind ) wurden so weit wie möglich umgesetzt. Es gibt jedoch Fälle, in denen Personenschutz erforderlich ist, sei es als kurzzeitige oder als langfristige Kontrolle, um Berufskrankheiten und Verletzungsrisiken zu verringern. Wenn eine solche Verwendung erforderlich ist, müssen persönliche Schutzausrüstungen und -geräte als Teil eines umfassenden Programms verwendet werden, das eine vollständige Bewertung der Gefahren, die richtige Auswahl und Anpassung der Ausrüstung, Schulung und Schulung der Personen, die die Ausrüstung verwenden, sowie Wartung und Reparatur umfasst um die Ausrüstung in gutem Betriebszustand zu halten und das allgemeine Management und Engagement der Arbeiter für den Erfolg des Schutzprogramms.
Elemente eines Personenschutzprogramms
Die offensichtliche Einfachheit einiger persönlicher Schutzausrüstungen kann zu einer groben Unterschätzung des Aufwands und der Kosten führen, die erforderlich sind, um diese Ausrüstung effektiv zu nutzen. Während einige Geräte relativ einfach sind, wie z. B. Handschuhe und Schutzschuhe, können andere Geräte wie Atemschutzmasken tatsächlich sehr komplex sein. Die Faktoren, die es schwierig machen, einen wirksamen persönlichen Schutz zu erreichen, sind jeder Methode innewohnend, die auf der Änderung des menschlichen Verhaltens beruht, um das Risiko zu verringern, und nicht auf einem Schutz, der in den Prozess an der Quelle der Gefahr eingebaut ist. Unabhängig von der jeweiligen Art der in Betracht gezogenen Schutzausrüstung gibt es eine Reihe von Elementen, die in ein persönliches Schutzprogramm aufgenommen werden müssen.
Gefährdungsbeurteilung
Wenn der persönliche Schutz eine wirksame Antwort auf ein Problem des Berufsrisikos sein soll, müssen die Art des Risikos selbst und seine Beziehung zum gesamten Arbeitsumfeld vollständig verstanden werden. Auch wenn dies so offensichtlich erscheinen mag, dass es kaum erwähnt werden muss, kann die scheinbare Einfachheit vieler Schutzgeräte eine starke Versuchung darstellen, diesen Bewertungsschritt abzukürzen. Die Folgen der Bereitstellung von Schutzvorrichtungen und -ausrüstungen, die nicht für die Gefahren und das gesamte Arbeitsumfeld geeignet sind, reichen von der Zurückhaltung oder Weigerung, ungeeignete Ausrüstung zu tragen, über die Beeinträchtigung der Arbeitsleistung bis hin zum Risiko von Verletzungen und Tod des Arbeitnehmers. Um eine angemessene Übereinstimmung zwischen dem Risiko und der Schutzmaßnahme zu erreichen, ist es notwendig, die Zusammensetzung und das Ausmaß (Konzentration) der Gefahren (einschließlich chemischer, physikalischer oder biologischer Einwirkungen) sowie die Dauer, für die das Gerät verwendet wird, zu kennen erwarteten Schutzniveau und die Art der körperlichen Aktivität, die während des Gebrauchs der Ausrüstung durchgeführt werden kann. Diese vorläufige Bewertung der Gefahren ist ein wesentlicher diagnostischer Schritt, der durchgeführt werden muss, bevor mit der Auswahl des geeigneten Schutzes fortgefahren wird.
Auswahl
Der Auswahlschritt wird teilweise durch die bei der Gefährdungsbeurteilung gewonnenen Informationen bestimmt, die mit den Leistungsdaten für die zur Verwendung in Betracht gezogene Schutzmaßnahme und dem Expositionsniveau, das nach dem Einsetzen der persönlichen Schutzmaßnahme verbleibt, abgeglichen werden. Neben diesen leistungsbezogenen Faktoren gibt es Richtlinien und Praxisstandards für die Auswahl von Geräten, insbesondere für den Atemschutz. Die Auswahlkriterien für Atemschutz wurden in Veröffentlichungen wie z Entscheidungslogik für Atemschutzgeräte vom National Institute for Occupational Safety and Health (NIOSH) in den Vereinigten Staaten. Die gleiche Art von Logik kann auf die Auswahl anderer Arten von Schutzausrüstungen und -geräten angewendet werden, basierend auf der Art und dem Ausmaß der Gefahr, dem Grad des Schutzes, den das Gerät oder die Ausrüstung bietet, und der Menge oder Konzentration des gefährlichen Stoffs, der auftreten wird verbleiben und als akzeptabel angesehen werden, während die Schutzvorrichtungen verwendet werden. Bei der Auswahl von Schutzvorrichtungen und -ausrüstungen ist es wichtig zu erkennen, dass sie Risiken und Expositionen nicht auf Null reduzieren sollen. Hersteller von Geräten wie Atemschutzmasken und Gehörschutz liefern Daten über die Leistung ihrer Geräte, wie Schutz- und Dämpfungsfaktoren. Durch die Kombination von drei wesentlichen Informationen – nämlich Art und Ausmaß der Gefahr, der gebotene Schutzgrad und das akzeptable Expositions- und Risikoniveau, während der Schutz verwendet wird – können Ausrüstung und Geräte ausgewählt werden, um Arbeitnehmer angemessen zu schützen.
Passend zu
Jede Schutzvorrichtung muss ordnungsgemäß angebracht sein, wenn sie den Schutzgrad bieten soll, für den sie entwickelt wurde. Neben der Leistungsfähigkeit einer Schutzausrüstung ist auch die richtige Passform ein wichtiger Faktor für die Akzeptanz der Ausrüstung und die Motivation der Menschen, sie auch tatsächlich zu nutzen. Es ist unwahrscheinlich, dass ein Schutz, der schlecht sitzt oder unbequem ist, wie beabsichtigt verwendet wird. Schlecht sitzende Ausrüstung wie Kleidung und Handschuhe können im schlimmsten Fall sogar eine Gefahr bei der Arbeit an Maschinen darstellen. Hersteller von Schutzausrüstungen und -geräten bieten eine Reihe von Größen und Designs dieser Produkte an, und die Arbeiter sollten mit einem Schutz ausgestattet werden, der richtig passt, um seinen beabsichtigten Zweck zu erfüllen.
Im Falle des Atemschutzes sind spezifische Anforderungen für das Anpassen in Normen wie den Atemschutznormen der United States Occupational Safety and Health Administration enthalten. Die Grundsätze zur Sicherstellung der richtigen Passform gelten für die gesamte Palette von Schutzausrüstungen und -vorrichtungen, unabhängig davon, ob sie von einer bestimmten Norm gefordert werden.
Aus-und Weiterbildung
Da die Natur von Schutzvorrichtungen eine Änderung des menschlichen Verhaltens erfordert, um den Arbeiter von der Arbeitsumgebung zu isolieren (anstatt die Quelle einer Gefahr von der Umgebung zu isolieren), werden persönliche Schutzprogramme wahrscheinlich nur erfolgreich sein, wenn sie eine umfassende Ausbildung und Schulung der Arbeiter beinhalten. Im Vergleich dazu kann ein System (wie z. B. eine lokale Absaugung), das die Exposition an der Quelle kontrolliert, ohne direkte Beteiligung der Arbeitnehmer effektiv arbeiten. Persönlicher Schutz erfordert jedoch die volle Beteiligung und das Engagement der Personen, die ihn verwenden, und des Managements, das ihn bereitstellt.
Die für das Management und den Betrieb eines Personenschutzprogramms Verantwortlichen müssen in der Auswahl der richtigen Ausrüstung geschult werden, um sicherzustellen, dass sie den Personen, die sie verwenden, in Anbetracht der Art der Gefahren, vor denen die Ausrüstung schützen soll, richtig angepasst ist , und die Folgen einer schlechten Leistung oder eines Geräteausfalls. Sie müssen auch wissen, wie die Geräte repariert, gewartet und gereinigt werden, sowie Schäden und Verschleiß erkennen, die während des Gebrauchs auftreten.
Personen, die Schutzausrüstungen und -geräte verwenden, müssen die Notwendigkeit des Schutzes verstehen, die Gründe, warum sie anstelle (oder zusätzlich zu) anderen Kontrollmethoden verwendet werden, und die Vorteile, die sie aus ihrer Verwendung ziehen werden. Die Folgen einer ungeschützten Exposition sollten klar erläutert werden, ebenso wie die Möglichkeiten, wie Benutzer erkennen können, dass das Gerät nicht ordnungsgemäß funktioniert. Benutzer müssen in Methoden zum Prüfen, Anpassen, Tragen, Warten und Reinigen von Schutzausrüstung geschult werden und sich auch der Einschränkungen der Ausrüstung bewusst sein, insbesondere in Notfallsituationen.
Instandhaltung und Reparatur
Die Kosten für die Wartung und Reparatur der Ausrüstung müssen bei der Gestaltung eines persönlichen Schutzprogramms vollständig und realistisch bewertet werden. Schutzvorrichtungen unterliegen bei normalem Gebrauch einem allmählichen Leistungsabfall sowie katastrophalen Ausfällen unter extremen Bedingungen wie Notfällen. Bei der Abwägung von Kosten und Nutzen des Einsatzes von Personenschutz als Mittel zur Gefahrenkontrolle ist es sehr wichtig zu erkennen, dass die Kosten für die Einleitung eines Programms nur einen Bruchteil der Gesamtkosten für den Betrieb des Programms im Laufe der Zeit ausmachen. Wartung, Reparatur und Austausch von Geräten müssen als Fixkosten für den Betrieb eines Programms betrachtet werden, da sie für die Aufrechterhaltung der Wirksamkeit des Schutzes unerlässlich sind. Diese Programmüberlegungen sollten grundlegende Entscheidungen beinhalten, wie zum Beispiel, ob Einweg- (Einweg-) oder wiederverwendbare Schutzvorrichtungen verwendet werden sollten, und im Fall von wiederverwendbaren Vorrichtungen muss die zu erwartende Betriebsdauer bis zum Austausch angemessen geschätzt werden. Diese Entscheidungen können sehr klar definiert sein, wie in Fällen, in denen Handschuhe oder Atemschutzmasken nur einmal verwendet und weggeworfen werden, aber in vielen Fällen muss sorgfältig geprüft werden, ob die Wiederverwendung von Schutzanzügen oder Handschuhen, die durch vorherige Verwendung kontaminiert wurden, wirksam ist . Die Entscheidung, eine kostspielige Schutzvorrichtung zu entsorgen, anstatt das Risiko einer Exposition der Arbeiter aufgrund eines herabgesetzten Schutzes oder einer Kontamination der Schutzvorrichtung selbst einzugehen, muss sehr sorgfältig getroffen werden. Programme zur Gerätewartung und -reparatur müssen so konzipiert sein, dass sie Mechanismen für solche Entscheidungen enthalten.
Zusammenfassung
Schutzausrüstungen und -geräte sind wesentliche Bestandteile einer Gefahrenabwehrstrategie. Sie können effektiv eingesetzt werden, sofern ihr angemessener Platz in der Hierarchie der Kontrollen erkannt wird. Die Verwendung von Schutzausrüstungen und -geräten muss durch ein persönliches Schutzprogramm unterstützt werden, das sicherstellt, dass die Schutzausrüstung unter Verwendungsbedingungen tatsächlich wie beabsichtigt funktioniert und dass die Personen, die sie tragen müssen, sie bei ihren Arbeitsaktivitäten effektiv verwenden können.
Üblicherweise umfasst ein Werkzeug einen Kopf und einen Griff, manchmal mit einem Schaft oder, im Fall des Elektrowerkzeugs, einem Körper. Da das Tool die Anforderungen mehrerer Benutzer erfüllen muss, können grundlegende Konflikte entstehen, die ggf. mit Kompromissen gelöst werden müssen. Einige dieser Konflikte ergeben sich aus Einschränkungen der Fähigkeiten des Benutzers, andere sind dem Werkzeug selbst eigen. Es sollte jedoch daran erinnert werden, dass menschliche Grenzen inhärent und weitgehend unveränderlich sind, während Form und Funktion des Werkzeugs einem gewissen Grad an Modifikation unterliegen. Um eine wünschenswerte Änderung zu bewirken, muss daher die Aufmerksamkeit primär auf die Form des Werkzeugs und insbesondere auf die Schnittstelle zwischen dem Benutzer und dem Werkzeug, nämlich dem Griff, gerichtet werden.
Die Natur des Griffs
Die weithin akzeptierten Eigenschaften der Griffigkeit wurden in Bezug auf a definiert starker Halt, eine Präzisionsgriff und einem Hakengriff, mit der praktisch alle manuellen Tätigkeiten des Menschen durchgeführt werden können.
Bei einem Kraftgriff, wie er beim Einschlagen von Nägeln verwendet wird, wird das Werkzeug in einer Klammer gehalten, die durch die teilweise gebeugten Finger und die Handfläche gebildet wird, wobei ein Gegendruck durch den Daumen ausgeübt wird. Bei einem Präzisionsgriff, wie er beim Einstellen einer Stellschraube verwendet wird, wird das Werkzeug zwischen den Beugeseiten der Finger und dem gegenüberliegenden Daumen eingeklemmt. Eine Abwandlung des Präzisionsgriffs ist der Bleistiftgriff, der selbsterklärend ist und für filigrane Arbeiten verwendet wird. Ein Präzisionsgriff bietet nur 20 % der Kraft eines Kraftgriffs.
Ein Hakengriff wird dort verwendet, wo nichts anderes als das Halten erforderlich ist. Beim Hakengriff hängt das Objekt an den gebeugten Fingern, mit oder ohne Unterstützung des Daumens. Schwere Werkzeuge sollten so konstruiert sein, dass sie in einem Hakengriff getragen werden können.
Griffstärke
Für Präzisionsgriffe variieren die empfohlenen Dicken von 8 bis 16 Millimeter (mm) für Schraubendreher und 13 bis 30 mm für Stifte. Bei Kraftgriffen, die um einen mehr oder weniger zylindrischen Gegenstand herum angewendet werden, sollten die Finger mehr als die Hälfte des Umfangs umfassen, aber Finger und Daumen sollten sich nicht berühren. Die empfohlenen Durchmesser reichen von nur 25 mm bis zu 85 mm. Das Optimum liegt je nach Handgröße wahrscheinlich bei etwa 55 bis 65 mm für Männer und 50 bis 60 mm für Frauen. Personen mit kleinen Händen sollten keine sich wiederholenden Bewegungen in Kraftgriffen mit einem Durchmesser von mehr als 60 mm ausführen.
Griffstärke und Handspanne
Der Gebrauch eines Werkzeugs erfordert Kraft. Außer beim Halten ist die größte Anforderung an die Handkraft beim Einsatz von Kreuzhebelwerkzeugen wie Zangen und Brechwerkzeugen zu finden. Die beim Brechen wirksame Kraft ist eine Funktion der Griffstärke und der erforderlichen Spannweite des Werkzeugs. Die maximale funktionelle Spannweite zwischen dem Daumenende und den Enden der Greiffinger beträgt im Durchschnitt etwa 145 mm für Männer und 125 mm für Frauen, mit ethnischen Schwankungen. Für eine optimale Spannweite, die sowohl für Männer als auch für Frauen zwischen 45 und 55 mm liegt, reicht die verfügbare Griffstärke für eine einzelne kurzzeitige Aktion von etwa 450 bis 500 Newton für Männer und 250 bis 300 Newton für Frauen, jedoch für wiederholte Aktionen Die empfohlene Anforderung liegt wahrscheinlich eher bei 90 bis 100 Newton für Männer und 50 bis 60 Newton für Frauen. Viele häufig verwendete Klemmen oder Zangen sind für eine einhändige Verwendung, insbesondere bei Frauen, nicht geeignet.
Wenn ein Griff der eines Schraubendrehers oder eines ähnlichen Werkzeugs ist, wird das verfügbare Drehmoment durch die Fähigkeit des Benutzers bestimmt, Kraft auf den Griff zu übertragen, und wird somit sowohl durch den Reibungskoeffizienten zwischen Hand und Griff als auch durch den Durchmesser des Griffs bestimmt. Unregelmäßigkeiten in der Form des Griffs haben wenig oder keinen Einfluss auf die Fähigkeit, ein Drehmoment aufzubringen, obwohl scharfe Kanten Unbehagen und eventuell Gewebeschäden verursachen können. Der Durchmesser eines zylindrischen Griffs, der das größte Drehmoment ermöglicht, beträgt 50 bis 65 mm, während der einer Kugel 65 bis 75 mm beträgt.
Griffe
Griffform
Die Form eines Griffs sollte den Kontakt zwischen Haut und Griff maximieren. Es sollte verallgemeinert und einfach sein, üblicherweise einen abgeflachten zylindrischen oder elliptischen Querschnitt haben, mit langen Kurven und flachen Ebenen oder einem Sektor einer Kugel, der so zusammengesetzt ist, dass er sich an die allgemeinen Konturen der greifenden Hand anpasst. Aufgrund seiner Befestigung am Körper eines Werkzeugs kann der Griff auch die Form eines Steigbügels, einer T-Form oder einer L-Form haben, aber der Teil, der die Hand berührt, hat die Grundform.
Der von den Fingern eingeschlossene Raum ist natürlich komplex. Die Verwendung einfacher Kurven ist ein Kompromiss, der dazu bestimmt ist, den Variationen gerecht zu werden, die durch unterschiedliche Hände und unterschiedliche Flexionsgrade dargestellt werden. In dieser Hinsicht ist es unerwünscht, irgendeine Konturanpassung von gebeugten Fingern in Form von Graten und Tälern, Riffelungen und Vertiefungen in den Griff einzuführen, da diese Modifikationen tatsächlich nicht auf eine beträchtliche Anzahl von Händen passen würden und tatsächlich übersteigen könnten über einen längeren Zeitraum Druckverletzungen der Weichteile verursachen. Insbesondere sind Aussparungen größer als 3 mm nicht zu empfehlen.
Eine Modifikation des zylindrischen Abschnitts ist der sechseckige Abschnitt, der bei der Konstruktion von Kleinkaliberwerkzeugen oder -instrumenten von besonderem Wert ist. Es ist einfacher, einen stabilen Griff auf einem Sechskantabschnitt mit kleinem Kaliber zu halten als auf einem Zylinder. Dreieckige und quadratische Querschnitte wurden ebenfalls mit unterschiedlichem Erfolg verwendet. In diesen Fällen müssen die Kanten abgerundet werden, um Druckverletzungen vorzubeugen.
Griffige Oberfläche und Textur
Nicht umsonst ist Holz seit Jahrtausenden das Material der Wahl für andere Werkzeuggriffe als für Zerkleinerungswerkzeuge wie Zangen oder Klemmen. Zusätzlich zu seiner ästhetischen Anziehungskraft ist Holz leicht verfügbar und von ungelernten Arbeitern leicht zu bearbeiten und hat Eigenschaften in Bezug auf Elastizität, Wärmeleitfähigkeit, Reibungswiderstand und relative Leichtigkeit im Verhältnis zur Masse, die es für diese und andere Verwendungen sehr akzeptabel gemacht haben.
In den letzten Jahren haben sich für viele Werkzeuge Metall- und Kunststoffgriffe durchgesetzt, letztere insbesondere für den Einsatz mit leichten Hämmern oder Schraubendrehern. Ein Metallgriff überträgt jedoch mehr Kraft auf die Hand und sollte vorzugsweise von einer Gummi- oder Kunststoffhülle umgeben sein. Die Grifffläche sollte nach Möglichkeit leicht komprimierbar, nichtleitend und glatt sein und die Oberfläche sollte maximiert sein, um eine möglichst großflächige Druckverteilung zu gewährleisten. Ein Schaumgummigriff wurde verwendet, um die Wahrnehmung von Ermüdung und Zärtlichkeit der Hand zu reduzieren.
Die Reibungseigenschaften der Werkzeugoberfläche ändern sich mit dem von der Hand ausgeübten Druck, mit der Beschaffenheit der Oberfläche und der Verschmutzung durch Öl oder Schweiß. Eine kleine Menge Schweiß erhöht den Reibungskoeffizienten.
Länge des Griffs
Die Länge des Griffs wird durch die kritischen Abmessungen der Hand und die Beschaffenheit des Werkzeugs bestimmt. Für einen Hammer, der zum Beispiel mit einer Hand in einem Kraftgriff verwendet werden soll, reicht die ideale Länge von einem Minimum von etwa 100 mm bis zu einem Maximum von etwa 125 mm. Kurze Griffe sind für einen Kraftgriff ungeeignet, während ein Griff kürzer als 19 mm nicht richtig zwischen Daumen und Zeigefinger gegriffen werden kann und für jedes Werkzeug ungeeignet ist.
Idealerweise sollte der Griff für ein Elektrowerkzeug oder eine andere Handsäge als eine Laub- oder Laubsäge auf der 97.5-Perzentil-Ebene die Breite der geschlossenen Hand aufnehmen, nämlich 90 bis 100 mm in der Längsachse und 35 bis 40 mm kurz.
Gewicht und Balance
Gewicht ist bei Präzisionswerkzeugen kein Problem. Für schwere Hämmer und Elektrowerkzeuge ist ein Gewicht zwischen 0.9 kg und 1.5 kg akzeptabel, maximal etwa 2.3 kg. Bei Gewichten, die höher als empfohlen sind, sollte das Werkzeug mechanisch abgestützt werden.
Im Fall eines Schlagwerkzeugs wie eines Hammers ist es wünschenswert, das Gewicht des Griffs auf das mit der strukturellen Festigkeit vereinbare Minimum zu reduzieren und so viel Gewicht wie möglich im Kopf zu haben. Bei anderen Tools sollte das Gleichgewicht möglichst gleichmäßig verteilt sein. Bei Werkzeugen mit kleinen Köpfen und voluminösen Griffen ist dies möglicherweise nicht möglich, aber der Griff sollte dann zunehmend leichter gemacht werden, wenn die Masse relativ zur Größe des Kopfes und des Schafts zunimmt.
Bedeutung von Handschuhen
Von Werkzeugdesignern wird manchmal übersehen, dass Werkzeuge nicht immer mit bloßen Händen gehalten und bedient werden. Handschuhe werden üblicherweise aus Sicherheits- und Komfortgründen getragen. Schutzhandschuhe sind selten sperrig, aber Handschuhe, die in kalten Klimazonen getragen werden, können sehr schwer sein und nicht nur das sensorische Feedback, sondern auch die Greif- und Haltefähigkeit beeinträchtigen. Das Tragen von Woll- oder Lederhandschuhen kann die Handdicke um 5 mm und die Handbreite am Daumen um 8 mm erhöhen, während schwere Fäustlinge bis zu 25 bis 40 mm hinzufügen können.
Händigkeit
Die Mehrheit der Bevölkerung in der westlichen Hemisphäre bevorzugt die Verwendung der rechten Hand. Einige wenige sind funktionell beidhändig, und alle Personen können lernen, mit beiden Händen mehr oder weniger effizient zu arbeiten.
Obwohl die Anzahl der Linkshänder gering ist, sollte das Anbringen von Griffen an Werkzeugen, wo immer dies möglich ist, das Werkzeug sowohl für Links- als auch für Rechtshänder handhabbar machen (Beispiele wären die Positionierung des sekundären Griffs in einem Elektrowerkzeug oder dem Fingerschlaufen in Scheren oder Klemmen), es sei denn, dies ist eindeutig ineffizient, wie im Fall von Schraubverschlüssen, die darauf ausgelegt sind, die kräftigen supinierenden Unterarmmuskeln eines Rechtshänders auszunutzen, während der Linkshänder ausgeschlossen wird. hindern, sie mit gleicher Wirksamkeit zu verwenden. Eine solche Einschränkung muss in Kauf genommen werden, da das Vorsehen von Linksgewinden keine akzeptable Lösung darstellt.
Bedeutung des Geschlechts
Im Allgemeinen haben Frauen tendenziell kleinere Handabmessungen, einen kleineren Griff und etwa 50 bis 70 % weniger Kraft als Männer, obwohl natürlich einige Frauen am oberen Perzentilende größere Hände und größere Kraft haben als einige Männer am unteren Perzentilende. Infolgedessen gibt es eine beträchtliche, wenn auch unbestimmte Anzahl von Personen, meist Frauen, die Schwierigkeiten haben, verschiedene Handwerkzeuge zu handhaben, die für die Verwendung durch Männer konzipiert wurden, darunter insbesondere schwere Hämmer und schwere Zangen sowie Metallschneiden und Crimpen sowie Spannwerkzeuge und Abisolierzangen. Die Verwendung dieser Werkzeuge durch Frauen kann eine unerwünschte zweihändige statt einhändige Funktion erfordern. In einem gemischtgeschlechtlichen Arbeitsplatz ist daher darauf zu achten, dass Werkzeuge in geeigneter Größe nicht nur für die Anforderungen von Frauen, sondern auch für Männer, die am unteren Ende der Handdimensionen angesiedelt sind, zur Verfügung stehen.
Besondere Überlegungen
Die Ausrichtung eines Werkzeuggriffs sollte, wo möglich, der operierenden Hand erlauben, sich der natürlichen funktionellen Position von Arm und Hand anzupassen, nämlich mit dem Handgelenk mehr als halb supiniert, etwa 15° abduziert und leicht dorsalflektiert, mit dem kleinen Finger in fast vollständiger Flexion, die anderen weniger und der Daumen adduziert und leicht gebeugt, eine Haltung, die manchmal fälschlicherweise als Händedruckposition bezeichnet wird. (Beim Handschlag wird das Handgelenk nicht mehr als halb supiniert.) Die Kombination aus Adduktion und Dorsalflexion am Handgelenk mit unterschiedlicher Flexion von Fingern und Daumen erzeugt einen Greifwinkel von etwa 80° zwischen Armlängsachse und a Linie, die durch den Mittelpunkt der von Daumen und Zeigefinger gebildeten Schleife verläuft, dh die Querachse der Faust.
Das Zwingen der Hand in eine Position der Ulnarabweichung, d. h. mit der zum kleinen Finger gebogenen Hand, wie es bei der Verwendung einer Standardzange der Fall ist, erzeugt Druck auf die Sehnen, Nerven und Blutgefäße innerhalb der Handgelenksstruktur und kann zu Schmerzen führen die behindernden Zustände von Tenosynovitis, Karpaltunnelsyndrom und dergleichen. Durch Biegen des Griffs und gerades Handgelenk (d. h. durch Biegen des Werkzeugs und nicht der Hand) kann eine Kompression von Nerven, Weichteilen und Blutgefäßen vermieden werden. Obwohl dieses Prinzip seit langem anerkannt ist, wurde es von Werkzeugherstellern oder der Benutzeröffentlichkeit nicht allgemein akzeptiert. Es findet insbesondere Anwendung bei der Konstruktion von Kreuzhebelwerkzeugen wie Zangen sowie Messern und Hämmern.
Zangen und Kreuzhebelwerkzeuge
Die Form der Griffe von Zangen und ähnlichen Geräten muss besonders berücksichtigt werden. Herkömmlicherweise haben Zangen gekrümmte Griffe gleicher Länge, wobei die obere Krümmung der Krümmung der Handfläche und die untere Krümmung der Krümmung der gebeugten Finger angenähert ist. Wenn das Werkzeug in der Hand gehalten wird, fluchtet die Achse zwischen den Griffen mit der Achse der Backen der Zange. Folglich ist es bei der Operation erforderlich, das Handgelenk in extremer Ulnardeviation zu halten, dh in Richtung des kleinen Fingers gebeugt, während es wiederholt gedreht wird. In dieser Position ist der Einsatz des Hand-Handgelenk-Arm-Segments des Körpers äußerst ineffizient und sehr belastend für die Sehnen und Gelenkstrukturen. Wenn sich die Aktion wiederholt, kann dies zu verschiedenen Manifestationen von Überbeanspruchungsverletzungen führen.
Um diesem Problem entgegenzuwirken, ist in den letzten Jahren eine neue und ergonomisch besser geeignete Zangenversion erschienen. Bei dieser Zange ist die Achse der Griffe gegenüber der Achse der Backen um etwa 45° gebogen. Die Griffe sind verdickt, um ein besseres Greifen mit weniger lokalem Druck auf die Weichteile zu ermöglichen. Der obere Griff ist proportional länger mit einer Form, die in und um die ulnare Seite der Handfläche passt. Das vordere Ende des Griffs enthält eine Daumenstütze. Der untere Griff ist kürzer, mit einem Zapfen oder abgerundeten Vorsprung am vorderen Ende und einer Krümmung, die den gebeugten Fingern entspricht.
Während das Vorhergehende eine etwas radikale Änderung ist, können mehrere ergonomisch sinnvolle Verbesserungen relativ leicht an Zangen vorgenommen werden. Das vielleicht Wichtigste, wo ein Kraftgriff erforderlich ist, liegt in der Verdickung und leichten Abflachung der Griffe, mit einer Daumenstütze am Kopfende des Griffs und einer leichten Aufweitung am anderen Ende. Wenn dies nicht integraler Bestandteil des Designs ist, kann diese Modifikation erreicht werden, indem der grundlegende Metallgriff mit einer festen oder abnehmbaren nichtleitenden Hülle aus Gummi oder einem geeigneten synthetischen Material umhüllt und möglicherweise stumpf aufgerauht wird, um die taktile Qualität zu verbessern. Eine Vertiefung der Griffe für die Finger ist unerwünscht. Für wiederholten Gebrauch kann es wünschenswert sein, eine leichte Feder in den Griff einzubauen, um ihn nach dem Schließen zu öffnen.
Die gleichen Prinzipien gelten für andere Kreuzhebelwerkzeuge, insbesondere in Bezug auf Dickenänderung und Abflachung der Griffe.
Messer
Für ein Allzweckmesser, das heißt eines, das nicht in einem Dolchgriff verwendet wird, ist es wünschenswert, einen Winkel von 15° zwischen Griff und Klinge vorzusehen, um die Belastung des Gelenkgewebes zu verringern. Die Größe und Form der Griffe sollte im Allgemeinen denen anderer Werkzeuge entsprechen, aber um unterschiedliche Handgrößen zu berücksichtigen, wurde vorgeschlagen, dass Messergriffe in zwei Größen geliefert werden sollten, nämlich eine, die dem 50. bis 95. Perzentil des Benutzers passt, und eine für das 5. bis 50. Perzentil. Damit die Hand die Kraft so nah wie möglich an der Klinge ausüben kann, sollte die Oberseite des Griffs eine erhöhte Daumenauflage enthalten.
Ein Messerschutz ist erforderlich, um zu verhindern, dass die Hand nach vorne auf die Klinge rutscht. Der Schutz kann mehrere Formen annehmen, wie etwa eine Angel oder einen gebogenen Vorsprung mit einer Länge von etwa 10 bis 15 mm, der vom Griff nach unten oder rechtwinklig zum Griff vorsteht, oder ein Bügelschutz, der eine schwere Metallschlaufe von vorne nach oben umfasst Rückseite des Griffs. Die Daumenauflage dient auch dazu, ein Verrutschen zu verhindern.
Der Griff sollte den allgemeinen ergonomischen Richtlinien entsprechen und eine nachgiebige, fettbeständige Oberfläche aufweisen.
Hämmer
Die Anforderungen an Hämmer wurden oben weitgehend berücksichtigt, mit Ausnahme derjenigen, die sich auf das Biegen des Stiels beziehen. Wie oben erwähnt, kann ein erzwungenes und wiederholtes Beugen des Handgelenks Gewebeschäden verursachen. Durch Biegen des Werkzeugs anstelle des Handgelenks kann dieser Schaden reduziert werden. In Bezug auf Hämmer wurden verschiedene Winkel untersucht, aber es scheint, dass ein Abwärtsbeugen des Kopfes zwischen 10° und 20° den Komfort verbessern kann, wenn es nicht tatsächlich die Leistung verbessert.
Schraubendreher und Schabwerkzeuge
An die Griffe von Schraubendrehern und ähnlich gehaltenen Werkzeugen wie Schabern, Feilen, Handmeißeln usw. werden besondere Anforderungen gestellt. Jeder wird irgendwann mit einem Präzisionsgriff oder einem Kraftgriff verwendet. Jeweils auf die Funktionen der Finger und der Handinnenfläche zur Stabilisierung und Kraftübertragung angewiesen.
Die allgemeinen Anforderungen an Griffe wurden bereits berücksichtigt. Es hat sich herausgestellt, dass die gebräuchlichste effektive Form eines Schraubendrehergriffs die eines modifizierten Zylinders ist, der am Ende kuppelförmig ist, um die Handfläche aufzunehmen, und leicht ausgestellt ist, wo er auf den Schaft trifft, um den Enden der Finger Halt zu bieten. Auf diese Weise wird das Drehmoment größtenteils über die Handfläche ausgeübt, die durch den vom Arm ausgeübten Druck und den Reibungswiderstand an der Haut in Kontakt mit dem Griff gehalten wird. Obwohl die Finger eine gewisse Kraft übertragen, spielen sie eher eine stabilisierende Rolle, was weniger ermüdend ist, da weniger Kraft erforderlich ist. Daher wird die Kuppel des Kopfes sehr wichtig für das Griffdesign. Wenn es scharfe Kanten oder Grate an der Kuppel gibt oder wo die Kuppel auf den Griff trifft, wird entweder die Hand schwielig und verletzt, oder die Kraftübertragung wird auf die weniger effizienten und leichter ermüdenden Finger und den Daumen übertragen. Der Schaft ist üblicherweise zylindrisch, aber es wurde ein dreieckiger Schaft eingeführt, der eine bessere Unterstützung für die Finger bietet, obwohl seine Verwendung ermüdender sein kann.
Wenn die Verwendung eines Schraubendrehers oder eines anderen Befestigungselements so häufig ist, dass eine Verletzungsgefahr durch Überbeanspruchung besteht, sollte der manuelle Schraubendreher durch einen angetriebenen Schraubendreher ersetzt werden, der an einem Überkopfgurt so befestigt ist, dass er leicht zugänglich ist, ohne die Arbeit zu behindern.
Sägen und Elektrowerkzeuge
Handsägen, mit Ausnahme von Laubsägen und leichten Bügelsägen, bei denen ein Griff wie der eines Schraubendrehers am besten geeignet ist, haben üblicherweise einen Griff, der die Form eines geschlossenen Pistolengriffs hat, der am Blatt der Säge befestigt ist.
Der Griff besteht im Wesentlichen aus einer Schlaufe, in die die Finger gesteckt werden. Die Schleife ist effektiv ein Rechteck mit gekrümmten Enden. Um Handschuhe aufnehmen zu können, sollte es Innenabmessungen von etwa 90 bis 100 mm im langen Durchmesser und 35 bis 40 mm im kurzen Durchmesser haben. Der mit der Handfläche in Kontakt stehende Griff sollte die bereits erwähnte abgeflachte zylindrische Form mit zusammengesetzten Kurven haben, um sich der Handfläche und den gebeugten Fingern angemessen anzupassen. Die Breite von der äußeren Kurve zur inneren Kurve sollte etwa 35 mm betragen und die Dicke nicht mehr als 25 mm.
Seltsamerweise ist die Funktion des Greifens und Haltens eines Elektrowerkzeugs der des Haltens einer Säge sehr ähnlich, und folglich ist eine etwas ähnliche Art von Griff effektiv. Der bei Elektrowerkzeugen übliche Pistolengriff ähnelt einem offenen Sägegriff, dessen Seiten gekrümmt sind, anstatt abgeflacht zu sein.
Die meisten Elektrowerkzeuge umfassen einen Griff, einen Körper und einen Kopf. Die Platzierung des Griffs ist signifikant. Idealerweise sollten Griff, Körper und Kopf auf einer Linie liegen, sodass der Griff hinten am Körper angesetzt ist und der Kopf vorne herausragt. Die Aktionslinie ist die Linie des ausgestreckten Zeigefingers, so dass der Kopf exzentrisch zur Körpermittelachse liegt. Der Schwerpunkt des Werkzeugs liegt jedoch vor dem Griff, während das Drehmoment derart ist, dass eine Drehbewegung des Körpers erzeugt wird, die die Hand überwinden muss. Folglich wäre es angemessener, den Hauptgriff direkt unter dem Massenmittelpunkt so zu platzieren, dass der Körper ggf. sowohl hinter dem Griff als auch vorn herausragt. Alternativ kann insbesondere bei einem schweren Bohrer ein sekundärer Handgriff so unter dem Bohrer platziert werden, dass der Bohrer mit beiden Händen bedient werden kann. Elektrowerkzeuge werden normalerweise durch einen Auslöser betätigt, der in das obere vordere Ende des Griffs integriert ist und durch den Zeigefinger betätigt wird. Der Auslöser sollte so konstruiert sein, dass er von beiden Händen bedient werden kann und einen leicht rückstellbaren Verriegelungsmechanismus enthalten muss, um die Stromversorgung bei Bedarf aufrechtzuerhalten.
Augen- und Gesichtsschutz umfasst Schutzbrillen, Schutzbrillen, Gesichtsschutzschilde und ähnliche Artikel, die zum Schutz vor fliegenden Partikeln und Fremdkörpern, ätzenden Chemikalien, Dämpfen, Lasern und Strahlung verwendet werden. Oft muss das gesamte Gesicht vor Strahlung oder mechanischen, thermischen oder chemischen Gefahren geschützt werden. Manchmal kann ein Gesichtsschutz auch zum Schutz der Augen ausreichend sein, aber oft ist ein spezieller Augenschutz erforderlich, entweder separat oder als Ergänzung zum Gesichtsschutz.
Eine breite Palette von Berufen erfordert Augen- und Gesichtsschutz: Zu den Gefahren gehören fliegende Partikel, Dämpfe oder ätzende Feststoffe, Flüssigkeiten oder Dämpfe beim Polieren, Schleifen, Schneiden, Strahlen, Zerkleinern, Galvanisieren oder bei verschiedenen chemischen Vorgängen; gegen intensives Licht wie bei Laseroperationen; und gegen ultraviolette oder infrarote Strahlung bei Schweiß- oder Ofenarbeiten. Von den vielen verfügbaren Arten von Augen- und Gesichtsschutz gibt es für jede Gefahr den richtigen Typ. Bei bestimmten schwerwiegenden Risiken wird ein Ganzgesichtsschutz bevorzugt. Je nach Bedarf werden hauben- oder helmartige Gesichtsschutzvorrichtungen und Gesichtsschutzschilde verwendet. Brillen oder Schutzbrillen können zum speziellen Augenschutz verwendet werden.
Die beiden grundlegenden Probleme beim Tragen von Augen- und Gesichtsschutz sind (1) die Bereitstellung eines wirksamen Schutzes, der für das Tragen über lange Arbeitsstunden ohne übermäßiges Unbehagen akzeptabel ist, und (2) die Unbeliebtheit des Augen- und Gesichtsschutzes aufgrund von Sichteinschränkungen. Die periphere Sicht des Trägers wird durch die Seitenrahmen eingeschränkt; der Nasenrücken kann das binokulare Sehen stören; und Beschlagen ist ein ständiges Problem. Insbesondere in heißen Klimazonen oder bei heißen Arbeiten können zusätzliche Gesichtsbedeckungen unerträglich werden und weggeworfen werden. Kurzfristige, intermittierende Operationen verursachen auch Probleme, da die Arbeiter vergesslich und abgeneigt sein können, Schutz zu verwenden. An erster Stelle sollte immer die Verbesserung des Arbeitsumfeldes stehen und nicht der eventuelle Bedarf an persönlichem Schutz. Vor oder in Verbindung mit der Verwendung von Augen- und Gesichtsschutz müssen der Schutz von Maschinen und Werkzeugen (einschließlich Verriegelungsschutz), die Entfernung von Dämpfen und Staub durch Absaugung, die Abschirmung von Wärme- oder Strahlungsquellen und die Abschirmung von Punkten berücksichtigt werden aus denen Partikel herausgeschleudert werden können, wie z. B. Schleifmaschinen oder Drehbänke. Wenn Augen und Gesicht beispielsweise durch transparente Abschirmungen oder Trennwände geeigneter Größe und Qualität geschützt werden können, sind diese Alternativen der Verwendung von persönlichem Augenschutz vorzuziehen.
Es gibt sechs grundlegende Arten von Augen- und Gesichtsschutz:
Abbildung 1. Gängige Arten von Brillen zum Augenschutz mit oder ohne Seitenschutz
Abbildung 2. Beispiele für Schutzbrillen
Abbildung 3. Gesichtsschutz für Heißarbeiten
Abbildung 4. Protektoren für Schweißer
Es gibt Schutzbrillen, die über Korrekturbrillen getragen werden können. Oft ist es besser, die gehärteten Gläser solcher Schutzbrillen unter Anleitung eines Augenarztes anzupassen.
Schutz vor spezifischen Gefahren
Traumatische und chemische Verletzungen. Gegen Fliegen werden Gesichtsschutzschilde oder Augenschutz verwendet
Partikel, Dämpfe, Staub und chemische Gefahren. Übliche Typen sind Brillen (oft mit Seitenschutz), Schutzbrillen, Augenschutz aus Kunststoff und Gesichtsschutz. Der Helmtyp kommt zum Einsatz, wenn Verletzungsgefahren aus verschiedenen Richtungen zu erwarten sind. Der Haubentyp und der Taucherhelmtyp werden beim Sand- und Kugelstrahlen verwendet. Zum Schutz gegen bestimmte Fremdkörper können transparente Kunststoffe verschiedener Art, gehärtetes Glas oder ein Drahtgitter verwendet werden. Zum Schutz vor Chemikalien werden Augenmuschelbrillen mit Kunststoff- oder Glaslinsen oder Kunststoff-Augenschutz sowie ein taucherhelmartiges Visier oder Gesichtsschutz aus Kunststoff verwendet.
Zu den üblicherweise verwendeten Materialien gehören Polycarbonate, Acrylharze oder faserbasierte Kunststoffe. Polycarbonate sind wirksam gegen Stöße, aber möglicherweise nicht gegen korrosive Stoffe geeignet. Acryl-Protektoren sind schwächer gegen Stöße, aber zum Schutz vor chemischen Gefahren geeignet. Kunststoffe auf Faserbasis haben den Vorteil, dass sie mit einer Antibeschlagbeschichtung versehen sind. Diese Antibeschlagbeschichtung verhindert auch elektrostatische Effekte. Somit können solche Kunststoffprotektoren nicht nur bei körperlich leichten Arbeiten oder beim Umgang mit Chemikalien, sondern auch bei modernen Reinraumarbeiten verwendet werden.
Wärmestrahlung. Gesichtsschutz oder Augenschutz gegen Infrarotstrahlung werden hauptsächlich bei Ofenarbeiten und anderen heißen Arbeiten verwendet, bei denen Hochtemperatur-Strahlungsquellen ausgesetzt sind. Gleichzeitig ist in der Regel ein Schutz vor Funkenflug oder umherfliegenden heißen Gegenständen erforderlich. Hauptsächlich werden Gesichtsschutzvorrichtungen vom Helmtyp und vom Gesichtsschildtyp verwendet. Es werden verschiedene Materialien verwendet, darunter Metalldrahtgeflechte, gestanzte Aluminiumplatten oder ähnliche Metallplatten, aluminisierte Kunststoffabschirmungen oder Kunststoffabschirmungen mit Goldschichtbeschichtungen. Ein Gesichtsschutz aus Drahtgeflecht kann die Wärmestrahlung um 30 bis 50 % reduzieren. Aluminisierte Kunststoffabschirmungen bieten einen guten Schutz vor Strahlungswärme. Einige Beispiele für Gesichtsschutzschilde gegen Wärmestrahlung sind in Abbildung 1 dargestellt.
Schweißen. Schutzbrillen, Helme oder Schilde, die maximalen Augenschutz für jeden Schweiß- und Schneidprozess bieten, sollten von Bedienern, Schweißern und ihren Helfern getragen werden. Wirksamer Schutz ist nicht nur vor intensiver Licht- und Strahlenbelastung, sondern auch vor Einwirkungen auf Gesicht, Kopf und Hals gefragt. Protektoren aus glasfaserverstärktem Kunststoff oder Nylon sind effektiv, aber ziemlich teuer. Vulkanisierte Fasern werden üblicherweise als Abschirmungsmaterial verwendet. Wie in Abbildung 4 gezeigt, werden sowohl helmartige Protektoren als auch Handschutzschilde verwendet, um gleichzeitig Augen und Gesicht zu schützen. Die Anforderungen an die richtigen Filterlinsen zur Verwendung bei verschiedenen Schweiß- und Schneidvorgängen werden unten beschrieben.
Breite Spektralbänder. Schweiß- und Schneidprozesse oder Öfen geben Strahlung im ultravioletten, sichtbaren und infraroten Spektralbereich ab, die alle schädliche Auswirkungen auf die Augen haben können. Es können brillenartige oder schutzbrillenartige Schutzvorrichtungen ähnlich den in Fig. 1 und Fig. 2 gezeigten sowie Schutzvorrichtungen für Schweißer wie die in Fig. 4 gezeigten verwendet werden. Bei Schweißarbeiten werden im Allgemeinen helmartige Schutzvorrichtungen und Handschutzvorrichtungen verwendet, manchmal in Verbindung mit Brillen oder Schutzbrillen. Es ist zu beachten, dass auch für den Schweißerassistenten ein Schutz erforderlich ist.
Durchlässigkeit und Durchlässigkeitstoleranzen verschiedener Farbtöne von Filtergläsern und Filterplatten des Augenschutzes gegen hochintensives Licht sind in Tabelle 1 aufgeführt. Anleitungen zur Auswahl der richtigen Filtergläser in Bezug auf die Schutzskalen sind in Tabelle 2 bis Tabelle 6 angegeben. .
Tabelle 1. Transmissionsanforderungen (ISO 4850-1979)
Staffelnummer |
Maximale Durchlässigkeit im ultravioletten Spektrum t (), % |
Lichtdurchlässigkeit ( ), % |
Maximale mittlere Transmission im Infrarotspektrum , % |
|||
|
313 nm |
365 nm |
maximal |
Minimum |
Nahe IR 1,300 bis 780 nm, |
Mitte. IR 2,000 bis 1,300 nm , |
1.2 1.4 1.7 2.0 2.5 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 Wert kleiner oder gleich der für 365 nm zulässigen Transmission |
50 35 22 14 6,4 2,8 0,95 0,30 0,10 0,037 0,013 0,0045 0,0016 0,00060 0,00020 0,000076 0,000027 0,0000094 0,0000034 |
100 74,4 58,1 43,2 29,1 17,8 8,5 3,2 1,2 0,44 0,16 0,061 0,023 0,0085 0,0032 0,0012 0,00044 0,00016 0,000061 |
74,4 58,1 43,2 29,1 17,8 8,5 3,2 1,2 0,44 0,16 0,061 0,023 0,0085 0,0032 0,0012 0,00044 0,00016 0,000061 0,000029 |
37 33 26 21 15 12 6,4 3,2 1,7 0,81 0,43 0,20 0,10 0,050 0,027 0,014 0,007 0,003 0,003 |
37 33 26 13 9,6 8,5 5,4 3,2 1,9 1,2 0,68 0,39 0,25 0,15 0,096 0,060 0,04 0,02 0,02 |
Entnommen aus ISO 4850:1979 und reproduziert mit Genehmigung der International Organization for Standardization (ISO). Diese Standards sind bei jedem ISO-Mitglied oder beim ISO-Zentralsekretariat, Case postale 56, 1211 Genf 20, Schweiz, erhältlich. Das Urheberrecht verbleibt bei ISO.
Tabelle 2. Zu verwendende Schutzskalen für Gasschweißen und Hartlöten
Auszuführende Arbeiten1 |
l = Durchflussrate von Acetylen, in Liter pro Stunde |
|||
l £ 70 |
70 l £ 200 |
200 l £ 800 |
l > 800 |
|
Schweißen und Schweißlöten |
4 |
5 |
6 |
7 |
Schweißen mit Emittiv |
4a |
5a |
6a |
7a |
1 Je nach Einsatzbedingungen kann der nächstgrößere oder der nächstkleinere Maßstab verwendet werden.
Entnommen aus ISO 4850:1979 und reproduziert mit Genehmigung der International Organization for Standardization (ISO). Diese Standards sind bei jedem ISO-Mitglied oder beim ISO-Zentralsekretariat, Case postale 56, 1211 Genf 20, Schweiz, erhältlich. Das Urheberrecht verbleibt bei ISO.
Tabelle 3. Schutzskalen für das Sauerstoffschneiden
Auszuführende Arbeiten1 |
Durchflussrate von Sauerstoff, in Liter pro Stunde |
||
900 bis 2,000 |
2,000 bis 4,000 |
4,000 bis 8,000 |
|
Sauerstoffschneiden |
5 |
6 |
7 |
1 Je nach Einsatzbedingungen kann der nächstgrößere oder der nächstkleinere Maßstab verwendet werden.
HINWEIS: 900 bis 2,000 bzw. 2,000 bis 8,000 Liter Sauerstoff pro Stunde entsprechen ziemlich genau dem Einsatz von Schneiddüsendurchmessern von 1 bis 1.5 bzw. 2 mm.
Entnommen aus ISO 4850:1979 und reproduziert mit Genehmigung der International Organization for Standardization (ISO). Diese Standards sind bei jedem ISO-Mitglied oder beim ISO-Zentralsekretariat, Case postale 56, 1211 Genf 20, Schweiz, erhältlich. Das Urheberrecht verbleibt bei ISO.
Tabelle 4. Schutzmaßstäbe für das Plasmalichtbogenschneiden
Auszuführende Arbeiten1 |
l = Strom, in Ampere |
||
l £ 150 |
150 l £ 250 |
250 l £ 400 |
|
Thermisches Schneiden |
11 |
12 |
13 |
1 Je nach Einsatzbedingungen kann der nächstgrößere oder der nächstkleinere Maßstab verwendet werden.
Entnommen aus ISO 4850:1979 und reproduziert mit Genehmigung der International Organization for Standardization (ISO). Diese Standards sind bei jedem ISO-Mitglied oder beim ISO-Zentralsekretariat, Case postale 56, 1211 Genf 20, Schweiz, erhältlich. Das Urheberrecht verbleibt bei ISO.
Tabelle 5. Schutzskalen für Lichtbogenschweißen oder Fugenhobeln
1 Je nach Einsatzbedingungen kann der nächstgrößere oder der nächstkleinere Maßstab verwendet werden.
2 Der Ausdruck „Schwermetalle“ bezieht sich auf Stähle, legierte Stähle, Kupfer und seine Legierungen usw.
ANMERKUNG: Die farbigen Bereiche entsprechen den Bereichen, in denen die Schweißvorgänge normalerweise nicht in der aktuellen Praxis des manuellen Schweißens verwendet werden.
Entnommen aus ISO 4850:1979 und reproduziert mit Genehmigung der International Organization for Standardization (ISO). Diese Standards sind bei jedem ISO-Mitglied oder beim ISO-Zentralsekretariat, Case postale 56, 1211 Genf 20, Schweiz, erhältlich. Das Urheberrecht verbleibt bei ISO.
Tabelle 6. Schutzskalen für das Plasma-Direktlichtbogenschweißen
1 Je nach Einsatzbedingungen kann der nächstgrößere oder der nächstkleinere Maßstab verwendet werden.
Die farbigen Bereiche entsprechen den Bereichen, in denen die Schweißoperationen in der derzeitigen Praxis des manuellen Schweißens normalerweise nicht verwendet werden.
Entnommen aus ISO 4850:1979 und reproduziert mit Genehmigung der International Organization for Standardization (ISO). Diese Standards sind bei jedem ISO-Mitglied oder beim ISO-Zentralsekretariat, Case postale 56, 1211 Genf 20, Schweiz, erhältlich. Das Urheberrecht verbleibt bei ISO.
Eine Neuentwicklung ist der Einsatz von Filterplatten aus verschweißten Kristallflächen, die ihren Schutzschatten erhöhen, sobald der Schweißlichtbogen beginnt. Die Zeit für diese fast augenblickliche Erhöhung der Schattierung kann so kurz wie 0.1 ms sein. Die gute Sichtbarkeit durch die Platten in Situationen, in denen nicht geschweißt wird, kann ihre Verwendung fördern.
Laserstrahlen. Kein Filtertyp bietet Schutz vor allen Laserwellenlängen. Verschiedene Arten von Lasern variieren in der Wellenlänge, und es gibt Laser, die Strahlen verschiedener Wellenlängen erzeugen, oder solche, deren Strahlen ihre Wellenlänge ändern, indem sie optische Systeme passieren. Folglich sollten sich laserverwendende Firmen nicht ausschließlich auf Laserprotektoren verlassen, um die Augen eines Mitarbeiters vor Laserverbrennungen zu schützen. Dennoch benötigen Laseroperatoren häufig einen Augenschutz. Sowohl Brillen als auch Schutzbrillen sind erhältlich; Sie haben ähnliche Formen wie in Abbildung 1 und Abbildung 2. Jede Art von Brille hat eine maximale Dämpfung bei einer bestimmten Laserwellenlänge. Bei anderen Wellenlängen fällt der Schutz schnell ab. Es ist wichtig, die richtige Brille für die Art des Lasers, seine Wellenlänge und optische Dichte auszuwählen. Die Brille soll Schutz vor Reflexionen und Streulicht bieten, und es sind äußerste Vorsichtsmaßnahmen erforderlich, um eine schädliche Strahlenbelastung vorherzusehen und zu vermeiden.
Bei der Verwendung von Augen- und Gesichtsschutz ist auf mehr Komfort und Effizienz zu achten. Es ist wichtig, dass die Protektoren von einer Person angebracht und eingestellt werden, die für diese Aufgabe geschult wurde. Jeder Arbeiter sollte die ausschließliche Verwendung seines eigenen Beschützers haben, während in größeren Betrieben durchaus gemeinschaftliche Vorkehrungen für die Reinigung und Entnebelung getroffen werden können. Bei helm- und haubenartigen Protektoren ist Komfort besonders wichtig, da sie während des Gebrauchs fast unerträglich heiß werden können. Um dies zu verhindern, können Luftleitungen angebracht werden. Wo die Risiken des Arbeitsprozesses es zulassen, ist eine gewisse persönliche Wahl zwischen verschiedenen Arten des Schutzes psychologisch wünschenswert.
Die Protektoren sollten regelmäßig auf ihren guten Zustand überprüft werden. Es sollte darauf geachtet werden, dass sie auch bei Verwendung von Korrektursichtgeräten jederzeit ausreichenden Schutz bieten.
Karl HE Kroemer
Im Folgenden werden drei der wichtigsten Anliegen der ergonomischen Gestaltung untersucht: erstens die der Steuerung, Vorrichtungen zur Übertragung von Energie oder Signalen vom Bediener auf eine Maschine; Sekunde, Indikatoren oder Anzeigen, die dem Bediener visuelle Informationen über den Zustand der Maschine liefern; und drittens die Kombination von Bedienelementen und Anzeigen in einem Bedienfeld oder einer Konsole.
Design für den sitzenden Bediener
Sitzen ist eine stabilere und weniger kraftraubende Haltung als Stehen, schränkt aber den Arbeitsraum, insbesondere der Füße, stärker ein als Stehen. Allerdings ist die Bedienung der Fußschalter im Sitzen wesentlich einfacher als im Stehen, da wenig Körpergewicht über die Füße auf den Boden übertragen werden muss. Wenn die Richtung der vom Fuß ausgeübten Kraft teilweise oder größtenteils nach vorne gerichtet ist, ermöglicht das Vorsehen eines Sitzes mit einer Rückenlehne außerdem die Ausübung ziemlich großer Kräfte. (Ein typisches Beispiel dieser Anordnung ist die Position von Pedalen in einem Automobil, die vor dem Fahrer angeordnet sind, mehr oder weniger unterhalb der Sitzhöhe.) Fig. 1 zeigt schematisch die Positionen, an denen Pedale für einen sitzenden Bediener angeordnet sein können. Beachten Sie, dass die spezifischen Abmessungen dieses Raums von der Anthropometrie der tatsächlichen Bediener abhängen.
Abbildung 1. Bevorzugter und regelmäßiger Arbeitsplatz für die Füße (in Zentimetern)
Der Raum für die Positionierung von handbetätigten Bedienelementen befindet sich hauptsächlich vor dem Körper innerhalb einer ungefähr kugelförmigen Kontur, die entweder am Ellbogen, an der Schulter oder irgendwo zwischen diesen beiden Körpergelenken zentriert ist. Abbildung 2 zeigt schematisch diesen Raum für die Anordnung von Bedienelementen. Natürlich hängen die spezifischen Abmessungen von der Anthropometrie der Bediener ab.
Abbildung 2. Bevorzugter und regelmäßiger Arbeitsbereich für die Hände (in Zentimetern)
Der Raum für Anzeigen und zu betrachtende Bedienelemente wird durch den Umfang einer Teilkugel vor den Augen begrenzt und bei den Augen zentriert. Somit hängt die Referenzhöhe für solche Anzeigen und Bedienelemente von der Augenhöhe des sitzenden Bedieners und von seiner oder ihrer Rumpf- und Nackenhaltung ab. Die bevorzugte Position für Sichtziele, die näher als etwa einen Meter sind, liegt deutlich unterhalb der Augenhöhe und hängt von der Nähe des Ziels und von der Kopfhaltung ab. Je näher das Ziel ist, desto tiefer sollte es positioniert sein und es sollte sich in oder nahe der medialen (Mittelsagittal-)Ebene des Bedieners befinden.
Zur Beschreibung der Kopfhaltung ist es zweckmäßig, die „Ohr-Augen-Linie“ (Kroemer 1994a) zu verwenden, die in der Seitenansicht durch das rechte Ohrloch und den Verbindungspunkt der rechten Augenlider mit dem Kopf verläuft ist nicht zu beiden Seiten geneigt (die Pupillen befinden sich in der Frontalansicht auf derselben horizontalen Ebene). Üblicherweise nennt man die Kopfhaltung beim Nickwinkel „aufgerichtet“ oder „aufrecht“. P (siehe Abbildung 3) zwischen der Ohr-Augen-Linie und dem Horizont beträgt etwa 15°, wobei die Augen über der Höhe des Ohrs liegen. Die bevorzugte Position für visuelle Ziele ist 25°–65° unterhalb der Ohr-Augen-Linie (LOSE in Abbildung 3), wobei die niedrigeren Werte von den meisten Menschen für nahe Ziele bevorzugt werden, die scharf gehalten werden müssen. Auch wenn es große Unterschiede in den bevorzugten Winkeln der Blickrichtung gibt, ziehen es die meisten Motive vor, besonders mit zunehmendem Alter, auf nahe Ziele mit großen zu fokussieren LOSE Winkel.
Entwerfen für den stehenden Bediener
Eine Pedalbetätigung durch einen stehenden Bediener sollte selten erforderlich sein, da die Person sonst zu viel Zeit damit verbringen muss, auf einem Fuß zu stehen, während der andere Fuß die Steuerung betätigt. Offensichtlich ist die gleichzeitige Betätigung von zwei Pedalen durch einen stehenden Bediener praktisch unmöglich. Während der Bediener stillsteht, ist der Raum für die Anordnung der Fußsteuerungen auf einen kleinen Bereich unterhalb des Rumpfes und etwas davor begrenzt. Umhergehen würde mehr Platz bieten, um Pedale zu platzieren, aber das ist in den meisten Fällen wegen der damit verbundenen Gehentfernungen höchst unpraktisch.
Der Ort für handbetätigte Bedienelemente eines stehenden Bedieners umfasst ungefähr den gleichen Bereich wie für einen sitzenden Bediener, ungefähr eine halbe Kugel vor dem Körper, mit seinem Zentrum nahe den Schultern des Bedieners. Für wiederholte Steueroperationen wäre der bevorzugte Teil dieser Halbkugel ihr unterer Abschnitt. Der Bereich für die Position von Anzeigen ist auch ähnlich demjenigen, der für einen sitzenden Bediener geeignet ist, wiederum ungefähr eine Halbkugel, die in der Nähe der Augen des Bedieners zentriert ist, mit den bevorzugten Positionen im unteren Abschnitt dieser Halbkugel. Die genauen Positionen für Anzeigen und auch für Bedienelemente, die gesehen werden müssen, hängen von der Haltung des Kopfes ab, wie oben diskutiert.
Die Höhe der Bedienelemente wird zweckmäßigerweise auf die Höhe des Ellbogens des Bedieners bezogen, während der Oberarm von der Schulter hängt. Die Blickhöhe von Anzeigen und Bedienelementen bezieht sich auf die Augenhöhe des Bedieners. Beide hängen von der Anthropometrie des Bedieners ab, die für kleine und große Personen, für Männer und Frauen und für Menschen unterschiedlicher ethnischer Herkunft ziemlich unterschiedlich sein kann.
Fußbetätigte Steuerung
Es sind zwei Arten von Steuerungen zu unterscheiden: Die eine dient dazu, große Energie oder Kräfte auf ein Maschinenteil zu übertragen. Beispiele hierfür sind die Pedale eines Fahrrads oder das Bremspedal eines schwereren Fahrzeugs ohne Servounterstützung. Eine fußbetätigte Steuerung, wie beispielsweise ein Ein-Aus-Schalter, bei dem ein Steuersignal an die Maschine übermittelt wird, erfordert normalerweise nur einen geringen Kraft- oder Energieaufwand. Während es bequem ist, diese beiden Extreme von Pedalen zu betrachten, gibt es verschiedene Zwischenformen, und es ist die Aufgabe des Designers, zu bestimmen, welche der folgenden Designempfehlungen unter ihnen am besten zutreffen.
Wie oben erwähnt, sollte eine wiederholte oder kontinuierliche Pedalbetätigung nur von einer sitzenden Bedienungsperson verlangt werden. Für Steuerungen, die große Energien und Kräfte übertragen sollen, gelten folgende Regeln:
Auswahl der Steuerelemente
Die Auswahl zwischen verschiedenen Steuerungsarten muss gemäß den folgenden Anforderungen oder Bedingungen erfolgen:
Die funktionale Nützlichkeit von Kontrollen bestimmt auch Auswahlverfahren. Die Hauptkriterien sind wie folgt:
Tabelle 1. Kontrollbewegungen und erwartete Wirkungen
Richtung der Steuerbewegung |
||||||||||||
Funktion |
Up |
Rechts |
vorwärts |
Im Uhrzeigersinn |
Drücken Sie, |
Nach unten |
Links |
Nach hinten |
Zurück |
Zähler- |
Pull1 |
Push2 |
On |
+3 |
+ |
+ |
+ |
- |
+3 |
+ |
|||||
Off |
+ |
- |
- |
+ |
- |
|||||||
Rechts |
+ |
- |
||||||||||
Links |
+ |
- |
||||||||||
Erhöhen |
+ |
- |
||||||||||
Senken |
- |
+ |
||||||||||
Einfahren |
- |
+ |
- |
|||||||||
Erweitern |
+ |
- |
- |
|||||||||
Erhöhung |
- |
- |
+ |
- |
||||||||
Verringern |
- |
- |
+ |
- |
||||||||
offener Wert |
- |
+ |
||||||||||
Wert schließen |
+ |
- |
Leer: Nicht zutreffend; + Am meisten bevorzugt; – weniger bevorzugt. 1 Mit Abzugssteuerung. 2 Mit Push-Pull-Schalter. 3 Oben in den Vereinigten Staaten, unten in Europa.
Quelle: Modifiziert nach Kroemer 1995.
Tabelle 1 und Tabelle 2 helfen bei der Auswahl geeigneter Kontrollen. Beachten Sie jedoch, dass es nur wenige „natürliche“ Regeln für die Auswahl und Gestaltung von Steuerelementen gibt. Die meisten aktuellen Empfehlungen sind rein empirisch und beziehen sich auf bestehende Geräte und westliche Klischees.
Tabelle 2. Steuerungs-Effekt-Beziehungen gängiger Handsteuerungen
Bewirken |
Taste- |
Toggle |
Drücken- |
Bar |
Rund |
Daumenrad |
Daumenrad |
Kurbel |
Wippschalter |
Hebel |
Joystick |
Legend |
Schlitten1 |
Wählen Sie EIN/AUS |
+ |
+ |
+ |
= |
+ |
+ |
+ |
||||||
Wählen Sie EIN/STANDBY/AUS |
- |
+ |
+ |
+ |
+ |
+ |
|||||||
Wählen Sie AUS/MODUS1/MODUS2 |
= |
- |
+ |
+ |
+ |
+ |
|||||||
Wählen Sie eine Funktion aus mehreren verwandten Funktionen aus |
- |
+ |
- |
= |
|||||||||
Wählen Sie eine von drei oder mehr diskreten Alternativen aus |
+ |
+ |
|||||||||||
Betriebszustand auswählen |
+ |
+ |
- |
+ |
+ |
- |
|||||||
Einrücken oder ausrücken |
+ |
||||||||||||
Wählen Sie eine der beiden aus |
+ |
+ |
|||||||||||
Stellen Sie den Wert auf der Skala ein |
+ |
- |
= |
= |
= |
+ |
|||||||
Wählen Sie den Wert in diskreten Schritten aus |
+ |
+ |
+ |
+ |
Leer: Nicht zutreffend; +: am meisten bevorzugt; –: Weniger bevorzugt; = Am wenigsten bevorzugt. 1 Geschätzt (keine Experimente bekannt).
Quelle: Modifiziert nach Kroemer 1995.
Abbildung 4 zeigt Beispiele für „Rast“-Steuerungen, die durch diskrete Rasten oder Stopps gekennzeichnet sind, in denen die Steuerung zum Stillstand kommt. Es zeigt auch typische „stetige“ Regelungen, bei denen der Regelvorgang innerhalb des Einstellbereichs erfolgen kann, ohne dass eine bestimmte Position eingestellt werden muss.
Abbildung 4. Einige Beispiele für "rastende" und "kontinuierliche" Steuerungen
Die Dimensionierung von Bedienelementen ist größtenteils eine Frage vergangener Erfahrungen mit verschiedenen Bedienelementtypen, die oft von dem Wunsch geleitet werden, den benötigten Platz in einem Bedienfeld zu minimieren und entweder den gleichzeitigen Betrieb benachbarter Bedienelemente zu ermöglichen oder eine unbeabsichtigte gleichzeitige Aktivierung zu vermeiden. Darüber hinaus wird die Wahl der Konstruktionsmerkmale von Überlegungen beeinflusst, ob die Bedienelemente im Freien oder in geschützten Umgebungen, in stationären Geräten oder fahrenden Fahrzeugen angeordnet werden sollen oder die Verwendung bloßer Hände oder von Handschuhen und Fäustlingen beinhalten können. Lesen Sie für diese Bedingungen die Literatur am Ende des Kapitels.
Mehrere Betriebsregeln regeln die Anordnung und Gruppierung von Kontrollen. Diese sind in Tabelle 3 aufgeführt. Für weitere Einzelheiten siehe die Literaturhinweise am Ende dieses Abschnitts und Kroemer, Kroemer und Kroemer-Elbert (1994).
Tabelle 3. Regeln für die Anordnung von Kontrollen
Suchen Sie nach der |
Die Bedienelemente müssen in Bezug auf den Bediener orientiert sein. Wenn die |
Primäre Kontrollen |
Die wichtigsten Bedienelemente haben die vorteilhaftesten |
Gruppenbezogen |
Bedienelemente, die nacheinander bedient werden, die sich auf a beziehen |
Anordnen |
Wenn der Betrieb der Kontrollen einem bestimmten Muster folgt, müssen die Kontrollen |
Seien Sie konsequent |
Die Anordnung von funktionsgleichen oder ähnlichen Bedienelementen |
Tot-Operator |
Wenn der Bediener handlungsunfähig wird und entweder a |
Codes auswählen |
Es gibt zahlreiche Möglichkeiten, Kontrollen zu identifizieren, anzuzeigen |
Quelle: Modifiziert nach Kroemer, Kroemer und Kroemer-Elbert 1994.
Reproduziert mit Genehmigung von Prentice-Hall. Alle Rechte vorbehalten.
Verhindern eines versehentlichen Betriebs
Im Folgenden sind die wichtigsten Mittel zum Schutz vor unbeabsichtigter Aktivierung von Steuerelementen aufgeführt, von denen einige kombiniert werden können:
Beachten Sie, dass diese Konstruktionen normalerweise den Betrieb von Steuerungen verlangsamen, was im Notfall nachteilig sein kann.
Dateneingabegeräte
Nahezu alle Steuerelemente können verwendet werden, um Daten auf einem Computer oder einem anderen Datenspeichergerät einzugeben. Wir sind jedoch am ehesten an die Praxis gewöhnt, eine Tastatur mit Drucktasten zu verwenden. Auf der ursprünglichen Schreibmaschinentastatur, die selbst für Computertastaturen zum Standard geworden ist, waren die Tasten in einer im Wesentlichen alphabetischen Reihenfolge angeordnet, die aus verschiedenen, oft obskuren Gründen modifiziert wurde. In einigen Fällen wurden Buchstaben, die häufig in gemeinsamem Text aufeinander folgen, voneinander beabstandet, damit sich die ursprünglichen mechanischen Striche nicht verheddern, wenn sie in schneller Folge getroffen werden. „Spalten“ von Schlüsseln verlaufen in ungefähr geraden Linien, ebenso wie die „Reihen“ von Schlüsseln. Die Fingerspitzen sind jedoch nicht auf diese Weise ausgerichtet und bewegen sich nicht auf diese Weise, wenn Finger der Hand gebeugt oder gestreckt oder seitwärts bewegt werden.
In den letzten hundert Jahren wurden viele Versuche unternommen, die Tastenleistung durch Ändern des Tastaturlayouts zu verbessern. Dazu gehören das Verschieben von Tasten innerhalb des Standardlayouts oder das Ändern des Tastaturlayouts insgesamt. Die Tastatur wurde in separate Abschnitte unterteilt und es wurden Tastensätze (z. B. Nummernblöcke) hinzugefügt. Anordnungen benachbarter Tasten können geändert werden, indem der Abstand, der Versatz voneinander oder von Referenzlinien geändert wird. Die Tastatur kann in Abschnitte für die linke und die rechte Hand unterteilt werden, und diese Abschnitte können seitlich geneigt und geneigt und geneigt sein.
Die Dynamik der Betätigung von Drucktasten ist für den Benutzer wichtig, aber im Betrieb schwer zu messen. Daher werden die Kraft-Weg-Eigenschaften von Tasten üblicherweise für statische Tests beschrieben, was nicht auf den tatsächlichen Betrieb hinweist. In der gegenwärtigen Praxis haben Tasten auf Computertastaturen eine relativ geringe Verschiebung (ungefähr 2 mm) und zeigen einen "Rückschnapp"-Widerstand, d. h. eine Abnahme der Betätigungskraft an dem Punkt, an dem eine Betätigung der Taste erreicht wurde. Anstelle von separaten Einzeltasten bestehen einige Tastaturen aus einer Membran mit Schaltern darunter, die, wenn sie an der richtigen Stelle gedrückt werden, die gewünschte Eingabe mit wenig oder keiner Verschiebung erzeugen. Der große Vorteil der Membran besteht darin, dass Staub oder Flüssigkeiten nicht eindringen können; Viele Benutzer mögen es jedoch nicht.
Es gibt Alternativen zum „Eine-Taste-eins-Zeichen“-Prinzip; stattdessen kann man Eingaben durch verschiedene kombinatorische Mittel erzeugen. Einer ist „Akkordieren“, was bedeutet, dass zwei oder mehr Bedienelemente gleichzeitig betätigt werden, um ein Zeichen zu erzeugen. Dies stellt Anforderungen an die Gedächtnisleistung des Bedieners, erfordert aber die Verwendung nur sehr weniger Tasten. Andere Entwicklungen verwenden andere Steuerungen als den binär angetippten Druckknopf und ersetzen ihn durch Hebel, Schalter oder spezielle Sensoren (wie beispielsweise einen instrumentierten Handschuh), die auf Bewegungen der Finger der Hand reagieren.
Traditionell erfolgt das Tippen und die Computereingabe durch mechanische Wechselwirkung zwischen den Fingern des Bedieners und solchen Geräten wie Tastatur, Maus, Trackball oder Lichtstift. Es gibt jedoch viele andere Mittel, um Eingaben zu generieren. Spracherkennung scheint eine vielversprechende Technik zu sein, aber andere Verfahren können verwendet werden. Sie können beispielsweise Zeigen, Gesten, Gesichtsausdrücke, Körperbewegungen, Blicke (Blickführung), Zungenbewegungen, Atmung oder Gebärdensprache verwenden, um Informationen zu übermitteln und Eingaben an einen Computer zu generieren. Die technische Entwicklung auf diesem Gebiet ist sehr im Fluss, und wie die vielen nicht-traditionellen Eingabegeräte, die für Computerspiele verwendet werden, zeigen, ist die Akzeptanz von anderen Geräten als der traditionellen binären Tap-Down-Tastatur innerhalb der nahen Zukunft durchaus machbar. Diskussionen über aktuelle Tastaturvorrichtungen wurden beispielsweise von Kroemer (1994b) und McIntosh (1994) bereitgestellt.
Schaukasten
Displays geben Auskunft über den Zustand der Ausrüstung. Anzeigen können sich auf den visuellen Sinn des Bedieners (Lichter, Waagen, Zähler, Kathodenstrahlröhren, Flachbildschirmelektronik usw.), auf den auditiven Sinn (Glocken, Hörner, aufgezeichnete Sprachnachrichten, elektronisch erzeugte Töne usw.) oder auf beziehen den Tastsinn (geformte Bedienelemente, Braille, etc.). Als besondere Arten von Anzeigen können Etiketten, schriftliche Anweisungen, Warnhinweise oder Symbole („Icons“) gelten.
Die vier „Kardinalregeln“ für Displays lauten:
Die Auswahl einer akustischen oder visuellen Anzeige hängt von den vorherrschenden Bedingungen und Zwecken ab. Das Ziel der Anzeige kann sein, Folgendes bereitzustellen:
Eine visuelle Anzeige ist am besten geeignet, wenn die Umgebung laut ist, der Bediener an Ort und Stelle bleibt, die Nachricht lang und komplex ist und insbesondere wenn es um die räumliche Position eines Objekts geht. Eine akustische Anzeige ist geeignet, wenn der Arbeitsplatz dunkel gehalten werden muss, der Bediener sich bewegt und die Nachricht kurz und einfach ist, sofortige Aufmerksamkeit erfordert und sich auf Ereignisse und Zeit bezieht.
Visuelle Displays
Es gibt drei grundlegende Arten von visuellen Anzeigen: (1) Die aus der Ferne überprüfen Die Anzeige zeigt an, ob ein bestimmter Zustand vorliegt oder nicht (z. B. zeigt ein grünes Licht eine normale Funktion an). (2) Die qualitativ Die Anzeige zeigt den Status einer sich ändernden Variablen oder ihren ungefähren Wert oder ihren Änderungstrend an (z. B. bewegt sich ein Zeiger innerhalb eines „normalen“ Bereichs). (3) Die quantitativ Das Display zeigt genaue Informationen an, die ermittelt werden müssen (z. B. um einen Ort auf einer Karte zu finden, Texte zu lesen oder auf einem Computerbildschirm zu zeichnen), oder es kann einen genauen Zahlenwert anzeigen, der vom Bediener gelesen werden muss (z. B , eine Zeit oder eine Temperatur).
Designrichtlinien für visuelle Displays sind:
Abbildung 5. Farbcodierung der Anzeigeleuchten
Für komplexere und detailliertere Informationen, insbesondere quantitative Informationen, wird traditionell eine von vier verschiedenen Arten von Anzeigen verwendet: (1) ein beweglicher Zeiger (mit fester Skala), (2) eine bewegliche Skala (mit festem Zeiger), (3) Zähler oder (4) „bildliche“ Darstellungen, insbesondere computergenerierte auf einem Anzeigemonitor. Abbildung 6 listet die Hauptmerkmale dieser Anzeigetypen auf.
Abbildung 6. Eigenschaften von Displays
Es ist normalerweise vorzuziehen, einen beweglichen Zeiger anstelle einer beweglichen Skala zu verwenden, wobei die Skala entweder gerade (horizontal oder vertikal angeordnet), gekrümmt oder kreisförmig ist. Skalen sollten einfach und übersichtlich sein, mit Teilung und Nummerierung, die so gestaltet sind, dass die richtigen Ablesungen schnell vorgenommen werden können. Ziffern sollten sich außerhalb der Skalenmarkierungen befinden, damit sie nicht vom Zeiger verdeckt werden. Der Zeiger sollte mit seiner Spitze direkt an der Markierung enden. Die Skala sollte nur so feine Teilungen markieren, wie der Bediener lesen muss. Alle wichtigen Marken sollten nummeriert werden. Progressionen werden am besten mit Intervallen von einer, fünf oder zehn Einheiten zwischen den Hauptmarkierungen markiert. Die Zahlen sollten von links nach rechts, von unten nach oben oder im Uhrzeigersinn steigen. Bezüglich der Abmessungen von Skalen wird auf Standards wie die von Cushman und Rosenberg 1991 oder Kroemer 1994a aufgeführten verwiesen.
Ab den 1980er Jahren wurden mechanische Anzeigen mit Zeigern und aufgedruckten Skalen zunehmend durch „elektronische“ Anzeigen mit computergenerierten Bildern oder Festkörpergeräten mit Leuchtdioden ersetzt (vgl. Snyder 1985a). Die angezeigten Informationen können auf folgende Weise codiert werden:
Leider waren viele elektronisch erzeugte Anzeigen verschwommen, oft übermäßig komplex und farbenfroh, schwer lesbar und erforderten eine genaue Fokussierung und genaue Aufmerksamkeit, was von der Hauptaufgabe, beispielsweise dem Autofahren, ablenken kann. In diesen Fällen wurde häufig gegen die ersten drei der vier oben aufgeführten „Kardinalregeln“ verstoßen. Darüber hinaus entsprachen viele elektronisch erzeugte Zeiger, Markierungen und alphanumerische Zeichen nicht den etablierten ergonomischen Gestaltungsrichtlinien, insbesondere wenn sie durch Liniensegmente, Abtastlinien oder Punktmatrizen erzeugt wurden. Obwohl einige dieser fehlerhaften Designs von den Benutzern toleriert wurden, ermöglichen schnelle Innovationen und verbesserte Anzeigetechniken viele bessere Lösungen. Die gleiche rasante Entwicklung führt aber auch dazu, dass gedruckte Aufstellungen (auch wenn aktuell und umfassend, wenn sie erscheinen) schnell obsolet werden. Daher werden in diesem Text keine angegeben. Zusammenstellungen wurden von Cushman und Rosenberg (1991), Kinney und Huey (1990) und Woodson, Tillman und Tillman (1991) veröffentlicht.
Die Gesamtqualität elektronischer Displays lässt oft zu wünschen übrig. Ein Maß zur Beurteilung der Bildqualität ist die Modulationstransferfunktion (MTF) (Snyder 1985b). Es beschreibt die Auflösung des Displays durch ein spezielles Sinus-Testsignal; Dennoch haben die Leser viele Kriterien bezüglich der Präferenz von Displays (Dillon 1992).
Monochrome Displays haben nur eine Farbe, normalerweise entweder grün, gelb, bernsteinfarben, orange oder weiß (achromatisch). Wenn mehrere Farben auf derselben chromatischen Anzeige erscheinen, sollten sie leicht unterschieden werden können. Es ist am besten, nicht mehr als drei oder vier Farben gleichzeitig anzuzeigen (bevorzugt werden Rot, Grün, Gelb oder Orange und Cyan oder Lila). Alle sollten sich stark vom Hintergrund abheben. Tatsächlich ist es eine geeignete Regel, zuerst kontrastreich, also in Schwarz und Weiß, zu gestalten und dann Farben sparsam hinzuzufügen.
Trotz der vielen Variablen, die einzeln und in Wechselwirkung miteinander die Verwendung komplexer Farbdisplays beeinflussen, haben Cushman und Rosenberg (1991) Richtlinien für die Verwendung von Farbe in Displays zusammengestellt; diese sind in Abbildung 7 aufgeführt.
Abbildung 7. Richtlinien für die Verwendung von Farben in Displays
Andere Vorschläge sind wie folgt:
Bedienfelder und Anzeigen
Sowohl Displays als auch Bedienelemente sollten in Panels so angeordnet sein, dass sie sich vor dem Bediener befinden, dh in der Nähe der medialen Ebene der Person. Wie bereits erwähnt, sollten sich die Bedienelemente in Ellbogenhöhe befinden und Anzeigen unter oder auf Augenhöhe, unabhängig davon, ob der Bediener sitzt oder steht. Selten bediente Bedienelemente oder weniger wichtige Anzeigen können weiter seitlich oder höher angeordnet werden.
Häufig werden Informationen über das Ergebnis des Steuervorgangs auf einem Instrument angezeigt. In diesem Fall sollte sich das Display in der Nähe der Steuerung befinden, damit die Steuerungseinstellung fehlerfrei, schnell und bequem vorgenommen werden kann. Am deutlichsten ist die Zuordnung meist, wenn sich der Regler direkt unter oder rechts neben dem Display befindet. Es ist darauf zu achten, dass die Hand beim Bedienen der Steuerung nicht das Display verdeckt.
Es gibt weitverbreitete Erwartungen an Steuerungs-Anzeige-Beziehungen, aber sie sind oft erlernt, sie können vom kulturellen Hintergrund und der Erfahrung des Benutzers abhängen, und diese Beziehungen sind oft nicht stark. Erwartete Bewegungsbeziehungen werden durch die Art der Steuerung und Anzeige beeinflusst. Wenn beide entweder linear oder rotierend sind, ist die stereotype Erwartung, dass sie sich in entsprechende Richtungen bewegen, wie z. B. beide nach oben oder beide im Uhrzeigersinn. Bei inkongruenten Bewegungen gelten im Allgemeinen die folgenden Regeln:
Das Verhältnis von Regler- und Anzeigeverschiebung (C/D-Verhältnis oder D/C-Verstärkung) beschreibt, wie weit ein Regler bewegt werden muss, um eine Anzeige zu verstellen. Wenn viel Steuerbewegung nur eine kleine Anzeigebewegung erzeugt, spricht man einmal von einem hohen C/D-Verhältnis und von einer geringen Empfindlichkeit der Steuerung. Oft sind zwei unterschiedliche Bewegungen erforderlich, um eine Einstellung vorzunehmen: zuerst eine schnelle primäre („Schwenk-“) Bewegung zu einer ungefähren Position, dann eine Feineinstellung zur exakten Einstellung. In einigen Fällen nimmt man als optimales C/D-Verhältnis das an, was die Summe dieser beiden Bewegungen minimiert. Das am besten geeignete Verhältnis hängt jedoch von den gegebenen Umständen ab; sie muss für jede Anwendung ermittelt werden.
Etiketten und Warnungen
Etiketten
Idealerweise sollte kein Etikett auf Geräten oder Bedienelementen erforderlich sein, um seine Verwendung zu erklären. Oft ist es jedoch notwendig, Etiketten zu verwenden, damit man Bedienelemente, Anzeigen oder andere Ausrüstungsgegenstände lokalisieren, identifizieren, lesen oder manipulieren kann. Die Kennzeichnung muss so erfolgen, dass die Informationen genau und schnell bereitgestellt werden. Hierfür gelten die Richtlinien in Tabelle 4.
Tabelle 4. Richtlinien für Etiketten
Orientierung |
Ein Etikett und die darauf gedruckten Informationen müssen sich orientieren |
Ort |
Ein Etikett muss auf oder in unmittelbarer Nähe des Artikels angebracht werden |
Standardisierung |
Die Platzierung aller Etiketten muss überall einheitlich sein |
Ausrüstung |
Ein Label soll in erster Linie die Funktion beschreiben („was macht es |
Abkürzungen |
Gebräuchliche Abkürzungen können verwendet werden. Wenn eine neue Abkürzung ist |
Kürze |
Die Labelbeschriftung soll möglichst prägnant sein ohne |
Vertrautheit |
Es sollen nach Möglichkeit Wörter gewählt werden, die der Person geläufig sind |
Sichtbarkeit u |
Das Bedienelement muss leicht und genau ablesbar sein |
Schriftart und Größe |
Die Typografie bestimmt die Lesbarkeit geschriebener Informationen; |
Quelle: Modifiziert nach Kroemer, Kroemer und Kroemer-Elbert 1994
(reproduziert mit Genehmigung von Prentice-Hall; alle Rechte vorbehalten).
Font (Schriftbild) sollte einfach, fett und vertikal sein, wie Futura, Helvetica, Namel, Tempo und Vega. Beachten Sie, dass die meisten elektronisch erzeugten Schriftarten (gebildet durch LED, LCD oder Punktmatrix) im Allgemeinen gedruckten Schriftarten unterlegen sind; daher ist besonders darauf zu achten, dass diese so gut wie möglich lesbar sind.
Betrachtungsabstand 35 cm, empfohlene Höhe 22 mm
Betrachtungsabstand 70 cm, empfohlene Höhe 50 mm
Betrachtungsabstand 1 m, empfohlene Höhe 70 mm
Betrachtungsabstand 1.5 m, empfohlene Höhe mindestens 1 cm.
Warnungen
Im Idealfall sollten alle Geräte sicher in der Anwendung sein. In der Realität kann dies oft nicht durch Design erreicht werden. In diesem Fall muss man die Benutzer vor den Gefahren im Zusammenhang mit der Verwendung des Produkts warnen und Anweisungen für die sichere Verwendung geben, um Verletzungen oder Schäden zu vermeiden.
Wünschenswert ist eine „aktive“ Warnung, meist bestehend aus einem Sensor, der unsachgemäßen Gebrauch bemerkt, kombiniert mit einem Warngerät, das den Menschen vor einer drohenden Gefahr warnt. In den meisten Fällen werden jedoch „passive“ Warnhinweise verwendet, die in der Regel aus einem am Produkt angebrachten Etikett und Anweisungen zur sicheren Verwendung in der Bedienungsanleitung bestehen. Solche passiven Warnungen verlassen sich vollständig darauf, dass der menschliche Benutzer eine bestehende oder potenziell gefährliche Situation erkennt, sich an die Warnung erinnert und sich umsichtig verhält.
Etiketten und Schilder für passive Warnhinweise müssen sorgfältig entworfen werden, indem die neuesten Gesetze und Vorschriften der Regierung, nationale und internationale Standards und die besten anwendbaren Informationen zur Humantechnik befolgt werden. Warnschilder und Schilder können Text, Grafiken und Bilder enthalten – oft Grafiken mit überflüssigem Text. Grafiken, insbesondere Bilder und Piktogramme, können bei sorgfältiger Auswahl dieser Darstellungen von Personen mit unterschiedlichem kulturellen und sprachlichen Hintergrund verwendet werden. Allerdings können Benutzer mit unterschiedlichem Alter, unterschiedlicher Erfahrung und ethnischem und Bildungshintergrund recht unterschiedliche Wahrnehmungen von Gefahren und Warnungen haben. Daher Design von a safe Produkt ist viel besser, als Warnungen auf ein minderwertiges Produkt anzuwenden.
Verletzungen an Fuß und Bein sind in vielen Branchen üblich. Das Fallenlassen eines schweren Gegenstands kann den Fuß, insbesondere die Zehen, an jedem Arbeitsplatz verletzen, insbesondere bei Arbeitern in Schwerindustrien wie Bergbau, Metallherstellung, Maschinenbau und Bau- und Konstruktionsarbeiten. Verbrennungen der unteren Gliedmaßen durch geschmolzene Metalle, Funken oder ätzende Chemikalien treten häufig in Gießereien, Hütten- und Stahlwerken, Chemiefabriken usw. auf. Dermatitis oder Ekzeme können durch eine Vielzahl von sauren, alkalischen und vielen anderen Mitteln verursacht werden. Der Fuß kann auch körperlich verletzt werden, wenn er gegen einen Gegenstand stößt oder auf scharfe Vorsprünge tritt, wie es in der Bauindustrie vorkommen kann.
Verbesserungen in der Arbeitsumgebung haben dazu geführt, dass das einfache Durchstechen und Zerreißen des Fußes des Arbeiters durch hervorstehende Bodennägel und andere scharfe Gefahren seltener geworden ist, aber Unfälle durch Arbeiten auf feuchten oder nassen Böden passieren immer noch, insbesondere wenn ungeeignetes Schuhwerk getragen wird.
Arten des Schutzes.
Die Art des Fuß- und Beinschutzes sollte dem Risiko entsprechen. In einigen Leichtindustrien kann es ausreichen, wenn die Arbeiter gut gemachte gewöhnliche Schuhe tragen. Viele Frauen tragen zum Beispiel bequeme Schuhe wie Sandalen oder alte Hausschuhe oder Schuhe mit sehr hohen oder abgenutzten Absätzen. Von dieser Praxis sollte abgeraten werden, da solche Schuhe einen Unfall verursachen können.
Manchmal ist ein schützender Schuh oder Clog ausreichend, und manchmal sind Stiefel oder Leggings erforderlich (siehe Abbildung 1, Abbildung 2 und Abbildung 3). Die Höhe, bis zu der das Schuhwerk den Knöchel, das Knie oder den Oberschenkel bedeckt, hängt von der Gefahr ab, obwohl auch Komfort und Beweglichkeit berücksichtigt werden müssen. Daher sind Schuhe und Gamaschen unter Umständen hohen Stiefeln vorzuziehen.
Abbildung 1. Sicherheitsschuhe
Abbildung 2. Hitzeschutzstiefel
Abbildung 3. Sicherheitsschuhe
Schutzschuhe und -stiefel können aus Leder, Gummi, synthetischem Gummi oder Kunststoff bestehen und durch Nähen, Vulkanisieren oder Formen hergestellt werden. Da die Zehen am anfälligsten für Stoßverletzungen sind, ist eine Stahlkappe das wesentliche Merkmal von Schutzschuhen, wo immer solche Gefahren bestehen. Aus Komfortgründen muss die Zehenkappe einigermaßen dünn und leicht sein, weshalb für diesen Zweck Kohlenstoff-Werkzeugstahl verwendet wird. Diese Sicherheitskappen können in viele Arten von Stiefeln und Schuhen eingebaut werden. In einigen Berufen, in denen herabfallende Gegenstände ein besonderes Risiko darstellen, können metallische Ristschützer über Schutzschuhen angebracht werden.
Gummi- oder Synthetiklaufsohlen mit verschiedenen Profilmustern werden verwendet, um die Rutschgefahr zu minimieren oder zu verhindern: Dies ist besonders wichtig, wenn Böden wahrscheinlich nass oder rutschig sind. Das Material der Sohle scheint wichtiger zu sein als das Profil und sollte einen hohen Reibungskoeffizienten haben. Verstärkte, durchtrittsichere Sohlen sind beispielsweise auf Baustellen erforderlich; metallische Einlegesohlen können auch in verschiedene Arten von Schuhen eingesetzt werden, denen dieser Schutz fehlt.
Wo eine elektrische Gefahr besteht, sollten Schuhe entweder vollständig genäht oder zementiert oder direkt vulkanisiert werden, um die Notwendigkeit von Nägeln oder anderen elektrisch leitfähigen Befestigungselementen zu vermeiden. Wo statische Elektrizität vorhanden sein kann, sollten Schutzschuhe elektrisch leitfähige Gummiaußensohlen haben, damit statische Elektrizität von der Unterseite der Schuhe entweichen kann.
Schuhe mit einem doppelten Zweck sind inzwischen weit verbreitet: Dies sind Schuhe oder Stiefel, die sowohl die oben erwähnten anti-elektrostatischen Eigenschaften als auch die Fähigkeit haben, den Träger vor einem elektrischen Schlag zu schützen, wenn er mit einer elektrischen Niederspannungsquelle in Kontakt kommt. Im letzteren Fall muss der elektrische Widerstand zwischen der Einlegesohle und der Außensohle kontrolliert werden, um diesen Schutz innerhalb eines bestimmten Spannungsbereichs bereitzustellen.
Früher ging es nur um „Sicherheit und Langlebigkeit“. Jetzt wurde auch der Arbeitskomfort berücksichtigt, sodass Leichtigkeit, Komfort und sogar Attraktivität bei Schutzschuhen gefragte Eigenschaften sind. Der „Sicherheitssneaker“ ist ein Beispiel für diese Art von Schuhen. Design und Farbe können bei der Verwendung von Schuhen als Emblem der Corporate Identity eine Rolle spielen, eine Angelegenheit, die in Ländern wie Japan besondere Aufmerksamkeit erhält, um nur eines zu nennen.
Synthetische Gummistiefel bieten einen nützlichen Schutz vor Verletzungen durch Chemikalien: Das Material sollte nach 10-stündigem Eintauchen in eine 20-prozentige Salzsäurelösung bei Raumtemperatur nicht mehr als 48 % Verringerung der Zugfestigkeit oder Dehnung aufweisen.
Besonders in Umgebungen, in denen geschmolzene Metalle oder chemische Verbrennungen eine große Gefahr darstellen, ist es wichtig, dass Schuhe oder Stiefel keine Zungen haben und dass die Verschlüsse über die Oberseite des Stiefels gezogen und nicht hineingesteckt werden.
Gamaschen, Gamaschen oder Gamaschen aus Gummi oder Metall können verwendet werden, um das Bein oberhalb der Schuhlinie zu schützen, insbesondere vor Verbrennungsrisiken. Knieschützer können erforderlich sein, insbesondere wenn kniend gearbeitet wird, z. B. in einigen Gießereiformen. Aluminisierte Hitzeschutzschuhe, -stiefel oder -gamaschen sind in der Nähe von Quellen intensiver Hitze erforderlich.
Gebrauch und Wartung
Alle Schutzschuhe sollten sauber und trocken gehalten werden, wenn sie nicht verwendet werden, und sollten so bald wie nötig ersetzt werden. An Orten, an denen dieselben Gummistiefel von mehreren Personen verwendet werden, sollten regelmäßige Vorkehrungen zur Desinfektion zwischen jedem Gebrauch getroffen werden, um die Ausbreitung von Fußinfektionen zu verhindern. Es besteht die Gefahr von Fußmykosen, die durch das Tragen zu enger und zu schwerer Stiefel oder Schuhe entstehen.
Der Erfolg jedes Schutzschuhwerks hängt von seiner Akzeptanz ab, eine Tatsache, die heute weithin anerkannt wird, da dem Styling jetzt viel mehr Aufmerksamkeit geschenkt wird. Komfort ist Voraussetzung und die Schuhe sollten so leicht sein, wie es ihrem Zweck entspricht: Schuhe mit einem Gewicht von mehr als zwei Kilogramm pro Paar sollten vermieden werden.
Manchmal ist die Bereitstellung von Fuß- und Beinschutz durch den Arbeitgeber gesetzlich vorgeschrieben. Wenn die Arbeitgeber an fortschrittlichen Programmen interessiert sind und nicht nur gesetzliche Verpflichtungen erfüllen, finden es betroffene Unternehmen oft sehr effektiv, Vorkehrungen für einen einfachen Einkauf am Arbeitsplatz zu treffen. Und wenn Schutzkleidung zum Großhandelspreis angeboten werden kann oder Vorkehrungen für bequeme verlängerte Zahlungsbedingungen getroffen werden, sind die Arbeitnehmer möglicherweise eher bereit und in der Lage, bessere Ausrüstung zu kaufen und zu verwenden. Auf diese Weise kann die Art des erhaltenen und getragenen Schutzes besser kontrolliert werden. Viele Konventionen und Vorschriften sehen die Bereitstellung von Arbeitskleidung und Schutzausrüstung jedoch als Pflicht des Arbeitgebers an.
Bei der Konstruktion von Geräten ist es von größter Bedeutung, der Tatsache Rechnung zu tragen, dass ein menschlicher Bediener sowohl Fähigkeiten als auch Einschränkungen bei der Verarbeitung von Informationen hat, die unterschiedlicher Natur sind und auf verschiedenen Ebenen zu finden sind. Die Leistungsfähigkeit unter realen Arbeitsbedingungen hängt stark davon ab, inwieweit ein Design diese Potenziale und ihre Grenzen berücksichtigt oder ignoriert. Im Folgenden wird eine kurze Skizze einiger der Hauptprobleme angeboten. Es wird auf andere Beiträge dieses Bandes verwiesen, in denen auf eine Fragestellung näher eingegangen wird.
Es ist üblich, drei Hauptebenen in der Analyse der menschlichen Informationsverarbeitung zu unterscheiden, nämlich die Wahrnehmungsebene, der Entscheidungsebene und für motorische Ebene. Die Wahrnehmungsebene wird in drei weitere Ebenen unterteilt, die sich auf die sensorische Verarbeitung, die Merkmalsextraktion und die Identifizierung der Wahrnehmung beziehen. Auf der Entscheidungsebene erhält der Operator Wahrnehmungsinformationen und wählt eine Reaktion darauf, die schließlich auf der motorischen Ebene programmiert und aktualisiert wird. Dies beschreibt nur den Informationsfluss im einfachsten Fall einer Wahlreaktion. Es ist jedoch offensichtlich, dass sich Wahrnehmungsinformationen ansammeln und kombiniert und diagnostiziert werden können, bevor sie eine Handlung hervorrufen. Auch hier kann angesichts einer Wahrnehmungsüberlastung die Notwendigkeit entstehen, Informationen auszuwählen. Schließlich wird die Auswahl einer angemessenen Maßnahme zu einem größeren Problem, wenn es mehrere Optionen gibt, von denen einige geeigneter sein können als andere. In der vorliegenden Diskussion liegt der Schwerpunkt auf den Wahrnehmungs- und Entscheidungsfaktoren der Informationsverarbeitung.
Wahrnehmungsfähigkeiten und -grenzen
Sensorische Grenzen
Die erste Kategorie von Verarbeitungsgrenzen ist sensorisch. Ihre Relevanz für die Informationsverarbeitung ist offensichtlich, da die Verarbeitung weniger zuverlässig wird, wenn sich die Informationen Schwellengrenzen nähern. Dies mag eine ziemlich triviale Aussage sein, aber dennoch werden sensorische Probleme in Designs nicht immer klar erkannt. Beispielsweise sollten alphanumerische Zeichen in Beschilderungssystemen ausreichend groß sein, um aus einer Entfernung lesbar zu sein, die der Notwendigkeit angemessener Maßnahmen entspricht. Die Lesbarkeit wiederum hängt nicht nur von der absoluten Größe der alphanumerischen Zeichen ab, sondern auch vom Kontrast und – im Hinblick auf die seitliche Hemmung – auch von der Gesamtmenge an Informationen auf dem Zeichen. Insbesondere bei schlechten Sichtverhältnissen (z. B. Regen oder Nebel beim Fahren oder Fliegen) stellt die Lesbarkeit ein erhebliches Problem dar, das zusätzliche Maßnahmen erfordert. In jüngerer Zeit entwickelte Verkehrszeichen und Straßenmarkierungen sind normalerweise gut gestaltet, aber Zeichen in der Nähe von und innerhalb von Gebäuden sind oft unleserlich. Bildschirmgeräte sind ein weiteres Beispiel, bei dem sensorische Grenzen von Größe, Kontrast und Informationsmenge eine wichtige Rolle spielen. Im auditiven Bereich beziehen sich einige sensorische Hauptprobleme auf das Verstehen von Sprache in lauten Umgebungen oder in Audioübertragungssystemen schlechter Qualität.
Feature-Extraktion
Unter der Voraussetzung ausreichender sensorischer Informationen bezieht sich der nächste Satz von Informationsverarbeitungsproblemen auf das Extrahieren von Merkmalen aus den präsentierten Informationen. Jüngste Forschungen haben zahlreiche Beweise dafür erbracht, dass eine Analyse von Merkmalen der Wahrnehmung bedeutungsvoller Ganzheiten vorausgeht. Die Merkmalsanalyse ist besonders nützlich, um ein spezielles abweichendes Objekt inmitten vieler anderer zu lokalisieren. Beispielsweise kann ein wesentlicher Wert auf einem Display mit vielen Werten durch eine einzige abweichende Farbe oder Größe dargestellt werden, was dann sofort Aufmerksamkeit erregt oder „hervorsticht“. Theoretisch gibt es die gemeinsame Annahme von „Feature Maps“ für verschiedene Farben, Größen, Formen und andere physikalische Merkmale. Der Aufmerksamkeitswert eines Merkmals hängt von der unterschiedlichen Aktivierung der Merkmalskarten ab, die zur gleichen Klasse gehören, beispielsweise Farbe. Somit hängt die Aktivierung einer Merkmalskarte von der Unterscheidbarkeit der abweichenden Merkmale ab. Das bedeutet, dass bei einigen wenigen Instanzen vieler Farben auf einem Bildschirm die meisten Farb-Feature-Maps ungefähr gleich aktiviert sind, was zur Folge hat, dass keine der Farben hervorsticht.
Auf die gleiche Weise springt eine einzelne bewegte Werbung heraus, aber dieser Effekt verschwindet vollständig, wenn sich mehrere bewegende Reize im Sichtfeld befinden. Das Prinzip der unterschiedlichen Aktivierung von Merkmalskarten wird auch beim Ausrichten von Zeigern angewendet, die ideale Parameterwerte anzeigen. Eine Abweichung eines Zeigers wird durch eine schnell erkannte abweichende Steigung angezeigt. Ist dies nicht realisierbar, kann eine gefährliche Abweichung durch eine Farbveränderung angezeigt werden. Daher lautet die allgemeine Gestaltungsregel, nur wenige abweichende Merkmale auf einem Bildschirm zu verwenden und diese nur für die wesentlichsten Informationen zu reservieren. Bei Merkmalskonjunktionen wird die Suche nach relevanten Informationen umständlich. Beispielsweise ist es schwierig, ein großes rotes Objekt zwischen kleinen roten Objekten und großen und kleinen grünen Objekten zu lokalisieren. Wenn möglich, sollten Konjunktionen vermieden werden, wenn versucht wird, für eine effiziente Suche zu entwerfen.
Teilbare versus integrale Dimensionen
Merkmale sind trennbar, wenn sie geändert werden können, ohne die Wahrnehmung anderer Merkmale eines Objekts zu beeinträchtigen. Linienlängen von Histogrammen sind ein typisches Beispiel. Andererseits beziehen sich integrale Merkmale auf Merkmale, die, wenn sie geändert werden, das Gesamterscheinungsbild des Objekts verändern. Zum Beispiel kann man die Merkmale des Mundes in einer schematischen Zeichnung eines Gesichts nicht ändern, ohne das Gesamterscheinungsbild des Bildes zu verändern. Wiederum sind Farbe und Helligkeit integral in dem Sinne, dass man eine Farbe nicht ändern kann, ohne gleichzeitig den Helligkeitseindruck zu verändern. Die Prinzipien der trennbaren und integralen Merkmale und der emergenten Eigenschaften, die sich aus Änderungen einzelner Merkmale eines Objekts entwickeln, werden in sog integriert or Diagnose zeigt. Der Grundgedanke dieser Anzeigen besteht darin, dass anstatt einzelne Parameter anzuzeigen, unterschiedliche Parameter in einer einzigen Anzeige integriert sind, deren Gesamtzusammensetzung anzeigt, was tatsächlich mit einem System nicht in Ordnung ist.
Die Datenpräsentation in Leitwarten wird oft noch von der Philosophie dominiert, dass jede einzelne Maßnahme einen eigenen Indikator haben sollte. Die stückweise Darstellung der Maßnahmen bedeutet, dass der Bediener die Aufgabe hat, die Hinweise aus den verschiedenen Einzelanzeigen zu integrieren, um ein potenzielles Problem zu diagnostizieren. Zum Zeitpunkt der Probleme im Kernkraftwerk Three Mile Island in den Vereinigten Staaten zeigten etwa vierzig bis fünfzig Displays irgendeine Form von Störung an. Somit hatte der Bediener die Aufgabe, durch Integrieren der Informationen aus diesen unzähligen Anzeigen zu diagnostizieren, was tatsächlich falsch war. Integralanzeigen können bei der Diagnose der Fehlerart hilfreich sein, da sie verschiedene Maßnahmen zu einem einzigen Muster kombinieren. Unterschiedliche Muster der integrierten Anzeige können dann hinsichtlich spezifischer Fehler diagnostisch sein.
Ein klassisches Beispiel für ein diagnostisches Display, das für nukleare Kontrollräume vorgeschlagen wurde, ist in Abbildung 1 dargestellt. Es stellt eine Reihe von Maßen als Speichen gleicher Länge dar, so dass ein regelmäßiges Polygon immer normale Bedingungen darstellt, während verschiedene Verzerrungen verbunden sein können mit unterschiedlichen Problemen im Prozess.
Abbildung 1. In der normalen Situation sind alle Parameterwerte gleich, wodurch ein Sechseck entsteht. In der Abweichung haben sich einige der Werte geändert, wodurch eine bestimmte Verzerrung entsteht.
Nicht alle integralen Anzeigen sind gleichermaßen unterscheidbar. Um das Problem zu veranschaulichen, erzeugt eine positive Korrelation zwischen den beiden Dimensionen eines Rechtecks Unterschiede in der Oberfläche, während eine gleiche Form beibehalten wird. Alternativ erzeugt eine negative Korrelation Unterschiede in der Form, während eine gleiche Oberfläche beibehalten wird. Der Fall, in dem die Variation ganzzahliger Abmessungen eine neue Form erzeugt, wurde als Aufdecken einer hervortretenden Eigenschaft der Musterung bezeichnet, was die Fähigkeit des Bedieners, die Muster zu unterscheiden, erhöht. Emergente Eigenschaften hängen von der Identität und Anordnung der Teile ab, sind aber nicht mit einem einzelnen Teil identifizierbar.
Objekt- und Konfigurationsdarstellungen sind nicht immer vorteilhaft. Allein die Tatsache, dass sie integral sind, führt dazu, dass die Eigenschaften der einzelnen Variablen schwerer zu erkennen sind. Der Punkt ist, dass integrale Dimensionen per Definition voneinander abhängig sind und somit ihre einzelnen Bestandteile verschleiern. Es kann Umstände geben, unter denen dies nicht akzeptabel ist, während man dennoch von den diagnostischen musterähnlichen Eigenschaften profitieren möchte, die für die Objektanzeige typisch sind. Ein Kompromiss könnte eine herkömmliche Balkendiagrammanzeige sein. Einerseits sind Balkendiagramme ziemlich trennbar. Wenn sie jedoch in ausreichend enger Nähe positioniert werden, können die unterschiedlichen Längen der Balken zusammen ein objektartiges Muster bilden, das einem diagnostischen Ziel gut dienen kann.
Einige Diagnoseanzeigen sind besser als andere. Ihre Qualität hängt davon ab, inwieweit das Display dem entspricht mentales Modell der Aufgabe. Beispielsweise mag eine Fehlerdiagnose anhand von Verzerrungen eines regelmäßigen Polygons, wie in Bild 1, noch wenig mit der Domänensemantik oder dem Konzept des Betreibers der Prozesse in einem Kraftwerk zu tun haben. Somit beziehen sich verschiedene Arten von Abweichungen des Polygons nicht offensichtlich auf ein spezifisches Problem in der Anlage. Daher ist das Design der am besten geeigneten Konfigurationsanzeige eine, die dem spezifischen mentalen Modell der Aufgabe entspricht. Daher ist zu betonen, dass die Fläche eines Rechtecks nur dann eine brauchbare Objektdarstellung ist, wenn das Produkt aus Länge und Breite die interessierende Variable ist!
Interessante Objektdisplays ergeben sich aus dreidimensionalen Darstellungen. Beispielsweise kann eine dreidimensionale Darstellung des Luftverkehrs – anstelle der herkömmlichen zweidimensionalen Radardarstellung – dem Piloten ein größeres „situatives Bewusstsein“ für anderen Verkehr vermitteln. Es hat sich herausgestellt, dass die dreidimensionale Anzeige einer zweidimensionalen weit überlegen ist, da ihre Symbole anzeigen, ob sich ein anderes Flugzeug über oder unter dem eigenen befindet.
Erniedrigte Bedingungen
Eine verschlechterte Anzeige tritt unter einer Vielzahl von Bedingungen auf. Für einige Zwecke, wie bei der Tarnung, werden Objekte absichtlich degradiert, um ihre Identifizierung zu verhindern. Bei anderen Gelegenheiten, beispielsweise bei der Helligkeitsverstärkung, können Merkmale zu unscharf werden, um es einem zu ermöglichen, das Objekt zu identifizieren. Ein Forschungsthema betraf die minimale Anzahl von „Zeilen“, die auf einem Bildschirm erforderlich sind, oder „die Menge an Details“, die erforderlich sind, um eine Verschlechterung zu vermeiden. Leider hat diese Herangehensweise an die Bildqualität nicht zu eindeutigen Ergebnissen geführt. Das Problem besteht darin, dass das Identifizieren degradierter Stimuli (z. B. eines getarnten gepanzerten Fahrzeugs) zu sehr von der Anwesenheit oder Abwesenheit kleinerer objektspezifischer Details abhängt. Die Konsequenz ist, dass keine allgemeine Vorschrift über die Liniendichte formuliert werden kann, außer der trivialen Aussage, dass die Degradation mit zunehmender Dichte abnimmt.
Merkmale alphanumerischer Symbole
Ein Hauptproblem im Prozess der Merkmalsextraktion betrifft die tatsächliche Anzahl von Merkmalen, die zusammen einen Stimulus definieren. Daher ist die Lesbarkeit von kunstvollen Zeichen wie gotischen Buchstaben aufgrund der vielen redundanten Kurven schlecht. Um Verwirrung zu vermeiden, wird der Unterschied zwischen Buchstaben mit sehr ähnlichen Merkmalen – wie z i und für lund der c und für e– sollte betont werden. Aus dem gleichen Grund wird empfohlen, die Hub- und Endlänge von Ober- und Unterlängen auf mindestens 40 % der gesamten Buchstabenhöhe einzustellen.
Es ist offensichtlich, dass die Unterscheidung zwischen Buchstaben hauptsächlich durch die Anzahl von Merkmalen bestimmt wird, die sie nicht teilen. Diese bestehen hauptsächlich aus geraden Linien und Kreissegmenten, die horizontal, vertikal und schräg ausgerichtet sein können und die sich in der Größe wie in Klein- und Großbuchstaben unterscheiden können.
Es ist offensichtlich, dass alphanumerische Zeichen, selbst wenn sie gut unterscheidbar sind, diese Eigenschaft in Kombination mit anderen Elementen leicht verlieren können. Also die Ziffern 4 und 7 teilen nur wenige Merkmale, schneiden aber im Kontext größerer ansonsten identischer Gruppen nicht gut ab (z. 384 gegen 387) Es gibt übereinstimmende Beweise dafür, dass das Lesen von Text in Kleinbuchstaben schneller ist als in Großbuchstaben. Dies wird normalerweise darauf zurückgeführt, dass Kleinbuchstaben deutlichere Merkmale haben (z. B. Hund, Katze gegen DOG, CAT). Die Überlegenheit der Kleinbuchstaben hat sich nicht nur beim Lesen von Texten, sondern auch bei Verkehrszeichen, wie sie beispielsweise für Ortsangaben an Autobahnausfahrten verwendet werden, erwiesen.
Login
Der letzte Wahrnehmungsprozess befasst sich mit der Identifizierung und Interpretation von Wahrnehmungen. Menschliche Grenzen, die auf dieser Ebene entstehen, beziehen sich normalerweise auf Diskriminierung und das Finden der angemessenen Interpretation der Wahrnehmung. Die Anwendungen der Forschung zur visuellen Unterscheidung sind vielfältig und beziehen sich sowohl auf alphanumerische Muster als auch auf die allgemeinere Reizidentifikation. Als Beispiel für die letzte Kategorie soll das Design von Bremslichtern in Autos dienen. Auffahrunfälle machen einen erheblichen Teil der Verkehrsunfälle aus und sind unter anderem darauf zurückzuführen, dass die traditionelle Anordnung des Bremslichts neben den Rücklichtern es schlecht unterscheidbar macht und damit die Reaktionszeit des Fahrers verlängert. Als Alternative wurde ein einzelnes Licht entwickelt, das die Unfallrate zu reduzieren scheint. Es ist in der Mitte der Heckscheibe etwa auf Augenhöhe angebracht. In experimentellen Studien auf der Straße scheint die Wirkung des zentralen Bremslichts geringer zu sein, wenn sich die Probanden des Ziels der Studie bewusst sind, was darauf hindeutet, dass sich die Stimulusidentifikation in der traditionellen Konfiguration verbessert, wenn sich die Probanden auf die Aufgabe konzentrieren. Trotz der positiven Wirkung des isolierten Bremslichts könnte die Erkennung noch weiter verbessert werden, indem das Bremslicht in Form eines Ausrufezeichens, „!“ oder sogar eines Symbols aussagekräftiger gestaltet wird.
Absolutes Urteil
Sehr strenge und oft kontraintuitive Leistungsgrenzen ergeben sich in Fällen einer absoluten Beurteilung physikalischer Dimensionen. Beispiele treten im Zusammenhang mit der Farbcodierung von Objekten und der Verwendung von Tönen in Hörrufsystemen auf. Der Punkt ist, dass das relative Urteil dem absoluten Urteil weit überlegen ist. Das Problem mit dem absoluten Urteil ist, dass der Code in eine andere Kategorie übersetzt werden muss. So kann eine bestimmte Farbe mit einem elektrischen Widerstandswert verknüpft werden oder ein bestimmter Ton für eine Person bestimmt sein, für die eine darauffolgende Nachricht bestimmt ist. Tatsächlich liegt das Problem also nicht in der Wahrnehmungsidentifikation, sondern in der Reaktionswahl, die später in diesem Artikel erörtert wird. An dieser Stelle genügt der Hinweis, dass man nicht mehr als vier oder fünf Farben bzw. Tonhöhen verwenden sollte, um Fehler zu vermeiden. Wenn mehr Alternativen benötigt werden, können zusätzliche Dimensionen wie Lautstärke, Dauer und Komponenten von Tönen hinzugefügt werden.
Wort lesen
Die Relevanz des Lesens einzelner Worteinheiten in traditioneller Schrift wird durch verschiedene weit verbreitete Beweise belegt, wie z. B. die Tatsache, dass das Lesen durch das Weglassen von Leerzeichen sehr erschwert wird, Druckfehler oft unentdeckt bleiben und Wörter im Wechsel sehr schwer zu lesen sind (z.B, Abwechselnd). Einige Forscher haben die Rolle der Wortform beim Lesen von Worteinheiten betont und vorgeschlagen, dass räumliche Frequenzanalysatoren beim Identifizieren der Wortform relevant sein könnten. In dieser Ansicht würde die Bedeutung eher aus der gesamten Wortform als durch eine Buchstabe-für-Buchstaben-Analyse abgeleitet werden. Der Beitrag der Wortformanalyse ist jedoch wahrscheinlich auf kleine gebräuchliche Wörter – Artikel und Endungen – beschränkt, was mit der Feststellung übereinstimmt, dass Druckfehler in kleinen Wörtern und Endungen eine relativ geringe Wahrscheinlichkeit haben, entdeckt zu werden.
Text in Kleinbuchstaben hat gegenüber Großbuchstaben einen Vorteil, der auf den Verlust von Merkmalen in Großbuchstaben zurückzuführen ist. Der Vorteil der Kleinschreibung entfällt jedoch oder wird bei der Suche nach einem einzelnen Wort sogar umgekehrt. Es könnte sein, dass die Faktoren Buchstabengröße und Groß- und Kleinschreibung bei der Suche verwechselt werden: Größere Buchstaben werden schneller erkannt, was den Nachteil weniger markanter Merkmale ausgleichen kann. So kann ein einzelnes Wort in Groß- und Kleinschreibung etwa gleich gut lesbar sein, während fortlaufender Text in Kleinschreibung schneller gelesen wird. Das Erkennen eines EINZELNEN Großbuchstabens inmitten vieler Kleinbuchstaben ist sehr effizient, da es ein Aufspringen hervorruft. Eine noch effizientere schnelle Erkennung kann erreicht werden, indem ein einzelnes Wort in Kleinbuchstaben gedruckt wird fett, wobei die Vorteile von Pop-out und markanteren Merkmalen kombiniert werden.
Die Rolle der Codierungsmerkmale beim Lesen wird auch durch die beeinträchtigte Lesbarkeit älterer Bildschirme von visuellen Anzeigeeinheiten mit niedriger Auflösung deutlich, die aus ziemlich groben Punktmatrizen bestanden und alphanumerische Zeichen nur als gerade Linien darstellen konnten. Das allgemeine Ergebnis war, dass das Lesen von Text oder das Suchen auf einem Monitor mit niedriger Auflösung erheblich langsamer war als auf einer auf Papier gedruckten Kopie. Mit den heutigen Bildschirmen mit höherer Auflösung ist das Problem weitgehend verschwunden. Neben der Buchstabenform gibt es noch eine Reihe weiterer Unterschiede zwischen dem Lesen auf Papier und dem Lesen am Bildschirm. Der Abstand der Zeilen, die Größe der Zeichen, das Schriftbild, das Kontrastverhältnis zwischen Zeichen und Hintergrund, der Betrachtungsabstand, die Stärke des Flimmerns und die Tatsache, dass der Seitenwechsel auf einem Bildschirm durch Scrollen erfolgt, sind einige Beispiele. Die allgemeine Feststellung, dass das Lesen auf Computerbildschirmen langsamer ist – obwohl das Verständnis ungefähr gleich zu sein scheint – kann auf eine Kombination dieser Faktoren zurückzuführen sein. Heutige Textverarbeitungsprogramme bieten normalerweise eine Vielzahl von Optionen in Schriftart, Größe, Farbe, Format und Stil; Solche Entscheidungen könnten den falschen Eindruck erwecken, dass der persönliche Geschmack der Hauptgrund ist.
Symbole gegen Worte
In einigen Studien wurde festgestellt, dass die Zeit, die ein Proband zum Benennen eines gedruckten Wortes benötigte, schneller war als die für ein entsprechendes Symbol, während in anderen Studien beide Zeiten ungefähr gleich schnell waren. Es wurde vorgeschlagen, dass Wörter schneller gelesen werden als Symbole, da sie weniger mehrdeutig sind. Sogar ein ziemlich einfaches Symbol, wie ein Haus, kann immer noch unterschiedliche Antworten bei den Probanden hervorrufen, was zu Antwortkonflikten und damit zu einer Verringerung der Reaktionsgeschwindigkeit führt. Wenn Antwortkonflikte vermieden werden, indem wirklich eindeutige Symbole verwendet werden, wird der Unterschied in der Antwortgeschwindigkeit wahrscheinlich verschwinden. Interessant ist, dass Icons als Verkehrszeichen den Worten in der Regel deutlich überlegen sind, auch wenn das Problem der Sprachverständlichkeit nicht als Problem angesehen wird. Dieses Paradoxon mag daran liegen, dass die Lesbarkeit von Verkehrszeichen weitgehend eine Sache der Verkehrszeichen ist Abstand an dem ein Zeichen erkennbar ist. Bei richtiger Gestaltung ist dieser Abstand bei Symbolen größer als bei Wörtern, da Bilder erheblich größere Formunterschiede aufweisen und weniger feine Details enthalten können als Wörter. Der Vorteil von Bildern ergibt sich also aus der Tatsache, dass die Unterscheidung von Buchstaben etwa zehn bis zwölf Bogenminuten benötigt und dass die Merkmalserkennung die erste Voraussetzung für die Unterscheidung ist. Gleichzeitig ist klar, dass die Überlegenheit von Symbolen nur dann gewährleistet ist, wenn sie (1) tatsächlich wenig Details enthalten, (2) formschlüssig genug und (3) eindeutig sind.
Fähigkeiten und Grenzen für die Entscheidung
Sobald eine Vorschrift identifiziert und interpretiert wurde, kann sie eine Handlung erfordern. In diesem Zusammenhang beschränkt sich die Diskussion auf deterministische Reiz-Reaktions-Beziehungen, oder anders gesagt auf Zustände, in denen jeder Reiz seine eigene feste Reaktion hat. In diesem Fall ergeben sich die Hauptprobleme für das Gerätedesign aus Fragen der Kompatibilität, dh dem Ausmaß, in dem der identifizierte Stimulus und die damit verbundene Reaktion eine „natürliche“ oder gut eingeübte Beziehung haben. Es gibt Bedingungen, unter denen eine optimale Beziehung absichtlich abgebrochen wird, wie im Fall von Abkürzungen. Normalerweise eine Kontraktion wie abrvtin ist viel schlimmer als eine Kürzung wie Abk. Theoretisch liegt dies an der zunehmenden Redundanz aufeinanderfolgender Buchstaben in einem Wort, wodurch letzte Buchstaben auf der Grundlage früherer „ausgefüllt“ werden können; ein verkürztes Wort kann von diesem Prinzip profitieren, ein verkürztes dagegen nicht.
Mentale Modelle und Kompatibilität
Bei den meisten Kompatibilitätsproblemen gibt es stereotype Antworten, die von verallgemeinerten mentalen Modellen abgeleitet sind. Die Wahl der Nullposition in einer kreisförmigen Anzeige ist ein typisches Beispiel. Die 12-Uhr- und 9-Uhr-Positionen scheinen schneller korrigiert zu werden als die 6-Uhr- und 3-Uhr-Positionen. Der Grund kann darin liegen, dass eine Abweichung im Uhrzeigersinn und eine Bewegung im oberen Teil der Anzeige als „Erhöhung“ empfunden wird und eine Reaktion erfordert, die den Wert verringert. In den 3- und 6-Uhr-Positionen widersprechen sich beide Prinzipien und können daher weniger effizient gehandhabt werden. Ein ähnliches Stereotyp findet sich beim Verriegeln oder Öffnen der Hecktür eines Autos. Die meisten Menschen handeln nach dem Klischee, dass das Verriegeln eine Bewegung im Uhrzeigersinn erfordert. Wenn das Schloss umgekehrt konstruiert ist, sind andauernde Fehler und Frustration beim Versuch, die Tür zu verriegeln, die wahrscheinlichste Folge.
In Bezug auf Steuerbewegungen beschreibt das bekannte Warrick-Prinzip zur Kompatibilität die Beziehung zwischen der Position eines Steuerknopfes und der Richtung der Bewegung auf einem Display. Befindet sich der Bedienknopf rechts vom Display, soll eine Bewegung im Uhrzeigersinn die Skalenmarkierung nach oben bewegen. Oder erwägen Sie bewegliche Schaufensterauslagen. Nach dem mentalen Modell der meisten Menschen deutet die Aufwärtsrichtung einer sich bewegenden Anzeige darauf hin, dass die Werte auf die gleiche Weise steigen, wie eine steigende Temperatur in einem Thermometer durch eine höhere Quecksilbersäule angezeigt wird. Es gibt Probleme bei der Umsetzung dieses Prinzips mit einem Indikator mit „fester Zeigerbewegungsskala“. Wenn sich die Skala in einem solchen Indikator nach unten bewegt, soll sein Wert steigen. Somit entsteht ein Konflikt mit dem gängigen Klischee. Werden die Werte invertiert, liegen die niedrigen Werte am oberen Ende der Skala, was auch den meisten Klischees zuwiderläuft.
Die Proximity-Kompatibilität bezieht sich auf die Übereinstimmung symbolischer Repräsentationen mit den mentalen Modellen der Menschen von funktionalen oder sogar räumlichen Beziehungen innerhalb eines Systems. Fragen der Nachbarschaftskompatibilität sind drängender, da das mentale Modell einer Situation primitiver, globaler oder verzerrter ist. So wird ein Flussdiagramm eines komplexen automatisierten Industrieprozesses oft auf der Grundlage eines technischen Modells dargestellt, das möglicherweise überhaupt nicht mit dem mentalen Modell des Prozesses übereinstimmt. Insbesondere wenn das mentale Modell eines Prozesses unvollständig oder verzerrt ist, trägt eine technische Darstellung des Fortschritts wenig zu seiner Entwicklung oder Korrektur bei. Ein alltagstaugliches Beispiel für schlechte Näherungskompatibilität ist eine Architekturkarte eines Gebäudes, die zur Orientierung des Betrachters oder zur Darstellung von Fluchtwegen dienen soll. Diese Karten sind in der Regel völlig unzureichend – voller irrelevanter Details – insbesondere für Menschen, die nur ein globales mentales Modell des Gebäudes haben. Eine solche Konvergenz zwischen Kartenlesen und Orientierung kommt dem sogenannten „Situationsbewusstsein“ nahe, das besonders im dreidimensionalen Raum während eines Fluges relevant ist. Es gab interessante neuere Entwicklungen bei dreidimensionalen Objektanzeigen, die Versuche darstellen, eine optimale Proximity-Kompatibilität in diesem Bereich zu erreichen.
Stimulus-Response-Kompatibilität
Ein Beispiel für Stimulus-Response (SR)-Kompatibilität findet sich typischerweise im Fall der meisten Textverarbeitungsprogramme, die davon ausgehen, dass Bediener wissen, wie Befehle bestimmten Tastenkombinationen entsprechen. Das Problem besteht darin, dass ein Befehl und seine entsprechende Tastenkombination normalerweise keine vorbestehende Beziehung haben, was bedeutet, dass die SR-Beziehungen durch einen mühsamen Prozess des paarweise zugeordneten Lernens gelernt werden müssen. Das Ergebnis ist, dass die Aufgabe auch nach dem Erlernen der Fertigkeit fehleranfällig bleibt. Das interne Modell des Programms bleibt unvollständig, da weniger geübte Operationen leicht vergessen werden, so dass der Bediener einfach nicht mit der angemessenen Antwort aufwarten kann. Außerdem entspricht der auf dem Bildschirm erzeugte Text normalerweise nicht in allen Punkten dem, was schließlich auf der gedruckten Seite erscheint, was ein weiteres Beispiel für eine minderwertige Proximity-Kompatibilität ist. Nur wenige Programme verwenden ein stereotypes räumliches internes Modell in Verbindung mit Reiz-Reaktions-Beziehungen zur Befehlssteuerung.
Es wurde zu Recht argumentiert, dass es viel bessere vorbestehende Beziehungen zwischen räumlichen Reizen und manuellen Reaktionen gibt – wie die Beziehung zwischen einer Zeigereaktion und einer räumlichen Position oder so wie die zwischen verbalen Reizen und vokalen Reaktionen. Es gibt zahlreiche Beweise dafür, dass räumliche und verbale Repräsentationen relativ getrennte kognitive Kategorien mit geringer gegenseitiger Beeinflussung, aber auch geringer gegenseitiger Übereinstimmung sind. Daher wird eine räumliche Aufgabe, wie das Formatieren eines Textes, am einfachsten durch eine räumliche Mausbewegung ausgeführt, wodurch die Tastatur für verbale Befehle übrig bleibt.
Das bedeutet nicht, dass die Tastatur ideal ist, um verbale Befehle auszuführen. Das Tippen bleibt eine Frage der manuellen Bedienung beliebiger räumlicher Orte, die mit der Verarbeitung von Buchstaben grundsätzlich nicht kompatibel sind. Es ist tatsächlich ein weiteres Beispiel für eine höchst unvereinbare Aufgabe, die nur durch ausgiebiges Üben bewältigt werden kann, und die Fertigkeit geht ohne kontinuierliches Üben leicht verloren. Ein ähnliches Argument lässt sich für das Kurzschreiben anführen, das ebenfalls darin besteht, beliebige geschriebene Symbole mit verbalen Reizen zu verbinden. Ein interessantes Beispiel für ein alternatives Verfahren der Tastaturbedienung ist eine Akkordtastatur.
Der Bediener bedient zwei Tastaturen (eine für die linke und eine für die rechte Hand), die beide aus sechs Tasten bestehen. Jeder Buchstabe des Alphabets entspricht einer Akkordantwort, dh einer Tastenkombination. Die Ergebnisse von Studien zu einer solchen Tastatur zeigten bemerkenswerte Einsparungen bei der Zeit, die zum Erlernen von Schreibfähigkeiten benötigt wird. Motorische Beschränkungen begrenzten die maximale Geschwindigkeit der Akkordtechnik, aber dennoch näherte sich die Leistung des Operateurs nach dem Erlernen der Geschwindigkeit der konventionellen Technik ziemlich genau an.
Ein klassisches Beispiel für einen räumlichen Kompatibilitätseffekt betrifft die traditionelle Anordnung von Kaminofensteuerungen: vier Brenner in einer 2 × 2-Matrix, wobei die Steuerungen in einer horizontalen Reihe angeordnet sind. Bei dieser Konfiguration sind die Beziehungen zwischen Brenner und Steuerung nicht offensichtlich und kaum erlernt. Trotz vieler Fehler kann das Problem des Anzündens des Ofens jedoch mit der Zeit normalerweise gelöst werden. Die Situation ist schlimmer, wenn man mit undefinierten Anzeige-Steuerungs-Beziehungen konfrontiert ist. Andere Beispiele schlechter SR-Kompatibilität finden sich in den Anzeige-Steuerungs-Beziehungen von Videokameras, Videorecordern und Fernsehgeräten. Die Folge ist, dass viele Optionen nie genutzt werden oder bei jedem neuen Versuch neu untersucht werden müssen. Die Behauptung, dass „alles im Handbuch erklärt wird“, ist zwar zutreffend, aber nicht sinnvoll, da die meisten Handbücher in der Praxis für den durchschnittlichen Benutzer unverständlich sind, insbesondere wenn sie versuchen, Handlungen mit inkompatiblen verbalen Begriffen zu beschreiben.
Stimulus-Stimulus (SS)- und Response-Response (RR)-Kompatibilität
Ursprünglich wurde die SS- und RR-Kompatibilität von der SR-Kompatibilität unterschieden. Eine klassische Veranschaulichung der SS-Kompatibilität betrifft Versuche in den späten vierziger Jahren, das akustische Sonar durch eine visuelle Anzeige zu unterstützen, um die Signalerkennung zu verbessern. Eine Lösung wurde in einem horizontalen Lichtstrahl mit vertikalen Störungen gesucht, die von links nach rechts wanderten und eine visuelle Übersetzung des akustischen Hintergrundrauschens und potenziellen Signals widerspiegelten. Ein Signal bestand aus einer etwas größeren vertikalen Störung. Die Experimente zeigten, dass eine Kombination der akustischen und visuellen Anzeigen nicht besser war als die einzelne akustische Anzeige. Der Grund wurde in einer schlechten SS-Kompatibilität gesucht: Das Hörsignal wird als Lautstärkeänderung wahrgenommen; daher sollte visuelle Unterstützung am besten entsprechen, wenn sie in Form einer Helligkeitsänderung bereitgestellt wird, da dies das kompatible visuelle Analogon einer Lautstärkeänderung ist.
Es ist interessant, dass der Grad der SS-Kompatibilität direkt damit korrespondiert, wie kompetent die Probanden beim modalitätsübergreifenden Matching sind. In einem modalitätsübergreifenden Match können die Probanden gebeten werden, anzugeben, welche Hörlautstärke einer bestimmten Helligkeit oder einem bestimmten Gewicht entspricht; Dieser Ansatz ist in der Forschung zur Skalierung sensorischer Dimensionen beliebt, da er es ermöglicht, sensorische Reize nicht auf Zahlen abzubilden. Die RR-Kompatibilität bezieht sich auf die Entsprechung gleichzeitiger und auch aufeinanderfolgender Bewegungen. Einige Bewegungen lassen sich leichter koordinieren als andere, was klare Beschränkungen für die effizienteste Ausführung einer Abfolge von Aktionen – beispielsweise der aufeinanderfolgenden Betätigung von Bedienelementen – bietet.
Die obigen Beispiele zeigen deutlich, wie Kompatibilitätsprobleme alle Benutzer-Maschinen-Schnittstellen durchdringen. Das Problem ist, dass die Auswirkungen einer schlechten Kompatibilität oft durch längeres Üben gemildert werden und daher unbemerkt oder unterschätzt bleiben können. Doch selbst wenn inkompatible Anzeige-Steuerungs-Beziehungen gut geübt sind und die Leistung nicht zu beeinträchtigen scheinen, bleibt der Punkt einer größeren Fehlerwahrscheinlichkeit. Die inkorrekte kompatible Reaktion bleibt ein Konkurrent für die richtige inkompatible und wird wahrscheinlich gelegentlich durchkommen, mit dem offensichtlichen Risiko eines Unfalls. Darüber hinaus ist die Menge an Übung, die erforderlich ist, um inkompatible SR-Beziehungen zu meistern, gewaltig und Zeitverschwendung.
Grenzen der motorischen Programmierung und Ausführung
Eine Grenze der Motorprogrammierung wurde bereits in den Ausführungen zur RR-Kompatibilität kurz angerissen. Die menschliche Bedienperson hat deutliche Probleme bei der Durchführung inkongruenter Bewegungsabläufe, insbesondere ist der Wechsel von einem zu einem anderen inkongruenten Ablauf nur schwer zu bewerkstelligen. Die Ergebnisse von Studien zur motorischen Koordination sind relevant für die Gestaltung von Steuerungen, bei denen beide Hände aktiv sind. Doch die Übung kann in dieser Hinsicht vieles überwinden, wie das überraschende Niveau der akrobatischen Fähigkeiten zeigt.
Viele gemeinsame Prinzipien beim Design von Steuerungen leiten sich von der Motorprogrammierung ab. Sie umfassen die Einbeziehung von Widerstand in eine Steuerung und die Bereitstellung von Rückmeldungen, die anzeigen, dass sie ordnungsgemäß betrieben wurde. Ein vorbereitender motorischer Zustand ist eine hochrelevante Determinante der Reaktionszeit. Das Reagieren auf einen unerwarteten plötzlichen Stimulus kann etwa eine zusätzliche Sekunde dauern, was beträchtlich ist, wenn eine schnelle Reaktion erforderlich ist – wie beim Reagieren auf das Bremslicht eines vorausfahrenden Autos. Unvorbereitete Reaktionen sind wahrscheinlich eine Hauptursache für Kettenkollisionen. Frühwarnsignale sind hilfreich, um solche Kollisionen zu verhindern. Eine wichtige Anwendung der Forschung zur Bewegungsausführung betrifft das Fittsche Gesetz, das Bewegung, Entfernung und die Größe des angestrebten Ziels in Beziehung setzt. Dieses Gesetz scheint ziemlich allgemein zu sein und gilt gleichermaßen für einen Bedienhebel, einen Joystick, eine Maus oder einen Lichtgriffel. Es wurde unter anderem angewendet, um die Zeit abzuschätzen, die benötigt wird, um Korrekturen auf Computerbildschirmen vorzunehmen.
Es gibt offensichtlich viel mehr zu sagen als die obigen skizzenhaften Bemerkungen. Beispielsweise hat sich die Diskussion fast vollständig auf Fragen des Informationsflusses auf der Ebene einer einfachen Entscheidungsreaktion beschränkt. Themen, die über Wahlreaktionen hinausgehen, wurden nicht angesprochen, ebenso wenig wie Feedback- und Feed-Forward-Probleme bei der laufenden Überwachung von Informationen und motorischer Aktivität. Viele der genannten Themen stehen in engem Zusammenhang mit Problemen des Gedächtnisses und der Verhaltensplanung, die ebenfalls nicht angesprochen wurden. Ausführlichere Diskussionen finden sich beispielsweise in Wickens (1992).
Kopfverletzungen
Kopfverletzungen sind in der Industrie relativ häufig und machen 3 bis 6 % aller Arbeitsunfälle in den Industrieländern aus. Sie sind oft schwerwiegend und führen zu einem durchschnittlichen Ausfall von etwa drei Wochen. Die erlittenen Verletzungen resultieren in der Regel aus Schlägen, die durch den Aufprall kantiger Gegenstände wie Werkzeuge oder Bolzen aus mehreren Metern Höhe verursacht wurden; in anderen Fällen können Arbeiter bei einem Sturz auf den Boden mit dem Kopf aufschlagen oder einen Zusammenstoß zwischen einem festen Gegenstand und ihrem Kopf erleiden.
Eine Reihe verschiedener Arten von Verletzungen wurden aufgezeichnet:
Es ist schwierig, die physikalischen Parameter zu verstehen, die für diese verschiedenen Arten von Verletzungen verantwortlich sind, obwohl es von grundlegender Bedeutung ist, und es gibt erhebliche Meinungsverschiedenheiten in der umfangreichen Literatur, die zu diesem Thema veröffentlicht wurde. Einige Spezialisten sind der Ansicht, dass die beteiligte Kraft der wichtigste zu berücksichtigende Faktor ist, während andere behaupten, dass es sich um eine Frage der Energie oder der Bewegungsmenge handelt; weitere Meinungen beziehen die Hirnverletzung auf die Beschleunigung, auf die Beschleunigungsrate oder auf einen bestimmten Schockindex wie HIC, GSI, WSTC. In den meisten Fällen ist wahrscheinlich jeder dieser Faktoren mehr oder weniger beteiligt. Daraus lässt sich schließen, dass unser Wissen über die Mechanismen von Kopfschocks noch immer nur teilweise und kontrovers ist. Die Schocktoleranz des Kopfes wird durch Experimente an Leichen oder an Tieren bestimmt, und es ist nicht einfach, diese Werte auf einen lebenden Menschen zu extrapolieren.
Aufgrund der Ergebnisse von Unfallanalysen von Bauarbeitern mit Schutzhelm scheint es jedoch so, dass Kopfverletzungen durch Schocks auftreten, wenn die Energiemenge des Schocks mehr als etwa 100 J beträgt.
Andere Arten von Verletzungen sind weniger häufig, sollten aber nicht übersehen werden. Dazu gehören Verbrennungen, die durch Spritzer heißer oder ätzender Flüssigkeiten oder geschmolzenen Materials verursacht werden, oder elektrische Schläge, die durch versehentlichen Kontakt des Kopfs mit freiliegenden leitfähigen Teilen entstehen.
Schutzhelme
Der Hauptzweck eines Schutzhelms besteht darin, den Kopf des Trägers vor Gefahren, mechanischen Stößen zu schützen. Es kann zusätzlich einen Schutz gegen andere, beispielsweise mechanische, thermische und elektrische, bieten.
Ein Schutzhelm sollte folgende Anforderungen erfüllen, um die schädlichen Auswirkungen von Schlägen auf den Kopf zu reduzieren:
Abbildung 1. Beispiel für wesentliche Elemente der Konstruktion von Schutzhelmen
Für Helme, die für bestimmte Aufgaben verwendet werden, können andere Anforderungen gelten. Dazu gehören der Schutz vor Spritzern geschmolzenen Metalls in der Eisen- und Stahlindustrie und der Schutz vor elektrischem Schlag durch direkten Kontakt bei Helmen für Elektrotechniker.
Materialien, die bei der Herstellung von Helmen und Gurten verwendet werden, sollten ihre Schutzeigenschaften über einen langen Zeitraum und unter allen vorhersehbaren klimatischen Bedingungen, einschließlich Sonne, Regen, Hitze, Temperaturen unter dem Gefrierpunkt usw., beibehalten. Helme sollten auch eine ziemlich gute Feuerbeständigkeit aufweisen und sollten nicht zerbrechen, wenn sie aus einigen Metern Höhe auf eine harte Oberfläche fallen.
Leistungstests
Die internationale ISO-Norm Nr. 3873-1977 wurde 1977 als Ergebnis der Arbeit des Unterkomitees veröffentlicht, das sich speziell mit „Industrieschutzhelmen“ befasste. Diese von praktisch allen Mitgliedsstaaten der ISO anerkannte Norm legt die wesentlichen Merkmale fest, die an einen Schutzhelm gestellt werden, sowie die dazugehörigen Prüfverfahren. Diese Tests können in zwei Gruppen eingeteilt werden (siehe Tabelle 1), nämlich:
Tabelle 1. Schutzhelme: Testanforderungen der ISO-Norm 3873-1977
Charakteristisch |
Beschreibung |
Eigenschaften |
Obligatorische Prüfungen |
||
Dämpfung von Stößen |
Eine halbkugelförmige Masse von 5 kg darf aus einer Höhe von fallen |
Die maximal gemessene Kraft sollte 500 daN nicht überschreiten. |
Der Test wird auf einem Helm bei Temperaturen von –10°, +50°C und unter nassen Bedingungen wiederholt., |
||
Durchdringungswiderstand |
Der Helm wird innerhalb einer Zone von 100 mm Durchmesser an seinem obersten Punkt mit einem konischen Stempel mit einem Gewicht von 3 kg und einem Spitzenwinkel von 60° geschlagen. |
Die Spitze des Stempels darf den falschen (Dummy-)Kopf nicht berühren. |
Der Test ist unter den Bedingungen durchzuführen, die im Schocktest die schlechtesten Ergebnisse lieferten., |
||
Beständigkeit gegen Flammen |
Der Helm wird für 10 s einer Bunsenbrennerflamme von 10 mm Durchmesser mit Propangas ausgesetzt. |
Die Außenhülle sollte nicht länger als 5 s weiterbrennen, nachdem sie von der Flamme genommen wurde. |
Optionale Tests |
||
Durchschlagfestigkeit |
Der Helm wird mit einer NaCl-Lösung gefüllt und selbst in ein Bad derselben Lösung getaucht. Der elektrische Verlust bei einer angelegten Spannung von 1200 V, 50 Hz wird gemessen. |
Der Ableitstrom sollte nicht größer als 1.2 mA sein. |
Seitliche Steifigkeit |
Der Helm wird seitlich zwischen zwei parallele Platten gelegt und einem Kompressionsdruck von 430 N ausgesetzt |
Die Verformung unter Last sollte 40 mm nicht überschreiten und die bleibende Verformung sollte nicht mehr als 15 mm betragen. |
Niedertemperaturtest |
Der Helm wird den Stoß- und Durchdringungstests bei einer Temperatur von -20 °C unterzogen. |
Für diese beiden Prüfungen muss der Helm die vorstehenden Anforderungen erfüllen. |
Die Alterungsbeständigkeit der bei der Herstellung von Helmen verwendeten Kunststoffmaterialien ist in ISO Nr. 3873-1977 nicht spezifiziert. Eine solche Spezifikation sollte für Helme aus Kunststoffmaterialien vorgeschrieben werden. Ein einfacher Test besteht darin, die Helme über einen Zeitraum von 450 Stunden in einem Abstand von 400 cm einer quarzumhüllten 15-Watt-Xenon-Hochdrucklampe auszusetzen und anschließend zu prüfen, ob der Helm dem entsprechenden Penetrationstest noch standhält .
Es wird empfohlen, Helme, die für den Einsatz in der Eisen- und Stahlindustrie bestimmt sind, einer Prüfung auf Beständigkeit gegen Spritzer geschmolzenen Metalls zu unterziehen. Eine schnelle Möglichkeit, diesen Test durchzuführen, besteht darin, 300 Gramm geschmolzenes Metall bei 1,300 °C auf die Oberseite eines Helms tropfen zu lassen und zu überprüfen, ob nichts in das Innere gelangt ist.
Die 397 verabschiedete Europäische Norm EN 1995 legt Anforderungen und Prüfverfahren für diese beiden wichtigen Merkmale fest.
Auswahl eines Schutzhelms
Der ideale Helm, der in jeder Situation Schutz und perfekten Komfort bietet, muss erst noch entwickelt werden. Schutz und Komfort sind in der Tat oft widersprüchliche Anforderungen. In Bezug auf den Schutz müssen bei der Auswahl eines Helms die Gefahren, gegen die ein Schutz erforderlich ist, und die Bedingungen, unter denen der Helm verwendet wird, berücksichtigt werden, wobei besonderes Augenmerk auf die Eigenschaften der verfügbaren Sicherheitsprodukte zu legen ist.
Allgemeine Überlegungen
Es ist ratsam, Helme zu wählen, die den Empfehlungen des ISO-Standards Nr. 3873 (oder seines Äquivalents) entsprechen. Die Europäische Norm EN 397-1993 dient als Referenz für die Zertifizierung von Helmen in Anwendung der Richtlinie 89/686/EWG: Ausrüstungen, die einer solchen Zertifizierung unterzogen werden, wie fast alle persönlichen Schutzausrüstungen, werden einem obligatorischen Dritten unterzogen Parteizertifizierung vor dem Inverkehrbringen auf dem europäischen Markt. In jedem Fall sollten Helme folgende Anforderungen erfüllen:
Besondere Überlegungen
Helme aus Leichtmetall oder mit seitlicher Krempe sollten nicht an Arbeitsplätzen verwendet werden, an denen die Gefahr von Spritzern geschmolzenen Metalls besteht. In solchen Fällen wird die Verwendung von Polyester-Glasfaser-, Phenol-Textil-, Polycarbonat-Glasfaser- oder Polycarbonat-Helmen empfohlen.
Wo die Gefahr des Kontakts mit freiliegenden leitfähigen Teilen besteht, sollten nur Helme aus thermoplastischem Material verwendet werden. Sie sollten keine Belüftungslöcher haben und keine Metallteile wie Nieten sollten an der Außenseite der Schale erscheinen.
Helme für Personen, die über Kopf arbeiten, insbesondere Stahlfachwerkbauer, sollten mit Kinnriemen versehen sein. Die Riemen sollten etwa 20 mm breit sein und so beschaffen sein, dass der Helm jederzeit fest sitzt.
Helme, die größtenteils aus Polyethylen bestehen, werden nicht für den Einsatz bei hohen Temperaturen empfohlen. In solchen Fällen sind Polycarbonat-, Polycarbonat-Glasfaser-, Phenoltextil- oder Polyester-Glasfaser-Helme besser geeignet. Das Geschirr sollte aus gewebtem Stoff bestehen. Wo keine Berührungsgefahr mit freiliegenden leitenden Teilen besteht, können Belüftungslöcher in der Helmschale vorgesehen werden.
Situationen, in denen Quetschgefahr besteht, erfordern Helme aus glasfaserverstärktem Polyester oder Polycarbonat mit einer Randbreite von mindestens 15 mm.
Komfortüberlegungen
Neben der Sicherheit sollten auch die physiologischen Aspekte des Tragekomforts berücksichtigt werden.
Der Helm sollte möglichst leicht sein, auf keinen Fall mehr als 400 Gramm wiegen. Sein Geschirr sollte flexibel und flüssigkeitsdurchlässig sein und sollte den Träger nicht irritieren oder verletzen; Aus diesem Grund sind Geschirre aus gewebtem Stoff denen aus Polyethylen vorzuziehen. Ein Voll- oder Halbleder-Schweißband sollte nicht nur zur Schweißabsorption, sondern auch zur Reduzierung von Hautirritationen eingearbeitet werden; es sollte aus hygienischen Gründen während der Lebensdauer des Helms mehrmals ausgetauscht werden. Um einen besseren thermischen Komfort zu gewährleisten, sollte die Schale hell sein und Belüftungslöcher mit einer Fläche von 150 bis 450 mm haben2. Eine sorgfältige Anpassung des Helms an den Träger ist notwendig, um seine Stabilität zu gewährleisten und ein Verrutschen und eine Einschränkung des Sichtfeldes zu verhindern. Es sind verschiedene Helmformen erhältlich, die häufigste ist die „Cap“-Form mit einem Schirm und einer Krempe an den Seiten; Für Arbeiten in Steinbrüchen und auf Abbruchbaustellen bietet der Helmtyp „Hut“ mit breiter Krempe besseren Schutz. Ein „Schädelkappen“-förmiger Helm ohne Schirm oder Krempe ist besonders geeignet für Personen, die über Kopf arbeiten, da dieses Muster einen möglichen Verlust des Gleichgewichts verhindert, der dadurch verursacht wird, dass der Schirm oder die Krempe mit Balken oder Trägern in Kontakt kommt, zwischen denen der Arbeiter möglicherweise stehen muss Bewegung.
Zubehör und andere schützende Kopfbedeckungen
Helme können mit Augen- oder Gesichtsschutz aus Kunststoff, Metallgewebe oder optischen Filtern ausgestattet sein; Gehörschutz, Kinnriemen und Nackenriemen, um den Helm fest in Position zu halten; und wollene Nackenschützer oder Kapuzen gegen Wind oder Kälte (Abbildung 2). Für den Einsatz in Bergwerken und untertägigen Steinbrüchen sind Halterungen für eine Stirnlampe und einen Kabelhalter angebracht.
Abbildung 2. Beispiel eines Schutzhelms mit Kinnriemen (a), optischem Filter (b) und Nackenschutz aus Wolle gegen Wind und Kälte (c)
Andere Arten von schützenden Kopfbedeckungen umfassen solche, die zum Schutz vor Schmutz, Staub, Kratzern und Stößen entwickelt wurden. Manchmal auch als „Anstoßkappen“ bekannt, bestehen diese aus leichtem Kunststoff oder Leinen. Für Personen, die in der Nähe von Werkzeugmaschinen wie Bohrmaschinen, Drehmaschinen, Spulmaschinen usw. arbeiten, wo die Gefahr besteht, dass Haare erfasst werden, dürfen Leinenmützen mit Netz, spitze Haarnetze oder sogar Schals oder Turbane verwendet werden, sofern dies der Fall ist keine freiliegenden losen Enden haben.
Hygiene und Wartung
Alle schützenden Kopfbedeckungen sollten regelmäßig gereinigt und überprüft werden. Wenn Spalten oder Risse auftreten oder wenn ein Helm Anzeichen von Alterung oder Verschlechterung des Gurtzeugs aufweist, sollte der Helm entsorgt werden. Reinigung und Desinfektion sind besonders wichtig, wenn der Träger übermäßig schwitzt oder mehrere Personen dieselbe Kopfbedeckung tragen.
An einem Helm haftende Substanzen wie Kreide, Zement, Klebstoff oder Harz können mechanisch oder mit einem geeigneten Lösungsmittel, das das Schalenmaterial nicht angreift, entfernt werden. Warmes Wasser mit einem Reinigungsmittel kann mit einer harten Bürste verwendet werden.
Zum Desinfizieren von Kopfbedeckungen sollten Artikel in eine geeignete Desinfektionslösung getaucht werden, z. B. eine 5%ige Formalinlösung oder eine Natriumhypochloritlösung.
Gehörschutz
Niemand weiß, wann die Menschen zum ersten Mal entdeckten, dass das Abdecken der Ohren mit den flachen Händen oder das Verstopfen der Gehörgänge mit den Fingern wirksam war, um den Pegel unerwünschter Geräusche – Lärm – zu reduzieren, aber die grundlegende Technik wird seit Generationen verwendet letzte Verteidigungslinie gegen laute Geräusche. Leider schließt dieses Technologieniveau die Verwendung der meisten anderen aus. Gehörschützer, eine offensichtliche Lösung des Problems, sind eine Form der Lärmkontrolle, indem sie den Weg des Lärms von der Quelle zum Ohr blockieren. Sie kommen in verschiedenen Formen vor, wie in Abbildung 1 dargestellt.
Abbildung 1. Beispiele für verschiedene Arten von Gehörschützern
Ein Ohrstöpsel ist ein Gerät, das im äußeren Gehörgang getragen wird. Vorgeformte Ohrstöpsel sind in einer oder mehreren Standardgrößen erhältlich, die in die Gehörgänge der meisten Menschen passen. Ein formbarer, vom Benutzer geformter Ohrstöpsel besteht aus einem biegsamen Material, das vom Träger so geformt wird, dass es in den Gehörgang passt, um eine akustische Abdichtung zu bilden. Ein individuell geformter Ohrstöpsel wird individuell an das jeweilige Ohr des Trägers angepasst. Ohrstöpsel können aus Vinyl, Silikon, Elastomerformulierungen, Baumwolle und Wachs, gesponnener Glaswolle und geschlossenzelligem Schaum mit langsamer Erholung hergestellt werden.
Ein halb eingesetzter Gehörschutzstöpsel, auch Gehörgangskappe genannt, wird gegen die Öffnung des äußeren Gehörgangs getragen: Der Effekt ähnelt dem Verstopfen des Gehörgangs mit einer Fingerspitze. Semi-Insert-Geräte werden in einer Größe hergestellt und sind so konzipiert, dass sie in die meisten Ohren passen. Diese Art von Gerät wird durch ein leichtes Stirnband mit leichter Spannung an Ort und Stelle gehalten.
Ein Ohrenschützer ist ein Gerät, das aus einem Stirnband und zwei ohrumschließenden Kapseln besteht, die normalerweise aus Kunststoff bestehen. Das Stirnband kann aus Metall oder Kunststoff bestehen. Die ohrumschließende Ohrmuschel umschließt das Außenohr vollständig und dichtet mit einem Polster seitlich am Kopf ab. Das Kissen kann aus Schaumstoff bestehen oder mit Flüssigkeit gefüllt sein. Die meisten Kapselgehörschützer haben eine Auskleidung in der Ohrmuschel, um den Schall zu absorbieren, der durch die Schale der Ohrmuschel übertragen wird, um die Dämpfung über etwa 2,000 Hz zu verbessern. Einige Kapselgehörschützer sind so konzipiert, dass der Kopfbügel über dem Kopf, hinter dem Hals oder unter dem Kinn getragen werden kann, obwohl der Umfang des Schutzes, den sie bieten, für jede Position des Kopfbügels unterschiedlich sein kann. Andere Ohrenschützer sind so konzipiert, dass sie auf „Schutzhelme“ passen. Diese bieten möglicherweise weniger Schutz, da die Schutzhelmbefestigung das Anpassen des Gehörschutzes erschwert und sie nicht so vielen verschiedenen Kopfgrößen passen wie solche mit Stirnbändern.
In den Vereinigten Staaten gibt es 53 Hersteller und Vertreiber von Gehörschützern, die im Juli 1994 86 Modelle von Ohrstöpseln, 138 Modelle von Ohrenschützern und 17 Modelle von Halbeinsatz-Gehörschützern verkauften. Trotz der Vielfalt an Gehörschützern machen Schaumstoff-Ohrstöpsel, die für den einmaligen Gebrauch bestimmt sind, mehr als die Hälfte der in den Vereinigten Staaten verwendeten Gehörschützer aus.
Letzte Verteidigungslinie
Der effektivste Weg, lärmbedingten Hörverlust zu vermeiden, besteht darin, sich von gefährlichen Lärmbereichen fernzuhalten. In vielen Arbeitsumgebungen ist es möglich, den Herstellungsprozess so umzugestalten, dass Bediener in geschlossenen, schalldämpfenden Kontrollräumen arbeiten. In diesen Kontrollräumen wird der Lärm so weit reduziert, dass er ungefährlich ist und die Sprachkommunikation nicht beeinträchtigt wird. Die zweitwirksamste Methode zur Vermeidung von lärmbedingtem Hörverlust besteht darin, den Lärm an der Quelle so zu reduzieren, dass er nicht mehr gefährlich ist. Dies geschieht häufig durch die Konstruktion leiser Geräte oder die Nachrüstung von Lärmschutzvorrichtungen an bestehenden Geräten.
Wenn es nicht möglich ist, den Lärm zu vermeiden oder den Lärm an der Quelle zu reduzieren, ist Gehörschutz das letzte Mittel. Als letzte Verteidigungslinie ohne Backup kann ihre Wirksamkeit oft verkürzt werden.
Eine der Möglichkeiten, die Wirksamkeit von Gehörschützern zu verringern, besteht darin, sie weniger als 100 % der Zeit zu verwenden. Abbildung 2 zeigt, was passiert. Unabhängig davon, wie viel Schutz das Design bietet, wird der Schutz letztendlich mit abnehmender prozentualer Tragezeit reduziert. Träger, die einen Ohrstöpsel entfernen oder einen Kapselgehörschützer anheben, um in lauten Umgebungen mit Kollegen zu sprechen, können den Schutz, den sie erhalten, erheblich einschränken.
Abbildung 2. Abnahme des effektiven Schutzes mit zunehmender Zeit der Nichtbenutzung während eines 8-Stunden-Tages (basierend auf einem 3-dB-Wechselkurs)
Die Bewertungssysteme und wie man sie benutzt
Es gibt viele Möglichkeiten, Gehörschützer zu bewerten. Die gebräuchlichsten Methoden sind Einzahlsysteme wie das in den USA verwendete Noise Reduction Rating (NRR) (EPA 1979) und das in Europa verwendete Single Number Rating (SNR) (ISO 1994). Eine andere europäische Bewertungsmethode ist die HML (ISO 1994), die drei Zahlen verwendet, um Protektoren zu bewerten. Schließlich gibt es Methoden, die auf der Dämpfung des Gehörschutzes für jedes der Oktavbänder basieren, in den Vereinigten Staaten als Long- oder Octave-Band-Methode bezeichnet, und in Europa als Methode des angenommenen Schutzwerts (ISO 1994).
Alle diese Methoden verwenden die Real-Ear-Dämpfung bei Schwellenwerten des Gehörschutzes, wie sie in Labors gemäß den einschlägigen Normen bestimmt werden. In den Vereinigten Staaten werden Dämpfungstests gemäß ANSI S3.19, Method for the durchgeführt Messung des realen Gehörschutzes von Gehörschützern und der physikalischen Dämpfung von Kapselgehörschützern (ANSI 1974). Obwohl dieser Standard durch einen neueren (ANSI 1984) ersetzt wurde, kontrolliert die US-Umweltschutzbehörde (EPA) die NRR auf Gehörschutzetiketten und verlangt, dass der ältere Standard verwendet wird. In Europa wird die Dämpfungsprüfung gemäß ISO 4869-1 (ISO 1990) durchgeführt.
Im Allgemeinen erfordern die Labormethoden, dass Schallfeld-Hörschwellen sowohl mit angelegten Protektoren als auch mit geöffneten Ohren bestimmt werden. In den Vereinigten Staaten muss der Gehörschutz vom Experimentator angepasst werden, während in Europa der Proband diese Aufgabe mit Unterstützung des Experimentators übernimmt. Der Unterschied zwischen Schallfeldschwellen mit Protektoren und offenen Ohren ist die Real-Ear-Dämpfung an der Schwelle. Daten werden für eine Gruppe von Probanden gesammelt, derzeit zehn in den Vereinigten Staaten mit jeweils drei Versuchen und 16 in Europa mit jeweils einem Versuch. Die durchschnittliche Dämpfung und die zugehörigen Standardabweichungen werden für jedes getestete Oktavband berechnet.
Zu Diskussionszwecken werden die NRR-Methode und die lange Methode in Tabelle 1 beschrieben und dargestellt.
Tabelle 1. Beispielberechnung der Noise Reduction Rating (NRR) eines Gehörschutzes
Verfahren:
Shritte |
Oktavband-Mittenfrequenz in Hz |
|||||||
125 |
250 |
500 |
1000 |
2000 |
4000 |
8000 |
dBX |
|
1. Angenommener Oktavband-Rauschpegel |
100.0 |
100.0 |
100.0 |
100.0 |
100.0 |
100.0 |
100.0 |
|
2. C-Bewertungskorrektur |
-0.2 |
0.0 |
0.0 |
0.0 |
-0.2 |
-0.8 |
-3.0 |
|
3. C-gewichtete Oktavbandpegel |
99.8 |
100.0 |
100.0 |
100.0 |
99.8 |
99.2 |
97.0 |
107.9 dBC |
4. A-Bewertungskorrektur |
-16.1 |
-8.6 |
-3.2 |
0.0 |
+1.2 |
+1.0 |
-1.1 |
|
5. A-gewichtete Oktavbandpegel |
83.9 |
91.4 |
96.8 |
100.0 |
101.2 |
101.0 |
98.9 |
|
6. Dämpfung des Gehörschutzes |
27.4 |
26.6 |
27.5 |
27.0 |
32.0 |
46.01 |
44.22 |
|
7. Standardabweichung × 2 |
7.8 |
8.4 |
9.4 |
6.8 |
8.8 |
7.33 |
12.84 |
|
8. Geschätzte geschützte A-gewichtete Oktavbandpegel |
64.3 |
73.2 |
78.7 |
79.8 |
78.0 |
62.3 |
67.5 |
84.2 dBA |
9. NRR = 107.9 – 84.2 – 3 = 20.7 (Stufe 3 – Stufe 8 – 3 dB5 ) |
1 Mittlere Dämpfung bei 3000 und 4000 Hz.
2 Mittlere Dämpfung bei 6000 und 8000 Hz.
3 Summe der Standardabweichungen bei 3000 und 4000 Hz.
4 Summe der Standardabweichungen bei 6000 und 8000 Hz.
5 Der 3-dB-Korrekturfaktor soll die Unsicherheit des Spektrums berücksichtigen, da das Rauschen, in dem der Gehörschutz getragen werden soll, von dem Pink-Noise-Spektrum abweichen kann, das zur Berechnung des NRR verwendet wird.
Das NRR kann verwendet werden, um den geschützten Schallpegel zu bestimmen, d. h. den effektiven A-bewerteten Schalldruckpegel am Ohr, indem er vom C-bewerteten Umgebungslärmpegel subtrahiert wird. Wenn also der C-gewichtete Umgebungsgeräuschpegel 100 dBC und das NRR für den Protektor 21 dB wäre, wäre der geschützte Geräuschpegel 79 dBA (100–21 = 79). Ist nur der A-bewertete Umgebungslärmpegel bekannt, wird eine 7-dB-Korrektur verwendet (Franks, Themann und Sherris 1995). Wenn also der A-bewertete Geräuschpegel 103 dBA wäre, wäre der geschützte Geräuschpegel 89 dBA (103–[21-7] = 89).
Die lange Methode erfordert, dass die Umgebungsgeräuschpegel im Oktavband bekannt sind; es gibt keine Abkürzung. Viele moderne Schallpegelmesser können gleichzeitig Oktavband-, C-bewertete und A-bewertete Umgebungsgeräuschpegel messen. Derzeit liefern jedoch keine Dosimeter Oktavbanddaten. Die Berechnung nach der Long-Methode ist nachfolgend beschrieben und in Tabelle 2 dargestellt.
Tabelle 2. Beispiel für die lange Methode zur Berechnung der A-bewerteten Lärmreduzierung für einen Gehörschutz bei bekanntem Umgebungslärm
Verfahren:
Shritte |
Oktavband-Mittenfrequenz in Hz |
|||||||
125 |
250 |
500 |
1000 |
2000 |
4000 |
8000 |
dBA |
|
1. Gemessene Oktavband-Rauschpegel |
85.0 |
87.0 |
90.0 |
90.0 |
85.0 |
82.0 |
80.0 |
|
2. A-Bewertungskorrektur |
-16.1 |
-8.6 |
-3.2 |
0.0 |
+1.2 |
+1.0 |
-1.1 |
|
3. A-gewichtete Oktavbandpegel |
68.9 |
78.4 |
86.8 |
90.0 |
86.2 |
83.0 |
78.9 |
93.5 |
4. Dämpfung des Gehörschutzes |
27.4 |
26.6 |
27.5 |
27.0 |
32.0 |
46.01 |
44.22 |
|
5. Standardabweichung × 2 |
7.8 |
8.4 |
9.4 |
6.8 |
8.8 |
7.33 |
12.84 |
|
6. Geschätzt geschützt |
49.3 |
60.2 |
68.7 |
69.8 |
63.0 |
44.3 |
47.5 |
73.0 |
1 Mittlere Dämpfung bei 3000 und 4000 Hz.
2 Mittlere Dämpfung bei 6000 und 8000 Hz.
3 Summe der Standardabweichungen bei 3000 und 4000 Hz.
4 Summe der Standardabweichungen bei 6000 und 8000 Hz.
Die subtraktiven Standardabweichungskorrekturen in der langen Methode und in den NRR-Berechnungen sollen die Laborvariabilitätsmessungen verwenden, um die Schutzschätzungen so anzupassen, dass sie den Werten entsprechen, die für die meisten Benutzer erwartet werden (98 % mit einer 2-Standardabweichungskorrektur oder 84 % bei Verwendung einer 1-Standardabweichungskorrektur), die den Gehörschutz unter identischen Bedingungen wie bei den Tests tragen. Die Angemessenheit dieser Anpassung hängt natürlich stark von der Gültigkeit der im Labor geschätzten Standardabweichungen ab.
Vergleich der langen Methode und der NRR
Die lange Methode und die NRR-Berechnungen können verglichen werden, indem der NRR (20.7) vom C-bewerteten Schalldruckpegel für das Spektrum in Tabelle 2 (95.2 dBC) subtrahiert wird, um den effektiven Pegel bei getragenem Gehörschutz vorherzusagen, nämlich 74.5 dBA . Dies ist ein günstiger Vergleich mit dem Wert von 73.0 dBA, der aus der langen Methode in Tabelle 2 abgeleitet wurde. Ein Teil der Diskrepanz zwischen den beiden Schätzungen ist auf die Verwendung des ungefähren spektralen Sicherheitsfaktors von 3 dB zurückzuführen, der in Zeile 9 von Tabelle 1 enthalten ist. Die spektrale Sicherheit Der Faktor soll Fehler berücksichtigen, die sich aus der Verwendung eines angenommenen Rauschens anstelle eines tatsächlichen Rauschens ergeben. Abhängig von der Steilheit des Spektrums und der Form der Dämpfungskurve des Gehörschutzes können die Unterschiede zwischen den beiden Methoden größer sein als in diesem Beispiel gezeigt.
Zuverlässigkeit von Testdaten
Es ist bedauerlich, dass die Dämpfungswerte und ihre Standardabweichungen, wie sie in Labors in den Vereinigten Staaten und in geringerem Maße in Europa ermittelt wurden, nicht repräsentativ für die Werte sind, die von alltäglichen Trägern ermittelt werden. Berger, Franks und Lindgren (1996) überprüften 22 reale Studien zu Gehörschützern und stellten fest, dass die auf dem von der EPA vorgeschriebenen Etiketten angegebenen US-Laborwerte den Schutz von 140 auf fast 2000 % überbewerteten. Die Überschätzung war bei Ohrstöpseln am größten und bei Ohrenschützern am geringsten. Seit 1987 empfiehlt die US-Arbeitsschutzbehörde, den NRR um 50 % herabzusetzen, bevor Berechnungen des Geräuschpegels unter dem Gehörschutz durchgeführt werden. 1995 empfahl das US National Institute for Occupational Safety and Health (NIOSH), die NRR für Kapselgehörschützer um 25 %, die NRR für formbare Gehörschutzstöpsel um 50 % und die NRR für vorgeformte Gehörschutzstöpsel und Halbeinlagen herabzusetzen 70 %, bevor Berechnungen des Geräuschpegels unter dem Gehörschutz durchgeführt werden (Rosenstock 1995).
Variabilität innerhalb und zwischen den Labors
Eine weitere Überlegung, die jedoch weniger Einfluss hat als die oben genannten Probleme in der realen Welt, betrifft die Gültigkeit und Variabilität innerhalb des Labors sowie Unterschiede zwischen den Einrichtungen. Die Variabilität zwischen den Labors kann erheblich sein (Berger, Kerivan und Mintz 1982) und sowohl die Oktavbandwerte als auch die berechneten NRRs beeinflussen, sowohl in Bezug auf absolute Berechnungen als auch in Bezug auf die Rangordnung. Daher ist eine Rangordnung von Gehörschützern auf der Grundlage von Dämpfungswerten derzeit am besten nur für Daten aus einem einzelnen Labor durchzuführen.
Wichtige Punkte für die Auswahl des Schutzes
Bei der Auswahl eines Gehörschutzes sind einige wichtige Punkte zu beachten (Berger 1988). An erster Stelle steht, dass der Protektor für den Umgebungslärm geeignet ist, in dem er getragen wird. Die Änderung des Gehörschutzes zum OSHA Noise Standard (1983) empfiehlt, dass der Geräuschpegel unter dem Gehörschutz 85 dB oder weniger betragen sollte. NIOSH hat empfohlen, dass der Geräuschpegel unter dem Gehörschutz nicht höher als 82 dBA sein sollte, damit das Risiko eines lärmbedingten Hörverlusts minimal ist (Rosenstock 1995).
Zweitens sollte der Protektor nicht überbehütend sein. Liegt der zu schützende Expositionspegel mehr als 15 dB unter dem gewünschten Pegel, hat der Gehörschutz eine zu starke Dämpfung und der Träger gilt als überschützt, was dazu führt, dass sich der Träger von der Umgebung isoliert fühlt (BSI 1994). Es kann schwierig sein, Sprache und Warnsignale zu hören, und die Träger werden den Protektor entweder vorübergehend entfernen, wenn sie kommunizieren (wie oben erwähnt) und Warnsignale überprüfen müssen, oder sie werden den Protektor modifizieren, um seine Dämpfung zu verringern. In beiden Fällen wird der Schutz in der Regel so weit reduziert, dass ein Hörverlust nicht mehr verhindert wird.
Gegenwärtig ist eine genaue Bestimmung der geschützten Geräuschpegel schwierig, da die gemeldeten Dämpfungen und Standardabweichungen zusammen mit ihren resultierenden NRRs überhöht sind. Die Verwendung der vom NIOSH empfohlenen Herabsetzungsfaktoren sollte jedoch die Genauigkeit einer solchen Bestimmung kurzfristig verbessern.
Komfort ist ein kritisches Thema. Kein Gehörschutz kann so bequem sein, wie gar keinen zu tragen. Das Abdecken oder Verschließen der Ohren erzeugt viele unnatürliche Empfindungen. Diese reichen von einer Klangveränderung der eigenen Stimme durch den „Okklusionseffekt“ (siehe unten) bis hin zu einem Völlegefühl in den Ohren oder einem Druckgefühl auf dem Kopf. Die Verwendung von Ohrenschützern oder Ohrstöpseln in heißen Umgebungen kann aufgrund der erhöhten Schweißbildung unangenehm sein. Es wird einige Zeit dauern, bis sich die Träger an die Empfindungen gewöhnt haben, die von Gehörschützern verursacht werden, und an einige der Unbequemlichkeiten. Wenn Träger jedoch Beschwerden wie Kopfschmerzen durch Druck auf das Kopfband oder Schmerzen in den Gehörgängen durch das Einsetzen von Ohrstöpseln verspüren, sollten sie mit alternativen Geräten ausgestattet werden.
Wenn Ohrenschützer oder wiederverwendbare Gehörschutzstöpsel verwendet werden, sollte eine Vorrichtung bereitgestellt werden, um sie sauber zu halten. Bei Ohrenschützern sollten die Träger leichten Zugang zu austauschbaren Komponenten wie Ohrpolstern und Ohrmuscheleinsätzen haben. Träger von Einweg-Ohrstöpseln sollten jederzeit Zugang zu einem frischen Vorrat haben. Wenn Ohrstöpsel wiederverwendet werden sollen, sollten die Träger Zugang zu Reinigungseinrichtungen für Ohrstöpsel haben. Träger von individuell geformten Ohrstöpseln sollten Einrichtungen haben, um die Ohrstöpsel sauber zu halten und Zugang zu neuen Ohrstöpseln zu haben, wenn sie beschädigt oder abgenutzt sind.
Der durchschnittliche amerikanische Arbeiter ist jeden Tag 2.7 Berufsrisiken ausgesetzt (Luz et al. 1991). Diese Gefahren können die Verwendung anderer Schutzausrüstung wie Schutzhelme, Augenschutz und Atemschutzgeräte erfordern. Es ist wichtig, dass der ausgewählte Gehörschutz mit anderen erforderlichen Sicherheitsausrüstungen kompatibel ist. Das NIOSH Kompendium der Gehörschutzgeräte (Franks, Themann und Sherris 1995) hat Tabellen, die unter anderem die Kompatibilität jedes Gehörschutzes mit anderen Schutzausrüstungen auflisten.
Der Okklusionseffekt
Der Okklusionseffekt beschreibt die Steigerung der Effizienz, mit der knochenleitungsgebundener Schall mit Frequenzen unter 2,000 Hz zum Ohr übertragen wird, wenn der Gehörgang mit einem Finger oder einem Ohrstöpsel verschlossen oder mit einem Kapselgehörschützer abgedeckt wird. Die Größe des Okklusionseffekts hängt davon ab, wie das Ohr verschlossen ist. Der maximale Okklusionseffekt tritt auf, wenn der Eingang zum Gehörgang blockiert ist. Kapselgehörschützer mit großen Ohrmuscheln und tief eingesetzten Ohrstöpseln verursachen weniger Okklusionseffekte (Berger 1988). Der Okklusionseffekt führt oft dazu, dass Gehörschutzträger das Tragen eines Schutzes ablehnen, weil sie den Klang ihrer Stimme nicht mögen – lauter, dröhnend und gedämpft.
Kommunikationseffekte
Aufgrund des Okklusionseffekts, den die meisten Gehörschützer verursachen, klingt die eigene Stimme tendenziell lauter – da der Gehörschutz den Pegel von Umgebungsgeräuschen reduziert, klingt die Stimme viel lauter als bei geöffneten Ohren. Um sich an die erhöhte Lautstärke der eigenen Sprache anzupassen, neigen die meisten Träger dazu, ihre Stimmpegel erheblich zu senken und leiser zu sprechen. Das Senken der Stimme in einer lauten Umgebung, in der der Zuhörer auch einen Gehörschutz trägt, trägt zur Schwierigkeit der Kommunikation bei. Darüber hinaus erhöhen die meisten Sprecher selbst ohne Okklusionseffekt ihren Stimmpegel nur um 5 bis 6 dB pro 10 dB Erhöhung des Umgebungsgeräuschpegels (Lombard-Effekt). Somit hat die Kombination aus verringertem Stimmpegel aufgrund der Verwendung von Gehörschutz in Kombination mit unzureichender Anhebung des Stimmpegels zum Ausgleich von Umgebungslärm schwerwiegende Folgen für die Fähigkeit von Gehörschutzträgern, einander im Lärm zu hören und zu verstehen.
Die Funktionsweise von Gehörschützern
Ohrenschützer
Die grundlegende Funktion von Kapselgehörschützern besteht darin, das Außenohr mit einer Kapsel zu bedecken, die eine geräuschdämpfende akustische Abdichtung bildet. Die Art der Ohrmuschel und der Polster des Kapselgehörschutzes sowie die Spannung des Kopfbügels bestimmen zum größten Teil, wie gut der Kapselgehörschutz Umgebungsgeräusche dämpft. Abbildung 3 zeigt sowohl ein Beispiel eines gut sitzenden Kapselgehörschutzes mit einer guten Abdichtung rund um das Außenohr als auch ein Beispiel eines Kapselgehörschutzes mit einem Leck unter dem Polster. Das Diagramm in Abbildung 3 zeigt, dass der eng anliegende Kapselgehörschutz bei allen Frequenzen eine gute Dämpfung aufweist, der mit Leckage jedoch praktisch keine Niederfrequenzdämpfung bietet. Die meisten Kapselgehörschützer bieten eine Dämpfung, die der Knochenleitung nahe kommt, etwa 40 dB, für Frequenzen von 2,000 Hz und höher. Die Niederfrequenz-Dämpfungseigenschaften eines eng anliegenden Kapselgehörschutzes werden durch Konstruktionsmerkmale und Materialien bestimmt, zu denen das Volumen der Ohrmuschel, die Fläche der Ohrmuschelöffnung, die Kraft des Kopfbügels und die Masse gehören.
Abbildung 3. Gut sitzende und schlecht sitzende Kapselgehörschützer und ihre Dämpfungsfolgen
Ohrstöpsel
Abbildung 4 zeigt ein Beispiel für einen gut sitzenden, vollständig eingesetzten Schaumstoff-Ohrstöpsel (etwa 60 % davon reichen in den Gehörgang) und ein Beispiel für einen schlecht sitzenden, flach eingesetzten Schaumstoff-Ohrstöpsel, der den Eingang des Gehörgangs gerade abdeckt. Der gut sitzende Ohrstöpsel hat eine gute Dämpfung bei allen Frequenzen. Der schlecht sitzende Schaumstoff-Ohrstöpsel hat wesentlich weniger Dämpfung. Der Schaumstoff-Ohrstöpsel kann, wenn er richtig sitzt, bei vielen Frequenzen eine Dämpfung bieten, die der Knochenleitung nahe kommt. Bei starkem Lärm können die Dämpfungsunterschiede zwischen einem gut und einem schlecht angepassten Schaumstoff-Ohrstöpsel ausreichen, um einen lärmbedingten Hörverlust entweder zu verhindern oder zuzulassen.
Abbildung 4. Ein gut angepasster und ein schlecht angepasster Schaumstoff-Ohrstöpsel und die Folgen der Dämpfung
Abbildung 5 zeigt einen gut angepassten und einen schlecht angepassten vorgeformten Gehörschutzstöpsel. Im Allgemeinen bieten vorgeformte Gehörschutzstöpsel nicht den gleichen Dämpfungsgrad wie richtig angepasste Schaumstoff-Gehörschutzstöpsel oder Ohrenschützer. Der gut sitzende, vorgeformte Ohrstöpsel bietet jedoch eine ausreichende Dämpfung für die meisten Industriegeräusche. Der schlecht sitzende vorgeformte Ohrstöpsel bietet wesentlich weniger und keine Dämpfung bei 250 und 500 Hz. Es wurde beobachtet, dass bei einigen Trägern bei diesen Frequenzen tatsächlich eine Verstärkung eintritt, was bedeutet, dass der geschützte Geräuschpegel tatsächlich höher ist als der Umgebungsgeräuschpegel, wodurch der Träger einem höheren Risiko ausgesetzt ist, einen lärmbedingten Hörverlust zu entwickeln, als wenn dies der Fall wäre überhaupt nicht getragen.
Abbildung 5. Ein gut angepasster und ein schlecht angepasster vorgeformter Gehörschutzstöpsel
Zweifacher Gehörschutz
Bei einigen Umgebungsgeräuschen, insbesondere wenn die tägliche Äquivalenzbelastung etwa 105 dBA übersteigt, kann ein einzelner Gehörschutz unzureichend sein. In solchen Situationen können Träger sowohl Ohrenschützer als auch Ohrstöpsel in Kombination verwenden, um einen zusätzlichen Schutz von etwa 3 bis 10 dB zu erreichen, der hauptsächlich durch die Knochenleitung des Kopfes des Trägers begrenzt ist. Die Dämpfung ändert sich nur sehr wenig, wenn verschiedene Gehörschutzstöpsel mit demselben Gehörschutz verwendet werden, ändert sich jedoch stark, wenn verschiedene Gehörschutzstöpsel mit demselben Gehörschutz verwendet werden. Für einen doppelten Schutz ist die Wahl des Ohrstöpsels entscheidend für die Dämpfung unter 2,000 Hz, aber bei und über 2,000 Hz bieten im Wesentlichen alle Ohrschützer/Ohrstöpsel-Kombinationen eine Dämpfung, die ungefähr der der Knochenleitungswege des Schädels entspricht.
Störungen durch Brillen und am Kopf getragene persönliche Schutzausrüstung
Schutzbrillen oder andere Geräte wie Atemschutzgeräte, die die ohrumschließende Abdichtung des Kapselgehörschützers stören, können die Dämpfung des Kapselgehörschützers beeinträchtigen. Beispielsweise kann eine Schutzbrille die Dämpfung in einzelnen Oktavbändern um 3 bis 7 dB reduzieren.
Flat-Response-Geräte
Ein Ohrenschützer oder Ohrstöpsel mit flacher Dämpfung ist einer, der ungefähr die gleiche Dämpfung für Frequenzen von 100 bis 8,000 Hz bietet. Diese Geräte behalten den gleichen Frequenzgang wie das unverschlossene Ohr bei und bieten eine unverzerrte Wiedergabe von Signalen (Berger 1991). Ein normaler Ohrenschützer oder Ohrstöpsel kann klingen, als ob die Höhen des Signals heruntergedreht wurden, zusätzlich zu der allgemeinen Absenkung des Schallpegels. Der Flachdämpfungs-Ohrenschützer oder -Ohrstöpsel klingt, als wäre nur die Lautstärke reduziert worden, da seine Dämpfungseigenschaften durch den Einsatz von Resonatoren, Dämpfern und Membranen „abgestimmt“ werden. Flat-Dämpfungseigenschaften können für Träger mit hochfrequentem Hörverlust wichtig sein, für diejenigen, für die es wichtig ist, Sprache zu verstehen, während sie geschützt sind, oder für diejenigen, für die eine hohe Klangqualität wichtig ist, wie z. B. Musiker. Flachdämpfungsgeräte sind als Kapselgehörschützer und Ohrstöpsel erhältlich. Ein Nachteil der Flat-Dämpfungsgeräte ist, dass sie nicht so viel Dämpfung bieten wie herkömmliche Ohrenschützer und Ohrstöpsel.
Passive amplitudenempfindliche Geräte
Ein passiver amplitudenempfindlicher Gehörschutz hat keine Elektronik und ist so konzipiert, dass er Sprachkommunikation in ruhigen Zeiten ermöglicht und bei niedrigen Lärmpegeln wenig Dämpfung bietet, wobei der Schutz mit zunehmendem Lärmpegel zunimmt. Diese Geräte enthalten Öffnungen, Ventile oder Membranen, die dazu bestimmt sind, diese nichtlineare Dämpfung zu erzeugen, die typischerweise beginnt, sobald die Schallpegel 120 dB Schalldruckpegel (SPL) überschreiten. Bei Schallpegeln unter 120 dB SPL fungieren Öffnungs- und Ventilgeräte typischerweise als belüftete Otoplastiken, die eine Dämpfung von bis zu 25 dB bei den höheren Frequenzen, aber eine sehr geringe Dämpfung bei und unter 1,000 Hz bieten. Abgesehen von Schießwettbewerben (insbesondere im Freien) sind nur wenige Berufs- und Freizeitaktivitäten angemessen, wenn erwartet wird, dass diese Art von Gehörschutz wirklich wirksam bei der Verhinderung von lärmbedingtem Hörverlust ist.
Aktive amplitudenempfindliche Geräte
Ein aktiver amplitudenempfindlicher Gehörschutz hat ähnliche Elektronik- und Konstruktionsziele wie ein passiver amplitudenempfindlicher Schutz. Diese Systeme verwenden ein Mikrofon, das an der Außenseite der Ohrmuschel angeordnet oder an der seitlichen Oberfläche des Ohrstöpsels angebracht ist. Die elektronische Schaltung ist so ausgelegt, dass sie immer weniger verstärkt oder in einigen Fällen vollständig abschaltet, wenn der Umgebungsgeräuschpegel zunimmt. Bei den Pegeln normaler Konversationssprache bieten diese Geräte Einheitsverstärkung (die Lautstärke der Sprache ist die gleiche, als ob der Schutz nicht getragen würde) oder sogar eine kleine Menge an Verstärkung. Ziel ist es, den Schallpegel unter dem Kapselgehörschützer oder Ohrstöpsel auf weniger als 85 dBA im Diffusfeldäquivalent zu halten. Einige der in Gehörschutzkapseln eingebauten Einheiten haben einen Kanal für jedes Ohr, wodurch ein gewisses Maß an Lokalisierung aufrechterhalten werden kann. Andere haben nur ein Mikrofon. Die Wiedergabetreue (Natürlichkeit) dieser Systeme variiert zwischen den Herstellern. Aufgrund der in die Ohrmuschel eingebauten Elektronik, die für ein aktives, pegelabhängiges System erforderlich ist, bieten diese Geräte im passiven Zustand bei ausgeschalteter Elektronik etwa vier bis sechs Dezibel weniger Dämpfung als vergleichbare Kapselgehörschützer ohne die Elektronik.
Aktive Geräuschreduzierung
Die aktive Lärmreduzierung ist zwar ein altes Konzept, aber eine relativ neue Entwicklung für Gehörschützer. Einige Geräte arbeiten, indem sie den Schall in der Ohrmuschel erfassen, seine Phase umkehren und das umgekehrte Rauschen in die Ohrmuschel zurücksenden, um den eingehenden Schall zu unterdrücken. Andere Einheiten erfassen Schall außerhalb der Ohrmuschel, modifizieren sein Spektrum, um die Dämpfung der Ohrmuschel zu berücksichtigen, und fügen das invertierte Geräusch in die Ohrmuschel ein, wobei sie die Elektronik effektiv als Zeitgeber verwenden, damit der elektrisch invertierte Schall eintrifft die Ohrmuschel gleichzeitig mit dem durch die Ohrmuschel übertragenen Geräusch. Die aktive Geräuschunterdrückung beschränkt sich auf die Reduzierung von tieffrequenten Geräuschen unter 1,000 Hz, wobei eine maximale Dämpfung von 20 bis 25 dB bei oder unter 300 Hz auftritt.
Ein Teil der durch das aktive Geräuschreduzierungssystem bereitgestellten Dämpfung gleicht jedoch einfach die Verringerung der Dämpfung der Ohrenschützer aus, die durch den Einschluss genau der Elektronik in der Ohrmuschel verursacht wird, die erforderlich ist, um die aktive Geräuschreduzierung zu bewirken. Gegenwärtig kosten diese Geräte das 10- bis 50-fache von passiven Kapselgehörschützern oder Gehörschutzstöpseln. Wenn die Elektronik ausfällt, ist der Träger möglicherweise unzureichend geschützt und kann unter der Ohrmuschel mehr Geräusche wahrnehmen, als wenn die Elektronik einfach abgeschaltet wäre. Da aktive Geräuschunterdrückungsgeräte immer beliebter werden, sollten die Kosten sinken und ihre Anwendbarkeit weiter verbreitet werden.
Der beste Gehörschutz
Der beste Gehörschutz ist derjenige, den der Träger bereitwillig und zu 100 % der Zeit verwendet. Es wird geschätzt, dass etwa 90 % der lärmexponierten Arbeiter im verarbeitenden Gewerbe in den Vereinigten Staaten Lärmpegeln von weniger als 95 dBA ausgesetzt sind (Franks 1988). Sie benötigen zwischen 13 und 15 dB Dämpfung, um ausreichend Schutz zu bieten. Es gibt eine große Auswahl an Gehörschützern, die eine ausreichende Dämpfung bieten können. Die Herausforderung besteht darin, diejenige zu finden, die jeder Arbeiter bereitwillig 100 % der Zeit trägt.
HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."