Banner ToolsAnsatz

Kinder Kategorien

27. Biologische Überwachung

27. Biologische Überwachung (6)

4 banner

 

27. Biologische Überwachung

Kapitelherausgeber: Robert Lauwerys


 

Inhaltsverzeichnis  

Tabellen und Abbildungen

Allgemeine Grundsätze
Vito Foà und Lorenzo Alessio

Qualitätssicherung
D. Gompertz

Metalle und metallorganische Verbindungen
P. Hoet und Robert Lauwerys

Organische Lösungsmittel
Masayuki Ikeda

Genotoxische Chemikalien
Marja Sorsa

Pestizide
Marco Maroni und Adalberto Ferioli 

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. ACGIH, DFG & andere Grenzwerte für Metalle

2. Beispiele für Chemikalien- und biologisches Monitoring

3. Biologische Überwachung auf organische Lösungsmittel

4. Genotoxizität von Chemikalien, bewertet von IARC

5. Biomarker und einige Zell-/Gewebeproben und Genotoxizität

6. Menschliche Karzinogene, berufliche Exposition und zytogenetische Endpunkte

7. Ethische Prinzipien

8. Exposition durch Produktion und Verwendung von Pestiziden

9. Akute OP-Toxizität bei verschiedenen Graden der ACHE-Hemmung

10 Variationen von ACHE & PCHE & ausgewählten Gesundheitszuständen

11 Cholinesterase-Aktivitäten von nicht exponierten gesunden Menschen

12 Alkylphosphate im Urin und OP-Pestizide

13 Alkylphosphatmessungen im Urin & OP

14 Carbamat-Metaboliten im Urin

15 Dithiocarbamat-Metaboliten im Urin

16 Vorgeschlagene Indizes für die biologische Überwachung von Pestiziden

17 Empfohlene biologische Grenzwerte (Stand 1996)

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

BMO010F1BMO020F1BMO050F1BMO050T1BMO050F2BMO050F3BMO050T5BMO060F1BMO060F2BMO060F3

 


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
28. Epidemiologie und Statistik

28. Epidemiologie und Statistik (12)

4 banner

 

28. Epidemiologie und Statistik

Kapitel-Editoren:  Franco Merletti, Colin L. Soskolne und Paolo Vineis


Inhaltsverzeichnis

Tabellen und Abbildungen

Epidemiologische Methode für Arbeitssicherheit und Gesundheitsschutz
Franco Merletti, Colin L. Soskolne und Paolo Vineis

Expositionsbewertung
M. Gerald Ott

Zusammenfassung der Expositionsmaßnahmen im Arbeitsleben
Colin L. Soskolne

Messung der Auswirkungen von Expositionen
Shelia Hoar Zahm

     Fallbeispiel: Maßnahmen
     Franco Merletti, Colin L. Soskolne und Paola Vineis

Optionen im Studiendesign
Sven Herberg

Validitätsprobleme im Studiendesign
Annie J. Sasco

Einfluss zufälliger Messfehler
Paolo Vineis und Colin L. Soskolne

Statistische Methoden
Annibale Biggeri und Mario Braga

Kausalitätsbewertung und Ethik in der epidemiologischen Forschung
Paolo Vineis

Fallstudien zur Veranschaulichung methodischer Probleme bei der Überwachung von Berufskrankheiten
Jung-Der Wang

Fragebögen in der epidemiologischen Forschung
Steven D. Stellman und Colin L. Soskolne

Asbest Historische Perspektive
Laurent Garfinkel

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Fünf ausgewählte zusammenfassende Maßnahmen zur Exposition im Berufsleben

2. Maße für das Auftreten von Krankheiten

3. Assoziationsmaße für eine Kohortenstudie

4. Assoziationsmaße für Fall-Kontroll-Studien

5. Allgemeines Häufigkeitstabellenlayout für Kohortendaten

6. Musterlayout von Fallkontrolldaten

7. Layout-Fallkontrolldaten – eine Kontrolle pro Fall

8. Hypothetische Kohorte von 1950 Individuen zu T2

9. Indizes der zentralen Tendenz und Streuung

10 Ein binomiales Experiment & Wahrscheinlichkeiten

11 Mögliche Ergebnisse eines binomialen Experiments

12 Binomialverteilung, 15 Erfolge/30 Versuche

13 Binomialverteilung, p = 0.25; 30 Versuche

14 Fehler XNUMX. Art & Leistung; x = 12, n = 30, a = 0.05

15 Fehler XNUMX. Art & Leistung; x = 12, n = 40, a = 0.05

16 632 Arbeitnehmer, die 20 Jahre oder länger Asbest ausgesetzt waren

17 O/E Zahl der Todesfälle unter 632 Asbestarbeitern

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

EPI110F1EPI110F2


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
29. Ergonomie

29. Ergonomie (27)

4 banner

 

29. Ergonomie

Kapitel-Editoren:  Wolfgang Laurig und Joachim Vedder

 


 

Inhaltsverzeichnis 

Tabellen und Abbildungen

Überblick
Wolfgang Laurig und Joachim Vedder

Ziele, Prinzipien und Methoden

Wesen und Ziele der Ergonomie
William T. Singleton

Analyse von Aktivitäten, Aufgaben und Arbeitssystemen
Véronique De Keyser

Ergonomie und Standardisierung
Friedhelm Nachreiner

Prüflisten
Pranab Kumar Nag

Physikalische und physiologische Aspekte

Anthropometrie
Melchiorre Masali

Muskelarbeit
Juhani Smolander und Veikko Louhevaara

Körperhaltungen bei der Arbeit
Ilkka Kurinka

Biomechanik
Frank Darby

Allgemeine Müdigkeit
Etienne Grandjean

Müdigkeit und Erholung
Rolf Helbig und Walter Rohmert

Psychologische Aspekte

Geistige Arbeitsbelastung
Winfried Hacker

Wachsamkeit
Herbert Heuer

Geistige Müdigkeit
Peter Richter

Organisatorische Aspekte der Arbeit

Arbeitsorganisation
Eberhard Ulich und Gudela Grote

Schlafentzug
Kazutaka Kogi

Gestaltung von Arbeitssystemen

Workstations
Roland Kadefors

Tools
TM Fraser

Bedienelemente, Anzeigen und Bedienfelder
Karl HE Kroemer

Informationsverarbeitung und Design
Andries F. Sanders

Designen für alle

Entwerfen für bestimmte Gruppen
Witz H. Grady-van den Nieuwboer

     Fallstudie: Die internationale Klassifikation der Funktionseinschränkung beim Menschen

Kulturelle Unterschiede
Houshang Shahnavaz

Ältere Arbeitnehmer
Antoine Laville und Serge Volkoff

Arbeitnehmer mit besonderen Bedürfnissen
Witz H. Grady-van den Nieuwboer

Vielfalt und Bedeutung der Ergonomie – zwei Beispiele

Systemdesign in der Diamantherstellung
Issachar Gilad

Missachtung ergonomischer Gestaltungsprinzipien: Tschernobyl
Wladimir M. Munipov 

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Grundlegende anthropometrische Kernliste

2. Ermüdung und Erholung abhängig vom Aktivitätsniveau

3. Regeln der Kombinationswirkung zweier Stressfaktoren auf die Belastung

4. Es wird zwischen mehreren negativen Folgen psychischer Belastung unterschieden

5. Arbeitsorientierte Prinzipien zur Produktionsgestaltung

6. Partizipation im organisatorischen Kontext

7. Benutzerbeteiligung am Technologieprozess

8. Unregelmäßige Arbeitszeiten und Schlafentzug

9. Aspekte von Früh-, Anker- und Verzögerungsschlaf

10 Kontrollieren Sie Bewegungen und erwartete Effekte

11 Steuerungs-Wirkungs-Beziehungen gängiger Handsteuerungen

12 Regeln für die Anordnung von Kontrollen

13 Richtlinien für Etiketten

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

ERG040T1ERG040F1ERG040F2ERG040F3ERG040T2ERG040F5ERG070F1ERG070F2ERG070F3ERG060F2ERG060F1ERG060F3ERG080F1ERG080F4ERG090F1ERG090F2ERG090F3ERG090F4ERG225F1ERG225F2ERG150F1ERG150F2ERG150F4ERG150F5ERG150F6ERG120F1ERG130F1ERG290F1ERG160T1ERG160F1ERG185F1ERG185F2ERG185F3ERG185F4ERG190F1ERG190F2ERG190F3ERG210F1ERG210F2ERG210F3ERG210F4ERG210T4ERG210T5ERG210T6ERG220F1ERG240F1ERG240F2ERG240F3ERG240F4ERG260F1ERG300F1ERG255F1

Artikel ansehen ...
32. Aufzeichnungssysteme und Überwachung

32. Aufzeichnungssysteme und Überwachung (9)

4 banner

 

32. Aufzeichnungssysteme und Überwachung

Kapitel-Editor:  Steven D. Stellman

 


 

Inhaltsverzeichnis 

Tabellen und Abbildungen

Überwachungs- und Meldesysteme für Berufskrankheiten
Steven B. Markowitz

Überwachung von Arbeitsgefahren
David H. Wegman und Steven D. Stellman

Überwachung in Entwicklungsländern
David Koh und Kee-Seng Chia

Entwicklung und Anwendung eines Klassifizierungssystems für Arbeitsunfälle und Berufskrankheiten
Elyce Biddle

Risikoanalyse von nicht tödlichen Verletzungen und Krankheiten am Arbeitsplatz
John W. Ruser

Fallstudie: Arbeitnehmerschutz und Statistiken zu Unfällen und Berufskrankheiten - HVBG, Deutschland
Martin Butz und Burkhard Hoffmann

Fallstudie: Wismut – Eine Neuauflage der Uranexposition
Heinz Otten und Horst Schulz

Messstrategien und -techniken für die berufsbedingte Expositionsabschätzung in der Epidemiologie
Frank Bochmann und Helmut Blome

Fallstudie: Arbeitsmedizinische Erhebungen in China

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Angiosarkom der Leber - Weltregister

2. Berufskrankheit, USA, 1986 versus 1992

3. US-Todesfälle durch Pneumokoniose und Pleuramesotheliom

4. Musterliste meldepflichtiger Berufskrankheiten

5. Codestruktur für die Meldung von Krankheiten und Verletzungen, USA

6. Nichttödliche Arbeitsunfälle und Berufskrankheiten, USA 1993

7. Risiko von Arbeitsunfällen und Berufskrankheiten

8. Relatives Risiko für sich wiederholende Bewegungszustände

9. Arbeitsunfälle, Deutschland, 1981-93

10 Schleifmaschinen bei Unfällen in der Metallverarbeitung, Deutschland, 1984-93

11 Berufskrankheit, Deutschland, 1980-93

12 Infektionskrankheiten, Deutschland, 1980-93

13 Strahlenbelastung in den Wismut-Bergwerken

14 Berufskrankheiten im Wismuter Uranbergwerk 1952-90

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

REC60F1AREC060F2REC100F1REC100T1REC100T2


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
33. Toxikologie

33. Toxikologie (21)

4 banner

 

33. Toxikologie

Kapitelherausgeberin: Ellen K. Silbergeld


Inhaltsverzeichnis

Tabellen und Abbildungen

Einleitung
Ellen K. Silbergeld, Kapitelredakteurin

Allgemeine Prinzipien der Toxikologie

Definitionen und Konzepte
Bo Holmberg, Johan Hogberg und Gunnar Johanson

Toxikokinetik
Dušan Djuric

Zielorgan und kritische Wirkungen
Marek Jakubowski

Auswirkungen von Alter, Geschlecht und anderen Faktoren
Spomenka Telisman

Genetische Determinanten der toxischen Reaktion
Daniel W. Nebert und Ross A. McKinnon

Mechanismen der Toxizität

Einführung und Konzepte
Philip G. Watanabe

Zellschädigung und Zelltod
Benjamin F. Trump und Irene K. Berezesky

Genetische Toxikologie
R. Rita Misra und Michael P. Waalkes

Immuntoxikologie
Joseph G. Vos und Henk van Loveren

Zielorgan-Toxikologie
Ellen K. Silbergeld

Toxikologische Testmethoden

Biomarker
Philipp Grandjean

Bewertung der genetischen Toxizität
David M. DeMarini und James Huff

In-vitro-Toxizitätstest
Joanne Zürlo

Aktivitätsbeziehungen strukturieren
Ellen K. Silbergeld

Regulatorische Toxikologie

Toxikologie in der Gesundheits- und Sicherheitsverordnung
Ellen K. Silbergeld

Prinzipien der Gefahrenidentifizierung - Der japanische Ansatz
Masayuki Ikeda

Der Ansatz der Vereinigten Staaten zur Risikobewertung von reproduktionstoxischen und neurotoxischen Wirkstoffen
Ellen K. Silbergeld

Ansätze zur Gefahrenidentifizierung - IARC
Harri Vainio und Julian Wilbourn

Anhang – Gesamtbewertungen der Karzinogenität beim Menschen: IARC-Monographien, Bände 1–69 (836)

Karzinogen-Risikobewertung: Andere Ansätze
Cees A. van der Heijden

Tische 

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

  1. Beispiele für kritische Organe und kritische Effekte
  2. Grundlegende Wirkungen möglicher Mehrfachwechselwirkungen von Metallen
  3. Hämoglobinaddukte bei Arbeitern, die Anilin und Acetanilid ausgesetzt waren
  4. Erbliche, krebsanfällige Erkrankungen und Defekte in der DNA-Reparatur
  5. Beispiele für Chemikalien, die in menschlichen Zellen genotoxisch wirken
  6. Klassifizierung von Tests für Immunmarker
  7. Beispiele für Biomarker der Exposition
  8. Vor- und Nachteile von Methoden zur Identifizierung von Krebsrisiken beim Menschen
  9. Vergleich von In-vitro-Systemen für Hepatotoxizitätsstudien
  10. Vergleich von SAR- und Testdaten: OECD/NTP-Analysen
  11. Regulierung chemischer Stoffe durch Gesetze, Japan
  12. Prüfgegenstände gemäß dem Gesetz zur Kontrolle chemischer Substanzen, Japan
  13. Chemische Substanzen und das Gesetz zur Kontrolle chemischer Substanzen
  14. Ausgewählte größere Neurotoxizitätsvorfälle
  15. Beispiele für spezialisierte Tests zur Messung der Neurotoxizität
  16. Endpunkte in der Reproduktionstoxikologie
  17. Vergleich von Niedrigdosis-Extrapolationsverfahren
  18. Häufig zitierte Modelle zur Charakterisierung des Karzinogenrisikos

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

TestTOX050F1TOX050F2TOX050F4TOX050T1TOX050F6TOX210F1TOX210F2TOX060F1TOX090F1TOX090F2TOX090F3TOX090F4TOX110F1TOX260F1TOX260T4


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
Montag, März 14 2011 19: 11

Geistige Müdigkeit

Psychische Belastungen sind eine normale Folge des Bewältigungsprozesses mit psychischer Arbeitsbelastung (MWL). Dauerbelastung oder hohe Arbeitsintensität können zu kurzfristigen Folgen von Über- (Müdigkeit) und Unterbelastung (Eintönigkeit, Sättigung) und zu langfristigen Folgen (z. B. Stresssymptome und arbeitsbedingte Erkrankungen) führen. Die Aufrechterhaltung der stabilen Handlungsregulation unter Belastung kann durch Veränderung des Handlungsstils (durch Variation von Informationsfindungs- und Entscheidungsstrategien), durch Absenkung des Leistungsbedarfs (durch Neudefinition von Aufgaben) realisiert werden und Abbau von Qualitätsstandards) und durch eine kompensatorische Steigerung der psychophysiologischen Belastung und anschließende Reduktion der Belastung während der Arbeitszeit.

Dieses Verständnis des Prozesses der psychischen Belastung kann als transaktionaler Prozess der Handlungsregulation bei der Auferlegung von Belastungsfaktoren konzeptualisiert werden, die neben den negativen Komponenten des Belastungsprozesses auch die positiven Aspekte des Lernens wie Akkretion, Tuning und Restrukturierung beinhalten Motivation (siehe Abbildung 2).

Abbildung 1. Bestandteile des Dehnungsprozesses und seine Folgen

ERG290F1

Psychische Erschöpfung kann als ein Prozess der zeitreversiblen Abnahme der Verhaltensstabilität in Leistung, Stimmung und Aktivität nach längerer Arbeitszeit definiert werden. Dieser Zustand ist temporär reversibel durch Veränderung der Arbeitsanforderungen, der Umwelteinflüsse oder Reize und durch Schlaf vollständig reversibel.

Geistige Erschöpfung ist eine Folge der Ausführung von Aufgaben mit hohem Schwierigkeitsgrad, die überwiegend Informationsverarbeitung beinhalten und/oder von längerer Dauer sind. Im Gegensatz zur Monotonie, die Erholung der Dekremente ist zeitaufwändig und tritt nicht plötzlich nach sich ändernden Aufgabenbedingungen auf. Ermüdungserscheinungen werden auf mehreren Ebenen der Verhaltensregulation identifiziert: Fehlregulation in der biologischen Homöostase zwischen Umwelt und Organismus, Fehlregulation in den kognitiven Prozessen zielgerichteten Handelns und Stabilitätsverlust in zielgerichteter Motivation und Leistungsniveau.

 

 

 

 

 

 

 

 

 

 

Symptome geistiger Erschöpfung können in allen Subsystemen des menschlichen Informationsverarbeitungssystems identifiziert werden:

  • Wahrnehmung: reduzierte Augenbewegungen, reduzierte Unterscheidung von Signalen, Schwellenverschlechterung
  • Informationsverarbeitung: Verlängerung der Entscheidungszeit, Handlungsfehler, Entscheidungsunsicherheit, Blockaden, „Risikostrategien“ in Handlungsabläufen, Störungen der sensomotorischen Bewegungskoordination
  • Gedächtnisfunktionen: Verlängerung von Informationen in Ultrakurzzeitspeichern, Störungen der Wiederholungsvorgänge im Kurzzeitgedächtnis, Verzögerung der Informationsübertragung im Langzeitgedächtnis und bei Gedächtnissuchvorgängen.

Differentialdiagnostik der psychischen Ermüdung

Zur Abgrenzung von psychischer Erschöpfung, Monotonie, psychischer Erschöpfung und Stress (im engeren Sinne) liegen genügend Kriterien vor (Tab. 1).

Tabelle 1. Differenzierung mehrerer negativer Folgen psychischer Belastung

Eigenschaften

Geistige Müdigkeit

Monotonie

Sättigung        

Stress

Wesentliche
Zustand

Schlechte Passform in Bezug auf Überlastung
Voraussetzungen

Schlechte Passform in Bezug auf
von Unterlast
Voraussetzungen

Verlust des wahrgenommenen Sinns für Aufgaben

Tore wahrgenommen
als bedrohlich

Stimmung

Müdigkeit ohne
Langeweile Erschöpfung

Müdigkeit mit
Langeweile

Reizbarkeit

Angst, Bedrohung
Abneigung

Emotionen
Auswertung

Neutral

Neutral

Erhöhte affektive Abneigung

Erhöhte Angst

Aktivierung

Ständig
verringert

Nicht durchgehend
verringert

Mehr

Mehr

Recovery

Zeitaufwendig

Plötzlich nach Aufgabenwechsel

?

Langfristig
Störungen in der Genesung

abwehr

Aufgabengestaltung,
Training, Kurzurlaub
System

Bereicherung der Arbeitsinhalte

Ziele setzen
Programme
und Arbeit
Anreicherung

Arbeitsplatz neu gestalten,
Konflikt- und Stressmanagement

 

Grade der geistigen Ermüdung

Die gut beschriebene Phänomenologie der psychischen Ermüdung (Schmidtke 1965), viele gültige Erhebungsmethoden und die große Menge an experimentellen und Feldergebnissen bieten die Möglichkeit einer ordinalen Skalierung von Graden der psychischen Ermüdung (Hacker und Richter 1994). Die Skalierung basiert auf der Fähigkeit des Individuums, mit Verhaltensdekrementen fertig zu werden:

Niveau 1: Optimale und effiziente Leistung: keine Anzeichen von Leistungs-, Stimmungs- und Aktivierungsminderung.

Niveau 2: Vollständige Kompensation, gekennzeichnet durch erhöhte periphere psychophysiologische Aktivierung (z. B. gemessen durch Elektromyogramm der Fingermuskulatur), wahrgenommene Steigerung der mentalen Anstrengung, erhöhte Variabilität der Leistungskriterien.

Niveau 3: Labile Kompensation zusätzlich zu der in Stufe 2 beschriebenen: Handlungsfehler, wahrgenommene Müdigkeit, zunehmende (kompensatorische) psychophysiologische Aktivität in zentralen Indikatoren, Herzfrequenz, Blutdruck.

Niveau 4: Reduzierte Effizienz zusätzlich zu der in Stufe 3 beschriebenen: Abnahme der Leistungskriterien.

Niveau 5: Noch weitere Funktionsstörungen: Störungen in den sozialen Beziehungen und der Zusammenarbeit am Arbeitsplatz; Symptome klinischer Erschöpfung wie Verlust der Schlafqualität und vitale Erschöpfung.

Vorbeugung gegen geistige Ermüdung

Die Gestaltung von Aufgabenstrukturen, Umgebung, Ruhezeiten während der Arbeitszeit und ausreichend Schlaf sind die Mittel, um Symptome der psychischen Ermüdung zu reduzieren, damit keine klinischen Folgen auftreten:

1. Änderungen in der Aufgabenstruktur. Die Gestaltung von Voraussetzungen für eine adäquate Lern- und Aufgabenstrukturierung ist nicht nur ein Mittel, um die Entwicklung effizienter Arbeitsstrukturen voranzutreiben, sondern ist auch unerlässlich, um einer Fehlanpassung im Sinne einer psychischen Über- oder Unterforderung vorzubeugen:

    • Die Lasten der Informationsverarbeitung können durch die Entwicklung effizienter interner Aufgabendarstellungen und der Organisation von Informationen entlastet werden. Die daraus resultierende Erweiterung der kognitiven Kapazität wird Informationsbedürfnisse und Ressourcen besser aufeinander abstimmen.
    • Menschenzentrierte Technologien mit hoher Kompatibilität zwischen der Reihenfolge der präsentierten Informationen und der erforderlichen Aufgabe (Norman 1993) werden die für die Informationsumcodierung erforderliche mentale Anstrengung reduzieren und folglich Ermüdungs- und Stresssymptome lindern.
    • Eine ausgewogene Koordination unterschiedlicher Regulierungsebenen (Fähigkeiten, Regeln und Wissen) kann den Aufwand reduzieren und darüber hinaus die menschliche Zuverlässigkeit erhöhen (Rasmussen 1983).
    • Die Schulung von Mitarbeitern in zielgerichteten Aktionssequenzen vor tatsächlichen Problemen wird ihr Gefühl für geistige Anstrengung erleichtern, indem sie ihre Arbeit klarer, vorhersehbarer und offensichtlicher unter ihrer Kontrolle machen. Ihr psychophysiologisches Aktivierungsniveau wird effektiv reduziert.

     

      2. Einführung von Systemen für Kurzzeitpausen während der Arbeit. Die positiven Auswirkungen solcher Pausen hängen von der Einhaltung einiger Voraussetzungen ab. Mehr kurze Pausen sind effizienter als weniger lange Pausen; Wirkungen hängen von einem festen und damit vorhersehbaren Zeitplan ab; und die Pauseninhalte sollten eine Ausgleichsfunktion zu den körperlichen und geistigen Arbeitsanforderungen haben.

      3. Ausreichend Entspannung und Schlaf. Spezielle Mitarbeiter-Assistenz-Programme und Stressbewältigungstechniken können die Entspannungsfähigkeit unterstützen und der Entstehung chronischer Müdigkeit vorbeugen (Sethi, Caro und Schuler 1987).

       

      Zurück

      Sonntag, Januar 16 2011 18: 53

      In-vitro-Toxizitätstest

      Das Aufkommen anspruchsvoller Technologien in der Molekular- und Zellbiologie hat eine relativ schnelle Entwicklung in den Biowissenschaften, einschließlich der Toxikologie, vorangetrieben. Tatsächlich verlagert sich der Fokus der Toxikologie von ganzen Tieren und Populationen ganzer Tiere auf die Zellen und Moleküle einzelner Tiere und Menschen. Seit Mitte der 1980er Jahre haben Toxikologen damit begonnen, diese neuen Methoden zur Bewertung der Auswirkungen von Chemikalien auf lebende Systeme einzusetzen. Als logische Weiterentwicklung werden solche Methoden für Zwecke der Toxizitätsprüfung angepasst. Diese wissenschaftlichen Fortschritte haben mit sozialen und wirtschaftlichen Faktoren zusammengearbeitet, um eine Änderung bei der Bewertung der Produktsicherheit und des potenziellen Risikos zu bewirken.

      Wirtschaftliche Faktoren beziehen sich insbesondere auf die Menge der zu testenden Materialien. Jedes Jahr werden unzählige neue Kosmetika, Arzneimittel, Pestizide, Chemikalien und Haushaltsprodukte auf den Markt gebracht. Alle diese Produkte müssen auf ihre potenzielle Toxizität bewertet werden. Darüber hinaus gibt es einen Rückstand an Chemikalien, die bereits verwendet werden und nicht ausreichend getestet wurden. Die enorme Aufgabe, detaillierte Sicherheitsinformationen zu all diesen Chemikalien mit herkömmlichen Ganztierversuchsmethoden zu erhalten, wäre sowohl zeit- als auch kostenintensiv, wenn sie überhaupt bewältigt werden könnte.

      Es gibt auch gesellschaftliche Probleme im Zusammenhang mit der öffentlichen Gesundheit und Sicherheit sowie die zunehmende Besorgnis der Öffentlichkeit über die Verwendung von Tieren für Produktsicherheitstests. Im Hinblick auf die menschliche Sicherheit haben Interessengruppen des öffentlichen Interesses und des Umweltschutzes erheblichen Druck auf Regierungsbehörden ausgeübt, strengere Vorschriften für Chemikalien anzuwenden. Ein aktuelles Beispiel dafür war eine Bewegung einiger Umweltgruppen, Chlor und chlorhaltige Verbindungen in den Vereinigten Staaten zu verbieten. Einer der Beweggründe für solch ein extremes Vorgehen liegt in der Tatsache, dass die meisten dieser Verbindungen nie ausreichend getestet wurden. Aus toxikologischer Sicht ist das Konzept, eine ganze Klasse verschiedener Chemikalien nur aufgrund des Vorhandenseins von Chlor zu verbieten, sowohl wissenschaftlich als auch unverantwortlich. Es ist jedoch verständlich, dass aus Sicht der Öffentlichkeit eine gewisse Sicherheit bestehen muss, dass in die Umwelt freigesetzte Chemikalien kein erhebliches Gesundheitsrisiko darstellen. Eine solche Situation unterstreicht die Notwendigkeit effizienterer und schnellerer Methoden zur Bewertung der Toxizität.

      Das andere gesellschaftliche Anliegen, das sich auf den Bereich der Toxizitätstests ausgewirkt hat, ist der Tierschutz. Die wachsende Zahl von Tierschutzgruppen auf der ganzen Welt hat erheblichen Widerstand gegen die Verwendung ganzer Tiere für Produktsicherheitstests geäußert. Es wurden aktive Kampagnen gegen Hersteller von Kosmetika, Haushalts- und Körperpflegeprodukten und Arzneimitteln geführt, um Tierversuche zu stoppen. Diese Bemühungen in Europa haben zur Verabschiedung der Sechsten Änderung der Richtlinie 76/768/EWG (Kosmetikrichtlinie) geführt. Die Folge dieser Richtlinie ist, dass kosmetische Mittel oder kosmetische Inhaltsstoffe, die nach dem 1. Januar 1998 an Tieren getestet wurden, nicht in der Europäischen Union vermarktet werden dürfen, es sei denn, alternative Methoden sind unzureichend validiert. Obwohl diese Richtlinie keine Zuständigkeit für den Verkauf solcher Produkte in den Vereinigten Staaten oder anderen Ländern hat, wird sie Unternehmen mit internationalen Märkten, einschließlich Europa, erheblich beeinträchtigen.

      Das Konzept der Alternativen, das die Grundlage für die Entwicklung von anderen Tests als denen an ganzen Tieren bildet, wird von den dreien definiert Rs: Reduktion in der Anzahl der verwendeten Tiere; Raffinesse von Protokollen, damit die Tiere weniger Stress oder Unbehagen erfahren; und Ersatz von aktuellen Tierversuchen mit In-vitro-Tests (dh Tests, die außerhalb des lebenden Tieres durchgeführt werden), Computermodellen oder Tests an niederen Wirbeltieren oder wirbellosen Arten. Die Drei Rs wurden in einem Buch vorgestellt, das 1959 von zwei britischen Wissenschaftlern, WMS Russell und Rex Burch, veröffentlicht wurde. Die Prinzipien der humanen experimentellen Technik. Russell und Burch behaupteten, dass der einzige Weg, auf dem gültige wissenschaftliche Ergebnisse erzielt werden könnten, die humane Behandlung von Tieren sei, und waren der Ansicht, dass Methoden entwickelt werden sollten, um die Verwendung von Tieren zu reduzieren und sie letztendlich zu ersetzen. Interessanterweise fanden die von Russell und Burch umrissenen Prinzipien bis zum Wiederaufleben der Tierschutzbewegung Mitte der 1970er Jahre wenig Beachtung. Heute das Konzept der Drei Rs ist in Bezug auf Forschung, Erprobung und Ausbildung ganz vorne mit dabei.

      Zusammenfassend lässt sich sagen, dass die Entwicklung von In-vitro-Testmethoden von einer Vielzahl von Faktoren beeinflusst wurde, die in den letzten zehn bis 20 Jahren zusammengekommen sind. Es ist schwer festzustellen, ob einer dieser Faktoren allein eine so tiefgreifende Wirkung auf die Toxizitätsteststrategien gehabt hätte.

      Konzept der In-vitro-Toxizitätstests

      Dieser Abschnitt konzentriert sich ausschließlich auf In-vitro-Methoden zur Bewertung der Toxizität als eine der Alternativen zu Ganztierversuchen. Weitere nicht-tierische Alternativen wie Computermodellierung und quantitative Struktur-Wirkungs-Beziehungen werden in anderen Artikeln dieses Kapitels diskutiert.

      In-vitro-Studien werden im Allgemeinen in tierischen oder menschlichen Zellen oder Geweben außerhalb des Körpers durchgeführt. In vitro bedeutet wörtlich „in Glas“ und bezieht sich auf Verfahren, die an lebendem Material oder Bestandteilen von lebendem Material durchgeführt werden, das in Petrischalen oder in Reagenzgläsern unter definierten Bedingungen kultiviert wird. Diese können In-vivo-Studien oder Studien, die „am lebenden Tier“ durchgeführt werden, gegenübergestellt werden. Während es schwierig, wenn nicht sogar unmöglich ist, die Auswirkungen einer Chemikalie auf einen komplexen Organismus zu prognostizieren, wenn die Beobachtungen auf einen einzigen Zelltyp in einer Schale beschränkt sind, liefern In-vitro-Studien auch eine beträchtliche Menge an Informationen über die intrinsische Toxizität als zelluläre und molekulare Toxizitätsmechanismen. Darüber hinaus bieten sie viele Vorteile gegenüber In-vivo-Studien, da sie im Allgemeinen kostengünstiger sind und unter besser kontrollierten Bedingungen durchgeführt werden können. Darüber hinaus können diese Methoden trotz der Tatsache, dass immer noch eine kleine Anzahl von Tieren benötigt wird, um Zellen für In-vitro-Kulturen zu erhalten, als Reduktionsalternativen (da im Vergleich zu In-vivo-Studien viel weniger Tiere verwendet werden) und Verfeinerungsalternativen (weil sie die Notwendigkeit beseitigen) betrachtet werden Tiere den nachteiligen toxischen Folgen von In-vivo-Experimenten auszusetzen).

      Um die Ergebnisse von In-vitro-Toxizitätstests zu interpretieren, ihre potenzielle Nützlichkeit bei der Bewertung der Toxizität zu bestimmen und sie mit dem gesamten toxikologischen Prozess in vivo in Beziehung zu setzen, ist es notwendig zu verstehen, welcher Teil des toxikologischen Prozesses untersucht wird. Der gesamte toxikologische Prozess besteht aus Ereignissen, die damit beginnen, dass der Organismus einem physikalischen oder chemischen Mittel ausgesetzt wird, sich durch zelluläre und molekulare Wechselwirkungen weiterentwickeln und sich schließlich in der Reaktion des gesamten Organismus manifestieren. In-vitro-Tests beschränken sich im Allgemeinen auf den Teil des toxikologischen Prozesses, der auf zellulärer und molekularer Ebene stattfindet. Zu den Arten von Informationen, die aus In-vitro-Studien gewonnen werden können, gehören Stoffwechselwege, Wechselwirkung aktiver Metaboliten mit zellulären und molekularen Zielen und potenziell messbare toxische Endpunkte, die als molekulare Biomarker für die Exposition dienen können. Im Idealfall wäre der Toxizitätsmechanismus jeder Chemikalie aufgrund der Exposition gegenüber Organismen bekannt, sodass die aus In-vitro-Tests erhaltenen Informationen vollständig interpretiert und mit der Reaktion des gesamten Organismus in Beziehung gesetzt werden könnten. Dies ist jedoch praktisch unmöglich, da relativ wenige vollständige toxikologische Mechanismen aufgeklärt wurden. Daher sind Toxikologen mit einer Situation konfrontiert, in der die Ergebnisse eines In-vitro-Tests nicht als völlig genaue Vorhersage der In-vivo-Toxizität verwendet werden können, da der Mechanismus unbekannt ist. Jedoch werden während des Entwicklungsprozesses eines In-vitro-Tests häufig Komponenten der zellulären und molekularen Toxizitätsmechanismen aufgeklärt.

      Eine der zentralen ungelösten Fragen bei der Entwicklung und Durchführung von In-vitro-Tests hängt mit der folgenden Überlegung zusammen: Sollen sie mechanistisch fundiert sein oder reicht es, wenn sie deskriptiv sind? Aus wissenschaftlicher Sicht ist es unbestreitbar besser, nur mechanistisch basierte Tests als Ersatz für In-vivo-Tests einzusetzen. In Ermangelung vollständiger mechanistischer Kenntnisse ist die Aussicht, In-vitro-Tests zu entwickeln, die Ganztierversuche in naher Zukunft vollständig ersetzen, jedoch nahezu gleich Null. Dies schließt jedoch die Verwendung von aussagekräftigeren Arten von Assays als frühe Screening-Instrumente nicht aus, was derzeit der Fall ist. Diese Screens haben zu einer deutlichen Reduzierung des Einsatzes von Tieren geführt. Bis zu dem Zeitpunkt, an dem mehr mechanistische Informationen generiert werden, kann es daher erforderlich sein, in begrenztem Umfang Tests anzuwenden, deren Ergebnisse einfach gut mit den in vivo erhaltenen korrelieren.

      In-vitro-Tests auf Zytotoxizität

      In diesem Abschnitt werden mehrere In-vitro-Tests beschrieben, die zur Bewertung des zytotoxischen Potenzials einer Chemikalie entwickelt wurden. Diese Tests sind größtenteils einfach durchzuführen und die Analyse kann automatisiert werden. Ein häufig verwendeter In-vitro-Test für Zytotoxizität ist der Neutralrot-Assay. Dieser Assay wird an Zellen in Kultur durchgeführt, und für die meisten Anwendungen können die Zellen in Kulturschalen gehalten werden, die 96 kleine Vertiefungen mit jeweils 6.4 mm Durchmesser enthalten. Da jede Vertiefung für eine einzelne Bestimmung verwendet werden kann, kann diese Anordnung mehrere Konzentrationen der Prüfchemikalie sowie Positiv- und Negativkontrollen mit jeweils einer ausreichenden Anzahl von Wiederholungen aufnehmen. Nach der Behandlung der Zellen mit verschiedenen Konzentrationen der Prüfchemikalie im Bereich von mindestens zwei Größenordnungen (z. B. von 0.01 mM bis 1 mM) sowie Positiv- und Negativkontrollchemikalien werden die Zellen gespült und mit Neutralrot behandelt, a Farbstoff, der nur von lebenden Zellen aufgenommen und zurückgehalten werden kann. Der Farbstoff kann nach dem Entfernen der Prüfchemikalie hinzugefügt werden, um unmittelbare Wirkungen zu bestimmen, oder er kann zu verschiedenen Zeitpunkten nach dem Entfernen der Prüfchemikalie hinzugefügt werden, um kumulative oder verzögerte Wirkungen zu bestimmen. Die Intensität der Farbe in jeder Vertiefung entspricht der Anzahl lebender Zellen in dieser Vertiefung. Die Farbintensität wird mit einem Spektrophotometer gemessen, das mit einem Plattenlesegerät ausgestattet sein kann. Der Plattenleser ist so programmiert, dass er einzelne Messungen für jede der 96 Vertiefungen der Kulturschale liefert. Diese automatisierte Methodik ermöglicht es dem Forscher, schnell ein Konzentrations-Wirkungs-Experiment durchzuführen und statistisch nützliche Daten zu erhalten.

      Ein weiterer relativ einfacher Assay für Zytotoxizität ist der MTT-Test. MTT (3[4,5-Dimethylthiazol-2-yl]-2,5-Diphenyltetrazoliumbromid) ist ein Tetrazolium-Farbstoff, der durch mitochondriale Enzyme zu einer blauen Farbe reduziert wird. Nur Zellen mit lebensfähigen Mitochondrien behalten die Fähigkeit, diese Reaktion durchzuführen; daher steht die Farbintensität in direktem Zusammenhang mit dem Grad der mitochondrialen Integrität. Dies ist ein nützlicher Test zum Nachweis allgemeiner zytotoxischer Verbindungen sowie von Mitteln, die spezifisch auf Mitochondrien abzielen.

      Die Messung der Laktatdehydrogenase (LDH)-Aktivität wird auch als breit angelegter Assay für Zytotoxizität verwendet. Dieses Enzym ist normalerweise im Zytoplasma lebender Zellen vorhanden und wird durch undichte Zellmembranen von toten oder sterbenden Zellen, die durch ein toxisches Mittel beeinträchtigt wurden, in das Zellkulturmedium freigesetzt. Kleine Mengen des Kulturmediums können zu verschiedenen Zeitpunkten nach der chemischen Behandlung der Zellen entfernt werden, um die Menge an freigesetztem LDH zu messen und den Zeitverlauf der Toxizität zu bestimmen. Während der LDH-Freisetzungstest eine sehr allgemeine Bewertung der Zytotoxizität ist, ist er nützlich, da er einfach durchzuführen ist und in Echtzeit durchgeführt werden kann.

      Es werden viele neue Methoden entwickelt, um Zellschäden zu erkennen. Anspruchsvollere Methoden verwenden fluoreszierende Sonden, um eine Vielzahl von intrazellulären Parametern zu messen, wie z. B. die Calciumfreisetzung und Änderungen des pH-Werts und des Membranpotentials. Im Allgemeinen sind diese Sonden sehr empfindlich und können subtilere zelluläre Veränderungen erkennen, wodurch die Notwendigkeit, den Zelltod als Endpunkt zu verwenden, reduziert wird. Zusätzlich können viele dieser Fluoreszenz-Assays durch die Verwendung von 96-Well-Platten und Fluoreszenzplatten-Lesegeräten automatisiert werden.

      Sobald Daten zu einer Reihe von Chemikalien mit einem dieser Tests gesammelt wurden, können die relativen Toxizitäten bestimmt werden. Die relative Toxizität einer Chemikalie, bestimmt in einem In-vitro-Test, kann als die Konzentration ausgedrückt werden, die eine 50 %-ige Wirkung auf die Endpunktreaktion unbehandelter Zellen ausübt. Diese Bestimmung wird als EC bezeichnet50 (Effektiv CKonzentration für 50% der Zellen) und kann verwendet werden, um die Toxizität verschiedener Chemikalien in vitro zu vergleichen. (Ein ähnlicher Begriff, der zur Bewertung der relativen Toxizität verwendet wird, ist IC50, die die Konzentration einer Chemikalie angibt, die eine 50%ige Hemmung eines zellulären Prozesses bewirkt, z. B. die Fähigkeit zur Aufnahme von Neutralrot.) Es ist nicht einfach zu beurteilen, ob die relative In-vitro-Toxizität der Chemikalien mit ihrer relativen Toxizität vergleichbar ist vivo-Toxizitäten, da es im in vivo-System so viele Störfaktoren wie Toxikokinetik, Metabolismus, Reparatur- und Abwehrmechanismen gibt. Da die meisten dieser Assays außerdem allgemeine Zytotoxizitätsendpunkte messen, sind sie nicht mechanistisch begründet. Daher ist die Übereinstimmung zwischen relativen In-vitro- und In-vivo-Toxizitäten einfach korrelativ. Trotz der zahlreichen Komplexitäten und Schwierigkeiten bei der Extrapolation von In-vitro- auf In-vivo-Tests erweisen sich diese In-vitro-Tests als sehr wertvoll, da sie einfach und kostengünstig durchzuführen sind und als Screens verwendet werden können, um hochgiftige Medikamente oder Chemikalien in frühen Stadien der Krankheit zu identifizieren Entwicklung.

      Zielorgantoxizität

      In-vitro-Tests können auch zur Beurteilung der spezifischen Zielorgantoxizität verwendet werden. Es gibt eine Reihe von Schwierigkeiten, die mit der Gestaltung solcher Tests verbunden sind, wobei die bemerkenswerteste die Unfähigkeit von In-vitro-Systemen ist, viele der Merkmale des Organs in vivo aufrechtzuerhalten. Wenn Zellen Tieren entnommen und in Kultur gebracht werden, neigen sie häufig entweder dazu, schnell zu degenerieren und/oder zu dedifferenzieren, dh sie verlieren ihre organähnlichen Funktionen und werden generischer. Dies stellt insofern ein Problem dar, als die Kulturen innerhalb eines kurzen Zeitraums, in der Regel wenige Tage, nicht mehr zur Beurteilung organspezifischer Wirkungen eines Toxins geeignet sind.

      Viele dieser Probleme werden aufgrund der jüngsten Fortschritte in der Molekular- und Zellbiologie überwunden. Informationen, die über die zelluläre Umgebung in vivo erhalten werden, können zum Modulieren von Kulturbedingungen in vitro verwendet werden. Seit Mitte der 1980er Jahre wurden neue Wachstumsfaktoren und Zytokine entdeckt, und viele davon sind jetzt im Handel erhältlich. Die Zugabe dieser Faktoren zu Zellen in Kultur hilft, ihre Integrität zu bewahren und kann auch dazu beitragen, differenziertere Funktionen für längere Zeiträume beizubehalten. Andere Grundlagenstudien haben das Wissen über die Ernährungs- und Hormonanforderungen von Zellen in Kultur erweitert, so dass neue Medien formuliert werden können. Kürzlich wurden auch Fortschritte bei der Identifizierung sowohl natürlich vorkommender als auch künstlicher extrazellulärer Matrizen gemacht, auf denen Zellen kultiviert werden können. Die Kultivierung von Zellen auf diesen verschiedenen Matrizen kann tiefgreifende Auswirkungen sowohl auf ihre Struktur als auch auf ihre Funktion haben. Ein großer Vorteil, der sich aus diesem Wissen ergibt, ist die Fähigkeit, die Umgebung von Zellen in Kultur genau zu kontrollieren und die Auswirkungen dieser Faktoren auf grundlegende Zellprozesse und ihre Reaktionen auf verschiedene chemische Mittel einzeln zu untersuchen. Kurz gesagt, diese Systeme können einen großartigen Einblick in organspezifische Toxizitätsmechanismen liefern.

      Viele Zielorgan-Toxizitätsstudien werden in Primärzellen durchgeführt, die definitionsgemäß frisch aus einem Organ isoliert werden und in der Regel eine begrenzte Lebensdauer in Kultur aufweisen. Es gibt viele Vorteile, Primärkulturen eines einzelnen Zelltyps aus einem Organ für die Toxizitätsbewertung zu haben. Aus mechanistischer Sicht sind solche Kulturen nützlich, um spezifische zelluläre Ziele einer Chemikalie zu untersuchen. In einigen Fällen können zwei oder mehr Zelltypen aus einem Organ zusammen kultiviert werden, und dies stellt einen zusätzlichen Vorteil bereit, indem man Zell-Zell-Wechselwirkungen als Reaktion auf ein Toxin betrachten kann. Einige Kokultursysteme für die Haut wurden so konstruiert, dass sie in vivo eine dreidimensionale Struktur bilden, die der Haut ähnelt. Es ist auch möglich, Zellen aus verschiedenen Organen – zum Beispiel Leber und Niere – zu kultivieren. Diese Art von Kultur wäre nützlich, um die für Nierenzellen spezifischen Wirkungen einer Chemikalie zu beurteilen, die in der Leber bioaktiviert werden muss.

      Molekularbiologische Werkzeuge haben auch eine wichtige Rolle bei der Entwicklung kontinuierlicher Zelllinien gespielt, die für Zielorgan-Toxizitätstests nützlich sein können. Diese Zelllinien werden durch Transfektion von DNA in Primärzellen erzeugt. Beim Transfektionsverfahren werden die Zellen und die DNA so behandelt, dass die DNA von den Zellen aufgenommen werden kann. Die DNA stammt normalerweise von einem Virus und enthält ein Gen oder Gene, die es den Zellen ermöglichen, wenn sie exprimiert werden, unsterblich zu werden (dh in der Lage zu sein, über längere Zeiträume in Kultur zu leben und zu wachsen). Die DNA kann auch so verändert werden, dass das immortalisierende Gen von einem induzierbaren Promotor kontrolliert wird. Der Vorteil dieser Art von Konstrukt besteht darin, dass sich die Zellen nur dann teilen, wenn sie den geeigneten chemischen Stimulus erhalten, um die Expression des immortalisierenden Gens zu ermöglichen. Ein Beispiel für ein solches Konstrukt ist das große T-Antigen-Gen aus Simian Virus 40 (SV40) (das immortalisierende Gen), dem die Promotorregion des Metallothionein-Gens vorangeht, das durch die Anwesenheit eines Metalls im Kulturmedium induziert wird. Daher können die Zellen, nachdem das Gen in die Zellen transfiziert wurde, mit niedrigen Zinkkonzentrationen behandelt werden, um den MT-Promotor zu stimulieren und die Expression des T-Antigen-Gens einzuschalten. Unter diesen Bedingungen proliferieren die Zellen. Wenn Zink aus dem Medium entfernt wird, hören die Zellen auf, sich zu teilen und kehren unter idealen Bedingungen in einen Zustand zurück, in dem sie ihre gewebespezifischen Funktionen ausüben.

      Die Fähigkeit, unsterblich gemachte Zellen zu erzeugen, hat zusammen mit den Fortschritten in der Zellkulturtechnologie wesentlich zur Schaffung von Zelllinien aus vielen verschiedenen Organen, einschließlich Gehirn, Niere und Leber, beigetragen. Bevor diese Zelllinien jedoch als Ersatz für die echten Zelltypen verwendet werden können, müssen sie sorgfältig charakterisiert werden, um festzustellen, wie „normal“ sie wirklich sind.

      Andere In-vitro-Systeme zur Untersuchung der Zielorgantoxizität sind mit zunehmender Komplexität verbunden. Mit fortschreitender Komplexität von In-vitro-Systemen von der Einzelzell- zur Ganzorgankultur werden sie vergleichbarer mit dem In-vivo-Milieu, aber gleichzeitig werden sie angesichts der erhöhten Anzahl von Variablen viel schwieriger zu kontrollieren. Was durch den Übergang zu einer höheren Organisationsebene gewonnen werden kann, kann daher durch die Unfähigkeit des Forschers verloren gehen, die experimentelle Umgebung zu kontrollieren. Tabelle 1 vergleicht einige der Eigenschaften verschiedener In-vitro-Systeme, die zur Untersuchung der Hepatotoxizität verwendet wurden.

      Tabelle 1. Vergleich von In-vitro-Systemen für Hepatotoxizitätsstudien

      System Komplexität
      (Ebene der Interaktion)
      Fähigkeit, leberspezifische Funktionen beizubehalten Mögliche Dauer der Kultur Fähigkeit, die Umgebung zu kontrollieren
      Immortalisierte Zelllinien einige Zelle zu Zelle (variiert je nach Zelllinie) schlecht bis gut (variiert je nach Zelllinie) unbestimmt Ausgezeichnet
      Primäre Hepatozytenkulturen Zelle zu Zelle mäßig bis ausgezeichnet (variiert je nach Kulturbedingungen) Tage bis Wochen Ausgezeichnet
      Co-Kulturen von Leberzellen Zelle zu Zelle (zwischen gleichen und unterschiedlichen Zelltypen) gut bis großartig Wochen Ausgezeichnet
      Leberscheiben Zelle zu Zelle (unter allen Zelltypen) gut bis großartig Stunden bis Tage gut
      Isolierte, perfundierte Leber Zelle zu Zelle (unter allen Zelltypen) und innerhalb eines Organs Ausgezeichnet Stunden Messe

       

      Präzise geschnittene Gewebeschnitte werden zunehmend für toxikologische Studien verwendet. Es gibt neue Instrumente, die es dem Forscher ermöglichen, gleichmäßige Gewebescheiben in einer sterilen Umgebung zu schneiden. Gewebeschnitte bieten gegenüber Zellkultursystemen einen gewissen Vorteil, da alle Zelltypen des Organs vorhanden sind und sie ihre in vivo-Architektur und interzelluläre Kommunikation beibehalten. Somit können In-vitro-Studien durchgeführt werden, um den Zielzelltyp innerhalb eines Organs zu bestimmen sowie um die spezifische Zielorgantoxizität zu untersuchen. Ein Nachteil der Schnitte besteht darin, dass sie nach den ersten 24 Stunden der Kultivierung schnell degenerieren, hauptsächlich aufgrund der schlechten Diffusion von Sauerstoff zu den Zellen im Inneren der Schnitte. Jüngste Studien haben jedoch gezeigt, dass eine effizientere Belüftung durch sanfte Rotation erreicht werden kann. Dies ermöglicht zusammen mit der Verwendung eines komplexeren Mediums, dass die Scheiben bis zu 96 Stunden überleben.

      Gewebeexplantate haben ein ähnliches Konzept wie Gewebeschnitte und können auch verwendet werden, um die Toxizität von Chemikalien in bestimmten Zielorganen zu bestimmen. Gewebeexplantate werden hergestellt, indem ein kleines Gewebestück (für Teratogenitätsstudien ein intakter Embryo) entnommen und für weitere Untersuchungen in Kultur gebracht wird. Explantatkulturen waren für kurzfristige Toxizitätsstudien nützlich, einschließlich Reizung und Ätzwirkung in der Haut, Asbeststudien in der Luftröhre und Neurotoxizitätsstudien in Hirngewebe.

      Zur Beurteilung der Zielorgantoxizität können auch isoliert perfundierte Organe herangezogen werden. Diese Systeme bieten einen ähnlichen Vorteil wie Gewebeschnitte und Explantate, da alle Zelltypen vorhanden sind, jedoch ohne die Belastung des Gewebes durch die Manipulationen, die mit der Herstellung von Schnitten verbunden sind. Darüber hinaus ermöglichen sie die Aufrechterhaltung von Wechselwirkungen zwischen Organen. Ein Hauptnachteil ist ihre kurzfristige Lebensfähigkeit, die ihre Verwendung für In-vitro-Toxizitätstests einschränkt. Als Alternative können diese Kulturen als Verfeinerung angesehen werden, da die Tiere nicht die nachteiligen Folgen einer In-vivo-Behandlung mit Giftstoffen erfahren. Ihre Verwendung verringert jedoch die Anzahl der erforderlichen Tiere nicht wesentlich.

      Zusammenfassend stehen mehrere Arten von In-vitro-Systemen zur Bewertung der Zielorgantoxizität zur Verfügung. Mit einer oder mehreren dieser Techniken können viele Informationen über Toxizitätsmechanismen gewonnen werden. Die Schwierigkeit besteht darin, zu wissen, wie man von einem In-vitro-System, das einen relativ kleinen Teil des toxikologischen Prozesses darstellt, auf den gesamten in vivo ablaufenden Prozess extrapoliert.

      In-vitro-Tests auf Augenreizung

      Der vielleicht umstrittenste Ganztier-Toxizitätstest aus Sicht des Tierschutzes ist der Draize-Test auf Augenreizung, der an Kaninchen durchgeführt wird. Bei diesem Test wird eine kleine feste Dosis einer Chemikalie in eines der Augen des Kaninchens gegeben, während das andere Auge als Kontrolle dient. Der Grad der Reizung und Entzündung wird zu verschiedenen Zeitpunkten nach der Exposition bewertet. Es werden große Anstrengungen unternommen, um Methoden zu entwickeln, um diesen Test zu ersetzen, der nicht nur aus humanen Gründen, sondern auch wegen der Subjektivität der Beobachtungen und der Variabilität der Ergebnisse kritisiert wurde. Es ist interessant festzustellen, dass sich der Draize-Test trotz der heftigen Kritik als bemerkenswert erfolgreich bei der Vorhersage von Reizstoffen für das menschliche Auge erwiesen hat, insbesondere von leicht bis mäßig reizenden Substanzen, die mit anderen Methoden schwer zu identifizieren sind. Die Anforderungen an In-vitro-Alternativen sind daher groß.

      Die Suche nach Alternativen zum Draize-Test ist kompliziert, auch wenn ihr Erfolg prognostiziert wird. Zahlreiche In-vitro- und andere Alternativen wurden entwickelt und teilweise umgesetzt. Verfeinerungsalternativen zum Draize-Test, die per Definition weniger schmerzhaft oder quälend für die Tiere sind, umfassen den Low-Volume-Augentest, bei dem kleinere Mengen an Testmaterial in die Augen der Kaninchen eingebracht werden, nicht nur aus humanen Gründen, sondern um besser die Mengen nachahmen, denen Menschen tatsächlich versehentlich ausgesetzt sind. Eine weitere Verbesserung besteht darin, dass Substanzen mit einem pH-Wert von weniger als 2 oder mehr als 11.5 nicht mehr an Tieren getestet werden, da sie als stark augenreizend bekannt sind.

      Zwischen 1980 und 1989 ist die Zahl der Kaninchen, die für Augenreizungstests von Kosmetika verwendet werden, um schätzungsweise 87 % zurückgegangen. In-vitro-Tests wurden als Teil eines Tier-Testing-Ansatzes integriert, um diese enorme Reduzierung von Ganztiertests zu erreichen. Dieser Ansatz ist ein mehrstufiger Prozess, der mit einer gründlichen Untersuchung der historischen Augenreizungsdaten und einer physikalischen und chemischen Analyse der zu bewertenden Chemikalie beginnt. Wenn diese beiden Prozesse nicht genügend Informationen liefern, wird eine Reihe von In-vitro-Tests durchgeführt. Die zusätzlichen Daten aus den In-vitro-Tests könnten dann ausreichen, um die Sicherheit des Stoffes zu beurteilen. Wenn nicht, wäre der letzte Schritt, begrenzte In-vivo-Tests durchzuführen. Es ist leicht einzusehen, wie dieser Ansatz die Zahl der Tiere, die zur Vorhersage der Sicherheit einer Testsubstanz erforderlich sind, eliminieren oder zumindest drastisch reduzieren kann.

      Die Reihe von In-vitro-Tests, die im Rahmen dieser Tier-Testing-Strategie verwendet werden, hängt von den Anforderungen der jeweiligen Branche ab. Augenreizungstests werden von einer Vielzahl von Branchen durchgeführt, von der Kosmetik über die Pharmazie bis hin zu Industriechemikalien. Die Art der von den einzelnen Branchen geforderten Informationen ist unterschiedlich, und daher ist es nicht möglich, eine einzelne Reihe von In-vitro-Tests zu definieren. Eine Testbatterie ist im Allgemeinen so konzipiert, dass sie fünf Parameter bewertet: Zytotoxizität, Veränderungen in der Gewebephysiologie und -biochemie, quantitative Struktur-Wirkungs-Beziehungen, Entzündungsmediatoren sowie Erholung und Reparatur. Ein Beispiel für einen Test auf Zytotoxizität, die eine mögliche Ursache für Irritationen ist, ist der Neutralrottest unter Verwendung von kultivierten Zellen (siehe oben). Veränderungen in der Zellphysiologie und Biochemie, die sich aus der Exposition gegenüber einer Chemikalie ergeben, können in Kulturen menschlicher Hornhautepithelzellen untersucht werden. Alternativ haben Forscher auch intakte oder sezierte Rinder- oder Hühneraugäpfel aus Schlachthöfen verwendet. Viele der in diesen Ganzorgankulturen gemessenen Endpunkte sind die gleichen wie die in vivo gemessenen, wie z. B. Hornhauttrübung und Hornhautschwellung.

      Entzündungen sind häufig eine Komponente von chemikalieninduzierten Augenverletzungen, und es gibt eine Reihe von Assays, um diesen Parameter zu untersuchen. Verschiedene biochemische Assays weisen das Vorhandensein von Mediatoren nach, die während des Entzündungsprozesses freigesetzt werden, wie Arachidonsäure und Zytokine. Auch die Chorioallantoismembran (CAM) des Hühnereis kann als Indikator für eine Entzündung herangezogen werden. Beim CAM-Assay wird ein kleines Stück der Schale eines 14- bis XNUMX-tägigen Hühnerembryos entfernt, um die CAM freizulegen. Die Chemikalie wird dann auf die CAM aufgetragen und Entzündungszeichen, wie etwa Gefäßblutungen, werden danach zu verschiedenen Zeitpunkten bewertet.

      Einer der am schwierigsten in vitro zu beurteilenden in vivo-Prozesse ist die Genesung und Reparatur einer Augenverletzung. Ein neu entwickeltes Instrument, das Silizium-Mikrophysiometer, misst kleine Änderungen des extrazellulären pH-Werts und kann zur Überwachung von kultivierten Zellen in Echtzeit verwendet werden. Es hat sich gezeigt, dass diese Analyse ziemlich gut mit der In-vivo-Erholung korreliert und als In-vitro-Test für dieses Verfahren verwendet wurde. Dies war ein kurzer Überblick über die Arten von Tests, die als Alternativen zum Draize-Test für Augenreizungen eingesetzt werden. Es ist wahrscheinlich, dass innerhalb der nächsten Jahre eine vollständige Reihe von In-vitro-Testbatterien definiert und jede für ihren spezifischen Zweck validiert wird.

      Validierung

      Der Schlüssel zur behördlichen Akzeptanz und Implementierung von In-vitro-Testmethoden ist die Validierung, der Prozess, durch den die Glaubwürdigkeit eines Kandidatentests für einen bestimmten Zweck festgestellt wird. Sowohl in den Vereinigten Staaten als auch in Europa wurden Anstrengungen unternommen, um den Validierungsprozess zu definieren und zu koordinieren. Die Europäische Union gründete 1993 das Europäische Zentrum für die Validierung alternativer Methoden (ECVAM), um die dortigen Bemühungen zu koordinieren und mit amerikanischen Organisationen wie dem Johns Hopkins Center for Alternatives to Animal Testing (CAAT), einem akademischen Zentrum in den Vereinigten Staaten, zusammenzuarbeiten , und das Interagency Coordinating Committee for the Validation of Alternative Methods (ICCVAM), das sich aus Vertretern der National Institutes of Health, der US Environmental Protection Agency, der US Food and Drug Administration und der Consumer Products Safety Commission zusammensetzt.

      Die Validierung von In-vitro-Tests erfordert eine umfangreiche Organisation und Planung. Es muss ein Konsens zwischen staatlichen Regulierungsbehörden und industriellen und akademischen Wissenschaftlern über akzeptable Verfahren und eine ausreichende Aufsicht durch einen wissenschaftlichen Beirat bestehen, um sicherzustellen, dass die Protokolle festgelegten Standards entsprechen. Die Validierungsstudien sollten in einer Reihe von Referenzlabors unter Verwendung kalibrierter Chemikaliensätze aus einer Chemikalienbank und Zellen oder Geweben aus einer einzigen Quelle durchgeführt werden. Sowohl die laborinterne Wiederholbarkeit als auch die interlaboratorische Reproduzierbarkeit eines Kandidatentests müssen nachgewiesen und die Ergebnisse einer angemessenen statistischen Analyse unterzogen werden. Nachdem die Ergebnisse aus den verschiedenen Komponenten der Validierungsstudien zusammengestellt wurden, kann der wissenschaftliche Beirat Empfehlungen zur Validität des/der Kandidatentests für einen bestimmten Zweck abgeben. Darüber hinaus sollen die Ergebnisse der Studien in peer-reviewed Journals veröffentlicht und in eine Datenbank gestellt werden.

      Die Definition des Validierungsprozesses ist derzeit noch in Arbeit. Jede neue Validierungsstudie liefert Informationen, die für das Design der nächsten Studie nützlich sind. Internationale Kommunikation und Zusammenarbeit sind für die zügige Entwicklung einer allgemein akzeptablen Reihe von Protokollen unerlässlich, insbesondere angesichts der erhöhten Dringlichkeit, die durch die Verabschiedung der EG-Kosmetikrichtlinie auferlegt wird. Diese Rechtsvorschriften können in der Tat den nötigen Anstoß für ernsthafte Validierungsbemühungen geben. Erst durch den Abschluss dieses Prozesses kann die Akzeptanz von In-vitro-Methoden durch die verschiedenen Regulierungsbehörden beginnen.

      Fazit

      Dieser Artikel hat einen breiten Überblick über den aktuellen Stand der In-vitro-Toxizitätsprüfung gegeben. Die Wissenschaft der In-vitro-Toxikologie ist relativ jung, wächst aber exponentiell. Die Herausforderung für die kommenden Jahre besteht darin, das durch zelluläre und molekulare Studien generierte mechanistische Wissen in den riesigen Bestand an In-vivo-Daten einzubeziehen, um eine vollständigere Beschreibung toxikologischer Mechanismen zu liefern und ein Paradigma zu etablieren, mit dem In-vitro-Daten verwendet werden können Toxizität in vivo vorherzusagen. Nur durch die konzertierten Bemühungen von Toxikologen und Regierungsvertretern kann der inhärente Wert dieser In-vitro-Methoden realisiert werden.

       

      Zurück

      Sonntag, Januar 16 2011 18: 56

      Aktivitätsbeziehungen strukturieren

      Bei der Analyse von Struktur-Aktivitäts-Beziehungen (SAR) werden Informationen über die Molekularstruktur von Chemikalien genutzt, um wichtige Eigenschaften in Bezug auf Persistenz, Verteilung, Aufnahme und Absorption sowie Toxizität vorherzusagen. SAR ist eine alternative Methode zur Identifizierung potenziell gefährlicher Chemikalien, die verspricht, Industrien und Regierungen bei der Priorisierung von Stoffen für die weitere Bewertung oder für die frühzeitige Entscheidungsfindung für neue Chemikalien zu unterstützen. Die Toxikologie ist ein zunehmend teures und ressourcenintensives Unterfangen. Zunehmende Bedenken hinsichtlich des Potenzials von Chemikalien, nachteilige Auswirkungen auf exponierte menschliche Populationen zu verursachen, haben Regulierungs- und Gesundheitsbehörden dazu veranlasst, den Umfang und die Empfindlichkeit von Tests zum Nachweis toxikologischer Gefahren zu erweitern. Gleichzeitig haben die tatsächlichen und vermeintlichen Regulierungslasten für die Industrie Bedenken hinsichtlich der Praktikabilität von Toxizitätstestmethoden und Datenanalysen geweckt. Gegenwärtig hängt die Bestimmung der chemischen Karzinogenität von Lebenszeittests an mindestens zwei Arten beiderlei Geschlechts bei mehreren Dosen mit sorgfältiger histopathologischer Analyse mehrerer Organe sowie dem Nachweis präneoplastischer Veränderungen in Zellen und Zielorganen ab. In den Vereinigten Staaten wird der Krebs-Bioassay auf über 3 Millionen Dollar (1995 Dollar) geschätzt.

      Selbst mit unbegrenzten finanziellen Mitteln würde der Testaufwand für die etwa 70,000 existierenden Chemikalien, die heute weltweit hergestellt werden, die verfügbaren Ressourcen ausgebildeter Toxikologen übersteigen. Es würden Jahrhunderte erforderlich sein, um selbst eine Erstbewertung dieser Chemikalien abzuschließen (NRC 1984). In vielen Ländern haben ethische Bedenken hinsichtlich der Verwendung von Tieren in Toxizitätstests zugenommen, was zusätzlichen Druck auf die Verwendung von Standardmethoden für Toxizitätstests ausübt. SAR wurde in der pharmazeutischen Industrie weit verbreitet verwendet, um Moleküle mit einem Potenzial für eine vorteilhafte Verwendung in der Behandlung zu identifizieren (Hansch und Zhang 1993). In der Umwelt- und Arbeitsschutzpolitik wird SAR verwendet, um die Ausbreitung von Verbindungen in der physikalisch-chemischen Umgebung vorherzusagen und neue Chemikalien für eine weitere Bewertung der potenziellen Toxizität zu screenen. Gemäß dem US-amerikanischen Toxic Substances Control Act (TSCA) verwendet die EPA seit 1979 einen SAR-Ansatz als „erstes Screening“ neuer Chemikalien im Premanufacture Notification (PMN)-Prozess; Australien verwendet einen ähnlichen Ansatz im Rahmen seines Verfahrens zur Meldung neuer Chemikalien (NICNAS). In den USA ist die SAR-Analyse eine wichtige Grundlage für die Feststellung, dass eine vernünftige Grundlage für die Schlussfolgerung besteht, dass die Herstellung, Verarbeitung, Verteilung, Verwendung oder Entsorgung des Stoffes ein unzumutbares Verletzungsrisiko für die menschliche Gesundheit oder die Umwelt darstellt, wie in Abschnitt gefordert 5(f) TSCA. Auf der Grundlage dieser Feststellung kann die EPA dann tatsächliche Tests des Stoffes gemäß Abschnitt 6 des TSCA verlangen.

      Begründung für SAR

      Die wissenschaftliche Begründung für SAR basiert auf der Annahme, dass die Molekularstruktur einer Chemikalie wichtige Aspekte ihres Verhaltens in physikalisch-chemischen und biologischen Systemen vorhersagt (Hansch und Leo 1979).

      SAR-Prozess

      Der SAR-Überprüfungsprozess umfasst die Identifizierung der chemischen Struktur, einschließlich empirischer Formulierungen, sowie der reinen Verbindung; Identifizierung strukturanaloger Substanzen; Durchsuchen von Datenbanken und Literatur nach Informationen über strukturelle Analoga; und Analyse von Toxizität und anderen Daten zu Strukturanaloga. In einigen seltenen Fällen können Informationen über die Struktur der Verbindung allein ausreichen, um eine SAR-Analyse zu unterstützen, die auf gut verstandenen Toxizitätsmechanismen basiert. Mehrere Datenbanken zu SAR wurden zusammengestellt, ebenso wie computergestützte Methoden zur Vorhersage der Molekülstruktur.

      Mit diesen Informationen können die folgenden Endpunkte mit SAR geschätzt werden:

      • Physikalisch-chemische Parameter: Siedepunkt, Dampfdruck, Wasserlöslichkeit, Oktanol/Wasser-Verteilungskoeffizient
      • biologische/ökologische Verbleibsparameter: biologischer Abbau, Bodensorption, Photoabbau, Pharmakokinetik
      • Toxizitätsparameter: Toxizität für Wasserorganismen, Resorption, akute Toxizität für Säugetiere (Limit-Test oder LD50), Haut-, Lungen- und Augenreizung, Sensibilisierung, subchronische Toxizität, Mutagenität.

       

      Es ist zu beachten, dass für so wichtige Gesundheitsendpunkte wie Karzinogenität, Entwicklungstoxizität, Reproduktionstoxizität, Neurotoxizität, Immuntoxizität oder andere Zielorganwirkungen keine SAR-Methoden existieren. Dies ist auf drei Faktoren zurückzuführen: das Fehlen einer großen Datenbank zum Testen von SAR-Hypothesen, das Fehlen von Kenntnissen über strukturelle Determinanten der toxischen Wirkung und die Vielzahl von Zielzellen und Mechanismen, die an diesen Endpunkten beteiligt sind (siehe „Die Vereinigten Staaten Ansatz zur Risikobewertung von reproduktionstoxischen und neurotoxischen Stoffen“). Einige begrenzte Versuche, SAR zur Vorhersage der Pharmakokinetik unter Verwendung von Informationen über Verteilungskoeffizienten und Löslichkeit zu verwenden (Johanson und Naslund 1988). Umfangreichere quantitative SAR wurden durchgeführt, um den P450-abhängigen Metabolismus einer Reihe von Verbindungen und die Bindung von Dioxin- und PCB-ähnlichen Molekülen an den zytosolischen „Dioxin“-Rezeptor vorherzusagen (Hansch und Zhang 1993).

      Es hat sich gezeigt, dass SAR für einige der oben aufgeführten Endpunkte eine unterschiedliche Vorhersagbarkeit aufweist, wie in Tabelle 1 gezeigt. Diese Tabelle enthält Daten aus zwei Vergleichen der vorhergesagten Aktivität mit tatsächlichen Ergebnissen, die durch empirische Messungen oder Toxizitätstests erhalten wurden. SAR, durchgeführt von Experten der US EPA, schnitt bei der Vorhersage physikalisch-chemischer Eigenschaften schlechter ab als bei der Vorhersage der biologischen Aktivität, einschließlich des biologischen Abbaus. Bei Toxizitätsendpunkten schnitt SAR am besten ab, um Mutagenität vorherzusagen. Ashby und Tennant (1991) stellten in einer umfassenderen Studie bei ihrer Analyse von NTP-Chemikalien ebenfalls eine gute Vorhersagbarkeit der kurzfristigen Genotoxizität fest. Diese Ergebnisse sind angesichts des derzeitigen Verständnisses der molekularen Mechanismen der Genotoxizität (siehe „Gentoxikologie“) und der Rolle der Elektrophilie bei der DNA-Bindung nicht überraschend. Im Gegensatz dazu neigte SAR dazu, die systemische und subchronische Toxizität bei Säugetieren zu unterschätzen und die akute Toxizität für Wasserorganismen zu überschätzen.

      Tabelle 1. Vergleich von SAR- und Testdaten: OECD/NTP-Analysen

      Endpunkt Zustimmung (%) Ablehnung (%) Nummer
      Siedepunkt 50 50 30
      Dampfdruck 63 37 113
      Wasserlöslichkeit 68 32 133
      Verteilungskoeffizient 61 39 82
      Bioabbau 93 7 107
      Fischtoxizität 77 22 130
      Daphnientoxizität 67 33 127
      Akute Säugetiertoxizität (LD50 ) 80 201 142
      Hautreizung 82 18 144
      Augen Irritation 78 22 144
      Hautsensibilisierung 84 16 144
      Subchronische Toxizität 57 32 143
      Mutagenität2 88 12 139
      Mutagenität3 82-944 1-10 301
      Kanzerogenität3 : Zweijähriger Bioassay 72-954 - 301

      Quelle: Daten der OECD, persönliche Mitteilung C. Auer, US EPA. In dieser Analyse wurden nur diejenigen Endpunkte verwendet, für die vergleichbare SAR-Vorhersagen und tatsächliche Testdaten verfügbar waren. NTP-Daten stammen von Ashby und Tennant 1991.

      1 Besorgniserregend war das Versäumnis von SAR, die akute Toxizität bei 12 % der getesteten Chemikalien vorherzusagen.

      2 OECD-Daten, basierend auf Ames-Test-Konkordanz mit SAR

      3 NTP-Daten, basierend auf Gentox-Assays im Vergleich zu SAR-Vorhersagen für mehrere Klassen von „strukturell alarmierenden Chemikalien“.

      4 Die Übereinstimmung variiert mit der Klasse; höchste Übereinstimmung war mit aromatischen Amino/Nitro-Verbindungen; am niedrigsten bei „verschiedenen“ Strukturen.

      Für andere toxische Endpunkte hat SAR, wie oben erwähnt, einen weniger nachweisbaren Nutzen. Vorhersagen zur Säugetiertoxizität werden durch das Fehlen von SAR für die Toxikokinetik komplexer Moleküle erschwert. Dennoch wurden einige Versuche unternommen, SAR-Prinzipien für komplexe Endpunkte der Toxizität bei Säugetieren vorzuschlagen (siehe beispielsweise Bernstein (1984) für eine SAR-Analyse potenzieller reproduktionstoxischer Stoffe für Männer). In den meisten Fällen ist die Datenbank zu klein, um strukturbasierte Vorhersagen gründlich zu testen.

      An dieser Stelle kann der Schluss gezogen werden, dass SAR hauptsächlich nützlich sein kann, um die Investition in Toxizitätstestressourcen zu priorisieren oder um frühzeitig Bedenken hinsichtlich potenzieller Gefahren zu äußern. Nur im Fall von Mutagenität ist es wahrscheinlich, dass die SAR-Analyse selbst zuverlässig verwendet werden kann, um andere Entscheidungen zu informieren. Für keinen Endpunkt ist es wahrscheinlich, dass SAR die Art von quantitativen Informationen liefern kann, die für Risikobewertungszwecke erforderlich sind, wie an anderer Stelle in diesem Kapitel und erörtert Enzyklopädie.

       

      Zurück

      Montag, März 07 2011 18: 46

      Überblick

      In der 3. Auflage der ILO's Enzyklopädie, erschienen 1983, wurde Ergonomie in einem nur etwa vier Seiten langen Artikel zusammengefasst. Seit dem Erscheinen der 3. Auflage hat sich die Gewichtung und das Verständnis von Zusammenhängen in Sicherheit und Gesundheit stark verändert: Die Welt lässt sich nicht mehr ohne Weiteres in Medizin, Sicherheit und Gefahrenabwehr einordnen. Nahezu alle Branchen der Produktions- und Dienstleistungsindustrie haben im letzten Jahrzehnt große Anstrengungen unternommen, um Produktivität und Qualität zu verbessern. Aus diesem Umstrukturierungsprozess sind praktische Erfahrungen entstanden, die deutlich machen, dass Produktivität und Qualität in direktem Zusammenhang mit der Gestaltung der Arbeitsbedingungen stehen. Ein direktes wirtschaftliches Maß für die Produktivität – die Kosten für krankheitsbedingte Fehlzeiten – wird von den Arbeitsbedingungen beeinflusst. Daher sollte es möglich sein, Produktivität und Qualität zu steigern und Fehlzeiten zu vermeiden, indem der Gestaltung der Arbeitsbedingungen mehr Aufmerksamkeit geschenkt wird.

      Zusammenfassend lässt sich die einfache Hypothese der modernen Ergonomie so formulieren: Schmerzen und Erschöpfung verursachen Gesundheitsgefährdung, Produktivitätsverschwendung und Qualitätsminderung, die ein Maß für Kosten und Nutzen menschlicher Arbeit sind.

      Diese einfache Hypothese steht im Gegensatz zur Arbeitsmedizin, die sich in der Regel auf die Feststellung der Ätiologie von Berufskrankheiten beschränkt. Ziel der Arbeitsmedizin ist es, Bedingungen zu schaffen, unter denen die Wahrscheinlichkeit, solche Erkrankungen zu entwickeln, minimiert wird. Unter ergonomischen Gesichtspunkten lassen sich diese Bedingungen am einfachsten in Form von Anforderungen und Belastungsgrenzen formulieren. Arbeitsmedizin lässt sich zusammenfassend als „Begrenzung durch medizinisch-wissenschaftliche Studien“ zusammenfassen. Die traditionelle Ergonomie sieht ihre Rolle darin, Methoden zu formulieren, mit denen durch Gestaltung und Arbeitsorganisation die arbeitsmedizinisch festgestellten Grenzen in die Praxis umgesetzt werden können. Traditionelle Ergonomie könnte man dann als Entwicklung von „Korrekturen durch wissenschaftliche Studien“ bezeichnen, wobei unter „Korrekturen“ alle Arbeitsgestaltungsempfehlungen zu verstehen sind, die dazu auffordern, Belastungsgrenzen nur zu beachten, um Gesundheitsgefährdungen vorzubeugen. Charakteristisch für solche Korrekturempfehlungen ist, dass der Praktiker mit dem Problem der Anwendung am Ende allein gelassen wird – es gibt keine multidisziplinäre Teamarbeit.

      Das ursprüngliche Ziel, die Ergonomie 1857 zu erfinden, steht im Gegensatz zu dieser Art „Ergonomie durch Korrektur“:

      ... ein wissenschaftlicher Ansatz, der es uns ermöglicht, die besten Früchte der Lebensarbeit zum Nutzen für uns selbst und für andere mit minimalem Aufwand und maximaler Befriedigung zu ernten (Jastrzebowski 1857).

      Die Wurzel des Begriffs „Ergonomie“ stammt aus dem Griechischen „nomos“ bedeutet Herrschaft und „ergo“ bedeutet Arbeit. Man könnte vorschlagen, dass die Ergonomie „Regeln“ für ein zukunftsorientiertes, vorausschauendes Designkonzept entwickelt. Im Gegensatz zur „korrigierenden Ergonomie“ ist die Idee der Vorausschauende Ergonomie basiert auf der Anwendung ergonomischer Empfehlungen, die gleichzeitig die Rentabilitätsmargen berücksichtigen (Laurig 1992).

      Die Grundregeln für die Entwicklung dieses Ansatzes lassen sich aus der Praxis ableiten und durch Ergebnisse arbeitshygienischer und ergonomischer Forschung untermauern. Mit anderen Worten, Vorausschauende Ergonomie bedeutet, nach Alternativen in der Arbeitsgestaltung zu suchen, die Ermüdung und Erschöpfung des Arbeitssubjekts vorbeugen, um die menschliche Leistungsfähigkeit zu fördern („... zum Wohle unserer selbst und anderer“). Dieser umfassende Ansatz von Vorausschauende Ergonomie umfasst die Arbeitsplatz- und Gerätegestaltung sowie die Gestaltung von Arbeitsbedingungen, die durch eine zunehmende Informationsverarbeitung und eine sich verändernde Arbeitsorganisation bestimmt werden. Vorausschauende Ergonomie ist daher ein interdisziplinärer Ansatz von Forschern und Praktikern aus den unterschiedlichsten Bereichen, die das gleiche Ziel verfolgen, und ein Teil einer allgemeinen Grundlage für ein modernes Verständnis von Arbeitssicherheit und Gesundheitsschutz (UNESCO 1992).

      Basierend auf diesem Verständnis, die Ergonomie Kapitel in der 4. Ausgabe der IAO Enzyklopädie umfasst die unterschiedlichen Wissens- und Erfahrungscluster, die sich an den Eigenschaften und Fähigkeiten der Arbeitnehmer orientieren und darauf abzielen, die Ressource „Menschliche Arbeit“ optimal zu nutzen, indem die Arbeit „ergonomischer“, also humaner gestaltet wird.

      Die Themenwahl und die Gliederung der Artikel in diesem Kapitel folgt der Gliederung typischer Fragestellungen aus der Praxis, wie sie in der Industrie praktiziert werden. Beginnend mit der Ziele, Prinzipien und Methoden der Ergonomie behandeln die folgenden Artikel grundlegende Prinzipien aus den Grundlagenwissenschaften wie Physiologie und Psychologie. Auf dieser Grundlage stellen die nächsten Beiträge wesentliche Aspekte einer ergonomischen Gestaltung der Arbeitsbedingungen von der Arbeitsorganisation bis zur Produktgestaltung vor. „Designing for everyone“ legt besonderen Wert auf einen ergonomischen Ansatz, der sich an den Eigenschaften und Fähigkeiten des Mitarbeiters orientiert, ein Konzept, das in der Praxis oft übersehen wird. Die Bedeutung und Vielfalt der Ergonomie wird an zwei Beispielen am Ende des Kapitels aufgezeigt und findet sich auch darin wieder, dass viele weitere Kapitel dieser Ausgabe der ILO Enzyklopädie stehen in direktem Zusammenhang mit Ergonomie, wie z Hitze und Kälte, Lärm, Vibration, Visuelle Anzeigeeinheiten, und praktisch alle Kapitel in den Abschnitten Unfall- und Sicherheitsmanagement und Management und Politik.

       

      Zurück

      Montag, März 14 2011 19: 23

      Arbeitsorganisation

      Gestaltung von Produktionssystemen

      Viele Unternehmen investieren Millionen in computergestützte Produktionssysteme und schöpfen gleichzeitig ihre Humanressourcen nicht voll aus, deren Wert durch Investitionen in Ausbildung deutlich gesteigert werden kann. Tatsächlich kann der Einsatz von qualifiziertem Mitarbeiterpotenzial statt hochkomplexer Automatisierung unter Umständen nicht nur die Investitionskosten deutlich senken, sondern auch die Flexibilität und Systemfähigkeit deutlich steigern.

      Ursachen für ineffizienten Einsatz von Technologie

      Die angestrebten Verbesserungen durch Investitionen in moderne Technik werden häufig nicht einmal annähernd erreicht (Strohm, Kuark und Schilling 1993; Ulich 1994). Die wichtigsten Gründe dafür sind Probleme in den Bereichen Technik, Organisation und Mitarbeiterqualifikation.

      Für Probleme mit der Technik lassen sich drei Hauptursachen identifizieren:

        1. Unzureichende Technologie. Aufgrund der Schnelligkeit technologischer Veränderungen wurden neue Technologien, die auf den Markt kamen, manchmal unzureichenden kontinuierlichen Verwendbarkeitstests unterzogen, was zu ungeplanten Ausfallzeiten führen kann.
        2. Ungeeignete Technik. Technologie, die für große Unternehmen entwickelt wurde, ist für kleinere Unternehmen oft nicht geeignet. Wenn ein kleines Unternehmen ein für ein großes Unternehmen entwickeltes Produktionsplanungs- und -steuerungssystem einführt, kann es sich selbst die für seinen Erfolg oder sogar sein Überleben notwendige Flexibilität nehmen.
        3. Zu komplexe Technik. Wenn Konstrukteure und Entwickler ihr gesamtes Planungswissen einsetzen, um das technisch Machbare zu realisieren, ohne die Erfahrung der Produktionsbeteiligten zu berücksichtigen, können komplexe Automatisierungssysteme entstehen, die nicht mehr einfach zu beherrschen sind.

             

            Organisationsprobleme sind in erster Linie darauf zurückzuführen, dass ständig versucht wird, neueste Technologien in ungeeignete Organisationsstrukturen zu implementieren. Beispielsweise macht es wenig Sinn, Computer der dritten, vierten und fünften Generation in Organisationen der zweiten Generation einzuführen. Aber genau das tun viele Unternehmen (Savage und Appleton 1988). In vielen Unternehmen ist ein radikaler Umbau der Organisation Voraussetzung für den erfolgreichen Einsatz neuer Technologien. Dazu gehört insbesondere eine Auseinandersetzung mit den Konzepten der Produktionsplanung und -steuerung. Letztlich kann eine lokale Selbststeuerung durch qualifiziertes Bedienpersonal unter Umständen deutlich effizienter und wirtschaftlicher sein als ein technisch hoch entwickeltes Produktionsplanungs- und Steuerungssystem.

            Probleme bei der Qualifizierung von Mitarbeitern entstehen vor allem dadurch, dass eine Vielzahl von Unternehmen die Notwendigkeit von Qualifizierungsmaßnahmen im Zusammenhang mit der Einführung computergestützter Produktionssysteme nicht erkennen. Darüber hinaus wird die Ausbildung zu häufig als Kostenfaktor angesehen, der kontrolliert und minimiert werden muss, und nicht als strategische Investition. Tatsächlich können Anlagenstillstandszeiten und die daraus resultierenden Kosten oft effektiv reduziert werden, indem Fehler auf der Grundlage der Kompetenz und des anlagenspezifischen Wissens und der Erfahrung des Bedieners diagnostiziert und behoben werden können. Dies ist insbesondere in eng gekoppelten Produktionsanlagen der Fall (Köhler et al. 1989). Gleiches gilt für die Einführung neuer Produkte oder Produktvarianten. Viele Beispiele ineffizienten exzessiven Technologieeinsatzes zeugen von solchen Zusammenhängen.

            Die Konsequenz der hier kurz vorgestellten Analyse ist, dass die Einführung computergestützter Produktionssysteme nur dann Erfolg versprechend ist, wenn sie in ein Gesamtkonzept integriert ist, das darauf abzielt, den Technologieeinsatz, die Organisationsstruktur und die Steigerung der Mitarbeiterqualifikation gemeinsam zu optimieren .

            Von der Aufgabe zum Design sozio-technischer Systeme

            Arbeitspsychologische Konzepte des Production Design basieren auf der Primat von
            die Aufgabe
            . Einerseits bildet die Aufgabe die Schnittstelle zwischen Individuum und Organisation (Volpert 1987). Andererseits verbindet die Aufgabe das soziale Subsystem mit dem technischen Subsystem. „Die Aufgabe muss der Artikulationspunkt zwischen sozialem und technischem System sein – die Verknüpfung der Arbeit im technischen System mit dem ihr zugeordneten Rollenverhalten im sozialen System“ (Blumberg 1988).

            Das bedeutet, dass ein soziotechnisches System, beispielsweise eine Produktionsinsel, primär durch die Aufgabe definiert wird, die es zu erfüllen hat. Die Arbeitsverteilung zwischen Mensch und Maschine spielt dabei eine zentrale Rolle, denn sie entscheidet darüber, ob der Mensch als verlängerter Arm der Maschine mit einer in einer Automatisierungs-„Lücke“ übriggebliebenen Funktion „funktioniert“ oder ob die Maschine als verlängerter Arm der Maschine fungiert Person, mit einer Werkzeugfunktion, die menschliche Fähigkeiten und Kompetenzen unterstützt. Wir bezeichnen diese gegensätzlichen Positionen als „technikorientiert“ und „arbeitsorientiert“ (Ulich 1994).

            Das Konzept der vollständigen Aufgabe

            Das Prinzip der vollständigen Aktivität (Hacker 1986) bzw komplette Aufgabe spielt in arbeitspsychologischen Konzepten zur Definition von Arbeitsaufgaben und zur Arbeitsteilung zwischen Mensch und Maschine eine zentrale Rolle. Erledigte Aufgaben sind solche, „über die der Einzelne eine beträchtliche persönliche Kontrolle hat“ und die „starke Kräfte im Einzelnen hervorrufen, um sie zu erledigen oder fortzusetzen“. Vollständige Aufgaben tragen zur „Entwicklung dessen bei, was als ‚Aufgabenorientierung‘ beschrieben wurde – das heißt, ein Zustand, in dem das Interesse des Einzelnen geweckt, engagiert und durch den Charakter der Aufgabe gelenkt wird“ (Emery 1959). . Abbildung 1 fasst Vollständigkeitsmerkmale zusammen, die bei Maßnahmen zur arbeitsorientierten Gestaltung von Produktionssystemen berücksichtigt werden müssen.

            Abbildung 1. Merkmale vollständiger Aufgaben

            ERG160T1
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
             
            Veranschaulichungen konkreter Konsequenzen für die Produktionsgestaltung, die sich aus dem Prinzip der Gesamtaufgabe ergeben, sind folgende:
             
              1. Die eigenständige Zielsetzung, die in übergeordnete Ziele einfließen kann, erfordert eine Abkehr von der zentralen Planung und Steuerung hin zu einer dezentralen Shopfloor-Steuerung, die die Möglichkeit bietet, innerhalb definierter Zeiträume selbstbestimmte Entscheidungen zu treffen.
              2. Eine selbstbestimmte Handlungsvorbereitung im Sinne der Wahrnehmung von Planungsfunktionen erfordert die Integration arbeitsvorbereitender Aufgaben im Shopfloor.
              3. Methodenauswahl bedeutet beispielsweise, einem Konstrukteur die Entscheidung zu überlassen, ob er für bestimmte Teilaufgaben das Zeichenbrett anstelle eines automatisierten Systems (z. B. einer CAD-Anwendung) verwenden möchte, sofern sichergestellt ist, dass Daten für andere Teile benötigt werden des Prozesses werden im System erfasst.
              4. Leistungsfunktionen mit Prozessrückmeldung zur ggf. Korrektur von Maßnahmen erfordern bei gekapselten Arbeitsprozessen „Fenster zum Prozess“, die helfen, die Prozessdistanz zu minimieren.
              5. Handlungssteuerung mit Ergebnisrückmeldung bedeutet, dass Werker die Funktion der Qualitätsprüfung und -kontrolle übernehmen.

                       

                      Diese Hinweise auf die Konsequenzen, die sich aus der Verwirklichung des Prinzips der vollständigen Aufgabe ergeben, machen zweierlei deutlich: (1) In vielen Fällen – wahrscheinlich sogar in der Mehrzahl der Fälle – können vollständige Aufgaben im Sinne von Abbildung 1 nur als Gruppenaufgaben strukturiert werden Berücksichtigung der daraus resultierenden Komplexität und des damit verbundenen Umfangs; (2) Die Umstrukturierung von Arbeitsaufgaben – insbesondere wenn sie mit der Einführung von Gruppenarbeit verbunden ist – erfordert deren Einbindung in ein umfassendes Umstrukturierungskonzept, das alle Ebenen des Unternehmens umfasst.

                      Die für die verschiedenen Ebenen geltenden Strukturprinzipien sind in Tabelle 1 zusammengefasst.

                      Tabelle 1. Arbeitsorientierte Prinzipien zur Produktionsgestaltung

                      Organisationsebene

                      Strukturprinzip

                      Firma

                      Dezentralisierung

                      Organisationseinheit

                      Funktionsintegration

                      Gruppe an

                      Selbstregulierung1

                      Individual

                      Gekonnte Produktionsarbeit1

                      1 Berücksichtigung des Prinzips der differentiellen Arbeitsgestaltung.

                      Quelle: Ulich 1994.

                      Möglichkeiten zur Umsetzung der in Tabelle 1 skizzierten Grundsätze zur Produktionsstrukturierung verdeutlicht der in Abbildung 2 dargestellte Vorschlag zur Umstrukturierung eines Produktionsunternehmens. Dieser Vorschlag wurde sowohl von den Produktionsverantwortlichen als auch von der dafür gebildeten Projektgruppe einstimmig angenommen Umstrukturierung, demonstriert auch eine grundlegende Abkehr von tayloristischen Konzepten der Arbeits- und Autoritätsteilung. Die Beispiele vieler Unternehmen zeigen, dass die Umstrukturierung von Arbeits- und Organisationsstrukturen auf der Grundlage solcher Modelle sowohl arbeitspsychologischen Kriterien der Gesundheitsförderung und Persönlichkeitsentwicklung als auch der Forderung nach langfristiger Wirtschaftlichkeit gerecht werden kann (vgl. Ulich 1994).

                      Abbildung 2. Vorschlag zur Umstrukturierung eines Produktionsunternehmens

                      ERG160F1

                      Die hier favorisierte Argumentationslinie – aus Platzgründen nur sehr kurz skizziert – will dreierlei deutlich machen:

                        1. Konzepte wie die hier genannten stellen eine Alternative zur „Lean Production“ im Sinne von Womack, Jones und Roos (1990) dar. Während bei letzterem Ansatz „jeder Freiraum entfernt“ und eine extreme Zerlegung von Arbeitsaktivitäten im tayloristischen Sinne beibehalten wird, spielen bei dem auf diesen Seiten vorangetriebenen Ansatz komplette Aufgaben in Gruppen mit weitreichender Selbststeuerung eine zentrale Rolle .
                        2. Durch die notwendige Umsetzung des Funktionsintegrationsprinzips, also durch die Wiedereingliederung sogenannter mittelbar produktiver Funktionen, wie z , Wartung, Qualitätskontrolle und so weiter. Dies erfordert eine grundlegende Neuorientierung im Sinne einer Ablösung der traditionellen Laufbahnkultur durch eine Kompetenzkultur.
                        3. Konzepte wie die hier genannten bedeuten eine grundlegende Veränderung unternehmerischer Machtstrukturen, die ihre Entsprechung in der Entwicklung entsprechender Partizipationsmöglichkeiten finden müssen.

                             

                            Arbeitnehmerbeteiligung

                            In den vorangegangenen Abschnitten wurden Formen der Arbeitsorganisation beschrieben, die als ein grundlegendes Merkmal die Demokratisierung auf niedrigeren Hierarchieebenen einer Organisation durch erhöhte Autonomie und Entscheidungsspielraum bezüglich Arbeitsinhalten sowie Arbeitsbedingungen in der Produktion aufweisen. In diesem Abschnitt wird die Demokratisierung aus einem anderen Blickwinkel betrachtet, indem die partizipative Entscheidungsfindung im Allgemeinen betrachtet wird. Zunächst wird ein Definitionsrahmen für Partizipation vorgestellt, gefolgt von einer Diskussion der Forschung zu den Wirkungen von Partizipation. Abschließend wird die partizipative Systemgestaltung näher betrachtet.

                            Definitionsrahmen für Partizipation

                            Organisationsentwicklung, Führung, Systemdesign und Arbeitsbeziehungen sind Beispiele für die Vielfalt der Aufgaben und Kontexte, in denen Partizipation als relevant erachtet wird. Ein gemeinsamer Nenner, der als Kern der Partizipation angesehen werden kann, ist die Möglichkeit für Einzelpersonen und Gruppen, ihre Interessen durch die Beeinflussung der Wahl zwischen Handlungsalternativen in einer bestimmten Situation zu fördern (Wilpert 1989). Um Partizipation genauer zu beschreiben, sind jedoch einige Dimensionen notwendig. Häufig vorgeschlagene Dimensionen sind (a) formal-informell, (b) direkt-indirekt, (c) Einflussgrad und (d) Entscheidungsinhalt (zB Dachler und Wilpert 1978; Locke und Schweiger 1979). Formelle Partizipation bezieht sich auf Partizipation innerhalb gesetzlich oder anderweitig vorgeschriebener Regeln (z. B. Verhandlungsverfahren, Richtlinien für das Projektmanagement), während informelle Partizipation auf nicht vorgeschriebenem Austausch basiert, z. B. zwischen Vorgesetzten und Untergebenen. Die direkte Beteiligung ermöglicht eine direkte Einflussnahme der Betroffenen, während die indirekte Beteiligung über ein Repräsentationssystem funktioniert. Der Grad der Einflussnahme wird üblicherweise anhand einer Skala beschrieben, die von „keine Information der Mitarbeiter über eine Entscheidung“, über „Vorabinformation der Mitarbeiter“ und „Beratung der Mitarbeiter“ bis hin zu „gemeinsame Entscheidung aller Beteiligten“ reicht. In Bezug auf die Bereitstellung von Vorabinformationen ohne Konsultation oder gemeinsame Entscheidungsfindung argumentieren einige Autoren, dass dies keineswegs ein geringes Maß an Partizipation ist, sondern lediglich eine Form der „Pseudo-Partizipation“ (Wall und Lischeron 1977). Schließlich kann der Inhaltsbereich für partizipative Entscheidungsfindung spezifiziert werden, beispielsweise technologischer oder organisatorischer Wandel, Arbeitsbeziehungen oder alltägliche betriebliche Entscheidungen.

                            Ein Klassifikationsschema, das sich von den bisher vorgestellten Dimensionen unterscheidet, wurde von Hornby und Clegg (1992) entwickelt. Basierend auf Arbeiten von Wall und Lischeron (1977) unterscheiden sie drei Aspekte partizipativer Prozesse:

                              1. die Arten und Ebenen der Interaktionen zwischen den an einer Entscheidung beteiligten Parteien
                              2. Informationsfluss zwischen den Beteiligten
                              3. die Art und das Ausmaß des Einflusses, den die Parteien aufeinander ausüben.

                                   

                                  Anschließend nutzten sie diese Aspekte, um einen von Gowler und Legge (1978) vorgeschlagenen Rahmen zu ergänzen, der Partizipation als eine Funktion von zwei organisatorischen Variablen beschreibt, nämlich der Art der Struktur (mechanistisch versus organisch) und der Art des Prozesses (stabil versus instabil). Da dieses Modell eine Reihe von Annahmen über Partizipation und ihre Beziehung zur Organisation enthält, kann es nicht zur Klassifizierung allgemeiner Arten von Partizipation verwendet werden. Sie wird hier als ein Versuch präsentiert, Partizipation in einem breiteren Kontext zu definieren (siehe Tabelle 2). (Im letzten Abschnitt dieses Artikels wird die Studie von Hornby und Clegg (1992) diskutiert, die auch darauf abzielte, die Annahmen des Modells zu testen.)

                                  Tabelle 2. Beteiligung im organisatorischen Kontext

                                   

                                  Organisatorische Struktur

                                   

                                  Mechanistisch

                                  Organic

                                  Organisatorische Prozesse

                                     

                                  Stabil

                                  Geregelte
                                  Interaktion: vertikal/Befehl
                                  Informationsfluss: nicht reziprok
                                  Einfluss: asymmetrisch

                                  Offen
                                  Interaktion: seitlich/beratend
                                  Informationsfluss: wechselseitig
                                  Einfluss: asymmetrisch

                                  Instabile

                                  Willkürlich
                                  Interaktion: ritualistisch/zufällig
                                  Informationsfluss:
                                  nicht reziprok/sporadisch
                                  Einfluss: autoritär

                                  Geregelte
                                  Interaktion: intensiv/zufällig
                                  Informationsfluss:
                                  reziprok/interrogativ
                                  Einfluss: paternalistisch

                                  Quelle: Adaptiert von Hornby und Clegg 1992.

                                  Eine wichtige Dimension, die normalerweise nicht in Klassifikationen für Partizipation enthalten ist, ist das organisatorische Ziel hinter der Wahl einer partizipativen Strategie (Dachler und Wilpert 1978). Grundsätzlich kann Partizipation erfolgen, um einer demokratischen Norm zu entsprechen, unabhängig von ihrem Einfluss auf die Effektivität des Entscheidungsprozesses und die Qualität des Entscheidungsergebnisses und der Umsetzung. Andererseits kann ein partizipatives Verfahren gewählt werden, um vom Wissen und der Erfahrung der Beteiligten zu profitieren oder die Akzeptanz einer Entscheidung sicherzustellen. Oft ist es schwierig, die Ziele hinter der Wahl eines partizipativen Ansatzes für eine Entscheidung zu identifizieren, und oft werden mehrere Ziele gleichzeitig gefunden, sodass diese Dimension nicht ohne weiteres zur Einordnung von Partizipation herangezogen werden kann. Für das Verständnis partizipativer Prozesse ist dies jedoch eine wichtige Dimension, die es zu beachten gilt.

                                  Forschung zu den Wirkungen von Partizipation

                                  Eine weit verbreitete Annahme besagt, dass sowohl Zufriedenheit als auch Produktivitätsgewinne erreicht werden können, indem die Möglichkeit zur direkten Beteiligung an der Entscheidungsfindung geboten wird. Insgesamt hat die Forschung diese Annahme gestützt, aber die Beweise sind nicht eindeutig und viele der Studien wurden aus theoretischen und methodischen Gründen kritisiert (Cotton et al. 1988; Locke und Schweiger 1979; Wall und Lischeron 1977). Cottonet al. (1988) argumentierten, dass widersprüchliche Befunde auf Unterschiede in der untersuchten Beteiligungsform zurückzuführen seien; Beispielsweise werden informelle Beteiligung und Mitarbeiterbeteiligung mit hoher Produktivität und Zufriedenheit in Verbindung gebracht, während kurzfristige Beteiligung in beiden Hinsichten unwirksam ist. Obwohl ihre Schlussfolgerungen stark kritisiert wurden (Leana, Locke und Schweiger 1990), besteht Einigkeit darüber, dass die Partizipationsforschung im Allgemeinen durch eine Reihe von Mängeln gekennzeichnet ist, die von konzeptionellen Problemen wie den von Cotton et al. (1988) zu methodologischen Aspekten wie Ergebnisvariationen aufgrund unterschiedlicher Operationalisierungen der abhängigen Variablen (z. B. Wagner und Gooding 1987).

                                  Um die Schwierigkeiten der Partizipationsforschung zu veranschaulichen, wird die klassische Studie von Coch und French (1948) kurz beschrieben, gefolgt von der Kritik von Bartlem und Locke (1981). Der Fokus der erstgenannten Studie lag auf der Überwindung von Veränderungswiderständen durch Partizipation. In einem Textilbetrieb mit häufig wechselnden Arbeitsaufgaben erhielten die Bediener die Möglichkeit, ihren neuen Arbeitsplatz in unterschiedlichem Maße mitzugestalten. An den Entscheidungen (detaillierte Arbeitsverfahren für neue Arbeitsplätze und Stücklöhne) war eine Gruppe von Operateuren durch gewählte Vertreter, dh mehrere Operateure ihrer Gruppe, beteiligt. In zwei kleineren Gruppen nahmen alle Betreiber an diesen Entscheidungen teil, und eine vierte Gruppe diente als Kontrolle, wobei keine Teilnahme erlaubt war. Zuvor war in der Anlage festgestellt worden, dass die meisten Bediener eine Versetzung ablehnen und langsamer darin waren, ihre neuen Jobs neu zu erlernen als bei ihrer ersten Tätigkeit im Werk, und dass die Fehlzeiten und die Fluktuation unter den versetzten Bedienern höher waren als bei den nicht kürzlich versetzten Bedienern.

                                  Dies geschah trotz der Tatsache, dass eine Versetzungsprämie gewährt wurde, um den anfänglichen Verlust an Stücklohn nach einer Versetzung auf eine neue Stelle zu kompensieren. Beim Vergleich der drei Versuchsbedingungen zeigte sich, dass die Gruppe ohne Beteiligung im ersten Monat nach dem Transfer auf einem niedrigen Produktionsniveau blieb, das als Gruppenstandard festgelegt worden war, während die Gruppen mit voller Beteiligung ihre frühere Produktivität wiedererlangten innerhalb weniger Tage und zum Monatsende sogar übertroffen. Die dritte Gruppe, die durch ausgewählte Vertreter teilnahm, erholte sich nicht so schnell, zeigte aber nach einem Monat ihre alte Leistungsfähigkeit. (Sie hatten jedoch auch für die erste Woche nicht genügend Material, um daran zu arbeiten.) In den teilnehmenden Gruppen kam es zu keiner Fluktuation und es wurde wenig Aggression gegenüber dem Management beobachtet. Der Umsatz in der Beteiligungsgruppe ohne Beteiligung lag bei 17 % und die Haltung gegenüber dem Management war allgemein feindselig. Die Gruppe ohne Beteiligung wurde nach einem Monat aufgelöst und nach weiteren zweieinhalb Monaten wieder zusammengeführt, um an einem neuen Arbeitsplatz zu arbeiten und dieses Mal die Möglichkeit zu erhalten, ihren Arbeitsplatz mitzugestalten. Sie zeigten dann das gleiche Erholungsmuster und eine gesteigerte Produktivität wie die Gruppen mit Teilnahme am ersten Experiment. Die Ergebnisse wurden von Coch und French auf der Grundlage eines allgemeinen Modells des Widerstands gegen Veränderungen erklärt, das aus der Arbeit von Lewin (1951, siehe unten) abgeleitet wurde.

                                  Bartlem und Locke (1981) argumentierten, dass diese Befunde nicht als Beleg für die positiven Effekte der Teilnahme interpretiert werden könnten, da es erhebliche Unterschiede zwischen den Gruppen hinsichtlich der Erklärung des Änderungsbedarfs in den Einführungsgesprächen mit dem Management, des Schulungsumfangs gab erhalten, die Art und Weise, wie die Zeitstudien durchgeführt wurden, um den Akkordsatz festzulegen, der verfügbare Arbeitsumfang und die Gruppengröße. Sie gingen davon aus, dass die wahrgenommene Fairness der Lohnsätze und das allgemeine Vertrauen in das Management zur besseren Leistung der Beteiligungsgruppen beitrugen, nicht die Beteiligung an sich.

                                  Abgesehen von der Problematik der Partizipationswirkungsforschung ist nur sehr wenig über die Prozesse bekannt, die zu diesen Wirkungen führen (zB Wilpert 1989). Baitsch (1985) hat in einer Längsschnittstudie zu den Wirkungen partizipativer Arbeitsgestaltung detailliert Prozesse der Kompetenzentwicklung bei einer Reihe von Beschäftigten in der Produktion beschrieben. Seine Studie kann mit Decis (1975) Theorie der intrinsischen Motivation verknüpft werden, die auf dem Bedürfnis nach Kompetenz und Selbstbestimmung basiert. Ein theoretischer Rahmen, der sich auf die Auswirkungen der Partizipation auf den Widerstand gegen Veränderungen konzentriert, wurde von Lewin (1951) vorgeschlagen, der argumentierte, dass soziale Systeme ein quasi stationäres Gleichgewicht erreichen, das durch jeden Versuch einer Veränderung gestört wird. Damit der Wandel erfolgreich durchgeführt werden kann, müssen die Kräfte, die den Wandel befürworten, stärker sein als die sich widersetzenden Kräfte. Partizipation hilft sowohl beim Abbau der Widerstände als auch bei der Steigerung der Antriebskräfte, weil Gründe für Widerstände offen diskutiert und bearbeitet werden können und individuelle Anliegen und Bedürfnisse in die vorgeschlagene Veränderung integriert werden können. Darüber hinaus ging Lewin davon aus, dass gemeinsame Entscheidungen, die aus partizipativen Veränderungsprozessen resultieren, die Verbindung zwischen der Motivation zur Veränderung und den tatsächlichen Verhaltensänderungen herstellen.

                                  Mitarbeit am Systemdesign

                                  Angesichts der – wenn auch nicht ganz konsistenten – empirischen Unterstützung für die Wirksamkeit von Partizipation sowie ihrer ethischen Untermauerung in der industriellen Demokratie besteht weitgehend Einigkeit darüber, dass für die Zwecke der Systemgestaltung eine partizipative Strategie verfolgt werden sollte (Greenbaum und Kyng 1991; Majchrzak 1988; Scarbrough und Corbett 1992). Darüber hinaus haben eine Reihe von Fallstudien zu partizipativen Designprozessen die spezifischen Vorteile der Partizipation am Systemdesign aufgezeigt, beispielsweise in Bezug auf die Qualität des resultierenden Designs, die Benutzerzufriedenheit und die Akzeptanz (dh die tatsächliche Nutzung) des neuen Systems (Mumford und Henshall 1979; Spinas 1989; Ulich et al. 1991).

                                  Die wichtige Frage ist dann nicht das Ob, sondern das Wie der Partizipation. Scarbrough und Corbett (1992) gaben einen Überblick über verschiedene Arten der Beteiligung in den verschiedenen Phasen des Designprozesses (siehe Tabelle 3). Wie sie betonen, ist die Beteiligung der Benutzer an der eigentlichen Gestaltung der Technologie eher selten und geht oft nicht über die Informationsverteilung hinaus. Partizipation erfolgt meist in späteren Phasen der Implementierung und Optimierung des technischen Systems und bei der Entwicklung soziotechnischer Gestaltungsmöglichkeiten, also Möglichkeiten der Organisations- und Arbeitsgestaltung in Kombination mit Möglichkeiten der Nutzung des technischen Systems.

                                  Tabelle 3. Benutzerbeteiligung am Technologieprozess

                                   

                                  Art der Teilnahme

                                  Phasen des Technologieprozesses

                                  formal

                                  Informell

                                  Design

                                  Gewerkschaftliche Beratung
                                  Prototyping

                                  Neugestaltung durch Benutzer

                                  Sytemimplementierung

                                  Neue Technologievereinbarungen
                                  Tarifverhandlungen

                                  Skills-Verhandlungen
                                  Nach Absprache
                                  Zusammenarbeit der Benutzer

                                  Verwenden Sie die

                                  Arbeitsgestaltung

                                  Qualitätszirkel

                                  Informelle Neugestaltung des Arbeitsplatzes
                                  und Arbeitspraktiken

                                  Adaptiert von Scarbrough und Corbett 1992.

                                  Neben dem Widerstand von Managern und Ingenieuren gegen die Einbeziehung von Benutzern in die Gestaltung technischer Systeme und möglichen Einschränkungen, die in die formale Beteiligungsstruktur eines Unternehmens eingebettet sind, betrifft eine wichtige Schwierigkeit den Bedarf an Methoden, die die Diskussion und Bewertung von Systemen ermöglichen, die dies noch nicht tun existieren (Grote 1994). In der Softwareentwicklung können Usability Labs helfen, diese Schwierigkeit zu überwinden, da sie die Möglichkeit für frühzeitige Tests durch zukünftige Benutzer bieten.

                                  Bei der Betrachtung des Prozesses des Systemdesigns, einschließlich partizipativer Prozesse, haben Hirschheim und Klein (1989) die Auswirkungen impliziter und expliziter Annahmen von Systementwicklern und -managern über grundlegende Themen wie die Natur der sozialen Organisation, die Natur der Technologie und ihre Bedeutung betont eigene Rolle im Entwicklungsprozess. Ob sich Systemdesigner als Experten, Katalysatoren oder Emanzipatoren verstehen, wird den Design- und Implementierungsprozess stark beeinflussen. Außerdem muss, wie bereits erwähnt, der breitere organisatorische Kontext berücksichtigt werden, in dem partizipatives Design stattfindet. Hornby und Clegg (1992) lieferten einige Belege für die Beziehung zwischen allgemeinen Organisationsmerkmalen und der gewählten Beteiligungsform (oder genauer gesagt, der Form, die sich im Laufe des Systemdesigns und der Systemimplementierung herausbildet). Sie untersuchten die Einführung eines Informationssystems, die in einer partizipativen Projektstruktur und mit ausdrücklicher Verpflichtung zur Nutzerbeteiligung durchgeführt wurde. Die Benutzer berichteten jedoch, dass sie wenig Informationen über die geplanten Änderungen und einen geringen Einfluss auf das Systemdesign und damit verbundene Fragen wie Arbeitsplatzgestaltung und Arbeitsplatzsicherheit hatten. Dieser Befund wurde im Hinblick auf die mechanistische Struktur und instabile Prozesse der Organisation interpretiert, die eine „willkürliche“ Beteiligung anstelle der gewünschten offenen Beteiligung förderten (siehe Tabelle 2).

                                  Zusammenfassend lässt sich sagen, dass es genügend Beweise gibt, die die Vorteile partizipativer Veränderungsstrategien belegen. Allerdings muss noch viel über die zugrunde liegenden Prozesse und Einflussfaktoren gelernt werden, die diese positiven Effekte hervorrufen, abschwächen oder verhindern.

                                   

                                  Zurück

                                  Arbeit ist essentiell für das Leben, die Entwicklung und die persönliche Entfaltung. Unverzichtbare Aktivitäten wie die Nahrungsmittelproduktion, die Gewinnung von Rohstoffen, die Herstellung von Waren, die Energieerzeugung und Dienstleistungen beinhalten leider Prozesse, Vorgänge und Materialien, die mehr oder weniger Gefahren für die Gesundheit von Arbeitnehmern und denen in nahe gelegenen Gemeinden darstellen können , sowie auf das allgemeine Umfeld.

                                  Die Erzeugung und Freisetzung von Schadstoffen in der Arbeitsumgebung kann jedoch durch angemessene Maßnahmen zur Gefahrenkontrolle verhindert werden, die nicht nur die Gesundheit der Arbeitnehmer schützen, sondern auch die mit der Industrialisierung häufig verbundenen Umweltschäden begrenzen. Wenn eine schädliche Chemikalie aus einem Arbeitsprozess entfernt wird, wird sie weder die Arbeiter beeinträchtigen noch darüber hinaus die Umwelt belasten.

                                  Der Beruf, der speziell auf die Verhütung und Beherrschung von Gefahren abzielt, die sich aus Arbeitsabläufen ergeben, ist die Arbeitshygiene. Zu den Zielen der Arbeitshygiene gehören der Schutz und die Förderung der Gesundheit der Arbeitnehmer, der Schutz der Umwelt und der Beitrag zu einer sicheren und nachhaltigen Entwicklung.

                                  Die Notwendigkeit der Arbeitshygiene zum Schutz der Gesundheit der Arbeitnehmer kann nicht genug betont werden. Die Diagnose und Heilung einer Berufskrankheit wird auch dann, wenn möglich, weitere Ausprägungen nicht verhindern, wenn die Exposition gegenüber dem Krankheitserreger nicht aufhört. Solange die ungesunde Arbeitsumgebung unverändert bleibt, bleibt ihr Potenzial, die Gesundheit zu beeinträchtigen. Nur die Kontrolle von Gesundheitsgefahren kann den in Abbildung 1 dargestellten Teufelskreis durchbrechen.

                                  Abbildung 1. Wechselwirkungen zwischen Mensch und Umwelt

                                  IHY010F1

                                  Vorbeugende Maßnahmen sollten jedoch viel früher ansetzen, nicht nur vor dem Auftreten einer gesundheitlichen Beeinträchtigung, sondern sogar bevor eine Exposition tatsächlich eintritt. Die Arbeitsumgebung sollte ständig überwacht werden, damit gefährliche Stoffe und Faktoren erkannt und entfernt oder kontrolliert werden können, bevor sie negative Auswirkungen haben; Dies ist die Aufgabe der Arbeitshygiene.

                                  Darüber hinaus kann Arbeitshygiene auch zu einer sicheren und nachhaltigen Entwicklung beitragen, d. h. „sicherstellen, dass (Entwicklung) den Bedürfnissen der Gegenwart entspricht, ohne die Fähigkeit künftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen“ (World Commission on Environment and Development 1987). Um die Bedürfnisse der heutigen Weltbevölkerung zu erfüllen, ohne die globale Ressourcenbasis zu erschöpfen oder zu schädigen und ohne nachteilige Folgen für Gesundheit und Umwelt zu verursachen, sind Wissen und Mittel erforderlich, um Maßnahmen zu beeinflussen (WHO 1992a); In Bezug auf Arbeitsprozesse ist dies eng mit der arbeitshygienischen Praxis verbunden.

                                   

                                   

                                   

                                   

                                   

                                   

                                   

                                   

                                   

                                   

                                   

                                   

                                  Arbeitsmedizin erfordert einen multidisziplinären Ansatz und umfasst grundlegende Disziplinen, von denen eine die Arbeitshygiene ist, zusammen mit anderen, die Arbeitsmedizin und Krankenpflege, Ergonomie und Arbeitspsychologie umfassen. Eine schematische Darstellung der Handlungsspielräume für Arbeitsmediziner und Arbeitshygieniker ist in Abbildung 2 dargestellt.

                                  Abbildung 2. Handlungsspielräume für Arbeitsmediziner und Arbeitshygieniker.

                                  IHY010F2

                                  Es ist wichtig, dass Entscheidungsträger, Manager und Arbeitnehmer selbst sowie alle Fachleute auf dem Gebiet der Arbeitsmedizin die wesentliche Rolle verstehen, die Arbeitshygiene beim Schutz der Gesundheit der Arbeitnehmer und der Umwelt spielt, sowie den Bedarf an spezialisierten Fachleuten in diesem Bereich Gebiet. Die enge Verbindung zwischen Arbeits- und Umweltgesundheit sollte ebenfalls berücksichtigt werden, da die Vermeidung von Umweltverschmutzung durch industrielle Quellen durch die angemessene Handhabung und Entsorgung gefährlicher Abwässer und Abfälle auf Arbeitsplatzebene beginnen sollte. (Siehe „Bewertung des Arbeitsumfelds“).

                                   

                                   

                                   

                                   

                                  Konzepte und Definitionen

                                  Arbeitshygiene

                                  Arbeitshygiene ist die Wissenschaft von der Antizipation, Erkennung, Bewertung und Beherrschung von Gefahren, die am oder vom Arbeitsplatz ausgehen und die Gesundheit und das Wohlbefinden der Arbeitnehmer beeinträchtigen könnten, auch unter Berücksichtigung der möglichen Auswirkungen auf die umliegenden Gemeinden und die Allgemeinheit Umgebung.

                                  Definitionen der Arbeitshygiene können auf unterschiedliche Weise dargestellt werden; sie alle haben jedoch im Wesentlichen die gleiche Bedeutung und zielen auf das gleiche grundlegende Ziel ab, nämlich den Schutz und die Förderung der Gesundheit und des Wohlbefindens der Arbeitnehmer sowie den Schutz der allgemeinen Umwelt durch vorbeugende Maßnahmen am Arbeitsplatz.

                                  Arbeitshygiene ist noch nicht überall als Beruf anerkannt; In vielen Ländern entstehen jedoch Rahmengesetze, die zu ihrer Einführung führen werden.


                                  Arbeitshygieniker

                                   Ein Arbeitshygieniker ist ein Fachmann, der in der Lage ist:

                                  • Gesundheitsgefährdungen antizipieren, die sich aus Arbeitsabläufen, Arbeitsgängen und Einrichtungen ergeben können, und entsprechend bei deren Planung und Gestaltung beraten
                                  • in der Arbeitsumgebung das Auftreten (realer oder potenzieller) chemischer, physikalischer und biologischer Einwirkungen und anderer Belastungen sowie deren Wechselwirkungen mit anderen Faktoren, die die Gesundheit und das Wohlbefinden der Arbeitnehmer beeinträchtigen können, erkennen und verstehen
                                  • die möglichen Wege des Eindringens von Wirkstoffen in den menschlichen Körper und die Auswirkungen verstehen, die solche Wirkstoffe und andere Faktoren auf die Gesundheit haben können
                                  • die Exposition der Arbeitnehmer gegenüber potenziell schädlichen Stoffen und Faktoren zu bewerten und die Ergebnisse zu bewerten
                                  •  Arbeitsprozesse und -methoden im Hinblick auf die mögliche Erzeugung und Freisetzung/Ausbreitung von potenziell schädlichen Stoffen und andere Faktoren zu bewerten, um Expositionen zu beseitigen oder auf ein akzeptables Maß zu reduzieren
                                  • Entwurf, Empfehlung zur Einführung und Bewertung der Wirksamkeit von Kontrollstrategien, allein oder in Zusammenarbeit mit anderen Fachleuten, um eine effektive und wirtschaftliche Kontrolle sicherzustellen
                                  • an der allgemeinen Risikoanalyse und dem Management eines Agenten, Prozesses oder Arbeitsplatzes teilnehmen und zur Festlegung von Prioritäten für das Risikomanagement beitragen
                                  • die rechtlichen Rahmenbedingungen für die betriebliche Hygienepraxis im eigenen Land verstehen
                                  • schulen, schulen, informieren und beraten Personen auf allen Ebenen in allen Aspekten der Gefahrenkommunikation
                                  • effektiv in einem multidisziplinären Team arbeiten, an dem andere Fachleute beteiligt sind
                                  • Erkennen von Wirkstoffen und Faktoren, die Auswirkungen auf die Umwelt haben können, und Verstehen der Notwendigkeit, betriebliche Hygienepraktiken mit dem Umweltschutz zu integrieren.

                                   

                                  Es sollte bedacht werden, dass ein Beruf nicht nur aus einem Wissensbestand besteht, sondern auch aus einem Ethikkodex; Nationale Verbände für Arbeitshygiene sowie die International Occupational Hygiene Association (IOHA) haben ihre eigenen Ethikkodizes (WHO 1992b).  


                                   

                                  Fachkraft für Arbeitshygiene

                                  Ein Arbeitshygienetechniker ist „eine Person, die befähigt ist, Messungen der Arbeitsumgebung durchzuführen“, aber nicht „die Interpretationen, Beurteilungen und Empfehlungen abzugeben, die von einem Arbeitshygieniker verlangt werden“. Das erforderliche Kompetenzniveau kann in einem umfassenden oder begrenzten Bereich erworben werden (WHO 1992b).

                                  Internationale Vereinigung für Arbeitshygiene (IOHA)

                                  IOHA wurde während eines Treffens in Montreal am 2. Juni 1987 offiziell gegründet. Gegenwärtig hat IOHA die Beteiligung von 19 nationalen Arbeitshygieneverbänden mit über neunzehntausend Mitgliedern aus siebzehn Ländern.

                                  Das Hauptziel von IOHA ist die weltweite Förderung und Entwicklung der Arbeitshygiene auf einem hohen Niveau professioneller Kompetenz durch Mittel, die den Informationsaustausch zwischen Organisationen und Einzelpersonen, die Weiterentwicklung der Humanressourcen und die Förderung eines hohen Standards umfassen der ethischen Praxis. Zu den Aktivitäten von IOHA gehören wissenschaftliche Tagungen und die Veröffentlichung eines Newsletters. Mitglieder von angeschlossenen Vereinen sind automatisch Mitglieder von IOHA; es ist auch möglich, als Einzelmitglied beizutreten, für diejenigen aus Ländern, in denen es noch keinen nationalen Verband gibt.

                                  Zertifizierung

                                  Zusätzlich zu einer anerkannten Definition der Arbeitshygiene und der Rolle des Arbeitshygienikers müssen Zertifizierungssysteme eingerichtet werden, um akzeptable Standards für die Kompetenz und Praxis der Arbeitshygiene zu gewährleisten. Zertifizierung bezieht sich auf ein formelles Schema, das auf Verfahren zur Feststellung und Aufrechterhaltung von Wissen, Fähigkeiten und Kompetenzen von Fachleuten basiert (Burdorf 1995).

                                  Die IOHA hat eine Untersuchung bestehender nationaler Zertifizierungssysteme (Burdorf 1995) zusammen mit Empfehlungen zur Förderung der internationalen Zusammenarbeit zur Sicherung der Qualität professioneller Arbeitshygieniker gefördert, die Folgendes umfassen:

                                  • „die Harmonisierung von Standards über die Kompetenz und Praxis professioneller Arbeitshygieniker“
                                  • „die Einrichtung eines internationalen Peer-Gremiums zur Überprüfung der Qualität bestehender Zertifizierungssysteme“.

                                   

                                  Andere Vorschläge in diesem Bericht umfassen Punkte wie: „Gegenseitigkeit“ und „gegenseitige Anerkennung nationaler Bezeichnungen, die letztlich auf ein Dachsystem mit einer international akzeptierten Bezeichnung abzielen“.

                                  Die Praxis der Arbeitshygiene

                                  Die klassischen Schritte in der arbeitshygienischen Praxis sind:

                                  • das Erkennen möglicher Gesundheitsgefahren im Arbeitsumfeld
                                  • die Bewertung von Gefahren, d. h. der Prozess der Bewertung der Exposition und der Schlussfolgerungen hinsichtlich der Höhe des Risikos für die menschliche Gesundheit
                                  • Vermeidung und Kontrolle von Gefahren, d. h. der Prozess der Entwicklung und Umsetzung von Strategien zur Beseitigung oder Verringerung des Auftretens schädlicher Stoffe und Faktoren am Arbeitsplatz auf ein akzeptables Maß unter Berücksichtigung des Umweltschutzes.

                                   

                                  Der ideale Ansatz zur Gefahrenabwehr ist „vorausschauendes und integriertes Vorbeugen“, das Folgendes umfassen sollte:

                                  • Arbeitsschutz- und Umweltverträglichkeitsprüfungen vor der Gestaltung und Einrichtung eines neuen Arbeitsplatzes
                                  • Auswahl der sichersten, ungefährlichsten und umweltschädlichsten Technologie („sauberere Produktion“)
                                  • umweltgerechter Standort
                                  • sachgerechte Gestaltung mit adäquater Anordnung und geeigneter Leittechnik, auch für die sichere Handhabung und Entsorgung der anfallenden Abwässer und Abfälle
                                  • Ausarbeitung von Richtlinien und Vorschriften für Schulungen zum korrekten Betrieb von Prozessen, einschließlich sicherer Arbeitspraktiken, Wartung und Notfallverfahren.

                                   

                                  Es kann nicht genug betont werden, wie wichtig es ist, alle Arten von Umweltverschmutzung vorherzusehen und zu verhindern. Erfreulicherweise gibt es eine zunehmende Tendenz, neue Technologien unter dem Gesichtspunkt möglicher negativer Auswirkungen und ihrer Vermeidung zu betrachten, von der Konstruktion und Installation des Prozesses bis hin zum Umgang mit den entstehenden Abwässern und Abfällen in der sogenannten Wiege -to-Grave-Ansatz. Umweltkatastrophen, die sowohl in Industrie- als auch in Entwicklungsländern aufgetreten sind, hätten durch die Anwendung geeigneter Kontrollstrategien und Notfallverfahren am Arbeitsplatz vermieden werden können.

                                  Ökonomische Aspekte sollten weiter gefasst werden als die übliche anfängliche Kostenbetrachtung; Teurere Optionen, die einen guten Gesundheits- und Umweltschutz bieten, können sich auf lange Sicht als wirtschaftlicher erweisen. Der Schutz der Gesundheit der Arbeitnehmer und der Umwelt muss viel früher ansetzen, als dies normalerweise der Fall ist. Technische Informationen und Ratschläge zur Arbeits- und Umwelthygiene sollten immer für diejenigen verfügbar sein, die neue Prozesse, Maschinen, Ausrüstungen und Arbeitsplätze entwerfen. Leider werden solche Informationen oft viel zu spät zur Verfügung gestellt, wenn die einzige Lösung eine kostspielige und schwierige Nachrüstung ist, oder schlimmer noch, wenn die Folgen bereits desaströs sind.

                                  Erkennen von Gefahren

                                  Das Erkennen von Gefahren ist ein grundlegender Schritt in der Praxis der Arbeitshygiene, unabdingbar für die angemessene Planung von Gefahrenbewertungs- und -bekämpfungsstrategien sowie für die Festlegung von Handlungsprioritäten. Zur adäquaten Gestaltung von Bekämpfungsmaßnahmen ist es außerdem erforderlich, Schadstoffquellen und Schadstoffausbreitungswege physikalisch zu charakterisieren.

                                  Das Erkennen von Gefährdungen führt zur Bestimmung von:

                                  • welche Agenten unter welchen Umständen anwesend sein können
                                  • die Art und das mögliche Ausmaß der damit verbundenen negativen Auswirkungen auf Gesundheit und Wohlbefinden.

                                   

                                  Die Identifizierung gefährlicher Stoffe, ihrer Quellen und der Expositionsbedingungen erfordert umfassende Kenntnisse und sorgfältige Untersuchungen der Arbeitsprozesse und -vorgänge, der verwendeten oder erzeugten Rohstoffe und Chemikalien, der Endprodukte und eventuellen Nebenprodukte sowie der Möglichkeiten der zufälligen Entstehung von Chemikalien, Zersetzung von Materialien, Verbrennung von Brennstoffen oder das Vorhandensein von Verunreinigungen. Das Erkennen der Art und des potenziellen Ausmaßes der biologischen Wirkungen, die solche Stoffe verursachen können, wenn eine Überexposition auftritt, erfordert Kenntnisse und den Zugang zu toxikologischen Informationen. Zu den internationalen Informationsquellen in dieser Hinsicht gehören das Internationale Programm für Chemikaliensicherheit (IPCS), die Internationale Agentur für Krebsforschung (IARC) und das Internationale Register potenziell toxischer Chemikalien des Umweltprogramms der Vereinten Nationen (UNEP-IRPTC).

                                  Zu den gesundheitsgefährdenden Stoffen in der Arbeitsumgebung gehören Luftschadstoffe; nicht luftgetragene Chemikalien; physikalische Einwirkungen wie Hitze und Lärm; Biologische Mittel; ergonomische Faktoren wie unzureichende Hebevorgänge und Arbeitshaltungen; und psychosoziale Belastungen.

                                  Arbeitshygienische Bewertungen

                                  Bewertungen der Arbeitshygiene werden durchgeführt, um die Exposition der Arbeitnehmer zu bewerten sowie Informationen für die Gestaltung oder Prüfung der Wirksamkeit von Kontrollmaßnahmen bereitzustellen.

                                  Die Bewertung der Exposition von Arbeitnehmern gegenüber berufsbedingten Gefahren, wie Luftschadstoffen, physikalischen und biologischen Arbeitsstoffen, wird an anderer Stelle in diesem Kapitel behandelt. Dennoch sollen hier einige allgemeine Überlegungen zum besseren Verständnis des Bereichs Arbeitshygiene angestellt werden.

                                  Es ist wichtig zu bedenken, dass die Gefährdungsbeurteilung kein Selbstzweck ist, sondern als Teil eines viel umfassenderen Verfahrens betrachtet werden muss, das mit der Erkenntnis beginnt, dass ein bestimmter Stoff, der gesundheitliche Beeinträchtigungen verursachen kann, in der Arbeit vorhanden sein kann Umwelt und schließt mit der Kontrolle dieses Mittels ab, damit es keinen Schaden anrichtet. Die Gefährdungsbeurteilung ebnet den Weg zur Gefahrenabwehr, ersetzt sie aber nicht.

                                  Expositionsabschätzung

                                  Die Expositionsbewertung zielt darauf ab, zu bestimmen, wie viel von einem Arbeitsstoff Arbeiter wie oft und wie lange ausgesetzt waren. Sowohl auf nationaler als auch auf internationaler Ebene sind diesbezügliche Richtlinien aufgestellt worden, beispielsweise die EN 689, erarbeitet vom Comité Européen de Normalization (Europäisches Komitee für Normung) (CEN 1994).

                                  Bei der Bewertung der Exposition gegenüber luftgetragenen Schadstoffen ist das gebräuchlichste Verfahren die Bewertung der Inhalationsexposition, die die Bestimmung der Luftkonzentration des Arbeitsstoffs erfordert, dem die Arbeitnehmer ausgesetzt sind (oder im Fall von luftgetragenen Partikeln die Luftkonzentration von die relevante Fraktion, z. B. die „lungengängige Fraktion“) und die Dauer der Exposition. Wenn jedoch andere Wege als die Inhalation erheblich zur Aufnahme einer Chemikalie beitragen, kann eine falsche Beurteilung erfolgen, wenn nur die Inhalationsexposition betrachtet wird. In solchen Fällen muss die Gesamtexposition bewertet werden, und ein sehr nützliches Instrument dafür ist die biologische Überwachung.

                                  Die Praxis der Arbeitshygiene befasst sich mit drei Arten von Situationen:

                                  • erste Studien zur Bewertung der Exposition von Arbeitnehmern
                                  • Nachverfolgung/Überwachung
                                  • Expositionsabschätzung für epidemiologische Studien.

                                   

                                  Ein Hauptgrund für die Feststellung, ob eine übermäßige Exposition gegenüber einem gefährlichen Stoff in der Arbeitsumgebung vorliegt, ist die Entscheidung, ob Maßnahmen erforderlich sind. Dies bedeutet häufig, aber nicht notwendigerweise, festzustellen, ob eine angenommene Norm eingehalten wird, was normalerweise in Form eines Arbeitsplatzgrenzwerts ausgedrückt wird. Die Bestimmung der Situation der „schlechtesten Exposition“ kann ausreichen, um diesen Zweck zu erfüllen. Wenn zu erwarten ist, dass die Exposition im Verhältnis zu den akzeptierten Grenzwerten entweder sehr hoch oder sehr niedrig ist, können die Genauigkeit und Präzision quantitativer Bewertungen geringer sein, als wenn zu erwarten ist, dass die Expositionen näher an den Grenzwerten liegen. Tatsächlich kann es bei offensichtlichen Gefahren klüger sein, zunächst Ressourcen in Kontrollen zu investieren und nach der Einführung von Kontrollen genauere Umweltbewertungen durchzuführen.

                                  Folgebewertungen sind häufig erforderlich, insbesondere wenn die Notwendigkeit bestand, Kontrollmaßnahmen zu installieren oder zu verbessern, oder wenn Änderungen in den verwendeten Verfahren oder verwendeten Materialien vorgesehen waren. In diesen Fällen spielen quantitative Bewertungen eine wichtige Überwachungsrolle bei:

                                  • Bewertung der Angemessenheit, Prüfung der Effizienz oder Offenlegung möglicher Fehler in den Kontrollsystemen
                                  • Erkennen, ob Änderungen in den Prozessen, wie z. B. der Betriebstemperatur, oder in den Rohstoffen die Expositionssituation verändert haben.

                                   

                                  Immer dann, wenn im Rahmen einer epidemiologischen Studie eine arbeitshygienische Erhebung durchgeführt wird, um quantitative Daten zu Zusammenhängen zwischen Exposition und gesundheitlichen Wirkungen zu erhalten, muss die Exposition mit hoher Genauigkeit und Präzision charakterisiert werden. In diesem Fall müssen alle Expositionshöhen angemessen charakterisiert werden, da es beispielsweise nicht ausreicht, nur die Worst-Case-Expositionssituation zu charakterisieren. Es wäre ideal, wenn auch in der Praxis schwierig, immer genaue und genaue Aufzeichnungen zur Expositionsbewertung zu führen, da möglicherweise in Zukunft historische Expositionsdaten benötigt werden.

                                  Um sicherzustellen, dass die Bewertungsdaten repräsentativ für die Exposition der Arbeitnehmer sind und dass keine Ressourcen verschwendet werden, muss eine angemessene Stichprobenstrategie entwickelt und befolgt werden, die alle möglichen Quellen von Schwankungen berücksichtigt. Stichprobenstrategien sowie Messtechniken werden in „Bewertung der Arbeitsumgebung“ behandelt.

                                  Interpretation der Ergebnisse

                                  Der Grad der Unsicherheit bei der Schätzung eines Expositionsparameters, beispielsweise der wahren Durchschnittskonzentration einer luftgetragenen Schadstoffe, wird durch statistische Behandlung der Ergebnisse von Messungen (z. B. Probenahme und Analyse) bestimmt. Das Vertrauen in die Ergebnisse hängt vom Variationskoeffizienten des „Messsystems“ und von der Anzahl der Messungen ab. Sobald ein akzeptables Vertrauen besteht, besteht der nächste Schritt darin, die gesundheitlichen Auswirkungen der Exposition zu berücksichtigen: Was bedeutet dies für die Gesundheit der exponierten Arbeitnehmer: jetzt? in naher Zukunft? in ihrem Berufsleben? Wird es Auswirkungen auf zukünftige Generationen geben?

                                  Der Bewertungsprozess ist erst abgeschlossen, wenn Messergebnisse im Hinblick auf Daten (manchmal als „Daten zur Risikobewertung“ bezeichnet) interpretiert werden, die aus experimenteller Toxikologie, epidemiologischen und klinischen Studien und in bestimmten Fällen aus klinischen Studien stammen. Es sollte klargestellt werden, dass der Begriff Risikobewertung im Zusammenhang mit zwei Arten von Bewertungen verwendet wurde – der Bewertung von Art und Ausmaß des Risikos, das sich aus der Exposition gegenüber Chemikalien oder anderen Stoffen im Allgemeinen ergibt, und der Risikobewertung für einen bestimmten Arbeitnehmer oder eine Gruppe von Arbeitnehmern in einer bestimmten Situation am Arbeitsplatz.

                                  In der Praxis der Arbeitshygiene werden die Ergebnisse der Expositionsbewertung häufig mit angenommenen Grenzwerten für die Exposition am Arbeitsplatz verglichen, die als Orientierungshilfe für die Gefahrenbewertung und für die Festlegung von Zielwerten für die Kontrolle dienen sollen. Eine Exposition, die diese Grenzwerte überschreitet, erfordert sofortige Abhilfemaßnahmen durch die Verbesserung bestehender Kontrollmaßnahmen oder die Einführung neuer. Tatsächlich sollten vorbeugende Maßnahmen auf der „Eingriffsebene“ erfolgen, die von Land zu Land unterschiedlich ist (z. B. die Hälfte oder ein Fünftel des Arbeitsplatzgrenzwerts). Ein niedriges Aktionsniveau ist die beste Garantie, zukünftige Probleme zu vermeiden.

                                  Der Vergleich der Ergebnisse der Expositionsbewertung mit Arbeitsplatzgrenzwerten ist eine Vereinfachung, da neben anderen Einschränkungen viele Faktoren, die die Aufnahme von Chemikalien beeinflussen (z. B. individuelle Empfindlichkeiten, körperliche Aktivität und Körperbau), bei diesem Verfahren nicht berücksichtigt werden. Darüber hinaus gibt es an den meisten Arbeitsplätzen eine gleichzeitige Exposition gegenüber vielen Arbeitsstoffen; Daher ist die Frage der kombinierten Expositionen und Wechselwirkungen von Wirkstoffen ein sehr wichtiges Thema, da sich die gesundheitlichen Folgen der Exposition gegenüber einem bestimmten Wirkstoff allein erheblich von den Folgen der Exposition gegenüber demselben Wirkstoff in Kombination mit anderen unterscheiden können, insbesondere wenn es zu Synergismus oder Potenzierung kommt Auswirkungen.

                                  Messungen zur Kontrolle

                                  Messungen mit dem Ziel, das Vorhandensein von Arbeitsstoffen und die Muster von Expositionsparametern in der Arbeitsumgebung zu untersuchen, können für die Planung und Gestaltung von Kontrollmaßnahmen und Arbeitspraktiken äußerst nützlich sein. Zu den Zielen solcher Messungen gehören:

                                  • Quellenidentifikation und -charakterisierung
                                  • Erkennen kritischer Punkte in geschlossenen Systemen oder Gehäusen (z. B. Leckagen)
                                  • Ermittlung von Ausbreitungswegen im Arbeitsumfeld
                                  • Vergleich verschiedener Regeleingriffe
                                  • Überprüfung, dass sich atembarer Staub zusammen mit dem groben sichtbaren Staub abgesetzt hat, wenn Wassersprays verwendet werden
                                  • überprüfen, ob kontaminierte Luft nicht aus einem angrenzenden Bereich kommt.

                                   

                                  Direkt anzeigende Instrumente sind äußerst nützlich für Kontrollzwecke, insbesondere solche, die für kontinuierliche Probenahmen verwendet werden können und in Echtzeit widerspiegeln, was passiert, wodurch Expositionssituationen offengelegt werden, die andernfalls möglicherweise nicht erkannt werden und die kontrolliert werden müssen. Beispiele für solche Instrumente sind: Photoionisationsdetektoren, Infrarotanalysatoren, Aerosolmeter und Detektorröhrchen. Bei der Probenentnahme, um ein Bild des Verhaltens von Schadstoffen von der Quelle in der gesamten Arbeitsumgebung zu erhalten, sind Genauigkeit und Präzision nicht so entscheidend wie bei der Expositionsbewertung.

                                  Jüngste Entwicklungen bei dieser Art von Messung für Kontrollzwecke schließen Visualisierungstechniken ein, von denen eine Picture Mix Exposure – PIMEX (Rosen 1993) ist. Diese Methode kombiniert ein Videobild des Arbeiters mit einer Skala, die die Schadstoffkonzentrationen in der Luft anzeigt, die kontinuierlich im Atembereich gemessen werden, mit einem Echtzeit-Überwachungsinstrument, wodurch es möglich wird, zu visualisieren, wie sich die Konzentration während der Ausführung der Aufgabe ändert . Dies bietet ein hervorragendes Werkzeug zum Vergleichen der relativen Wirksamkeit verschiedener Kontrollmaßnahmen, wie z. B. Belüftung und Arbeitspraktiken, und trägt so zu einem besseren Design bei.

                                  Messungen sind auch erforderlich, um die Wirksamkeit von Kontrollmaßnahmen zu beurteilen. In diesem Fall ist die Probenahme an der Quelle oder aus der Fläche allein oder zusätzlich zur persönlichen Probenahme für die Bewertung der Exposition der Arbeitnehmer zweckmäßig. Um die Gültigkeit zu gewährleisten, sollten die Orte für „vor“ und „nach“ der Probenahme (oder Messungen) und die verwendeten Techniken in Bezug auf Empfindlichkeit, Genauigkeit und Präzision gleich oder gleichwertig sein.

                                  Gefahrenabwehr und -kontrolle

                                  Oberstes Ziel der Arbeitshygiene ist die Umsetzung geeigneter Maßnahmen zur Gefahrenabwehr und -beherrschung im Arbeitsumfeld. Standards und Vorschriften sind, wenn sie nicht durchgesetzt werden, für den Gesundheitsschutz der Arbeitnehmer bedeutungslos, und die Durchsetzung erfordert normalerweise sowohl Überwachungs- als auch Kontrollstrategien. Das Fehlen gesetzlich festgelegter Standards sollte kein Hindernis für die Umsetzung der erforderlichen Maßnahmen sein, um schädliche Expositionen zu verhindern oder sie auf dem geringstmöglichen Niveau zu kontrollieren. Wenn ernsthafte Gefahren offensichtlich sind, sollte eine Kontrolle empfohlen werden, noch bevor quantitative Bewertungen durchgeführt werden. Es kann manchmal erforderlich sein, das klassische Konzept „Erkennung-Bewertung-Kontrolle“ in „Erkennung-Kontrolle-Bewertung“ oder sogar in „Erkennung-Kontrolle“ zu ändern, wenn keine Möglichkeiten zur Bewertung von Gefährdungen vorhanden sind. Einige Beispiele für Gefahren, bei denen offensichtlich Handlungsbedarf besteht, ohne dass eine vorherige Umgebungsprobenahme erforderlich ist, sind Galvanik, die in einem unbelüfteten, kleinen Raum durchgeführt wird, oder die Verwendung eines Presslufthammers oder einer Sandstrahlausrüstung ohne Umgebungskontrollen oder Schutzausrüstung. Bei solchen anerkannten Gesundheitsgefahren besteht der unmittelbare Bedarf in der Kontrolle, nicht in der quantitativen Bewertung.

                                  Vorbeugende Maßnahmen sollten in irgendeiner Weise die Kette unterbrechen, durch die der gefährliche Stoff – eine Chemikalie, Staub, eine Energiequelle – von der Quelle zum Arbeitnehmer übertragen wird. Es gibt drei Hauptgruppen von Kontrollmaßnahmen: technische Kontrollen, Arbeitspraktiken und persönliche Maßnahmen.

                                  Der effizienteste Ansatz zur Gefahrenprävention ist die Anwendung technischer Kontrollmaßnahmen, die berufliche Expositionen durch Management der Arbeitsumgebung verhindern und so die Notwendigkeit von Initiativen seitens der Arbeitnehmer oder potenziell exponierten Personen verringern. Technische Maßnahmen erfordern normalerweise einige Prozessmodifikationen oder mechanische Strukturen und umfassen technische Maßnahmen, die die Verwendung, Erzeugung oder Freisetzung gefährlicher Stoffe an ihrer Quelle beseitigen oder verringern, oder, wenn die Beseitigung der Quelle nicht möglich ist, sollten technische Maßnahmen zur Verhinderung oder Verringerung konzipiert werden die Ausbreitung gefährlicher Arbeitsstoffe in die Arbeitsumgebung durch:

                                  • sie enthalten
                                  • sie unmittelbar hinter der Quelle zu entfernen
                                  • ihre Vermehrung stören
                                  • Verringerung ihrer Konzentration oder Intensität.

                                   

                                  Kontrollmaßnahmen, die eine gewisse Änderung der Quelle beinhalten, sind der beste Ansatz, da der schädliche Stoff eliminiert oder in seiner Konzentration oder Intensität reduziert werden kann. Maßnahmen zur Reduzierung von Quellen umfassen die Substitution von Materialien, die Substitution/Änderung von Prozessen oder Ausrüstung und eine bessere Wartung der Ausrüstung.

                                  Wenn Änderungen an der Quelle nicht durchführbar oder nicht ausreichend sind, um das gewünschte Maß an Kontrolle zu erreichen, sollte die Freisetzung und Verbreitung gefährlicher Stoffe in der Arbeitsumgebung verhindert werden, indem ihr Übertragungsweg durch Maßnahmen wie Isolierung (z. B. geschlossene Systeme, Einhausungen), örtliche Absaugung, Barrieren und Abschirmungen, Isolierung von Arbeitern.

                                  Andere Maßnahmen, die darauf abzielen, die Exposition in der Arbeitsumgebung zu verringern, umfassen eine angemessene Gestaltung des Arbeitsplatzes, Verdünnungs- oder Verdrängungslüftung, gute Ordnung und angemessene Lagerung. Kennzeichnungs- und Warnschilder können Arbeitnehmer bei sicheren Arbeitspraktiken unterstützen. Überwachungs- und Alarmsysteme können in einem Kontrollprogramm erforderlich sein. Beispiele sind Überwachungsgeräte für Kohlenmonoxid in der Nähe von Öfen, für Schwefelwasserstoff in Abwasseranlagen und für Sauerstoffmangel in geschlossenen Räumen.

                                  Arbeitspraktiken sind ein wichtiger Teil der Kontrolle – zum Beispiel Jobs, bei denen die Arbeitshaltung eines Arbeiters die Exposition beeinflussen kann, z. B. ob sich ein Arbeiter über seine Arbeit beugt. Die Position des Arbeitnehmers kann die Expositionsbedingungen beeinflussen (z. B. Atemzone in Bezug auf die Schadstoffquelle, Möglichkeit der Hautabsorption).

                                  Schließlich kann die berufliche Exposition vermieden oder verringert werden, indem der Arbeitnehmer an der kritischen Eintrittsstelle für den betreffenden Schadstoff (Mund, Nase, Haut, Ohr) mit einer Schutzbarriere versehen wird, dh durch die Verwendung von persönlichen Schutzausrüstungen. Es sollte darauf hingewiesen werden, dass alle anderen Kontrollmöglichkeiten erkundet werden sollten, bevor die Verwendung von persönlicher Schutzausrüstung in Betracht gezogen wird, da dies das am wenigsten zufriedenstellende Mittel zur routinemäßigen Kontrolle der Exposition, insbesondere von Luftschadstoffen, ist.

                                  Andere persönliche vorbeugende Maßnahmen umfassen Aufklärung und Schulung, persönliche Hygiene und Begrenzung der Expositionszeit.

                                  Kontinuierliche Bewertungen durch Umweltüberwachung und Gesundheitsüberwachung sollten Teil jeder Strategie zur Gefahrenprävention und -kontrolle sein.

                                  Eine angemessene Steuerungstechnik für das Arbeitsumfeld muss auch Maßnahmen zur Vermeidung von Umweltbelastungen (Luft, Wasser, Boden) umfassen, einschließlich einer angemessenen Entsorgung gefährlicher Abfälle.

                                  Obwohl die meisten der hier erwähnten Kontrollprinzipien für Luftschadstoffe gelten, sind viele auch auf andere Arten von Gefahren anwendbar. Beispielsweise kann ein Prozess modifiziert werden, um weniger Luftverunreinigungen oder weniger Lärm oder weniger Wärme zu erzeugen. Eine isolierende Barriere kann Arbeiter von einer Lärm-, Wärme- oder Strahlungsquelle isolieren.

                                  Viel zu oft verweilt die Prävention bei den bekanntesten Maßnahmen wie lokaler Absaugung und persönlicher Schutzausrüstung, ohne andere wertvolle Kontrolloptionen wie alternative Reinigungstechnologien, Ersatz von Materialien, Änderung von Prozessen und gute Arbeitspraktiken angemessen zu berücksichtigen. Oftmals werden Arbeitsabläufe als unveränderlich angesehen, wenn in der Realität Änderungen vorgenommen werden können, die die damit verbundenen Gefährdungen wirksam verhindern oder zumindest verringern.

                                  Gefahrenverhütung und -beherrschung in der Arbeitsumgebung erfordert Wissen und Einfallsreichtum. Eine wirksame Kontrolle erfordert nicht unbedingt sehr kostspielige und komplizierte Maßnahmen. In vielen Fällen kann die Gefahrenkontrolle durch geeignete Technologie erreicht werden, die so einfach sein kann wie ein Stück undurchlässiges Material zwischen der nackten Schulter eines Hafenarbeiters und einem Beutel mit giftigem Material, das durch die Haut aufgenommen werden kann. Es kann auch aus einfachen Verbesserungen bestehen, wie z. B. das Anbringen einer beweglichen Barriere zwischen einer UV-Quelle und einem Arbeiter oder die Schulung von Arbeitern in sicheren Arbeitspraktiken.

                                  Zu berücksichtigende Aspekte bei der Auswahl geeigneter Bekämpfungsstrategien und -technologien umfassen die Art des gefährlichen Stoffs (Art, physikalischer Zustand, Auswirkungen auf die Gesundheit, Eintrittswege in den Körper), Art der Quelle(n), Ausmaß und Bedingungen der Exposition, Eigenschaften von der Arbeitsplatz und die relative Lage der Arbeitsplätze.

                                  Die erforderlichen Fähigkeiten und Ressourcen für den korrekten Entwurf, die Implementierung, den Betrieb, die Bewertung und die Wartung von Steuerungssystemen müssen sichergestellt werden. Systeme wie lokale Absaugung müssen nach der Installation bewertet und danach routinemäßig überprüft werden. Nur regelmäßige Überwachung und Wartung können dauerhafte Effizienz gewährleisten, da selbst gut konzipierte Systeme ihre Anfangsleistung verlieren können, wenn sie vernachlässigt werden.

                                  Kontrollmaßnahmen sollten in Gefahrenverhütungs- und Kontrollprogramme mit klaren Zielen und effizientem Management integriert werden, wobei multidisziplinäre Teams aus Arbeitshygienikern und anderem Gesundheits- und Sicherheitspersonal am Arbeitsplatz, Produktionsingenieuren, Management und Arbeitern einzubeziehen sind. Die Programme müssen auch Aspekte wie Gefahrenkommunikation, Schulung und Schulung zu sicheren Arbeitspraktiken und Notfallverfahren umfassen.

                                  Auch gesundheitsfördernde Aspekte sollten einbezogen werden, da der Arbeitsplatz ein ideales Umfeld ist, um eine gesunde Lebensweise im Allgemeinen zu fördern und vor den Gefahren gefährlicher nichtberuflicher Expositionen zu warnen, die beispielsweise durch Schießen ohne angemessenen Schutz oder Rauchen verursacht werden.

                                  Die Zusammenhänge zwischen Arbeitshygiene, Gefährdungsbeurteilung und Risikomanagement

                                  Risikobewertung

                                  Die Risikobewertung ist eine Methodik, die darauf abzielt, die Arten von gesundheitlichen Auswirkungen zu charakterisieren, die als Folge einer bestimmten Exposition gegenüber einem bestimmten Stoff erwartet werden, sowie Schätzungen zur Wahrscheinlichkeit des Auftretens dieser gesundheitlichen Auswirkungen bei unterschiedlichen Expositionsniveaus bereitzustellen. Es wird auch verwendet, um bestimmte Risikosituationen zu charakterisieren. Es umfasst die Identifizierung von Gefahren, die Festlegung von Expositions-Wirkungs-Beziehungen und die Expositionsbewertung, die zur Risikocharakterisierung führt.

                                  Der erste Schritt bezieht sich auf die Identifizierung eines Wirkstoffs – beispielsweise einer Chemikalie – als Verursacher einer gesundheitsschädlichen Wirkung (z. B. Krebs oder systemische Vergiftung). Im zweiten Schritt wird festgestellt, wie viel Exposition bei wie vielen der exponierten Personen wie viel von einer bestimmten Wirkung hervorruft. Dieses Wissen ist für die Interpretation von Expositionsabschätzungsdaten unerlässlich.

                                  Die Expositionsabschätzung ist Teil der Risikoabschätzung, sowohl bei der Gewinnung von Daten zur Charakterisierung einer Risikosituation als auch bei der Gewinnung von Daten zur Ermittlung von Expositions-Wirkungs-Beziehungen aus epidemiologischen Studien. Im letzteren Fall muss die Exposition, die zu einer bestimmten arbeits- oder umweltbedingten Wirkung geführt hat, genau charakterisiert werden, um die Gültigkeit der Korrelation zu gewährleisten.

                                  Obwohl die Risikobewertung für viele Entscheidungen, die in der Praxis der Arbeitshygiene getroffen werden, von grundlegender Bedeutung ist, hat sie nur begrenzte Auswirkungen auf den Schutz der Gesundheit der Arbeitnehmer, wenn sie nicht in tatsächliche Präventionsmaßnahmen am Arbeitsplatz umgesetzt wird.

                                  Die Risikobewertung ist ein dynamischer Prozess, da neue Erkenntnisse häufig schädliche Wirkungen von Stoffen offenbaren, die bis dahin als relativ harmlos galten; daher muss der Arbeitshygieniker jederzeit Zugang zu aktuellen toxikologischen Informationen haben. Eine weitere Implikation ist, dass Expositionen immer auf das niedrigstmögliche Niveau kontrolliert werden sollten.

                                  Abbildung 3 dient zur Veranschaulichung verschiedener Elemente der Risikobewertung.

                                  Abbildung 3. Elemente der Risikobewertung.

                                  IHY010F3

                                  Risikomanagement im Arbeitsumfeld

                                  Es ist nicht immer möglich, alle gesundheitsgefährdenden Arbeitsstoffe zu eliminieren, da einige unverzichtbare oder wünschenswerte Arbeitsprozesse sind; Risiken können und müssen jedoch gemanagt werden.

                                  Die Risikobewertung bildet die Grundlage für das Risikomanagement. Während die Risikobewertung ein wissenschaftliches Verfahren ist, ist das Risikomanagement pragmatischer und umfasst Entscheidungen und Maßnahmen, die darauf abzielen, das Auftreten von Stoffen zu verhindern oder auf ein akzeptables Maß zu reduzieren, die eine Gefahr für die Gesundheit von Arbeitnehmern, umliegenden Gemeinden und der Umwelt darstellen können , wobei auch der sozioökonomische und öffentliche Gesundheitskontext berücksichtigt wird.

                                  Das Risikomanagement findet auf verschiedenen Ebenen statt; Entscheidungen und Maßnahmen auf nationaler Ebene ebnen den Weg für die Praxis des Risikomanagements auf Arbeitsplatzebene.

                                  Risikomanagement auf Arbeitsplatzebene erfordert Informationen und Kenntnisse über:

                                  • Gesundheitsgefahren und deren Ausmaß, die gemäß den Ergebnissen der Risikobewertung identifiziert und bewertet werden
                                  • gesetzliche Vorschriften und Normen
                                  • technologische Machbarkeit im Hinblick auf die verfügbare und anwendbare Steuerungstechnologie
                                  • wirtschaftliche Aspekte, wie z. B. die Kosten für Entwurf, Implementierung, Betrieb und Wartung von Kontrollsystemen und Kosten-Nutzen-Analyse (Kontrollkosten im Vergleich zu finanziellen Vorteilen, die durch die Kontrolle von Arbeits- und Umweltgefahren entstehen)
                                  • Humanressourcen (verfügbar und erforderlich)
                                  • sozioökonomischer und öffentlicher Gesundheitskontext

                                   

                                  als Grundlage für Entscheidungen dienen, die Folgendes beinhalten:

                                  • Festlegung eines Kontrollziels
                                  • Auswahl geeigneter Bekämpfungsstrategien und -technologien
                                  • Festlegung von Handlungsprioritäten im Hinblick auf die Risikolage sowie den bestehenden sozioökonomischen und gesundheitspolitischen Kontext (besonders wichtig in Entwicklungsländern)

                                   

                                  und die zu Aktionen führen sollte wie:

                                  • Identifizierung/Suche von finanziellen und personellen Ressourcen (falls noch nicht vorhanden)
                                  • Konzipierung spezifischer Kontrollmaßnahmen, die dem Schutz der Gesundheit der Arbeitnehmer und der Umwelt sowie der größtmöglichen Bewahrung der natürlichen Ressourcenbasis angemessen sein sollten
                                  • Umsetzung von Kontrollmaßnahmen, einschließlich Vorkehrungen für angemessene Betriebs-, Wartungs- und Notfallverfahren
                                  • Einrichtung eines Gefahrenverhütungs- und Kontrollprogramms mit angemessenem Management und routinemäßiger Überwachung.

                                   

                                  Traditionell ist der Beruf, der für die meisten dieser Entscheidungen und Handlungen am Arbeitsplatz verantwortlich ist, die Arbeitshygiene.

                                  Eine Schlüsselentscheidung im Risikomanagement, die des akzeptablen Risikos (welche Auswirkungen können akzeptiert werden, in welchem ​​​​Prozentsatz der arbeitenden Bevölkerung, wenn überhaupt?), wird normalerweise, aber nicht immer, auf nationaler Ebene getroffen und befolgt B. durch die Verabschiedung von Arbeitsplatzgrenzwerten und die Verkündung arbeitsmedizinischer Vorschriften und Standards. Dies führt zur Festlegung von Kontrollzielen, normalerweise auf Arbeitsplatzebene durch den Arbeitshygieniker, der die gesetzlichen Anforderungen kennen sollte. Es kann jedoch vorkommen, dass Entscheidungen über akzeptable Risiken vom Arbeitshygieniker auf Arbeitsplatzebene getroffen werden müssen – beispielsweise in Situationen, in denen keine Standards verfügbar sind oder nicht alle potenziellen Expositionen abdecken.

                                  All diese Entscheidungen und Maßnahmen müssen in einen realistischen Plan integriert werden, was eine multidisziplinäre und multisektorale Koordination und Zusammenarbeit erfordert. Obwohl Risikomanagement pragmatische Ansätze beinhaltet, sollte seine Effizienz wissenschaftlich evaluiert werden. Leider sind Risikomanagementmaßnahmen in den meisten Fällen ein Kompromiss zwischen dem, was getan werden sollte, um Risiken zu vermeiden, und dem Besten, was angesichts finanzieller und anderer Beschränkungen in der Praxis getan werden kann.

                                  Das Risikomanagement in Bezug auf das Arbeitsumfeld und das allgemeine Umfeld sollte gut koordiniert sein; es gibt nicht nur bereichsüberschneidungen, sondern in den meisten situationen ist der erfolg des einen mit dem erfolg des anderen verknüpft.

                                  Arbeitshygieneprogramme und -dienste

                                  Der politische Wille und die Entscheidungsfindung auf nationaler Ebene beeinflussen direkt oder indirekt die Einrichtung von Arbeitshygieneprogrammen oder -diensten, entweder auf staatlicher oder privater Ebene. Es würde den Rahmen dieses Artikels sprengen, detaillierte Modelle für alle Arten von Arbeitshygieneprogrammen und -diensten bereitzustellen; Es gibt jedoch allgemeine Prinzipien, die auf viele Situationen anwendbar sind und zu ihrer effizienten Implementierung und Anwendung beitragen können.

                                  Ein umfassender arbeitshygienischer Dienst sollte in der Lage sein, angemessene Voruntersuchungen, Probenahmen, Messungen und Analysen zur Gefährdungsbeurteilung und zu Kontrollzwecken durchzuführen und Kontrollmaßnahmen zu empfehlen, wenn nicht sogar zu konzipieren.

                                  Schlüsselelemente eines umfassenden Arbeitshygieneprogramms oder -dienstes sind menschliche und finanzielle Ressourcen, Einrichtungen, Ausrüstung und Informationssysteme, die durch sorgfältige Planung gut organisiert und koordiniert sind, unter effizienter Verwaltung stehen und auch Qualitätssicherung und kontinuierliche Programmbewertung beinhalten. Erfolgreiche Arbeitshygieneprogramme erfordern eine politische Grundlage und das Engagement des Top-Managements. Die Beschaffung von Finanzmitteln geht über den Rahmen dieses Artikels hinaus.

                                  Personal

                                  Angemessene Humanressourcen sind das wichtigste Kapital jedes Programms und sollten vorrangig sichergestellt werden. Alle Mitarbeiter sollten klare Aufgabenbeschreibungen und Verantwortlichkeiten haben. Falls erforderlich, sollten Vorkehrungen für Aus- und Weiterbildung getroffen werden. Zu den Grundvoraussetzungen für Arbeitshygieneprogramme gehören:

                                  • Arbeitshygieniker – Zusätzlich zu allgemeinen Kenntnissen über die Erkennung, Bewertung und Kontrolle von Berufsgefahren können Arbeitshygieniker auf bestimmte Bereiche spezialisiert sein, z. B. analytische Chemie oder industrielle Lüftung; Idealerweise verfügt man über ein Team von gut ausgebildeten Fachleuten in der umfassenden Praxis der Arbeitshygiene und in allen erforderlichen Fachgebieten
                                  • Laborpersonal, Chemiker (je nach Umfang der analytischen Arbeiten)
                                  • Techniker und Assistenten, für Feldvermessungen und für Labors sowie für die Wartung und Reparatur von Instrumenten
                                  • Informationsspezialisten und administrative Unterstützung.

                                   

                                  Ein wichtiger Aspekt ist die Fachkompetenz, die nicht nur erworben, sondern auch erhalten werden muss. Kontinuierliche Weiterbildung, innerhalb oder außerhalb des Programms oder Dienstes, sollte beispielsweise Aktualisierungen der Gesetzgebung, neue Fortschritte und Techniken sowie Wissenslücken abdecken. Auch die Teilnahme an Konferenzen, Symposien und Workshops trägt zum Kompetenzerhalt bei.

                                  Gesundheit und Sicherheit für das Personal

                                  Gesundheit und Sicherheit sollten für alle Mitarbeiter in Feldstudien, Labors und Büros gewährleistet sein. Arbeitshygieniker können ernsthaften Gefahren ausgesetzt sein und sollten die erforderliche persönliche Schutzausrüstung tragen. Je nach Art der Arbeit kann eine Impfung erforderlich sein. Handelt es sich um ländliche Arbeit, sollten je nach Region Vorkehrungen getroffen werden, z. B. Gegenmittel für Schlangenbisse. Laborsicherheit ist ein Spezialgebiet, das an anderer Stelle in diesem Dokument diskutiert wird Enzyklopädie.

                                  Arbeitsgefahren in Büros sollten nicht außer Acht gelassen werden – zum Beispiel die Arbeit mit Bildschirmgeräten und Schadstoffquellen in Innenräumen wie Laserdrucker, Kopierer und Klimaanlagen. Ergonomische und psychosoziale Faktoren sollten ebenfalls berücksichtigt werden.

                                  Einrichtungen

                                  Dazu gehören Büros und Besprechungsräume, Labors und Geräte, Informationssysteme und Bibliothek. Die Einrichtungen sollten gut gestaltet sein und zukünftige Anforderungen berücksichtigen, da spätere Umzüge und Anpassungen normalerweise kostspieliger und zeitaufwändiger sind.

                                  Labore und Geräte für Arbeitshygiene

                                  Laboratorien für Arbeitshygiene sollten grundsätzlich in der Lage sein, qualitative und quantitative Bewertungen der Exposition gegenüber luftgetragenen Schadstoffen (Chemikalien und Stäube), physikalischen Einwirkungen (Lärm, Hitzebelastung, Strahlung, Beleuchtung) und biologischen Einwirkungen durchzuführen. Bei den meisten biologischen Arbeitsstoffen reichen qualitative Bewertungen aus, um Kontrollen zu empfehlen, wodurch die normalerweise schwierigen quantitativen Bewertungen entfallen.

                                  Obwohl einige direkt anzeigende Instrumente für luftgetragene Schadstoffe Einschränkungen für Expositionsbewertungszwecke aufweisen können, sind diese äußerst nützlich für die Erkennung von Gefahren und die Identifizierung ihrer Quellen, die Bestimmung von Konzentrationsspitzen, die Erfassung von Daten für Kontrollmaßnahmen und für die Überprüfung an Steuerungen wie Lüftungsanlagen. In Verbindung mit letzterem werden auch Instrumente zur Überprüfung der Luftgeschwindigkeit und des statischen Drucks benötigt.

                                  Eine der möglichen Strukturen würde die folgenden Einheiten umfassen:

                                  • Feldgeräte (Probenahme, Direktablesung)
                                  • Analytisches Labor
                                  • Partikel Labor
                                  • physikalische Einwirkungen (Lärm, thermische Umgebung, Beleuchtung und Strahlung)
                                  • Werkstatt für Wartung und Reparatur von Instrumenten.

                                   

                                  Bei der Auswahl arbeitshygienischer Geräte sind neben den Leistungsmerkmalen auch praktische Aspekte im Hinblick auf die zu erwartenden Einsatzbedingungen zu berücksichtigen – beispielsweise vorhandene Infrastruktur, Klima, Standort. Diese Aspekte umfassen Tragbarkeit, erforderliche Energiequelle, Kalibrierungs- und Wartungsanforderungen und Verfügbarkeit der erforderlichen Verbrauchsmaterialien.

                                  Ausrüstung sollte nur gekauft werden, wenn und wann:

                                  • es besteht ein echter Bedarf
                                  • Kenntnisse für den sachgerechten Betrieb, Wartung und Reparatur vorhanden sind
                                  • das komplette Verfahren wurde entwickelt, da es beispielsweise keinen Sinn macht, Probenahmepumpen ohne ein Labor zur Analyse der Proben (oder eine Vereinbarung mit einem externen Labor) zu kaufen.

                                   

                                  Die Kalibrierung aller Arten arbeitshygienischer Mess- und Probenahme- sowie Analysegeräte sollte ein integraler Bestandteil jedes Verfahrens sein, und die erforderliche Ausrüstung sollte verfügbar sein.

                                  Wartung und Reparaturen sind unerlässlich, um zu verhindern, dass Geräte längere Zeit stillstehen, und sollten von den Herstellern entweder durch direkte Unterstützung oder durch Schulung des Personals sichergestellt werden.

                                  Wenn ein komplett neues Programm entwickelt wird, sollte zunächst nur eine Grundausstattung angeschafft werden, weitere Artikel werden hinzugefügt, wenn der Bedarf ermittelt und die Betriebsfähigkeit sichergestellt ist. Doch noch bevor Geräte und Labore verfügbar und betriebsbereit sind, kann viel erreicht werden, indem Arbeitsplätze inspiziert werden, um Gesundheitsgefahren qualitativ zu bewerten, und indem Kontrollmaßnahmen für erkannte Gefahren empfohlen werden. Mangelnde Fähigkeit zur Durchführung quantitativer Expositionsbewertungen sollte niemals eine Untätigkeit in Bezug auf offensichtlich gefährliche Expositionen rechtfertigen. Dies gilt insbesondere für Situationen, in denen Gefahren am Arbeitsplatz unkontrolliert sind und starke Expositionen üblich sind.

                                  Informationen

                                  Dazu gehören Bibliothek (Bücher, Zeitschriften und andere Publikationen), Datenbanken (z. B. auf CD-ROM) und Kommunikation.

                                  Soweit möglich, sollten PCs und CD-ROM-Lesegeräte sowie Verbindungen zum INTERNET bereitgestellt werden. Es gibt immer mehr Möglichkeiten für vernetzte öffentliche Online-Informationsserver (World Wide Web und GOPHER-Sites), die Zugang zu einer Fülle von Informationsquellen bieten, die für die Gesundheit von Arbeitnehmern relevant sind, und daher Investitionen in Computer und Kommunikation voll rechtfertigen. Solche Systeme sollten E-Mail umfassen, das neue Horizonte für Kommunikation und Diskussionen eröffnet, entweder einzeln oder in Gruppen, und so den Informationsaustausch auf der ganzen Welt erleichtert und fördert.

                                  Planung

                                  Eine rechtzeitige und sorgfältige Planung für die Umsetzung, das Management und die regelmäßige Bewertung eines Programms ist wesentlich, um sicherzustellen, dass die Ziele erreicht werden, während die verfügbaren Ressourcen optimal genutzt werden.

                                  Zunächst sollten folgende Informationen eingeholt und analysiert werden:

                                  • Art und Ausmaß der vorherrschenden Gefahren, um Prioritäten festzulegen
                                  • gesetzliche Anforderungen (Gesetze, Normen)
                                  • verfügbare Ressourcen
                                  • Infrastruktur und Supportleistungen.

                                   

                                  Zu den Planungs- und Organisationsprozessen gehören:

                                  • Festlegung des Zwecks des Programms oder der Dienstleistung, Definition der Ziele und des Umfangs der Aktivitäten im Hinblick auf die erwartete Nachfrage und die verfügbaren Ressourcen
                                  • Zuweisung von Ressourcen
                                  • Definition der Organisationsstruktur
                                  • Profil der erforderlichen Humanressourcen und Pläne für deren Entwicklung (falls erforderlich)
                                  • klare Zuordnung von Verantwortlichkeiten zu Einheiten, Teams und Einzelpersonen
                                  • Design/Anpassung der Einrichtungen
                                  • Auswahl an Ausrüstung
                                  • Betriebsanforderungen
                                  • Einrichtung von Mechanismen für die Kommunikation innerhalb und außerhalb des Dienstes
                                  • Zeitplan.

                                   

                                  Die Betriebskosten sollten nicht unterschätzt werden, da ein Mangel an Ressourcen die Kontinuität eines Programms ernsthaft behindern kann. Zu den nicht zu vernachlässigenden Anforderungen gehören:

                                  • Kauf von Verbrauchsmaterialien (einschließlich Artikel wie Filter, Prüfröhrchen, Aktivkohleröhrchen, Reagenzien), Ersatzteile für Geräte usw.
                                  • Wartung und Reparatur von Geräten
                                  • Transport (Fahrzeuge, Kraftstoff, Wartung) und Reisen
                                  • Informationsaktualisierung.

                                   

                                  Ressourcen müssen durch sorgfältiges Studium aller Elemente optimiert werden, die als integrale Bestandteile eines umfassenden Dienstes betrachtet werden sollten. Eine ausgewogene Verteilung der Ressourcen auf die verschiedenen Einheiten (Feldmessungen, Probenahmen, Analyselabore usw.) und alle Komponenten (Einrichtungen und Ausrüstung, Personal, betriebliche Aspekte) ist für ein erfolgreiches Programm unerlässlich. Darüber hinaus sollte die Zuweisung von Ressourcen Flexibilität ermöglichen, da arbeitshygienische Dienste möglicherweise Anpassungen unterzogen werden müssen, um auf den tatsächlichen Bedarf zu reagieren, der regelmäßig bewertet werden sollte.

                                  Kommunikation, Austausch und Zusammenarbeit sind Schlüsselwörter für erfolgreiche Teamarbeit und gesteigerte individuelle Fähigkeiten. Wirksame Kommunikationsmechanismen innerhalb und außerhalb des Programms sind erforderlich, um den erforderlichen multidisziplinären Ansatz für den Schutz und die Förderung der Gesundheit der Arbeitnehmer zu gewährleisten. Es sollte eine enge Zusammenarbeit mit anderen arbeitsmedizinischen Fachkräften stattfinden, insbesondere mit Arbeitsmedizinern und -pflegern, Ergonomen und Arbeitspsychologen sowie Sicherheitsfachkräften. Auf Arbeitsplatzebene sollte dies Arbeitnehmer, Produktionspersonal und Manager umfassen.

                                  Die Umsetzung erfolgreicher Programme ist ein schrittweiser Prozess. Daher sollte in der Planungsphase ein realistischer Zeitplan nach feststehenden Prioritäten und unter Berücksichtigung der verfügbaren Ressourcen erstellt werden.

                                  Management

                                  Das Management umfasst die Entscheidungsfindung hinsichtlich der zu erreichenden Ziele und der erforderlichen Maßnahmen, um diese Ziele effizient zu erreichen, unter Beteiligung aller Beteiligten, sowie das Vorhersehen und Vermeiden oder Erkennen und Lösen von Problemen, die Hindernisse für die Verwirklichung des Ziels darstellen können erforderliche Aufgaben. Es sollte beachtet werden, dass wissenschaftliche Erkenntnisse keine Garantie für die Managementkompetenz sind, die für die Durchführung eines effizienten Programms erforderlich ist.

                                  Die Bedeutung der Implementierung und Durchsetzung korrekter Verfahren und der Qualitätssicherung kann nicht genug betont werden, da es einen großen Unterschied zwischen geleisteter und gut erledigter Arbeit gibt. Außerdem sollten die wirklichen Ziele, nicht die Zwischenschritte, als Maßstab dienen; Die Effizienz eines Arbeitshygieneprogramms sollte nicht an der Anzahl der durchgeführten Erhebungen gemessen werden, sondern an der Anzahl der Erhebungen, die zu tatsächlichen Maßnahmen zum Schutz der Gesundheit der Arbeitnehmer geführt haben.

                                  Gutes Management sollte zwischen Beeindruckendem und Wichtigem unterscheiden können; Sehr detaillierte Erhebungen mit Probenahmen und Analysen, die sehr genaue und präzise Ergebnisse liefern, mögen sehr beeindruckend sein, aber was wirklich wichtig ist, sind die Entscheidungen und Maßnahmen, die danach getroffen werden.

                                  Qualitätssicherung

                                  Das Konzept der Qualitätssicherung, einschließlich Qualitätskontrolle und Eignungsprüfung, bezieht sich hauptsächlich auf Tätigkeiten, die Messungen beinhalten. Obwohl diese Konzepte häufiger im Zusammenhang mit analytischen Laboratorien in Betracht gezogen wurden, muss ihr Anwendungsbereich erweitert werden, um auch Probenahmen und Messungen einzuschließen.

                                  Wann immer Probenahme und Analyse erforderlich sind, sollte das gesamte Verfahren unter Qualitätsgesichtspunkten als eins betrachtet werden. Da keine Kette stärker ist als das schwächste Glied, ist es eine Verschwendung von Ressourcen, für die verschiedenen Schritte ein und desselben Bewertungsverfahrens Instrumente und Techniken unterschiedlicher Qualität einzusetzen. Die Genauigkeit und Präzision einer sehr guten Analysenwaage kann eine Pumpenprobenahme mit falscher Durchflussrate nicht kompensieren.

                                  Die Leistungsfähigkeit von Laboratorien muss überprüft werden, damit Fehlerquellen identifiziert und behoben werden können. Es bedarf eines systematischen Vorgehens, um die zahlreichen Details im Griff zu behalten. Es ist wichtig, Qualitätssicherungsprogramme für arbeitshygienische Laboratorien einzurichten, und dies bezieht sich sowohl auf die interne Qualitätskontrolle als auch auf externe Qualitätsbewertungen (häufig als „Eignungsprüfungen“ bezeichnet).

                                  Bei Probenahmen oder Messungen mit direkt anzeigenden Instrumenten (einschließlich der Messung physikalischer Einwirkungen) bedeutet Qualität angemessen und korrekt:

                                  • Vorstudien, einschließlich der Ermittlung möglicher Gefahren und der für die Gestaltung der Strategie erforderlichen Faktoren
                                  • Entwurf der Stichproben- (oder Mess-) Strategie
                                  • Auswahl und Verwendung von Methoden und Geräten für Probenahmen oder Messungen unter Berücksichtigung sowohl des Untersuchungszwecks als auch der Qualitätsanforderungen
                                  • Durchführung der Verfahren, einschließlich Zeitüberwachung
                                  • Handhabung, Transport und Lagerung von Proben (falls zutreffend).

                                   

                                  In Bezug auf das Analyselabor bedeutet Qualität angemessen und richtig:

                                  • Planung und Installation der Anlagen
                                  • Auswahl und Einsatz validierter Analysemethoden (bzw. ggf. Validierung von Analysemethoden)
                                  • Auswahl und Installation der Instrumentierung
                                  • ausreichende Versorgung (Reagenzien, Referenzproben etc.).

                                   

                                  Für beides ist unabdingbar:

                                  • klare Protokolle, Verfahren und schriftliche Anweisungen
                                  • routinemäßige Kalibrierung und Wartung der Ausrüstung
                                  • Schulung und Motivation des Personals zur angemessenen Durchführung der erforderlichen Verfahren
                                  • angemessene Bewirtschaftung
                                  • interne Qualitätskontrolle
                                  • externe Qualitätsbewertung oder Eignungsprüfung (falls zutreffend).

                                   

                                  Darüber hinaus ist eine korrekte Behandlung der erhaltenen Daten und Interpretation der Ergebnisse sowie eine genaue Berichterstattung und Aufzeichnung unerlässlich.

                                  Die Laborakkreditierung, definiert von CEN (EN 45001) als „formelle Anerkennung, dass ein Prüflabor kompetent ist, bestimmte Tests oder bestimmte Arten von Tests durchzuführen“, ist ein sehr wichtiges Kontrollinstrument und sollte gefördert werden. Sie sollte sowohl die Probenahme als auch die Analyseverfahren abdecken.

                                  Programmevaluierung

                                  Der Qualitätsbegriff muss auf alle Schritte der arbeitshygienischen Praxis angewendet werden, von der Erkennung von Gefahren bis zur Umsetzung von Gefahrenverhütungs- und Kontrollprogrammen. Vor diesem Hintergrund müssen Arbeitshygieneprogramme und -dienste regelmäßig und kritisch bewertet werden, um eine kontinuierliche Verbesserung anzustreben.

                                  Abschließende Bemerkungen

                                  Arbeitshygiene ist für den Schutz der Gesundheit der Arbeitnehmer und der Umwelt unerlässlich. Seine Praxis umfasst viele Schritte, die miteinander verknüpft sind und für sich genommen keine Bedeutung haben, sondern in einen umfassenden Ansatz integriert werden müssen.

                                   

                                  Zurück

                                  Die Toxikologie spielt eine wichtige Rolle bei der Entwicklung von Vorschriften und anderen Arbeitsschutzmaßnahmen. Um Arbeitsunfälle und Berufskrankheiten zu vermeiden, basieren Entscheidungen zunehmend auf Informationen, die vor oder ohne die Art der menschlichen Exposition erhältlich sind, die definitive Informationen über das Risiko liefern würden, wie z. B. epidemiologische Studien. Darüber hinaus können toxikologische Studien, wie sie in diesem Kapitel beschrieben werden, genaue Informationen über Dosis und Wirkung unter den kontrollierten Bedingungen der Laborforschung liefern; Diese Informationen sind in der unkontrollierten Umgebung beruflicher Expositionen oft schwer zu erhalten. Diese Informationen müssen jedoch sorgfältig ausgewertet werden, um die Wahrscheinlichkeit schädlicher Wirkungen beim Menschen, die Art dieser schädlichen Wirkungen und die quantitative Beziehung zwischen Expositionen und Wirkungen abzuschätzen.

                                  Seit den 1980er Jahren wurde in vielen Ländern der Entwicklung objektiver Methoden zur Nutzung toxikologischer Informationen bei der Entscheidungsfindung in Regulierungsfragen große Aufmerksamkeit geschenkt. Formale Methoden, häufig bezeichnet als Risikobewertung, wurden in diesen Ländern sowohl von Regierungs- als auch von Nichtregierungsorganisationen vorgeschlagen und verwendet. Die Risikobewertung wurde unterschiedlich definiert; Grundsätzlich handelt es sich um einen Bewertungsprozess, der Toxikologie, Epidemiologie und Expositionsinformationen umfasst, um die Wahrscheinlichkeit unerwünschter Wirkungen im Zusammenhang mit der Exposition gegenüber gefährlichen Stoffen oder Bedingungen zu identifizieren und abzuschätzen. Die Risikobewertung kann qualitativer Natur sein und die Art einer nachteiligen Wirkung und eine allgemeine Schätzung der Wahrscheinlichkeit angeben, oder sie kann quantitativ sein und Schätzungen der Anzahl betroffener Personen bei bestimmten Expositionsniveaus enthalten. In vielen Regulierungssystemen erfolgt die Risikobewertung in vier Stufen: Gefahrenerkennung, die Beschreibung der Art der toxischen Wirkung; Dosis-Wirkungs-Bewertung, eine halbquantitative oder quantitative Analyse der Beziehung zwischen Exposition (oder Dosis) und Schweregrad oder Wahrscheinlichkeit einer toxischen Wirkung; Expositionsbewertung, die Bewertung von Informationen über die Bandbreite der Expositionen, die für Bevölkerungsgruppen im Allgemeinen oder für Untergruppen innerhalb von Bevölkerungsgruppen wahrscheinlich auftreten; Risikocharakterisierung, die Zusammenstellung aller oben genannten Informationen zu einem Ausdruck der Größenordnung des Risikos, das unter bestimmten Expositionsbedingungen zu erwarten ist (siehe NRC 1983 für eine Erklärung dieser Grundsätze).

                                  In diesem Abschnitt werden zur Veranschaulichung drei Ansätze zur Risikobewertung vorgestellt. Es ist unmöglich, ein umfassendes Kompendium von Risikobewertungsmethoden bereitzustellen, die weltweit verwendet werden, und diese Auswahl sollte nicht als verbindlich angesehen werden. Es sollte beachtet werden, dass es Tendenzen zur Harmonisierung von Risikobewertungsmethoden gibt, teilweise als Reaktion auf Bestimmungen in den jüngsten GATT-Abkommen. Derzeit laufen zwei Prozesse zur internationalen Harmonisierung von Risikobewertungsmethoden durch das Internationale Programm für Chemikaliensicherheit (IPCS) und die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD). Diese Organisationen halten auch aktuelle Informationen über nationale Ansätze zur Risikobewertung bereit.

                                   

                                  Zurück

                                  Die WHO (Weltgesundheitsorganisation) führte 1980 eine Klassifikation der Funktionseinschränkung bei Menschen ein; die ICIDH (Internationale Klassifikation für Beeinträchtigung, Behinderung und Handicap). Bei dieser Einteilung wird zwischen Krankheit, Einschränkung und Behinderung unterschieden.

                                  Dieses Referenzmodell wurde geschaffen, um die internationale Kommunikation zu erleichtern. Das Modell wurde einerseits vorgestellt, um politischen Entscheidungsträgern einen Bezugsrahmen zu bieten, und andererseits um Ärzten einen Bezugsrahmen zu bieten, die Menschen mit Krankheitsfolgen diagnostizieren.

                                  Warum dieser Referenzrahmen? Es entstand mit dem Ziel, die Teilhabe von Menschen mit dauerhaft eingeschränkten Fähigkeiten zu verbessern und zu steigern. Zwei Ziele werden genannt:

                                  • die Rehabilitationsperspektive, also die Wiedereingliederung von Menschen in die Gesellschaft, sei es Arbeit, Schule, Haushalt etc.
                                  • die Vorbeugung von Krankheiten und nach Möglichkeit von Krankheitsfolgen, z. B. Invalidität und Behinderung.

                                   

                                  Ab dem 1. Januar 1994 ist die Klassifizierung offiziell. Die darauf folgenden Aktivitäten sind breit gefächert und befassen sich insbesondere mit Themen wie: Informations- und Bildungsmaßnahmen für bestimmte Gruppen; Vorschriften zum Schutz der Arbeitnehmer; oder fordert zum Beispiel, dass Unternehmen zum Beispiel mindestens 5 Prozent Arbeitnehmer mit einer Behinderung beschäftigen sollten. Die Einstufung selbst führt langfristig zu Integration und Nichtdiskriminierung.

                                  Krankheit

                                  Krankheit trifft jeden von uns. Bestimmten Krankheiten kann vorgebeugt werden, anderen nicht. Manche Krankheiten sind heilbar, andere nicht. Krankheiten sollen nach Möglichkeit verhindert und wenn möglich geheilt werden.

                                  Beeinträchtigung

                                  Beeinträchtigung bedeutet jedes Fehlen oder jede Anomalie einer psychologischen, physiologischen oder anatomischen Struktur oder Funktion.

                                  Mit drei statt fünf Fingern geboren zu sein, muss nicht zu einer Behinderung führen. Die Fähigkeiten der Person und der mit den drei Fingern mögliche Manipulationsgrad bestimmen, ob die Person behindert ist oder nicht. Wenn jedoch auf einer zentralen Ebene im Gehirn eine ausreichende Signalverarbeitung nicht möglich ist, führt die Beeinträchtigung mit Sicherheit zu einer Behinderung, da es derzeit keine Methode gibt, dieses Problem für den Patienten zu „heilen“ (zu lösen).

                                  Behinderung

                                  Behinderung beschreibt das funktionelle Niveau einer Person, die Schwierigkeiten bei der Ausführung von Aufgaben hat, z. B. Schwierigkeiten beim Aufstehen von ihrem Stuhl. Diese Schwierigkeiten hängen natürlich mit der Beeinträchtigung zusammen, aber auch mit den Begleitumständen. Eine Person, die einen Rollstuhl benutzt und in einem flachen Land wie den Niederlanden lebt, hat mehr Möglichkeiten zur Selbstbeförderung als die gleiche Person, die in einer Bergregion wie Tibet lebt.

                                  Behinderung

                                  Wenn die Probleme auf eine Behinderungsebene gestellt werden, kann festgestellt werden, in welchem ​​Bereich die Hauptprobleme wirksam sind, z. B. Immobilität oder körperliche Abhängigkeit. Diese können die Arbeitsleistung beeinträchtigen; zum Beispiel ist die Person möglicherweise nicht in der Lage, sich selbst zur Arbeit zu bringen; oder, einmal bei der Arbeit, Unterstützung bei der Körperpflege usw. benötigen.

                                  Eine Behinderung zeigt die negativen Folgen einer Behinderung und kann nur gelöst werden, indem die negativen Folgen weggenommen werden.

                                  Zusammenfassung und Fazit

                                  Die oben erwähnte Klassifikation und die dazugehörigen Richtlinien bieten einen wohldefinierten, international praktikablen Rahmen. Jede Diskussion über Design für bestimmte Gruppen benötigt einen solchen Rahmen, um unsere Aktivitäten zu definieren und zu versuchen, diese Gedanken im Design umzusetzen.

                                  Montag, März 14 2011 19: 35

                                  Schlafentzug

                                  Gesunde Menschen schlafen regelmäßig mehrere Stunden am Tag. Normalerweise schlafen sie während der Nachtstunden. Sie finden es am schwierigsten, in den Stunden zwischen Mitternacht und dem frühen Morgen wach zu bleiben, wenn sie normalerweise schlafen. Wenn eine Person während dieser Stunden ganz oder teilweise wach bleiben muss, kommt die Person in einen Zustand erzwungenen Schlafverlusts oder Schlafentzug, die normalerweise als Müdigkeit empfunden wird. Es wird ein Schlafbedürfnis mit schwankendem Schläfrigkeitsgrad empfunden, das anhält, bis ausreichend Schlaf genommen wurde. Dies ist der Grund, warum oft gesagt wird, dass Phasen von Schlafentzug dazu führen, dass eine Person auftritt Schlafdefizit or Schlafschuld.

                                  Schlafentzug stellt ein besonderes Problem für Arbeitnehmer dar, die aufgrund von Arbeitszeiten (z. B. Nachtarbeit) oder verlängerter Freizeitaktivitäten nicht ausreichend schlafen können. Einem Arbeiter in einer Nachtschicht bleibt Schlafentzug, bis am Ende der Schicht die Gelegenheit für eine Schlafperiode verfügbar wird. Da der während der Tagesstunden genommene Schlaf normalerweise kürzer als nötig ist, kann sich der Arbeiter nicht ausreichend von dem Zustand des Schlafverlusts erholen, bis eine lange Schlafperiode, höchstwahrscheinlich ein Nachtschlaf, genommen wird. Bis dahin baut die Person ein Schlafdefizit auf. (Ein ähnlicher Zustand—Jetlag– entsteht nach Reisen zwischen Zeitzonen, die sich um einige Stunden oder mehr unterscheiden. Der Reisende leidet tendenziell unter Schlafmangel, da die Aktivitätszeiten in der neuen Zeitzone deutlicher der normalen Schlafzeit am Herkunftsort entsprechen.) Während der Schlafmangelzeiten fühlen sich die Arbeitnehmer müde und ihre Leistungsfähigkeit wird auf verschiedene Weise beeinträchtigt. Somit sind verschiedene Grade von Schlafentzug in das tägliche Leben von Arbeitern integriert, die unregelmäßig arbeiten müssen, und es ist wichtig, Maßnahmen zu ergreifen, um mit den ungünstigen Auswirkungen eines solchen Schlafmangels fertig zu werden. Die Hauptbedingungen unregelmäßiger Arbeitszeiten, die zu Schlafentzug beitragen, sind in Tabelle 1 dargestellt.

                                  Tabelle 1. Hauptbedingungen unregelmäßiger Arbeitszeiten, die zu Schlafentzug unterschiedlichen Ausmaßes beitragen

                                  Unregelmäßige Arbeitszeiten

                                  Bedingungen, die zu Schlafentzug führen

                                  Nachtdienst

                                  Kein oder verkürzter Nachtschlaf

                                  Dienst am frühen Morgen oder am späten Abend

                                  Verkürzter Schlaf, gestörter Schlaf

                                  Lange Arbeitszeiten oder zwei Schichten zusammen

                                  Phasenverschiebung des Schlafes

                                  Direkte Nacht- oder Frühschicht

                                  Konsekutive Phasenverschiebung des Schlafes

                                  Kurze Zeit zwischen den Schichten

                                  Kurzer und unterbrochener Schlaf

                                  Lange Pause zwischen den freien Tagen

                                  Anhäufung von Schlafmangel

                                  Arbeiten Sie in einer anderen Zeitzone

                                  Kein oder verkürzter Schlaf während der „Nachtstunden“ am Ursprungsort (Jetlag)

                                  Unausgeglichene Freizeitzeiten

                                  Phasenverschiebung des Schlafes, Kurzschlaf

                                   

                                  Unter extremen Bedingungen kann der Schlafentzug länger als einen Tag andauern. Dann nehmen Schläfrigkeit und Leistungsänderungen zu, wenn die Zeit des Schlafentzugs verlängert wird. Arbeiter nehmen jedoch normalerweise irgendeine Form von Schlaf, bevor der Schlafentzug zu langwierig wird. Reicht der so genommene Schlaf nicht aus, bleiben die Folgen des Schlafmangels bestehen. Daher ist es wichtig, nicht nur die Auswirkungen von Schlafentzug in verschiedenen Formen zu kennen, sondern auch die Möglichkeiten, wie Arbeitnehmer sich davon erholen können.

                                  Abbildung 1. Leistung, Schlafbewertungen und physiologische Variablen einer Gruppe von Probanden, die zwei Nächten Schlafentzug ausgesetzt waren

                                  ERG185F1

                                  Die komplexe Natur des Schlafentzugs zeigt Abbildung 1, die Daten aus Laborstudien über die Auswirkungen von zwei Tagen Schlafentzug darstellt (Fröberg 1985). Die Daten zeigen drei grundlegende Veränderungen, die sich aus längerem Schlafentzug ergeben:

                                    1. Es gibt einen allgemeinen Abwärtstrend sowohl bei der objektiven Leistung als auch bei den subjektiven Bewertungen der Leistungseffizienz.
                                    2. Der Leistungsabfall wird durch die Tageszeit beeinflusst. Diese zyklische Abnahme ist mit jenen physiologischen Variablen korreliert, die eine zirkadiane zyklische Periode haben. Die Leistungsfähigkeit ist in der normalen Aktivitätsphase besser, wenn beispielsweise die Adrenalinausscheidung und die Körpertemperatur höher sind als in dem Zeitraum, der ursprünglich einer normalen Nachtruhe zugeordnet ist, wenn die physiologischen Maße niedrig sind.
                                    3. Die Selbsteinschätzung der Schläfrigkeit nimmt mit der Zeit des kontinuierlichen Schlafentzugs zu, wobei eine deutliche zyklische Komponente mit der Tageszeit verbunden ist.

                                         

                                        Die Tatsache, dass die Auswirkungen von Schlafentzug mit physiologischen zirkadianen Rhythmen korrelieren, hilft uns, seine komplexe Natur zu verstehen (Folkard und Akerstedt 1992). Diese Effekte sind als Folge einer Phasenverschiebung des Schlaf-Wach-Rhythmus im Alltag zu sehen.

                                        Die Folgen von Dauerarbeit oder Schlafentzug sind also nicht nur eine verminderte Aufmerksamkeit, sondern auch eine verminderte Leistungsfähigkeit, eine erhöhte Einschlafwahrscheinlichkeit, ein vermindertes Wohlbefinden und eine verminderte Arbeitssicherheit. Bei wiederholten Schlafentzugsphasen wie bei Schichtarbeitern kann deren Gesundheit beeinträchtigt werden (Rutenfranz 1982; Koller 1983; Costa et al. 1990). Ein wichtiges Ziel der Forschung ist es daher, herauszufinden, inwieweit Schlafentzug das Wohlbefinden des Einzelnen beeinträchtigt und wie wir die Erholungsfunktion des Schlafs am besten nutzen können, um solche Auswirkungen zu reduzieren.

                                        Auswirkungen von Schlafentzug

                                        Während und nach einer Nacht mit Schlafentzug scheinen die physiologischen zirkadianen Rhythmen des menschlichen Körpers aufrechterhalten zu bleiben. Beispielsweise behält die Körpertemperaturkurve während des ersten Arbeitstages bei Nachtschichtarbeitern tendenziell ihr grundlegendes zirkadianes Muster bei. Während der Nachtstunden sinkt die Temperatur in Richtung der frühen Morgenstunden, steigt während des darauffolgenden Tages wieder an und fällt nach einem Nachmittagspeak wieder ab. Es ist bekannt, dass sich die physiologischen Rhythmen im Laufe von mehreren Tagen wiederholter Nachtschichten nur allmählich an die umgekehrten Schlaf-Wach-Zyklen von Nachtschichtarbeitern „anpassen“. Das bedeutet, dass die Auswirkungen auf Leistungsfähigkeit und Schläfrigkeit in den Nachtstunden stärker ausgeprägt sind als tagsüber. Die Auswirkungen von Schlafentzug sind daher unterschiedlich mit den ursprünglichen zirkadianen Rhythmen verbunden, die in physiologischen und psychologischen Funktionen zu sehen sind.

                                        Die Auswirkungen von Schlafentzug auf die Leistung hängen von der Art der auszuführenden Aufgabe ab. Unterschiedliche Charakteristika der Aufgabe beeinflussen die Effekte (Fröberg 1985; Folkard und Monk 1985; Folkard und Akerstedt 1992). Im Allgemeinen ist eine komplexe Aufgabe anfälliger als eine einfachere Aufgabe. Die Bewältigung einer Aufgabe mit zunehmender Ziffernzahl oder komplexerer Kodierung verschlechtert sich während drei Tagen Schlafmangels stärker (Fröberg 1985; Wilkinson 1964). Temporierte Aufgaben, auf die innerhalb eines bestimmten Intervalls reagiert werden muss, verschlechtern sich stärker als selbstgesteuerte Aufgaben. Praktische Beispiele für anfällige Aufgaben sind serielle Reaktionen auf definierte Reize, einfache Sortiervorgänge, das Aufzeichnen verschlüsselter Nachrichten, Abtippen, Anzeigenüberwachung und kontinuierliche Inspektion. Auch Auswirkungen von Schlafentzug auf anstrengende körperliche Leistungsfähigkeit sind bekannt. Typische Auswirkungen von längerem Schlafentzug auf die Leistungsfähigkeit (bei einer Sehaufgabe) sind in Abbildung 2 dargestellt (Dinges 1992). Die Wirkungen sind nach zwei Nächten ohne Schlafmangel (40-56 Stunden) stärker ausgeprägt als nach einer Nacht ohne Schlafmangel (16-40 Stunden).

                                        Abbildung 2. Regressionslinien passen sich der Reaktionsgeschwindigkeit (dem Kehrwert der Reaktionszeiten) bei einer 10-minütigen einfachen, unvorbereiteten Sehaufgabe an, die gesunden jungen Erwachsenen wiederholt ohne Schlafverlust (5-16 Stunden), einer Nacht ohne Schlafverlust (16 -40 Stunden) und zwei Nächte ohne Schlaf (40-56 Stunden)

                                        ERG185F2

                                        Das Ausmaß, in dem die Ausführung von Aufgaben beeinträchtigt wird, scheint auch davon abzuhängen, wie sie von den „maskierenden“ Komponenten der zirkadianen Rhythmen beeinflusst wird. Beispielsweise stellt sich heraus, dass sich einige Leistungsmaße, wie z. 1993). Solche Unterschiede in den Auswirkungen der endogenen physiologischen Körperuhrrhythmen und ihrer maskierenden Komponenten müssen bei der Betrachtung der Sicherheit und Genauigkeit der Leistung unter dem Einfluss von Schlafentzug berücksichtigt werden.

                                        Eine besondere Auswirkung von Schlafentzug auf die Leistungseffizienz ist das Auftreten häufiger „Aussetzer“ oder Perioden ohne Reaktion (Wilkinson 1964; Empson 1993). Diese Leistungseinbrüche sind kurze Perioden mit verminderter Aufmerksamkeit oder leichtem Schlaf. Dies kann in Aufzeichnungen von auf Video aufgenommenen Leistungen, Augenbewegungen oder Elektroenzephalogrammen (EEGs) verfolgt werden. Eine längere Aufgabe (eine halbe Stunde oder länger), insbesondere wenn die Aufgabe wiederholt wird, kann leichter zu solchen Fehlern führen. Monotone Aufgaben wie das Wiederholen einfacher Reaktionen oder das Beobachten seltener Signale sind in dieser Hinsicht sehr empfindlich. Eine neuartige Aufgabe ist dagegen weniger betroffen. Auch die Leistung in wechselnden Arbeitssituationen ist beständig.

                                        Während es Hinweise auf eine allmähliche Abnahme der Erregung bei Schlafentzug gibt, würde man erwarten, dass die Leistungsniveaus zwischen den Phasen weniger beeinträchtigt sind. Dies erklärt, warum die Ergebnisse einiger Leistungstests einen geringen Einfluss auf den Schlafverlust zeigen, wenn die Tests in einem kurzen Zeitraum durchgeführt werden. Bei einer einfachen Reaktionszeitaufgabe würden Versäumnisse zu sehr langen Reaktionszeiten führen, während die restlichen gemessenen Zeiten unverändert bleiben würden. Daher ist bei der Interpretation von Testergebnissen bezüglich Schlafverlusteffekten in tatsächlichen Situationen Vorsicht geboten.

                                        Änderungen der Schläfrigkeit während des Schlafentzugs beziehen sich offensichtlich sowohl auf physiologische zirkadiane Rhythmen als auch auf solche Übergangsperioden. Die Schläfrigkeit nimmt mit der Zeit der ersten Nachtschichtarbeit stark zu, nimmt jedoch während der folgenden Tagesstunden ab. Wenn der Schlafentzug bis zur zweiten Nacht andauert, wird die Schläfrigkeit während der Nachtstunden sehr weit fortgeschritten (Costa et al. 1990; Matsumoto und Harada 1994). Es gibt Momente, in denen das Schlafbedürfnis als fast unwiderstehlich empfunden wird; diese Momente entsprechen dem Auftreten von Aussetzern sowie dem Auftreten von Unterbrechungen der zerebralen Funktionen, wie durch EEG-Aufzeichnungen belegt. Nach einer Weile wird die Schläfrigkeit als reduziert empfunden, aber es folgt eine weitere Periode mit nachlassenden Effekten. Wenn Arbeitnehmer jedoch zu verschiedenen Ermüdungsgefühlen befragt werden, erwähnen sie in der Regel zunehmende Erschöpfungsgrade und allgemeine Müdigkeit, die während der Schlafentzugsperiode und zwischen den Phasen des Schlafentzugs anhalten. Nach einer Nacht mit Schlafentzug ist tagsüber eine leichte Erholung des subjektiven Ermüdungsniveaus zu beobachten, aber die Ermüdungsgefühle sind in der zweiten und den folgenden Nächten mit anhaltendem Schlafentzug deutlich ausgeprägter.

                                        Während des Schlafentzugs kann immer bis zu einem gewissen Grad Schlafdruck durch das Zusammenspiel von vorheriger Wachheit und zirkadianer Phase vorhanden sein, aber die Labilität des Zustands bei schläfrigen Personen wird auch durch Kontexteffekte moduliert (Dinges 1992). Die Schläfrigkeit wird durch die Menge und Art der Stimulation, das Interesse der Umgebung und die Bedeutung der Stimulation für das Subjekt beeinflusst. Eine monotone Stimulation oder eine Stimulation, die anhaltende Aufmerksamkeit erfordert, kann leichter zu einer Verringerung der Wachsamkeit und zu Aussetzern führen. Je größer die physiologische Schläfrigkeit aufgrund von Schlafverlust ist, desto anfälliger ist das Subjekt für Umweltmonotonie. Motivation und Anreiz können helfen, diesen Umwelteffekt aufzuheben, aber nur für einen begrenzten Zeitraum.

                                        Auswirkungen von teilweisem Schlafentzug und kumuliertem Schlafmangel

                                        Wenn ein Proband eine ganze Nacht ununterbrochen ohne Schlaf arbeitet, werden viele Leistungsfunktionen definitiv nachgelassen haben. Geht der Proband ungeschlafen zur zweiten Nachtschicht, ist der Leistungsabfall weit fortgeschritten. Nach der dritten oder vierten Nacht des totalen Schlafentzugs können nur sehr wenige Menschen wach bleiben und Aufgaben erledigen, selbst wenn sie hochmotiviert sind. Im wirklichen Leben treten solche Zustände des totalen Schlafverlusts jedoch selten auf. Normalerweise schlafen die Leute während der nachfolgenden Nachtschichten etwas. Berichte aus verschiedenen Ländern zeigen jedoch, dass der tagsüber eingenommene Schlaf fast immer nicht ausreicht, um sich von dem durch die Nachtarbeit verursachten Schlafmangel zu erholen (Knauth und Rutenfranz 1981; Kogi 1981; ILO 1990). Infolgedessen häufen sich Schlafknappheiten, wenn Schichtarbeiter Nachtschichten wiederholen. Ähnliche Schlafknappheit ergibt sich auch, wenn die Schlafzeiten aufgrund der Notwendigkeit, Schichtpläne einzuhalten, verkürzt werden. Selbst wenn Nachtschlaf genommen werden kann, ist bekannt, dass eine Schlafbeschränkung von nur zwei Stunden pro Nacht für die meisten Personen zu einer unzureichenden Schlafmenge führt. Eine solche Schlafreduktion kann zu einer Beeinträchtigung der Leistungsfähigkeit und Aufmerksamkeit führen (Monk 1991).

                                        Beispiele für Bedingungen in Schichtsystemen, die zur Akkumulation von Schlafmangel oder teilweisem Schlafentzug beitragen, sind in Tabelle 1 aufgeführt. Zusätzlich fortgesetzte Nachtarbeit für zwei oder mehr Tage, kurze Zwischenschichtperioden, Wiederholung eines frühen Morgenbeginns Schichten, häufige Nachtschichten und unangemessene Urlaubszuteilung beschleunigen die Akkumulation von Schlafmangel.

                                        Auch die schlechte Qualität des Tagesschlafs oder verkürzter Schlaf ist wichtig. Der Tagesschlaf wird von einer erhöhten Aufwachhäufigkeit, weniger tiefem und langsamwelligem Schlaf und einer anderen Verteilung des REM-Schlafs als der normale Nachtschlaf begleitet (Torsvall, Akerstedt und Gillberg 1981; Folkard und Monk 1985; Empson 1993). Daher ist ein Tagesschlaf selbst in einer günstigen Umgebung möglicherweise nicht so gesund wie ein Nachtschlaf.

                                        Diese Schwierigkeit, aufgrund unterschiedlicher Schlafzeiten in einem Schichtsystem guten Schlaf zu finden, wird durch Abbildung 3 veranschaulicht, die die Schlafdauer als Funktion des Zeitpunkts des Einschlafens für deutsche und japanische Arbeiter auf der Grundlage von Tagebuchaufzeichnungen zeigt (Knauth und Rutenfranz 1981; Kögi 1985). Aufgrund des zirkadianen Einflusses ist der Tagesschlaf gezwungen, kurz zu sein. Viele Arbeitnehmer haben tagsüber möglicherweise einen Split-Schlaf und fügen abends, wenn möglich, oft etwas Schlaf hinzu.

                                        Abbildung 3. Mittlere Schlafdauer als Funktion des Zeitpunkts des Einschlafens. Vergleich der Daten von deutschen und japanischen Schichtarbeitern.

                                        ERG185F3

                                        In realen Umgebungen ergreifen Schichtarbeiter eine Vielzahl von Maßnahmen, um mit einer solchen Häufung von Schlafmangel fertig zu werden (Wedderburn 1991). Viele von ihnen versuchen zum Beispiel, vor einer Nachtschicht vorzuschlafen oder danach lange zu schlafen. Obwohl solche Bemühungen keineswegs vollständig wirksam sind, um die Auswirkungen des Schlafdefizits auszugleichen, werden sie ganz bewusst unternommen. Im Rahmen von Bewältigungsmaßnahmen können soziale und kulturelle Aktivitäten eingeschränkt werden. Ausgehende Freizeitaktivitäten werden beispielsweise zwischen zwei Nachtschichten seltener wahrgenommen. Schlafzeitpunkt und -dauer sowie die tatsächliche Akkumulation von Schlafdefizit hängen also sowohl von beruflichen als auch von sozialen Umständen ab.

                                         

                                         

                                         

                                         

                                        Erholung von Schlafentzug und Gesundheitsmaßnahmen

                                        Das einzig wirksame Mittel, um sich von Schlafentzug zu erholen, ist zu schlafen. Diese erholsame Wirkung des Schlafes ist bekannt (Kogi 1982). Da die Erholung durch Schlaf je nach Zeitpunkt und Dauer unterschiedlich sein kann (Costa et al. 1990), ist es wichtig zu wissen, wann und wie lange Menschen schlafen sollten. Im normalen täglichen Leben ist es immer am besten, eine ganze Nacht zu schlafen, um die Erholung vom Schlafdefizit zu beschleunigen, aber normalerweise werden Anstrengungen unternommen, um das Schlafdefizit zu minimieren, indem Schlaf zu verschiedenen Gelegenheiten als Ersatz für den normalen Nachtschlaf genommen wird, der einem entzogen wurde . Aspekte solcher Ersatzschlafzeiten sind in Tabelle 2 dargestellt.

                                        Tabelle 2. Aspekte von Früh-, Anker- und Verzögerungsschlaf als Ersatz für normalen Nachtschlaf

                                        Aspekt

                                        Vorausschlafen

                                        Anker schlafen

                                        Schlaf verzögern

                                        Thematisch

                                        Vor einer Nachtschicht
                                        Zwischen den Nachtschichten
                                        Vor früh
                                        Morgenarbeit
                                        Mittagsschlaf am späten Abend

                                        Unterbrochene Nacht
                                        Arbeit
                                        Während einer Nachtschicht
                                        Arbeit am anderen Tag
                                        Verlängerte Freizeit
                                        Nickerchen gemacht
                                        informell

                                        Nach einer Nachtschicht
                                        Zwischen den Nachtschichten
                                        Nach längerem
                                        Abendarbeit
                                        Mittagsschlaf

                                        Dauer

                                        Normalerweise kurz

                                        Kurz per Definition

                                        Meist kurz aber
                                        länger nach spät
                                        Abendarbeit

                                        Qualität

                                        Längere Latenz von
                                        Einschlafen
                                        Schlechte Laune beim Aufstehen
                                        Reduzierter REM-Schlaf
                                        Langsamer Schlaf
                                        abhängig von
                                        vorherige Wachheit

                                        Kurze Latenz
                                        Schlechte Laune beim Aufstehen
                                        Schlafstadien ähnlich
                                        zum Anfangsteil von a
                                        normaler Nachtschlaf

                                        Kürzere Latenz für
                                        REM-Schlaf
                                        Mehr
                                        Erwachen
                                        Erhöhter REM-Schlaf
                                        Erhöhte langsame Welle
                                        schlafen nach langem
                                        Wachsamkeit

                                        Interaktion mit
                                        circadian
                                        Rhythmen

                                        Gestörte Rhythmen;
                                        relativ schneller
                                        Anpassung

                                        förderlich für
                                        Stabilisieren
                                        originelle Rhythmen

                                        Gestörte Rhythmen;
                                        langsame Anpassung

                                         

                                        Um das Nachtschlafdefizit auszugleichen, besteht die übliche Anstrengung darin, tagsüber Schlaf in „früheren“ und „verzögerten“ Phasen (dh vor und nach der Nachtschichtarbeit) zu nehmen. Ein solcher Schlaf fällt mit der zirkadianen Aktivitätsphase zusammen. So ist der Schlaf durch längere Latenzzeiten, verkürzten Tiefschlaf, gestörten REM-Schlaf und Störungen des sozialen Lebens gekennzeichnet. Soziale und Umweltfaktoren sind wichtig, um die Erholungswirkung eines Schlafes zu bestimmen. Dass eine vollständige Umstellung der zirkadianen Rhythmen für einen Schichtarbeiter in einer realen Situation unmöglich ist, sollte bei der Betrachtung der Wirksamkeit der Erholungsfunktionen des Schlafes berücksichtigt werden.

                                        In diesem Zusammenhang wurde über interessante Merkmale eines kurzen „Ankerschlafs“ berichtet (Minors und Waterhouse 1981; Kogi 1982; Matsumoto und Harada 1994). Wenn ein Teil des üblichen täglichen Schlafs während der normalen Nachtschlafperiode und der Rest zu unregelmäßigen Zeiten genommen wird, können die zirkadianen Rhythmen der rektalen Temperatur und der Urinsekretion mehrerer Elektrolyte über einen Zeitraum von 24 Stunden beibehalten werden. Das bedeutet, dass ein kurzer Nachtschlaf während der Nachtruhe dazu beitragen kann, die ursprünglichen zirkadianen Rhythmen in den folgenden Perioden zu bewahren.

                                        Wir können davon ausgehen, dass Schlafen zu unterschiedlichen Tageszeiten bestimmte komplementäre Wirkungen im Hinblick auf die unterschiedlichen Erholungsfunktionen dieser Schlafen haben könnten. Ein interessanter Ansatz für Nachtschichtarbeiter ist die Verwendung eines Nachtschlafs, der normalerweise bis zu einigen Stunden dauert. Umfragen zeigen, dass dieser kurze Schlaf während einer Nachtschicht bei einigen Gruppen von Arbeitnehmern üblich ist. Dieser Ankerschlaftyp ist wirksam bei der Verringerung der nächtlichen Arbeitsermüdung (Kogi 1982) und kann die Notwendigkeit von Erholungsschlaf verringern. Abbildung 4 vergleicht das subjektive Ermüdungsgefühl während zweier aufeinanderfolgender Nachtschichten und der dienstfreien Erholungsphase zwischen der Gruppe, die ein Nickerchen macht, und der Gruppe, die kein Nickerchen macht (Matsumoto und Harada 1994). Die positiven Auswirkungen eines nächtlichen Nickerchens auf die Verringerung der Müdigkeit waren offensichtlich. Diese Wirkungen hielten für einen großen Teil der Erholungsphase nach der Nachtarbeit an. Zwischen diesen beiden Gruppen wurde kein signifikanter Unterschied beim Vergleich der Länge des Tagesschlafs der Nichtschlafgruppe mit der Gesamtschlafzeit (Nachtschlaf plus nachfolgender Tagesschlaf) der Schlafgruppe festgestellt. Daher ermöglicht ein nächtlicher Mittagsschlaf, einen Teil des notwendigen Schlafs vor dem Tagesschlaf nach der Nachtarbeit zu nehmen. Es kann daher vermutet werden, dass Nickerchen während der Nachtarbeit bis zu einem gewissen Grad die Erholung von der durch diese Arbeit verursachten Müdigkeit und dem damit einhergehenden Schlafentzug unterstützen können (Sakai et al. 1984; Saito und Matsumoto 1988).

                                        Abbildung 4. Mittlere Werte für das subjektive Ermüdungsgefühl während zweier aufeinanderfolgender Nachtschichten und der dienstfreien Erholungsphase für Mittagsschlaf- und Nicht-Nickerchen-Gruppen

                                        ERG185F4

                                        Es muss jedoch zugegeben werden, dass es nicht möglich ist, optimale Strategien zu erarbeiten, die jeder unter Schlafdefizit leidende Arbeitnehmer anwenden kann. Dies zeigt sich in der Entwicklung internationaler Arbeitsnormen für Nachtarbeit, die eine Reihe von Maßnahmen für Arbeitnehmer empfehlen, die häufig Nachtarbeit leisten (Kogi und Thurman 1993). Die Vielfältigkeit dieser Maßnahmen und der Trend zur zunehmenden Flexibilisierung von Schichtsystemen spiegeln deutlich das Bestreben wider, flexible Schlafstrategien zu entwickeln (Kogi 1991). Alter, körperliche Fitness, Schlafgewohnheiten und andere individuelle Toleranzunterschiede können eine wichtige Rolle spielen (Folkard und Monk 1985; Costa et al. 1990; Härmä 1993). Dabei ist eine zunehmende Flexibilität bei der Arbeitszeitgestaltung in Kombination mit einer besseren Arbeitsplatzgestaltung sinnvoll (Kogi 1991).

                                        Schlafstrategien gegen Schlafentzug sollten abhängig von der Art des Arbeitslebens und flexibel genug sein, um individuellen Situationen gerecht zu werden (Knauth, Rohmert und Rutenfranz 1979; Rutenfranz, Knauth und Angersbach 1981; Wedderburn 1991; Monk 1991). Eine allgemeine Schlussfolgerung ist, dass wir den nächtlichen Schlafentzug minimieren sollten, indem wir geeignete Arbeitszeiten auswählen, und die Erholung erleichtern, indem wir individuell geeigneten Schlaf fördern, einschließlich Ersatzschlaf und einen gesunden Nachtschlaf in den frühen Phasen nach dem Schlafentzug. Es ist wichtig, die Akkumulation von Schlafdefizit zu verhindern. Die Nachtarbeitszeit, die Arbeitnehmern den Schlaf in der normalen Nachtruhezeit entzieht, sollte so kurz wie möglich sein. Die Intervalle zwischen den Schichten sollten lang genug sein, um einen ausreichend langen Schlaf zu ermöglichen. Auch ein besseres Schlafumfeld und Maßnahmen zur Bewältigung sozialer Bedürfnisse sind sinnvoll. Daher ist soziale Unterstützung bei der Gestaltung von Arbeitszeitregelungen, Arbeitsgestaltung und individuellen Bewältigungsstrategien zur Förderung der Gesundheit von Arbeitnehmern, die mit häufigem Schlafmangel konfrontiert sind, unerlässlich.

                                         

                                        Zurück

                                        Donnerstag, März 10 2011 17: 05

                                        Gefahren erkennen

                                        Eine Gefährdung am Arbeitsplatz kann als jeder Zustand definiert werden, der das Wohlbefinden oder die Gesundheit von exponierten Personen beeinträchtigen kann. Das Erkennen von Gefahren bei jeder beruflichen Tätigkeit beinhaltet die Charakterisierung des Arbeitsplatzes durch die Identifizierung gefährlicher Stoffe und Gruppen von Arbeitnehmern, die diesen Gefahren potenziell ausgesetzt sind. Die Gefahren können chemischen, biologischen oder physikalischen Ursprungs sein (siehe Tabelle 1). Einige Gefahren in der Arbeitsumgebung sind leicht zu erkennen – zum Beispiel Reizstoffe, die nach Hautkontakt oder Einatmen sofort reizend wirken. Andere sind nicht so leicht zu erkennen – zum Beispiel Chemikalien, die zufällig entstehen und keine Warneigenschaften haben. Einige Stoffe wie Metalle (z. B. Blei, Quecksilber, Cadmium, Mangan), die nach mehrjähriger Exposition zu Verletzungen führen können, sind möglicherweise leicht zu identifizieren, wenn Sie sich des Risikos bewusst sind. Ein toxischer Stoff stellt bei niedrigen Konzentrationen oder wenn niemand exponiert ist, möglicherweise keine Gefahr dar. Grundlage für das Erkennen von Gefährdungen sind die Identifizierung möglicher Arbeitsstoffe am Arbeitsplatz, Kenntnisse über Gesundheitsrisiken dieser Arbeitsstoffe und das Bewusstsein für mögliche Expositionssituationen.

                                        Tabelle 1. Gefahren durch chemische, biologische und physikalische Wirkstoffe.

                                        Art der Gefahr

                                        Beschreibung

                                        Beispiele

                                        Chemikalien

                                        GEFAHREN

                                         

                                        Chemikalien gelangen hauptsächlich durch Einatmen, Aufnahme über die Haut oder Verschlucken in den Körper. Die toxische Wirkung kann akut, chronisch oder beides sein.,

                                         

                                        Korrosion

                                        Ätzende Chemikalien verursachen tatsächlich Gewebezerstörung an der Kontaktstelle. Haut, Augen und Verdauungssystem sind die am häufigsten betroffenen Körperteile.

                                        Konzentrierte Säuren und Laugen, Phosphor

                                        Reizung

                                        Reizstoffe verursachen eine Entzündung des Gewebes, wo sie sich ablagern. Hautreizstoffe können Reaktionen wie Ekzeme oder Dermatitis hervorrufen. Schwere Atemwegsreizstoffe können Kurzatmigkeit, Entzündungsreaktionen und Ödeme verursachen.

                                        Haut: Säuren, Laugen, Lösungsmittel, Öle Atem: Aldehyde, alkalische Stäube, Ammoniak, Stickstoffdioxid, Phosgen, Chlor, Brom, Ozon

                                        Allergische Reaktionen

                                        Chemische Allergene oder Sensibilisatoren können allergische Haut- oder Atemwegsreaktionen hervorrufen.

                                        Haut: Kolophonium (Kolophonium), Formaldehyd, Metalle wie Chrom oder Nickel, einige organische Farbstoffe, Epoxidhärter, Terpentin

                                        Atem: Isocyanate, faserreaktive Farbstoffe, Formaldehyd, viele Tropenholzstäube, Nickel

                                         

                                        Erstickung

                                        Erstickungsmittel üben ihre Wirkung aus, indem sie die Sauerstoffversorgung des Gewebes stören. Einfache Erstickungsmittel sind Inertgase, die den verfügbaren atmosphärischen Sauerstoff unter das für die Lebenserhaltung erforderliche Niveau verdünnen. Sauerstoffarme Atmosphären können in Tanks, Schiffsräumen, Silos oder Bergwerken auftreten. Die Sauerstoffkonzentration in der Luft sollte niemals unter 19.5 Vol.-% liegen. Chemische Erstickungsmittel verhindern den Sauerstofftransport und die normale Sauerstoffversorgung des Blutes oder verhindern die normale Sauerstoffversorgung des Gewebes.

                                        Einfache Erstickungsmittel: Methan, Ethan, Wasserstoff, Helium

                                        Chemische Erstickungsmittel: Kohlenmonoxid, Nitrobenzol, Cyanwasserstoff, Schwefelwasserstoff

                                         

                                        Krebs

                                        Bekannte menschliche Karzinogene sind Chemikalien, die nachweislich beim Menschen Krebs verursachen. Wahrscheinliche menschliche Karzinogene sind Chemikalien, die nachweislich Krebs bei Tieren verursachen oder bei denen der Nachweis beim Menschen nicht eindeutig ist. Ruß und Kohlenteer waren die ersten Chemikalien, die im Verdacht standen, Krebs zu verursachen.

                                        Bekannt: Benzol (Leukämie); Vinylchlorid (Leber-Angiosarkom); 2-Naphthylamin, Benzidin (Blasenkrebs); Asbest (Lungenkrebs, Mesotheliom); Hartholzstaub (Nasal-Nasennebenhöhlen-Adenokarzinom) Wahrscheinlich: Formaldehyd, Tetrachlorkohlenstoff, Dichromate, Beryllium

                                        Fortpflanzungsfähig

                                        Effekten

                                         

                                        Reproduktionstoxische Stoffe beeinträchtigen die reproduktive oder sexuelle Funktion einer Person.

                                        Mangan, Schwefelkohlenstoff, Monomethyl- und Ethylether von Ethylenglykol, Quecksilber

                                         

                                        Entwicklungstoxische Stoffe sind Stoffe, die bei den Nachkommen exponierter Personen schädliche Wirkungen haben können; zum Beispiel Geburtsfehler. Embryotoxische oder fetotoxische Chemikalien können spontane Aborte oder Fehlgeburten verursachen.

                                        Organische Quecksilberverbindungen, Kohlenmonoxid, Blei, Thalidomid, Lösungsmittel

                                        Systemisch

                                        Gifte

                                         

                                        Systemische Gifte sind Wirkstoffe, die bestimmte Organe oder Körpersysteme schädigen.

                                        Gehirn: Lösungsmittel, Blei, Quecksilber, Mangan

                                        Periphäres Nervensystem: n-Hexan, Blei, Arsen, Schwefelkohlenstoff

                                        Blutbildendes System: Benzol, Ethylenglykolether

                                        Nieren: Cadmium, Blei, Quecksilber, chlorierte Kohlenwasserstoffe

                                        Lunge: Kieselerde, Asbest, Kohlenstaub (Pneumokoniose)

                                         

                                         

                                         

                                         

                                        BIOLOGISCHE

                                        GEFAHREN

                                         

                                        Biologische Gefahren können als organische Stäube definiert werden, die aus verschiedenen Quellen biologischen Ursprungs wie Viren, Bakterien, Pilzen, tierischen Proteinen oder pflanzlichen Stoffen wie Abbauprodukten von Naturfasern stammen. Das ätiologische Agens kann von einem lebensfähigen Organismus oder von Kontaminanten stammen oder eine spezifische Komponente im Staub darstellen. Biologische Gefahren werden in infektiöse und nicht infektiöse Agenzien eingeteilt. Nicht-infektiöse Gefahren können weiter unterteilt werden in lebensfähige Organismen, biogene Toxine und biogene Allergene.

                                         

                                        Infektionsgefahren

                                        Berufskrankheiten durch Infektionserreger sind relativ selten. Zu den gefährdeten Arbeitnehmern gehören Angestellte in Krankenhäusern, Laboranten, Landwirte, Schlachthofarbeiter, Tierärzte, Tierpfleger und Köche. Die Empfindlichkeit ist sehr variabel (z. B. Personen, die mit immundepressiven Arzneimitteln behandelt werden, haben eine hohe Empfindlichkeit).

                                        Hepatitis B, Tuberkulose, Anthrax, Brucella, Tetanus, Chlamydia psittaci, Salmonellen

                                        Lebensfähige Organismen und biogene Toxine

                                        Zu lebensfähigen Organismen gehören Pilze, Sporen und Mykotoxine; Zu den biogenen Toxinen zählen Endotoxine, Aflatoxin und Bakterien. Die Stoffwechselprodukte von Bakterien und Pilzen sind komplex und zahlreich und werden von Temperatur, Feuchtigkeit und Art des Substrats, auf dem sie wachsen, beeinflusst. Chemisch können sie aus Proteinen, Lipoproteinen oder Mucopolysacchariden bestehen. Beispiele sind grampositive und gramnegative Bakterien und Schimmelpilze. Zu den gefährdeten Arbeitnehmern gehören Arbeiter in Baumwollfabriken, Hanf- und Flachsarbeiter, Arbeiter in der Abwasser- und Schlammbehandlung und Arbeiter in Getreidesilos.

                                        Byssinose, „Getreidefieber“, Legionärskrankheit

                                        Biogene Allergene

                                        Zu den biogenen Allergenen gehören Pilze, tierische Proteine, Terpene, Vorratsmilben und Enzyme. Ein erheblicher Teil der biogenen Allergene in der Landwirtschaft stammt von Proteinen aus Tierhaut, Fellhaaren und Proteinen aus Fäkalien und Urin. Allergene können in vielen industriellen Umgebungen gefunden werden, wie z. B. Fermentationsverfahren, Arzneimittelherstellung, Bäckereien, Papierherstellung, Holzverarbeitung (Sägewerke, Produktion, Fertigung) sowie in der Biotechnologie (Enzym- und Impfstoffherstellung, Gewebekultur) und Gewürzen Produktion. Bei sensibilisierten Personen kann die Exposition gegenüber den Allergenen allergische Symptome wie allergische Rhinitis, Konjunktivitis oder Asthma hervorrufen. Die allergische Alveolitis ist gekennzeichnet durch akute respiratorische Symptome wie Husten, Schüttelfrost, Fieber, Kopf- und Muskelschmerzen, die zu einer chronischen Lungenfibrose führen können.

                                        Berufsasthma: Wolle, Pelze, Weizenkörner, Mehl, rote Zeder, Knoblauchpulver

                                        Allergische Alveolitis: Bauernkrankheit, Bagassose, „Vogelzüchterkrankheit“, Befeuchterfieber, Sequoiose

                                         

                                        PHYSIKALISCHE GEFAHREN

                                         

                                         

                                        Lärm

                                        Als Lärm gelten alle unerwünschten Geräusche, die die Gesundheit und das Wohlbefinden von Einzelpersonen oder Bevölkerungsgruppen beeinträchtigen können. Zu den Aspekten der Lärmgefährdung gehören die Gesamtenergie des Schalls, die Frequenzverteilung, die Expositionsdauer und Impulslärm. Die Hörschärfe wird im Allgemeinen zuerst mit einem Verlust oder Einbruch bei 4000 Hz beeinträchtigt, gefolgt von Verlusten im Frequenzbereich von 2000 bis 6000 Hz. Lärm kann zu akuten Folgen wie Kommunikationsproblemen, Konzentrationsschwäche, Schläfrigkeit und in der Folge zu Beeinträchtigungen der Arbeitsleistung führen. Die Exposition gegenüber hohen Lärmpegeln (normalerweise über 85 dBA) oder impulsivem Lärm (etwa 140 dBC) über einen längeren Zeitraum kann sowohl zu vorübergehendem als auch zu chronischem Hörverlust führen. Bleibender Hörverlust ist die häufigste Berufskrankheit bei Schadensersatzansprüchen.

                                        Gießereien, Holzverarbeitung, Textilfabriken, Metallverarbeitung

                                        Vibration

                                        Vibration hat mehrere Parameter gemeinsam mit Geräuschfrequenz, Amplitude, Expositionsdauer und ob sie kontinuierlich oder intermittierend ist. Arbeitsweise und Geschicklichkeit des Bedieners scheinen eine wichtige Rolle bei der Entstehung schädlicher Wirkungen von Vibrationen zu spielen. Manuelles Arbeiten mit angetriebenen Werkzeugen ist mit Symptomen peripherer Durchblutungsstörungen verbunden, die als „Raynaud-Phänomen“ oder „vibrationsinduzierte weiße Finger“ (VWF) bekannt sind. Vibrierende Werkzeuge können auch das periphere Nervensystem und den Bewegungsapparat mit verminderter Griffkraft, Kreuzschmerzen und degenerativen Rückenerkrankungen beeinträchtigen.

                                        Lohnmaschinen, Bergbaulader, Gabelstapler, pneumatische Werkzeuge, Kettensägen

                                        Ionisieren

                                        Strahlung

                                         

                                        Die wichtigste chronische Wirkung ionisierender Strahlung ist Krebs, einschließlich Leukämie. Eine Überexposition durch vergleichsweise niedrige Strahlungswerte wurde mit Dermatitis der Hand und Auswirkungen auf das hämatologische System in Verbindung gebracht. Prozesse oder Tätigkeiten, die zu einer übermäßigen Exposition gegenüber ionisierender Strahlung führen könnten, sind stark eingeschränkt und reguliert.

                                        Kernreaktoren, medizinische und zahnärztliche Röntgenröhren, Teilchenbeschleuniger, Radioisotope

                                        Nicht ionisierend

                                        Strahlung

                                         

                                        Nichtionisierende Strahlung besteht aus ultravioletter Strahlung, sichtbarer Strahlung, Infrarot, Lasern, elektromagnetischen Feldern (Mikrowellen und Hochfrequenz) und extrem niederfrequenter Strahlung. IR-Strahlung kann Katarakte verursachen. Hochleistungslaser können Augen- und Hautschäden verursachen. Es besteht zunehmende Besorgnis über die Exposition gegenüber schwachen elektromagnetischen Feldern als Ursache für Krebs und als potenzielle Ursache für nachteilige Fortpflanzungsergebnisse bei Frauen, insbesondere durch die Exposition gegenüber Videoanzeigegeräten. Die Frage nach einem kausalen Zusammenhang mit Krebs ist noch nicht beantwortet. Jüngste Überprüfungen der verfügbaren wissenschaftlichen Erkenntnisse kommen im Allgemeinen zu dem Schluss, dass kein Zusammenhang zwischen der Verwendung von Bildschirmgeräten und Beeinträchtigungen der Fortpflanzungsfähigkeit besteht.

                                        UV-Strahlung: Lichtbogenschweißen und -schneiden; UV-Härtung von Tinten, Klebstoffen, Farben usw.; Desinfektion; Produktkontrolle

                                        Infrarotstrahlung: Öfen, Glasbläserei

                                        Laser: Kommunikation, Chirurgie, Bauwesen

                                         

                                         

                                         

                                        Identifizierung und Klassifizierung von Gefahren

                                        Vor jeder arbeitshygienischen Untersuchung muss der Zweck klar definiert werden. Zweck einer arbeitshygienischen Untersuchung kann es sein, mögliche Gefährdungen zu identifizieren, bestehende Risiken am Arbeitsplatz zu bewerten, die Einhaltung gesetzlicher Vorschriften nachzuweisen, Kontrollmaßnahmen zu bewerten oder die Exposition im Hinblick auf eine epidemiologische Untersuchung zu bewerten. Dieser Artikel beschränkt sich auf Programme zur Identifizierung und Klassifizierung von Gefahren am Arbeitsplatz. Viele Modelle oder Techniken wurden entwickelt, um Gefahren in der Arbeitsumgebung zu identifizieren und zu bewerten. Sie unterscheiden sich in ihrer Komplexität, von einfachen Checklisten, arbeitshygienischen Vorerhebungen, Arbeitsplatz-Expositions-Matrizen und Gefährdungs- und Betriebsfähigkeitsstudien bis hin zu Arbeitsplatz-Expositionsprofilen und Arbeitsüberwachungsprogrammen (Renes 1978; Gressel und Gideon 1991; Holzner, Hirsh und Perper 1993; Goldberg et al 1993; Bouyer und Hémon 1993; Panett, Coggon und Acheson 1985; Tait 1992). Keine einzelne Technik ist eine klare Wahl für jeden, aber alle Techniken haben Teile, die bei jeder Untersuchung nützlich sind. Die Nützlichkeit der Modelle hängt auch vom Untersuchungszweck, der Größe des Arbeitsplatzes, der Art der Produktion und Tätigkeit sowie der Komplexität der Betriebe ab.

                                        Die Identifizierung und Einstufung von Gefahren kann in drei grundlegende Elemente unterteilt werden: Arbeitsplatzcharakterisierung, Expositionsmuster und Gefahrenbewertung.

                                        Charakterisierung des Arbeitsplatzes

                                        Ein Arbeitsplatz kann einige wenige Mitarbeiter bis hin zu mehreren Tausend haben und unterschiedliche Aktivitäten haben (z. B. Produktionsstätten, Baustellen, Bürogebäude, Krankenhäuser oder landwirtschaftliche Betriebe). An einem Arbeitsplatz können verschiedene Tätigkeiten auf spezielle Bereiche wie Abteilungen oder Abteilungen verortet werden. In einem industriellen Prozess können verschiedene Phasen und Vorgänge identifiziert werden, wenn die Produktion vom Rohmaterial bis zum fertigen Produkt erfolgt.

                                        Es sollten detaillierte Informationen über Prozesse, Vorgänge oder andere relevante Aktivitäten eingeholt werden, um verwendete Mittel zu identifizieren, einschließlich Rohmaterialien, Materialien, die im Prozess gehandhabt oder hinzugefügt werden, Primärprodukte, Zwischenprodukte, Endprodukte, Reaktionsprodukte und Nebenprodukte. Zusätze und Katalysatoren in einem Prozess könnten ebenfalls von Interesse sein. Rohstoffe oder Zusatzstoffe, die nur anhand des Handelsnamens identifiziert wurden, müssen nach ihrer chemischen Zusammensetzung bewertet werden. Informationen oder Sicherheitsdatenblätter sollten vom Hersteller oder Lieferanten erhältlich sein.

                                        Einige Phasen in einem Prozess können in einem geschlossenen System stattfinden, ohne dass jemand davon betroffen ist, außer während Wartungsarbeiten oder Prozessausfällen. Diese Ereignisse sollten erkannt und Vorkehrungen getroffen werden, um die Exposition gegenüber gefährlichen Stoffen zu verhindern. Andere Prozesse finden in offenen Systemen statt, die mit oder ohne lokale Absaugung versehen sind. Eine allgemeine Beschreibung des Lüftungssystems sollte bereitgestellt werden, einschließlich des örtlichen Abluftsystems.

                                        Wenn möglich, sollten Gefahren bei der Planung oder Konstruktion neuer Anlagen oder Prozesse identifiziert werden, wenn Änderungen in einem frühen Stadium vorgenommen und Gefahren vorhergesehen und vermieden werden können. Bedingungen und Verfahren, die von der beabsichtigten Ausführung abweichen können, müssen im Prozesszustand identifiziert und bewertet werden. Die Erkennung von Gefahren sollte auch Emissionen in die Außenumgebung und Abfallstoffe umfassen. Anlagenstandorte, Betriebe, Emissionsquellen und -mittel sollten systematisch gruppiert werden, um erkennbare Einheiten in der weiteren Analyse der potenziellen Exposition zu bilden. In jeder Einheit sollten Vorgänge und Arbeitsstoffe nach gesundheitlichen Auswirkungen der Arbeitsstoffe und Schätzung der emittierten Mengen an die Arbeitsumgebung gruppiert werden.

                                        Belichtungsmuster

                                        Die Hauptexpositionswege für chemische und biologische Arbeitsstoffe sind die Inhalation und die dermale Aufnahme oder zufällig durch Verschlucken. Das Expositionsmuster hängt von der Häufigkeit des Kontakts mit den Gefahren, der Expositionsintensität und der Expositionszeit ab. Arbeitsaufgaben müssen systematisch untersucht werden. Es ist wichtig, nicht nur Arbeitshandbücher zu studieren, sondern sich anzusehen, was tatsächlich am Arbeitsplatz passiert. Arbeitnehmer können aufgrund der tatsächlichen Ausführung von Aufgaben direkt exponiert sein oder indirekt exponiert sein, da sie sich in demselben allgemeinen Bereich oder Ort wie die Expositionsquelle befinden. Es kann notwendig sein, sich zunächst auf Arbeitsaufgaben mit hohem Schadenspotenzial zu konzentrieren, auch wenn die Exposition nur von kurzer Dauer ist. Nicht routinemäßige und intermittierende Vorgänge (z. B. Wartung, Reinigung und Änderungen der Produktionszyklen) müssen berücksichtigt werden. Arbeitsaufgaben und -situationen können sich auch im Laufe des Jahres ändern.

                                        Innerhalb derselben Berufsbezeichnung kann die Exposition oder Aufnahme unterschiedlich sein, da einige Arbeitnehmer Schutzausrüstung tragen und andere nicht. In großen Betrieben kann eine Gefährdungserkennung oder eine qualitative Gefährdungsbeurteilung nur selten für jeden einzelnen Arbeiter durchgeführt werden. Daher müssen Arbeitnehmer mit ähnlichen Arbeitsaufgaben in dieselbe Expositionsgruppe eingestuft werden. Unterschiede in den Arbeitsaufgaben, Arbeitstechniken und Arbeitszeiten führen zu erheblich unterschiedlichen Expositionen und müssen berücksichtigt werden. Personen, die im Freien arbeiten, und Personen, die ohne lokale Absaugung arbeiten, haben eine größere tägliche Variabilität als Gruppen, die in Innenräumen mit lokaler Absaugung arbeiten (Kromhout, Symanski und Rappaport 1993). Arbeitsprozesse, Agenten, die sich für diesen Prozess/Job beworben haben, oder verschiedene Aufgaben innerhalb einer Berufsbezeichnung können anstelle der Berufsbezeichnung verwendet werden, um Gruppen mit ähnlicher Exposition zu charakterisieren. Innerhalb der Gruppen müssen potenziell exponierte Arbeitnehmer identifiziert und nach gefährlichen Arbeitsstoffen, Expositionswegen, gesundheitlichen Auswirkungen der Arbeitsstoffe, Häufigkeit des Kontakts mit den Gefahren, Intensität und Dauer der Exposition klassifiziert werden. Verschiedene Expositionsgruppen sollten nach Gefahrstoffen und geschätzter Exposition eingestuft werden, um die am stärksten gefährdeten Arbeitnehmer zu bestimmen.

                                        Qualitative Gefährdungsbeurteilung

                                        Mögliche gesundheitliche Auswirkungen chemischer, biologischer und physikalischer Arbeitsstoffe am Arbeitsplatz sollten auf einer Bewertung verfügbarer epidemiologischer, toxikologischer, klinischer und umweltbezogener Forschungsergebnisse beruhen. Aktuelle Informationen über Gesundheitsgefahren durch Produkte oder Arbeitsstoffe, die am Arbeitsplatz verwendet werden, sollten aus Gesundheits- und Sicherheitszeitschriften, Datenbanken über Toxizität und Auswirkungen auf die Gesundheit sowie einschlägiger wissenschaftlicher und technischer Literatur eingeholt werden.

                                        Materialsicherheitsdatenblätter (MSDSs) sollten bei Bedarf aktualisiert werden. Datenblätter dokumentieren Prozentsätze gefährlicher Inhaltsstoffe zusammen mit der Chemikalienkennung des Chemical Abstracts Service, der CAS-Nummer und dem Schwellenwert (TLV), falls vorhanden. Sie enthalten auch Informationen über Gesundheitsgefahren, Schutzausrüstung, vorbeugende Maßnahmen, Hersteller oder Lieferanten und so weiter. Teilweise sind die angegebenen Inhaltsstoffe eher rudimentär und müssen durch genauere Angaben ergänzt werden.

                                        Überwachte Daten und Aufzeichnungen von Messungen sollten untersucht werden. Arbeitsstoffe mit TLVs bieten eine allgemeine Orientierungshilfe bei der Entscheidung, ob die Situation akzeptabel ist oder nicht, obwohl mögliche Wechselwirkungen berücksichtigt werden müssen, wenn Arbeitnehmer mehreren Chemikalien ausgesetzt sind. Innerhalb und zwischen verschiedenen Expositionsgruppen sollten Arbeitnehmer nach den gesundheitlichen Auswirkungen der vorhandenen Arbeitsstoffe und der geschätzten Exposition eingestuft werden (z. B. von leichten gesundheitlichen Auswirkungen und geringer Exposition bis hin zu schweren gesundheitlichen Auswirkungen und geschätzter hoher Exposition). Diejenigen mit den höchsten Rängen verdienen höchste Priorität. Vor dem Beginn von Präventionsmaßnahmen kann es erforderlich sein, ein Expositionsüberwachungsprogramm durchzuführen. Alle Ergebnisse sollten dokumentiert und leicht erreichbar sein. Ein Arbeitsschema ist in Abbildung 1 dargestellt.

                                        Abbildung 1. Elemente der Risikobewertung

                                        IHY010F3

                                        Bei arbeitshygienischen Untersuchungen können auch die Gefährdungen der Außenumgebung (z. B. Umweltverschmutzung und Treibhauseffekte sowie Auswirkungen auf die Ozonschicht) berücksichtigt werden.

                                        Chemische, biologische und physikalische Wirkstoffe

                                        Gefahren können chemischen, biologischen oder physikalischen Ursprungs sein. In diesem Abschnitt und in Tabelle 1 wird eine kurze Beschreibung der verschiedenen Gefahren gegeben, zusammen mit Beispielen für Umgebungen oder Tätigkeiten, in denen sie anzutreffen sind (Casarett 1980; International Congress on Occupational Health 1985; Jacobs 1992; Leidel, Busch und Lynch 1977; Olishifski 1988; Rylander 1994). Genauere Informationen finden sich an anderer Stelle in diesem Enzyklopädie.

                                        Chemische Mittel

                                        Chemikalien können in Gase, Dämpfe, Flüssigkeiten und Aerosole (Stäube, Dämpfe, Nebel) eingeteilt werden.

                                        Gase

                                        Gase sind Substanzen, die nur durch die kombinierte Wirkung von erhöhtem Druck und verringerter Temperatur in den flüssigen oder festen Zustand überführt werden können. Der Umgang mit Gasen birgt immer ein Expositionsrisiko, es sei denn, sie werden in geschlossenen Systemen verarbeitet. Gase in Behältern oder Verteilerrohren können versehentlich austreten. Bei Prozessen mit hohen Temperaturen (z. B. Schweißarbeiten und Motorabgase) entstehen Gase.

                                        Dämpfe

                                        Dämpfe sind die gasförmige Form von Stoffen, die normalerweise bei Raumtemperatur und Normaldruck im flüssigen oder festen Zustand vorliegen. Wenn eine Flüssigkeit verdunstet, wird sie gasförmig und vermischt sich mit der Umgebungsluft. Ein Dampf kann als Gas betrachtet werden, wobei die maximale Konzentration eines Dampfes von der Temperatur und dem Sättigungsdruck des Stoffes abhängt. Jeder Verbrennungsprozess erzeugt Dämpfe oder Gase. Entfettungsvorgänge können durch Dampfphasenentfettung oder Einweichreinigung mit Lösungsmitteln durchgeführt werden. Arbeitstätigkeiten wie Füllen und Mischen von Flüssigkeiten, Lackieren, Sprühen, Reinigen und Trockenreinigen können schädliche Dämpfe erzeugen.

                                        Flüssigkeiten

                                        Flüssigkeiten können aus einem reinen Stoff oder einer Lösung aus zwei oder mehreren Stoffen bestehen (z. B. Lösungsmittel, Säuren, Laugen). Eine in einem offenen Behälter gelagerte Flüssigkeit verdampft teilweise in die Gasphase. Die Konzentration in der Dampfphase im Gleichgewicht hängt vom Dampfdruck des Stoffes, seiner Konzentration in der flüssigen Phase und der Temperatur ab. Bei Arbeiten oder Tätigkeiten mit Flüssigkeiten können neben gesundheitsschädlichen Dämpfen auch Spritzer oder andere Hautkontakte entstehen.

                                        Stäube

                                        Stäube bestehen aus anorganischen und organischen Partikeln, die je nach Partikelgröße in atembare, thorakale oder lungengängige klassifiziert werden können. Die meisten organischen Stäube sind biologischen Ursprungs. Anorganische Stäube entstehen bei mechanischen Prozessen wie Schleifen, Sägen, Schneiden, Brechen, Sieben oder Sieben. Beim Umgang mit staubigem Material können Stäube aufgewirbelt oder durch Luftbewegungen des Verkehrs aufgewirbelt werden. Beim Umgang mit trockenen Materialien oder Pulvern wie Wiegen, Abfüllen, Beladen, Transportieren und Verpacken entsteht Staub, ebenso wie bei Aktivitäten wie Isolier- und Reinigungsarbeiten.

                                        Dämpfe

                                        Dämpfe sind feste Partikel, die bei hoher Temperatur verdampft und zu kleinen Partikeln kondensiert werden. Die Verdampfung wird oft von einer chemischen Reaktion wie Oxidation begleitet. Die einzelnen Partikel, aus denen ein Rauch besteht, sind extrem fein, normalerweise kleiner als 0.1 μm, und aggregieren oft zu größeren Einheiten. Beispiele sind Rauche beim Schweißen, Plasmaschneiden und ähnlichen Vorgängen.

                                        Nebel

                                        Nebel sind schwebende Flüssigkeitströpfchen, die durch Kondensation vom gasförmigen in den flüssigen Zustand oder durch Aufbrechen einer Flüssigkeit in einen dispergierten Zustand durch Verspritzen, Schäumen oder Zerstäuben entstehen. Beispiele sind Ölnebel aus Schneid- und Schleifarbeiten, Säurenebel aus der Galvanik, Säure- oder Laugennebel aus Beizarbeiten oder Farbsprühnebel aus Spritzarbeiten.

                                         

                                        Zurück

                                        Seite 4 von 7

                                        HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."

                                        Inhalte