Banner ToolsAnsatz

Kinder Kategorien

27. Biologische Überwachung

27. Biologische Überwachung (6)

4 banner

 

27. Biologische Überwachung

Kapitelherausgeber: Robert Lauwerys


 

Inhaltsverzeichnis  

Tabellen und Abbildungen

Allgemeine Grundsätze
Vito Foà und Lorenzo Alessio

Qualitätssicherung
D. Gompertz

Metalle und metallorganische Verbindungen
P. Hoet und Robert Lauwerys

Organische Lösungsmittel
Masayuki Ikeda

Genotoxische Chemikalien
Marja Sorsa

Pestizide
Marco Maroni und Adalberto Ferioli 

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. ACGIH, DFG & andere Grenzwerte für Metalle

2. Beispiele für Chemikalien- und biologisches Monitoring

3. Biologische Überwachung auf organische Lösungsmittel

4. Genotoxizität von Chemikalien, bewertet von IARC

5. Biomarker und einige Zell-/Gewebeproben und Genotoxizität

6. Menschliche Karzinogene, berufliche Exposition und zytogenetische Endpunkte

7. Ethische Prinzipien

8. Exposition durch Produktion und Verwendung von Pestiziden

9. Akute OP-Toxizität bei verschiedenen Graden der ACHE-Hemmung

10 Variationen von ACHE & PCHE & ausgewählten Gesundheitszuständen

11 Cholinesterase-Aktivitäten von nicht exponierten gesunden Menschen

12 Alkylphosphate im Urin und OP-Pestizide

13 Alkylphosphatmessungen im Urin & OP

14 Carbamat-Metaboliten im Urin

15 Dithiocarbamat-Metaboliten im Urin

16 Vorgeschlagene Indizes für die biologische Überwachung von Pestiziden

17 Empfohlene biologische Grenzwerte (Stand 1996)

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

BMO010F1BMO020F1BMO050F1BMO050T1BMO050F2BMO050F3BMO050T5BMO060F1BMO060F2BMO060F3

 


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
28. Epidemiologie und Statistik

28. Epidemiologie und Statistik (12)

4 banner

 

28. Epidemiologie und Statistik

Kapitel-Editoren:  Franco Merletti, Colin L. Soskolne und Paolo Vineis


Inhaltsverzeichnis

Tabellen und Abbildungen

Epidemiologische Methode für Arbeitssicherheit und Gesundheitsschutz
Franco Merletti, Colin L. Soskolne und Paolo Vineis

Expositionsbewertung
M. Gerald Ott

Zusammenfassung der Expositionsmaßnahmen im Arbeitsleben
Colin L. Soskolne

Messung der Auswirkungen von Expositionen
Shelia Hoar Zahm

     Fallbeispiel: Maßnahmen
     Franco Merletti, Colin L. Soskolne und Paola Vineis

Optionen im Studiendesign
Sven Herberg

Validitätsprobleme im Studiendesign
Annie J. Sasco

Einfluss zufälliger Messfehler
Paolo Vineis und Colin L. Soskolne

Statistische Methoden
Annibale Biggeri und Mario Braga

Kausalitätsbewertung und Ethik in der epidemiologischen Forschung
Paolo Vineis

Fallstudien zur Veranschaulichung methodischer Probleme bei der Überwachung von Berufskrankheiten
Jung-Der Wang

Fragebögen in der epidemiologischen Forschung
Steven D. Stellman und Colin L. Soskolne

Asbest Historische Perspektive
Laurent Garfinkel

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Fünf ausgewählte zusammenfassende Maßnahmen zur Exposition im Berufsleben

2. Maße für das Auftreten von Krankheiten

3. Assoziationsmaße für eine Kohortenstudie

4. Assoziationsmaße für Fall-Kontroll-Studien

5. Allgemeines Häufigkeitstabellenlayout für Kohortendaten

6. Musterlayout von Fallkontrolldaten

7. Layout-Fallkontrolldaten – eine Kontrolle pro Fall

8. Hypothetische Kohorte von 1950 Individuen zu T2

9. Indizes der zentralen Tendenz und Streuung

10 Ein binomiales Experiment & Wahrscheinlichkeiten

11 Mögliche Ergebnisse eines binomialen Experiments

12 Binomialverteilung, 15 Erfolge/30 Versuche

13 Binomialverteilung, p = 0.25; 30 Versuche

14 Fehler XNUMX. Art & Leistung; x = 12, n = 30, a = 0.05

15 Fehler XNUMX. Art & Leistung; x = 12, n = 40, a = 0.05

16 632 Arbeitnehmer, die 20 Jahre oder länger Asbest ausgesetzt waren

17 O/E Zahl der Todesfälle unter 632 Asbestarbeitern

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

EPI110F1EPI110F2


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
29. Ergonomie

29. Ergonomie (27)

4 banner

 

29. Ergonomie

Kapitel-Editoren:  Wolfgang Laurig und Joachim Vedder

 


 

Inhaltsverzeichnis 

Tabellen und Abbildungen

Überblick
Wolfgang Laurig und Joachim Vedder

Ziele, Prinzipien und Methoden

Wesen und Ziele der Ergonomie
William T. Singleton

Analyse von Aktivitäten, Aufgaben und Arbeitssystemen
Véronique De Keyser

Ergonomie und Standardisierung
Friedhelm Nachreiner

Prüflisten
Pranab Kumar Nag

Physikalische und physiologische Aspekte

Anthropometrie
Melchiorre Masali

Muskelarbeit
Juhani Smolander und Veikko Louhevaara

Körperhaltungen bei der Arbeit
Ilkka Kurinka

Biomechanik
Frank Darby

Allgemeine Müdigkeit
Etienne Grandjean

Müdigkeit und Erholung
Rolf Helbig und Walter Rohmert

Psychologische Aspekte

Geistige Arbeitsbelastung
Winfried Hacker

Wachsamkeit
Herbert Heuer

Geistige Müdigkeit
Peter Richter

Organisatorische Aspekte der Arbeit

Arbeitsorganisation
Eberhard Ulich und Gudela Grote

Schlafentzug
Kazutaka Kogi

Gestaltung von Arbeitssystemen

Workstations
Roland Kadefors

Tools
TM Fraser

Bedienelemente, Anzeigen und Bedienfelder
Karl HE Kroemer

Informationsverarbeitung und Design
Andries F. Sanders

Designen für alle

Entwerfen für bestimmte Gruppen
Witz H. Grady-van den Nieuwboer

     Fallstudie: Die internationale Klassifikation der Funktionseinschränkung beim Menschen

Kulturelle Unterschiede
Houshang Shahnavaz

Ältere Arbeitnehmer
Antoine Laville und Serge Volkoff

Arbeitnehmer mit besonderen Bedürfnissen
Witz H. Grady-van den Nieuwboer

Vielfalt und Bedeutung der Ergonomie – zwei Beispiele

Systemdesign in der Diamantherstellung
Issachar Gilad

Missachtung ergonomischer Gestaltungsprinzipien: Tschernobyl
Wladimir M. Munipov 

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Grundlegende anthropometrische Kernliste

2. Ermüdung und Erholung abhängig vom Aktivitätsniveau

3. Regeln der Kombinationswirkung zweier Stressfaktoren auf die Belastung

4. Es wird zwischen mehreren negativen Folgen psychischer Belastung unterschieden

5. Arbeitsorientierte Prinzipien zur Produktionsgestaltung

6. Partizipation im organisatorischen Kontext

7. Benutzerbeteiligung am Technologieprozess

8. Unregelmäßige Arbeitszeiten und Schlafentzug

9. Aspekte von Früh-, Anker- und Verzögerungsschlaf

10 Kontrollieren Sie Bewegungen und erwartete Effekte

11 Steuerungs-Wirkungs-Beziehungen gängiger Handsteuerungen

12 Regeln für die Anordnung von Kontrollen

13 Richtlinien für Etiketten

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

ERG040T1ERG040F1ERG040F2ERG040F3ERG040T2ERG040F5ERG070F1ERG070F2ERG070F3ERG060F2ERG060F1ERG060F3ERG080F1ERG080F4ERG090F1ERG090F2ERG090F3ERG090F4ERG225F1ERG225F2ERG150F1ERG150F2ERG150F4ERG150F5ERG150F6ERG120F1ERG130F1ERG290F1ERG160T1ERG160F1ERG185F1ERG185F2ERG185F3ERG185F4ERG190F1ERG190F2ERG190F3ERG210F1ERG210F2ERG210F3ERG210F4ERG210T4ERG210T5ERG210T6ERG220F1ERG240F1ERG240F2ERG240F3ERG240F4ERG260F1ERG300F1ERG255F1

Artikel ansehen ...
32. Aufzeichnungssysteme und Überwachung

32. Aufzeichnungssysteme und Überwachung (9)

4 banner

 

32. Aufzeichnungssysteme und Überwachung

Kapitel-Editor:  Steven D. Stellman

 


 

Inhaltsverzeichnis 

Tabellen und Abbildungen

Überwachungs- und Meldesysteme für Berufskrankheiten
Steven B. Markowitz

Überwachung von Arbeitsgefahren
David H. Wegman und Steven D. Stellman

Überwachung in Entwicklungsländern
David Koh und Kee-Seng Chia

Entwicklung und Anwendung eines Klassifizierungssystems für Arbeitsunfälle und Berufskrankheiten
Elyce Biddle

Risikoanalyse von nicht tödlichen Verletzungen und Krankheiten am Arbeitsplatz
John W. Ruser

Fallstudie: Arbeitnehmerschutz und Statistiken zu Unfällen und Berufskrankheiten - HVBG, Deutschland
Martin Butz und Burkhard Hoffmann

Fallstudie: Wismut – Eine Neuauflage der Uranexposition
Heinz Otten und Horst Schulz

Messstrategien und -techniken für die berufsbedingte Expositionsabschätzung in der Epidemiologie
Frank Bochmann und Helmut Blome

Fallstudie: Arbeitsmedizinische Erhebungen in China

Tische

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

1. Angiosarkom der Leber - Weltregister

2. Berufskrankheit, USA, 1986 versus 1992

3. US-Todesfälle durch Pneumokoniose und Pleuramesotheliom

4. Musterliste meldepflichtiger Berufskrankheiten

5. Codestruktur für die Meldung von Krankheiten und Verletzungen, USA

6. Nichttödliche Arbeitsunfälle und Berufskrankheiten, USA 1993

7. Risiko von Arbeitsunfällen und Berufskrankheiten

8. Relatives Risiko für sich wiederholende Bewegungszustände

9. Arbeitsunfälle, Deutschland, 1981-93

10 Schleifmaschinen bei Unfällen in der Metallverarbeitung, Deutschland, 1984-93

11 Berufskrankheit, Deutschland, 1980-93

12 Infektionskrankheiten, Deutschland, 1980-93

13 Strahlenbelastung in den Wismut-Bergwerken

14 Berufskrankheiten im Wismuter Uranbergwerk 1952-90

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

REC60F1AREC060F2REC100F1REC100T1REC100T2


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
33. Toxikologie

33. Toxikologie (21)

4 banner

 

33. Toxikologie

Kapitelherausgeberin: Ellen K. Silbergeld


Inhaltsverzeichnis

Tabellen und Abbildungen

Einleitung
Ellen K. Silbergeld, Kapitelredakteurin

Allgemeine Prinzipien der Toxikologie

Definitionen und Konzepte
Bo Holmberg, Johan Hogberg und Gunnar Johanson

Toxikokinetik
Dušan Djuric

Zielorgan und kritische Wirkungen
Marek Jakubowski

Auswirkungen von Alter, Geschlecht und anderen Faktoren
Spomenka Telisman

Genetische Determinanten der toxischen Reaktion
Daniel W. Nebert und Ross A. McKinnon

Mechanismen der Toxizität

Einführung und Konzepte
Philip G. Watanabe

Zellschädigung und Zelltod
Benjamin F. Trump und Irene K. Berezesky

Genetische Toxikologie
R. Rita Misra und Michael P. Waalkes

Immuntoxikologie
Joseph G. Vos und Henk van Loveren

Zielorgan-Toxikologie
Ellen K. Silbergeld

Toxikologische Testmethoden

Biomarker
Philipp Grandjean

Bewertung der genetischen Toxizität
David M. DeMarini und James Huff

In-vitro-Toxizitätstest
Joanne Zürlo

Aktivitätsbeziehungen strukturieren
Ellen K. Silbergeld

Regulatorische Toxikologie

Toxikologie in der Gesundheits- und Sicherheitsverordnung
Ellen K. Silbergeld

Prinzipien der Gefahrenidentifizierung - Der japanische Ansatz
Masayuki Ikeda

Der Ansatz der Vereinigten Staaten zur Risikobewertung von reproduktionstoxischen und neurotoxischen Wirkstoffen
Ellen K. Silbergeld

Ansätze zur Gefahrenidentifizierung - IARC
Harri Vainio und Julian Wilbourn

Anhang – Gesamtbewertungen der Karzinogenität beim Menschen: IARC-Monographien, Bände 1–69 (836)

Karzinogen-Risikobewertung: Andere Ansätze
Cees A. van der Heijden

Tische 

Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.

  1. Beispiele für kritische Organe und kritische Effekte
  2. Grundlegende Wirkungen möglicher Mehrfachwechselwirkungen von Metallen
  3. Hämoglobinaddukte bei Arbeitern, die Anilin und Acetanilid ausgesetzt waren
  4. Erbliche, krebsanfällige Erkrankungen und Defekte in der DNA-Reparatur
  5. Beispiele für Chemikalien, die in menschlichen Zellen genotoxisch wirken
  6. Klassifizierung von Tests für Immunmarker
  7. Beispiele für Biomarker der Exposition
  8. Vor- und Nachteile von Methoden zur Identifizierung von Krebsrisiken beim Menschen
  9. Vergleich von In-vitro-Systemen für Hepatotoxizitätsstudien
  10. Vergleich von SAR- und Testdaten: OECD/NTP-Analysen
  11. Regulierung chemischer Stoffe durch Gesetze, Japan
  12. Prüfgegenstände gemäß dem Gesetz zur Kontrolle chemischer Substanzen, Japan
  13. Chemische Substanzen und das Gesetz zur Kontrolle chemischer Substanzen
  14. Ausgewählte größere Neurotoxizitätsvorfälle
  15. Beispiele für spezialisierte Tests zur Messung der Neurotoxizität
  16. Endpunkte in der Reproduktionstoxikologie
  17. Vergleich von Niedrigdosis-Extrapolationsverfahren
  18. Häufig zitierte Modelle zur Charakterisierung des Karzinogenrisikos

Zahlen

Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.

TestTOX050F1TOX050F2TOX050F4TOX050T1TOX050F6TOX210F1TOX210F2TOX060F1TOX090F1TOX090F2TOX090F3TOX090F4TOX110F1TOX260F1TOX260T4


Klicken Sie hier, um zum Seitenanfang zurückzukehren

Artikel ansehen ...
Montag, Februar 28 2011 20: 07

Allgemeine Grundsätze

Grundlegende Konzepte und Definitionen

Auf der Baustelle können industrielle Hygienemethoden nur Chemikalien in der Luft messen und kontrollieren, während andere Aspekte des Problems möglicher schädlicher Stoffe in der Umgebung von Arbeitern, wie Hautabsorption, Verschlucken und nicht arbeitsbedingte Exposition, unentdeckt bleiben und daher unkontrolliert. Biologisches Monitoring hilft, diese Lücke zu schließen.

Biologische Überwachung wurde 1980 in einem Seminar definiert, das gemeinsam von der Europäischen Wirtschaftsgemeinschaft (EWG), dem National Institute for Occupational Safety and Health (NIOSH) und der Occupational Safety and Health Association (OSHA) (Berlin, Yodaiken und Henman 1984) in Luxemburg als „the Messung und Bewertung von Wirkstoffen oder ihren Metaboliten entweder in Geweben, Sekreten, Exkrementen, Ausatemluft oder einer Kombination davon, um die Exposition und das Gesundheitsrisiko im Vergleich zu einer geeigneten Referenz zu bewerten“. Überwachung ist eine sich wiederholende, regelmäßige und präventive Aktivität, die dazu bestimmt ist, erforderlichenfalls zu Korrekturmaßnahmen zu führen; es sollte nicht mit diagnostischen Verfahren verwechselt werden.

Die biologische Überwachung ist eines der drei wichtigen Instrumente zur Verhütung von Krankheiten durch toxische Stoffe im allgemeinen oder beruflichen Umfeld, die anderen beiden sind die Umweltüberwachung und die Gesundheitsüberwachung.

Die Reihenfolge in der möglichen Entwicklung einer solchen Krankheit kann wie folgt schematisch dargestellt werden: Quelle-exponierter chemischer Wirkstoff – innere Dosis – biochemische oder zelluläre Wirkung (reversibel) – gesundheitliche Auswirkungen – Krankheit. Die Beziehungen zwischen Umwelt-, biologischer und Expositionsüberwachung sowie Gesundheitsüberwachung sind in Abbildung 1 dargestellt. 

Abbildung 1. Die Beziehung zwischen Umwelt-, biologischer und Expositionsüberwachung und Gesundheitsüberwachung

BMO010F1

Wenn eine giftige Substanz (z. B. eine Industriechemikalie) in der Umwelt vorhanden ist, kontaminiert sie Luft, Wasser, Lebensmittel oder Oberflächen, die mit der Haut in Kontakt kommen; die Menge an toxischem Agens in diesen Medien wird über bewertet Umweltüberwachung.

Durch Aufnahme, Verteilung, Stoffwechsel und Ausscheidung eine gewisse interne Dosis des toxischen Agens (die Nettomenge eines Schadstoffs, die in einem bestimmten Zeitintervall in den Organismus aufgenommen oder durch den Organismus geleitet wird) effektiv an den Körper abgegeben und in Körperflüssigkeiten nachweisbar wird. Als Ergebnis seiner Wechselwirkung mit einem Rezeptor in der kritisches Organ (das Organ, das unter bestimmten Expositionsbedingungen die erste oder wichtigste nachteilige Wirkung zeigt), treten biochemische und zelluläre Ereignisse auf. Sowohl die interne Dosis als auch die hervorgerufenen biochemischen und zellulären Wirkungen können durch biologisches Monitoring gemessen werden.

Gesundheitsüberwachung wurde auf dem oben erwähnten EEC/NIOSH/OSHA-Seminar von 1980 definiert als „die periodische medizinisch-physiologische Untersuchung exponierter Arbeiter mit dem Ziel, die Gesundheit zu schützen und Krankheiten vorzubeugen“.

Biologisches Monitoring und Gesundheitsüberwachung sind Teile eines Kontinuums, das von der Messung von Wirkstoffen oder ihren Metaboliten im Körper über die Bewertung biochemischer und zellulärer Wirkungen bis hin zur Erkennung von Anzeichen einer frühen reversiblen Beeinträchtigung des kritischen Organs reichen kann. Die Erkennung einer festgestellten Krankheit liegt außerhalb des Umfangs dieser Bewertungen.

Ziele des Biologischen Monitorings

Biologisches Monitoring kann unterteilt werden in (a) Expositionsmonitoring und (b) Wirkungsmonitoring, wofür Indikatoren der inneren Dosis bzw. der Wirkung verwendet werden.

Der Zweck der biologischen Expositionsüberwachung besteht darin, das Gesundheitsrisiko durch die Bewertung der internen Dosis abzuschätzen und eine Schätzung der biologisch aktiven Belastung des Körpers durch die betreffende Chemikalie zu erhalten. Sein Grundprinzip besteht darin, sicherzustellen, dass die Exposition der Arbeitnehmer keine Werte erreicht, die schädliche Wirkungen hervorrufen können. Als „advers“ wird eine Wirkung bezeichnet, wenn eine Beeinträchtigung der Funktionsfähigkeit, eine verminderte Fähigkeit zur Kompensation zusätzlicher Belastungen, eine verminderte Fähigkeit zur Aufrechterhaltung der Homöostase (stabiler Gleichgewichtszustand) oder eine erhöhte Anfälligkeit für andere Umwelteinflüsse vorliegt.

Abhängig von der Chemikalie und dem analysierten biologischen Parameter kann der Begriff interne Dosis unterschiedliche Bedeutungen haben (Bernard und Lauwerys 1987). Erstens kann es die Menge einer Chemikalie bedeuten, die kürzlich aufgenommen wurde, beispielsweise während einer einzigen Arbeitsschicht. Eine Bestimmung der Schadstoffkonzentration in der Alveolarluft oder im Blut kann während der Arbeitsschicht selbst oder erst am nächsten Tag erfolgen (Blut- oder Alveolarluftproben können bis zu 16 Stunden nach Ende der Expositionszeit entnommen werden) . Zweitens könnte in dem Fall, dass die Chemikalie eine lange biologische Halbwertszeit hat – beispielsweise Metalle im Blutkreislauf – die interne Dosis die über einen Zeitraum von einigen Monaten absorbierte Menge widerspiegeln.

Drittens kann der Begriff auch die Menge der gelagerten Chemikalie bedeuten. In diesem Fall stellt er einen Akkumulationsindikator dar, der eine Abschätzung der Konzentration der Chemikalie in Organen und/oder Geweben liefern kann, aus denen sie nach der Ablagerung nur langsam freigesetzt wird. Beispielsweise könnten Messungen von DDT oder PCB im Blut eine solche Schätzung liefern.

Schließlich kann ein interner Dosiswert die Menge der Chemikalie am Wirkungsort angeben und somit Aufschluss über die biologisch wirksame Dosis geben. Eine der vielversprechendsten und wichtigsten Anwendungen dieser Fähigkeit ist beispielsweise die Bestimmung von Addukten, die durch toxische Chemikalien mit Proteinen in Hämoglobin oder mit DNA gebildet werden.

Die biologische Wirkungsüberwachung zielt darauf ab, frühe und reversible Veränderungen zu erkennen, die sich im kritischen Organ entwickeln, und die gleichzeitig Personen mit Anzeichen von gesundheitlichen Beeinträchtigungen identifizieren können. In diesem Sinne stellt die biologische Wirkungsüberwachung das wichtigste Instrument für die Gesundheitsüberwachung von Arbeitnehmern dar.

Hauptüberwachungsmethoden

Die biologische Überwachung der Exposition basiert auf der Bestimmung von Indikatoren der inneren Dosis durch Messung von:

    • die Menge der Chemikalie, der der Arbeiter ausgesetzt ist, im Blut oder Urin (selten in Milch, Speichel oder Fett)
    • die Menge eines oder mehrerer Metaboliten der beteiligten Chemikalie in denselben Körperflüssigkeiten
    • die Konzentration flüchtiger organischer Verbindungen (Lösungsmittel) in der Alveolarluft
    • die biologisch wirksame Dosis von Verbindungen, die Addukte an DNA oder andere große Moleküle gebildet haben und daher eine potenzielle genotoxische Wirkung haben.

           

          Faktoren, die die Konzentration der Chemikalie und ihrer Metaboliten im Blut oder Urin beeinflussen, werden unten diskutiert.

          Für die Konzentration in der Alveolarluft sind neben der Höhe der Umweltexposition vor allem die Löslichkeit und der Metabolismus der eingeatmeten Substanz, die alveoläre Ventilation, das Herzzeitvolumen und die Expositionsdauer entscheidend (Brugnone et al. 1980).

          Die Verwendung von DNA- und Hämoglobin-Addukten zur Überwachung der menschlichen Exposition gegenüber Stoffen mit karzinogenem Potenzial ist eine sehr vielversprechende Technik zur Messung geringer Expositionen. (Allerdings ist zu beachten, dass nicht alle Chemikalien, die im menschlichen Organismus an Makromoleküle binden, genotoxisch, dh potenziell krebserregend, sind.) Die Adduktbildung ist nur ein Schritt im komplexen Prozess der Krebsentstehung. Andere zelluläre Ereignisse wie die Förderung und das Fortschreiten der DNA-Reparatur verändern zweifellos das Risiko, an einer Krankheit wie Krebs zu erkranken. Daher ist die Messung von Addukten zum jetzigen Zeitpunkt nur als Überwachung der Chemikalienexposition zu sehen. Dies wird ausführlicher im Artikel „Genotoxische Chemikalien“ weiter unten in diesem Kapitel diskutiert.

          Die biologische Überwachung der Wirkungen erfolgt durch die Bestimmung von Wirkungsindikatoren, d. h. von solchen, die frühe und reversible Veränderungen erkennen können. Dieser Ansatz kann eine indirekte Abschätzung der an den Wirkorten gebundenen Chemikalienmenge liefern und bietet die Möglichkeit, funktionelle Veränderungen im kritischen Organ in einer frühen Phase zu beurteilen.

          Leider können wir nur einige Beispiele für die Anwendung dieses Ansatzes auflisten, nämlich (1) die Hemmung der Pseudocholinesterase durch Organophosphat-Insektizide, (2) die Hemmung der D-Aminolävulinsäure-Dehydratase (ALA-D) durch anorganisches Blei und (3) die erhöhte Ausscheidung über den Urin d-Glucarsäure und Porphyrine bei Personen, die Chemikalien ausgesetzt waren, die mikrosomale Enzyme induzieren, und/oder Porphyrogene (z. B. chlorierte Kohlenwasserstoffe).

          Vorteile und Grenzen des biologischen Monitorings

          Bei Stoffen, die ihre Toxizität erst nach dem Eintritt in den menschlichen Organismus entfalten, ermöglicht das biologische Monitoring eine fokussiertere und gezieltere Einschätzung des Gesundheitsrisikos als das Umweltmonitoring. Ein biologischer Parameter, der die interne Dosis widerspiegelt, bringt uns dem Verständnis systemischer Nebenwirkungen einen Schritt näher als jede Umweltmessung.

          Das biologische Monitoring bietet gegenüber dem Umweltmonitoring zahlreiche Vorteile und ermöglicht insbesondere die Bewertung von:

            • Exposition über einen längeren Zeitraum
            • Exposition infolge der Arbeitnehmermobilität im Arbeitsumfeld
            • Aufnahme eines Stoffes über verschiedene Wege, einschließlich der Haut
            • Gesamtexposition als Ergebnis verschiedener Quellen von sowohl beruflicher als auch nichtberuflicher Belastung
            • die Menge eines vom Probanden aufgenommenen Stoffes in Abhängigkeit von anderen Faktoren als dem Grad der Exposition, wie z. B. der körperlichen Anstrengung, die durch die Arbeit, die Belüftung oder das Klima erforderlich ist
            • die von einem Probanden aufgenommene Menge eines Stoffes in Abhängigkeit von individuellen Faktoren, die die Toxikokinetik des Giftstoffes im Organismus beeinflussen können; B. Alter, Geschlecht, genetische Merkmale oder Funktionszustand der Organe, in denen die toxische Substanz biotransformiert und ausgeschieden wird.

                       

                      Trotz dieser Vorteile leidet das biologische Monitoring auch heute noch unter erheblichen Einschränkungen, von denen die wichtigsten die folgenden sind:

                        • Die Zahl der möglichen biologisch kontrollierbaren Stoffe ist derzeit noch recht gering.
                        • Im Falle einer akuten Exposition liefert das biologische Monitoring nur nützliche Informationen für die Exposition gegenüber Stoffen, die schnell verstoffwechselt werden, z. B. aromatische Lösungsmittel.
                        • Die Bedeutung biologischer Indikatoren ist nicht klar definiert; Beispielsweise ist nicht immer bekannt, ob die an biologischem Material gemessenen Konzentrationen einer Substanz die aktuelle oder die kumulative Exposition widerspiegeln (z. B. Kadmium und Quecksilber im Urin).
                        • Im Allgemeinen ermöglichen biologische Indikatoren der inneren Dosis eine Einschätzung des Expositionsgrads, liefern jedoch keine Daten, die die tatsächliche Menge messen, die in dem kritischen Organ vorhanden ist
                        • Oft sind keine möglichen Eingriffe in den Stoffwechsel der zu überwachenden Stoffe durch andere körperfremde Stoffe bekannt, denen der Organismus gleichzeitig in der Arbeits- und allgemeinen Umwelt ausgesetzt ist.
                        • Nicht immer liegen ausreichende Kenntnisse über die Zusammenhänge vor, die zwischen der Höhe der Umweltexposition und der Höhe der biologischen Indikatoren einerseits und zwischen der Höhe der biologischen Indikatoren und möglichen gesundheitlichen Auswirkungen andererseits bestehen.
                        • Die Zahl der biologischen Indikatoren, für die derzeit biologische Expositionsindizes (BEIs) existieren, ist eher begrenzt. Weiterführende Informationen sind erforderlich, um festzustellen, ob ein Stoff, von dem derzeit festgestellt wurde, dass er keine nachteiligen Auswirkungen hat, sich zu einem späteren Zeitpunkt als schädlich erweisen könnte.
                        • Ein BEI stellt normalerweise eine Konzentration eines Stoffs dar, die am wahrscheinlichsten in einer Probe beobachtet wird, die von einem gesunden Arbeiter entnommen wurde, der der Chemikalie in gleichem Maße ausgesetzt war wie ein Arbeiter mit einer Inhalationsexposition gegenüber dem TLV (Grenzwert). zeitgewichteter Durchschnitt (TWA).

                                       

                                      Erforderliche Informationen für die Entwicklung von Methoden und Kriterien zur Auswahl biologischer Tests

                                      Die Programmierung des biologischen Monitorings erfordert folgende Grundvoraussetzungen:

                                        • Kenntnisse über den Stoffwechsel eines körperfremden Stoffes im menschlichen Organismus (Toxikokinetik)
                                        • Kenntnis der im kritischen Organ auftretenden Veränderungen (Toxikodynamik)
                                        • Existenz von Indikatoren
                                        • Vorhandensein ausreichend genauer Analysemethoden
                                        • Möglichkeit der Verwendung leicht erhältlicher biologischer Proben, an denen die Indikatoren gemessen werden können
                                        • Existenz von Dosis-Wirkungs- und Dosis-Wirkungs-Beziehungen und Kenntnis dieser Beziehungen
                                        • prädiktive Validität der Indikatoren.

                                                     

                                                    In diesem Zusammenhang ist die Validität eines Tests der Grad, in dem der betrachtete Parameter die Situation so vorhersagt, wie sie wirklich ist (dh wie genauere Messgeräte sie anzeigen würden). Die Gültigkeit wird durch die Kombination zweier Eigenschaften bestimmt: Sensitivität und Spezifität. Wenn ein Test eine hohe Sensitivität besitzt, bedeutet dies, dass er wenige falsch negative Ergebnisse liefert; wenn es eine hohe Spezifität besitzt, wird es wenige falsch positive Ergebnisse liefern (CEC 1985-1989).

                                                    Zusammenhang zwischen Exposition, innerer Dosis und Wirkungen

                                                    Die Untersuchung der Konzentration eines Stoffes in der Arbeitsumgebung und die gleichzeitige Bestimmung der Dosis- und Wirkungsindikatoren bei exponierten Personen ermöglicht Aussagen über den Zusammenhang zwischen beruflicher Exposition und der Konzentration des Stoffes in biologischen Proben sowie zwischen der Letzteres und die frühen Auswirkungen der Exposition.

                                                    Die Kenntnis der Zusammenhänge zwischen der Dosis eines Stoffes und seiner Wirkung ist eine wesentliche Voraussetzung für die Durchführung eines Programms zur biologischen Überwachung. Die Auswertung dazu Dosis-Wirkungs-Beziehung basiert auf der Analyse des Grades der zwischen dem Dosisindikator und dem Wirkungsindikator bestehenden Assoziation und auf der Untersuchung der quantitativen Variationen des Wirkungsindikators bei jeder Variation des Dosisindikators. (Siehe auch das Kapitel Toxikologie, für weitere Diskussionen über dosisabhängige Beziehungen).

                                                    Mit der Untersuchung der Dosis-Wirkungs-Beziehung ist es möglich, die Konzentration des toxischen Stoffes zu ermitteln, bei der der Wirkungsindikator die derzeit als unbedenklich geltenden Werte überschreitet. Darüber hinaus kann auf diese Weise möglicherweise auch untersucht werden, wie hoch die No-Effect-Ebene sein könnte.

                                                    Da nicht alle Individuen einer Gruppe gleich reagieren, ist es notwendig, dies zu untersuchen Dosis-Wirkungs-Beziehung, mit anderen Worten, um zu untersuchen, wie die Gruppe auf die Exposition reagiert, indem das Auftreten des Effekts im Vergleich zur internen Dosis bewertet wird. Der Begriff Antwort bezeichnet den Prozentsatz der Probanden in der Gruppe, die bei jeder Dosisstufe eine spezifische quantitative Variation eines Wirkungsindikators zeigen.

                                                    Praktische Anwendungen der biologischen Überwachung

                                                    Die praktische Anwendung eines biologischen Überwachungsprogramms erfordert Informationen über (1) das Verhalten der verwendeten Indikatoren in Bezug auf die Exposition, insbesondere über Grad, Kontinuität und Dauer der Exposition, (2) das Zeitintervall zwischen Expositionsende und Messung von die Indikatoren und (3) alle anderen physiologischen und pathologischen Faktoren außer der Exposition, die die Indikatorwerte verändern können.

                                                    In den folgenden Artikeln wird das Verhalten einiger biologischer Dosis- und Wirkungsindikatoren vorgestellt, die zur Überwachung der beruflichen Exposition gegenüber in der Industrie weit verbreiteten Stoffen verwendet werden. Der praktische Nutzen und die Grenzen werden für jeden Stoff bewertet, mit besonderem Augenmerk auf den Zeitpunkt der Probenahme und Störfaktoren. Solche Überlegungen sind hilfreich bei der Festlegung von Kriterien für die Auswahl eines biologischen Tests.

                                                    Zeitpunkt der Probenahme

                                                    Bei der Wahl des Probenahmezeitpunktes sind die unterschiedlichen kinetischen Aspekte der Chemikalie zu berücksichtigen; insbesondere ist es wichtig zu wissen, wie die Substanz über die Lunge, den Magen-Darm-Trakt und die Haut aufgenommen, anschließend auf die verschiedenen Körperkompartimente verteilt, biotransformiert und schließlich ausgeschieden wird. Es ist auch wichtig zu wissen, ob sich die Chemikalie im Körper anreichern kann.

                                                    Bei der Exposition gegenüber organischen Stoffen kommt dem Entnahmezeitpunkt biologischer Proben eine umso größere Bedeutung zu, als die Stoffwechselvorgänge unterschiedlich schnell ablaufen und die aufgenommene Dosis somit mehr oder weniger schnell ausgeschieden wird.

                                                    Störfaktoren

                                                    Die korrekte Verwendung biologischer Indikatoren erfordert eine gründliche Kenntnis jener Faktoren, die, obwohl unabhängig von der Exposition, dennoch die Konzentration biologischer Indikatoren beeinflussen können. Im Folgenden sind die wichtigsten Arten von Störfaktoren aufgeführt (Alessio, Berlin und Foà 1987).

                                                    Physiologische Faktoren wie beispielsweise Ernährung, Geschlecht und Alter können die Ergebnisse beeinflussen. Der Verzehr von Fisch und Krustentieren kann die Arsen- und Blutquecksilberwerte im Urin erhöhen. Bei weiblichen Probanden mit den gleichen Bleiblutwerten wie bei Männern sind die Erythrozyten-Protoporphyrin-Werte signifikant höher als bei männlichen Probanden. Die Konzentration von Cadmium im Urin steigt mit dem Alter an.

                                                    Unter den persönlichen Gewohnheiten, die die Indikatorwerte verfälschen können, sind Rauchen und Alkoholkonsum besonders wichtig. Rauchen kann eine direkte Absorption von Substanzen verursachen, die natürlicherweise in Tabakblättern vorhanden sind (z. B. Cadmium), oder von Schadstoffen, die in der Arbeitsumgebung vorhanden sind und sich auf den Zigaretten abgelagert haben (z. B. Blei), oder von Verbrennungsprodukten (z. B. Kohlenmonoxid).

                                                    Alkoholkonsum kann die Konzentration biologischer Indikatoren beeinflussen, da Substanzen wie Blei von Natur aus in alkoholischen Getränken enthalten sind. Starke Trinker beispielsweise weisen höhere Bleiwerte im Blut auf als Kontrollpersonen. Die Einnahme von Alkohol kann die Biotransformation und die Ausscheidung toxischer industrieller Verbindungen beeinträchtigen: Mit einer einzigen Dosis kann Alkohol den Metabolismus vieler Lösungsmittel hemmen, beispielsweise Trichlorethylen, Xylol, Styrol und Toluol, da sie mit Ethylalkohol um Enzyme konkurrieren, die sind für den Abbau von Ethanol und Lösungsmitteln unerlässlich. Die regelmäßige Einnahme von Alkohol kann auch den Metabolismus von Lösungsmitteln auf völlig andere Weise beeinflussen, indem sie den Lösungsmittelmetabolismus beschleunigt, vermutlich aufgrund der Induktion des Mikrosomen-Oxidationssystems. Da Ethanol die wichtigste stoffwechselstörende Substanz ist, empfiehlt es sich, Expositionsindikatoren für Lösungsmittel nur an alkoholfreien Tagen zu ermitteln.

                                                    Es liegen weniger Informationen über die möglichen Wirkungen von Arzneimitteln auf die Konzentration biologischer Indikatoren vor. Es wurde gezeigt, dass Aspirin die biologische Umwandlung von Xylol zu Methylhippursäure stören kann, und Phenylsalicylat, ein weithin als Analgetikum verwendetes Medikament, kann die Konzentration von Harnphenolen signifikant erhöhen. Die Einnahme von Antazida auf Aluminiumbasis kann zu erhöhten Aluminiumspiegeln in Plasma und Urin führen.

                                                    Bei verschiedenen ethnischen Gruppen wurden deutliche Unterschiede im Metabolismus weit verbreiteter Lösungsmittel wie Toluol, Xylol, Trichlorethylen, Tetrachlorethylen und Methylchloroform beobachtet.

                                                    Erworbene pathologische Zustände können die Werte biologischer Indikatoren beeinflussen. Das kritische Organ kann sich aufgrund der spezifischen Wirkung des toxischen Agens, aber auch aus anderen Gründen gegenüber biologischen Überwachungstests anormal verhalten. Ein Beispiel für Situationen der ersten Art ist das Verhalten der Cadmiumspiegel im Urin: Wenn eine tubuläre Erkrankung aufgrund von Cadmium einsetzt, steigt die Urinausscheidung deutlich an und die Testwerte spiegeln nicht mehr den Grad der Exposition wider. Ein Beispiel für den zweiten Situationstyp ist der Anstieg der Erythrozyten-Protoporphyrinspiegel, der bei Personen mit Eisenmangel beobachtet wird, die keine anormale Bleiabsorption zeigen.

                                                    Physiologische Veränderungen der biologischen Medien, beispielsweise Urin, die den Bestimmungen der biologischen Indikatoren zugrunde liegen, können die Testwerte beeinflussen. Aus praktischen Gründen können von Einzelpersonen während der Arbeit nur punktuelle Urinproben entnommen werden, und die unterschiedliche Dichte dieser Proben bedeutet, dass die Konzentrationen des Indikators im Laufe eines einzelnen Tages stark schwanken können.

                                                    Um diese Schwierigkeit zu überwinden, ist es ratsam, überverdünnte oder überkonzentrierte Proben gemäß ausgewählten spezifischen Gewichts- oder Kreatininwerten zu beseitigen. Insbesondere sollte Urin mit einem spezifischen Gewicht unter 1010 oder über 1030 oder mit einer Kreatininkonzentration unter 0.5 g/l oder über 3.0 g/l verworfen werden. Mehrere Autoren schlagen auch vor, die Werte der Indikatoren nach spezifischem Gewicht anzupassen oder die Werte nach dem Kreatiningehalt im Urin auszudrücken.

                                                    Auch pathologische Veränderungen der biologischen Medien können die Werte der biologischen Indikatoren erheblich beeinflussen. Beispielsweise können bei anämischen Personen, die Metallen (Quecksilber, Kadmium, Blei usw.) ausgesetzt sind, die Blutspiegel des Metalls niedriger sein, als aufgrund der Exposition zu erwarten wäre; dies liegt an der geringen Menge an roten Blutkörperchen, die das giftige Metall im Blutkreislauf transportieren.

                                                    Bei der Bestimmung von toxischen Substanzen oder an Erythrozyten gebundenen Metaboliten im Vollblut ist es daher immer ratsam, den Hämatokrit zu bestimmen, der ein Maß für den Anteil der Blutkörperchen im Vollblut ist.

                                                    Mehrfache Exposition gegenüber toxischen Stoffen, die am Arbeitsplatz vorhanden sind

                                                    Bei kombinierter Exposition gegenüber mehr als einem am Arbeitsplatz vorhandenen toxischen Stoff können Stoffwechselstörungen auftreten, die das Verhalten der biologischen Indikatoren verändern und damit ernsthafte Interpretationsprobleme bereiten können. In Humanstudien wurden Interferenzen beispielsweise bei kombinierter Exposition gegenüber Toluol und Xylol, Xylol und Ethylbenzol, Toluol und Benzol, Hexan und Methylethylketon, Tetrachlorethylen und Trichlorethylen nachgewiesen.

                                                    Insbesondere ist zu beachten, dass bei Hemmung der Biotransformation eines Lösungsmittels die Ausscheidung seines Metaboliten im Urin reduziert wird (mögliche Risikounterschätzung), während die Konzentrationen des Lösungsmittels im Blut und in der ausgeatmeten Luft ansteigen (mögliche Risikoüberschätzung).

                                                    In Situationen, in denen es möglich ist, die Substanzen und ihre Metaboliten gleichzeitig zu messen, um den Grad der inhibitorischen Interferenz zu interpretieren, wäre es daher sinnvoll zu prüfen, ob die Konzentrationen der Metaboliten im Urin niedriger als erwartet sind und gleichzeitig, ob die Konzentration der Lösungsmittel im Blut und/oder der ausgeatmeten Luft ist höher.

                                                    Stoffwechselstörungen wurden für Expositionen beschrieben, bei denen die einzelnen Substanzen in Konzentrationen nahe und manchmal unter den derzeit akzeptierten Grenzwerten vorhanden sind. Interferenzen treten jedoch normalerweise nicht auf, wenn die Exposition gegenüber allen am Arbeitsplatz vorhandenen Stoffen gering ist.

                                                    Praktische Anwendung biologischer Indikatoren

                                                    Biologische Indikatoren können für verschiedene Zwecke in der arbeitsmedizinischen Praxis verwendet werden, insbesondere für (1) regelmäßige Kontrollen einzelner Arbeitnehmer, (2) Analysen der Exposition einer Gruppe von Arbeitnehmern und (3) epidemiologische Bewertungen. Die verwendeten Tests sollten die Merkmale Präzision, Genauigkeit, gute Sensitivität und Spezifität besitzen, um die mögliche Anzahl falscher Einstufungen zu minimieren.

                                                    Referenzwerte und Referenzgruppen

                                                    Ein Referenzwert ist die Konzentration eines biologischen Indikators in der Allgemeinbevölkerung, die beruflich nicht der untersuchten toxischen Substanz ausgesetzt ist. Es ist notwendig, auf diese Werte Bezug zu nehmen, um die Daten zu vergleichen, die durch biologische Überwachungsprogramme in einer mutmaßlich exponierten Bevölkerung gewonnen wurden. Referenzwerte sollten nicht mit Grenzwerten verwechselt werden, die im Allgemeinen die gesetzlichen Grenzwerte oder Richtlinien für die Exposition am Arbeitsplatz und in der Umwelt sind (Alessio et al. 1992).

                                                    Wenn Ergebnisse von Gruppenanalysen verglichen werden müssen, muss die Verteilung der Werte in der Referenzgruppe und in der untersuchten Gruppe bekannt sein, da nur dann ein statistischer Vergleich möglich ist. In diesen Fällen ist es wichtig zu versuchen, die allgemeine Bevölkerung (Referenzgruppe) mit der exponierten Gruppe für ähnliche Merkmale wie Geschlecht, Alter, Lebensstil und Essgewohnheiten abzugleichen.

                                                    Um verlässliche Referenzwerte zu erhalten, muss sichergestellt werden, dass die Probanden der Referenzgruppe weder beruflich noch durch besondere Umweltbelastungen den toxischen Stoffen ausgesetzt waren.

                                                    Bei der Bewertung der Exposition gegenüber toxischen Stoffen muss darauf geachtet werden, keine Personen einzubeziehen, die, obwohl sie der betreffenden toxischen Substanz nicht direkt ausgesetzt sind, am selben Arbeitsplatz arbeiten, denn wenn diese Personen tatsächlich indirekt exponiert sind, handelt es sich um die Exposition der Gruppe kann folglich unterschätzt werden.

                                                    Eine weitere zu vermeidende Praxis, obwohl sie immer noch weit verbreitet ist, ist die Verwendung von in der Literatur angegebenen Werten zu Referenzzwecken, die aus Falllisten aus anderen Ländern stammen und möglicherweise häufig in Regionen mit unterschiedlichen Umweltverschmutzungssituationen gesammelt wurden.

                                                    Regelmäßige Überwachung einzelner Arbeitnehmer

                                                    Die regelmäßige Überwachung einzelner Arbeitnehmer ist obligatorisch, wenn sich die Schadstoffkonzentrationen in der Atmosphäre der Arbeitsumgebung dem Grenzwert nähern. Wenn möglich, ist es ratsam, gleichzeitig einen Expositionsindikator und einen Wirkungsindikator zu überprüfen. Die so gewonnenen Daten sollten mit den Referenzwerten und den für den untersuchten Stoff vorgeschlagenen Grenzwerten verglichen werden (ACGIH 1993).

                                                    Analyse einer Gruppe von Arbeitern

                                                    Die Analyse einer Gruppe wird obligatorisch, wenn die Ergebnisse der verwendeten biologischen Indikatoren durch expositionsunabhängige Faktoren (Ernährung, Konzentration oder Verdünnung des Urins usw.) deutlich beeinflusst werden können und für die eine große Bandbreite von „normalen“ Werten existiert.

                                                    Um sicherzustellen, dass die Gruppenstudie nützliche Ergebnisse liefert, muss die Gruppe ausreichend zahlreich und homogen in Bezug auf Exposition, Geschlecht und, im Fall einiger toxischer Arbeitsstoffe, Dienstalter sein. Je konstanter die Expositionsniveaus über die Zeit sind, desto zuverlässiger sind die Daten. Eine Untersuchung, die an einem Arbeitsplatz durchgeführt wird, an dem die Arbeitnehmer häufig die Abteilung oder den Arbeitsplatz wechseln, hat wenig Wert. Für eine korrekte Bewertung einer Gruppenstudie reicht es nicht aus, die Daten nur als Mittelwerte und Spannweite auszudrücken. Auch die Häufigkeitsverteilung der Werte des jeweiligen biologischen Indikators muss berücksichtigt werden.

                                                    Epidemiologische Bewertungen

                                                    Daten aus der biologischen Überwachung von Arbeitnehmergruppen können auch in Querschnitts- oder prospektiven epidemiologischen Studien verwendet werden.

                                                    Querschnittsstudien können verwendet werden, um die Situationen in verschiedenen Abteilungen der Fabrik oder in verschiedenen Branchen zu vergleichen, um Risikokarten für Herstellungsprozesse zu erstellen. Eine Schwierigkeit, die bei dieser Art von Anwendung auftreten kann, hängt damit zusammen, dass laborübergreifende Qualitätskontrollen noch nicht weit genug verbreitet sind; daher kann nicht garantiert werden, dass verschiedene Labors vergleichbare Ergebnisse liefern.

                                                    Prospektive Studien dienen der Beurteilung des zeitlichen Verhaltens der Expositionswerte, um beispielsweise die Wirksamkeit von Umweltverbesserungen zu überprüfen oder das Verhalten biologischer Indikatoren über die Jahre mit dem Gesundheitszustand der überwachten Personen zu korrelieren. Die Ergebnisse solcher Langzeitstudien sind sehr nützlich, um Probleme zu lösen, die sich im Laufe der Zeit ändern. Als geeignetes Verfahren zur Beurteilung, ob eine aktuelle Exposition als „sicher“ einzuschätzen ist, wird derzeit vor allem Biologisches Monitoring eingesetzt, für die Beurteilung von Situationen im Zeitverlauf ist es jedoch noch nicht gültig. Ein bestimmtes Expositionsniveau, das heute als sicher gilt, kann irgendwann in der Zukunft nicht mehr als solches angesehen werden.

                                                    Ethische Aspekte

                                                    Im Zusammenhang mit der Verwendung biologischer Überwachung als Instrument zur Bewertung potenzieller Toxizität ergeben sich einige ethische Erwägungen. Ein Ziel einer solchen Überwachung besteht darin, genügend Informationen zu sammeln, um zu entscheiden, welcher Grad einer bestimmten Wirkung eine unerwünschte Wirkung darstellt; in Ermangelung ausreichender Daten wird jede Störung als unerwünscht angesehen. Die regulatorischen und rechtlichen Implikationen dieser Art von Informationen müssen bewertet werden. Daher sollten wir eine gesellschaftliche Diskussion und einen Konsens darüber anstreben, wie biologische Indikatoren am besten verwendet werden sollten. Mit anderen Worten, Arbeitnehmer, Arbeitgeber, Kommunen und Aufsichtsbehörden müssen über die Bedeutung der Ergebnisse der biologischen Überwachung aufgeklärt werden, damit niemand übermäßig beunruhigt oder selbstzufrieden ist.

                                                    Es muss eine angemessene Kommunikation mit der Person, an der der Test durchgeführt wurde, über die Ergebnisse und deren Interpretation stattfinden. Darüber hinaus sollte allen Teilnehmern klar vermittelt werden, ob die Verwendung einiger Indikatoren experimentell ist oder nicht.

                                                    Der International Code of Ethics for Occupational Health Professionals, herausgegeben von der International Commission on Occupational Health im Jahr 1992, besagt, dass „biologische Tests und andere Untersuchungen unter dem Gesichtspunkt ihrer Aussagekraft zum Schutz der Gesundheit des betreffenden Arbeitnehmers ausgewählt werden müssen, unter gebührender Berücksichtigung ihrer Sensitivität, ihrer Spezifität und ihres Vorhersagewerts“. Es dürfen keine Tests verwendet werden, „die nicht zuverlässig sind oder keinen ausreichenden Vorhersagewert in Bezug auf die Anforderungen des Arbeitsauftrags haben“. (Siehe Kapitel Ethische Fragen für weitere Diskussionen und den Text des Kodex.)

                                                    Trends in Regulierung und Anwendung

                                                    Aufgrund der begrenzten Verfügbarkeit geeigneter Referenzdaten kann ein biologisches Monitoring nur für eine begrenzte Anzahl von Umweltschadstoffen durchgeführt werden. Dies erlegt dem Einsatz des biologischen Monitorings bei der Bewertung der Exposition erhebliche Einschränkungen auf.

                                                    Die Weltgesundheitsorganisation (WHO) beispielsweise hat gesundheitsbasierte Referenzwerte nur für Blei, Quecksilber und Cadmium vorgeschlagen. Diese Werte sind definiert als Werte in Blut und Urin, die nicht mit nachweisbaren Nebenwirkungen verbunden sind. Die American Conference of Governmental Industrial Hygienists (ACGIH) hat biologische Expositionsindizes (BEIs) für etwa 26 Verbindungen festgelegt; BEIs sind definiert als „Werte für Determinanten, die Indikatoren für den Grad der integrierten Exposition gegenüber Industriechemikalien sind“ (ACGIH 1995).

                                                     

                                                    Zurück

                                                    Montag, März 07 2011 18: 49

                                                    Wesen und Ziele der Ergonomie

                                                    Definition und Geltungsbereich

                                                    Ergonomie bedeutet wörtlich das Studium oder die Messung der Arbeit. In diesem Zusammenhang bedeutet der Begriff Arbeit eine zweckmäßige menschliche Funktion; es erstreckt sich über das engere Konzept der Arbeit als Arbeit für Geldgewinn hinaus und umfasst alle Aktivitäten, mit denen ein rationaler menschlicher Bediener systematisch ein Ziel verfolgt. So umfasst es Sport- und andere Freizeitaktivitäten, Hausarbeit wie Kinderbetreuung und Haushaltsführung, Aus- und Weiterbildung, Gesundheits- und Sozialdienste und entweder die Steuerung technischer Systeme oder die Anpassung an sie, beispielsweise als Beifahrer in einem Fahrzeug.

                                                    Der menschliche Bediener, der Schwerpunkt der Studie, kann ein qualifizierter Fachmann sein, der eine komplexe Maschine in einer künstlichen Umgebung bedient, ein Kunde, der zufällig ein neues Gerät für den persönlichen Gebrauch gekauft hat, ein Kind, das in einem Klassenzimmer sitzt, oder eine behinderte Person in einem Rollstuhl. Der Mensch ist sehr anpassungsfähig, aber nicht unendlich. Es gibt Bereiche optimaler Bedingungen für jede Aktivität. Eine der Aufgaben der Ergonomie ist es, diese Bereiche zu definieren und die unerwünschten Wirkungen zu untersuchen, die auftreten, wenn die Grenzen überschritten werden – zum Beispiel, wenn eine Person unter Bedingungen übermäßiger Hitze, Lärm oder Vibrationen arbeiten muss, oder wenn die körperliche oder die geistige Belastung ist zu hoch oder zu niedrig.

                                                    Die Ergonomie untersucht nicht nur die passive Umgebungssituation, sondern auch die einzigartigen Vorteile des Menschen und die Beiträge, die geleistet werden können, wenn eine Arbeitssituation so gestaltet ist, dass der Mensch seine Fähigkeiten optimal einsetzen und fördern kann. Menschliche Fähigkeiten können nicht nur in Bezug auf den allgemeinen menschlichen Operator charakterisiert werden, sondern auch in Bezug auf jene spezielleren Fähigkeiten, die in spezifischen Situationen gefordert werden, in denen eine hohe Leistung wesentlich ist. Zum Beispiel wird ein Automobilhersteller den Bereich der körperlichen Größe und Stärke der Bevölkerung von Fahrern berücksichtigen, von denen erwartet wird, dass sie ein bestimmtes Modell verwenden, um sicherzustellen, dass die Sitze bequem sind, dass die Bedienelemente leicht erkennbar und in Reichweite sind, dass es klar ist Sicht nach vorne und hinten und dass die Inneninstrumente gut ablesbar sind. Auch der einfache Ein- und Ausstieg wird berücksichtigt. Der Konstrukteur eines Rennwagens hingegen geht davon aus, dass der Fahrer sportlich ist, so dass es beispielsweise nicht auf den bequemen Ein- und Ausstieg ankommt, sondern auf Designmerkmale insgesamt in Bezug auf den Fahrer zugeschnitten auf die Maße und Vorlieben eines bestimmten Fahrers, um sicherzustellen, dass er oder sie sein oder ihr volles Potenzial und Können als Fahrer entfalten kann.

                                                    Bei allen Situationen, Tätigkeiten und Aufgaben steht der oder die beteiligten Personen im Mittelpunkt. Es wird davon ausgegangen, dass die Struktur, die Technik und alle anderen Technologien dem Betreiber dienen und nicht umgekehrt.

                                                    Geschichte und Status

                                                    Vor etwa einem Jahrhundert wurde erkannt, dass die Arbeitszeiten und -bedingungen in einigen Bergwerken und Fabriken in Bezug auf Sicherheit und Gesundheit nicht tolerierbar waren, und es war offensichtlich, dass Gesetze erlassen werden mussten, um diesbezüglich zulässige Grenzwerte festzulegen. Die Bestimmung und Festlegung dieser Grenzen kann als Beginn der Ergonomie angesehen werden. Sie waren übrigens der Beginn aller Aktivitäten, die heute ihren Ausdruck in der Arbeit der Internationalen Arbeitsorganisation (ILO) finden.

                                                    Forschung, Entwicklung und Anwendung gingen bis zum Zweiten Weltkrieg langsam voran. Dies löste eine stark beschleunigte Entwicklung von Maschinen und Instrumenten wie Fahrzeugen, Flugzeugen, Panzern, Kanonen und stark verbesserten Sensor- und Navigationsgeräten aus. Mit fortschreitender Technologie stand eine größere Flexibilität zur Verfügung, um eine Anpassung an den Bediener zu ermöglichen, eine Anpassung, die umso notwendiger wurde, als die menschliche Leistung die Leistung des Systems begrenzte. Wenn ein angetriebenes Fahrzeug mit einer Geschwindigkeit von nur wenigen Kilometern pro Stunde fahren kann, muss man sich um die Leistung des Fahrers keine Sorgen machen, aber wenn die Höchstgeschwindigkeit des Fahrzeugs um den Faktor zehn oder hundert erhöht wird, dann hat der Fahrer es getan schneller reagieren und es bleibt keine Zeit, Fehler zu korrigieren, um eine Katastrophe abzuwenden. In ähnlicher Weise müssen Sie sich mit verbesserter Technologie weniger Gedanken über mechanische oder elektrische Fehler (z. B.) machen und die Aufmerksamkeit wird frei, um über die Bedürfnisse des Fahrers nachzudenken.

                                                    So wird Ergonomie im Sinne der Anpassung der Technik an die Bedürfnisse des Bedieners mit fortschreitender Technik gleichzeitig notwendiger und machbarer.

                                                    Der Begriff Ergonomie wurde um 1950 verwendet, als die Prioritäten der sich entwickelnden Industrie die Prioritäten des Militärs verdrängten. Die Entwicklung von Forschung und Anwendung für die folgenden dreißig Jahre ist ausführlich in Singleton (1982) beschrieben. Die Organisationen der Vereinten Nationen, insbesondere die ILO und die Weltgesundheitsorganisation (WHO), wurden in den 1960er Jahren auf diesem Gebiet aktiv.

                                                    In der unmittelbaren Nachkriegsindustrie war das übergeordnete Ziel, das von der Ergonomie geteilt wurde, eine höhere Produktivität. Dies war ein erreichbares Ziel für die Ergonomie, weil so viel industrielle Produktivität direkt von der körperlichen Anstrengung der beteiligten Arbeiter bestimmt wurde – die Montagegeschwindigkeit und die Hub- und Bewegungsgeschwindigkeit bestimmten das Ausmaß der Leistung. Allmählich ersetzte die mechanische Kraft die menschliche Muskelkraft. Mehr Leistung führt jedoch zu mehr Unfällen nach dem einfachen Prinzip, dass ein Unfall die Folge von Leistung am falschen Ort zur falschen Zeit ist. Wenn es schneller geht, erhöht sich das Unfallpotenzial weiter. So verlagerten sich die Sorge der Industrie und das Ziel der Ergonomie allmählich von der Produktivität zur Sicherheit. Dies geschah in den 1960er und frühen 1970er Jahren. Ungefähr und nach dieser Zeit verlagerte sich ein Großteil der Fertigungsindustrie von der Chargenproduktion auf die Fließ- und Prozessproduktion. Die Rolle des Betreibers verschob sich entsprechend von der direkten Beteiligung hin zur Überwachung und Kontrolle. Dies führte zu einer geringeren Unfallhäufigkeit, da der Bediener weiter vom Einsatzort entfernt war, aber manchmal zu einer größeren Unfallschwere aufgrund der Geschwindigkeit und Kraft, die dem Prozess innewohnen.

                                                    Wenn die Leistung von der Geschwindigkeit bestimmt wird, mit der Maschinen arbeiten, dann wird die Produktivität zu einer Frage der Aufrechterhaltung des Systems: Mit anderen Worten, Zuverlässigkeit ist das Ziel. Somit wird der Bediener eher zu einem Überwacher, einem Problemlöser und einem Instandhalter als zu einem direkten Manipulator.

                                                    Diese historische Skizze der Veränderungen in der Fertigungsindustrie der Nachkriegszeit könnte darauf hindeuten, dass der Ergonom regelmäßig eine Reihe von Problemen fallen gelassen und eine andere aufgegriffen hat, aber das ist aus mehreren Gründen nicht der Fall. Wie bereits erläutert, sind die Anliegen der Ergonomie viel umfassender als die der Fertigungsindustrie. Neben der Produktionsergonomie gibt es die Produkt- oder Designergonomie, also die Anpassung der Maschine oder des Produkts an den Benutzer. In der Automobilindustrie beispielsweise ist Ergonomie nicht nur für die Komponentenfertigung und die Produktionslinien wichtig, sondern auch für den späteren Fahrer, Beifahrer und Wartungspersonal. Bei der Vermarktung von Autos und bei deren kritischer Bewertung durch andere ist es heute Routine, die Qualität der Ergonomie zu überprüfen, unter Berücksichtigung von Fahrverhalten, Sitzkomfort, Handling, Geräusch- und Vibrationspegel, Benutzerfreundlichkeit der Bedienelemente, Sicht nach innen und außen und so weiter an.

                                                    Es wurde oben angedeutet, dass die menschliche Leistung normalerweise innerhalb eines Toleranzbereichs einer relevanten Variablen optimiert wird. Ein Großteil der frühen Ergonomie versuchte, sowohl die Muskelleistung als auch das Ausmaß und die Vielfalt der Bewegung zu reduzieren, indem sichergestellt wurde, dass solche Toleranzen nicht überschritten wurden. Die größte Veränderung in der Arbeitssituation, das Aufkommen von Computern, hat das gegenteilige Problem geschaffen. Ein Computerarbeitsplatz kann, wenn er nicht ergonomisch gut gestaltet ist, zu einer zu starren Körperhaltung, zu wenig Körperbewegung und zu vielen Wiederholungen bestimmter Kombinationen von Gelenkbewegungen führen.

                                                    Dieser kurze historische Rückblick soll darauf hinweisen, dass die Ergonomie zwar kontinuierlich weiterentwickelt wurde, jedoch eher die Form des Hinzufügens von immer mehr Problemen als der Änderung der Probleme angenommen hat. Der Wissensschatz wächst jedoch und wird zuverlässiger und gültiger, Energieverbrauchsnormen hängen nicht davon ab, wie oder warum die Energie verbraucht wird, Haltungsprobleme sind in Flugzeugsitzen und vor Computerbildschirmen gleich, viele menschliche Aktivitäten beinhalten jetzt den Konsum Videobildschirme und es gibt etablierte Prinzipien, die auf einer Mischung aus Laborbefunden und Feldstudien basieren.

                                                    Ergonomie und verwandte Disziplinen

                                                    Die Entwicklung einer wissenschaftsbasierten Anwendung, die zwischen den etablierten Technologien der Ingenieurwissenschaften und der Medizin angesiedelt ist, überschneidet sich zwangsläufig mit vielen verwandten Disziplinen. Was die wissenschaftliche Grundlage anbelangt, stammt ein Großteil des ergonomischen Wissens aus den Geisteswissenschaften: Anatomie, Physiologie und Psychologie. Die Naturwissenschaften leisten beispielsweise auch einen Beitrag zur Lösung von Beleuchtungs-, Heizungs-, Lärm- und Vibrationsproblemen.

                                                    Die meisten europäischen Pioniere der Ergonomie waren Mitarbeiter der Humanwissenschaften, und aus diesem Grund ist die Ergonomie gut ausbalanciert zwischen Physiologie und Psychologie. Als Hintergrund zu Problemen wie Energieverbrauch, Körperhaltung und Kraftaufbringung einschließlich Heben ist eine physiologische Orientierung erforderlich. Eine psychologische Orientierung ist erforderlich, um Probleme wie Informationspräsentation und Arbeitszufriedenheit zu untersuchen. Natürlich gibt es viele Probleme, die einen gemischten humanwissenschaftlichen Ansatz erfordern, wie Stress, Müdigkeit und Schichtarbeit.

                                                    Die meisten amerikanischen Pioniere auf diesem Gebiet waren entweder in der experimentellen Psychologie oder im Ingenieurwesen tätig, und aus diesem Grund sind ihre typischen Berufsbezeichnungen –Human Engineering und menschliche Faktoren— einen Unterschied in der Betonung (aber nicht in den Kerninteressen) von der europäischen Ergonomie widerspiegeln. Dies erklärt auch, warum die Arbeitshygiene aufgrund ihrer engen Verwandtschaft mit der Medizin, insbesondere der Arbeitsmedizin, in den Vereinigten Staaten als ganz anders angesehen wird als Human Factors oder Ergonomie. Der Unterschied in anderen Teilen der Welt ist weniger ausgeprägt. Die Ergonomie konzentriert sich auf den menschlichen Bediener in Aktion, die Arbeitshygiene konzentriert sich auf die Gefahren für den menschlichen Bediener in der Umgebung. Daher gilt das zentrale Interesse des Arbeitshygienikers toxischen Gefahren, die außerhalb des Aufgabenbereichs des Ergonomen liegen. Der Arbeitshygieniker ist besorgt über die Auswirkungen auf die Gesundheit, entweder lang- oder kurzfristig; Der Ergonom macht sich natürlich Sorgen um die Gesundheit, aber er oder sie macht sich auch Sorgen um andere Folgen wie Produktivität, Arbeitsgestaltung und Arbeitsplatzgestaltung. Sicherheit und Gesundheit sind die übergreifenden Themen, die sich durch Ergonomie, Arbeitshygiene, Arbeitsmedizin und Arbeitsmedizin ziehen. Es ist daher nicht verwunderlich, dass diese Themen in einer großen Forschungs-, Design- oder Produktionsinstitution oft zusammen gruppiert werden. Dies ermöglicht einen Ansatz, der auf einem Team von Experten in diesen getrennten Themen basiert, von denen jedes einen fachlichen Beitrag zum allgemeinen Gesundheitsproblem nicht nur der Beschäftigten in der Einrichtung, sondern auch derjenigen leistet, die von ihren Aktivitäten und Produkten betroffen sind. Im Gegensatz dazu steht der Ergonom in Institutionen, die sich mit Design oder der Erbringung von Dienstleistungen befassen, möglicherweise näher an den Ingenieuren und anderen Technologen.

                                                    Aus dieser Diskussion wird deutlich, dass, da die Ergonomie interdisziplinär und noch ziemlich neu ist, ein wichtiges Problem besteht, wie sie am besten in eine bestehende Organisation integriert werden sollte. Es überschneidet sich mit so vielen anderen Bereichen, weil es um Menschen geht und Menschen die grundlegende und alles durchdringende Ressource jeder Organisation sind. Es gibt viele Möglichkeiten, wie es eingefügt werden kann, abhängig von der Geschichte und den Zielen der jeweiligen Organisation. Die Hauptkriterien sind, dass ergonomische Ziele verstanden und geschätzt werden und dass Mechanismen zur Umsetzung von Empfehlungen in die Organisation eingebaut sind.

                                                    Ziele der Ergonomie

                                                    Es wird bereits klar sein, dass die Vorteile der Ergonomie in vielen verschiedenen Formen auftreten können, in Produktivität und Qualität, in Sicherheit und Gesundheit, in Zuverlässigkeit, in Arbeitszufriedenheit und in der persönlichen Entwicklung.

                                                    Der Grund für diese Weite liegt darin, dass ihr grundlegendes Ziel Effizienz in zielgerichtetem Handeln ist – Effizienz im weitesten Sinne, das gewünschte Ergebnis ohne verschwenderischen Aufwand, ohne Fehler und ohne Schaden für die beteiligte Person oder andere zu erreichen. Es ist nicht effizient, unnötig Energie oder Zeit aufzuwenden, weil die Gestaltung des Arbeitsplatzes, des Arbeitsplatzes, der Arbeitsumgebung und der Arbeitsbedingungen nicht ausreichend berücksichtigt wurden. Es ist nicht effizient, das gewünschte Ergebnis trotz des Situationsdesigns zu erreichen, anstatt durch dieses unterstützt zu werden.

                                                    Ziel der Ergonomie ist es, dafür zu sorgen, dass die Arbeitssituation im Einklang mit den Tätigkeiten des Arbeiters steht. Dieses Ziel ist selbstverständlich gültig, aber es zu erreichen ist aus verschiedenen Gründen alles andere als einfach. Der menschliche Bediener ist flexibel und anpassungsfähig und es gibt kontinuierliches Lernen, aber es gibt ziemlich große individuelle Unterschiede. Einige Unterschiede, wie körperliche Größe und Kraft, sind offensichtlich, aber andere, wie kulturelle Unterschiede und Unterschiede im Stil und im Niveau der Fähigkeiten, sind weniger leicht zu erkennen.

                                                    Angesichts dieser Komplexität scheint die Lösung darin zu bestehen, eine flexible Situation bereitzustellen, in der der menschliche Bediener eine spezifisch geeignete Vorgehensweise optimieren kann. Leider ist ein solcher Ansatz manchmal nicht praktikabel, da der effizientere Weg oft nicht offensichtlich ist, mit dem Ergebnis, dass ein Arbeiter jahrelang etwas falsch oder unter den falschen Bedingungen tun kann.

                                                    Daher ist es notwendig, systematisch vorzugehen: von einer fundierten Theorie auszugehen, messbare Ziele zu setzen und den Erfolg an diesen Zielen zu überprüfen. Im Folgenden werden die verschiedenen möglichen Ziele betrachtet.

                                                    Sicherheit und Gesundheit

                                                    Über die Wünschbarkeit von Sicherheits- und Gesundheitsschutzzielen besteht kein Zweifel. Die Schwierigkeit ergibt sich aus der Tatsache, dass beide nicht direkt messbar sind: Ihre Leistung wird eher an ihrer Abwesenheit als an ihrer Anwesenheit gemessen. Die betreffenden Daten beziehen sich immer auf Abweichungen von Sicherheit und Gesundheitsschutz.

                                                    Im Gesundheitsbereich sind viele Beweise langfristig, da sie eher auf Populationen als auf Einzelpersonen beruhen. Es ist daher notwendig, sorgfältige Aufzeichnungen über lange Zeiträume zu führen und einen epidemiologischen Ansatz zu verfolgen, durch den Risikofaktoren identifiziert und gemessen werden können. Wie viele Stunden pro Tag oder Jahr sollten beispielsweise maximal für einen Arbeitnehmer an einem Computerarbeitsplatz erforderlich sein? Sie hängt von der Gestaltung des Arbeitsplatzes, der Art der Arbeit und der Person (Alter, Sehvermögen, Fähigkeiten usw.) ab. Die Auswirkungen auf die Gesundheit können vielfältig sein, von Handgelenksproblemen bis hin zu geistiger Apathie, daher ist es notwendig, umfassende Studien durchzuführen, die ziemlich große Populationen abdecken und gleichzeitig die Unterschiede innerhalb der Populationen im Auge behalten.

                                                    Direkter messbar ist Sicherheit im negativen Sinne in Art und Häufigkeit von Unfällen und Schäden. Es gibt Probleme, verschiedene Arten von Unfällen zu definieren und die oft multiplen kausalen Faktoren zu identifizieren, und es besteht oft ein weit entfernter Zusammenhang zwischen der Art des Unfalls und dem Ausmaß des Schadens, von keinem bis zu einem Todesfall.

                                                    Nichtsdestotrotz wurde in den letzten fünfzig Jahren eine enorme Menge an Beweisen für Sicherheit und Gesundheitsschutz angesammelt und Übereinstimmungen entdeckt, die auf Theorie, Gesetze und Normen und Prinzipien zurückgeführt werden können, die in bestimmten Situationen wirksam sind.

                                                    Produktivität und Effizienz

                                                    Produktivität wird normalerweise als Output pro Zeiteinheit definiert, während Effizienz andere Variablen umfasst, insbesondere das Verhältnis von Output zu Input. Effizienz umfasst die Kosten dessen, was getan wird, im Verhältnis zur Leistung, und in menschlicher Hinsicht erfordert dies die Berücksichtigung der Strafen für den menschlichen Bediener.

                                                    In industriellen Situationen ist die Produktivität relativ einfach zu messen: Die produzierte Menge kann gezählt und die Produktionszeit einfach erfasst werden. Produktivitätsdaten werden häufig in Vorher/Nachher-Vergleichen von Arbeitsmethoden, Situationen oder Bedingungen verwendet. Es beinhaltet Annahmen über die Äquivalenz von Aufwand und anderen Kosten, da es auf dem Prinzip basiert, dass der menschliche Bediener so gut wie möglich unter den gegebenen Umständen arbeitet. Wenn die Produktivität höher ist, müssen die Umstände besser sein. Dieser einfache Ansatz ist sehr zu empfehlen, vorausgesetzt, er wird unter gebührender Berücksichtigung der vielen möglichen erschwerenden Faktoren verwendet, die verschleiern können, was wirklich passiert. Der beste Schutz besteht darin, sicherzustellen, dass sich zwischen der Vorher- und Nachher-Situation nichts geändert hat, außer den untersuchten Aspekten.

                                                    Effizienz ist eine umfassendere, aber immer schwierigere Messgröße. Sie muss in der Regel für eine bestimmte Situation spezifisch definiert werden, und bei der Bewertung der Ergebnisse von Studien sollte die Definition auf ihre Relevanz und Gültigkeit im Hinblick auf die gezogenen Schlussfolgerungen überprüft werden. Ist Radfahren beispielsweise effizienter als zu Fuß? Radfahren ist viel produktiver in Bezug auf die Entfernung, die auf einer Straße in einer bestimmten Zeit zurückgelegt werden kann, und es ist effizienter in Bezug auf den Energieverbrauch pro Entfernungseinheit oder für Indoor-Übungen, da die erforderlichen Geräte billiger und einfacher sind . Andererseits kann der Zweck der Übung der Energieverbrauch aus gesundheitlichen Gründen oder das Besteigen eines Berges in schwierigem Gelände sein; Unter diesen Umständen ist das Gehen effizienter. Somit hat ein Effizienzmaß nur in einem wohldefinierten Kontext Bedeutung.

                                                    Zuverlässigkeit und Qualität

                                                    Wie oben erläutert, wird bei Hochtechnologiesystemen (z. B. Transportflugzeuge, Ölraffination und Energieerzeugung) eher Zuverlässigkeit als Produktivität zum Schlüsselmaß. Die Steuerungen solcher Systeme überwachen die Leistung und leisten ihren Beitrag zur Produktivität und Sicherheit, indem sie Anpassungen vornehmen, um sicherzustellen, dass die automatischen Maschinen online bleiben und innerhalb der Grenzen funktionieren. Alle diese Systeme befinden sich in ihrem sichersten Zustand, entweder wenn sie sich im Ruhezustand befinden oder wenn sie stetig innerhalb des ausgelegten Leistungsbereichs arbeiten. Sie werden gefährlicher, wenn sie sich zwischen Gleichgewichtszuständen bewegen oder bewegt werden, beispielsweise wenn ein Flugzeug abhebt oder ein Prozesssystem heruntergefahren wird. Hohe Zuverlässigkeit ist nicht nur aus Sicherheitsgründen das entscheidende Merkmal, sondern auch, weil ungeplante Abschaltungen oder Stillstände extrem teuer sind. Die Zuverlässigkeit lässt sich einfach nach der Leistung messen, ist jedoch äußerst schwierig vorherzusagen, außer durch Bezugnahme auf die frühere Leistung ähnlicher Systeme. Wenn oder wenn etwas schief geht, trägt menschliches Versagen immer dazu bei, aber es ist nicht unbedingt ein Fehler des Controllers: Menschliches Versagen kann in der Entwurfsphase und während der Einrichtung und Wartung entstehen. Es ist heute anerkannt, dass solche komplexen High-Tech-Systeme einen beträchtlichen und kontinuierlichen ergonomischen Input vom Design bis zur Bewertung auftretender Fehler erfordern.

                                                    Qualität hängt mit Zuverlässigkeit zusammen, ist aber sehr schwierig, wenn nicht unmöglich, zu messen. Traditionell wurde in Chargen- und Fließproduktionssystemen die Qualität nach der Ausgabe durch Inspektion überprüft, aber das derzeit etablierte Prinzip besteht darin, Produktion und Qualitätssicherung zu kombinieren. Somit hat jeder Betreiber eine parallele Verantwortung als Inspektor. Dies erweist sich in der Regel als effektiver, kann aber bedeuten, Arbeitsanreize aufzugeben, die lediglich auf der Produktionsrate basieren. Aus ergonomischer Sicht ist es sinnvoll, den Bediener als verantwortliche Person zu behandeln und nicht als eine Art Roboter, der auf sich wiederholende Leistung programmiert ist.

                                                    Arbeitszufriedenheit und Persönlichkeitsentwicklung

                                                    Aus dem Grundsatz, dass der Arbeiter oder menschliche Bediener als Person und nicht als Roboter anerkannt werden sollte, folgt, dass Verantwortlichkeiten, Einstellungen, Überzeugungen und Werte berücksichtigt werden sollten. Dies ist nicht einfach, da es viele Variablen gibt, die meist nachweisbar, aber nicht quantifizierbar sind, und es große individuelle und kulturelle Unterschiede gibt. Nichtsdestotrotz wird jetzt viel Aufwand in die Gestaltung und Verwaltung der Arbeit gesteckt, um sicherzustellen, dass die Situation so zufriedenstellend ist, wie es aus Sicht des Bedieners vernünftigerweise praktikabel ist. Einige Messungen sind durch den Einsatz von Erhebungstechniken möglich, und einige Prinzipien sind auf der Grundlage von Arbeitsmerkmalen wie Autonomie und Ermächtigung verfügbar.

                                                    Selbst wenn man akzeptiert, dass diese Bemühungen Zeit und Geld kosten, kann es dennoch beträchtliche Vorteile bringen, wenn man sich die Vorschläge, Meinungen und Einstellungen der Menschen anhört, die die eigentliche Arbeit leisten. Ihr Ansatz ist möglicherweise nicht derselbe wie der des externen Arbeitsdesigners und nicht derselbe wie die Annahmen des Arbeitsdesigners oder Managers. Diese Meinungsverschiedenheiten sind wichtig und können bei allen Beteiligten für einen erfrischenden Strategiewechsel sorgen.

                                                    Es ist allgemein bekannt, dass der Mensch ein kontinuierlich Lernender ist oder sein kann, wenn die entsprechenden Bedingungen gegeben sind. Die wichtigste Bedingung ist die Bereitstellung von Feedback über vergangene und gegenwärtige Leistungen, die zur Verbesserung zukünftiger Leistungen verwendet werden können. Darüber hinaus wirkt ein solches Feedback selbst als Leistungsanreiz. So gewinnen alle, der Performer und die Verantwortlichen im weiteren Sinne für die Performance. Daraus folgt, dass aus der Leistungssteigerung, einschließlich der Selbstentwicklung, viel gewonnen werden kann. Das Prinzip, dass die persönliche Entwicklung ein Aspekt der Anwendung der Ergonomie sein sollte, erfordert größere Designer- und Managerfähigkeiten, kann aber, wenn es erfolgreich angewendet werden kann, alle oben diskutierten Aspekte der menschlichen Leistungsfähigkeit verbessern.

                                                    Eine erfolgreiche Anwendung der Ergonomie folgt oft aus der Entwicklung der entsprechenden Einstellung oder Sichtweise. Die beteiligten Menschen sind zwangsläufig der zentrale Faktor jeder menschlichen Anstrengung, und die systematische Berücksichtigung ihrer Vorteile, Einschränkungen, Bedürfnisse und Wünsche ist von Natur aus wichtig.

                                                    Fazit

                                                    Ergonomie ist die systematische Untersuchung des Menschen bei der Arbeit mit dem Ziel, die Arbeitssituation, die Arbeitsbedingungen und die ausgeführten Aufgaben zu verbessern. Der Schwerpunkt liegt auf dem Erwerb relevanter und zuverlässiger Beweise, auf denen Empfehlungen für Änderungen in spezifischen Situationen basieren können, und auf der Entwicklung allgemeinerer Theorien, Konzepte, Richtlinien und Verfahren, die zu dem sich ständig weiterentwickelnden Fachwissen aus der Ergonomie beitragen.

                                                     

                                                    Zurück

                                                    Montag, Dezember 20 2010 19: 16

                                                    Definitionen und Konzepte

                                                    Exposition, Dosis und Reaktion

                                                    Toxizität ist die intrinsische Fähigkeit eines chemischen Agens, einen Organismus nachteilig zu beeinflussen.

                                                    Xenobiotika ist ein Begriff für „fremde Stoffe“, also dem Organismus fremd. Sein Gegenteil sind endogene Verbindungen. Xenobiotika umfassen Medikamente, Industriechemikalien, natürlich vorkommende Gifte und Umweltschadstoffe.

                                                    Gefahr ist das Potenzial für die Toxizität, die in einer bestimmten Umgebung oder Situation realisiert wird.

                                                    Risiko ist die Wahrscheinlichkeit, dass eine bestimmte nachteilige Wirkung auftritt. Sie wird oft als Prozentsatz der Fälle in einer bestimmten Population und während eines bestimmten Zeitraums ausgedrückt. Eine Risikoschätzung kann auf tatsächlichen Fällen oder einer Hochrechnung zukünftiger Fälle basieren.

                                                    Toxizitätsbewertung und Toxizitätsklassifizierung kann für regulatorische Zwecke verwendet werden. Die Toxizitätsbewertung ist eine willkürliche Einstufung von Dosen oder Expositionsniveaus, die toxische Wirkungen verursachen. Die Einstufung kann „supertoxisch“, „sehr giftig“, „mäßig giftig“ und so weiter sein. Die häufigsten Bewertungen betreffen die akute Toxizität. Die Toxizitätseinstufung betrifft die Gruppierung von Chemikalien in allgemeine Kategorien nach ihrer wichtigsten toxischen Wirkung. Solche Kategorien können allergene, neurotoxische, karzinogene und so weiter umfassen. Diese Einstufung kann als Warnung und als Information von administrativem Wert sein.

                                                    Das Dosis-Wirkungs-Beziehung ist das Verhältnis zwischen Dosis und Wirkung auf individueller Ebene. Eine Erhöhung der Dosis kann die Intensität einer Wirkung erhöhen oder eine stärkere Wirkung zur Folge haben. Eine Dosis-Wirkungs-Kurve kann auf der Ebene des gesamten Organismus, der Zelle oder des Zielmoleküls erhalten werden. Einige toxische Wirkungen, wie z. B. Tod oder Krebs, werden nicht abgestuft, sondern sind „Alles-oder-Nichts“-Wirkungen.

                                                    Das Dosis-Wirkungs-Beziehung ist die Beziehung zwischen der Dosis und dem Prozentsatz der Personen, die eine spezifische Wirkung zeigen. Mit zunehmender Dosis wird in der Regel eine größere Anzahl von Personen in der exponierten Population betroffen sein.

                                                    Für die Toxikologie ist es wesentlich, Dosis-Wirkungs- und Dosis-Wirkungs-Beziehungen herzustellen. In medizinischen (epidemiologischen) Studien wird häufig als Kriterium für die Annahme eines kausalen Zusammenhangs zwischen einem Wirkstoff und einer Krankheit verwendet, dass die Wirkung oder Reaktion proportional zur Dosis ist.

                                                    Für eine Chemikalie können mehrere Dosis-Wirkungs-Kurven gezeichnet werden – eine für jede Wirkungsart. Die Dosis-Wirkungs-Kurve für die meisten toxischen Wirkungen (bei Untersuchung in großen Populationen) hat eine sigmoide Form. Normalerweise gibt es einen Niedrigdosisbereich, in dem keine Reaktion festgestellt wird; Mit zunehmender Dosis folgt die Reaktion einer ansteigenden Kurve, die normalerweise bei einer 100%igen Reaktion ein Plateau erreicht. Die Dosis-Wirkungs-Kurve spiegelt die Variationen zwischen Individuen in einer Population wider. Die Steigung der Kurve variiert von Chemikalie zu Chemikalie und zwischen verschiedenen Arten von Effekten. Bei einigen Chemikalien mit spezifischen Wirkungen (Karzinogene, Initiatoren, Mutagene) kann die Dosis-Wirkungs-Kurve innerhalb eines bestimmten Dosisbereichs ab Dosis Null linear sein. Das bedeutet, dass es keinen Schwellenwert gibt und dass bereits kleine Dosen ein Risiko darstellen. Oberhalb dieses Dosisbereichs kann das Risiko stärker als linear ansteigen.

                                                    Schwankungen der Exposition während des Tages und der Gesamtdauer der Exposition während des Lebens können für das Ergebnis (Reaktion) ebenso wichtig sein wie die mittlere oder durchschnittliche oder sogar integrierte Dosis. Hohe Expositionsspitzen können schädlicher sein als ein gleichmäßigerer Expositionspegel. Dies ist bei einigen organischen Lösungsmitteln der Fall. Andererseits wurde für einige Karzinogene experimentell gezeigt, dass die Fraktionierung einer Einzeldosis in mehrere Expositionen mit derselben Gesamtdosis wirksamer bei der Entstehung von Tumoren sein kann.

                                                    A empfohlen wird oft als die Menge eines Xenobiotikums ausgedrückt, die in einen Organismus gelangt (in Einheiten wie mg/kg Körpergewicht). Die Dosis kann auf verschiedene (mehr oder weniger informative) Weise ausgedrückt werden: Belichtungsdosis, das ist die während eines bestimmten Zeitraums (in der Arbeitshygiene üblicherweise acht Stunden) eingeatmete Schadstoffkonzentration in der Luft, oder die behielt or absorbierte Dosis (in der Betriebshygiene auch als die Körperbelastung), also die Menge, die zu einem bestimmten Zeitpunkt während oder nach der Exposition im Körper vorhanden ist. Das Gewebedosis ist die Menge an Substanz in einem bestimmten Gewebe und die Zieldosis ist die Menge an Substanz (normalerweise ein Metabolit), die an das kritische Molekül gebunden ist. Die Zieldosis kann als mg gebundene Chemikalie pro mg eines spezifischen Makromoleküls im Gewebe ausgedrückt werden. Um dieses Konzept anwenden zu können, werden Informationen über den Mechanismus der toxischen Wirkung auf molekularer Ebene benötigt. Die Zieldosis wird genauer mit der toxischen Wirkung in Verbindung gebracht. Die Expositionsdosis oder die Körperbelastung sind möglicherweise leichter verfügbar, aber diese beziehen sich weniger genau auf die Wirkung.

                                                    Im Dosiskonzept ist oft ein Zeitaspekt enthalten, auch wenn dieser nicht immer zum Ausdruck kommt. Die theoretische Dosis nach dem Gesetz von Haber ist D = ct, woher D ist Dosis, c ist die Konzentration des Fremdstoffs in der Luft und t die Dauer der Exposition gegenüber der Chemikalie. Wenn dieses Konzept auf Zielorgan- oder molekularer Ebene verwendet wird, kann die Menge pro mg Gewebe oder Molekül über einen bestimmten Zeitraum verwendet werden. Der Zeitaspekt ist für das Verständnis wiederholter Expositionen und chronischer Wirkungen in der Regel wichtiger als für einmalige Expositionen und akute Wirkungen.

                                                    Additive Effekte entstehen durch die Exposition gegenüber einer Chemikalienkombination, bei der die einzelnen Toxizitäten einfach addiert werden (1+1=2). Wenn Chemikalien über den gleichen Mechanismus wirken, wird eine Additivität ihrer Wirkungen angenommen, obwohl dies in der Realität nicht immer der Fall ist. Wechselwirkungen zwischen Chemikalien können zu einer Hemmung führen (Antagonismus), mit einem geringeren Effekt als aus der Addition der Effekte der einzelnen Chemikalien zu erwarten (1+1 2). Alternativ kann eine Kombination von Chemikalien eine ausgeprägtere Wirkung hervorrufen, als durch die Zugabe zu erwarten wäre (verstärktes Ansprechen bei Einzelpersonen oder eine Zunahme der Ansprechhäufigkeit in einer Bevölkerung), dies wird als „Reaktionshäufigkeit“ bezeichnet Synergie (1+1 >2).

                                                    Latenz zeit ist die Zeit zwischen der ersten Exposition und dem Auftreten einer nachweisbaren Wirkung oder Reaktion. Der Begriff wird häufig für krebserzeugende Wirkungen verwendet, bei denen Tumore lange Zeit nach Beginn der Exposition und manchmal lange nach Beendigung der Exposition auftreten können.

                                                    A Dosisschwelle ist ein Dosisniveau, unterhalb dessen keine beobachtbare Wirkung auftritt. Es wird angenommen, dass es Schwellenwerte für bestimmte Wirkungen gibt, wie z. B. akute toxische Wirkungen; aber nicht für andere, wie krebserzeugende Wirkungen (durch DNA-Addukt-bildende Initiatoren). Das bloße Fehlen einer Reaktion in einer bestimmten Population sollte jedoch nicht als Beweis für das Bestehen eines Schwellenwerts gewertet werden. Das Ausbleiben des Ansprechens könnte auf einfache statistische Phänomene zurückzuführen sein: Eine Nebenwirkung, die mit geringer Häufigkeit auftritt, ist in einer kleinen Population möglicherweise nicht nachweisbar.

                                                    LD50 (effektive Dosis) ist die Dosis, die 50 % Letalität in einer Tierpopulation verursacht. Die LD50 wird in der älteren Literatur oft als Maß für die akute Toxizität von Chemikalien angegeben. Je höher die LD50, desto geringer ist die akute Toxizität. Eine hochgiftige Chemikalie (mit einem niedrigen LD50) wird gesagt, dass potent. Es besteht keine notwendige Korrelation zwischen akuter und chronischer Toxizität. Ed50 (effektive Dosis) ist die Dosis, die bei 50 % der Tiere eine andere spezifische Wirkung als die Letalität verursacht.

                                                    NÖL (NÖL) bezeichnet die Konzentration ohne beobachtete (nachteilige) Wirkung oder die höchste Dosis, die keine toxische Wirkung verursacht. Um einen NOEL zu ermitteln, sind mehrere Dosen, eine große Population und zusätzliche Informationen erforderlich, um sicherzustellen, dass das Ausbleiben einer Reaktion nicht nur ein statistisches Phänomen ist. LÖL ist die niedrigste beobachtete effektive Dosis auf einer Dosis-Wirkungs-Kurve oder die niedrigste Dosis, die eine Wirkung hervorruft.

                                                    A Sicherheitsfaktor ist eine formale, willkürliche Zahl, durch die man den aus Tierversuchen abgeleiteten NOEL oder LOEL dividiert, um eine ungefähr zulässige Dosis für den Menschen zu erhalten. Dies wird häufig im Bereich der Lebensmitteltoxikologie verwendet, kann aber auch in der Arbeitstoxikologie verwendet werden. Ein Sicherheitsfaktor kann auch für die Extrapolation von Daten von kleinen Populationen auf größere Populationen verwendet werden. Sicherheitsfaktoren reichen von 100 zu 103. Ein Sicherheitsfaktor von zwei kann in der Regel ausreichend sein, um vor einer weniger schwerwiegenden Wirkung (z. B. Reizung) zu schützen, und ein Faktor von bis zu 1,000 kann für sehr schwerwiegende Wirkungen (z. B. Krebs) verwendet werden. Der Begriff Sicherheitsfaktor könnte besser durch den Begriff ersetzt werden Sicherheit Faktor oder auch, Unsicherheitsfaktor. Die Verwendung des letztgenannten Begriffs spiegelt wissenschaftliche Unsicherheiten wider, z. B. ob genaue Dosis-Wirkungs-Daten für die jeweilige chemische, toxische Wirkung oder Expositionssituation von Tieren auf Menschen übertragen werden können.

                                                    Hochrechnungen sind theoretische qualitative oder quantitative Schätzungen der Toxizität (Risikoextrapolationen), die aus der Übertragung von Daten von einer Spezies auf eine andere oder aus einem Satz von Dosis-Wirkungs-Daten (typischerweise im Hochdosisbereich) in Dosis-Wirkungs-Regionen abgeleitet werden, in denen keine Daten vorhanden sind. Normalerweise müssen Extrapolationen vorgenommen werden, um toxische Reaktionen außerhalb des Beobachtungsbereichs vorherzusagen. Mathematische Modellierung wird für Extrapolationen auf der Grundlage eines Verständnisses des Verhaltens der Chemikalie im Organismus (toxikokinetische Modellierung) oder auf der Grundlage des Verständnisses statistischer Wahrscheinlichkeiten, dass bestimmte biologische Ereignisse auftreten werden (biologisch oder mechanistisch basierte Modelle), verwendet. Einige nationale Behörden haben ausgefeilte Extrapolationsmodelle als formalisierte Methode zur Vorhersage von Risiken für Regulierungszwecke entwickelt. (Siehe Diskussion der Risikobewertung später in diesem Kapitel.)

                                                    Systemische Wirkungen sind toxische Wirkungen in Geweben, die vom Aufnahmeweg entfernt sind.

                                                    Zielorgan ist das primäre oder empfindlichste Organ, das nach der Exposition betroffen ist. Dieselbe Chemikalie, die über unterschiedliche Expositionswege in Dosis, Dosisrate, Geschlecht und Spezies in den Körper gelangt, kann verschiedene Zielorgane beeinflussen. Wechselwirkungen zwischen Chemikalien oder zwischen Chemikalien und anderen Faktoren können sich auch auf verschiedene Zielorgane auswirken.

                                                    Akute Effekte treten nach begrenzter Exposition und kurz (Stunden, Tage) nach der Exposition auf und können reversibel oder irreversibel sein.

                                                    Chronische Effekte nach längerer Exposition (Monate, Jahre, Jahrzehnte) auftreten und/oder nach Beendigung der Exposition bestehen bleiben.

                                                    Akut Belichtung ist eine Exposition von kurzer Dauer, während chronische Exposition ist eine langfristige (manchmal lebenslange) Exposition.

                                                    Toleranz gegenüber einer Chemikalie kann auftreten, wenn wiederholte Expositionen zu einer geringeren Reaktion führen als ohne Vorbehandlung zu erwarten gewesen wäre.

                                                    Aufnahme und Disposition

                                                    Transportprozesse

                                                    Rundfunk. Um in den Organismus einzudringen und einen Ort zu erreichen, an dem Schäden entstehen, muss ein Fremdstoff mehrere Barrieren überwinden, darunter Zellen und ihre Membranen. Die meisten toxischen Substanzen passieren Membranen passiv durch Diffusion. Dies kann für kleine wasserlösliche Moleküle durch Durchgang durch wässrige Kanäle oder für fettlösliche durch Auflösung in und Diffusion durch den Lipidteil der Membran erfolgen. Ethanol, ein kleines Molekül, das sowohl wasser- als auch fettlöslich ist, diffundiert schnell durch Zellmembranen.

                                                    Diffusion von schwachen Säuren und Basen. Schwache Säuren und Basen können Membranen in ihrer nichtionisierten, fettlöslichen Form leicht passieren, während ionisierte Formen zu polar sind, um sie zu passieren. Der Ionisierungsgrad dieser Substanzen hängt vom pH-Wert ab. Wenn über einer Membran ein pH-Gradient besteht, reichern sie sich daher auf einer Seite an. Die Urinausscheidung von schwachen Säuren und Basen hängt stark vom pH-Wert des Urins ab. Der fötale oder embryonale pH-Wert ist etwas höher als der mütterliche pH-Wert, was zu einer leichten Ansammlung schwacher Säuren im Fötus oder Embryo führt.

                                                    Erleichterte Diffusion. Der Durchgang einer Substanz kann durch Träger in der Membran erleichtert werden. Erleichterte Diffusion ähnelt enzymatischen Prozessen darin, dass sie proteinvermittelt, hochselektiv und sättigbar ist. Andere Substanzen können den erleichterten Transport von Fremdstoffen hemmen.

                                                    Aktiven Transport. Einige Substanzen werden aktiv über Zellmembranen transportiert. Dieser Transport wird analog zu Enzymen durch Trägerproteine ​​vermittelt. Der aktive Transport ähnelt der erleichterten Diffusion, kann jedoch gegen einen Konzentrationsgradienten erfolgen. Es erfordert Energiezufuhr und ein Stoffwechselhemmer kann den Prozess blockieren. Die meisten Umweltschadstoffe werden nicht aktiv transportiert. Eine Ausnahme bildet die aktive tubuläre Sekretion und Rückresorption von Säuremetaboliten in den Nieren.

                                                    Phagozytose ist ein Prozess, bei dem spezialisierte Zellen wie Makrophagen Partikel für die anschließende Verdauung verschlingen. Dieser Transportvorgang ist beispielsweise für den Abtransport von Partikeln in den Lungenbläschen wichtig.

                                                    Massenstrom. Zusammen mit der Luftbewegung in den Atemwegen beim Atmen und den Bewegungen von Blut, Lymphe oder Urin werden auch Stoffe im Körper transportiert.

                                                    Filtrieren. Aufgrund von hydrostatischem oder osmotischem Druck fließt Wasser in großen Mengen durch Poren im Endothel. Jeder gelöste Stoff, der klein genug ist, wird zusammen mit dem Wasser gefiltert. Die Filtration findet bis zu einem gewissen Grad im Kapillarbett in allen Geweben statt, ist aber besonders wichtig bei der Bildung von Primärharn in den Nierenglomeruli.

                                                    Absorption

                                                    Absorption ist die Aufnahme eines Stoffes aus der Umwelt in den Organismus. Der Begriff umfasst in der Regel nicht nur den Eintritt in das Barrieregewebe, sondern auch den Weitertransport in das zirkulierende Blut.

                                                    Lungenabsorption. Die Lunge ist der Hauptweg für die Ablagerung und Absorption von kleinen luftgetragenen Partikeln, Gasen, Dämpfen und Aerosolen. Bei gut wasserlöslichen Gasen und Dämpfen findet ein erheblicher Teil der Aufnahme in der Nase und im Atmungstrakt statt, bei weniger löslichen Stoffen jedoch hauptsächlich in den Lungenbläschen. Die Alveolen haben eine sehr große Oberfläche (etwa 100 m2 in Menschen). Außerdem ist die Diffusionsbarriere extrem klein, mit nur zwei dünnen Zellschichten und einem Abstand in der Größenordnung von Mikrometern von der Alveolarluft zum systemischen Blutkreislauf. Dadurch ist die Lunge nicht nur beim Austausch von Sauerstoff und Kohlendioxid, sondern auch von anderen Gasen und Dämpfen sehr effizient. Im Allgemeinen ist die Diffusion durch die Alveolarwand so schnell, dass sie die Aufnahme nicht einschränkt. Die Resorptionsrate ist vielmehr abhängig von Fluss (Lungenventilation, Herzzeitvolumen) und Löslichkeit (Blut:Luft-Verteilungskoeffizient). Ein weiterer wichtiger Faktor ist die metabolische Elimination. Die relative Bedeutung dieser Faktoren für die pulmonale Resorption variiert stark für verschiedene Substanzen. Körperliche Aktivität führt zu einer erhöhten Lungenventilation und einem erhöhten Herzzeitvolumen sowie zu einer verringerten Durchblutung der Leber (und damit zu einer Verringerung der Biotransformationsrate). Dies führt bei vielen eingeatmeten Substanzen zu einer deutlichen Erhöhung der pulmonalen Resorption.

                                                    Perkutane Absorption. Die Haut ist eine sehr effiziente Barriere. Abgesehen von seiner thermoregulierenden Funktion soll es den Organismus vor Mikroorganismen, UV-Strahlung und anderen schädlichen Stoffen sowie vor übermäßigem Wasserverlust schützen. Die Diffusionsstrecke in der Dermis liegt in der Größenordnung von Zehntel Millimetern. Zudem weist die Keratinschicht für die meisten Substanzen einen sehr hohen Diffusionswiderstand auf. Dennoch kann es bei manchen Substanzen zu einer erheblichen dermalen Resorption kommen, die zu Toxizität führt – beispielsweise bei hochgiftigen, fettlöslichen Substanzen wie phosphororganischen Insektiziden und organischen Lösungsmitteln. Nach Kontakt mit flüssigen Stoffen ist mit einer erheblichen Resorption zu rechnen. Die perkutane Absorption von Dampf kann für Lösungsmittel mit sehr niedrigem Dampfdruck und hoher Affinität zu Wasser und Haut wichtig sein.

                                                    Magen-Darm-Resorption tritt nach versehentlicher oder absichtlicher Einnahme auf. Größere Partikel, die ursprünglich eingeatmet und in den Atemwegen abgelagert wurden, können nach mukoziliärem Transport in den Pharynx verschluckt werden. Praktisch alle löslichen Substanzen werden im Magen-Darm-Trakt effizient resorbiert. Der niedrige pH-Wert des Darms kann beispielsweise die Aufnahme von Metallen erleichtern.

                                                    Andere Strecken. Bei Toxizitätstests und anderen Experimenten werden der Einfachheit halber oft spezielle Verabreichungswege verwendet, obwohl diese selten und im beruflichen Umfeld normalerweise nicht relevant sind. Diese Wege umfassen intravenöse (IV), subkutane (sc), intraperitoneale (ip) und intramuskuläre (im) Injektionen. Im Allgemeinen werden Substanzen auf diesen Wegen schneller und vollständiger resorbiert, insbesondere nach intravenöser Injektion. Dies führt zu kurz anhaltenden, aber hohen Konzentrationsspitzen, die die Toxizität einer Dosis erhöhen können.

                                                    Vertrieb

                                                    Die Verteilung einer Substanz innerhalb des Organismus ist ein dynamischer Prozess, der von Aufnahme- und Ausscheidungsraten sowie der Durchblutung der verschiedenen Gewebe und deren Affinität zu der Substanz abhängt. Wasserlösliche, kleine, ungeladene Moleküle, einwertige Kationen und die meisten Anionen diffundieren leicht und erreichen schließlich eine relativ gleichmäßige Verteilung im Körper.

                                                    Verteilungsvolumen ist die Menge einer Substanz im Körper zu einem bestimmten Zeitpunkt, dividiert durch die Konzentration im Blut, Plasma oder Serum zu diesem Zeitpunkt. Als physikalisches Volumen hat der Wert keine Bedeutung, da viele Stoffe nicht gleichmäßig im Organismus verteilt sind. Ein Verteilungsvolumen von weniger als einem Liter/kg Körpergewicht weist auf eine bevorzugte Verteilung im Blut (bzw. Serum oder Plasma) hin, während ein Wert über eins auf eine Bevorzugung peripherer Gewebe wie Fettgewebe gegenüber fettlöslichen Substanzen hinweist.

                                                    Akkumulation ist die Anreicherung einer Substanz in einem Gewebe oder Organ zu höheren Konzentrationen als in Blut oder Plasma. Es kann sich auch auf eine allmähliche Anhäufung im Laufe der Zeit im Organismus beziehen. Viele Xenobiotika sind stark fettlöslich und neigen dazu, sich im Fettgewebe anzureichern, während andere eine besondere Affinität zu Knochen haben. Beispielsweise kann Calcium im Knochen gegen Kationen von Blei, Strontium, Barium und Radium ausgetauscht werden, und Hydroxylgruppen im Knochen können gegen Fluorid ausgetauscht werden.

                                                    Barriers. Die Blutgefäße im Gehirn, in den Hoden und in der Plazenta haben besondere anatomische Merkmale, die den Durchgang großer Moleküle wie Proteine ​​hemmen. Diese Merkmale, die oft als Blut-Hirn-, Blut-Hoden- und Blut-Plazenta-Schranken bezeichnet werden, können den falschen Eindruck erwecken, dass sie den Durchgang jeglicher Substanzen verhindern. Diese Barrieren sind für Xenobiotika, die durch Zellmembranen diffundieren können, von geringer oder keiner Bedeutung.

                                                    Blutbindung. Substanzen können an rote Blutkörperchen oder Plasmabestandteile gebunden sein oder ungebunden im Blut vorkommen. Kohlenmonoxid, Arsen, organisches Quecksilber und sechswertiges Chrom haben eine hohe Affinität zu roten Blutkörperchen, während anorganisches Quecksilber und dreiwertiges Chrom eine Präferenz für Plasmaproteine ​​zeigen. Eine Reihe anderer Substanzen binden ebenfalls an Plasmaproteine. Nur die ungebundene Fraktion steht zur Filtration oder Diffusion in Ausscheidungsorgane zur Verfügung. Die Blutbindung kann daher die Verweilzeit im Organismus erhöhen, aber die Aufnahme durch die Zielorgane verringern.

                                                    Beseitigung

                                                    Beseitigung ist das Verschwinden einer Substanz im Körper. Die Elimination kann die Ausscheidung aus dem Körper oder die Umwandlung in andere Substanzen umfassen, die nicht durch eine bestimmte Messmethode erfasst werden. Die Geschwindigkeit des Verschwindens kann durch die Eliminationsgeschwindigkeitskonstante, die biologische Halbwertszeit oder die Clearance ausgedrückt werden.

                                                    Konzentrations-Zeit-Kurve. Die Kurve der Konzentration im Blut (oder Plasma) gegen die Zeit ist ein bequemer Weg, um die Aufnahme und Disposition eines Xenobiotikums zu beschreiben.

                                                    Fläche unter der Kurve (AUC) ist das Integral der Konzentration im Blut (Plasma) über die Zeit. Wenn die metabolische Sättigung und andere nichtlineare Prozesse fehlen, ist die AUC proportional zur absorbierten Substanzmenge.

                                                    Biologische Halbzeit (oder Halbwertszeit) ist die Zeit, die nach Expositionsende benötigt wird, um die Menge im Organismus auf die Hälfte zu reduzieren. Da es oft schwierig ist, die Gesamtmenge einer Substanz zu bestimmen, werden Messungen wie die Konzentration im Blut (Plasma) verwendet. Die Halbwertszeit sollte mit Vorsicht verwendet werden, da sie sich beispielsweise mit Dosis und Expositionsdauer ändern kann. Außerdem haben viele Substanzen komplexe Zerfallskurven mit mehreren Halbwertszeiten.

                                                    Bioverfügbarkeit ist der Bruchteil einer verabreichten Dosis, der in den systemischen Kreislauf gelangt. In Ermangelung einer präsystemischen Clearance oder First-Pass-Metabolismus, der Bruch ist eins. Bei oraler Exposition kann die präsystemische Clearance auf den Metabolismus im Magen-Darm-Inhalt, in der Darmwand oder in der Leber zurückzuführen sein. Der First-Pass-Metabolismus reduziert die systemische Resorption der Substanz und erhöht stattdessen die Resorption von Metaboliten. Dies kann zu einem anderen Toxizitätsmuster führen.

                                                    Angebote ist das Blutvolumen (Plasma) pro Zeiteinheit, das vollständig von einer Substanz befreit ist. Zur Unterscheidung von der renalen Clearance wird beispielsweise häufig das Präfix total, metabolisch oder Blut (Plasma) angehängt.

                                                    Eigene Freigabe ist die Fähigkeit körpereigener Enzyme, einen Stoff umzuwandeln, und wird ebenfalls in Volumen pro Zeiteinheit ausgedrückt. Ist die intrinsische Clearance in einem Organ deutlich geringer als der Blutfluss, spricht man von einer Kapazitätslimitierung des Stoffwechsels. Umgekehrt, wenn die intrinsische Clearance viel höher ist als der Blutfluss, ist der Stoffwechsel flussbegrenzt.

                                                    Ausscheidung

                                                    Ausscheidung ist der Austritt eines Stoffes und seiner Biotransformationsprodukte aus dem Organismus.

                                                    Ausscheidung in Urin und Galle. Die Nieren sind die wichtigsten Ausscheidungsorgane. Einige Substanzen, insbesondere Säuren mit hohem Molekulargewicht, werden mit der Galle ausgeschieden. Ein Teil der biliär ausgeschiedenen Substanzen kann im Darm resorbiert werden. Dieser Prozess, enterohepatischer Kreislauf, ist für konjugierte Substanzen nach Darmhydrolyse des Konjugats üblich.

                                                    Andere Ausscheidungswege. Manche Stoffe, wie organische Lösungsmittel und Abbauprodukte wie Aceton, sind so flüchtig, dass nach dem Einatmen ein erheblicher Anteil ausgeatmet werden kann. Sowohl kleine wasserlösliche als auch fettlösliche Moleküle werden leicht über die Plazenta an den Fötus und bei Säugetieren in die Milch ausgeschieden. Für die Mutter kann die Laktation ein quantitativ wichtiger Ausscheidungsweg für persistente fettlösliche Chemikalien sein. Die Nachkommen können sowohl während der Trächtigkeit als auch während der Laktation über die Mutter sekundär exponiert werden. Wasserlösliche Verbindungen können teilweise in Schweiß und Speichel ausgeschieden werden. Diese Routen sind im Allgemeinen von untergeordneter Bedeutung. Da jedoch eine große Menge Speichel produziert und geschluckt wird, kann die Speichelausscheidung zur Reabsorption der Verbindung beitragen. Einige Metalle wie Quecksilber werden durch dauerhafte Bindung an die Sulfhydrylgruppen des Keratins im Haar ausgeschieden.

                                                    Toxikokinetische Modelle

                                                    Mathematische Modelle sind wichtige Werkzeuge, um die Aufnahme und Disposition von Fremdstoffen zu verstehen und zu beschreiben. Die meisten Modelle sind kompartimentiert, dh der Organismus wird durch ein oder mehrere Kompartimente dargestellt. Ein Kompartiment ist ein chemisch und physikalisch theoretisches Volumen, in dem angenommen wird, dass sich der Stoff homogen und augenblicklich verteilt. Einfache Modelle können als Summe von Exponentialgliedern ausgedrückt werden, während kompliziertere zu ihrer Lösung numerische Verfahren auf einem Computer erfordern. Modelle können in zwei Kategorien unterteilt werden, beschreibende und physiologische.

                                                    In beschreibend fürerfolgt die Anpassung an gemessene Daten durch Änderung der numerischen Werte der Modellparameter oder sogar der Modellstruktur selbst. Die Modellstruktur hat normalerweise wenig mit der Struktur des Organismus zu tun. Vorteile des deskriptiven Ansatzes sind, dass wenige Annahmen getroffen werden und keine zusätzlichen Daten benötigt werden. Ein Nachteil von deskriptiven Modellen ist ihre begrenzte Brauchbarkeit für Extrapolationen.

                                                    Physiologische Modelle werden aus physiologischen, anatomischen und anderen unabhängigen Daten konstruiert. Das Modell wird dann verfeinert und durch Vergleich mit experimentellen Daten validiert. Ein Vorteil physiologischer Modelle besteht darin, dass sie für Extrapolationszwecke verwendet werden können. Beispielsweise kann der Einfluss körperlicher Aktivität auf die Aufnahme und Disposition eingeatmeter Substanzen aus bekannten physiologischen Anpassungen der Ventilation und des Herzzeitvolumens vorhergesagt werden. Ein Nachteil physiologischer Modelle besteht darin, dass sie eine große Menge unabhängiger Daten benötigen.

                                                    Biotransformation

                                                    Biotransformation ist ein Prozess, der zu einer metabolischen Umwandlung von Fremdstoffen (Xenobiotika) im Körper führt. Der Prozess wird oft als Metabolismus von Xenobiotika bezeichnet. Im Allgemeinen wandelt der Stoffwechsel fettlösliche Xenobiotika in große, wasserlösliche Metaboliten um, die effektiv ausgeschieden werden können.

                                                    Die Leber ist der Hauptort der Biotransformation. Alle aus dem Darm aufgenommenen Fremdstoffe werden über ein einziges Blutgefäß (Vena porta). Bei Aufnahme geringer Mengen kann ein Fremdstoff in der Leber vollständig verstoffwechselt werden, bevor er den allgemeinen Kreislauf und andere Organe erreicht (First-Pass-Effekt). Inhalierte Fremdstoffe werden über den allgemeinen Kreislauf in die Leber verteilt. In diesem Fall wird nur ein Bruchteil der Dosis in der Leber metabolisiert, bevor sie andere Organe erreicht.

                                                    Leberzellen enthalten mehrere Enzyme, die Fremdstoffe oxidieren. Diese Oxidation aktiviert im Allgemeinen die Verbindung – sie wird reaktiver als das Ausgangsmolekül. In den meisten Fällen wird der oxidierte Metabolit in einer zweiten Phase durch andere Enzyme weiter verstoffwechselt. Diese Enzyme konjugieren den Metaboliten mit einem körpereigenen Substrat, sodass das Molekül größer und polarer wird. Dies erleichtert die Ausscheidung.

                                                    Enzyme, die Fremdstoffe metabolisieren, sind auch in anderen Organen wie der Lunge und den Nieren vorhanden. In diesen Organen können sie spezifische und qualitativ wichtige Rollen im Metabolismus bestimmter Xenobiotika spielen. Metaboliten, die in einem Organ gebildet werden, können in einem zweiten Organ weiter metabolisiert werden. Bakterien im Darm können ebenfalls an der Biotransformation teilnehmen.

                                                    Metaboliten von Fremdstoffen können über die Nieren oder über die Galle ausgeschieden werden. Sie können auch über die Lunge ausgeatmet oder an körpereigene Moleküle gebunden werden.

                                                    Die Beziehung zwischen Biotransformation und Toxizität ist komplex. Biotransformation kann als notwendiger Prozess zum Überleben angesehen werden. Es schützt den Organismus vor Toxizität, indem es die Ansammlung von Schadstoffen im Körper verhindert. Bei der Biotransformation können jedoch reaktive intermediäre Metaboliten gebildet werden, die potenziell schädlich sind. Dies wird als metabolische Aktivierung bezeichnet. Daher kann die Biotransformation auch Toxizität induzieren. Oxidierte, intermediäre Metaboliten, die nicht konjugiert sind, können an Zellstrukturen binden und diese schädigen. Bindet beispielsweise ein xenobiotischer Metabolit an DNA, kann eine Mutation induziert werden (siehe „Gentoxikologie“). Bei Überlastung des Biotransformationssystems kann es zu einer massiven Zerstörung essentieller Proteine ​​oder Lipidmembranen kommen. Dies kann zum Zelltod führen (siehe „Zellschädigung und Zelltod“).

                                                    Stoffwechsel ist ein Wort, das oft synonym mit Biotransformation verwendet wird. Es bezeichnet chemische Abbau- oder Synthesereaktionen, die durch Enzyme im Körper katalysiert werden. Nährstoffe aus der Nahrung, endogene Verbindungen und Xenobiotika werden alle im Körper verstoffwechselt.

                                                    Stoffwechselaktivierung bedeutet, dass eine weniger reaktive Verbindung in ein reaktiveres Molekül umgewandelt wird. Dies tritt normalerweise während Phase-1-Reaktionen auf.

                                                    Stoffwechselinaktivierung bedeutet, dass ein aktives oder toxisches Molekül in einen weniger aktiven Metaboliten umgewandelt wird. Dies tritt normalerweise während Phase-2-Reaktionen auf. In bestimmten Fällen kann ein inaktivierter Metabolit reaktiviert werden, beispielsweise durch enzymatische Spaltung.

                                                    Phase-1-Reaktion bezieht sich auf den ersten Schritt im Fremdstoffstoffwechsel. Es bedeutet normalerweise, dass die Verbindung oxidiert wird. Die Oxidation macht die Verbindung normalerweise wasserlöslicher und erleichtert weitere Reaktionen.

                                                    Cytochrom P450-Enzyme sind eine Gruppe von Enzymen, die Xenobiotika bevorzugt in Phase-1-Reaktionen oxidieren. Die verschiedenen Enzyme sind darauf spezialisiert, bestimmte Gruppen von Xenobiotika mit bestimmten Eigenschaften zu handhaben. Auch körpereigene Moleküle sind Substrate. Cytochrom-P450-Enzyme werden durch Xenobiotika auf spezifische Weise induziert. Die Erhebung von Induktionsdaten zu Cytochrom P450 kann Aufschluss über die Art früherer Expositionen geben (siehe „Genetische Determinanten der toxischen Reaktion“).

                                                    Phase-2-Reaktion bezieht sich auf den zweiten Schritt im Fremdstoffstoffwechsel. Es bedeutet normalerweise, dass die oxidierte Verbindung mit einem endogenen Molekül konjugiert (gekoppelt) ist. Diese Reaktion erhöht die Wasserlöslichkeit weiter. Viele konjugierte Metaboliten werden aktiv über die Nieren ausgeschieden.

                                                    Transferasen sind eine Gruppe von Enzymen, die Phase-2-Reaktionen katalysieren. Sie konjugieren Fremdstoffe mit körpereigenen Verbindungen wie Glutathion, Aminosäuren, Glucuronsäure oder Sulfat.

                                                    Glutathion ist ein endogenes Molekül, ein Tripeptid, das in Phase-2-Reaktionen mit Xenobiotika konjugiert wird. Es ist in allen Zellen vorhanden (und in Leberzellen in hohen Konzentrationen) und schützt normalerweise vor aktivierten Xenobiotika. Wenn Glutathion erschöpft ist, können toxische Reaktionen zwischen aktivierten xenobiotischen Metaboliten und Proteinen, Lipiden oder DNA auftreten.

                                                    Induktion bedeutet, dass an der Biotransformation beteiligte Enzyme (in Aktivität oder Menge) als Reaktion auf eine Xenobiotika-Exposition erhöht werden. In einigen Fällen kann die Enzymaktivität innerhalb weniger Tage um ein Vielfaches gesteigert werden. Die Induktion ist oft so ausbalanciert, dass die Reaktionen sowohl der Phase 1 als auch der Phase 2 gleichzeitig gesteigert werden. Dies kann zu einer schnelleren Biotransformation führen und die Toleranz erklären. Im Gegensatz dazu kann eine unausgeglichene Induktion die Toxizität erhöhen.

                                                    Hemmung Biotransformation kann auftreten, wenn zwei Xenobiotika durch dasselbe Enzym metabolisiert werden. Die beiden Substrate müssen konkurrieren, und gewöhnlich wird eines der Substrate bevorzugt. In diesem Fall wird das zweite Substrat nicht oder nur langsam metabolisiert. Wie bei der Induktion kann die Hemmung sowohl die Toxizität erhöhen als auch verringern.

                                                    Sauerstoffaktivierung kann durch Metaboliten bestimmter Xenobiotika ausgelöst werden. Sie können unter der Produktion von aktivierten Sauerstoffspezies autooxidieren. Diese von Sauerstoff abgeleiteten Spezies, zu denen Superoxid, Wasserstoffperoxid und das Hydroxylradikal gehören, können DNA, Lipide und Proteine ​​in Zellen schädigen. Die Sauerstoffaktivierung ist auch an Entzündungsprozessen beteiligt.

                                                    Genetische Variabilität zwischen Individuen wird in vielen Genen gesehen, die für Phase-1- und Phase-2-Enzyme kodieren. Genetische Variabilität kann erklären, warum bestimmte Personen anfälliger für toxische Wirkungen von Xenobiotika sind als andere.

                                                     

                                                    Zurück

                                                    Montag, Februar 28 2011 20: 12

                                                    Qualitätssicherung

                                                    Entscheidungen, die sich auf die Gesundheit, das Wohlbefinden und die Beschäftigungsfähigkeit einzelner Arbeitnehmer oder die Herangehensweise eines Arbeitgebers an Gesundheits- und Sicherheitsfragen auswirken, müssen auf qualitativ hochwertigen Daten beruhen. Dies gilt insbesondere für biologische Überwachungsdaten, und daher liegt es in der Verantwortung jedes Labors, das analytische Arbeiten an biologischen Proben von arbeitenden Bevölkerungsgruppen durchführt, um die Zuverlässigkeit, Genauigkeit und Präzision seiner Ergebnisse sicherzustellen. Diese Verantwortung erstreckt sich von der Bereitstellung geeigneter Methoden und Anleitungen für die Probenentnahme bis hin zur Sicherstellung, dass die Ergebnisse in geeigneter Form an das für die Betreuung des einzelnen Arbeitnehmers zuständige medizinische Fachpersonal zurückgegeben werden. All diese Aktivitäten fallen unter den Ausdruck Qualitätssicherung.
                                                    Die zentrale Aktivität in einem Qualitätssicherungsprogramm ist die Kontrolle und Aufrechterhaltung der analytischen Genauigkeit und Präzision. Biologische Überwachungslabors haben sich oft in einem klinischen Umfeld entwickelt und Qualitätssicherungstechniken und -philosophien aus der Disziplin der klinischen Chemie übernommen. Tatsächlich unterscheiden sich Messungen toxischer Chemikalien und biologischer Wirkungsindikatoren in Blut und Urin im Wesentlichen nicht von denen, die in klinischen Chemie- und klinisch-pharmakologischen Servicelabors in größeren Krankenhäusern durchgeführt werden.
                                                    Ein Qualitätssicherungsprogramm für einen einzelnen Analytiker beginnt mit der Auswahl und Etablierung einer geeigneten Methode. Die nächste Stufe ist die Entwicklung eines internen Qualitätskontrollverfahrens zur Aufrechterhaltung der Präzision; Das Labor muss sich dann von der Genauigkeit der Analyse überzeugen, was durchaus eine externe Qualitätsbewertung beinhalten kann (siehe unten). Es ist jedoch wichtig zu erkennen, dass die Qualitätssicherung mehr umfasst als diese Aspekte der analytischen Qualitätskontrolle.

                                                    Methodenauswahl
                                                    Es gibt mehrere Texte, die Analysemethoden im biologischen Monitoring vorstellen. Obwohl diese nützliche Hinweise geben, muss der einzelne Analyst viel tun, bevor Daten von angemessener Qualität produziert werden können. Von zentraler Bedeutung für jedes Qualitätssicherungsprogramm ist die Erstellung eines Laborprotokolls, in dem die Teile der Methode, die den größten Einfluss auf ihre Zuverlässigkeit, Genauigkeit und Präzision haben, detailliert angegeben werden müssen. Tatsächlich hängt die nationale Akkreditierung von Laboratorien in den Bereichen klinische Chemie, Toxikologie und Forensik normalerweise von der Qualität der Protokolle des Labors ab. Die Entwicklung eines geeigneten Protokolls ist in der Regel ein zeitaufwändiger Prozess. Wenn ein Labor eine neue Methode etablieren möchte, ist es oft am kostengünstigsten, von einem bestehenden Labor ein Protokoll zu erhalten, das seine Leistungsfähigkeit beispielsweise durch Validierung in einem etablierten internationalen Qualitätssicherungsprogramm bewiesen hat. Sollte sich das neue Labor auf eine bestimmte Analysetechnik festlegen, z. B. Gaschromatographie statt Hochleistungsflüssigkeitschromatographie, ist es oft möglich, ein Labor zu identifizieren, das über eine gute Leistungsbilanz verfügt und denselben analytischen Ansatz verwendet. Labore können oft durch Zeitschriftenartikel oder durch Organisatoren verschiedener nationaler Qualitätsbewertungssysteme identifiziert werden.

                                                    Interne Qualitätskontrolle
                                                    Die Qualität analytischer Ergebnisse hängt von der in der Praxis erreichten Präzision der Methode ab, die wiederum von der genauen Einhaltung eines definierten Protokolls abhängt. Die Präzision lässt sich am besten durch die Einbeziehung von „Qualitätskontrollproben“ in regelmäßigen Abständen während eines Analyselaufs beurteilen. Zum Beispiel werden zur Kontrolle von Blutbleianalysen nach jeweils sechs oder acht tatsächlichen Arbeiterproben Qualitätskontrollproben in den Durchlauf eingeführt. Stabilere Analysemethoden können mit weniger Qualitätskontrollproben pro Lauf überwacht werden. Die Qualitätskontrollproben für die Blutbleianalyse werden aus 500 ml Blut (Mensch oder Rind) hergestellt, dem anorganisches Blei zugesetzt wird; einzelne Aliquots werden bei niedriger Temperatur gelagert (Bullock, Smith und Whitehead 1986). Vor der Verwendung jeder neuen Charge werden 20 Aliquots in getrennten Läufen bei verschiedenen Gelegenheiten analysiert, um das mittlere Ergebnis für diese Charge von Qualitätskontrollproben sowie ihre Standardabweichung zu ermitteln (Whitehead 1977). Diese beiden Abbildungen werden verwendet, um eine Shewhart-Regelkarte zu erstellen (Abbildung 27.2). Die Ergebnisse aus der Analyse der Qualitätskontrollproben, die in nachfolgenden Läufen enthalten sind, werden in das Diagramm eingetragen. Der Analytiker wendet dann Regeln für die Annahme oder Ablehnung eines Analyselaufs an, je nachdem, ob die Ergebnisse dieser Proben innerhalb von zwei oder drei Standardabweichungen (SD) des Mittelwerts liegen. Eine Abfolge von Regeln, validiert durch Computermodellierung, wurde von Westgard et al. (1981) zur Anwendung auf Kontrollproben. Dieser Ansatz zur Qualitätskontrolle ist in Lehrbüchern der klinischen Chemie beschrieben, und ein einfacher Ansatz zur Einführung der Qualitätssicherung ist in Whitehead (1977) dargelegt. Es muss betont werden, dass diese Techniken der Qualitätskontrolle von der Vorbereitung und Analyse von Qualitätskontrollproben abhängig sind, getrennt von den Kalibrierungsproben, die bei jeder analytischen Gelegenheit verwendet werden.

                                                    Abbildung 27.2 Shewhart-Kontrollkarte für Qualitätskontrollproben

                                                    BMO020F1.jpg

                                                    Dieser Ansatz kann an eine Reihe von Assays zur biologischen Überwachung oder biologischen Wirkungsüberwachung angepasst werden. Chargen von Blut- oder Urinproben können durch Zugabe entweder des toxischen Materials oder des zu messenden Metaboliten hergestellt werden. Ebenso können Blut, Serum, Plasma oder Urin aliquotiert und zur Messung von Enzymen oder Proteinen tiefgefroren oder gefriergetrocknet gelagert werden. Es muss jedoch darauf geachtet werden, ein Infektionsrisiko für den Analytiker durch auf menschlichem Blut basierende Proben zu vermeiden.
                                                    Die sorgfältige Einhaltung eines klar definierten Protokolls und von Regeln für die Akzeptanz ist eine wesentliche erste Stufe in einem Qualitätssicherungsprogramm. Jedes Labor muss bereit sein, seine Qualitätskontrolle und Qualitätsbewertungsleistung mit den medizinischen Fachkräften, die es verwenden, zu besprechen und überraschende oder ungewöhnliche Ergebnisse zu untersuchen.

                                                    Externe Qualitätsbewertung
                                                    Nachdem ein Labor festgestellt hat, dass es Ergebnisse mit ausreichender Genauigkeit liefern kann, besteht der nächste Schritt darin, die Genauigkeit („Wahrheit“) der gemessenen Werte zu bestätigen, dh das Verhältnis der durchgeführten Messungen zur tatsächlich vorhandenen Menge. Dies ist für ein Labor allein eine schwierige Aufgabe, die jedoch durch die Teilnahme an einem regelmäßigen externen Qualitätsbewertungsprogramm erreicht werden kann. Diese sind seit einiger Zeit ein wesentlicher Bestandteil der klinisch-chemischen Praxis, waren jedoch für die biologische Überwachung nicht allgemein verfügbar. Die Ausnahme ist die Blutbleianalyse, für die seit den 1970er Jahren Schemata verfügbar sind (z. B. Bullock, Smith und Whitehead 1986). Der Vergleich von Analyseergebnissen mit denen anderer Labors, die Proben derselben Charge analysieren, ermöglicht die Bewertung der Leistung eines Labors im Vergleich zu anderen sowie ein Maß für seine Genauigkeit. Es stehen mehrere nationale und internationale Qualitätsbewertungssysteme zur Verfügung. Viele dieser Programme begrüßen neue Labore, da die Gültigkeit des Mittelwerts der Ergebnisse eines Analyten aller teilnehmenden Labore (als Maß für die tatsächliche Konzentration genommen) mit der Anzahl der Teilnehmer zunimmt. Programme mit vielen Teilnehmern sind auch besser in der Lage, die Laborleistung nach Analysemethode zu analysieren und somit zu Alternativen zu Methoden mit schlechten Leistungsmerkmalen zu beraten. In einigen Ländern ist die Teilnahme an einem solchen Programm ein wesentlicher Bestandteil der Laborakkreditierung. Richtlinien für die Gestaltung und Durchführung externer Qualitätsbewertungssysteme wurden von der WHO (1981) veröffentlicht.
                                                    In Ermangelung etablierter externer Qualitätsbewertungssysteme kann die Genauigkeit anhand von zertifizierten Referenzmaterialien überprüft werden, die auf kommerzieller Basis für eine begrenzte Auswahl an Analyten erhältlich sind. Die Vorteile von Proben, die von externen Qualitätsbewertungsprogrammen in Umlauf gebracht werden, bestehen darin, dass (1) der Analytiker keine Vorkenntnisse über das Ergebnis hat, (2) ein Bereich von Konzentrationen präsentiert wird und (3) die endgültigen Analysemethoden nicht sein müssen verwendet werden, sind die beteiligten Materialien billiger.

                                                    Präanalytische Qualitätskontrolle
                                                    Der Aufwand für das Erreichen einer guten Laborgenauigkeit und -präzision ist vergeblich, wenn die dem Labor vorgelegten Proben nicht zur richtigen Zeit entnommen wurden, wenn sie kontaminiert wurden, sich während des Transports verschlechtert haben oder unzureichend oder falsch etikettiert wurden. Es ist auch eine schlechte professionelle Praxis, Personen einer invasiven Probenahme zu unterziehen, ohne sich angemessen um das Probenmaterial zu kümmern. Obwohl die Probenahme häufig nicht unter der direkten Kontrolle des Laboranalytikers steht, muss ein umfassendes Qualitätsprogramm der biologischen Überwachung diese Faktoren berücksichtigen, und das Labor sollte sicherstellen, dass die bereitgestellten Spritzen und Probenbehälter frei von Kontaminationen sind, mit klaren Anweisungen zur Probenahmetechnik und Probenlagerung und -transport. Die Bedeutung des korrekten Probenahmezeitpunktes innerhalb der Schicht oder Arbeitswoche und dessen Abhängigkeit von der Toxikokinetik des Probenmaterials sind mittlerweile anerkannt (ACGIH 1993; HSE 1992), und diese Information sollte den für die Probennahme verantwortlichen Gesundheitsfachkräften zur Verfügung gestellt werden .

                                                    Postanalytische Qualitätskontrolle
                                                    Qualitativ hochwertige Analyseergebnisse können für den Einzelnen oder das medizinische Fachpersonal von geringem Nutzen sein, wenn sie dem Fachpersonal nicht in interpretierbarer Form und zum richtigen Zeitpunkt mitgeteilt werden. Jedes biologische Überwachungslabor sollte Meldeverfahren entwickeln, um das medizinische Fachpersonal, das die Proben einreicht, rechtzeitig auf anormale, unerwartete oder rätselhafte Ergebnisse aufmerksam zu machen, damit geeignete Maßnahmen ergriffen werden können. Die Interpretation von Laborergebnissen, insbesondere von Konzentrationsänderungen zwischen aufeinanderfolgenden Proben, hängt häufig von der Kenntnis der Genauigkeit des Assays ab. Als Teil des umfassenden Qualitätsmanagements von der Probenentnahme bis zur Rückgabe der Ergebnisse sollten Angehörige der Gesundheitsberufe Informationen über die Präzision und Genauigkeit des biologischen Überwachungslabors sowie über Referenzbereiche und empfohlene und gesetzliche Grenzwerte erhalten, um ihnen bei der Interpretation der Ergebnisse zu helfen. 

                                                     

                                                    Klicken Sie hier, um zum Seitenanfang zurückzukehren

                                                    Es ist schwierig, von Arbeitsanalyse zu sprechen, ohne sie in die Perspektive der jüngsten Veränderungen in der industriellen Welt zu stellen, da sich die Art der Tätigkeiten und die Bedingungen, unter denen sie ausgeführt werden, in den letzten Jahren erheblich weiterentwickelt haben. Die Faktoren, die zu diesen Veränderungen geführt haben, waren zahlreich, aber es gibt zwei, deren Einfluss sich als entscheidend erwiesen hat. Einerseits haben der technologische Fortschritt mit seinem immer schneller werdenden Tempo und die Umwälzungen durch die Informationstechnologien die Arbeitsplätze revolutioniert (De Keyser 1986). Andererseits erfordert die Unsicherheit des Wirtschaftsmarktes mehr Flexibilität in der Personalführung und Arbeitsorganisation. Wenn die Arbeiter einen weiteren, weniger routinierten und zweifellos systematischeren Blick auf den Produktionsprozess gewonnen haben, haben sie gleichzeitig die exklusive Bindung an eine Umgebung, ein Team, ein Produktionswerkzeug verloren. Es ist schwierig, diese Veränderungen mit Gelassenheit zu betrachten, aber wir müssen der Tatsache ins Auge sehen, dass eine neue Industrielandschaft geschaffen wurde, die manchmal bereichernder für diejenigen Arbeitnehmer ist, die ihren Platz darin finden können, aber auch voller Fallstricke und Sorgen für diejenigen, die es tun können werden ausgegrenzt oder ausgegrenzt. Eine Idee wird jedoch in Unternehmen aufgegriffen und durch Pilotversuche in vielen Ländern bestätigt: Es sollte möglich sein, Veränderungen zu steuern und ihre negativen Auswirkungen abzumildern, indem entsprechende Analysen verwendet werden und alle Ressourcen für Verhandlungen zwischen den verschiedenen Arbeiten genutzt werden Schauspieler. In diesen Kontext müssen wir heute Arbeitsanalysen stellen – als Werkzeuge, die es uns ermöglichen, Aufgaben und Aktivitäten besser zu beschreiben, um Interventionen unterschiedlicher Art zu steuern, wie z. B. Schulungen, die Einrichtung neuer Organisationsformen oder die Gestaltung von Werkzeugen und Arbeit Systeme. Wir sprechen von Analysen und nicht nur von einer Analyse, da es eine große Anzahl davon gibt, abhängig von den theoretischen und kulturellen Kontexten, in denen sie entwickelt werden, den besonderen Zielen, die sie verfolgen, den gesammelten Beweisen oder dem Interesse des Analysators an beiden Spezifität oder Allgemeinheit. In diesem Artikel beschränken wir uns darauf, einige Merkmale von Arbeitsanalysen vorzustellen und die Bedeutung kollektiver Arbeit zu betonen. Unsere Schlussfolgerungen werden andere Wege aufzeigen, die wir aufgrund der Grenzen dieses Textes nicht weiter vertiefen können.

                                                    Einige Merkmale von Arbeitsanalysen

                                                    Der Kontext

                                                    Wenn das primäre Ziel jeder Arbeitsanalyse darin besteht, zu beschreiben, was der Bediener tut die, oder sollte tun, es genauer in seinen Kontext einzuordnen, erschien Forschern oft unabdingbar. Sie erwähnen nach ihren eigenen Ansichten, aber in weitgehend ähnlicher Weise, die Konzepte von Kontext, Situation, Umwelt, Arbeitsdomäne, Arbeitswelt or Arbeitsumgebung. Das Problem liegt weniger in den Nuancen zwischen diesen Begriffen als in der Auswahl der Variablen, die beschrieben werden müssen, um ihnen eine sinnvolle Bedeutung zu geben. Tatsächlich ist die Welt riesig und die Branche komplex, und die Merkmale, auf die man sich beziehen könnte, sind unzählig. Unter Autoren auf diesem Gebiet lassen sich zwei Tendenzen feststellen. Die erste sieht in der Kontextbeschreibung ein Mittel, um das Interesse des Lesers zu wecken und ihm einen adäquaten semantischen Rahmen zu geben. Die zweite hat eine andere theoretische Perspektive: Sie versucht, sowohl Kontext als auch Aktivität zu umfassen, indem sie nur diejenigen Elemente des Kontexts beschreibt, die in der Lage sind, das Verhalten von Bedienern zu beeinflussen.

                                                    Der semantische Rahmen

                                                    Kontext hat evokative Kraft. Für einen informierten Leser reicht es aus, von einem Bediener in einer Leitwarte zu lesen, der sich in einem kontinuierlichen Prozess befindet, um sich durch Befehle und Überwachung aus der Ferne ein Bild von der Arbeit zu machen, wo die Aufgaben der Erkennung, Diagnose und Regelung vorherrschen. Welche Variablen müssen beschrieben werden, um einen ausreichend aussagekräftigen Zusammenhang herzustellen? Es hängt alles vom Leser ab. Dennoch gibt es in der Literatur einen Konsens über einige Schlüsselvariablen. Das Natur des Wirtschaftszweigs, der Art der Produktion oder Dienstleistung, der Größe und der geografischen Lage des Standorts sinnvoll.

                                                    Die Produktionsprozesse, die Werkzeuge oder Maschinen und ihre Grad der Automatisierung gewisse Einschränkungen und gewisse notwendige Qualifikationen erahnen lassen. Das Personalstruktur, zusammen mit Alter, Qualifikationsniveau und Erfahrung sind entscheidende Daten, wenn es um Aspekte der Ausbildung oder der organisatorischen Flexibilität geht. Das Arbeitsorganisation etabliert, hängt mehr von der Firmenphilosophie als von der Technologie ab. Seine Beschreibung umfasst insbesondere Arbeitszeitpläne, den Grad der Zentralisierung von Entscheidungen und die Art der Kontrolle, die über die Arbeitnehmer ausgeübt wird. Andere Elemente können in anderen Fällen hinzugefügt werden. Sie sind mit der Geschichte und Kultur des Unternehmens, seiner wirtschaftlichen Situation, den Arbeitsbedingungen und etwaigen Umstrukturierungen, Fusionen und Investitionen verbunden. Es gibt mindestens so viele Klassifikationssysteme wie Autoren, und es sind zahlreiche deskriptive Listen im Umlauf. In Frankreich wurden besondere Anstrengungen unternommen, um einfache beschreibende Methoden zu verallgemeinern, insbesondere um eine Rangfolge bestimmter Faktoren danach zu ermöglichen, ob sie für den Bediener zufriedenstellend sind oder nicht (RNUR 1976; Guelaud et al. 1977).

                                                    Die Beschreibung relevanter Faktoren in Bezug auf die Aktivität

                                                    Die von Rasmussen, Pejtersen und Schmidts (1990) beschriebene Taxonomie komplexer Systeme stellt einen der ehrgeizigsten Versuche dar, gleichzeitig den Kontext und seinen Einfluss auf den Bediener zu erfassen. Seine Hauptidee besteht darin, die verschiedenen Elemente, aus denen es besteht, systematisch zu integrieren und die Freiheitsgrade und Zwänge herauszustellen, innerhalb derer individuelle Strategien entwickelt werden können. Sein erschöpfendes Ziel macht es schwierig, es zu manipulieren, aber die Verwendung mehrerer Darstellungsweisen, einschließlich Graphen, zur Veranschaulichung der Beschränkungen hat einen heuristischen Wert, der für viele Leser sicherlich attraktiv sein wird. Andere Ansätze sind gezielter. Was die Autoren suchen, ist die Auswahl von Faktoren, die eine bestimmte Aktivität beeinflussen können. Daher schlägt Brehmer (1990) mit seinem Interesse an der Steuerung von Prozessen in einer sich ändernden Umgebung eine Reihe von zeitlichen Merkmalen des Kontexts vor, die die Steuerung und Antizipation des Bedieners beeinflussen (siehe Abbildung 1). Die Typologie dieses Autors wurde aus „Mikrowelten“ entwickelt, computerisierten Simulationen dynamischer Situationen, aber der Autor selbst hat sie zusammen mit vielen anderen seitdem für die kontinuierliche Prozessindustrie verwendet (Van Daele 1992). Bei bestimmten Aktivitäten ist der Einfluss der Umgebung bekannt, und die Auswahl der Faktoren ist nicht allzu schwierig. Wenn wir uns also für die Herzfrequenz im Arbeitsumfeld interessieren, beschränken wir uns oft darauf, die Lufttemperaturen, die körperlichen Einschränkungen der Aufgabe oder das Alter und die Ausbildung des Probanden zu beschreiben – obwohl wir wissen, dass wir damit vielleicht abbrechen relevante Elemente heraus. Anderen fällt die Wahl schwerer. Studien über menschliches Versagen zeigen zum Beispiel, dass die Faktoren, die dazu in der Lage sind, sie hervorzurufen, zahlreich sind (Reason 1989). Manchmal, wenn das theoretische Wissen nicht ausreicht, erlaubt uns nur eine statistische Verarbeitung, die Kontext- und Aktivitätsanalyse kombiniert, die relevanten kontextuellen Faktoren herauszuarbeiten (Fadier 1990).

                                                    Abbildung 1. Die Kriterien und Unterkriterien der von Brehmer (1990) vorgeschlagenen Taxonomie von Mikrowelten

                                                    ERG040T1

                                                    Die Aufgabe oder die Aktivität?

                                                    Die Aufgabe

                                                    Die Aufgabe wird durch ihre Ziele, ihre Beschränkungen und die Mittel, die sie zu ihrer Erfüllung erfordert, definiert. Eine Funktion im Unternehmen ist in der Regel durch eine Reihe von Aufgaben gekennzeichnet. Die realisierte Aufgabe weicht aus einer Vielzahl von Gründen von der vom Unternehmen geplanten Aufgabe ab: Die Strategien der Bediener variieren innerhalb und zwischen den Individuen, die Umgebung schwankt und zufällige Ereignisse erfordern Antworten, die oft außerhalb des vorgeschriebenen Rahmens liegen. Endlich, das Auftrag wird nicht immer mit der richtigen Kenntnis seiner Ausführungsbedingungen geplant, daher die Notwendigkeit von Anpassungen in Echtzeit. Aber auch wenn die Aufgabe während der Aktivität aktualisiert wird, manchmal bis hin zur Transformation, bleibt sie dennoch die zentrale Referenz.

                                                    Fragebögen, Bestandsverzeichnisse und Taxonomien von Aufgaben sind zahlreich, insbesondere in der englischsprachigen Literatur – hervorragende Übersichten findet der Leser bei Fleishman und Quaintance (1984) sowie bei Greuter und Algera (1989). Einige dieser Instrumente sind lediglich Listen von Elementen – zum Beispiel die Aktionsverben zur Veranschaulichung von Aufgaben –, die entsprechend der untersuchten Funktion abgehakt werden. Andere haben ein hierarchisches Prinzip angenommen, das eine Aufgabe als ineinandergreifende Elemente charakterisiert, die vom Globalen zum Besonderen geordnet sind. Diese Methoden sind standardisiert und können auf eine Vielzahl von Funktionen angewendet werden; sie sind einfach anzuwenden und die Analysephase wird erheblich verkürzt. Aber wo es darum geht, spezifische Arbeit zu definieren, sind sie zu statisch und zu allgemein, um nützlich zu sein.

                                                    Als nächstes gibt es jene Instrumente, die mehr Geschick seitens des Forschers erfordern; Da die Elemente der Analyse nicht vordefiniert sind, ist es Sache des Forschers, sie zu charakterisieren. Zu dieser Gruppe gehört die bereits überholte Critical-Incident-Technik von Flanagan (1954), bei der der Beobachter eine Funktion anhand ihrer Schwierigkeiten beschreibt und die Vorfälle identifiziert, denen das Individuum ausgesetzt sein wird.

                                                    Dies ist auch der Weg der kognitiven Aufgabenanalyse (Roth und Woods 1988). Diese Technik zielt darauf ab, die kognitiven Anforderungen eines Jobs ans Licht zu bringen. Eine Möglichkeit, dies zu tun, besteht darin, die Aufgabe in Ziele, Einschränkungen und Mittel zu unterteilen. Abbildung 2 zeigt, wie die zunächst durch ein sehr globales Ziel des Überlebens des Patienten gekennzeichnete Aufgabe eines Anästhesisten in eine Reihe von Unterzielen zerlegt werden kann, die ihrerseits als einzusetzende Maßnahmen und Mittel klassifiziert werden können. Mehr als 100 Stunden Beobachtung im Operationssaal und anschließende Gespräche mit Anästhesisten waren notwendig, um dieses zusammenfassende „Foto“ der Anforderungen der Funktion zu erhalten. Obwohl diese Technik ziemlich mühsam ist, ist sie in der Ergonomie dennoch nützlich, um festzustellen, ob alle Ziele einer Aufgabe mit den Mitteln zu ihrer Erreichung versehen sind. Es ermöglicht auch ein Verständnis für die Komplexität einer Aufgabe (z. B. ihre besonderen Schwierigkeiten und widersprüchlichen Ziele) und erleichtert die Interpretation bestimmter menschlicher Fehler. Aber sie leidet, wie auch andere Methoden, unter dem Fehlen einer beschreibenden Sprache (Grant und Mayes 1991). Außerdem erlaubt es keine Hypothesen über die Art der kognitiven Prozesse, die zum Erreichen der fraglichen Ziele eingesetzt werden.

                                                    Abbildung 2. Kognitive Analyse der Aufgabe: Vollnarkose

                                                    ERG040F1

                                                    Andere Ansätze haben die mit gegebenen Aufgaben verbundenen kognitiven Prozesse analysiert, indem sie Hypothesen über die Informationsverarbeitung aufstellten, die zu ihrer Bewältigung erforderlich ist. Ein häufig verwendetes kognitives Modell dieser Art ist das von Rasmussen (1986), das je nach Art der Aufgabe und Vertrautheit mit dem Subjekt drei mögliche Aktivitätsebenen vorsieht, die entweder auf fähigkeitsbasierten Gewohnheiten und Reflexen oder auf erlernten Regeln basieren -basierten Verfahren oder auf wissensbasierten Verfahren. Aber andere Modelle oder Theorien, die in den 1970er Jahren den Höhepunkt ihrer Popularität erreichten, werden weiterhin verwendet. Daher wird die Theorie der optimalen Kontrolle, die den Menschen als Kontrolleur von Diskrepanzen zwischen zugewiesenen und beobachteten Zielen betrachtet, manchmal immer noch auf kognitive Prozesse angewendet. Und die Modellierung mittels Netzwerken miteinander verbundener Aufgaben und Flussdiagrammen inspiriert weiterhin die Autoren der kognitiven Aufgabenanalyse; Abbildung 3 bietet eine vereinfachte Beschreibung der Verhaltenssequenzen in einer Energiekontrollaufgabe, wobei eine Hypothese über bestimmte mentale Operationen aufgestellt wird. All diese Versuche spiegeln das Anliegen der Forscher wider, nicht nur Elemente des Kontexts, sondern auch die Aufgabe selbst und die ihr zugrunde liegenden kognitiven Prozesse in derselben Beschreibung zusammenzuführen – und auch den dynamischen Charakter der Arbeit widerzuspiegeln.

                                                    Abbildung 3. Eine vereinfachte Beschreibung der Determinanten eines Verhaltensablaufs bei Energiesteuerungsaufgaben: ein Fall von inakzeptablem Energieverbrauch

                                                    ERG040F2

                                                    Seit dem Aufkommen der wissenschaftlichen Arbeitsorganisation ist das Konzept der vorgeschriebenen Aufgabe negativ kritisiert worden, weil es so angesehen wurde, dass es den Arbeitnehmern Aufgaben auferlegte, die nicht nur ohne Rücksprache mit ihren Bedürfnissen entworfen wurden, sondern oft mit einer bestimmten Ausführungszeit einhergingen , eine Einschränkung, die von vielen Arbeitnehmern nicht begrüßt wird. Auch wenn der Auferlegungsaspekt heute eher flexibler geworden ist und auch wenn sich die Mitarbeiter häufiger an der Gestaltung von Aufgaben beteiligen, bleibt eine Aufgabenzuweisung für die Terminplanung notwendig und bleibt ein wesentlicher Bestandteil der Arbeitsorganisation. Die Quantifizierung von Zeit sollte nicht immer negativ empfunden werden. Sie ist ein wertvoller Indikator für die Arbeitsbelastung. Eine einfache, aber gängige Methode zur Messung des Zeitdrucks, der auf einen Arbeiter ausgeübt wird, besteht darin, den Quotienten aus der für die Erledigung einer Aufgabe benötigten Zeit dividiert durch die zur Verfügung stehende Zeit zu bestimmen. Je näher dieser Quotient an Eins liegt, desto größer ist der Druck (Wickens 1992). Darüber hinaus kann die Quantifizierung in einem flexiblen, aber angemessenen Personalmanagement eingesetzt werden. Nehmen wir den Fall von Krankenschwestern, wo die Technik der prädiktiven Analyse von Aufgaben verallgemeinert wurde, beispielsweise in der kanadischen Verordnung Planung der erforderlichen Pflege (PRN 80) (Kepenne 1984) oder eine seiner europäischen Varianten. Dank solcher Aufgabenlisten, begleitet von ihrer Bearbeitungszeit, kann man jeden Morgen unter Berücksichtigung der Anzahl der Patienten und ihres Gesundheitszustands einen Pflegeplan und eine Personalverteilung erstellen. Weit davon entfernt, eine Einschränkung zu sein, hat PRN 80 in einer Reihe von Krankenhäusern gezeigt, dass ein Mangel an Pflegepersonal besteht, da die Technik es ermöglicht, einen Unterschied (siehe Abbildung 4) zwischen dem Gewünschten und dem Beobachteten, d. h. zwischen, festzustellen die Anzahl der erforderlichen und der verfügbaren Mitarbeiter und sogar zwischen den geplanten Aufgaben und den durchgeführten Aufgaben. Die berechneten Zeiten sind nur Durchschnittswerte, und die Schwankungen der Situation machen sie nicht immer anwendbar, aber dieser negative Aspekt wird durch eine flexible Organisation minimiert, die Anpassungen akzeptiert und das Personal an diesen Anpassungen beteiligen lässt.

                                                    Abbildung 4. Diskrepanzen zwischen der Anzahl vorhandener und erforderlicher Mitarbeiter auf der Grundlage von PRN80

                                                    ERG040F3

                                                    Die Aktivität, die Beweise und die Leistung

                                                    Eine Aktivität ist definiert als eine Reihe von Verhaltensweisen und Ressourcen, die vom Bediener verwendet werden, damit Arbeit stattfindet – das heißt, die Umwandlung oder Produktion von Gütern oder die Erbringung einer Dienstleistung. Diese Aktivität kann durch Beobachtung auf unterschiedliche Weise verstanden werden. Faverge (1972) hat vier Formen der Analyse beschrieben. Die erste ist eine Analyse in Bezug auf Gesten und haltungen, wo der Beobachter innerhalb der sichtbaren Tätigkeit des Bedieners Verhaltensklassen lokalisiert, die während der Arbeit erkennbar und wiederholt werden. Diese Aktivitäten sind oft mit einer genauen Reaktion gekoppelt: zum Beispiel der Herzfrequenz, die es uns ermöglicht, die mit jeder Aktivität verbundene körperliche Belastung einzuschätzen. Die zweite Form der Analyse bezieht sich auf Informationsaufnahme. Was durch direkte Beobachtung – oder mit Hilfe von Kameras oder Augenbewegungsaufzeichnern – entdeckt wird, ist die Reihe von Signalen, die der Bediener in dem ihn umgebenden Informationsfeld aufnimmt. Diese Analyse ist in der kognitiven Ergonomie besonders nützlich, um zu versuchen, die vom Bediener durchgeführte Informationsverarbeitung besser zu verstehen. Die dritte Art der Analyse bezieht sich auf Regulierung. Die Idee besteht darin, die vom Bediener durchgeführten Anpassungen der Aktivität zu identifizieren, um entweder mit Schwankungen in der Umgebung oder mit Änderungen seines eigenen Zustands fertig zu werden. Dort finden wir das direkte Eingreifen des Kontextes in die Analyse. Eines der am häufigsten zitierten Forschungsprojekte auf diesem Gebiet ist das von Sperandio (1972). Dieser Autor untersuchte die Tätigkeit von Fluglotsen und identifizierte wichtige Strategieänderungen während einer Zunahme des Flugverkehrs. Er interpretierte sie als Versuch, die Tätigkeit zu vereinfachen, indem er darauf abzielte, ein akzeptables Belastungsniveau beizubehalten und gleichzeitig den Anforderungen der Aufgabe gerecht zu werden. Die vierte ist eine Analyse in Bezug auf Denkprozesse. Diese Art der Analyse ist in der Ergonomie von hochautomatisierten Posts weit verbreitet. Tatsächlich erfordert die Gestaltung computergestützter Hilfen und insbesondere intelligenter Hilfen für den Bediener ein gründliches Verständnis der Art und Weise, wie der Bediener argumentiert, um bestimmte Probleme zu lösen. Die Argumentation bei der Planung, Antizipation und Diagnose war Gegenstand von Analysen, von denen ein Beispiel in Abbildung 5 zu finden ist. Hinweise auf geistige Aktivität können jedoch nur gefolgert werden. Abgesehen von bestimmten beobachtbaren Verhaltensaspekten wie Augenbewegungen und Problemlösungszeit greifen die meisten dieser Analysen auf die verbale Reaktion zurück. Besonderes Augenmerk wurde in den letzten Jahren auf das Wissen gelegt, das zur Durchführung bestimmter Aktivitäten erforderlich ist, wobei die Forscher versuchten, diese nicht von vornherein zu postulieren, sondern durch die Analyse selbst sichtbar zu machen.

                                                    Abbildung 5. Analyse der geistigen Aktivität. Strategien zur Steuerung von Prozessen mit langen Reaktionszeiten: Die Notwendigkeit computergestützter Unterstützung bei der Diagnose

                                                    ERG040T2

                                                    Solche Bemühungen haben die Tatsache ans Licht gebracht, dass nahezu identische Leistungen mit sehr unterschiedlichem Kenntnisstand erzielt werden können, solange sich die Bediener ihrer Grenzen bewusst sind und an ihre Fähigkeiten angepasste Strategien anwenden. Daher wurden in unserer Studie über die Inbetriebnahme einer thermoelektrischen Anlage (De Keyser und Housiaux 1989) die Inbetriebnahmen sowohl von Ingenieuren als auch von Bedienern durchgeführt. Das mittels Interviews und Fragebögen erhobene theoretische und prozedurale Wissen dieser beiden Gruppen war sehr unterschiedlich. Insbesondere die Bediener hatten manchmal ein falsches Verständnis der Variablen in den funktionalen Verknüpfungen des Prozesses. Trotzdem waren die Leistungen der beiden Gruppen sehr eng. Die Betreiber berücksichtigten jedoch mehr Variablen, um die Kontrolle des Starts zu überprüfen, und führten häufigere Überprüfungen durch. Zu solchen Ergebnissen kam auch Amalberti (1991), der die Existenz von Metawissen erwähnte, das es Experten ermöglicht, ihre eigenen Ressourcen zu verwalten.

                                                    Was Nachweis der Tätigkeit ist angemessen zu entlocken? Ihre Art hängt, wie wir gesehen haben, eng von der geplanten Analyseform ab. Ihre Form variiert je nach methodischer Sorgfalt des Betrachters. Provoziert Beweise werden unterschieden spontan Beweise u begleitend für Folge Beweis. Generell sind, wenn es die Art der Arbeit zulässt, Begleit- und Spontanbeweise zu bevorzugen. Sie sind frei von verschiedenen Nachteilen wie der Unzuverlässigkeit des Gedächtnisses, der Störung durch den Beobachter, dem Effekt einer rationalisierenden Rekonstruktion seitens des Subjekts und so weiter. Um diese Unterscheidungen zu veranschaulichen, nehmen wir das Beispiel von Verbalisierungen. Spontane Verbalisierungen sind verbaler Austausch oder Monologe, die spontan geäußert werden, ohne vom Beobachter aufgefordert zu werden; Provozierte Verbalisierungen sind solche, die auf ausdrücklichen Wunsch des Beobachters erfolgen, wie etwa die in der kognitiven Literatur wohlbekannte Aufforderung an das Subjekt, „laut zu denken“. Beide Arten können in Echtzeit während der Arbeit durchgeführt werden und sind somit gleichzeitig.

                                                    Sie können auch nachträglich sein, wie in Interviews, oder die Verbalisierungen der Probanden, wenn sie sich Videobänder ihrer Arbeit ansehen. Was die Gültigkeit der Verbalisierungen betrifft, so sollte der Leser die Zweifel nicht ignorieren, die in dieser Hinsicht durch die Kontroverse zwischen Nisbett und De Camp Wilson (1977) und White (1988) aufgeworfen wurden, und die Vorsichtsmaßnahmen, die von zahlreichen Autoren vorgeschlagen wurden, die sich ihrer Bedeutung für die Studie bewusst waren der geistigen Aktivität angesichts der aufgetretenen methodischen Schwierigkeiten (Ericson und Simon 1984; Savoyant und Leplat 1983; Caverni 1988; Bainbridge 1986).

                                                    Die Organisation dieser Beweise, ihre Verarbeitung und ihre Formalisierung erfordern beschreibende Sprachen und manchmal Analysen, die über die Feldbeobachtung hinausgehen. Hypothetisch bleiben beispielsweise jene geistigen Aktivitäten, die aus den Beweisen erschlossen werden. Heute werden sie oft mit Sprachen beschrieben, die von künstlicher Intelligenz abgeleitet sind, wobei Repräsentationen in Form von Schemata, Produktionsregeln und verbindenden Netzwerken verwendet werden. Darüber hinaus ist der Einsatz computergestützter Simulationen – von Mikrowelten – zur Lokalisierung bestimmter mentaler Aktivitäten weit verbreitet, auch wenn die Gültigkeit der Ergebnisse solcher computergestützter Simulationen angesichts der Komplexität der industriellen Welt umstritten ist. Schließlich müssen wir die kognitiven Modelle bestimmter mentaler Aktivitäten erwähnen, die aus dem Feld extrahiert wurden. Zu den bekanntesten gehört die in ISPRA durchgeführte Diagnose des Betreibers eines Kernkraftwerks (Decortis und Cacciabue 1990) und die darin perfektionierte Planung des Kampfpiloten Centre d'études et de recherches de médecine aérospatiale (CERMA) (Amalberti et al. 1989).

                                                    Die Messung der Diskrepanzen zwischen der Leistung dieser Modelle und der von realen, lebenden Bedienern ist ein fruchtbares Gebiet in der Aktivitätsanalyse. Leistung ist das Ergebnis der Aktivität, die endgültige Antwort des Subjekts auf die Anforderungen der Aufgabe. Sie drückt sich auf der Ebene der Produktion aus: Produktivität, Qualität, Fehler, Vorfälle, Unfälle – und sogar, auf globalerer Ebene, Fehlzeiten oder Fluktuation. Sie muss aber auch auf individueller Ebene identifiziert werden: Auch der subjektive Ausdruck von Zufriedenheit, Stress, Müdigkeit oder Arbeitsbelastung und viele physiologische Reaktionen sind Leistungsindikatoren. Nur die Gesamtheit der Daten erlaubt eine Interpretation der Aktivität, also die Beurteilung, ob sie die angestrebten Ziele fördert oder nicht, während sie innerhalb menschlicher Grenzen bleibt. Es gibt eine Reihe von Normen, die den Betrachter bis zu einem gewissen Punkt leiten. Aber diese Normen sind es nicht gelegen– sie berücksichtigen nicht den Kontext, seine Schwankungen und den Zustand des Arbeitnehmers. Deshalb wird in der Designergonomie, auch wenn es Regeln, Normen und Modelle gibt, Designern empfohlen, das Produkt so früh wie möglich anhand von Prototypen zu testen und die Aktivität und Leistung der Benutzer zu evaluieren.

                                                    Einzel- oder Kollektivarbeit?

                                                    Während Arbeit in den allermeisten Fällen ein kollektiver Akt ist, konzentrieren sich die meisten Arbeitsanalysen auf Aufgaben oder individuelle Aktivitäten. Tatsache ist jedoch, dass die technologische Entwicklung ebenso wie die Arbeitsorganisation heute auf verteilte Arbeit setzt, sei es zwischen Arbeitern und Maschinen oder einfach innerhalb einer Gruppe. Welche Wege wurden von Autoren beschritten, um dieser Verteilung Rechnung zu tragen (Rasmussen, Pejtersen und Schmidts 1990)? Sie konzentrieren sich auf drei Aspekte: Struktur, Art des Austauschs und strukturelle Labilität.

                                                    Struktur

                                                    Unabhängig davon, ob wir Strukturen als Elemente der Analyse von Personen oder von Dienstleistungen oder sogar von verschiedenen Zweigen eines Unternehmens betrachten, die in einem Netzwerk arbeiten, bleibt die Beschreibung der sie verbindenden Verbindungen ein Problem. Wir sind sehr vertraut mit den Organigrammen innerhalb von Firmen, die die Autoritätsstruktur anzeigen und deren verschiedene Formen die Organisationsphilosophie der Firma widerspiegeln – sehr hierarchisch organisiert für eine Taylor-Struktur oder abgeflacht wie ein Rechen, sogar matrixartig für a flexiblere Struktur. Andere Beschreibungen verteilter Aktivitäten sind möglich: Ein Beispiel ist in Abbildung 6 dargestellt. In jüngerer Zeit hat die Notwendigkeit für Unternehmen, ihren Informationsaustausch auf globaler Ebene darzustellen, zu einem Umdenken in Bezug auf Informationssysteme geführt. Dank bestimmter Beschreibungssprachen – zum Beispiel Designschemata oder Entity-Relations-Attribute-Matrizen – kann die Beziehungsstruktur auf kollektiver Ebene heute sehr abstrakt beschrieben werden und als Sprungbrett für die Erstellung computergestützter Managementsysteme dienen .

                                                    Abbildung 6. Integriertes Lebenszyklusdesign

                                                    ERG040F5

                                                    Das Wesen des Austauschs

                                                    Einfach nur eine Beschreibung der Links zu haben, die die Entitäten vereinen, sagt wenig über den Inhalt des Austauschs selbst aus; Natürlich kann die Art der Beziehung spezifiziert werden – Bewegung von Ort zu Ort, Informationstransfer, hierarchische Abhängigkeit und so weiter –, aber das ist oft ziemlich unzureichend. Die Analyse der Kommunikation innerhalb von Teams ist zu einem bevorzugten Mittel geworden, um das eigentliche Wesen der kollektiven Arbeit zu erfassen, einschließlich der erwähnten Themen, der Schaffung einer gemeinsamen Sprache in einem Team, der Änderung der Kommunikation unter kritischen Umständen und so weiter (Tardieu, Nanci und Pascot 1985; Rolland 1986; Navarro 1990; Van Daele 1992; Lacoste 1983; Moray, Sanderson und Vincente 1989). Die Kenntnis dieser Wechselwirkungen ist besonders nützlich für die Erstellung von Computerwerkzeugen, insbesondere Entscheidungshilfen zum Verständnis von Fehlern. Die verschiedenen Stadien und die methodologischen Schwierigkeiten im Zusammenhang mit der Verwendung dieser Nachweise wurden von Falzon (1991) gut beschrieben.

                                                    Strukturelle Labilität

                                                    Es ist eher die Arbeit an Aktivitäten als an Aufgaben, die das Feld der strukturellen Labilität eröffnet hat – das heißt, der ständigen Neukonfigurationen kollektiver Arbeit unter dem Einfluss kontextueller Faktoren. Studien wie die von Rogalski (1991), die über einen langen Zeitraum die kollektiven Aktivitäten im Umgang mit Waldbränden in Frankreich analysierten, und Bourdon und Weill Fassina (1994), die die Organisationsstruktur untersuchten, die für den Umgang mit Eisenbahnunfällen eingerichtet wurde, sind beides sehr informativ. Sie zeigen deutlich, wie der Kontext die Struktur des Austauschs, die Anzahl und Art der beteiligten Akteure, die Art der Kommunikation und die Anzahl der für die Arbeit wesentlichen Parameter prägt. Je mehr dieser Kontext schwankt, desto weiter entfernen sich die fixierten Aufgabenbeschreibungen von der Realität. Die Kenntnis dieser Labilität und ein besseres Verständnis der darin ablaufenden Phänomene sind unerlässlich, um für das Unvorhersehbare zu planen und um diejenigen, die in einer Krise an kollektiver Arbeit beteiligt sind, besser zu schulen.

                                                    Schlussfolgerungen

                                                    Die verschiedenen beschriebenen Phasen der Arbeitsanalyse sind ein iterativer Teil jedes Human-Factors-Designzyklus (siehe Abbildung 6). Bei diesem Entwurf eines technischen Objekts, sei es ein Werkzeug, eine Arbeitsstation oder eine Fabrik, bei der menschliche Faktoren berücksichtigt werden, werden rechtzeitig bestimmte Informationen benötigt. Im Allgemeinen ist der Beginn des Entwurfszyklus durch einen Bedarf an Daten gekennzeichnet, die Umweltbeschränkungen, die Art der auszuführenden Arbeiten und die verschiedenen Merkmale der Benutzer betreffen. Diese ersten Informationen ermöglichen es, die Spezifikationen des Objekts zu erstellen, um die Arbeitsanforderungen zu berücksichtigen. Aber das ist in gewisser Weise nur ein grobes Modell im Vergleich zur realen Arbeitssituation. Dies erklärt, warum Modelle und Prototypen notwendig sind, die von Anfang an nicht die Arbeitsplätze selbst, sondern die Aktivitäten der zukünftigen Nutzer evaluieren lassen. Folglich kann die Gestaltung der Bilder auf einem Monitor in einem Kontrollraum zwar auf einer gründlichen kognitiven Analyse der zu erledigenden Arbeit basieren, aber nur eine datenbasierte Analyse der Aktivität ermöglicht eine genaue Bestimmung, ob der Prototyp tatsächlich funktioniert in der konkreten Arbeitssituation von Nutzen sein (Van Daele 1988). Ist das fertige technische Objekt in Betrieb genommen, wird mehr Wert auf die Leistungsfähigkeit der Nutzer und auf dysfunktionale Situationen wie Unfälle oder menschliches Versagen gelegt. Das Sammeln dieser Art von Informationen ermöglicht es, die letzten Korrekturen vorzunehmen, die die Zuverlässigkeit und Verwendbarkeit des fertiggestellten Objekts erhöhen. Sowohl die Nuklearindustrie als auch die Luftfahrtindustrie dienen als Beispiel: Bei der betrieblichen Rückmeldung geht es darum, jeden auftretenden Vorfall zu melden. Auf diese Weise schließt sich der Designkreislauf.

                                                     

                                                    Zurück

                                                    Montag, Dezember 20 2010 19: 18

                                                    Toxikokinetik

                                                    Der menschliche Organismus stellt ein komplexes biologisches System auf verschiedenen Organisationsebenen dar, von der molekular-zellulären Ebene bis zu den Geweben und Organen. Der Organismus ist ein offenes System, das durch zahlreiche biochemische Reaktionen in einem dynamischen Gleichgewicht Stoff und Energie mit der Umwelt austauscht. Die Umwelt kann verschmutzt oder mit verschiedenen Giftstoffen kontaminiert sein.

                                                    Das Eindringen von Molekülen oder Ionen von Giftstoffen aus der Arbeits- oder Lebensumgebung in ein derart stark koordiniertes biologisches System kann reversibel oder irreversibel normale zelluläre biochemische Prozesse stören oder sogar die Zelle verletzen und zerstören (siehe „Zellschädigung und Zelltod“).

                                                    Das Eindringen eines Giftstoffes aus der Umwelt zu den Orten seiner toxischen Wirkung im Organismus kann in drei Phasen eingeteilt werden:

                                                    1. Die Expositionsphase umfasst alle zwischen verschiedenen Schadstoffen ablaufenden Prozesse und/oder deren Einfluss durch Umweltfaktoren (Licht, Temperatur, Feuchtigkeit etc.). Chemische Umwandlungen, Abbau, biologischer Abbau (durch Mikroorganismen) sowie Abbau von Giftstoffen können auftreten.
                                                    2. Die toxikokinetische Phase umfasst die Aufnahme von Giftstoffen in den Organismus und alle Prozesse, die dem Transport durch Körperflüssigkeiten, der Verteilung und Anreicherung in Geweben und Organen, der Biotransformation zu Metaboliten und der Elimination (Ausscheidung) von Giftstoffen und/oder Metaboliten aus dem Organismus folgen.
                                                    3. Die toxikodynamische Phase bezeichnet die Wechselwirkung von Giftstoffen (Molekülen, Ionen, Kolloiden) mit bestimmten Wirkorten auf oder in den Zellen – Rezeptoren –, die letztendlich eine toxische Wirkung hervorrufen.

                                                     

                                                    Hier konzentrieren wir uns ausschließlich auf die toxikokinetischen Prozesse im menschlichen Organismus nach Exposition gegenüber toxischen Stoffen in der Umwelt.

                                                    Die in der Umwelt vorhandenen Moleküle oder Ionen von Giftstoffen dringen je nach Eintrittspunkt über Haut und Schleimhäute oder die Epithelzellen der Atemwege und des Magen-Darm-Traktes in den Organismus ein. Das bedeutet, dass Moleküle und Ionen von Giftstoffen die Zellmembranen dieser biologischen Systeme sowie ein kompliziertes System von Endomembranen innerhalb der Zelle durchdringen müssen.

                                                    Alle toxikokinetischen und toxikodynamischen Prozesse finden auf molekular-zellulärer Ebene statt. Zahlreiche Faktoren beeinflussen diese Prozesse und diese können in zwei grundlegende Gruppen eingeteilt werden:

                                                    • chemische Konstitution und physikalisch-chemische Eigenschaften von Giftstoffen
                                                    • Aufbau der Zelle, insbesondere Eigenschaften und Funktion der Membranen um die Zelle und ihrer inneren Organellen.

                                                     

                                                    Physikalisch-chemische Eigenschaften von Giftstoffen

                                                    1854 begann der russische Toxikologe EV Pelikan mit Studien über die Beziehung zwischen der chemischen Struktur einer Substanz und ihrer biologischen Aktivität – der Struktur-Aktivitäts-Beziehung (SAR). Die chemische Struktur bestimmt direkt die physikalisch-chemischen Eigenschaften, von denen einige für die biologische Aktivität verantwortlich sind.

                                                    Zur Bestimmung der chemischen Struktur können zahlreiche Parameter als Deskriptoren ausgewählt werden, die sich in verschiedene Gruppen einteilen lassen:

                                                    1. Physikalisch-chemisch:

                                                    • allgemein – Schmelzpunkt, Siedepunkt, Dampfdruck, Dissoziationskonstante (pKa)
                                                    • elektrisch – Ionisationspotential, Dielektrizitätskonstante, Dipolmoment, Masse: Ladungsverhältnis usw.
                                                    • Quantenchemikalie – Atomladung, Bindungsenergie, Resonanzenergie, Elektronendichte, molekulare Reaktivität usw.

                                                     

                                                     2. Sterisch: Molekülvolumen, Form und Oberfläche, Substrukturform, molekulare Reaktivität usw.
                                                     3. Strukturell: Zahl der Bindungen Zahl der Ringe (bei polycyclischen Verbindungen), Ausmaß der Verzweigung etc.

                                                     

                                                    Für jeden Giftstoff muss eine Reihe von Deskriptoren ausgewählt werden, die sich auf einen bestimmten Wirkungsmechanismus beziehen. Aus toxikokinetischer Sicht sind jedoch zwei Parameter von allgemeiner Bedeutung für alle Giftstoffe:

                                                    • Der Nernst-Verteilungskoeffizient (P) legt die Löslichkeit von Giftstoffmolekülen im Zweiphasensystem Octanol (Öl)-Wasser fest und korreliert mit ihrer Lipo- oder Hydrolöslichkeit. Dieser Parameter wird die Verteilung und Akkumulation von Giftstoffmolekülen im Organismus stark beeinflussen.
                                                    • Die Dissoziationskonstante (pKa) definiert den Grad der Ionisierung (elektrolytische Dissoziation) von Molekülen eines Giftstoffs in geladene Kationen und Anionen bei einem bestimmten pH-Wert. Diese Konstante stellt den pH-Wert dar, bei dem 50 % Ionisierung erreicht werden. Moleküle können lipophil oder hydrophil sein, Ionen sind jedoch ausschließlich im Wasser von Körperflüssigkeiten und Geweben löslich. pK kennena Mit der Henderson-Hasselbach-Gleichung kann für jeden pH-Wert der Ionisationsgrad einer Substanz berechnet werden.

                                                     

                                                    Bei eingeatmeten Stäuben und Aerosolen beeinflussen auch Partikelgröße, Form, Oberfläche und Dichte deren Toxikokinetik und Toxikodynamik.

                                                    Struktur und Eigenschaften von Membranen

                                                    Die eukaryotische Zelle menschlicher und tierischer Organismen ist von einer zytoplasmatischen Membran umgeben, die den Stofftransport reguliert und die Zellhomöostase aufrechterhält. Auch die Zellorganellen (Zellkern, Mitochondrien) besitzen Membranen. Das Zytoplasma der Zelle ist durch komplizierte Membranstrukturen, das endoplasmatische Retikulum und den Golgi-Komplex (Endomembranen) kompartimentiert. Alle diese Membranen sind strukturell gleich, unterscheiden sich jedoch im Gehalt an Lipiden und Proteinen.

                                                    Das strukturelle Gerüst von Membranen ist eine Doppelschicht aus Lipidmolekülen (Phospholipide, Sphingolipide, Cholesterin). Das Rückgrat eines Phospholipidmoleküls ist Glycerin, wobei zwei seiner -OH-Gruppen mit aliphatischen Fettsäuren mit 16 bis 18 Kohlenstoffatomen verestert sind und die dritte Gruppe mit einer Phosphatgruppe und einer stickstoffhaltigen Verbindung (Cholin, Ethanolamin, Serin) verestert ist. In Sphyngolipiden ist Sphyngosin die Base.

                                                    Das Lipidmolekül ist amphipatisch, weil es aus einem polaren hydrophilen „Kopf“ (Aminoalkohol, Phosphat, Glycerin) und einem unpolaren Zwillings-„Schwanz“ (Fettsäuren) besteht. Die Lipiddoppelschicht ist so angeordnet, dass die hydrophilen Köpfe die äußere und innere Oberfläche der Membran bilden und die lipophilen Schwänze in Richtung des Membraninneren gestreckt werden, das Wasser, verschiedene Ionen und Moleküle enthält.

                                                    Proteine ​​und Glykoproteine ​​werden in die Lipiddoppelschicht eingefügt (intrinsische Proteine) oder an die Membranoberfläche gebunden (extrinsische Proteine). Diese Proteine ​​tragen zur strukturellen Integrität der Membran bei, können aber auch als Enzyme, Träger, Porenwände oder Rezeptoren fungieren.

                                                    Die Membran stellt ein dynamisches Gebilde dar, das je nach funktionellem Bedarf mit einem unterschiedlichen Anteil an Lipiden und Proteinen abgebaut und wieder aufgebaut werden kann.

                                                    Die Regulation des Stofftransports in die und aus der Zelle gehört zu den Grundfunktionen der äußeren und inneren Membranen.

                                                    Einige lipophile Moleküle passieren direkt die Lipiddoppelschicht. Hydrophile Moleküle und Ionen werden über Poren transportiert. Membranen reagieren auf sich ändernde Bedingungen, indem sie bestimmte Poren unterschiedlicher Größe öffnen oder verschließen.

                                                    Am Transport von Stoffen, einschließlich Giftstoffen, durch Membranen sind folgende Prozesse und Mechanismen beteiligt:

                                                    • Diffusion durch die Lipiddoppelschicht
                                                    • Diffusion durch Poren
                                                    • Transport durch einen Träger (erleichterte Diffusion).

                                                     

                                                    Aktive Prozesse:

                                                    • aktiver Transport durch einen Spediteur
                                                    • Endozytose (Pinozytose).

                                                     

                                                    Rundfunk

                                                    Dies repräsentiert die Bewegung von Molekülen und Ionen durch Lipiddoppelschichten oder Poren von einem Bereich mit hoher Konzentration oder hohem elektrischem Potential zu einem Bereich mit niedriger Konzentration oder niedrigem Potential („bergab“). Der Unterschied in der Konzentration oder der elektrischen Ladung ist die treibende Kraft, die die Intensität des Flusses in beide Richtungen beeinflusst. Im Gleichgewichtszustand ist der Zufluss gleich dem Abfluss. Die Diffusionsrate folgt dem Fick'schen Gesetz, das besagt, dass sie direkt proportional zur verfügbaren Oberfläche der Membran, dem Unterschied im Konzentrationsgradienten (Ladungsgradienten) und dem charakteristischen Diffusionskoeffizienten und umgekehrt proportional zur Membrandicke ist.

                                                    Kleine lipophile Moleküle passieren gemäß dem Nernst-Verteilungskoeffizienten leicht die Lipidschicht der Membran.

                                                    Große lipophile Moleküle, wasserlösliche Moleküle und Ionen werden wässrige Porenkanäle für ihren Durchgang verwenden. Größe und Stereokonfiguration beeinflussen den Durchgang von Molekülen. Bei Ionen ist neben der Größe auch die Ladungsart entscheidend. Die Proteinmoleküle der Porenwände können positiv oder negativ aufgeladen werden. Enge Poren neigen dazu, selektiv zu sein – negativ geladene Liganden erlauben nur den Durchgang für Kationen, und positiv geladene Liganden erlauben nur den Durchgang für Anionen. Mit der Vergrößerung des Porendurchmessers dominiert die hydrodynamische Strömung, die gemäß dem Gesetz von Poiseuille den freien Durchgang von Ionen und Molekülen ermöglicht. Diese Filtration ist eine Folge des osmotischen Gradienten. In einigen Fällen können Ionen bestimmte komplexe Moleküle durchdringen –Ionophore– die von Mikroorganismen mit antibiotischer Wirkung produziert werden können (Nonactin, Valinomycin, Gramacidin etc.).

                                                    Erleichterte oder katalysierte Diffusion

                                                    Dies erfordert das Vorhandensein eines Trägers in der Membran, normalerweise eines Proteinmoleküls (Permease). Der Träger bindet selektiv Substanzen, die einem Substrat-Enzym-Komplex ähneln. Ähnliche Moleküle (einschließlich Giftstoffe) können um den spezifischen Träger konkurrieren, bis dessen Sättigungspunkt erreicht ist. Giftstoffe können um den Träger konkurrieren, und wenn sie irreversibel daran gebunden sind, ist der Transport blockiert. Die Transportrate ist charakteristisch für jeden Trägertyp. Erfolgt der Transport in beide Richtungen, spricht man von Austauschdiffusion.

                                                    Aktiven Transport

                                                    Für den Transport einiger zelllebenswichtiger Substanzen wird ein spezieller Trägertyp verwendet, der gegen das Konzentrationsgefälle bzw. elektrische Potential („bergauf“) transportiert wird. Der Träger ist sehr stereospezifisch und kann gesättigt sein.

                                                    Für den Bergauftransport wird Energie benötigt. Die notwendige Energie wird durch katalytische Spaltung von ATP-Molekülen zu ADP durch das Enzym Adenosintriphosphatase (ATP-ase) gewonnen.

                                                    Giftstoffe können diesen Transport durch kompetitive oder nicht-kompetitive Hemmung des Trägers oder durch Hemmung der ATP-ase-Aktivität stören.

                                                    Endozytose

                                                    Endozytose ist definiert als ein Transportmechanismus, bei dem die Zellmembran Material durch Einhüllen umgibt, um ein Vesikel zu bilden, das es durch die Zelle transportiert. Wenn das Material flüssig ist, wird der Prozess bezeichnet Pinozytose. In manchen Fällen ist das Material an einen Rezeptor gebunden und dieser Komplex wird durch ein Membranvesikel transportiert. Diese Art des Transports wird insbesondere von Epithelzellen des Gastrointestinaltrakts und Zellen der Leber und der Nieren verwendet.

                                                    Aufnahme von Giftstoffen

                                                    Menschen sind im Arbeits- und Lebensumfeld zahlreichen Schadstoffen ausgesetzt, die über drei Haupteintrittspforten in den menschlichen Organismus eindringen können:

                                                    • über die Atemwege durch Einatmen von verunreinigter Luft
                                                    • über den Magen-Darm-Trakt durch Aufnahme kontaminierter Lebensmittel, Wasser und Getränke
                                                    • durch die Haut durch dermale, kutane Penetration.

                                                     

                                                    Bei Expositionen in der Industrie stellt die Inhalation den dominierenden Eintragsweg von Schadstoffen dar, gefolgt von der dermalen Penetration. In der Landwirtschaft ist die Pestizidexposition durch dermale Aufnahme fast gleich der kombinierten Inhalation und dermalen Penetration. Die allgemeine Bevölkerung wird hauptsächlich durch Aufnahme von kontaminierten Lebensmitteln, Wasser und Getränken, dann durch Inhalation und seltener durch Hautpenetration exponiert.

                                                    Aufnahme über die Atemwege

                                                    Die Resorption in der Lunge ist der Hauptaufnahmeweg für zahlreiche luftgetragene Giftstoffe (Gase, Dämpfe, Rauch, Nebel, Rauch, Stäube, Aerosole usw.).

                                                    Der Respirationstrakt (RT) stellt ein ideales Gasaustauschsystem dar, das eine Membran mit einer Oberfläche von 30 m besitzt2 (Ablauf) bis 100m2 (tiefe Inspiration), hinter der sich ein Netzwerk von etwa 2,000 km Kapillaren befindet. Das evolutionär gewachsene System ist in einem relativ kleinen, durch Rippen geschützten Raum (Brusthöhle) untergebracht.

                                                    Anatomisch und physiologisch kann der RT in drei Kompartimente unterteilt werden:

                                                    • der obere Teil von RT oder Nasopharingeal (NP), beginnend an den Nasenlöchern und erstreckt sich bis zum Pharynx und Larynx; dieser Teil dient als Klimaanlage
                                                    • der Tracheo-Bronchialbaum (TB), der zahlreiche Röhren unterschiedlicher Größe umfasst, die Luft in die Lunge bringen
                                                    • das Lungenkompartiment (P), das aus Millionen von Alveolen (Luftsäcken) besteht, die in traubenartigen Clustern angeordnet sind.

                                                     

                                                    Hydrophile Giftstoffe werden vom Epithel der Nasopharyngealregion leicht absorbiert. Das gesamte Epithel der NP- und TB-Region ist von einem Wasserfilm bedeckt. Lipophile Giftstoffe werden teilweise in NP und TB absorbiert, aber hauptsächlich in den Alveolen durch Diffusion durch alveolokapillare Membranen. Die Absorptionsrate hängt von der Lungenventilation, dem Herzzeitvolumen (Blutfluss durch die Lunge), der Löslichkeit des Giftstoffs im Blut und seiner Stoffwechselrate ab.

                                                    In den Alveolen findet ein Gasaustausch statt. Die Alveolarwand besteht aus einem Epithel, einem interstitiellen Gerüst aus Basalmembran, Bindegewebe und dem Kapillarendothel. Durch diese Schichten, die eine Dicke von etwa 0.8 μm aufweisen, erfolgt die Diffusion von Schadstoffen sehr schnell. In den Lungenbläschen wird Giftstoff aus der Luftphase in die flüssige Phase (Blut) überführt. Die Absorptionsrate (Luft-Blut-Verteilung) eines Giftstoffes hängt von seiner Konzentration in der Alveolarluft und dem Nernst-Verteilungskoeffizienten für Blut (Löslichkeitskoeffizient) ab.

                                                    Im Blut kann der Giftstoff durch einfache physikalische Prozesse in der flüssigen Phase gelöst oder nach chemischer Affinität oder durch Adsorption an die Blutzellen und/oder Plasmabestandteile gebunden werden. Der Wassergehalt von Blut beträgt 75 % und daher zeigen hydrophile Gase und Dämpfe eine hohe Löslichkeit in Plasma (z. B. Alkohole). Lipophile Giftstoffe (z. B. Benzol) sind normalerweise an Zellen oder Makromoleküle wie Albumin gebunden.

                                                    Von Beginn der Exposition in der Lunge an laufen zwei gegensätzliche Prozesse ab: Absorption und Desorption. Das Gleichgewicht zwischen diesen Prozessen hängt von der Giftstoffkonzentration in der Alveolarluft und im Blut ab. Zu Beginn der Exposition beträgt die Giftstoffkonzentration im Blut 0 und die Retention im Blut nahezu 100 %. Bei fortgesetzter Exposition stellt sich ein Gleichgewicht zwischen Absorption und Desorption ein. Hydrophile Giftstoffe erreichen schnell ein Gleichgewicht, und die Absorptionsrate hängt eher von der Lungenventilation als vom Blutfluss ab. Lipophile Giftstoffe benötigen eine längere Zeit, um ein Gleichgewicht zu erreichen, und hier bestimmt der Fluss von ungesättigtem Blut die Absorptionsrate.

                                                    Die Ablagerung von Partikeln und Aerosolen im RT hängt von physikalischen und physiologischen Faktoren sowie der Partikelgröße ab. Kurz gesagt, je kleiner das Partikel ist, desto tiefer dringt es in den RT ein.

                                                    Eine relativ konstante geringe Retention von Staubpartikeln in der Lunge von hochexponierten Personen (z. B. Bergleuten) legt die Existenz eines sehr effizienten Systems zur Entfernung von Partikeln nahe. Im oberen Teil des RT (tracheo-bronchial) übernimmt eine mukoziliäre Decke die Clearance. Im pulmonalen Teil wirken drei verschiedene Mechanismen: (1) mukoziliäre Decke, (2) Phagozytose und (3) direkte Penetration von Partikeln durch die Alveolarwand.

                                                    Die ersten 17 der 23 Verzweigungen des Tracheobronchialbaums besitzen bewimperte Epithelzellen. Durch ihre Schläge bewegen diese Zilien ständig eine Schleimdecke in Richtung Mund. Auf dieser mukoziliären Decke abgelagerte Partikel werden in den Mund geschluckt (Ingestion). Eine Schleimdecke bedeckt auch die Oberfläche des Alveolarepithels und bewegt sich in Richtung der mukoziliären Decke. Zusätzlich verschlingen die spezialisierten beweglichen Zellen – Fresszellen – Partikel und Mikroorganismen in den Alveolen und wandern in zwei mögliche Richtungen:

                                                    • zur Schleimhautdecke, die sie zum Mund transportiert
                                                    • durch die Interzellularräume der Alveolarwand zum lymphatischen System der Lunge; auch Partikel können auf diesem Weg direkt eindringen.

                                                     

                                                    Resorption über den Magen-Darm-Trakt

                                                    Giftstoffe können bei versehentlichem Verschlucken, Einnahme von kontaminierten Speisen und Getränken oder Verschlucken von aus dem RT entfernten Partikeln aufgenommen werden.

                                                    Der gesamte Verdauungskanal, von der Speiseröhre bis zum Anus, ist im Grunde gleich aufgebaut. Eine Schleimschicht (Epithel) wird von Bindegewebe und dann von einem Netzwerk aus Kapillaren und glatten Muskeln gestützt. Das Oberflächenepithel des Magens ist stark zerknittert, um die Absorptions-/Sekretionsoberfläche zu vergrößern. Im Darmbereich befinden sich zahlreiche kleine Vorsprünge (Zotten), die durch „Einpumpen“ Material aufnehmen können. Die aktive Absorptionsfläche im Darm beträgt etwa 100 m2.

                                                    Im Magen-Darm-Trakt (GIT) sind alle Absorptionsprozesse sehr aktiv:

                                                    •  transzellulärer Transport durch Diffusion durch die Lipidschicht und/oder Poren von Zellmembranen sowie Porenfiltration
                                                    •  parazelluläre Diffusion durch Verbindungen zwischen Zellen
                                                    •  erleichterte Diffusion und aktiven Transport
                                                    •  Endozytose und der Pumpmechanismus der Zotten.

                                                     

                                                    Einige toxische Metallionen verwenden spezielle Transportsysteme für essentielle Elemente: Thallium, Kobalt und Mangan verwenden das Eisensystem, während Blei das Calciumsystem zu verwenden scheint.

                                                    Viele Faktoren beeinflussen die Absorptionsrate von Giftstoffen in verschiedenen Teilen des GIT:

                                                    • physikalisch-chemische Eigenschaften von Giftstoffen, insbesondere der Nernst-Verteilungskoeffizient und die Dissoziationskonstante; Bei Partikeln ist die Partikelgröße wichtig – je kleiner die Größe, desto höher die Löslichkeit
                                                    • im GIT vorhandene Nahrungsmenge (Verdünnungseffekt)
                                                    • Verweildauer in jedem Teil des GIT (von wenigen Minuten im Mund über eine Stunde im Magen bis hin zu vielen Stunden im Darm
                                                    • die Absorptionsfläche und Absorptionskapazität des Epithels
                                                    • lokaler pH-Wert, der die Absorption dissoziierter Giftstoffe regelt; im sauren pH-Wert des Magens werden nicht-dissoziierte saure Verbindungen schneller absorbiert
                                                    • Peristaltik (Bewegung des Darms durch Muskeln) und lokaler Blutfluss
                                                    • Magen- und Darmsekrete verwandeln Giftstoffe in mehr oder weniger lösliche Produkte; Galle ist ein Emulgator, der löslichere Komplexe produziert (Hydrotrophie)
                                                    • kombinierte Exposition gegenüber anderen Giftstoffen, die bei Absorptionsprozessen synergistische oder antagonistische Wirkungen hervorrufen können
                                                    • Vorhandensein von Komplexbildnern/Chelatbildnern
                                                    • die Wirkung der Mikroflora des RT (etwa 1.5 kg), etwa 60 verschiedene Bakterienarten, die eine Biotransformation von Giftstoffen durchführen können.

                                                     

                                                    Erwähnenswert ist auch der enterohepatische Kreislauf. Polare Giftstoffe und/oder Metaboliten (Glucuronide und andere Konjugate) werden mit der Galle in den Zwölffingerdarm ausgeschieden. Hier führen die Enzyme der Mikroflora eine Hydrolyse durch und freigesetzte Produkte können resorbiert und durch die Pfortader in die Leber transportiert werden. Dieser Mechanismus ist bei hepatotoxischen Substanzen sehr gefährlich und ermöglicht deren vorübergehende Anreicherung in der Leber.

                                                    Im Falle von Giftstoffen, die in der Leber zu weniger toxischen oder nicht toxischen Metaboliten biotransformiert werden, kann die Einnahme eine weniger gefährliche Eintrittspforte darstellen. Nach Resorption im GIT werden diese Giftstoffe über die Pfortader zur Leber transportiert und können dort durch Biotransformation teilweise entgiftet werden.

                                                    Aufnahme durch die Haut (dermal, perkutan)

                                                    Die Haut (1.8 m2 der Oberfläche bei einem erwachsenen Menschen) bedeckt zusammen mit den Schleimhäuten der Körperöffnungen die Körperoberfläche. Es stellt eine Barriere gegen physikalische, chemische und biologische Wirkstoffe dar, erhält die Integrität und Homöostase des Körpers und erfüllt viele andere physiologische Aufgaben.

                                                    Grundsätzlich besteht die Haut aus drei Schichten: Epidermis, echte Haut (Dermis) und Unterhautgewebe (Hypodermis). Aus toxikologischer Sicht ist hier vor allem die Epidermis von Interesse. Es besteht aus vielen Schichten von Zellen. Eine verhornte Oberfläche aus abgeflachten, toten Zellen (Stratum corneum) ist die oberste Schicht, unter der sich eine durchgehende Schicht aus lebenden Zellen (Stratum corneum compactum) befindet, gefolgt von einer typischen Lipidmembran, und dann von Stratum lucidum, Stratum gramulosum und Stratum Schleimhaut. Die Lipidmembran stellt eine Schutzbarriere dar, doch in behaarten Hautpartien dringen sowohl Haarfollikel als auch Schweißdrüsenkanäle durch sie hindurch. Daher kann eine dermale Absorption durch die folgenden Mechanismen erfolgen:

                                                    • transepidermale Aufnahme durch Diffusion durch die Lipidmembran (Barriere), meist durch lipophile Substanzen (organische Lösungsmittel, Pestizide etc.) und in geringem Umfang durch einige hydrophile Substanzen durch Poren
                                                    • transfollikuläre Absorption um den Haarstiel herum in den Haarfollikel unter Umgehung der Membranbarriere; diese Absorption erfolgt nur in behaarten Hautbereichen
                                                    • Aufnahme über die Ausführungsgänge der Schweißdrüsen, die eine Querschnittsfläche von etwa 0.1 bis 1 % der gesamten Hautfläche haben (relative Aufnahme liegt in diesem Anteil)
                                                    • Aufnahme durch die Haut bei mechanischer, thermischer, chemischer oder durch Hautkrankheiten verletzter Haut; Hier werden die Hautschichten samt Lipidbarriere gestört und der Weg für Gift- und Schadstoffe frei.

                                                     

                                                    Die Absorptionsrate durch die Haut hängt von vielen Faktoren ab:

                                                    • Giftstoffkonzentration, Fahrzeugtyp (mittel), Vorhandensein anderer Substanzen
                                                    • Wassergehalt der Haut, pH-Wert, Temperatur, lokale Durchblutung, Schweißbildung, kontaminierte Hautoberfläche, Hautdicke
                                                    • anatomische und physiologische Eigenschaften der Haut aufgrund von Geschlecht, Alter, individuellen Variationen, Unterschieden in verschiedenen ethnischen Gruppen und Rassen usw.

                                                    Transport von Giftstoffen durch Blut und Lymphe

                                                    Nach Aufnahme durch eine dieser Eintrittspforten gelangen Giftstoffe ins Blut, in die Lymphe oder in andere Körperflüssigkeiten. Das Blut stellt das Hauptvehikel für den Transport von Giftstoffen und ihren Metaboliten dar.

                                                    Das Blut ist ein zirkulierendes Flüssigkeitsorgan, das den notwendigen Sauerstoff und lebenswichtige Substanzen zu den Zellen transportiert und Abfallprodukte des Stoffwechsels abtransportiert. Blut enthält auch Zellbestandteile, Hormone und andere Moleküle, die an vielen physiologischen Funktionen beteiligt sind. Blut fließt in einem relativ gut geschlossenen Hochdruck-Kreislaufsystem aus Blutgefäßen, angetrieben durch die Aktivität des Herzens. Aufgrund des hohen Drucks tritt Flüssigkeit aus. Das Lymphsystem stellt das Abflusssystem in Form eines feinen Netzes aus kleinen, dünnwandigen Lymphkapillaren dar, die sich durch die Weichteile und Organe verzweigen.

                                                    Blut ist eine Mischung aus flüssiger Phase (Plasma, 55 %) und festen Blutkörperchen (45 %). Plasma enthält Proteine ​​(Albumine, Globuline, Fibrinogen), organische Säuren (Milchsäure, Glutaminsäure, Zitronensäure) und viele andere Substanzen (Lipide, Lipoproteine, Glykoproteine, Enzyme, Salze, Xenobiotika usw.). Zu den Blutzellenelementen gehören Erythrozyten (Er), Leukozyten, Retikulozyten, Monozyten und Blutplättchen.

                                                    Giftstoffe werden als Moleküle und Ionen absorbiert. Einige Giftstoffe bilden bei Blut-pH Kolloidpartikel als dritte Form in dieser Flüssigkeit. Moleküle, Ionen und Kolloide von Giftstoffen haben verschiedene Transportmöglichkeiten im Blut:

                                                    •  physikalisch oder chemisch an die Blutelemente, meist Er, gebunden sein
                                                    •  in freiem Zustand physikalisch in Plasma gelöst werden
                                                    •  an eine oder mehrere Arten von Plasmaproteinen gebunden, mit den organischen Säuren komplexiert oder an andere Plasmafraktionen angeheftet werden.

                                                     

                                                    Die meisten Giftstoffe im Blut liegen teilweise in freiem Zustand im Plasma und teilweise an Erythrozyten und Plasmabestandteile gebunden vor. Die Verteilung hängt von der Affinität der Giftstoffe zu diesen Bestandteilen ab. Alle Fraktionen befinden sich in einem dynamischen Gleichgewicht.

                                                    Einige Giftstoffe werden von den Blutelementen transportiert – meist von Erythrozyten, sehr selten von Leukozyten. Giftstoffe können auf der Oberfläche von Er adsorbiert werden oder können an die Liganden von Stroma binden. Wenn sie in Er eindringen, können sie an das Häm (z. B. Kohlenmonoxid und Selen) oder an das Globin (Sb111, Bisschen210). Einige Giftstoffe, die von Er transportiert werden, sind Arsen, Cäsium, Thorium, Radon, Blei und Natrium. Sechswertiges Chrom wird ausschließlich an das Er und dreiwertiges Chrom an die Proteine ​​des Plasmas gebunden. Bei Zink tritt eine Konkurrenz zwischen Er und Plasma auf. Etwa 96 % des Bleis werden von Er transportiert. Organisches Quecksilber wird hauptsächlich an Er gebunden und anorganisches Quecksilber wird hauptsächlich von Plasmaalbumin getragen. Kleine Fraktionen von Beryllium, Kupfer, Tellur und Uran werden von Er getragen.

                                                    Die meisten Giftstoffe werden durch Plasma oder Plasmaproteine ​​transportiert. Viele Elektrolyte liegen als Ionen in einem Gleichgewicht mit nicht-dissoziierten Molekülen vor, die frei oder an die Plasmafraktionen gebunden sind. Diese Ionenfraktion von Giftstoffen ist sehr diffundierbar und dringt durch die Kapillarwände in Gewebe und Organe ein. Gase und Dämpfe können im Plasma gelöst werden.

                                                    Plasmaproteine ​​besitzen eine Gesamtoberfläche von etwa 600 bis 800 km2 zur Aufnahme von Giftstoffen angeboten. Albuminmoleküle besitzen etwa 109 kationische und 120 anionische Liganden, die Ionen zur Verfügung stehen. Viele Ionen werden teilweise von Albumin getragen (z. B. Kupfer, Zink und Cadmium), ebenso solche Verbindungen wie Dinitro- und ortho-Cresole, Nitro- und halogenierte Derivate aromatischer Kohlenwasserstoffe und Phenole.

                                                    Globulinmoleküle (Alpha und Beta) transportieren kleine Giftstoffmoleküle sowie einige Metallionen (Kupfer, Zink und Eisen) und Kolloidpartikel. Fibrinogen zeigt Affinität zu bestimmten kleinen Molekülen. An der Bindung von Giftstoffen an Plasmaproteine ​​können viele Arten von Bindungen beteiligt sein: Van-der-Waals-Kräfte, Anziehung von Ladungen, Assoziation zwischen polaren und unpolaren Gruppen, Wasserstoffbrücken, kovalente Bindungen.

                                                    Plasmalipoproteine ​​transportieren lipophile Giftstoffe wie PCBs. Auch die anderen Plasmafraktionen dienen als Transportvehikel. Die Affinität von Giftstoffen zu Plasmaproteinen legt ihre Affinität zu Proteinen in Geweben und Organen während der Verteilung nahe.

                                                    Organische Säuren (Milch-, Glutamin-, Zitronensäure) bilden mit einigen Giftstoffen Komplexe. Erdalkalien und seltene Erden sowie einige schwere Elemente in Form von Kationen werden auch mit organischen Oxy- und Aminosäuren komplexiert. Alle diese Komplexe sind normalerweise diffundierbar und verteilen sich leicht in Geweben und Organen.

                                                    Physiologische Chelatbildner im Plasma wie Transferrin und Metallothionein konkurrieren mit organischen Säuren und Aminosäuren um Kationen, um stabile Chelate zu bilden.

                                                    Diffusionsfähige freie Ionen, einige Komplexe und einige freie Moleküle werden leicht aus dem Blut in Gewebe und Organe entfernt. Der freie Anteil an Ionen und Molekülen steht in einem dynamischen Gleichgewicht mit dem gebundenen Anteil. Die Konzentration eines Giftstoffs im Blut bestimmt die Rate seiner Verteilung in Gewebe und Organe oder seine Mobilisierung aus diesen in das Blut.

                                                    Verteilung von Giftstoffen im Organismus

                                                    Der menschliche Organismus kann wie folgt unterteilt werden Abteilen. (1) innere Organe, (2) Haut und Muskeln, (3) Fettgewebe, (4) Bindegewebe und Knochen. Diese Klassifizierung basiert hauptsächlich auf dem Grad der vaskulären (Blut-) Perfusion in absteigender Reihenfolge. Beispielsweise erhalten innere Organe (einschließlich des Gehirns), die nur 12 % des gesamten Körpergewichts ausmachen, etwa 75 % des gesamten Blutvolumens. Andererseits erhalten Bindegewebe und Knochen (15 % des gesamten Körpergewichts) nur ein Prozent des gesamten Blutvolumens.

                                                    Die gut durchbluteten inneren Organe erreichen in der Regel in kürzester Zeit die höchste Schadstoffkonzentration sowie ein Gleichgewicht zwischen Blut und diesem Kompartiment. Die Aufnahme von Giftstoffen durch weniger durchblutete Gewebe ist viel langsamer, aber die Retention ist höher und die Verweildauer aufgrund der geringen Durchblutung viel länger (Akkumulation).

                                                    Drei Komponenten sind für die intrazelluläre Verteilung von Giftstoffen von großer Bedeutung: Gehalt an Wasser, Lipiden und Proteinen in den Zellen verschiedener Gewebe und Organe. Die oben erwähnte Reihenfolge der Kompartimente folgt auch eng einem abnehmenden Wassergehalt in ihren Zellen. Hydrophile Giftstoffe werden schneller in Körperflüssigkeiten und Zellen mit hohem Wassergehalt verteilt, lipophile Giftstoffe in Zellen mit höherem Lipidgehalt (Fettgewebe).

                                                    Der Organismus besitzt einige Barrieren, die das Eindringen einiger Gruppen von Giftstoffen, meist hydrophil, in bestimmte Organe und Gewebe beeinträchtigen, wie zum Beispiel:

                                                    • die Blut-Hirn-Schranke (zerebrospinale Schranke), die das Eindringen von großen Molekülen und hydrophilen Giftstoffen in das Gehirn und das ZNS einschränkt; diese Barriere besteht aus einer eng verbundenen Schicht von Endothelzellen; somit können lipophile Giftstoffe hindurchdringen
                                                    • die Plazentaschranke, die eine ähnliche Wirkung auf das Eindringen von Giftstoffen in den Fötus aus dem Blut der Mutter hat
                                                    • die histo-hämatologische Barriere in den Kapillarwänden, die für kleine und mittelgroße Moleküle und einige größere Moleküle sowie Ionen durchlässig ist.

                                                     

                                                    Wie bereits erwähnt, stehen nur die freien Formen von Giftstoffen im Plasma (Moleküle, Ionen, Kolloide) für die Penetration durch die an der Verteilung beteiligten Kapillarwände zur Verfügung. Diese freie Fraktion steht in einem dynamischen Gleichgewicht mit der gebundenen Fraktion. Die Konzentration von Giftstoffen im Blut befindet sich in einem dynamischen Gleichgewicht mit ihrer Konzentration in Organen und Geweben, was die Retention (Akkumulation) oder Mobilisierung aus ihnen bestimmt.

                                                    Bei der Verteilung spielen der Zustand des Organismus, der Funktionszustand der Organe (insbesondere die neurohumorale Regulation), der Hormonhaushalt und andere Faktoren eine Rolle.

                                                    Die Retention des Giftstoffs in einem bestimmten Kompartiment ist im Allgemeinen vorübergehend und es kann zu einer Umverteilung in andere Gewebe kommen. Retention und Akkumulation basieren auf der Differenz zwischen den Absorptions- und Eliminationsraten. Die Verweildauer in einem Kompartiment wird durch die biologische Halbwertszeit ausgedrückt. Dies ist das Zeitintervall, in dem 50 % des Giftstoffs aus dem Gewebe oder Organ entfernt und neu verteilt, verlagert oder aus dem Organismus ausgeschieden werden.

                                                    Bei der Verteilung und Retention in verschiedenen Organen und Geweben finden Biotransformationsprozesse statt. Die Biotransformation erzeugt polarere, hydrophilere Metaboliten, die leichter eliminiert werden können. Eine geringe Biotransformationsrate eines lipophilen Giftstoffs führt im Allgemeinen zu dessen Akkumulation in einem Kompartiment.

                                                    Die Giftstoffe lassen sich nach ihrer Affinität, überwiegenden Retention und Akkumulation in einem bestimmten Kompartiment in vier Hauptgruppen einteilen:

                                                    1. In den Körperflüssigkeiten lösliche Giftstoffe werden entsprechend dem Wassergehalt der Kompartimente gleichmäßig verteilt. Viele einwertige Kationen (z. B. Lithium, Natrium, Kalium, Rubidium) und einige Anionen (z. B. Chlor, Brom) sind gemäß diesem Muster verteilt.
                                                    2. Lipophile Giftstoffe zeigen eine hohe Affinität zu lipidreichen Organen (ZNS) und Geweben (Fett, Fett).
                                                    3. Giftstoffe, die Kolloidpartikel bilden, werden dann von spezialisierten Zellen des retikuloendothelialen Systems (RES) von Organen und Geweben eingefangen. Drei- und vierwertige Kationen (Lanthan, Cäsium, Hafnium) sind in der RES von Geweben und Organen verteilt.
                                                    4. Zu den Toxinen mit hoher Affinität zu Knochen und Bindegewebe (osteotrope Elemente, Knochensucher) gehören zweiwertige Kationen (z. B. Calcium, Barium, Strontium, Radon, Beryllium, Aluminium, Cadmium, Blei).

                                                     

                                                    Akkumulation in lipidreichen Geweben

                                                    Der „Normalmann“ mit 70 kg Körpergewicht enthält etwa 15 % des Körpergewichts in Form von Fettgewebe, das mit Übergewicht auf 50 % ansteigt. Diese Lipidfraktion ist jedoch nicht gleichmäßig verteilt. Das Gehirn (ZNS) ist ein lipidreiches Organ, und periphere Nerven sind mit einer lipidreichen Myelinscheide und Schwann-Zellen umhüllt. Alle diese Gewebe bieten Möglichkeiten zur Akkumulation von lipophilen Giftstoffen.

                                                    Auf dieses Kompartiment werden zahlreiche Nichtelektrolyte und unpolare Giftstoffe mit geeignetem Nernst-Verteilungskoeffizienten verteilt, sowie zahlreiche organische Lösungsmittel (Alkohole, Aldehyde, Ketone usw.), chlorierte Kohlenwasserstoffe (einschließlich chlororganischer Insektizide wie DDT), einige Inertgase (Radon) usw.

                                                    Fettgewebe akkumuliert Giftstoffe aufgrund seiner geringen Vaskularisierung und geringeren Biotransformationsrate. Hier kann die Akkumulation von Giftstoffen eine Art vorübergehende „Neutralisierung“ darstellen, da Angriffspunkte für die toxische Wirkung fehlen. Aufgrund der Möglichkeit der Mobilisierung von Giftstoffen aus diesem Kompartiment zurück in den Kreislauf besteht jedoch immer eine potentielle Gefahr für den Organismus.

                                                    Die Ablagerung von Giftstoffen im Gehirn (ZNS) oder im lipidreichen Gewebe der Myelinscheide des peripheren Nervensystems ist sehr gefährlich. Die Nervengifte lagern sich hier direkt neben ihren Angriffspunkten ab. Giftstoffe, die im lipidreichen Gewebe der endokrinen Drüsen zurückgehalten werden, können hormonelle Störungen hervorrufen. Trotz der Blut-Hirn-Schranke gelangen zahlreiche Neurotoxine lipophiler Natur ins Gehirn (ZNS): Anästhetika, organische Lösungsmittel, Pestizide, Tetraethylblei, Organoquecksilber usw.

                                                    Retention im retikuloendothelialen System

                                                    In jedem Gewebe und Organ ist ein gewisser Prozentsatz an Zellen auf phagozytische Aktivität spezialisiert und verschlingt Mikroorganismen, Partikel, Kolloidpartikel und so weiter. Dieses System wird als retikuloendotheliales System (RES) bezeichnet und besteht aus festen Zellen sowie beweglichen Zellen (Phagozyten). Diese Zellen liegen in nicht aktiver Form vor. Eine Zunahme der oben genannten Mikroben und Partikel aktiviert die Zellen bis zu einem Sättigungspunkt.

                                                    Giftstoffe in Form von Kolloiden werden durch die RES von Organen und Geweben eingefangen. Die Verteilung hängt von der Kolloidpartikelgröße ab. Bei größeren Partikeln wird die Retention in der Leber bevorzugt. Bei kleineren Kolloidpartikeln erfolgt eine mehr oder weniger gleichmäßige Verteilung zwischen Milz, Knochenmark und Leber. Die Entfernung von Kolloiden aus dem RES ist sehr langsam, obwohl kleine Partikel relativ schneller entfernt werden.

                                                    Ansammlung in Knochen

                                                    Etwa 60 Elemente können als osteotrope Elemente oder Knochensucher identifiziert werden.

                                                    Osteotrope Elemente lassen sich in drei Gruppen einteilen:

                                                    1. Elemente, die physiologische Bestandteile des Knochens darstellen oder ersetzen. Zwanzig solcher Elemente sind in höheren Mengen vorhanden. Die anderen erscheinen in Spurenmengen. Unter Bedingungen chronischer Exposition können auch toxische Metalle wie Blei, Aluminium und Quecksilber in die mineralische Matrix von Knochenzellen eindringen.
                                                    2. Erdalkalien und andere kationenbildende Elemente mit einem Ionendurchmesser ähnlich dem von Calcium sind damit im Knochenmineral austauschbar. Außerdem sind einige Anionen mit Anionen (Phosphat, Hydroxyl) von Knochenmineralien austauschbar.
                                                    3. Elemente, die Mikrokolloide (seltene Erden) bilden, können auf der Oberfläche von Knochenmineralien adsorbiert werden.

                                                     

                                                    Das Skelett eines normalen Mannes macht 10 bis 15 % des gesamten Körpergewichts aus, was ein großes potentielles Depot für osteotrope Giftstoffe darstellt. Knochen ist ein hochspezialisiertes Gewebe, das volumenmäßig zu 54 % aus Mineralien und zu 38 % aus organischer Matrix besteht. Die Mineralmatrix des Knochens ist Hydroxyapatit, Ca10(PO4)6(OH)2 , bei dem das Verhältnis von Ca zu P etwa 1.5 zu eins beträgt. Die für die Adsorption verfügbare Mineraloberfläche beträgt etwa 100 m2 pro g Knochen.

                                                    Die Stoffwechselaktivität der Knochen des Skeletts kann in zwei Kategorien eingeteilt werden:

                                                    • aktiver, metabolischer Knochen, bei dem Prozesse der Resorption und Knochenneubildung bzw. Umbau von vorhandenem Knochen sehr umfangreich sind
                                                    • stabiler Knochen mit geringer Umbau- oder Wachstumsrate.

                                                     

                                                    Beim Fötus macht der Stoffwechselknochen von Säuglingen und Kleinkindern (siehe „verfügbares Skelett“) fast 100 % des Skeletts aus. Mit zunehmendem Alter nimmt dieser Anteil des metabolischen Knochens ab. Der Einbau von Giftstoffen während der Exposition erfolgt im metabolischen Knochen und in Kompartimenten mit langsamerer Umwandlung.

                                                    Der Einbau von Giftstoffen in den Knochen erfolgt auf zwei Arten:

                                                    1. Bei Ionen findet ein Ionenaustausch mit physiologisch vorhandenen Calciumkationen oder Anionen (Phosphat, Hydroxyl) statt.
                                                    2. Bei Giftstoffen, die Kolloidpartikel bilden, tritt eine Adsorption an der Mineraloberfläche auf.

                                                     

                                                    Ionenaustauschreaktionen

                                                    Das Knochenmineral Hydroxylapatit repräsentiert ein komplexes Ionenaustauschsystem. Calciumkationen können durch verschiedene Kationen ausgetauscht werden. Die im Knochen vorhandenen Anionen können auch durch Anionen ausgetauscht werden: Phosphat mit Citraten und Carbonaten, Hydroxyl mit Fluor. Nicht austauschbare Ionen können an der Mineraloberfläche adsorbiert werden. Wenn toxische Ionen in das Mineral eingebaut werden, kann eine neue Mineralschicht die Mineraloberfläche bedecken und Giftstoffe in die Knochenstruktur eingraben. Der Ionenaustausch ist ein reversibler Prozess, der von der Ionenkonzentration, dem pH-Wert und dem Flüssigkeitsvolumen abhängt. So kann beispielsweise eine Erhöhung des diätetischen Calciums die Ablagerung von toxischen Ionen im Mineralgitter verringern. Es wurde erwähnt, dass mit zunehmendem Alter der Anteil an metabolischem Knochen abnimmt, obwohl der Ionenaustausch andauert. Mit zunehmendem Alter kommt es zu einer Knochenmineralresorption, bei der die Knochendichte tatsächlich abnimmt. An diesem Punkt können Giftstoffe im Knochen freigesetzt werden (z. B. Blei).

                                                    Etwa 30 % der in Knochenmineralien eingebauten Ionen sind lose gebunden und können mit einer biologischen Halbwertszeit von 15 Tagen ausgetauscht, von natürlichen Chelatbildnern eingefangen und ausgeschieden werden. Die anderen 70 % sind fester gebunden. Die Mobilisierung und Ausscheidung dieser Fraktion zeigt je nach Knochentyp (Umbauprozesse) eine biologische Halbwertszeit von 2.5 Jahren und mehr.

                                                    Chelatbildner (Ca-EDTA, Penicillamin, BAL etc.) können erhebliche Mengen einiger Schwermetalle mobilisieren und deren Ausscheidung im Urin stark steigern.

                                                    Kolloidadsorption

                                                    Kolloidpartikel werden als Film auf der Mineraloberfläche adsorbiert (100m2 pro g) durch Van-der-Waals-Kräfte oder Chemisorption. Diese Schicht aus Kolloiden auf den Mineraloberflächen wird von der nächsten Schicht aus gebildeten Mineralien bedeckt, und die Giftstoffe werden stärker in die Knochenstruktur eingebettet. Die Geschwindigkeit der Mobilisierung und Elimination hängt von Umbauprozessen ab.

                                                    Anreicherung in Haaren und Nägeln

                                                    Haare und Nägel enthalten Keratin mit Sulfhydrylgruppen, die Metallkationen wie Quecksilber und Blei chelatisieren können.

                                                    Verteilung des Giftstoffes innerhalb der Zelle

                                                    In letzter Zeit ist die Verteilung von Giftstoffen, insbesondere einiger Schwermetalle, innerhalb von Zellen von Geweben und Organen von Bedeutung geworden. Mit Ultrazentrifugationstechniken können verschiedene Fraktionen der Zelle getrennt werden, um ihren Gehalt an Metallionen und anderen Giftstoffen zu bestimmen.

                                                    Tierversuche haben gezeigt, dass einige Metallionen nach dem Eindringen in die Zelle an ein bestimmtes Protein, Metallothionein, gebunden sind. Dieses Protein mit niedrigem Molekulargewicht ist in den Zellen von Leber, Niere und anderen Organen und Geweben vorhanden. Seine Sulfhydrylgruppen können sechs Ionen pro Molekül binden. Eine erhöhte Anwesenheit von Metallionen induziert die Biosynthese dieses Proteins. Ionen von Cadmium sind der stärkste Induktor. Metallothionein dient auch dazu, die Homöostase lebenswichtiger Kupfer- und Zinkionen aufrechtzuerhalten. Metallothionein kann Zink, Kupfer, Cadmium, Quecksilber, Wismut, Gold, Kobalt und andere Kationen binden.

                                                    Biotransformation und Elimination von Giftstoffen

                                                    Während der Retention in Zellen verschiedener Gewebe und Organe werden Giftstoffe Enzymen ausgesetzt, die sie biotransformieren (metabolisieren) und Metaboliten produzieren können. Es gibt viele Wege für die Ausscheidung von Giftstoffen und/oder Metaboliten: durch die Ausatemluft über die Lunge, durch den Urin über die Nieren, durch die Galle über den Magen-Darm-Trakt, durch den Schweiß über die Haut, durch den Speichel über die Mundschleimhaut, durch die Milch über die Milchdrüsen und durch Haare und Nägel über normales Wachstum und Zellumsatz.

                                                    Die Elimination eines absorbierten Giftstoffes hängt von der Eintrittspforte ab. In der Lunge beginnt sofort der Absorptions-/Desorptionsprozess und Giftstoffe werden teilweise durch die ausgeatmete Luft eliminiert. Die Elimination von Giftstoffen, die über andere Eintrittswege absorbiert werden, ist verlängert und beginnt nach dem Transport durch Blut, um schließlich nach Verteilung und Biotransformation abgeschlossen zu sein. Bei der Aufnahme besteht ein Gleichgewicht zwischen den Konzentrationen eines Giftstoffes im Blut und in Geweben und Organen. Die Ausscheidung verringert die Konzentration des Giftstoffs im Blut und kann die Mobilisierung eines Giftstoffs aus Geweben ins Blut induzieren.

                                                    Viele Faktoren können die Eliminationsrate von Giftstoffen und ihren Metaboliten aus dem Körper beeinflussen:

                                                    • physikalisch-chemische Eigenschaften von Giftstoffen, insbesondere Nernst-Verteilungskoeffizient (P), Dissoziationskonstante (pKa), Polarität, Molekularstruktur, Form und Gewicht
                                                    • Höhe der Exposition und Zeitpunkt der Elimination nach der Exposition
                                                    • Eintrittspforte
                                                    • Verteilung in den Körperkompartimenten, die sich im Austauschverhältnis mit dem Blut und der Durchblutung unterscheiden
                                                    • Geschwindigkeit der Biotransformation von lipophilen Giftstoffen zu hydrophileren Metaboliten
                                                    • Gesamtgesundheitszustand des Organismus und insbesondere der Ausscheidungsorgane (Lunge, Niere, Magen-Darm-Trakt, Haut etc.)
                                                    • Vorhandensein anderer Giftstoffe, die die Ausscheidung beeinträchtigen können.

                                                     

                                                    Hier unterscheiden wir zwei Gruppen von Fächern: (1) die Schnellwechselsystem— in diesen Kompartimenten ist die Gewebekonzentration des Giftstoffes ähnlich der des Blutes; und (2) die Slow-Exchange-System, wo die Gewebekonzentration des Giftstoffs aufgrund von Bindung und Akkumulation höher ist als im Blut – Fettgewebe, Skelett und Nieren können einige Giftstoffe, z. B. Arsen und Zink, vorübergehend zurückhalten.

                                                    Ein Giftstoff kann gleichzeitig über zwei oder mehr Ausscheidungswege ausgeschieden werden. In der Regel dominiert jedoch eine Route.

                                                    Wissenschaftler entwickeln mathematische Modelle, die die Ausscheidung eines bestimmten Giftstoffes beschreiben. Diese Modelle basieren auf der Bewegung aus einem oder beiden Kompartimenten (Austauschsysteme), Biotransformation und so weiter.

                                                    Elimination durch Ausatemluft über die Lunge

                                                    Die Ausscheidung über die Lunge (Desorption) ist typisch für Giftstoffe mit hoher Flüchtigkeit (z. B. organische Lösungsmittel). Gase und Dämpfe mit geringer Blutlöslichkeit werden auf diese Weise schnell eliminiert, während Giftstoffe mit hoher Blutlöslichkeit auf anderen Wegen eliminiert werden.

                                                    Über den Magen-Darm-Trakt oder die Haut aufgenommene organische Lösungsmittel werden bei ausreichendem Dampfdruck bei jedem Blutdurchgang teilweise über die Ausatemluft wieder ausgeschieden. Auf dieser Tatsache basiert der Alkoholtest bei mutmaßlich betrunkenen Fahrern. Die CO-Konzentration in der ausgeatmeten Luft steht im Gleichgewicht mit dem CO-Hb-Gehalt im Blut. Das radioaktive Gas Radon tritt in der ausgeatmeten Luft durch den Zerfall von im Skelett angesammeltem Radium auf.

                                                    Die Elimination eines Giftstoffes durch die ausgeatmete Luft im Verhältnis zur Nachexpositionszeit wird üblicherweise durch eine dreiphasige Kurve ausgedrückt. Die erste Phase stellt die Eliminierung des Giftstoffs aus dem Blut dar und zeigt eine kurze Halbwertszeit. Die zweite, langsamere Phase stellt die Elimination durch Austausch von Blut mit Geweben und Organen dar (Schnellaustauschsystem). Die dritte, sehr langsame Phase ist auf den Austausch von Blut mit Fettgewebe und Skelett zurückzuführen. Wenn sich in solchen Kompartimenten kein Giftstoff ansammelt, ist die Kurve zweiphasig. In manchen Fällen ist auch ein vierphasiger Verlauf möglich.

                                                    Die Bestimmung von Gasen und Dämpfen in der ausgeatmeten Luft in der Zeit nach der Exposition wird manchmal zur Bewertung der Exposition von Arbeitnehmern verwendet.

                                                    Renale Ausscheidung

                                                    Die Niere ist ein Organ, das auf die Ausscheidung zahlreicher wasserlöslicher Giftstoffe und Metaboliten spezialisiert ist und die Homöostase des Organismus aufrechterhält. Jede Niere besitzt etwa eine Million Nephrone, die zur Ausscheidung fähig sind. Die renale Ausscheidung stellt ein sehr komplexes Ereignis dar, das drei verschiedene Mechanismen umfasst:

                                                    • glomeruläre Filtration durch die Bowman-Kapsel
                                                    • aktiver Transport im proximalen Tubulus
                                                    • passiver Transport im distalen Tubulus.

                                                     

                                                    Die Ausscheidung eines Giftstoffs über die Nieren in den Urin hängt vom Nernst-Verteilungskoeffizienten, der Dissoziationskonstante und dem pH-Wert des Urins, der Molekülgröße und -form, der Metabolisierungsrate zu hydrophileren Metaboliten sowie dem Gesundheitszustand der Nieren ab.

                                                    Die Kinetik der renalen Ausscheidung eines Giftstoffes oder seines Metaboliten kann durch eine zwei-, drei- oder vierphasige Ausscheidungskurve ausgedrückt werden, je nach Verteilung des jeweiligen Giftstoffes in verschiedenen Körperkompartimenten mit unterschiedlicher Austauschrate mit dem Blut.

                                                    Speichel

                                                    Einige Medikamente und Metallionen können durch den Speichel über die Mundschleimhaut ausgeschieden werden – zum Beispiel Blei („Bleileitung“), Quecksilber, Arsen, Kupfer sowie Bromide, Jodide, Ethylalkohol, Alkaloide und so weiter. Die Giftstoffe werden dann geschluckt und erreichen den Magen-Darm-Trakt, wo sie resorbiert oder mit dem Kot ausgeschieden werden können.

                                                    Schwitzen

                                                    Viele Nichtelektrolyte können teilweise durch Schweiß über die Haut ausgeschieden werden: Ethylalkohol, Aceton, Phenole, Schwefelkohlenstoff und chlorierte Kohlenwasserstoffe.

                                                    Milch

                                                    Viele Metalle, organische Lösungsmittel und einige chlororganische Pestizide (DDT) werden über die Milchdrüse in die Muttermilch ausgeschieden. Dieser Weg kann eine Gefahr für gestillte Säuglinge darstellen.

                                                    Haarfarbe

                                                    Die Analyse von Haaren kann als Indikator für die Homöostase einiger physiologischer Substanzen verwendet werden. Auch die Exposition gegenüber einigen Giftstoffen, insbesondere Schwermetallen, kann durch diese Art von Bioassay bewertet werden.

                                                    Die Ausscheidung von Giftstoffen aus dem Körper kann gesteigert werden durch:

                                                    • mechanische Translokation durch Magenspülung, Bluttransfusion oder Dialyse
                                                    • Schaffung physiologischer Bedingungen, die Giftstoffe durch Ernährung mobilisieren, Veränderung des Hormonhaushalts, Verbesserung der Nierenfunktion durch Anwendung von Diuretika
                                                    • Gabe von Komplexbildnern (Citrate, Oxalate, Salicilate, Phosphate) oder Chelatbildnern (Ca-EDTA, BAL, ATA, DMSA, Penicillamin); diese Methode ist nur bei Personen unter strenger ärztlicher Kontrolle angezeigt. Die Anwendung von Chelatbildnern wird häufig zur Eliminierung von Schwermetallen aus dem Körper von exponierten Arbeitern während ihrer medizinischen Behandlung verwendet. Diese Methode wird auch zur Bewertung der Gesamtkörperbelastung und der Höhe der früheren Exposition verwendet.

                                                     

                                                    Expositionsbestimmungen

                                                    Die Bestimmung von Giftstoffen und Metaboliten in Blut, Ausatemluft, Urin, Schweiß, Fäkalien und Haaren wird immer häufiger zur Bewertung der Exposition des Menschen (Expositionstests) und/oder zur Bewertung des Intoxikationsgrades verwendet. Daher wurden kürzlich biologische Expositionsgrenzwerte (Biological MAC Values, Biological Exposure Indices – BEI) festgelegt. Diese Bioassays zeigen die „innere Exposition“ des Organismus, dh die Gesamtbelastung des Körpers sowohl im Arbeits- als auch im Lebensumfeld durch alle Eintrittspforten (siehe „Toxikologische Testmethoden: Biomarker“).

                                                    Kombinierte Effekte durch Mehrfachbelichtung

                                                    Menschen im Arbeits- und/oder Lebensumfeld sind in der Regel gleichzeitig oder nacheinander verschiedenen physikalischen und chemischen Einwirkungen ausgesetzt. Es ist auch zu berücksichtigen, dass einige Personen Medikamente einnehmen, rauchen, Alkohol und Lebensmittel mit Zusatzstoffen konsumieren und so weiter. Das bedeutet, dass in der Regel eine Mehrfachbelichtung vorliegt. Physikalische und chemische Wirkstoffe können in jedem Schritt toxikokinetischer und/oder toxikodynamischer Prozesse interagieren und drei mögliche Wirkungen hervorrufen:

                                                    1. Unabhängig. Jeder Wirkstoff erzeugt aufgrund eines anderen Wirkmechanismus eine andere Wirkung,
                                                    2. Synergistisch. Die kombinierte Wirkung ist größer als die jedes einzelnen Mittels. Hier unterscheiden wir zwei Arten: (a) additiv, wobei die kombinierte Wirkung gleich der Summe der Wirkungen ist, die von jedem Mittel separat erzeugt werden, und (b) potenzierend, wobei die kombinierte Wirkung größer als additiv ist.
                                                    3. Antagonistisch. Die kombinierte Wirkung ist geringer als additiv.

                                                     

                                                    Studien zu kombinierten Wirkungen sind jedoch selten. Diese Art von Studie ist aufgrund der Kombination verschiedener Faktoren und Agenten sehr komplex.

                                                    Wir können daraus schließen, dass, wenn der menschliche Organismus zwei oder mehreren Giftstoffen gleichzeitig oder nacheinander ausgesetzt ist, die Möglichkeit einiger kombinierter Wirkungen in Betracht gezogen werden muss, die die Geschwindigkeit toxikokinetischer Prozesse erhöhen oder verringern können.

                                                     

                                                    Zurück

                                                    Montag, Februar 28 2011 20: 15

                                                    Metalle und metallorganische Verbindungen

                                                    Toxische Metalle und metallorganische Verbindungen wie Aluminium, Antimon, anorganisches Arsen, Beryllium, Cadmium, Chrom, Kobalt, Blei, Alkylblei, metallisches Quecksilber und seine Salze, organische Quecksilberverbindungen, Nickel, Selen und Vanadium sind alle seit einiger Zeit als solche bekannt potenzielle Gesundheitsrisiken für exponierte Personen darstellen. In einigen Fällen wurden epidemiologische Studien zu Beziehungen zwischen interner Dosis und resultierender Wirkung/Reaktion bei beruflich exponierten Arbeitern untersucht, was den Vorschlag von gesundheitsbasierten biologischen Grenzwerten erlaubt (siehe Tabelle 1).

                                                    Tabelle 1. Metalle: Referenzwerte und biologische Grenzwerte vorgeschlagen von der American Conference of Governmental Industrial Hygienists (ACGIH), der Deutschen Forschungsgemeinschaft (DFG) und Lauwerys und Hoet (L und H)

                                                    Metal

                                                    Stichprobe

                                                    Referenz1 Werte*

                                                    ACGIH (BEI)-Grenze2

                                                    DFG (BAT)-Grenzwert3

                                                    L- und H-Grenze4 (TMPC)

                                                    Aluminium

                                                    Serum/Plasma

                                                    Urin

                                                    < 1 μg/100 ml

                                                    < 30 μg/g

                                                     

                                                    200 μg/l (Schichtende)

                                                    150 μg/g (Schichtende)

                                                    Antimon

                                                    Urin

                                                    < 1 μg/g

                                                       

                                                    35 μg/g (Schichtende)

                                                    Arsen

                                                    Urin (Summe aus anorganischem Arsen und methylierten Metaboliten)

                                                    < 10 μg/g

                                                    50 μg/g (Ende der Arbeitswoche)

                                                     

                                                    50 μg/g (wenn TWA: 0.05 mg/m3 ); 30 μg/g (wenn TWA: 0.01 mg/m3 ) (Ende der Schicht)

                                                    Beryllium

                                                    Urin

                                                    < 2 μg/g

                                                         

                                                    Cadmium

                                                    Blut

                                                    Urin

                                                    < 0.5 μg/100 ml

                                                    < 2 μg/g

                                                    0.5 μg/100 ml

                                                    5 μg/g

                                                    1.5 μg/100 ml

                                                    15 μg / l

                                                    0.5 μg/100 ml

                                                    5 μg/g

                                                    Chrom

                                                    (lösliche Verbindungen)

                                                    Serum/Plasma

                                                    Urin

                                                    < 0.05 μg/100 ml

                                                    < 5 μg/g

                                                    30 μg/g (Schichtende, Ende der Arbeitswoche); 10 μg/g (Anstieg während der Schicht)

                                                     

                                                    30 μg/g (Schichtende)

                                                    Cobalt

                                                    Serum/Plasma

                                                    Blut

                                                    Urin

                                                    < 0.05 μg/100 ml

                                                    < 0.2 μg/100 ml

                                                    < 2 μg/g

                                                    0.1 μg/100 ml (Schichtende, Ende der Arbeitswoche)

                                                    15 μg/l (Schichtende, Ende der Arbeitswoche)

                                                    0.5 μg/100 ml (EKA)**

                                                    60 μg/l (EKA)**

                                                    30 μg/g (Schichtende, Ende der Arbeitswoche)

                                                    Führen (Lead)

                                                    Blut (Blei)

                                                    ZPP im Blut

                                                    Urin (Blei)

                                                    ALA-Urin

                                                    < 25 μg/100 ml

                                                    <40 μg/100 ml Blut

                                                    < 2.5 μg/g Hb

                                                    < 50 μg/g

                                                    <4.5 mg/g

                                                    30 μg/100 ml (nicht kritisch)

                                                    weiblich <45 Jahre:

                                                    30 μg/100 ml

                                                    männlich: 70 μg/100 ml

                                                    weiblich <45 Jahre:

                                                    6mg/l; männlich: 15 mg/l

                                                    40 μg/100 ml

                                                    40 µg/100 ml Blut oder 3 µg/g Hb

                                                    50 μg/g

                                                    5 mg / g

                                                    Mangan

                                                    Blut

                                                    Urin

                                                    < 1 μg/100 ml

                                                    < 3 μg/g

                                                         

                                                    Quecksilber anorganisch

                                                    Blut

                                                    Urin

                                                    < 1 μg/100 ml

                                                    < 5 μg/g

                                                    1.5 μg/100 ml (Schichtende, Ende der Arbeitswoche)

                                                    35 μg/g (Vorschicht)

                                                    5 μg/100 ml

                                                    200 μg / l

                                                    2 μg/100 ml (Schichtende)

                                                    50 μg/g (Schichtende)

                                                    Super

                                                    (lösliche Verbindungen)

                                                    Serum/Plasma

                                                    Urin

                                                    < 0.05 μg/100 ml

                                                    < 2 μg/g

                                                     

                                                    45 μg/l (EKA)**

                                                    30 μg/g

                                                    Selenium

                                                    Serum/Plasma

                                                    Urin

                                                    < 15 μg/100 ml

                                                    < 25 μg/g

                                                         

                                                    Vanadium

                                                    Serum/Plasma

                                                    Blut

                                                    Urin

                                                    < 0.2 μg/100 ml

                                                    < 0.1 μg/100 ml

                                                    < 1 μg/g

                                                     

                                                    70 μg/g Kreatinin

                                                    50 μg/g

                                                    * Urinwerte sind pro Gramm Kreatinin.
                                                    ** EKA = Expositionsäquivalente für krebserzeugende Stoffe.
                                                    1 Mit einigen Modifikationen übernommen von Lauwerys und Hoet 1993.
                                                    2 Von ACGIH 1996-97.
                                                    3 Aus DFG 1996.
                                                    4 Vorläufige maximal zulässige Konzentrationen (TMPCs) von Lauwerys und Hoet 1993.

                                                    Ein Problem bei der Suche nach präzisen und genauen Messungen von Metallen in biologischen Materialien besteht darin, dass die interessierenden metallischen Substanzen oft in sehr geringen Mengen in den Medien vorhanden sind. Wenn die biologische Überwachung, wie es häufig der Fall ist, aus der Probenahme und Analyse von Urin besteht, wird sie normalerweise an „Stichproben“ durchgeführt; Eine Korrektur der Ergebnisse für die Verdünnung des Urins ist daher in der Regel ratsam. Die Angabe der Ergebnisse pro Gramm Kreatinin ist die am häufigsten verwendete Standardisierungsmethode. Analysen von zu verdünnten oder zu konzentrierten Urinproben sind nicht zuverlässig und sollten wiederholt werden.

                                                    Aluminium

                                                    In der Industrie können Arbeiter anorganischen Aluminiumverbindungen durch Einatmen und möglicherweise auch durch Verschlucken von aluminiumhaltigem Staub ausgesetzt werden. Aluminium wird auf oralem Weg schlecht resorbiert, aber seine Resorption wird durch die gleichzeitige Einnahme von Citraten erhöht. Die Absorptionsrate von in der Lunge abgelagertem Aluminium ist unbekannt; die Bioverfügbarkeit ist wahrscheinlich von den physikalisch-chemischen Eigenschaften des Partikels abhängig. Der Urin ist der Hauptausscheidungsweg des resorbierten Aluminiums. Die Aluminiumkonzentration im Serum und im Urin wird sowohl durch die Intensität einer kürzlich erfolgten Exposition als auch durch die Aluminiumbelastung des Körpers bestimmt. Bei nicht beruflich Exponierten liegt die Aluminiumkonzentration im Serum meist unter 1 µg/100 ml und im Urin selten über 30 µg/g Kreatinin. Bei Personen mit normaler Nierenfunktion ist die Urinausscheidung von Aluminium ein empfindlicherer Indikator für eine Aluminiumexposition als seine Konzentration im Serum/Plasma.

                                                    Daten über Schweißer deuten darauf hin, dass die Kinetik der Aluminiumausscheidung im Urin einen Mechanismus aus zwei Schritten umfasst, wobei der erste eine biologische Halbwertszeit von etwa acht Stunden hat. Bei Arbeitern, die mehrere Jahre exponiert waren, kommt es effektiv zu einer gewissen Akkumulation des Metalls im Körper, und die Aluminiumkonzentrationen im Serum und im Urin werden auch durch die Aluminiumbelastung des Körpers beeinflusst. Aluminium wird in mehreren Kompartimenten des Körpers gespeichert und aus diesen Kompartimenten über viele Jahre in unterschiedlichem Maße ausgeschieden. Auch bei Patienten mit Niereninsuffizienz wurde eine hohe Anreicherung von Aluminium im Körper (Knochen, Leber, Gehirn) festgestellt. Patienten, die sich einer Dialyse unterziehen, sind dem Risiko einer Knochentoxizität und/oder Enzephalopathie ausgesetzt, wenn ihre Aluminiumkonzentration im Serum chronisch 20 μg/100 ml übersteigt, aber es ist möglich, Anzeichen einer Toxizität bei noch niedrigeren Konzentrationen zu erkennen. Die Kommission der Europäischen Gemeinschaften hat empfohlen, dass zur Vermeidung einer Aluminiumtoxizität die Aluminiumkonzentration im Plasma niemals 20 μg/100 ml überschreiten sollte; ein Wert über 10 μg/100 ml sollte zu einer erhöhten Überwachungshäufigkeit und Gesundheitsüberwachung führen, und eine Konzentration von über 6 μg/100 ml sollte als Beweis für eine übermäßige Anhäufung der Körperbelastung durch Aluminium betrachtet werden.

                                                    Antimon

                                                    Anorganisches Antimon kann durch Verschlucken oder Einatmen in den Organismus gelangen, die Aufnahmegeschwindigkeit ist jedoch unbekannt. Resorbierte fünfwertige Verbindungen werden hauptsächlich mit dem Urin und dreiwertige Verbindungen über die Fäzes ausgeschieden. Nach längerer Exposition ist eine Retention einiger Antimonverbindungen möglich. Normale Antimonkonzentrationen im Serum und Urin liegen wahrscheinlich unter 0.1 µg/100 ml bzw. 1 µg/g Kreatinin.

                                                    Eine vorläufige Studie an Arbeitern, die gegenüber fünfwertigem Antimon exponiert waren, ergab eine zeitlich gewichtete durchschnittliche Exposition gegenüber 0.5 mg/m3 würde zu einem Anstieg der Antimonkonzentration im Urin von 35 µg/g Kreatinin während der Schicht führen.

                                                    Anorganisches Arsen

                                                    Anorganisches Arsen kann über den Magen-Darm-Trakt und die Atemwege in den Organismus gelangen. Das resorbierte Arsen wird hauptsächlich unverändert oder nach Methylierung über die Niere ausgeschieden. Anorganisches Arsen wird auch als Glutathionkomplex mit der Galle ausgeschieden.

                                                    Nach einmaliger oraler Exposition gegenüber einer niedrigen Arsenatdosis werden 25 bzw. 45 % der verabreichten Dosis innerhalb von einem bzw. vier Tagen mit dem Urin ausgeschieden.

                                                    Nach Exposition gegenüber anorganischem drei- oder fünfwertigem Arsen besteht die Urinausscheidung aus 10 bis 20 % anorganischem Arsen, 10 bis 20 % Monomethylarsonsäure und 60 bis 80 % Cacodylsäure. Nach beruflicher Exposition gegenüber anorganischem Arsen hängt der Anteil der Arsenspezies im Urin vom Zeitpunkt der Probenahme ab.

                                                    Auch die in Meeresorganismen enthaltenen Organoarsenika werden vom Magen-Darm-Trakt gut aufgenommen, aber zum größten Teil unverändert ausgeschieden.

                                                    Langfristige toxische Wirkungen von Arsen (einschließlich der toxischen Wirkungen auf Gene) resultieren hauptsächlich aus der Exposition gegenüber anorganischem Arsen. Ziel des biologischen Monitorings ist es daher, die Exposition gegenüber anorganischen Arsenverbindungen zu erfassen. Dazu ist die spezifische Bestimmung von anorganischem Arsen (Asi), Monomethylarsonsäure (MMA) und Cacodylsäure (DMA) im Urin ist die Methode der Wahl. Da der Verzehr von Meeresfrüchten jedoch immer noch die Ausscheidungsrate von DMA beeinflussen könnte, sollten die getesteten Arbeiter in den 48 Stunden vor der Urinsammlung auf den Verzehr von Meeresfrüchten verzichten.

                                                    Bei Personen, die nicht beruflich gegenüber anorganischem Arsen exponiert sind und in letzter Zeit keinen Meeresorganismus verzehrt haben, übersteigt die Summe dieser drei Arsenspezies in der Regel 10 µg/g Kreatinin im Urin nicht. Höhere Werte finden sich in geografischen Gebieten, in denen das Trinkwasser erhebliche Mengen an Arsen enthält.

                                                    Es wurde geschätzt, dass ohne den Verzehr von Meeresfrüchten eine zeitlich gewichtete durchschnittliche Exposition gegenüber 50 und 200 μg/m3 anorganisches Arsen führt zu mittleren Urinkonzentrationen der Summe der Metaboliten (Asi, MMA, DMA) in Urinproben nach der Schicht von 54 bzw. 88 μg/g Kreatinin.

                                                    Bei Exposition gegenüber weniger löslichen anorganischen Arsenverbindungen (z. B. Galliumarsenid) spiegelt die Bestimmung von Arsen im Urin die resorbierte Menge, nicht aber die dem Körper (Lunge, Magen-Darm-Trakt) zugeführte Gesamtdosis wider.

                                                    Arsen im Haar ist ein guter Indikator für die Menge an anorganischem Arsen, die während der Wachstumsphase des Haares aufgenommen wird. Organisches Arsen marinen Ursprungs scheint im Haar nicht in gleichem Maße aufgenommen zu werden wie anorganisches Arsen. Die Bestimmung der Arsenkonzentration entlang der Haarlänge kann wertvolle Informationen über den Expositionszeitpunkt und die Expositionsdauer liefern. Die Bestimmung von Arsen in Haaren wird jedoch nicht empfohlen, wenn die Umgebungsluft mit Arsen belastet ist, da dann nicht mehr zwischen körpereigenem Arsen und äußerlich auf dem Haar abgelagertem Arsen unterschieden werden kann. Der Arsengehalt im Haar liegt normalerweise unter 1 mg/kg. Arsen in Nägeln hat die gleiche Bedeutung wie Arsen in Haaren.

                                                    Wie der Urinspiegel kann auch der Arsenspiegel im Blut die kürzlich absorbierte Arsenmenge widerspiegeln, aber die Beziehung zwischen der Intensität der Arsenexposition und seiner Konzentration im Blut wurde noch nicht untersucht.

                                                    Beryllium

                                                    Die Inhalation ist der Hauptaufnahmeweg von Beryllium für beruflich exponierte Personen. Eine Langzeitexposition kann zur Einlagerung beträchtlicher Berylliummengen im Lungengewebe und im Skelett, dem endgültigen Speicherort, führen. Die Elimination von resorbiertem Beryllium erfolgt hauptsächlich über den Urin und nur in geringem Maße über die Faeces.

                                                    Beryllium-Konzentrationen können in Blut und Urin bestimmt werden, aber derzeit können diese Analysen nur als qualitative Tests verwendet werden, um die Exposition gegenüber dem Metall zu bestätigen, da nicht bekannt ist, inwieweit die Konzentrationen von Beryllium in Blut und Urin durch die letzten Tage beeinflusst werden können Exposition und um die bereits im Körper gespeicherte Menge. Darüber hinaus ist es schwierig, die begrenzten veröffentlichten Daten zur Ausscheidung von Beryllium bei exponierten Arbeitern zu interpretieren, da die äußere Exposition in der Regel nicht ausreichend charakterisiert ist und die Analysemethoden unterschiedliche Empfindlichkeiten und Genauigkeiten aufweisen. Normale Urin- und Serumspiegel von Beryllium liegen wahrscheinlich darunter
                                                    2 μg/g Kreatinin bzw. 0.03 μg/100 ml.

                                                    Der Befund einer normalen Berylliumkonzentration im Urin ist jedoch kein ausreichender Beweis, um die Möglichkeit einer früheren Exposition gegenüber Beryllium auszuschließen. Tatsächlich wurde bei Arbeitern nicht immer eine erhöhte Ausscheidung von Beryllium im Urin festgestellt, obwohl sie in der Vergangenheit Beryllium ausgesetzt waren und infolgedessen eine pulmonale Granulomatose entwickelt haben, eine Krankheit, die durch multiple Granulome gekennzeichnet ist, d die Lungen.

                                                    Cadmium

                                                    Im beruflichen Umfeld erfolgt die Aufnahme von Cadmium hauptsächlich durch Inhalation. Die gastrointestinale Absorption kann jedoch erheblich zur internen Cadmiumdosis beitragen. Eine wichtige Eigenschaft von Cadmium ist seine lange biologische Halbwertszeit im Körper, die über XNUMX % liegt
                                                    10 Jahre. Cadmium ist im Gewebe hauptsächlich an Metallothionein gebunden. Im Blut ist es hauptsächlich an rote Blutkörperchen gebunden. Angesichts der Anreicherungseigenschaft von Cadmium sollte jedes biologische Überwachungsprogramm chronisch gegenüber Cadmium exponierter Bevölkerungsgruppen versuchen, sowohl die aktuelle als auch die integrierte Exposition zu bewerten.

                                                    Mittels Neutronenaktivierung ist dies derzeit möglich in vivo Messungen der akkumulierten Cadmiummengen in den Hauptspeicherorten Niere und Leber. Diese Techniken werden jedoch nicht routinemäßig eingesetzt. In der Gesundheitsüberwachung von Arbeitern in der Industrie oder in großangelegten Studien an der Allgemeinbevölkerung wird die Exposition gegenüber Cadmium bisher meist indirekt durch Messung des Metalls in Urin und Blut bewertet.

                                                    Die detaillierte Kinetik der Wirkung von Cadmium beim Menschen ist noch nicht vollständig aufgeklärt, aber für praktische Zwecke können die folgenden Schlussfolgerungen bezüglich der Bedeutung von Cadmium in Blut und Urin formuliert werden. Bei neu exponierten Arbeitern steigt der Cadmiumgehalt im Blut allmählich an und erreicht nach vier bis sechs Monaten eine der Expositionsintensität entsprechende Konzentration. Bei Personen mit andauernder Cadmiumexposition über einen längeren Zeitraum spiegelt die Konzentration von Cadmium im Blut hauptsächlich die durchschnittliche Aufnahme während der letzten Monate wider. Der relative Einfluss der Cadmium-Körperbelastung auf den Cadmiumspiegel im Blut kann bei Personen, die eine große Menge Cadmium angesammelt haben und von der Exposition entfernt wurden, wichtiger sein. Nach Beendigung der Exposition sinkt der Cadmiumspiegel im Blut relativ schnell mit einer anfänglichen Halbwertszeit von zwei bis drei Monaten. Je nach Körperbelastung kann der Spiegel jedoch höher bleiben als bei Kontrollpersonen. Mehrere Studien an Menschen und Tieren haben gezeigt, dass der Cadmiumspiegel im Urin wie folgt interpretiert werden kann: in Abwesenheit einer akuten Überexposition gegenüber Cadmium und solange die Speicherfähigkeit der Nierenrinde nicht überschritten wird oder eine Cadmium-induzierte Nephropathie hat noch nicht aufgetreten ist, steigt der Cadmiumspiegel im Urin progressiv mit der in den Nieren gespeicherten Cadmiummenge an. Unter solchen Bedingungen, die vor allem in der Allgemeinbevölkerung und bei mäßig Cadmium-exponierten Arbeitern vorherrschen, besteht eine signifikante Korrelation zwischen Cadmium im Urin und Cadmium in den Nieren. Bei zu hoher Cadmium-Exposition kommt es zu einer fortschreitenden Sättigung der Cadmium-Bindungsstellen im Organismus und trotz kontinuierlicher Exposition pendelt sich die Cadmium-Konzentration in der Nierenrinde ein.

                                                    Ab diesem Stadium kann das aufgenommene Cadmium nicht mehr in diesem Organ zurückgehalten werden und wird schnell mit dem Urin ausgeschieden. In diesem Stadium wird die Konzentration von Cadmium im Urin sowohl von der Körperbelastung als auch von der jüngsten Aufnahme beeinflusst. Wenn die Exposition fortgesetzt wird, können einige Personen Nierenschäden entwickeln, die zu einem weiteren Anstieg des Cadmiumgehalts im Urin führen, da in der Niere gespeichertes Cadmium freigesetzt und die Reabsorption von zirkulierendem Cadmium verringert wird. Nach einer Episode akuter Exposition können die Cadmiumspiegel im Urin jedoch schnell und kurzzeitig ansteigen, ohne dass dies eine Zunahme der Körperbelastung widerspiegelt.

                                                    Neuere Studien weisen darauf hin, dass Metallothionein im Urin die gleiche biologische Bedeutung hat. Zwischen der Konzentration von Metallothionein und Cadmium im Urin wurden unabhängig von der Expositionsintensität und dem Zustand der Nierenfunktion gute Korrelationen beobachtet.

                                                    Die normalen Cadmiumspiegel im Blut und im Urin liegen normalerweise unter 0.5 μg/100 ml und
                                                    2 μg/g Kreatinin. Sie sind bei Rauchern höher als bei Nichtrauchern. Bei Arbeitern, die chronisch Cadmium ausgesetzt sind, ist das Risiko einer Nierenfunktionsstörung vernachlässigbar, wenn der Cadmiumspiegel im Urin niemals 10 μg/g Kreatinin übersteigt. Eine Anreicherung von Cadmium im Körper, die zu einer über diesen Wert hinausgehenden Urinausscheidung führen würde, sollte verhindert werden. Einige Daten deuten jedoch darauf hin, dass bestimmte Nierenmarker (deren gesundheitliche Bedeutung noch unbekannt ist) bei Cadmiumwerten im Urin zwischen 3 und 5 μg/g Kreatinin anormal werden können, sodass es vernünftig erscheint, einen niedrigeren biologischen Grenzwert von 5 μg/g Kreatinin vorzuschlagen . Für Blut wurde ein biologischer Grenzwert von 0.5 μg/100 ml für Langzeitexposition vorgeschlagen. Es ist jedoch möglich, dass bei der allgemeinen Bevölkerung, die Cadmium über Lebensmittel oder Tabak ausgesetzt ist, oder bei älteren Menschen, die normalerweise an einer Abnahme der Nierenfunktion leiden, der kritische Wert in der Nierenrinde niedriger sein kann.

                                                    Chrom

                                                    Die Toxizität von Chrom ist hauptsächlich auf seine sechswertigen Verbindungen zurückzuführen. Die Absorption von sechswertigen Verbindungen ist relativ höher als die Absorption von dreiwertigen Verbindungen. Die Ausscheidung erfolgt hauptsächlich über den Urin.

                                                    Bei nicht beruflich gegenüber Chrom exponierten Personen übersteigt die Chromkonzentration im Serum und im Urin in der Regel 0.05 µg/100 ml bzw. 2 µg/g Kreatinin nicht. Eine kürzlich erfolgte Exposition gegenüber löslichen sechswertigen Chromsalzen (z. B. in Galvanisierern und Edelstahlschweißern) kann durch Überwachung des Chromgehalts im Urin am Ende der Arbeitsschicht beurteilt werden. Von mehreren Autoren durchgeführte Studien legen folgende Beziehung nahe: eine TWA-Exposition von 0.025 oder 0.05 mg/m3 Sechswertiges Chrom ist mit einer durchschnittlichen Konzentration am Ende der Expositionszeit von 15 bzw. 30 µg/g Kreatinin verbunden. Diese Beziehung gilt nur auf Gruppenbasis. Nach Exposition gegenüber 0.025 mg/m3 sechswertiges Chrom, liegt der untere 95%-Vertrauensgrenzwert bei etwa 5 μg/g Kreatinin. Eine andere Studie unter Edelstahlschweißern hat ergeben, dass eine Chromkonzentration im Urin in der Größenordnung von 40 μg/l einer durchschnittlichen Exposition gegenüber 0.1 mg/m entspricht3 Chromtrioxid.

                                                    Sechswertiges Chrom durchdringt leicht Zellmembranen, aber sobald es sich in der Zelle befindet, wird es zu dreiwertigem Chrom reduziert. Die Konzentration von Chrom in Erythrozyten könnte ein Indikator für die Expositionsintensität gegenüber sechswertigem Chrom während der Lebensdauer der roten Blutkörperchen sein, dies gilt jedoch nicht für dreiwertiges Chrom.

                                                    Inwieweit die Überwachung von Chrom im Urin zur Abschätzung des Gesundheitsrisikos sinnvoll ist, muss noch beurteilt werden.

                                                    Cobalt

                                                    Nach Aufnahme durch Inhalation und in gewissem Umfang auch über den oralen Weg wird Kobalt (mit einer biologischen Halbwertszeit von einigen Tagen) hauptsächlich mit dem Urin ausgeschieden. Die Exposition gegenüber löslichen Kobaltverbindungen führt zu einer Erhöhung der Kobaltkonzentration in Blut und Urin.

                                                    Die Kobaltkonzentrationen im Blut und im Urin werden hauptsächlich durch eine kürzlich erfolgte Exposition beeinflusst. Bei nicht beruflich exponierten Personen liegt Kobalt im Urin normalerweise unter 2 μg/g Kreatinin und Serum/Plasma-Kobalt unter 0.05 μg/100 ml.

                                                    Für TWA-Expositionen von 0.1 mg/m3 und 0.05 mg/m3wurden mittlere Urinspiegel im Bereich von etwa 30 bis 75 μg/l bzw. 30 bis 40 μg/l berichtet (unter Verwendung von Proben am Ende der Schicht). Der Zeitpunkt der Probenahme ist wichtig, da der Kobaltspiegel im Urin während der Arbeitswoche fortschreitend ansteigt.

                                                    Bei Arbeitern, die in einer Raffinerie Kobaltoxiden, Kobaltsalzen oder Kobaltmetallpulver ausgesetzt waren, ein TWA von 0.05 mg/m3 hat zu einer durchschnittlichen Kobaltkonzentration von 33 bzw. 46 μg/g Kreatinin im Urin geführt, der am Ende der Schicht am Montag bzw. Freitag gesammelt wurde.

                                                    Führen (Lead)

                                                    Anorganisches Blei, ein kumulatives Toxin, das von der Lunge und dem Magen-Darm-Trakt absorbiert wird, ist eindeutig das Metall, das am ausführlichsten untersucht wurde; Daher ist von allen Metallkontaminanten die Zuverlässigkeit der Methoden zur Bewertung der jüngsten Exposition oder Körperbelastung durch biologische Methoden für Blei am größten.

                                                    In einer Steady-State-Expositionssituation gilt Blei im Vollblut als der beste Indikator für die Bleikonzentration in Weichgeweben und damit für eine kürzlich erfolgte Exposition. Der Anstieg des Blutbleispiegels (Pb-B) wird jedoch mit zunehmender Bleiexposition immer geringer. Bei längerer beruflicher Exposition ist die Beendigung der Exposition aufgrund der kontinuierlichen Freisetzung von Blei aus Gewebedepots nicht unbedingt mit einer Rückkehr von Pb-B auf einen Wert vor der Exposition (Hintergrund) verbunden. Die normalen Bleispiegel im Blut und Urin liegen im Allgemeinen unter 20 μg/100 ml bzw. 50 μg/g Kreatinin. Diese Werte können durch die Ernährungsgewohnheiten und den Wohnort der Probanden beeinflusst werden. Die WHO hat 40 μg/100 ml als maximal tolerierbare individuelle Blutbleikonzentration für erwachsene männliche Arbeiter und 30 μg/100 ml für Frauen im gebärfähigen Alter vorgeschlagen. Bei Kindern wurden niedrigere Bleikonzentrationen im Blut mit nachteiligen Wirkungen auf das Zentralnervensystem in Verbindung gebracht. Der Bleispiegel im Urin steigt mit zunehmendem Pb-B exponentiell an und spiegelt im Steady-State hauptsächlich die jüngste Exposition wider.

                                                    Die nach Verabreichung eines Chelatbildners (z. B. CaEDTA) im Urin ausgeschiedene Bleimenge spiegelt den mobilisierbaren Bleipool wider. Bei Kontrollpersonen übersteigt die Bleimenge, die innerhalb von 24 Stunden nach intravenöser Verabreichung von einem Gramm EDTA im Urin ausgeschieden wird, in der Regel 600 μg nicht. Es scheint, dass unter konstanter Exposition die chelatierbaren Bleiwerte hauptsächlich den Bleipool im Blut und in den Weichgeweben widerspiegeln, wobei nur ein kleiner Teil aus Knochen stammt.

                                                    Zur Messung der Bleikonzentration in Knochen (Phalangen, Schienbein, Fersenbein, Wirbel) wurde ein Röntgenfluoreszenzverfahren entwickelt, aber derzeit beschränkt die Nachweisgrenze des Verfahrens seine Anwendung auf beruflich exponierte Personen.

                                                    Die Bestimmung von Blei in Haaren wurde als Methode zur Bewertung des mobilisierbaren Bleipools vorgeschlagen. Im beruflichen Umfeld ist es jedoch schwierig, zwischen endogen in das Haar eingebautem und einfach an der Oberfläche adsorbiertem Blei zu unterscheiden.

                                                    Die Bestimmung der Bleikonzentration im zirkumpulpalen Dentin von Milchzähnen (Milchzähnen) wurde zur Abschätzung der Bleibelastung in der frühen Kindheit herangezogen.

                                                    Auch Parameter, die die Beeinflussung biologischer Prozesse durch Blei widerspiegeln, können zur Beurteilung der Bleiexpositionsintensität herangezogen werden. Die derzeit verwendeten biologischen Parameter sind Coproporphyrin im Urin (COPRO-U), Delta-Aminolävulinsäure im Urin (ALA-U), Erythrozyten-Protoporphyrin (EP oder Zink-Protoporphyrin), Delta-Aminolävulinsäure-Dehydratase (ALA-D), und Pyrimidin-5'-Nukleotidase (P5N) in roten Blutkörperchen. In Steady-State-Situationen sind die Veränderungen dieser Parameter positiv (COPRO-U, ALA-U, EP) oder negativ (ALA-D, P5N) mit Bleiblutspiegeln korreliert. Die Urinausscheidung von COPRO (meist das III-Isomer) und ALA beginnt anzusteigen, wenn die Bleikonzentration im Blut einen Wert von etwa 40 μg/100 ml erreicht. Erythrozyten-Protoporphyrin beginnt bei Blutbleispiegeln von etwa 35 µg/100 ml bei Männern und 25 µg/100 ml bei Frauen signifikant anzusteigen. Nach Beendigung der beruflichen Bleiexposition bleibt das Erythrozyten-Protoporphyrin überproportional zum aktuellen Bleigehalt im Blut erhöht. In diesem Fall korreliert der EP-Wert besser mit der Menge an chelatierbarem Blei, das im Urin ausgeschieden wird, als mit dem Blei im Blut.

                                                    Ein leichter Eisenmangel führt auch zu einer erhöhten Protoporphyrin-Konzentration in den roten Blutkörperchen. Die Enzyme der roten Blutkörperchen, ALA-D und P5N, reagieren sehr empfindlich auf die hemmende Wirkung von Blei. Im Bereich von Blutbleiwerten von 10 bis 40 µg/100 ml besteht eine enge negative Korrelation zwischen der Aktivität beider Enzyme und dem Blutblei.

                                                    Alkylblei

                                                    In einigen Ländern werden Tetraethylblei und Tetramethylblei als Antiklopfmittel in Autokraftstoffen verwendet. Blei im Blut ist kein guter Indikator für eine Exposition gegenüber Tetraalkylblei, während Blei im Urin nützlich zu sein scheint, um das Risiko einer Überexposition abzuschätzen.

                                                    Mangan

                                                    Im beruflichen Umfeld gelangt Mangan hauptsächlich über die Lunge in den Körper; Die Resorption über den Gastrointestinaltrakt ist gering und hängt wahrscheinlich von einem homöostatischen Mechanismus ab. Die Manganausscheidung erfolgt über die Galle, wobei nur geringe Mengen mit dem Urin ausgeschieden werden.

                                                    Die normalen Konzentrationen von Mangan in Urin, Blut und Serum oder Plasma liegen normalerweise unter 3 μg/g Kreatinin, 1 μg/100 ml bzw. 0.1 μg/100 ml.

                                                    Es scheint, dass auf individueller Basis weder Mangan im Blut noch Mangan im Urin mit externen Expositionsparametern korrelieren.

                                                    Offensichtlich besteht kein direkter Zusammenhang zwischen der Mangankonzentration in biologischem Material und der Schwere einer chronischen Manganvergiftung. Es ist möglich, dass nach beruflicher Exposition gegenüber Mangan bereits bei biologischen Konzentrationen in der Nähe der Normalwerte frühe nachteilige Wirkungen auf das Zentralnervensystem festgestellt werden.

                                                    Metallisches Quecksilber und seine anorganischen Salze

                                                    Die Inhalation stellt den Hauptaufnahmeweg von metallischem Quecksilber dar. Die gastrointestinale Resorption von metallischem Quecksilber ist vernachlässigbar. Anorganische Quecksilbersalze können sowohl über die Lunge (Inhalation von anorganischem Quecksilberaerosol) als auch über den Magen-Darm-Trakt aufgenommen werden. Die kutane Aufnahme von metallischem Quecksilber und seinen anorganischen Salzen ist möglich.

                                                    Die biologische Halbwertszeit von Quecksilber liegt in der Niere in der Größenordnung von zwei Monaten, ist aber im Zentralnervensystem viel länger.

                                                    Anorganisches Quecksilber wird hauptsächlich mit den Faeces und Urin ausgeschieden. Kleine Mengen werden über Speichel-, Tränen- und Schweißdrüsen ausgeschieden. Quecksilber kann auch in den wenigen Stunden nach der Exposition gegenüber Quecksilberdampf in der ausgeatmeten Luft nachgewiesen werden. Unter chronischen Expositionsbedingungen besteht, zumindest auf Gruppenbasis, ein Zusammenhang zwischen der Intensität der kürzlichen Exposition gegenüber Quecksilberdampf und der Konzentration von Quecksilber im Blut oder Urin. Die frühen Untersuchungen, bei denen statische Proben zur Überwachung der allgemeinen Arbeitsraumluft verwendet wurden, zeigten eine durchschnittliche Quecksilber-Luft, Hg-Luft, Konzentration von 100 μg/m3 entspricht durchschnittlichen Quecksilberwerten im Blut (Hg–B) und im Urin (Hg–U) von 6 μg Hg/100 ml bzw. 200 bis 260 μg/l. Neuere Beobachtungen, insbesondere solche, die den Beitrag der äußeren Mikroumgebung in der Nähe der Atemwege der Arbeiter bewerten, weisen darauf hin, dass die Luft (μg/m3)/Urin (μg/g Kreatinin)/Blut (μg/100ml) Quecksilber-Verhältnis beträgt etwa 1/1.2/0.045. Mehrere epidemiologische Studien an Arbeitern, die Quecksilberdämpfen ausgesetzt waren, haben gezeigt, dass bei Langzeitexposition die kritischen Wirkungsspiegel von Hg–U und Hg–B etwa 50 μg/g Kreatinin bzw. 2 μg/100 ml betragen.

                                                    Einige neuere Studien scheinen jedoch darauf hinzudeuten, dass bereits bei einem Quecksilbergehalt im Urin von unter 50 μg/g Kreatinin Anzeichen von unerwünschten Wirkungen auf das zentrale Nervensystem oder die Niere beobachtet werden können.

                                                    Normale Harn- und Blutspiegel liegen im Allgemeinen unter 5 μg/g Kreatinin bzw. 1 μg/100 ml. Diese Werte können durch Fischverzehr und die Anzahl der Quecksilberamalgamfüllungen in den Zähnen beeinflusst werden.

                                                    Organische Quecksilberverbindungen

                                                    Die organischen Quecksilberverbindungen werden auf allen Wegen leicht aufgenommen. Im Blut sind sie hauptsächlich in roten Blutkörperchen zu finden (ca. 90 %). Zu unterscheiden sind jedoch die kurzkettigen Alkylverbindungen (hauptsächlich Methylquecksilber), die sehr stabil und resistent gegen Biotransformation sind, und die Aryl- bzw. Alkoxyalkylderivate, die anorganisches Quecksilber freisetzen in vivo. Bei den letztgenannten Verbindungen ist wahrscheinlich die Quecksilberkonzentration im Blut sowie im Urin ein Hinweis auf die Expositionsintensität.

                                                    Unter Steady-State-Bedingungen korreliert Quecksilber im Vollblut und im Haar mit der Belastung des Körpers durch Methylquecksilber und mit dem Risiko von Anzeichen einer Methylquecksilbervergiftung. Bei Personen, die chronisch gegenüber Alkylquecksilber exponiert sind, können die ersten Anzeichen einer Vergiftung (Parästhesien, Empfindungsstörungen) auftreten, wenn die Quecksilberkonzentration im Blut 20 μg/100 ml bzw. 50 μg/g im Haar übersteigt.

                                                    Super

                                                    Nickel ist kein kumulatives Toxin und fast die gesamte aufgenommene Menge wird hauptsächlich über den Urin ausgeschieden, mit einer biologischen Halbwertszeit von 17 bis 39 Stunden. Bei nicht beruflich exponierten Personen liegen die Urin- und Plasmakonzentrationen von Nickel üblicherweise unter 2 µg/g Kreatinin bzw. 0.05 µg/100 ml.

                                                    Die Nickelkonzentrationen im Plasma und im Urin sind gute Indikatoren für eine kürzlich erfolgte Exposition gegenüber metallischem Nickel und seinen löslichen Verbindungen (z. B. während der Galvanisierung von Nickel oder der Herstellung von Nickelbatterien). Werte innerhalb normaler Bereiche weisen normalerweise auf eine nicht signifikante Exposition hin, und erhöhte Werte weisen auf eine Überexposition hin.

                                                    Für Arbeiter, die gegenüber löslichen Nickelverbindungen exponiert sind, wurde vorläufig ein biologischer Grenzwert von 30 μg/g Kreatinin (Ende der Schicht) für Nickel im Urin vorgeschlagen.

                                                    Bei Arbeitern, die schwerlöslichen oder unlöslichen Nickelverbindungen ausgesetzt sind, weisen erhöhte Konzentrationen in Körperflüssigkeiten im Allgemeinen auf eine signifikante Absorption oder fortschreitende Freisetzung aus der in der Lunge gespeicherten Menge hin; jedoch können erhebliche Nickelmengen in den Atemwegen (Nasenhöhlen, Lunge) abgelagert werden, ohne dass die Plasma- oder Urinkonzentration signifikant ansteigt. Daher müssen „normale“ Werte mit Vorsicht interpretiert werden und bedeuten nicht notwendigerweise, dass kein Gesundheitsrisiko besteht.

                                                    Selenium

                                                    Selen ist ein essentielles Spurenelement. Lösliche Selenverbindungen scheinen leicht über die Lunge und den Magen-Darm-Trakt aufgenommen zu werden. Selen wird hauptsächlich über den Urin ausgeschieden, kann aber bei sehr hoher Exposition auch als Dimethylselenid-Dampf in die Atemluft ausgeschieden werden. Normale Selenkonzentrationen in Serum und Urin hängen von der täglichen Aufnahme ab, die in verschiedenen Teilen der Welt erheblich variieren kann, aber normalerweise unter 15 μg/100 ml bzw. 25 μg/g Kreatinin liegt. Die Konzentration von Selen im Urin spiegelt hauptsächlich die jüngste Exposition wider. Der Zusammenhang zwischen der Intensität der Exposition und der Selenkonzentration im Urin ist noch nicht geklärt.

                                                    Es scheint, dass die Konzentration in Plasma (oder Serum) und Urin hauptsächlich eine kurzfristige Exposition widerspiegelt, während der Selengehalt der Erythrozyten eher eine langfristige Exposition widerspiegelt.

                                                    Die Messung von Selen im Blut oder Urin gibt Aufschluss über den Selenstatus. Derzeit wird es häufiger verwendet, um einen Mangel als eine Überbelichtung zu erkennen. Da die verfügbaren Daten zum Gesundheitsrisiko einer Langzeitexposition gegenüber Selen und zum Zusammenhang zwischen potenziellem Gesundheitsrisiko und Gehalten in biologischen Medien zu begrenzt sind, kann kein biologischer Grenzwert vorgeschlagen werden.

                                                    Vanadium

                                                    In der Industrie wird Vanadium hauptsächlich über die Lunge aufgenommen. Die orale Resorption scheint gering zu sein (weniger als 1 %). Vanadium wird mit einer biologischen Halbwertszeit von etwa 20 bis 40 Stunden im Urin und in geringerem Maße im Stuhl ausgeschieden. Vanadium im Urin scheint ein guter Indikator für eine kürzliche Exposition zu sein, aber die Beziehung zwischen Aufnahme und Vanadiumspiegel im Urin ist noch nicht ausreichend belegt. Es wurde vermutet, dass der Unterschied zwischen den Vanadiumkonzentrationen im Urin nach der Schicht und vor der Schicht die Beurteilung der Exposition während des Arbeitstages ermöglicht, während Vanadium im Urin zwei Tage nach Beendigung der Exposition (Montagmorgen) die Akkumulation des Metalls im Körper widerspiegeln würde . Bei nicht beruflich exponierten Personen liegt die Vanadiumkonzentration im Urin meist unter 1 µg/g Kreatinin. Für Vanadium im Urin wurde ein vorläufiger biologischer Grenzwert von 50 µg/g Kreatinin (Ende der Schicht) vorgeschlagen.

                                                     

                                                    Zurück

                                                    Montag, März 07 2011 19: 01

                                                    Ergonomie und Standardisierung

                                                    Origins

                                                    Die Normung im Bereich der Ergonomie hat eine relativ kurze Geschichte. Es begann Anfang der 1970er Jahre mit der Gründung erster Gremien auf nationaler Ebene (z. B. in Deutschland innerhalb des Normungsinstituts DIN) und setzte sich nach der Gründung der ISO (International Organization for Standardization) TC auf internationaler Ebene fort (Technisches Komitee) 159 „Ergonomie“, 1975. Inzwischen findet die Normung der Ergonomie auch auf regionaler Ebene statt, beispielsweise auf europäischer Ebene im Rahmen des CEN (Europäische Kommission für Normalisierung), das 122 sein TC 1987 „Ergonomics“ einrichtete. Die Existenz des letztgenannten Komitees unterstreicht die Tatsache, dass einer der wichtigen Gründe für die Einrichtung von Komitees zur Standardisierung ergonomischer Kenntnisse und Grundsätze in rechtlichen (und quasi-rechtlichen) Vorschriften, insbesondere zu Sicherheit und Gesundheit, die die Anwendung ergonomischer Prinzipien und Erkenntnisse bei der Gestaltung von Produkten und Arbeitssystemen erfordern. Nationale Gesetze, die die Anwendung bewährter Erkenntnisse der Ergonomie vorschreiben, waren Anlass für die Gründung des Deutschen Ergonomieausschusses im Jahr 1970, und europäische Richtlinien, insbesondere die Maschinenrichtlinie (mit Bezug auf Sicherheitsnormen), waren für die Einrichtung eines Ergonomieausschusses auf europäischer Ebene verantwortlich Niveau. Da gesetzliche Regelungen in der Regel wenig spezifisch sind, können und sollen, wurde die Aufgabe, festzulegen, welche ergonomischen Prinzipien und Erkenntnisse anzuwenden sind, an Arbeitsnormungsgremien vergeben bzw. von diesen übernommen. Gerade auf europäischer Ebene ist zu erkennen, dass die Ergonomie-Normung dazu beitragen kann, für breite und vergleichbare Bedingungen der Maschinensicherheit zu sorgen und damit Barrieren für den freien Handel mit Maschinen innerhalb des Kontinents abzubauen.

                                                    Perspectives

                                                    Die Normung der Ergonomie startete also mit einem starken Schutz-, wenn auch präventive Perspektive, wobei Ergonomiestandards mit dem Ziel entwickelt werden, Arbeitnehmer auf verschiedenen Ebenen des Gesundheitsschutzes vor negativen Auswirkungen zu schützen. Ergonomiestandards wurden daher mit folgenden Absichten erstellt:

                                                    • sicherzustellen, dass die übertragenen Aufgaben die Grenzen der Leistungsfähigkeit des Arbeitnehmers nicht überschreiten
                                                    • um dauerhafte oder vorübergehende, kurz- oder langfristige Verletzungen oder Gesundheitsschäden des Arbeitnehmers zu vermeiden, selbst wenn die betreffenden Aufgaben, wenn auch nur für kurze Zeit, ohne negative Auswirkungen durchgeführt werden können
                                                    • dafür zu sorgen, dass Aufgaben und Arbeitsbedingungen nicht zu Beeinträchtigungen führen, auch wenn eine Erholung mit der Zeit möglich ist.

                                                     

                                                    Die nicht so eng an die Gesetzgebung gekoppelte internationale Normung hat dagegen immer auch versucht, eine Perspektive in Richtung einer Normenbildung zu eröffnen, die über die Vermeidung und den Schutz vor Beeinträchtigungen hinausgeht (z Werte) und stattdessen proaktiv optimale Arbeitsbedingungen zu schaffen, um das Wohlbefinden und die persönliche Entwicklung des Arbeitnehmers sowie die Effektivität, Effizienz, Zuverlässigkeit und Produktivität des Arbeitssystems zu fördern.

                                                    An dieser Stelle wird deutlich, dass Ergonomie und insbesondere Ergonomienormung sehr ausgeprägte gesellschaftliche und politische Dimensionen hat. Während der Schutzansatz in Bezug auf Sicherheit und Gesundheit allgemein akzeptiert und zwischen den beteiligten Parteien (Arbeitgeber, Gewerkschaften, Verwaltung und Ergonomieexperten) für alle Standardisierungsebenen vereinbart wird, wird der proaktive Ansatz nicht von allen Parteien gleichermaßen akzeptiert . Dies könnte darauf zurückzuführen sein, dass einige Parteien das Gefühl haben, dass solche Standards ihre Handlungs- oder Verhandlungsfreiheit einschränken könnten, insbesondere wenn die Gesetzgebung die Anwendung ergonomischer Grundsätze (und damit entweder explizit oder implizit die Anwendung von ergonomischen Standards) vorschreibt. Da internationale Normen weniger überzeugend sind (deren Überführung in das nationale Normenwerk liegt im Ermessen der nationalen Normungsgremien), ist der proaktive Ansatz auf der internationalen Ebene der Ergonomienormung am weitesten entwickelt.

                                                    Die Tatsache, dass bestimmte Vorschriften den Ermessensspielraum ihrer Adressaten tatsächlich einschränken würden, wirkte einer Standardisierung in bestimmten Bereichen entgegen, beispielsweise im Zusammenhang mit den europäischen Richtlinien nach Artikel 118a der Einheitlichen Europäischen Akte über Sicherheit und Gesundheitsschutz bei der Verwendung und Bedienung von Maschinen am Arbeitsplatz sowie bei der Gestaltung von Arbeitssystemen und Arbeitsplatzgestaltung. Andererseits wird im Rahmen der nach Artikel 100a erlassenen Richtlinien über Sicherheit und Gesundheitsschutz bei der Konstruktion von Maschinen im Hinblick auf den freien Handel mit diesen Maschinen innerhalb der Europäischen Union (EU) eine europäische Ergonomienormung von der Europäischen Kommission in Auftrag gegeben.

                                                    Aus ergonomischer Sicht ist jedoch schwer nachvollziehbar, warum sich die Ergonomie bei der Gestaltung von Maschinen von derjenigen bei der Nutzung und Bedienung von Maschinen innerhalb eines Arbeitssystems unterscheiden sollte. Es ist daher zu hoffen, dass die Unterscheidung in Zukunft aufgegeben wird, da sie der Entwicklung eines einheitlichen Ergonomie-Normenwerks eher abträglich als förderlich zu sein scheint.

                                                    Arten von Ergonomiestandards

                                                    Als erste internationale Ergonomienorm (basierend auf einer deutschen DIN-Landesnorm) wurde die 6385 erschienene ISO 1981 „Ergonomische Grundsätze bei der Gestaltung von Arbeitssystemen“ entwickelt. Sie ist die Grundnorm der Ergonomie-Normenreihe und setzt die Stufe für die Normen, gefolgt von der Definition der Grundbegriffe und der Festlegung der allgemeinen Prinzipien der ergonomischen Gestaltung von Arbeitssystemen, einschließlich Aufgaben, Werkzeugen, Maschinen, Arbeitsplätzen, Arbeitsraum, Arbeitsumgebung und Arbeitsorganisation. Diese internationale Norm, die derzeit überarbeitet wird, ist a Richtwert, und stellt als solche Richtlinien zur Verfügung, die befolgt werden müssen. Sie enthält jedoch keine technischen oder physikalischen Spezifikationen, die eingehalten werden müssen. Diese können in einer anderen Art von Standards gefunden werden, nämlich Spezifikationsstandards, zum Beispiel solche zur Anthropometrie oder zu thermischen Bedingungen. Beide Arten von Standards erfüllen unterschiedliche Funktionen. Während Richtwerte beabsichtigen, ihren Benutzern zu zeigen, „was zu tun ist und wie es zu tun ist“ und darauf hinzuweisen, welche Grundsätze eingehalten werden müssen oder sollten, z die eingehalten werden müssen und wo die Einhaltung dieser Vorschriften durch festgelegte Verfahren geprüft werden kann. Bei Leitlinienstandards ist dies nicht immer möglich, obwohl trotz relativ geringer Spezifität meist nachgewiesen werden kann, wann und wo gegen Leitlinien verstoßen wurde. Eine Untergruppe von Spezifikationsnormen sind „Datenbank“-Normen, die dem Benutzer relevante Ergonomiedaten liefern, beispielsweise Körpermaße.

                                                    CEN-Normen werden je nach Geltungsbereich und Anwendungsbereich als A-, B- und C-Typ-Normen klassifiziert. Typ-A-Normen sind allgemeine Grundnormen, die für alle Arten von Anwendungen gelten, Typ-B-Normen sind spezifisch für einen Anwendungsbereich (was bedeutet, dass die meisten Ergonomienormen innerhalb des CEN von diesem Typ sein werden) und C- Typennormen sind spezifisch für eine bestimmte Art von Maschinen, z. B. handgeführte Bohrmaschinen.

                                                    Normungsausschüsse

                                                    Ergonomienormen werden wie andere Normen in den entsprechenden Technischen Komitees (TCs), deren Unterkomitees (SCs) oder Arbeitsgruppen (WGs) erarbeitet. Für die ISO ist dies das TC 159, für das CEN das TC 122 und auf nationaler Ebene die jeweiligen nationalen Komitees. Neben den Ergonomie-Ausschüssen wird die Ergonomie auch in TCs behandelt, die sich mit Maschinensicherheit befassen (z. B. CEN TC 114 und ISO TC 199), mit denen Verbindung und enge Zusammenarbeit gepflegt werden. Es werden auch Verbindungen zu anderen Gremien hergestellt, für die Ergonomie relevant sein könnte. Die Verantwortung für Ergonomiestandards bleibt jedoch den Ergonomieausschüssen selbst vorbehalten.

                                                    Eine Reihe anderer Organisationen befasst sich mit der Erstellung von Ergonomienormen, wie z. B. die IEC (International Electrotechnical Commission); CENELEC oder die jeweiligen nationalen Komitees im elektrotechnischen Bereich; CCITT (Comité Consultative International des Organizations téléphoniques et télégraphiques) oder ETSI (European Telecommunication Standards Institute) im Bereich Telekommunikation; ECMA (European Computer Manufacturers Association) im Bereich Computersysteme; und CAMAC (Computer Assisted Measurement and Control Association) im Bereich neuer Technologien in der Fertigung, um nur einige zu nennen. Mit einigen von ihnen haben die Ergonomieausschüsse Verbindungen, um Doppelarbeit oder widersprüchliche Spezifikationen zu vermeiden; mit einigen Organisationen (z. B. der IEC) werden sogar gemeinsame technische Komitees für die Zusammenarbeit in Bereichen von gemeinsamem Interesse eingerichtet. Mit anderen Gremien hingegen gibt es überhaupt keine Koordination oder Kooperation. Der Hauptzweck dieser Ausschüsse besteht darin, (ergonomische) Standards zu erarbeiten, die für ihren Tätigkeitsbereich spezifisch sind. Da die Anzahl solcher Organisationen auf den verschiedenen Ebenen ziemlich groß ist, wird es ziemlich kompliziert (wenn nicht unmöglich), einen vollständigen Überblick über die Ergonomie-Normung zu erhalten. Die vorliegende Übersicht beschränkt sich daher auf die Ergonomie-Normung in den internationalen und europäischen Ergonomie-Gremien.

                                                    Struktur der Normungsausschüsse

                                                    Ergonomie-Normungsausschüsse sind einander recht ähnlich aufgebaut. Üblicherweise ist ein TC innerhalb einer Normungsorganisation für Ergonomie zuständig. Dieses Komitee (z. B. ISO TC 159) hat hauptsächlich mit Entscheidungen darüber zu tun, was standardisiert werden soll (z. B. Arbeitsaufgaben) und wie die Standardisierung innerhalb des Komitees organisiert und koordiniert wird, aber normalerweise werden auf dieser Ebene keine Standards erstellt. Unterhalb der TC-Ebene befinden sich weitere Gremien. Beispielsweise hat die ISO Unterkomitees (SCs), die für einen definierten Bereich der Normung zuständig sind: SC 1 für allgemeine ergonomische Leitprinzipien, SC 3 für Anthropometrie und Biomechanik, SC 4 für Mensch-System-Interaktion und SC 5 für die körperliche Arbeit Umgebung. CEN TC 122 hat Arbeitsgruppen (WGs) unterhalb der TC-Ebene, die so zusammengesetzt sind, dass sie sich mit bestimmten Bereichen innerhalb der Ergonomie-Normung befassen. SCs innerhalb des ISO TC 159 fungieren als Lenkungsausschüsse für ihren Verantwortungsbereich und führen die erste Abstimmung durch, aber sie bereiten normalerweise nicht auch Standards vor. Dies geschieht in ihren Arbeitsgruppen, die sich aus Experten zusammensetzen, die von ihren nationalen Ausschüssen ernannt werden, während SC- und TC-Sitzungen von nationalen Delegationen besucht werden, die nationale Standpunkte vertreten. Innerhalb des CEN werden die Aufgaben auf WG-Ebene nicht scharf getrennt; Arbeitsgruppen fungieren sowohl als Lenkungs- als auch als Produktionsausschüsse, obwohl ein Großteil der Arbeit in Ad-hoc-Gruppen geleistet wird, die sich aus Mitgliedern der Arbeitsgruppe zusammensetzen (von ihren nationalen Ausschüssen nominiert) und eingerichtet wurden, um die Entwürfe für eine Norm vorzubereiten. WGs innerhalb eines ISO SC werden eingerichtet, um die praktische Normungsarbeit zu leisten, d. h. Entwürfe zu erstellen, Kommentare zu bearbeiten, Normungsbedarf zu ermitteln und Vorschläge an SC und TC auszuarbeiten, die dann die entsprechenden Entscheidungen oder Maßnahmen treffen.

                                                    Erarbeitung von Ergonomiestandards

                                                    Die Erarbeitung von Ergonomienormen hat sich in den letzten Jahren angesichts der stärkeren Betonung europäischer und anderer internationaler Entwicklungen deutlich verändert. Zu Beginn wurden nationale Normen, die von Experten eines Landes in ihrem nationalen Komitee erarbeitet und von den interessierten Kreisen der Öffentlichkeit dieses Landes in einem festgelegten Abstimmungsverfahren vereinbart wurden, als Input an das zuständige SC und die WG übergeben von ISO TC 159, nachdem eine formelle Abstimmung auf TC-Ebene stattgefunden hatte, dass eine solche internationale Norm erstellt werden sollte. Die Arbeitsgruppe, bestehend aus Ergonomie-Experten (und Experten aus politisch interessierten Kreisen) aller beteiligten Mitgliedsorganisationen (dh der nationalen Normungsorganisationen) des TC 159, die bereit waren, an diesem Arbeitsprojekt mitzuarbeiten, würde dann alle Beiträge bearbeiten und vorbereiten ein Arbeitsentwurf (WD). Nachdem dieser Vorschlagsentwurf in der Arbeitsgruppe vereinbart wurde, wird er zu einem Ausschussentwurf (CD), der an die Mitgliedsgremien des SC zur Genehmigung und Kommentierung verteilt wird. Wenn der Entwurf von den SC-Mitgliedsgremien substantiell unterstützt wird (dh wenn mindestens zwei Drittel dafür stimmen) und nachdem Kommentare der nationalen Komitees von der AG in die verbesserte Version eingearbeitet wurden, ist ein Draft International Standard (DIS) gültig allen Mitgliedern des TC 159 zur Abstimmung vorgelegt. Wenn bei diesem Schritt von den Mitgliedsgremien des TC substanzielle Unterstützung erreicht wird (und vielleicht nach Einarbeitung redaktioneller Änderungen), wird diese Version dann als Internationaler Standard (IS) von veröffentlicht die ISO. Die Abstimmung der Mitgliedsgremien auf TC- und SC-Ebene basiert auf der Abstimmung auf nationaler Ebene, und über die Mitgliedsgremien können Experten oder interessierte Parteien in jedem Land Kommentare abgeben. Im CEN TC 122 ist die Vorgehensweise in etwa äquivalent, mit der Ausnahme, dass es keine SCs unterhalb der TC-Ebene gibt und dass die Abstimmung mit gewichteten Stimmen (je nach Größe des Landes) erfolgt, während innerhalb der ISO die Regel one country, one gilt Abstimmung. Wenn ein Entwurf bei irgendeinem Schritt fehlschlägt und die AG nicht entscheidet, dass eine zufriedenstellende Überarbeitung nicht erreicht werden kann, muss er überarbeitet werden und muss dann das Abstimmungsverfahren erneut durchlaufen.

                                                    Internationale Normen werden dann in nationale Normen überführt, wenn die nationalen Gremien entsprechend stimmen. Europäische Normen (EN) hingegen müssen von den CEN-Mitgliedern in nationale Normen überführt und entgegenstehende nationale Normen zurückgezogen werden. Das bedeutet, dass harmonisierte EN in allen CEN-Ländern gelten werden (und aufgrund ihres Einflusses auf den Handel für Hersteller in allen anderen Ländern relevant sein werden, die beabsichtigen, Waren an einen Kunden in einem CEN-Land zu verkaufen).

                                                    ISO-CEN-Kooperation

                                                    Um widersprüchliche Normen und Doppelarbeit zu vermeiden und Nicht-CEN-Mitgliedern die Möglichkeit zu geben, sich an Entwicklungen im CEN zu beteiligen, wurde eine Kooperationsvereinbarung zwischen ISO und CEN geschlossen (die sog Wiener Abkommen), der die Formalitäten regelt und ein sogenanntes paralleles Abstimmungsverfahren vorsieht, das es ermöglicht, im CEN und in der ISO parallel über dieselben Entwürfe abzustimmen, wenn die zuständigen Gremien dem zustimmen. Bei den Ergonomieausschüssen ist die Tendenz ganz klar: Doppelarbeit vermeiden (Personal- und Finanzmittel sind zu begrenzt), widersprüchliche Vorgaben vermeiden und versuchen, ein einheitliches und arbeitsteiliges Ergonomienormenwerk zu erreichen. Während das CEN TC 122 an die Entscheidungen der EU-Verwaltung gebunden ist und Arbeitsaufgaben erhält, um die Spezifikationen europäischer Richtlinien festzulegen, steht es dem ISO TC 159 frei, alles zu standardisieren, was es auf dem Gebiet der Ergonomie für notwendig oder angemessen hält. Dies hat zu einer Verschiebung des Schwerpunkts beider Ausschüsse geführt, wobei sich das CEN auf maschinen- und sicherheitsbezogene Themen konzentriert und das ISO sich auf Bereiche konzentriert, die breitere Marktinteressen als Europa betreffen (z. B. Arbeit mit Bildschirmen und Kontrollraumdesign für Prozesse und verwandte Branchen); in Bereichen, in denen es um die Bedienung von Maschinen geht, wie bei der Gestaltung von Arbeitssystemen; und auch in Bereichen wie Arbeitsumfeld und Arbeitsorganisation. Beabsichtigt ist jedoch, Arbeitsergebnisse vom CEN in die ISO und umgekehrt zu transferieren, um ein tatsächlich weltweit wirksames Korpus einheitlicher Ergonomienormen aufzubauen.

                                                    Das formale Verfahren zur Erstellung von Standards ist bis heute gleich geblieben. Da sich der Schwerpunkt aber immer mehr auf die internationale bzw. europäische Ebene verlagert hat, werden immer mehr Aktivitäten in diese Gremien verlagert. Entwürfe werden heute meist direkt in diesen Gremien ausgearbeitet und orientieren sich nicht mehr an bestehenden nationalen Normen. Nachdem entschieden wurde, dass ein Standard entwickelt werden soll, beginnt die Arbeit direkt auf einer dieser supranationalen Ebenen, basierend auf allen verfügbaren Inputs, manchmal von Null. Dadurch ändert sich die Rolle der nationalen Ergonomieausschüsse ganz dramatisch. Während sie bisher formal ihre eigenen nationalen Standards nach ihren nationalen Regeln entwickelt haben, haben sie nun die Aufgabe, die Standardisierung auf supranationaler Ebene zu beobachten und zu beeinflussen – über die Experten, die die Standards erarbeiten, oder durch Kommentare in den verschiedenen Abstimmungsschritten (innerhalb von des CEN wird ein nationales Normungsprojekt gestoppt, wenn gleichzeitig ein vergleichbares Projekt auf CEN-Ebene bearbeitet wird). Dies macht die Aufgabe noch komplizierter, da dieser Einfluss nur indirekt ausgeübt werden kann und da die Erarbeitung von Ergonomienormen nicht nur eine Frage der reinen Wissenschaft ist, sondern eine Frage des Aushandelns, Konsens und Einvernehmens (nicht zuletzt aufgrund der politischen Implikationen, die die Standard haben könnte). Dies ist natürlich einer der Gründe, warum der Prozess zur Erarbeitung einer internationalen oder europäischen Ergonomienorm in der Regel mehrere Jahre dauert und Ergonomienormen nicht den neuesten Stand der Ergonomie widerspiegeln können. Internationale Ergonomienormen müssen daher alle fünf Jahre überprüft und gegebenenfalls überarbeitet werden.

                                                    Bereiche der Ergonomie-Normung

                                                    Die internationale Ergonomie-Normung begann mit Leitlinien zu den allgemeinen Grundsätzen der Ergonomie bei der Gestaltung von Arbeitssystemen; sie wurden in der ISO 6385 festgelegt, die derzeit überarbeitet wird, um neue Entwicklungen aufzunehmen. Das CEN hat eine ähnliche Grundnorm (EN 614, Teil 1, 1994) erstellt – diese ist eher maschinen- und sicherheitsorientiert – und bereitet als zweiten Teil dieser Grundnorm eine Norm mit Leitlinien zur Aufgabengestaltung vor. Das CEN betont damit die Bedeutung von Bedieneraufgaben bei der Konstruktion von Maschinen oder Arbeitssystemen, für die geeignete Werkzeuge oder Maschinen konstruiert werden müssen.

                                                    Ein weiterer Bereich, in dem Konzepte und Richtlinien in Normen festgehalten wurden, ist der Bereich der psychischen Belastung. ISO 10075, Teil 1, definiert Begriffe und Konzepte (z. B. Ermüdung, Monotonie, reduzierte Wachsamkeit), und Teil 2 (im Stadium eines DIS in der zweiten Hälfte der 1990er Jahre) gibt Richtlinien für die Gestaltung von Arbeitssystemen in Bezug auf geistige Belastung, um Beeinträchtigungen zu vermeiden.

                                                    SC 3 des ISO TC 159 und WG 1 des CEN TC 122 erstellen Normen zu Anthropometrie und Biomechanik, die unter anderem Methoden der anthropometrischen Messung, Körpermaße, Sicherheitsabstände und Zugangsmaße, die Bewertung von Arbeitshaltungen und die Gestaltung von Arbeitsplätzen behandeln in Bezug auf Maschinen, empfohlene Grenzen der körperlichen Kraft und Probleme der manuellen Handhabung.

                                                    SC 4 von ISO 159 zeigt, wie sich technologische und gesellschaftliche Veränderungen auf die Ergonomienormung und das Programm eines solchen Unterkomitees auswirken. SC 4 begann als „Signals and Controls“ mit der Standardisierung von Prinzipien für die Anzeige von Informationen und dem Entwurf von Steueraktuatoren, wobei eines seiner Arbeitselemente die visuelle Anzeigeeinheit (VDU) war, die für Büroaufgaben verwendet wird. Es zeigte sich jedoch bald, dass eine Standardisierung der Ergonomie von Bildschirmgeräten nicht ausreichen würde und eine Standardisierung „um“ diesen Arbeitsplatz herum – im Sinne von a Arbeitssystem– war erforderlich und umfasste Bereiche wie Hardware (z. B. die VDU selbst, einschließlich Displays, Tastaturen, Nicht-Tastatur-Eingabegeräte, Arbeitsstationen), Arbeitsumgebung (z. B. Beleuchtung), Arbeitsorganisation (z. B. Aufgabenanforderungen) und Software ( zB Dialogprinzipien, Menü- und Direktmanipulationsdialoge). Dies führte zu einer mehrteiligen Norm (ISO 9241) zu „ergonomischen Anforderungen an die Büroarbeit mit Bildschirmen“ mit derzeit 17 Teilen, von denen 3 bereits den Status einer IS erreicht haben. Diese Norm wird an das CEN (als EN 29241) übertragen, das Anforderungen für die Bildschirmgeräterichtlinie (90/270 EWG) der EU festlegen wird – obwohl dies eine Richtlinie nach Artikel 118a der Einheitlichen Europäischen Akte ist. Diese Normenreihe enthält Richtlinien sowie Spezifikationen, je nach Thema des jeweiligen Teils der Norm, und führt ein neues Normungskonzept ein, den Benutzerleistungsansatz, der zur Lösung einiger Probleme der Ergonomienormung beitragen könnte. Es wird im Kapitel ausführlicher beschrieben Visuelle Anzeigeeinheiten .

                                                    Der User-Performance-Ansatz basiert auf der Überlegung, dass das Ziel der Normung darin besteht, Beeinträchtigungen vorzubeugen und optimale Arbeitsbedingungen für den Bediener zu schaffen, nicht aber die Festlegung technischer Spezifikationen per se. Die Spezifikation wird daher nur als Mittel zum Zweck einer ungestörten, optimalen Benutzerleistung angesehen. Wichtig ist, diese uneingeschränkte Leistungsfähigkeit des Bedieners zu erreichen, unabhängig davon, ob eine bestimmte körperliche Vorgabe erfüllt ist. Dies erfordert, dass erstens die zu erreichende ungestörte Bedienerleistung, beispielsweise die Leseleistung auf einem Bildschirm, spezifiziert werden muss und zweitens technische Spezifikationen entwickelt werden, anhand derer die gewünschte Leistung erreicht werden kann die verfügbaren Beweise. Dem Hersteller steht es dann frei, diese technischen Spezifikationen zu befolgen, die sicherstellen, dass das Produkt den ergonomischen Anforderungen entspricht. Oder er kann durch Vergleich mit einem Produkt, von dem bekannt ist, dass es die Anforderungen erfüllt (entweder durch Einhaltung der technischen Spezifikationen der Norm oder durch nachgewiesene Leistung), nachweisen, dass mit dem neuen Produkt die Leistungsanforderungen gleich oder besser erfüllt werden als mit der Referenzprodukt, mit oder ohne Einhaltung der technischen Spezifikationen der Norm. Ein Prüfverfahren, das zum Nachweis der Konformität mit den Benutzerleistungsanforderungen der Norm zu befolgen ist, ist in der Norm festgelegt.

                                                    Dieser Ansatz hilft, zwei Probleme zu überwinden. Normen können durch ihre Festlegungen, die auf dem Stand der Technik (und Technik) zum Zeitpunkt der Normerstellung beruhen, Neuentwicklungen einschränken. Spezifikationen, die auf einer bestimmten Technologie basieren (z. B. Kathodenstrahlröhren), können für andere Technologien ungeeignet sein. Unabhängig von der Technologie soll jedoch der Benutzer beispielsweise eines Anzeigegeräts die angezeigten Informationen unabhängig von der verwendeten Technik effektiv und effizient ohne Beeinträchtigung lesen und verstehen können. Die Leistung darf sich in diesem Fall jedoch nicht auf die reine Leistung (gemessen an Geschwindigkeit oder Genauigkeit) beschränken, sondern muss auch Überlegungen zu Komfort und Anstrengung beinhalten.

                                                    Das zweite Problem, das mit diesem Ansatz behandelt werden kann, ist das Problem der Wechselwirkungen zwischen Bedingungen. Die physikalische Spezifikation ist normalerweise eindimensional und lässt andere Bedingungen außer Betracht. Bei interaktiven Effekten kann dies jedoch irreführend oder sogar falsch sein. Indem man andererseits Leistungsanforderungen spezifiziert und die Mittel zu deren Erreichung dem Hersteller überlässt, ist jede Lösung, die diese Leistungsanforderungen erfüllt, akzeptabel. Spezifikation als Mittel zum Zweck zu behandeln, repräsentiert somit eine genuin ergonomische Perspektive.

                                                    Eine weitere Norm mit einem Arbeitssystemansatz ist in SC 4 in Vorbereitung, die sich auf die Gestaltung von Leitwarten beispielsweise für die Prozessindustrie oder Kraftwerke bezieht. Als Ergebnis soll eine mehrteilige Norm (ISO 11064) erstellt werden, deren verschiedene Teile sich mit Aspekten der Leitwartengestaltung wie Layout, Gestaltung von Bedienerarbeitsplätzen und Gestaltung von Anzeigen und Eingabegeräten für die Prozesssteuerung befassen. Da diese Workitems und der gewählte Ansatz deutlich über Probleme der Gestaltung von „Anzeigen und Bedienelementen“ hinausgehen, wurde SC 4 in „Mensch-System-Interaktion“ umbenannt.

                                                    Umweltprobleme, insbesondere solche in Bezug auf thermische Bedingungen und Kommunikation in lauter Umgebung, werden in SC 5 behandelt, wo Standards zu Messmethoden, Methoden zur Abschätzung von Hitzestress, thermischen Behaglichkeitsbedingungen und metabolischer Wärmeproduktion erstellt wurden oder werden , sowie auf akustische und optische Gefahrensignale, Sprachstörpegel und die Bewertung der Sprachkommunikation.

                                                    CEN TC 122 deckt ungefähr die gleichen Bereiche der Ergonomie-Normung ab, jedoch mit anderen Schwerpunkten und einer anderen Struktur seiner Arbeitsgruppen. Es ist jedoch beabsichtigt, dass durch Arbeitsteilung zwischen den Ergonomie-Ausschüssen und gegenseitige Anerkennung der Arbeitsergebnisse ein allgemeines und anwendbares Ergonomie-Standardwerk entwickelt wird.

                                                     

                                                    Zurück

                                                    Montag, Dezember 20 2010 19: 21

                                                    Zielorgan und kritische Wirkungen

                                                    Vorrangiges Ziel der Arbeits- und Umwelttoxikologie ist die Verbesserung der Vermeidung oder weitgehenden Begrenzung gesundheitlicher Auswirkungen der Exposition gegenüber gefährlichen Arbeitsstoffen im allgemeinen und beruflichen Umfeld. Zu diesem Zweck wurden Systeme zur quantitativen Risikobewertung in Bezug auf eine bestimmte Exposition entwickelt (siehe Abschnitt „Regulatorische Toxikologie“).

                                                    Die Auswirkungen einer Chemikalie auf bestimmte Systeme und Organe hängen vom Ausmaß der Exposition und davon ab, ob die Exposition akut oder chronisch ist. Angesichts der Vielfalt toxischer Wirkungen auch innerhalb eines Systems oder Organs wurde zur Risikobewertung und Entwicklung gesundheitsbasierter empfohlener Konzentrationsgrenzwerte toxischer Stoffe in unterschiedlichen Umweltmedien eine einheitliche Philosophie bezüglich des kritischen Organs und der kritischen Wirkung vorgeschlagen .

                                                    Aus Sicht der Präventivmedizin ist es von besonderer Bedeutung, frühe Nebenwirkungen zu erkennen, ausgehend von der allgemeinen Annahme, dass die Verhinderung oder Begrenzung früher Auswirkungen schwerwiegendere gesundheitliche Auswirkungen verhindern kann.

                                                    Ein solcher Ansatz wurde auf Schwermetalle angewendet. Obwohl Schwermetalle wie Blei, Cadmium und Quecksilber zu einer bestimmten Gruppe toxischer Substanzen gehören, deren chronische Wirkung von ihrer Anreicherung in den Organen abhängt, wurden die nachstehenden Definitionen von der Task Group on Metal Toxicity (Nordberg 1976).

                                                    Die von der Task Group on Metal Toxicity vorgeschlagene Definition des kritischen Organs wurde mit einer leichten Modifikation übernommen: dem Wort Metall wurde durch den Ausdruck ersetzt potenziell toxische Substanz (Duffus 1993).

                                                    Ob ein bestimmtes Organ oder System als kritisch angesehen wird, hängt nicht nur von der Toxikomechanik des gefährlichen Stoffes ab, sondern auch vom Aufnahmeweg und der exponierten Bevölkerung.

                                                    • Kritische Konzentration für eine Zelle: die Konzentration, bei der nachteilige Funktionsänderungen, reversibel oder irreversibel, in der Zelle auftreten.
                                                    • Kritische Organkonzentration: die mittlere Konzentration im Organ zu dem Zeitpunkt, an dem der empfindlichste Zelltyp im Organ die kritische Konzentration erreicht.
                                                    • Kritisches Organ: das bestimmte Organ, das unter bestimmten Expositionsbedingungen und für eine bestimmte Bevölkerungsgruppe als erstes die kritische Metallkonzentration erreicht.
                                                    • Kritischer Effekt: definierter Punkt in der Beziehung zwischen Dosis und Wirkung im Individuum, nämlich der Punkt, an dem eine Beeinträchtigung der Zellfunktion des kritischen Organs auftritt. Bei einem niedrigeren Expositionsniveau als dem, das eine kritische Metallkonzentration im kritischen Organ ergibt, können einige Wirkungen auftreten, die die Zellfunktion per se nicht beeinträchtigen, jedoch durch biochemische und andere Tests nachweisbar sind. Solche Effekte sind definiert als subkritische Effekte.

                                                     

                                                    Die biologische Bedeutung des unterkritischen Effekts ist manchmal nicht bekannt; es kann für einen Expositionsbiomarker, einen Anpassungsindex oder einen kritischen Wirkungsvorläufer stehen (siehe „Toxikologische Testmethoden: Biomarker“). Die letztgenannte Möglichkeit kann im Hinblick auf prophylaktische Aktivitäten von besonderer Bedeutung sein.

                                                    Tabelle 1 zeigt Beispiele kritischer Organe und Wirkungen für verschiedene Chemikalien. Bei chronischer umweltbedingter Cadmiumbelastung, bei der der Aufnahmeweg von untergeordneter Bedeutung ist (Cadmiumkonzentrationen in der Luft reichen von 10 bis 20 μg/m3 in der Stadt und 1 bis 2 μg/m3 in den ländlichen Gebieten) ist das kritische Organ die Niere. In der beruflichen Umgebung, wo der TLV 50 μg/m erreicht3 und die Inhalation den Hauptexpositionsweg darstellt, werden zwei Organe, Lunge und Niere, als kritisch angesehen.

                                                    Tabelle 1. Beispiele für kritische Organe und kritische Wirkungen

                                                    Substanz Kritisches Organ bei chronischer Exposition Kritischer Effekt
                                                    Cadmium Lunge Schwellenlos:
                                                    Lungenkrebs (Einheitsrisiko 4.6 x 10-3)
                                                      Niere Schwelle:
                                                    Erhöhte Ausscheidung von niedermolekularen Proteinen (β2 –M, RBP) im Urin
                                                      Lunge Emphysem leichte Funktionsänderungen
                                                    Führen (Lead) Erwachsene
                                                    Hämatopoetisches System
                                                    Erhöhte Ausscheidung von Delta-Aminolävulinsäure im Urin (ALA-U); erhöhte Konzentration von freiem Erythrozyten-Protoporphyrin (FEP) in Erythrozyten
                                                      Periphäres Nervensystem Verlangsamung der Leitungsgeschwindigkeiten der langsameren Nervenfasern
                                                    Quecksilber (elementar) Kleine Kinder
                                                    Zentrales Nervensystem
                                                    Abnahme des IQ und andere subtile Effekte; Quecksilbertremor (Finger, Lippen, Augenlider)
                                                    Quecksilber (Quecksilber) Niere Proteinurie
                                                    Mangan Erwachsene
                                                    Zentrales Nervensystem
                                                    Beeinträchtigung psychomotorischer Funktionen
                                                      weltweit
                                                    Lunge
                                                    Atemwegsbeschwerden
                                                      Zentrales Nervensystem Beeinträchtigung psychomotorischer Funktionen
                                                    Toluol Schleimhäute Reizung
                                                    Vinylchlorid Leber Krebs
                                                    (Angiosarkom-Einheitsrisiko 1 x 10-6 )
                                                    Ethylacetat Schleimhaut Reizung

                                                     

                                                    Für Blei sind die kritischen Organe bei Erwachsenen das blutbildende und das periphere Nervensystem, wo sich die kritischen Wirkungen (z. B. erhöhte Protoporphyrin-Konzentration in freien Erythrozyten (FEP), erhöhte Ausscheidung von Delta-Aminolävulinsäure im Urin oder gestörte periphere Nervenleitung) manifestieren, wenn der Blutbleispiegel (ein Index der Bleiabsorption im System) nähert sich 200 bis 300 μg/l. Bei kleinen Kindern ist das zentrale Nervensystem (ZNS) das kritische Organ, und die mit einer psychologischen Testbatterie festgestellten Funktionsstörungen treten in den untersuchten Populationen bereits bei Konzentrationen im Bereich von etwa 100 μg/l Pb auf in Blut.

                                                    Es wurden eine Reihe anderer Definitionen formuliert, die die Bedeutung des Begriffs möglicherweise besser widerspiegeln. Laut WHO (1989) wurde die kritische Wirkung definiert als „die erste nachteilige Wirkung, die auftritt, wenn die (kritische) Schwellenkonzentration oder -dosis im kritischen Organ erreicht wird. Unerwünschte Wirkungen wie Krebs ohne definierte Schwellenkonzentration werden oft als kritisch angesehen. Die Entscheidung, ob ein Effekt kritisch ist, ist eine Frage des Expertenurteils.“ Im International Programme on Chemical Safety (IPCS) werden Richtlinien zur Entwicklung entwickelt Dokumente zu Umweltgesundheitskriterienwird die kritische Wirkung beschrieben als „die nachteilige Wirkung, die als am besten geeignet zur Bestimmung der tolerierbaren Aufnahme erachtet wird“. Die letztgenannte Definition wurde direkt zum Zwecke der Bewertung der gesundheitsbasierten Expositionsgrenzwerte in der allgemeinen Umwelt formuliert. Wesentlich scheint in diesem Zusammenhang die Bestimmung zu sein, welche Wirkung als nachteilige Wirkung anzusehen ist. Nach gängiger Terminologie ist die Beeinträchtigung die „Änderung der Morphologie, Physiologie, des Wachstums, der Entwicklung oder der Lebensdauer eines Organismus, die zu einer Beeinträchtigung der Fähigkeit, zusätzliche Belastungen zu kompensieren, oder einer Erhöhung der Anfälligkeit für die schädlichen Auswirkungen anderer Umwelteinflüsse führt. Die Entscheidung darüber, ob eine Wirkung nachteilig ist oder nicht, erfordert ein Expertenurteil.“

                                                    Abbildung 1 zeigt hypothetische Dosis-Wirkungs-Kurven für verschiedene Wirkungen. Bei Bleibelastung A kann einen unterkritischen Effekt darstellen (Hemmung der Erythrozyten-ALA-Dehydratase), B der kritische Effekt (eine Erhöhung des Erythrozyten-Zink-Protoporphyrins oder eine Erhöhung der Ausscheidung von Delta-Aminolävulinsäure, C die klinische Wirkung (Anämie) und D die fatale Wirkung (Tod). Für die Bleiexposition gibt es zahlreiche Belege dafür, wie bestimmte Wirkungen der Exposition von der Bleikonzentration im Blut (praktisches Gegenstück zur Dosis) abhängig sind, entweder in Form der Dosis-Wirkungs-Beziehung oder in Bezug auf verschiedene Variablen (Geschlecht, Alter usw .). Die Bestimmung der kritischen Wirkungen und der Dosis-Wirkungs-Beziehung für solche Wirkungen beim Menschen ermöglicht es, die Häufigkeit einer bestimmten Wirkung für eine bestimmte Dosis oder ihr Gegenstück (Konzentration in biologischem Material) in einer bestimmten Population vorherzusagen.

                                                    Abbildung 1. Hypothetische Dosis-Wirkungs-Kurven für verschiedene Wirkungen

                                                    TOX080F1

                                                    Es gibt zwei Arten von kritischen Wirkungen: solche, die als grenzwertig angesehen werden, und solche, für die bei jeder Expositionshöhe ein gewisses Risiko bestehen kann (nicht grenzwertbezogene, genotoxische Karzinogene und Keimmutagene). Wann immer möglich, sollten geeignete Humandaten als Grundlage für die Risikobewertung verwendet werden. Um die Schwellenwirkungen für die allgemeine Bevölkerung zu bestimmen, müssen Annahmen über die Expositionshöhe (tolerierbare Aufnahme, Biomarker der Exposition) getroffen werden, sodass die Häufigkeit der kritischen Wirkung in der Bevölkerung, die einem bestimmten gefährlichen Stoff ausgesetzt ist, der Häufigkeit entspricht dieser Wirkung in der allgemeinen Bevölkerung. Bei Bleiexposition liegt die maximal empfohlene Blutbleikonzentration für die Allgemeinbevölkerung (200 µg/l, Median unter 100 µg/l) (WHO 1987) praktisch unter dem Schwellenwert für die angenommene kritische Wirkung – der erhöhte freie Erythrozyten-Protoporphyrin-Spiegel ist zwar vorhanden nicht unter dem Wert liegt, der mit Auswirkungen auf das ZNS bei Kindern oder dem Blutdruck bei Erwachsenen verbunden ist. Wenn Daten aus gut durchgeführten Studien am Menschen, die eine Konzentration ohne beobachtete Nebenwirkungen definieren, die Grundlage für die Sicherheitsbewertung bilden, wurde im Allgemeinen ein Unsicherheitsfaktor von zehn als angemessen erachtet. Bei beruflicher Exposition können sich die kritischen Wirkungen auf einen bestimmten Teil der Bevölkerung (z. B. 10 %) beziehen. Dementsprechend wurde bei beruflicher Bleiexposition die empfohlene gesundheitsbasierte Blutbleikonzentration auf 400 mg/l bei Männern festgelegt, wobei ein 10%iger Ansprechwert für ALA-U von 5 mg/l bei PbB-Konzentrationen von etwa 300 bis 400 mg/l auftrat . Für die berufliche Exposition gegenüber Cadmium (unter Annahme der erhöhten Urinausscheidung von Proteinen mit geringem Gewicht als kritischer Effekt) wurde der Gehalt von 200 ppm Cadmium in der Nierenrinde als zulässiger Wert angesehen, da dieser Effekt in 10 % der Fälle beobachtet wurde die exponierte Bevölkerung. Diese beiden Werte werden derzeit (dh 1996) in vielen Ländern über eine Senkung erwogen.

                                                    Es gibt keinen klaren Konsens über eine geeignete Methodik für die Risikobewertung von Chemikalien, für die die kritische Wirkung möglicherweise keinen Schwellenwert hat, wie z. B. genotoxische Karzinogene. Eine Reihe von Ansätzen, die weitgehend auf der Charakterisierung der Dosis-Wirkungs-Beziehung beruhen, wurden zur Bewertung solcher Wirkungen übernommen. Aufgrund der fehlenden gesellschaftspolitischen Akzeptanz von Gesundheitsrisiken durch Karzinogene in Dokumenten wie z Luftqualitätsrichtlinien für Europa (WHO 1987) nur die Werte wie das Einheitslebensdauerrisiko (d. h. das Risiko, das mit einer lebenslangen Exposition gegenüber 1 μg/m3 des gefährlichen Stoffes) werden für Wirkungen ohne Schwellenwert angegeben (siehe „Regulatorische Toxikologie“).

                                                    Derzeit besteht der grundlegende Schritt bei der Durchführung von Aktivitäten zur Risikobewertung in der Bestimmung des kritischen Organs und der kritischen Auswirkungen. Die Definitionen sowohl der kritischen als auch der schädlichen Wirkung spiegeln die Verantwortung wider, zu entscheiden, welche der Wirkungen innerhalb eines bestimmten Organs oder Systems als kritisch angesehen werden sollten, und dies steht in direktem Zusammenhang mit der anschließenden Bestimmung empfohlener Werte für eine bestimmte Chemikalie in der allgemeinen Umgebung -zum Beispiel, Luftqualitätsrichtlinien für Europa (WHO 1987) oder gesundheitsbasierte Grenzwerte bei beruflicher Exposition (WHO 1980). Die Bestimmung der kritischen Wirkung innerhalb des Bereichs der unterkritischen Wirkungen kann zu einer Situation führen, in der die empfohlenen Grenzwerte für die Konzentration toxischer Chemikalien in der allgemeinen oder beruflichen Umgebung in der Praxis unmöglich einzuhalten sind. Wenn eine Wirkung, die sich möglicherweise mit den frühen klinischen Wirkungen überschneidet, als kritisch betrachtet wird, kann dies dazu führen, dass die Werte angenommen werden, bei denen sich in einem Teil der Bevölkerung unerwünschte Wirkungen entwickeln können. Die Entscheidung, ob eine bestimmte Wirkung als kritisch einzustufen ist oder nicht, liegt in der Verantwortung von Expertengruppen, die auf Toxizitäts- und Risikobewertung spezialisiert sind.

                                                     

                                                    Zurück

                                                    Montag, Februar 28 2011 20: 21

                                                    Organische Lösungsmittel

                                                    Einleitung

                                                    Organische Lösungsmittel sind flüchtig und im Allgemeinen in Körperfett löslich (lipophil), obwohl einige von ihnen, z. B. Methanol und Aceton, auch wasserlöslich (hydrophil) sind. Sie wurden nicht nur in der Industrie, sondern auch in Konsumgütern wie Farben, Tinten, Verdünnern, Entfettern, Trockenreinigungsmitteln, Fleckenentfernern, Abwehrmitteln und so weiter in großem Umfang eingesetzt. Obwohl es möglich ist, ein biologisches Monitoring anzuwenden, um gesundheitliche Auswirkungen zu erkennen, z. B. Auswirkungen auf die Leber und die Niere, zum Zwecke der Gesundheitsüberwachung von Arbeitnehmern, die beruflich organischen Lösungsmitteln ausgesetzt sind, ist es am besten, stattdessen ein biologisches Monitoring zu verwenden für „ „Exposition“-Überwachung, um die Gesundheit der Arbeitnehmer vor der Toxizität dieser Lösungsmittel zu schützen, da dies ein Ansatz ist, der sensibel genug ist, um Warnungen auszusprechen, lange bevor gesundheitliche Auswirkungen auftreten können. Das Screening von Arbeitnehmern auf eine hohe Empfindlichkeit gegenüber Lösungsmitteltoxizität kann ebenfalls zum Schutz ihrer Gesundheit beitragen.

                                                    Zusammenfassung der Toxikokinetik

                                                    Organische Lösungsmittel sind im Allgemeinen unter Standardbedingungen flüchtig, obwohl die Flüchtigkeit von Lösungsmittel zu Lösungsmittel unterschiedlich ist. Daher ist der Hauptexpositionsweg in industriellen Umgebungen die Inhalation. Die Absorptionsrate durch die Alveolarwand der Lunge ist viel höher als die durch die Wand des Verdauungstrakts, und eine Lungenabsorptionsrate von etwa 50 % wird als typisch für viele gebräuchliche Lösungsmittel wie Toluol angesehen. Einige Lösungsmittel, z. B. Schwefelkohlenstoff und N,N-Dimethylformamid, können in flüssigem Zustand in so großen Mengen intakte menschliche Haut durchdringen, dass sie toxisch wirken.

                                                    Bei der Aufnahme dieser Lösungsmittel wird ein Teil ohne Biotransformation über die Atemluft ausgeatmet, der größere Teil jedoch aufgrund ihrer Lipophilie in lipidreichen Organen und Geweben verteilt. Die Biotransformation findet hauptsächlich in der Leber statt (und in geringem Umfang auch in anderen Organen), und das Lösungsmittelmolekül wird hydrophiler, typischerweise durch einen Oxidationsprozess mit anschließender Konjugation, um als Metabolit(e) über die Niere in den Urin ausgeschieden zu werden ). Ein kleiner Teil kann unverändert mit dem Urin ausgeschieden werden.

                                                    Somit stehen aus praktischer Sicht drei biologische Materialien, Urin, Blut und Atemluft, für die Expositionsüberwachung von Lösungsmitteln zur Verfügung. Ein weiterer wichtiger Faktor bei der Auswahl biologischer Materialien für die Expositionsüberwachung ist die Geschwindigkeit des Verschwindens der absorbierten Substanz, für die die biologische Halbwertszeit oder die Zeit, die eine Substanz benötigt, um auf die Hälfte ihrer ursprünglichen Konzentration abzunehmen, ein quantitativer Parameter ist. Beispielsweise verschwinden Lösungsmittel viel schneller aus der ausgeatmeten Luft als entsprechende Metaboliten aus dem Urin, was bedeutet, dass sie eine viel kürzere Halbwertszeit haben. Innerhalb von Metaboliten im Urin variiert die biologische Halbwertszeit in Abhängigkeit davon, wie schnell die Ausgangsverbindung metabolisiert wird, so dass die Probenahmezeit in Bezug auf die Exposition oft von entscheidender Bedeutung ist (siehe unten). Eine dritte Überlegung bei der Auswahl eines biologischen Materials ist die Spezifität der zu analysierenden Zielchemikalie in Bezug auf die Exposition. Beispielsweise ist Hippursäure ein seit langem verwendeter Marker für Toluol-Exposition, aber sie wird nicht nur auf natürliche Weise vom Körper gebildet, sondern kann auch aus nicht-beruflichen Quellen wie einigen Lebensmittelzusatzstoffen stammen und gilt nicht mehr als zuverlässig Markierung, wenn die Toluolbelastung gering ist (weniger als 50 cm3/m3). Im Allgemeinen wurden Metaboliten im Urin am häufigsten als Indikatoren für die Exposition gegenüber verschiedenen organischen Lösungsmitteln verwendet. Lösungsmittel im Blut wird als qualitatives Expositionsmaß analysiert, da es normalerweise kürzer im Blut verbleibt und eher eine akute Exposition widerspiegelt, während Lösungsmittel in der Ausatemluft zur Abschätzung der durchschnittlichen Exposition schwierig zu verwenden ist, da die Konzentration in der Atemluft so abnimmt schnell nach Beendigung der Exposition. Lösungsmittel im Urin ist ein vielversprechender Kandidat als Expositionsmaß, bedarf jedoch weiterer Validierung.

                                                    Biologische Expositionstests für organische Lösungsmittel

                                                    Bei der Anwendung der biologischen Überwachung auf Lösungsmittelexposition ist die Probenahmezeit wichtig, wie oben angegeben. Tabelle 1 zeigt empfohlene Probenahmezeiten für gängige Lösungsmittel bei der Überwachung der täglichen beruflichen Exposition. Wenn das Lösungsmittel selbst analysiert werden soll, sollte darauf geachtet werden, dass ein möglicher Verlust (z. B. Verdunstung in die Raumluft) sowie eine Kontamination (z. B. Auflösen aus der Raumluft in die Probe) während des Probenhandhabungsprozesses verhindert werden. Falls die Proben zu einem entfernten Labor transportiert oder vor der Analyse gelagert werden müssen, ist darauf zu achten, dass sie nicht verloren gehen. Für Metaboliten wird das Einfrieren empfohlen, während für die Analyse des Lösungsmittels selbst eine Kühlung (aber kein Einfrieren) in einem luftdichten Behälter ohne Luftraum (oder besser noch in einem Headspace-Fläschchen) empfohlen wird. In der chemischen Analytik ist die Qualitätskontrolle für verlässliche Ergebnisse unerlässlich (Details siehe Artikel „Qualitätssicherung“ in diesem Kapitel). Bei der Berichterstattung über die Ergebnisse sollte die Ethik respektiert werden (siehe Kapitel Ethische Fragen anderswo in der Enzyklopädie).

                                                    Tabelle 1. Einige Beispiele für Zielchemikalien für die biologische Überwachung und Probenahmezeit

                                                    Lösungsmittel

                                                    Zielchemikalie

                                                    Urin/Blut

                                                    Abtastzeit1

                                                    Schwefelkohlenstoff

                                                    2-Thiothiazolidin-4-carbonsäure

                                                    Urin

                                                    D F

                                                    N,N-Dimethylformamid

                                                    N-Methylformamid

                                                    Urin

                                                    M Di W Do F

                                                    2-Ethoxyethanol und sein Acetat

                                                    Ethoxyessigsäure

                                                    Urin

                                                    Do F (Ende der letzten Schicht)

                                                    Hexane

                                                    2,4-Hexandion

                                                    Hexane

                                                    Urin

                                                    Blut

                                                    M Di W Do F

                                                    Bestätigung der Exposition

                                                    Methanol

                                                    Methanol

                                                    Urin

                                                    M Di W Do F

                                                    Styrol

                                                    Mandelsäure

                                                    Phenylglyoxylsäure

                                                    Styrol

                                                    Urin

                                                    Urin

                                                    Blut

                                                    D F

                                                    D F

                                                    Bestätigung der Exposition

                                                    Toluol

                                                    Hippursäure

                                                    o-Kresol

                                                    Toluol

                                                    Toluol

                                                    Urin

                                                    Urin

                                                    Blut

                                                    Urin

                                                    Tu W Do F

                                                    Tu W Do F

                                                    Bestätigung der Exposition

                                                    Tu W Do F

                                                    Trichlorethylen

                                                    Trichloressigsäure

                                                    (TCA)

                                                    Gesamttrichlorverbindungen (Summe aus TCA und freiem und konjugiertem Trichlorethanol)

                                                    Trichlorethylen

                                                    Urin

                                                    Urin

                                                    Blut

                                                    D F

                                                    D F

                                                    Bestätigung der Exposition

                                                    Xylole2

                                                    Methylhippursäuren

                                                    Xylole

                                                    Urin

                                                    Blut

                                                    Tu W Do F

                                                    Tu W Do F

                                                    1 Ende der Arbeitsschicht, sofern nicht anders angegeben: Wochentage geben bevorzugte Probenahmetage an.
                                                    2 Drei Isomere, entweder einzeln oder in beliebiger Kombination.

                                                    Quelle: Zusammengefasst aus WHO 1996.

                                                     

                                                    Für viele Lösungsmittel sind eine Reihe analytischer Verfahren etabliert. Die Methoden variieren je nach Zielchemikalie, aber die meisten der kürzlich entwickelten Methoden verwenden Gaschromatographie (GC) oder Hochleistungsflüssigkeitschromatographie (HPLC) zur Trennung. Für eine gute Qualitätskontrolle bei der chemischen Analyse wird die Verwendung eines Autosamplers und Datenprozessors empfohlen. Wenn ein Lösungsmittel selbst im Blut oder im Urin analysiert werden soll, ist eine Anwendung der Headspace-Technik in der GC (Headspace-GC) sehr praktisch, insbesondere wenn das Lösungsmittel flüchtig genug ist. Tabelle 2 zeigt einige Beispiele für etablierte Methoden für gängige Lösungsmittel.

                                                    Tabelle 2. Einige Beispiele für Analysemethoden zur biologischen Überwachung der Exposition gegenüber organischen Lösungsmitteln

                                                    Lösungsmittel

                                                    Zielchemikalie

                                                    Blut/Urin

                                                    Analytische Methode

                                                    Schwefelkohlenstoff

                                                    2-Thiothiazolidin-4-
                                                    Carbonsäure

                                                    Urin

                                                    Hochleistungs-Flüssigkeitschromatograph mit UV-Detektion

                                                    (UV-HPLC)

                                                    N, N-Dimethylformamid

                                                    N-Methylformamid

                                                    Urin

                                                    Gaschromatograph mit flammenthermionischer Detektion (FTD-GC)

                                                    2-Ethoxyethanol und sein Acetat

                                                    Ethoxyessigsäure

                                                    Urin

                                                    Extraktion, Derivatisierung und Gaschromatograph mit Flammenionisationsdetektion (FID-GC)

                                                    Hexane

                                                    2,4-Hexandion

                                                    Hexane

                                                    Urin

                                                    Blut

                                                    Extraktion, (Hydrolyse) und FID-GC

                                                    Headspace-FID-GC

                                                    Methanol

                                                    Methanol

                                                    Urin

                                                    Headspace-FID-GC

                                                    Styrol

                                                    Mandelsäure

                                                    Phenylglyoxylsäure

                                                    Styrol

                                                    Urin

                                                    Urin

                                                    Blut

                                                    Entsalzung und UV-HPLC

                                                    Entsalzung und UV-HPLC

                                                    Headspace-FID-GC

                                                    Toluol

                                                    Hippursäure

                                                    o-Kresol

                                                    Toluol

                                                    Toluol

                                                    Urin

                                                    Urin

                                                    Blut

                                                    Urin

                                                    Entsalzung und UV-HPLC

                                                    Hydrolyse, Extraktion und FID-GC

                                                    Headspace-FID-GC

                                                    Headspace-FID-GC

                                                    Trichlorethylen

                                                    Trichloressigsäure
                                                    (TCA)

                                                    Gesamttrichlorverbindungen (Summe aus TCA und freiem und konjugiertem Trichlorethanol)

                                                    Trichlorethylen

                                                    Urin

                                                    Urin

                                                    Blut

                                                    Kolorimetrie oder Veresterung und Gaschromatograph mit Elektroneneinfangdetektion (ECD-GC)

                                                    Oxidation und Kolorimetrie oder Hydrolyse, Oxidation, Veresterung und ECD-GC

                                                    Headspace-ECD-GC

                                                    Xylole

                                                    Methylhippursäuren (drei Isomere, entweder einzeln oder in Kombination)

                                                    Urin

                                                    Headspace-FID-GC

                                                    Quelle: Zusammengefasst aus WHO 1996.

                                                    Evaluierung

                                                    Eine lineare Beziehung der Expositionsindikatoren (aufgeführt in Tabelle 2) mit der Intensität der Exposition gegenüber entsprechenden Lösungsmitteln kann entweder durch eine Befragung von Arbeitern, die beruflich gegenüber Lösungsmitteln exponiert sind, oder durch experimentelle Exposition von menschlichen Probanden hergestellt werden. Dementsprechend haben zB die ACGIH (1994) und die DFG (1994) den biologischen Expositionsindex (BEI) bzw. den biologischen Toleranzwert (BAT) als den beruflichen äquivalenten Werten in den biologischen Proben festgelegt Expositionsgrenzwerte für luftgetragene Chemikalien, dh Schwellenwert (TLV) bzw. maximale Arbeitsplatzkonzentration (MAK). Es ist jedoch bekannt, dass die Konzentration der Zielchemikalie in Proben, die von nicht exponierten Personen entnommen wurden, variieren kann, was beispielsweise lokale Gepflogenheiten (z. B. Lebensmittel) widerspiegelt, und dass ethnische Unterschiede im Lösungsmittelstoffwechsel bestehen können. Es ist daher wünschenswert, Grenzwerte durch die Untersuchung der betroffenen lokalen Bevölkerung festzulegen.

                                                    Bei der Bewertung der Ergebnisse sollten eine nichtberufliche Exposition gegenüber dem Lösungsmittel (z. B. durch Verwendung von lösungsmittelhaltigen Verbraucherprodukten oder absichtliches Einatmen) und eine Exposition gegenüber Chemikalien, die zu denselben Metaboliten führen (z. B. einige Lebensmittelzusatzstoffe), sorgfältig ausgeschlossen werden. Falls eine große Lücke zwischen der Intensität der Dampfexposition und den Ergebnissen der biologischen Überwachung besteht, kann der Unterschied auf die Möglichkeit einer Hautabsorption hinweisen. Zigarettenrauchen unterdrückt den Metabolismus einiger Lösungsmittel (z. B. Toluol), während eine akute Ethanolaufnahme den Methanolmetabolismus kompetitiv unterdrücken kann.

                                                     

                                                    Zurück

                                                    Seite 1 von 7

                                                    HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."

                                                    Inhalte