27. Surveillance biologique
Éditeur de chapitre : Robert Lauwerys
Table des matières
Principes généraux
Vito Foà et Lorenzo Alessio
Assurance qualité
D. Gompertz
Métaux et composés organométalliques
P. Hoet et Robert Lauwerys
Solvants organiques
Masayuki Ikeda
Produits chimiques génotoxiques
Marja Sorsa
Pesticides
Marco Maroni et Adalberto Ferioli
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. ACGIH, DFG et autres valeurs limites pour les métaux
2. Exemples de produits chimiques et de surveillance biologique
3. Surveillance biologique des solvants organiques
4. Génotoxicité des produits chimiques évaluée par le CIRC
5. Biomarqueurs et certains échantillons de cellules/tissus et génotoxicité
6. Agents cancérigènes pour l'homme, exposition professionnelle et paramètres cytogénétiques
8. Exposition due à la production et à l'utilisation de pesticides
9. Toxicité aiguë de l'OP à différents niveaux d'inhibition de l'ACHE
10. Variations de ACHE & PCHE et conditions de santé sélectionnées
11. Activités de la cholinestérase chez des personnes en bonne santé non exposées
12. Phosphates d'alkyle urinaires et pesticides OP
13. Dosage des alkylphosphates urinaires & OP
14. Métabolites urinaires des carbamates
15. Métabolites urinaires du dithiocarbamate
16. Indices proposés pour la surveillance biologique des pesticides
17. Valeurs limites biologiques recommandées (à partir de 1996)
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
28. Épidémiologie et statistiques
Éditeurs de chapitre : Franco Merletti, Colin L. Soskolne et Paolo Vineis
Méthode épidémiologique appliquée à la santé et à la sécurité au travail
Franco Merletti, Colin L. Soskolne et Paolo Vineis
Évaluation de l'exposition
M. Gérald Ott
Résumé des mesures d'exposition au travail
Colin L. Soskolné
Mesurer les effets des expositions
Shelia Hoar Zahm
Étude de cas : Mesures
Franco Merletti, Colin L. Soskolne et Paola Vineis
Options dans la conception de l'étude
Sven Hernberg
Problèmes de validité dans la conception de l'étude
Annie J.Sasco
Impact de l'erreur de mesure aléatoire
Paolo Vineis et Colin L. Soskolne
Méthodes statistiques
Annibale Biggeri et Mario Braga
Évaluation de la causalité et éthique dans la recherche épidémiologique
Paolo Vineis
Études de cas illustrant les enjeux méthodologiques de la surveillance des maladies professionnelles
Jung-Der Wang
Questionnaires en recherche épidémiologique
Steven D. Stellman et Colin L. Soskolne
Perspective historique de l'amiante
Laurent Garfinkel
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. Cinq mesures sommaires sélectionnées de l'exposition au travail
2. Mesures de l'apparition de la maladie
3. Mesures d'association pour une étude de cohorte
4. Mesures d'association pour les études cas-témoins
5. Disposition générale du tableau de fréquence pour les données de cohorte
6. Exemple de mise en page des données cas-témoins
7. Mise en page des données cas-témoin - un contrôle par cas
8. Cohorte hypothétique de 1950 individus à T2
9. Indices de tendance centrale & dispersion
10. Une expérience binomiale & probabilités
11. Résultats possibles d'une expérience binomiale
12. Distribution binomiale, 15 succès/30 essais
13. Distribution binomiale, p = 0.25 ; 30 essais
14. Erreur de type II et alimentation ; x = 12, n = 30, a = 0.05
15. Erreur de type II et alimentation ; x = 12, n = 40, a = 0.05
16. 632 travailleurs exposés à l'amiante 20 ans ou plus
17. O/E nombre de décès parmi 632 travailleurs de l'amiante
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
29. Ergonomie
Éditeurs de chapitre : Wolfgang Laurig et Joachim Vedder
Table des matières
Vue d'ensemble
Wolfgang Laurig et Joachim Vedder
La nature et les objectifs de l'ergonomie
William T.Singleton
Analyse des activités, des tâches et des systèmes de travail
Véronique De Keyser
Ergonomie et standardisation
Friedhelm Nachreiner
Listes de contrôle
Pranab Kumar Nag
Anthropométrie
Melchiorre Masali
Travail musculaire
Juhani Smolander et Veikko Louhevaara
Postures au travail
Ilkka Kuorinka
Biomécanique
Franck Darby
Fatigue générale
Étienne Grandjean
Fatigue et récupération
Rolf Helbig et Walter Rohmert
Charge de travail mentale
Winfried Hacker
Vigilance
Herbert Heuer
Fatigue mentale
Pierre Richter
Organisation du travail
Eberhard Ulich et Gudela Grote
Privation de sommeil
Kazutaka Kogi
Stations de travail
Roland Kadefors
Outils
TM Fraser
Commandes, indicateurs et panneaux
Karl HE Kroemer
Traitement de l'information et conception
Andries F. Sanders
Concevoir pour des groupes spécifiques
Blague H. Grady-van den Nieuwboer
Étude de cas : La classification internationale des limitations fonctionnelles chez les personnes
Les différences culturelles
Houshang Shahnavaz
Travailleurs âgés
Antoine Laville et Serge Volkoff
Travailleurs ayant des besoins spéciaux
Blague H. Grady-van den Nieuwboer
Conception de systèmes dans la fabrication de diamants
Issacar Guilad
Ne pas tenir compte des principes de conception ergonomique : Tchernobyl
Vladimir M. Munipov
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. Liste de base anthropométrique de base
2. Fatigue et récupération en fonction des niveaux d'activité
3. Règles de combinaison des effets de deux facteurs de stress sur la déformation
4. Faire la différence entre plusieurs conséquences négatives de la tension mentale
5. Principes axés sur le travail pour la structuration de la production
6. Participation au contexte organisationnel
7. Participation des utilisateurs au processus technologique
8. Horaires de travail irréguliers et privation de sommeil
9. Aspects des sommeils avancés, ancrés et retardés
10. Contrôler les mouvements et les effets attendus
11. Relations contrôle-effet des commandes manuelles courantes
12. Règles de disposition des commandes
13. Lignes directrices pour les étiquettes
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
30. Hygiène du travail
Éditeur de chapitre : Robert F. Herrick
Table des matières
Objectifs, définitions et informations générales
Bérénice I. Ferrari Goelzer
Reconnaissance des dangers
Linnéa Lillienberg
Évaluation de l'environnement de travail
Lori A.Todd
Hygiène du travail : contrôle des expositions par l'intervention
James Stewart
La base biologique de l'évaluation de l'exposition
Dick Heederik
Limites d'exposition professionnelle
Dennis J. Paustenbach
1. Dangers des produits chimiques ; agents biologiques et physiques
2. Limites d'exposition professionnelle (LEP) - divers pays
31. Protection personnelle
Éditeur de chapitre : Robert F. Herrick
Table des matières
Présentation et philosophie de la protection personnelle
Robert F. Herrick
Protecteurs des yeux et du visage
Kikuzi Kimura
Protection des pieds et des jambes
Toyohiko Miura
Protection de la tête
Isabelle Balty et Alain Mayer
Protection auditive
John R. Franks et Elliott H. Berger
Vêtements de protection
S.Zack Mansdorf
Protection respiratoire
Thomas J. Nelson
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. Exigences de transmission (ISO 4850-1979)
2. Balances de protection - soudage au gaz et soudo-brasage
3. Echelles de protection - oxycoupage
4. Échelles de protection - coupage plasma
5. Échelles de protection - soudage à l'arc électrique ou gougeage
6. Échelles de protection - soudage plasma à l'arc direct
7. Casque de sécurité : Norme ISO 3873-1977
8. Taux de réduction du bruit d'un protecteur auditif
9. Calcul de la réduction de bruit pondérée A
10. Exemples de catégories de danger cutané
11. Exigences de performances physiques, chimiques et biologiques
12. Dangers matériels associés à des activités particulières
13. Facteurs de protection attribués selon ANSI Z88 2 (1992)
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
32. Systèmes d'enregistrement et surveillance
Éditeur de chapitre : Steven D.Stellman
Table des matières
Systèmes de surveillance et de notification des maladies professionnelles
Steven B. Markowitz
Surveillance des risques professionnels
David H. Wegman et Steven D. Stellman
Surveillance dans les pays en développement
David Koh et Kee-Seng Chia
Élaboration et application d'un système de classification des lésions et maladies professionnelles
Élyce Biddle
Analyse des risques des blessures et maladies professionnelles non mortelles
John W.Ruser
Étude de cas : Protection des travailleurs et statistiques sur les accidents et les maladies professionnelles - HVBG, Allemagne
Martin Butz et Burkhard Hoffmann
Étude de cas : Wismut - Une exposition à l'uranium revisitée
Heinz Otten et Horst Schulz
Stratégies et techniques de mesure pour l'évaluation de l'exposition professionnelle en épidémiologie
Frank Bochmann et Helmut Blome
Étude de cas : Enquêtes sur la santé au travail en Chine
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. Angiosarcome du foie - registre mondial
2. Maladie professionnelle, États-Unis, 1986 par rapport à 1992
3. États-Unis Décès dus à la pneumoconiose et au mésothéliome pleural
4. Exemple de liste de maladies professionnelles à déclaration obligatoire
5. Structure du code de déclaration des maladies et des blessures, États-Unis
6. Blessures et maladies professionnelles non mortelles, États-Unis 1993
7. Risque d'accidents du travail et de maladies professionnelles
8. Risque relatif pour les conditions de mouvement répétitif
9. Accidents du travail, Allemagne, 1981-93
10. Rectifieuses dans les accidents de la métallurgie, Allemagne, 1984-93
11. Maladie professionnelle, Allemagne, 1980-93
12. Maladies infectieuses, Allemagne, 1980-93
13. Exposition aux radiations dans les mines de Wismut
14. Maladies professionnelles dans les mines d'uranium de Wismut 1952-90
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
33. Toxicologie
Rédactrice de chapitre : Ellen K. Silbergeld
Introduction
Ellen K. Silbergeld, rédactrice en chef
Définitions et concepts
Bo Holmberg, Johan Hogberg et Gunnar Johanson
Toxicocinétique
Dušan Djuric
Organe cible et effets critiques
Marek Jakubowski
Effets de l'âge, du sexe et d'autres facteurs
Spomenka Telishman
Déterminants génétiques de la réponse toxique
Daniel W. Nebert et Ross A. McKinnon
Introduction et notions
Philip G. Watanabe
Lésion cellulaire et mort cellulaire
Benjamin F. Trump et Irene K. Berezesky
Toxicologie génétique
R. Rita Misra et Michael P. Waalkes
Immunotoxicologie
Joseph G. Vos et Henk van Loveren
Toxicologie des organes cibles
Ellen K.Silbergeld
Biomarqueurs
Philippe Grandjean
Évaluation de la toxicité génétique
David M. DeMarini et James Huff
Tests de toxicité in vitro
Joanne Zurlo
Structurer les relations d'activité
Ellen K.Silbergeld
Toxicologie dans la réglementation de la santé et de la sécurité
Ellen K.Silbergeld
Principes d'identification des dangers - L'approche japonaise
Masayuki Ikeda
L'approche des États-Unis en matière d'évaluation des risques des toxiques pour la reproduction et des agents neurotoxiques
Ellen K.Silbergeld
Approches d'identification des dangers - IARC
Harri Vainio et Julian Wilbourn
Évaluation du risque cancérigène : autres approches
Cees A. van der Heijden
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
Concepts de base et définitions
Sur le lieu de travail, les méthodologies d'hygiène industrielle ne peuvent mesurer et contrôler que les produits chimiques en suspension dans l'air, tandis que d'autres aspects du problème d'éventuels agents nocifs dans l'environnement des travailleurs, tels que l'absorption cutanée, l'ingestion et l'exposition non liée au travail, restent non détectés et donc incontrôlé. La surveillance biologique permet de combler cette lacune.
Surveillance biologique a été défini lors d'un séminaire de 1980, parrainé conjointement par la Communauté économique européenne (CEE), l'Institut national pour la sécurité et la santé au travail (NIOSH) et l'Association pour la sécurité et la santé au travail (OSHA) (Berlin, Yodaiken et Henman 1984) au Luxembourg comme "le la mesure et l'évaluation des agents ou de leurs métabolites soit dans les tissus, les sécrétions, les excréments, l'air expiré ou toute combinaison de ceux-ci pour évaluer l'exposition et le risque pour la santé par rapport à une référence appropriée ». La surveillance est une activité répétitive, régulière et préventive destinée à conduire, si nécessaire, à des actions correctives ; il ne faut pas le confondre avec les procédures de diagnostic.
La surveillance biologique est l'un des trois outils importants de la prévention des maladies dues aux agents toxiques de l'environnement général ou professionnel, les deux autres étant la surveillance environnementale et la surveillance sanitaire.
La séquence dans le développement possible d'une telle maladie peut être schématiquement représentée comme suit : agent chimique exposé à la source - dose interne - effet biochimique ou cellulaire (réversible) - effets sur la santé - maladie. Les relations entre la surveillance de l'environnement, de la biologie et de l'exposition et la surveillance de la santé sont illustrées à la figure 1.
Figure 1. Relation entre la surveillance environnementale, biologique et de l'exposition, et la surveillance de la santé
Lorsqu'une substance toxique (un produit chimique industriel par exemple) est présente dans l'environnement, elle contamine l'air, l'eau, les aliments ou les surfaces en contact avec la peau ; la quantité d'agent toxique dans ces milieux est évaluée via surveillance de l'environnement.
En raison de l'absorption, de la distribution, du métabolisme et de l'excrétion, un certain dose interne de l'agent toxique (la quantité nette d'un polluant absorbée ou passée à travers l'organisme sur un intervalle de temps spécifique) est effectivement délivrée à l'organisme et devient détectable dans les fluides corporels. En raison de son interaction avec un récepteur dans le organe critique (l'organe qui, dans des conditions d'exposition spécifiques, présente le premier ou le plus important effet indésirable), des événements biochimiques et cellulaires se produisent. La dose interne et les effets biochimiques et cellulaires induits peuvent être mesurés par la surveillance biologique.
Surveillance de la santé a été défini lors du séminaire CEE/NIOSH/OSHA de 1980 susmentionné comme «l'examen médico-physiologique périodique des travailleurs exposés dans le but de protéger la santé et de prévenir les maladies».
La surveillance biologique et la surveillance sanitaire s'inscrivent dans un continuum qui peut aller du dosage d'agents ou de leurs métabolites dans l'organisme en passant par l'évaluation des effets biochimiques et cellulaires, jusqu'à la détection de signes d'atteinte précoce et réversible de l'organe critique. La détection d'une maladie établie n'entre pas dans le cadre de ces évaluations.
Objectifs de la surveillance biologique
La surveillance biologique peut être divisée en (a) surveillance de l'exposition et (b) surveillance de l'effet, pour lesquelles des indicateurs de dose interne et d'effet sont utilisés respectivement.
Le but de la surveillance biologique de l'exposition est d'évaluer le risque pour la santé par l'évaluation de la dose interne, en obtenant une estimation de la charge corporelle biologiquement active du produit chimique en question. Son objectif est de s'assurer que l'exposition des travailleurs n'atteint pas des niveaux susceptibles de provoquer des effets indésirables. Un effet est dit « défavorable » s'il existe une altération de la capacité fonctionnelle, une diminution de la capacité à compenser un stress supplémentaire, une diminution de la capacité à maintenir l'homéostasie (un état d'équilibre stable) ou une susceptibilité accrue à d'autres influences environnementales.
Selon le produit chimique et le paramètre biologique analysé, le terme dose interne peut avoir différentes significations (Bernard et Lauwerys 1987). Premièrement, cela peut signifier la quantité d'un produit chimique récemment absorbé, par exemple, au cours d'un seul poste de travail. Une détermination de la concentration du polluant dans l'air alvéolaire ou dans le sang peut être faite pendant le poste de travail lui-même, ou jusqu'au lendemain (des prélèvements de sang ou d'air alvéolaire peuvent être effectués jusqu'à 16 heures après la fin de la période d'exposition) . Deuxièmement, dans le cas où le produit chimique a une longue demi-vie biologique - par exemple, des métaux dans le sang - la dose interne pourrait refléter la quantité absorbée sur une période de quelques mois.
Troisièmement, le terme peut également signifier la quantité de produits chimiques stockés. Dans ce cas, il représente un indicateur d'accumulation qui peut fournir une estimation de la concentration du produit chimique dans les organes et/ou les tissus à partir desquels, une fois déposé, il n'est que lentement libéré. Par exemple, les mesures de DDT ou de PCB dans le sang pourraient fournir une telle estimation.
Enfin, une valeur de dose interne peut indiquer la quantité du produit chimique au site où il exerce ses effets, fournissant ainsi des informations sur la dose biologiquement efficace. L'une des utilisations les plus prometteuses et les plus importantes de cette capacité, par exemple, est la détermination des adduits formés par des produits chimiques toxiques avec des protéines dans l'hémoglobine ou avec l'ADN.
La surveillance biologique des effets vise à identifier les altérations précoces et réversibles qui se développent dans l'organe critique, et qui, en même temps, peuvent identifier les individus présentant des signes d'effets néfastes sur la santé. En ce sens, la surveillance biologique des effets représente le principal outil de surveillance de la santé des travailleurs.
Principales méthodes de surveillance
La surveillance biologique de l'exposition repose sur la détermination d'indicateurs de dose interne en mesurant :
Les facteurs affectant la concentration du produit chimique et de ses métabolites dans le sang ou l'urine seront discutés ci-dessous.
En ce qui concerne la concentration dans l'air alvéolaire, outre le niveau d'exposition environnementale, les facteurs les plus importants impliqués sont la solubilité et le métabolisme de la substance inhalée, la ventilation alvéolaire, le débit cardiaque et la durée d'exposition (Brugnone et al. 1980).
L'utilisation d'adduits à l'ADN et à l'hémoglobine dans la surveillance de l'exposition humaine à des substances ayant un potentiel cancérigène est une technique très prometteuse pour mesurer les expositions de faible niveau. (Il convient de noter, cependant, que tous les produits chimiques qui se lient aux macromolécules dans l'organisme humain ne sont pas génotoxiques, c'est-à-dire potentiellement cancérigènes.) La formation d'adduits n'est qu'une étape dans le processus complexe de la cancérogenèse. D'autres événements cellulaires, tels que la promotion et la progression de la réparation de l'ADN, modifient sans aucun doute le risque de développer une maladie telle que le cancer. Ainsi, à l'heure actuelle, la mesure des adduits doit être considérée comme se limitant au seul suivi de l'exposition aux produits chimiques. Ceci est discuté plus en détail dans l'article "Produits chimiques génotoxiques" plus loin dans ce chapitre.
Le suivi biologique des effets s'effectue par la détermination d'indicateurs d'effet, c'est-à-dire ceux qui permettent d'identifier des altérations précoces et réversibles. Cette approche peut fournir une estimation indirecte de la quantité de produit chimique lié aux sites d'action et offre la possibilité d'évaluer les altérations fonctionnelles de l'organe critique dans une phase précoce.
Malheureusement, nous ne pouvons énumérer que quelques exemples d'application de cette approche, à savoir (1) l'inhibition de la pseudocholinestérase par les insecticides organophosphorés, (2) l'inhibition de l'acide d-aminolévulinique déshydratase (ALA-D) par le plomb inorganique, et (3) l'augmentation de l'excrétion urinaire de d-acide glucarique et porphyrines chez les sujets exposés à des produits chimiques inducteurs d'enzymes microsomales et/ou à des agents porphyrogènes (par exemple, hydrocarbures chlorés).
Avantages et limites de la surveillance biologique
Pour les substances qui exercent leur toxicité après avoir pénétré dans l'organisme humain, la surveillance biologique fournit une évaluation plus ciblée et ciblée du risque pour la santé que la surveillance environnementale. Un paramètre biologique reflétant la dose interne nous rapproche un peu plus de la compréhension des effets indésirables systémiques que n'importe quelle mesure environnementale.
La surveillance biologique offre de nombreux avantages par rapport à la surveillance environnementale et permet notamment d'évaluer :
Malgré ces avantages, la surveillance biologique souffre encore aujourd'hui de limitations considérables dont les plus importantes sont les suivantes :
Informations requises pour l'élaboration de méthodes et de critères de sélection des tests biologiques
La programmation de la surveillance biologique nécessite les conditions de base suivantes :
Dans ce contexte, la validité d'un test est la mesure dans laquelle le paramètre considéré prédit la situation telle qu'elle est réellement (c'est-à-dire telle que des instruments de mesure plus précis le montreraient). La validité est déterminée par la combinaison de deux propriétés : la sensibilité et la spécificité. Si un test possède une sensibilité élevée, cela signifie qu'il donnera peu de faux négatifs ; s'il possède une grande spécificité, il donnera peu de faux positifs (CEC 1985-1989).
Relation entre exposition, dose interne et effets
L'étude de la concentration d'une substance dans l'environnement de travail et la détermination simultanée des indicateurs de dose et d'effet chez les sujets exposés permettent d'obtenir des informations sur la relation entre l'exposition professionnelle et la concentration de la substance dans les échantillons biologiques, et entre la ce dernier et les premiers effets de l'exposition.
La connaissance des relations entre la dose d'une substance et l'effet qu'elle produit est une condition indispensable à la mise en place d'un programme de surveillance biologique. L'évaluation de ce relation dose-effet repose sur l'analyse du degré d'association existant entre l'indicateur de dose et l'indicateur d'effet et sur l'étude des variations quantitatives de l'indicateur d'effet à chaque variation d'indicateur de dose. (Voir aussi le chapitre Toxicologie, pour une discussion plus approfondie des relations liées à la dose).
Grâce à l'étude de la relation dose-effet, il est possible d'identifier la concentration de la substance toxique à laquelle l'indicateur d'effet dépasse les valeurs actuellement considérées comme non nocives. En outre, de cette manière, il peut également être possible d'examiner ce que pourrait être le niveau sans effet.
Comme tous les individus d'un groupe ne réagissent pas de la même manière, il est nécessaire d'examiner les relation dose-réponse, c'est-à-dire d'étudier comment le groupe réagit à l'exposition en évaluant l'apparition de l'effet par rapport à la dose interne. Le terme réponse désigne le pourcentage de sujets du groupe qui présentent une variation quantitative spécifique d'un indicateur d'effet à chaque niveau de dose.
Applications pratiques de la surveillance biologique
L'application pratique d'un programme de surveillance biologique nécessite des informations sur (1) le comportement des indicateurs utilisés par rapport à l'exposition, notamment ceux relatifs au degré, à la continuité et à la durée de l'exposition, (2) l'intervalle de temps entre la fin de l'exposition et la mesure de les indicateurs, et (3) tous les facteurs physiologiques et pathologiques autres que l'exposition qui peuvent modifier les niveaux des indicateurs.
Dans les articles suivants, le comportement d'un certain nombre d'indicateurs biologiques de dose et d'effet qui sont utilisés pour surveiller l'exposition professionnelle à des substances largement utilisées dans l'industrie sera présenté. L'utilité pratique et les limites seront évaluées pour chaque substance, avec un accent particulier sur le moment de l'échantillonnage et les facteurs interférents. Ces considérations seront utiles pour établir les critères de sélection d'un test biologique.
Moment de l'échantillonnage
Lors du choix du moment de l'échantillonnage, il faut garder à l'esprit les différents aspects cinétiques du produit chimique; en particulier, il est essentiel de savoir comment la substance est absorbée par les poumons, le tractus gastro-intestinal et la peau, puis distribuée dans les différents compartiments de l'organisme, biotransformée et finalement éliminée. Il est également important de savoir si le produit chimique peut s'accumuler dans le corps.
En ce qui concerne l'exposition aux substances organiques, le temps de prélèvement des échantillons biologiques devient d'autant plus important compte tenu de la vitesse différente des processus métaboliques mis en jeu et par conséquent de l'excrétion plus ou moins rapide de la dose absorbée.
Facteurs d'interférence
L'utilisation correcte des indicateurs biologiques nécessite une connaissance approfondie des facteurs qui, bien qu'indépendants de l'exposition, peuvent néanmoins affecter les niveaux des indicateurs biologiques. Les types de facteurs interférents les plus importants sont les suivants (Alessio, Berlin et Foà 1987).
Des facteurs physiologiques tels que l'alimentation, le sexe et l'âge, par exemple, peuvent affecter les résultats. La consommation de poissons et de crustacés peut augmenter les niveaux d'arsenic urinaire et de mercure sanguin. Chez les sujets féminins ayant les mêmes niveaux de plomb dans le sang que les hommes, les valeurs de protoporphyrine érythrocytaire sont significativement plus élevées par rapport à celles des sujets masculins. Les niveaux de cadmium urinaire augmentent avec l'âge.
Parmi les habitudes personnelles qui peuvent fausser les niveaux des indicateurs, le tabagisme et la consommation d'alcool sont particulièrement importants. Le tabagisme peut entraîner l'absorption directe de substances naturellement présentes dans les feuilles de tabac (par exemple, le cadmium), ou de polluants présents dans l'environnement de travail qui se sont déposés sur les cigarettes (par exemple, le plomb), ou de produits de combustion (par exemple, le monoxyde de carbone).
La consommation d'alcool peut influer sur les niveaux des indicateurs biologiques, puisque des substances telles que le plomb sont naturellement présentes dans les boissons alcoolisées. Les gros buveurs, par exemple, présentent des niveaux de plomb dans le sang plus élevés que les sujets témoins. L'ingestion d'alcool peut interférer avec la biotransformation et l'élimination des composés industriels toxiques : avec une seule dose, l'alcool peut inhiber le métabolisme de nombreux solvants, par exemple le trichloroéthylène, le xylène, le styrène et le toluène, en raison de leur compétition avec l'alcool éthylique pour les enzymes qui sont essentiels à la décomposition de l'éthanol et des solvants. L'ingestion régulière d'alcool peut également affecter le métabolisme des solvants d'une manière totalement différente en accélérant le métabolisme des solvants, probablement en raison de l'induction du système d'oxydation des microsomes. L'éthanol étant la substance la plus importante capable d'induire des interférences métaboliques, il est conseillé de déterminer les indicateurs d'exposition aux solvants uniquement les jours où l'alcool n'a pas été consommé.
Moins d'informations sont disponibles sur les effets possibles des médicaments sur les niveaux des indicateurs biologiques. Il a été démontré que l'aspirine peut interférer avec la transformation biologique du xylène en acide méthylhippurique, et que le phénylsalicylate, un médicament largement utilisé comme analgésique, peut augmenter de manière significative les taux de phénols urinaires. La consommation de préparations antiacides à base d'aluminium peut entraîner une augmentation des taux d'aluminium dans le plasma et l'urine.
Des différences marquées ont été observées dans différents groupes ethniques dans le métabolisme de solvants largement utilisés tels que le toluène, le xylène, le trichloroéthylène, le tétrachloroéthylène et le méthylchloroforme.
Les états pathologiques acquis peuvent influencer les niveaux des indicateurs biologiques. L'organe critique peut avoir un comportement anormal vis-à-vis des tests de surveillance biologique en raison de l'action spécifique de l'agent toxique ainsi que pour d'autres raisons. Un exemple de situations du premier type est le comportement des taux urinaires de cadmium : lorsque la maladie tubulaire due au cadmium s'installe, l'excrétion urinaire augmente fortement et les taux du test ne reflètent plus le degré d'exposition. Un exemple du deuxième type de situation est l'augmentation des taux de protoporphyrine érythrocytaire observée chez des sujets carencés en fer qui ne présentent pas d'absorption anormale du plomb.
Des changements physiologiques dans les milieux biologiques - l'urine, par exemple - sur lesquels les déterminations des indicateurs biologiques sont basées, peuvent influencer les valeurs du test. Pour des raisons pratiques, seuls des échantillons urinaires ponctuels peuvent être obtenus des individus pendant le travail, et la densité variable de ces échantillons signifie que les niveaux de l'indicateur peuvent fluctuer largement au cours d'une même journée.
Afin de pallier cette difficulté, il est conseillé d'éliminer les échantillons sur-dilués ou sur-concentrés selon des valeurs de densité ou de créatinine choisies. En particulier, l'urine avec une densité inférieure à 1010 ou supérieure à 1030 ou avec une concentration de créatinine inférieure à 0.5 g/l ou supérieure à 3.0 g/l doit être jetée. Plusieurs auteurs proposent également d'ajuster les valeurs des indicateurs en fonction de la gravité spécifique ou d'exprimer les valeurs en fonction du contenu en créatinine urinaire.
Des changements pathologiques dans les milieux biologiques peuvent également influencer considérablement les valeurs des indicateurs biologiques. Par exemple, chez les sujets anémiques exposés à des métaux (mercure, cadmium, plomb, etc.), les taux sanguins du métal peuvent être inférieurs à ceux auxquels on pourrait s'attendre sur la base de l'exposition ; cela est dû au faible taux de globules rouges qui transportent le métal toxique dans la circulation sanguine.
Par conséquent, lorsque les déterminations de substances toxiques ou de métabolites liés aux globules rouges sont effectuées sur du sang total, il est toujours conseillé de déterminer l'hématocrite, qui donne une mesure du pourcentage de globules sanguins dans le sang total.
Exposition multiple à des substances toxiques présentes sur le lieu de travail
En cas d'exposition combinée à plus d'une substance toxique présente sur le lieu de travail, des interférences métaboliques peuvent se produire qui peuvent altérer le comportement des indicateurs biologiques et ainsi créer de sérieux problèmes d'interprétation. Dans des études humaines, des interférences ont été démontrées, par exemple, dans l'exposition combinée au toluène et au xylène, au xylène et à l'éthylbenzène, au toluène et au benzène, à l'hexane et à la méthyléthylcétone, au tétrachloroéthylène et au trichloroéthylène.
Notamment, il faut noter que lorsque la biotransformation d'un solvant est inhibée, l'excrétion urinaire de son métabolite est réduite (sous-estimation possible du risque) alors que les niveaux du solvant dans le sang et l'air expiré augmentent (surestimation possible du risque).
Ainsi, dans les situations où il est possible de mesurer simultanément les substances et leurs métabolites pour interpréter le degré d'interférence inhibitrice, il serait utile de vérifier si les niveaux des métabolites urinaires sont inférieurs à ceux attendus et en même temps si la concentration des solvants dans le sang et/ou l'air expiré est plus élevée.
Des interférences métaboliques ont été décrites pour des expositions où les substances individuelles sont présentes à des niveaux proches et parfois inférieurs aux valeurs limites actuellement acceptées. Cependant, les interférences ne se produisent généralement pas lorsque l'exposition à chaque substance présente sur le lieu de travail est faible.
Utilisation pratique des indicateurs biologiques
Les indicateurs biologiques peuvent être utilisés à diverses fins dans la pratique de la santé au travail, en particulier pour (1) le contrôle périodique des travailleurs individuels, (2) l'analyse de l'exposition d'un groupe de travailleurs et (3) les évaluations épidémiologiques. Les tests utilisés doivent posséder les caractéristiques de précision, d'exactitude, de bonne sensibilité et de spécificité afin de minimiser le nombre possible de fausses classifications.
Valeurs de référence et groupes de référence
Une valeur de référence est le niveau d'un indicateur biologique dans la population générale non exposée professionnellement à la substance toxique étudiée. Il est nécessaire de se référer à ces valeurs pour comparer les données obtenues par des programmes de surveillance biologique dans une population présumée exposée. Les valeurs de référence ne doivent pas être confondues avec les valeurs limites, qui sont généralement les limites légales ou les lignes directrices pour l'exposition professionnelle et environnementale (Alessio et al. 1992).
Lorsqu'il est nécessaire de comparer les résultats d'analyses de groupe, la distribution des valeurs dans le groupe de référence et dans le groupe étudié doit être connue car c'est alors seulement qu'une comparaison statistique peut être effectuée. Dans ces cas, il est essentiel de tenter d'apparier la population générale (groupe de référence) avec le groupe exposé pour des caractéristiques similaires telles que le sexe, l'âge, le mode de vie et les habitudes alimentaires.
Pour obtenir des valeurs de référence fiables, il faut s'assurer que les sujets composant le groupe de référence n'ont jamais été exposés aux substances toxiques, que ce soit professionnellement ou en raison de conditions particulières de pollution de l'environnement.
Dans l'évaluation de l'exposition à des substances toxiques, il faut veiller à ne pas inclure des sujets qui, bien que non directement exposés à la substance toxique en question, travaillent sur le même lieu de travail, car si ces sujets sont effectivement indirectement exposés, l'exposition du groupe peut donc être sous-estimé.
Une autre pratique à éviter, bien qu'elle soit encore répandue, est l'utilisation à des fins de référence de valeurs rapportées dans la littérature qui sont dérivées de listes de cas d'autres pays et qui peuvent souvent avoir été recueillies dans des régions où différentes situations de pollution de l'environnement existent.
Suivi périodique des travailleurs individuels
La surveillance périodique des travailleurs individuels est obligatoire lorsque les niveaux de la substance toxique dans l'atmosphère de l'environnement de travail approchent de la valeur limite. Dans la mesure du possible, il est conseillé de vérifier simultanément un indicateur d'exposition et un indicateur d'effet. Les données ainsi obtenues doivent être comparées aux valeurs de référence et aux valeurs limites proposées pour la substance à l'étude (ACGIH 1993).
Analyse d'un groupe de travailleurs
L'analyse d'un groupe devient obligatoire lorsque les résultats des indicateurs biologiques utilisés peuvent être fortement influencés par des facteurs indépendants de l'exposition (alimentation, concentration ou dilution des urines…) et pour lesquels il existe une large gamme de valeurs « normales ».
Pour que l'étude de groupe fournisse des résultats utiles, le groupe doit être suffisamment nombreux et homogène quant à l'exposition, au sexe et, dans le cas de certains agents toxiques, à l'ancienneté dans le travail. Plus les niveaux d'exposition sont constants dans le temps, plus les données seront fiables. Une enquête menée dans un milieu de travail où les travailleurs changent fréquemment de service ou d'emploi n'aura que peu de valeur. Pour une évaluation correcte d'une étude de groupe, il ne suffit pas d'exprimer les données uniquement sous forme de valeurs moyennes et d'intervalle. La distribution de fréquence des valeurs de l'indicateur biologique en question doit également être prise en compte.
Évaluations épidémiologiques
Les données issues de la surveillance biologique de groupes de travailleurs peuvent également être utilisées dans des études épidémiologiques transversales ou prospectives.
Des études transversales peuvent être utilisées pour comparer les situations existant dans différents services de l'usine ou dans différentes industries afin d'établir des cartes de risques pour les processus de fabrication. Une difficulté que l'on peut rencontrer dans ce type d'application tient au fait que les contrôles de qualité inter-laboratoires ne sont pas encore suffisamment répandus ; il ne peut donc pas être garanti que différents laboratoires produiront des résultats comparables.
Les études prospectives permettent d'évaluer l'évolution dans le temps des niveaux d'exposition afin de vérifier par exemple l'efficacité d'améliorations environnementales ou de corréler l'évolution d'indicateurs biologiques au cours des années avec l'état de santé des sujets suivis. Les résultats de ces études à long terme sont très utiles pour résoudre des problèmes impliquant des changements dans le temps. À l'heure actuelle, la surveillance biologique est principalement utilisée comme une procédure appropriée pour évaluer si l'exposition actuelle est jugée « sûre », mais elle n'est pas encore valable pour évaluer les situations dans le temps. Un niveau d'exposition donné considéré comme sûr aujourd'hui peut ne plus l'être à l'avenir.
Aspects éthiques
Certaines considérations éthiques sont liées à l'utilisation de la surveillance biologique comme outil d'évaluation de la toxicité potentielle. L'un des objectifs d'une telle surveillance est de rassembler suffisamment d'informations pour décider quel niveau d'un effet donné constitue un effet indésirable ; en l'absence de données suffisantes, toute perturbation sera considérée comme indésirable. Les implications réglementaires et juridiques de ce type d'informations doivent être évaluées. Par conséquent, nous devrions rechercher un débat sociétal et un consensus sur les meilleures façons d'utiliser les indicateurs biologiques. En d'autres termes, une éducation est requise des travailleurs, des employeurs, des collectivités et des autorités réglementaires quant à la signification des résultats obtenus par la surveillance biologique afin que personne ne soit indûment alarmé ou complaisant.
Il doit y avoir une communication appropriée avec la personne sur laquelle le test a été effectué concernant les résultats et leur interprétation. De plus, le fait que l'utilisation de certains indicateurs soit expérimentale ou non doit être clairement indiqué à tous les participants.
Le Code international de déontologie des professionnels de la santé au travail, publié par la Commission internationale de la santé au travail en 1992, stipulait que «les tests biologiques et autres investigations doivent être choisis du point de vue de leur validité pour la protection de la santé du travailleur concerné, compte tenu de leur sensibilité, de leur spécificité et de leur valeur prédictive ». Il ne doit pas être fait usage de tests "qui ne sont pas fiables ou qui n'ont pas une valeur prédictive suffisante par rapport aux exigences de la mission de travail". (Voir le chapitre Questions éthiques pour une discussion plus approfondie et le texte du Code.)
Tendances en matière de réglementation et d'application
La surveillance biologique ne peut être effectuée que pour un nombre limité de polluants environnementaux en raison de la disponibilité limitée de données de référence appropriées. Cela impose des limites importantes à l'utilisation de la surveillance biologique dans l'évaluation de l'exposition.
L'Organisation mondiale de la santé (OMS), par exemple, a proposé des valeurs de référence basées sur la santé pour le plomb, le mercure et le cadmium uniquement. Ces valeurs sont définies comme des niveaux dans le sang et l'urine non liés à un effet indésirable détectable. L'American Conference of Governmental Industrial Hygienists (ACGIH) a établi des indices d'exposition biologique (BEI) pour environ 26 composés ; Les IBE sont définis comme « des valeurs pour des déterminants qui sont des indicateurs du degré d'exposition intégrée aux produits chimiques industriels » (ACGIH 1995).
Définition et portée
Ergonomie signifie littéralement l'étude ou la mesure du travail. Dans ce contexte, le terme travail signifie une fonction humaine déterminée ; elle dépasse la conception plus restreinte du travail en tant que travail à but lucratif pour englober toutes les activités par lesquelles un opérateur humain rationnel poursuit systématiquement un objectif. Ainsi, il comprend les sports et autres activités de loisirs, le travail domestique tel que la garde d'enfants et l'entretien du domicile, l'éducation et la formation, la santé et les services sociaux, et soit le contrôle de systèmes techniques, soit l'adaptation à ceux-ci, par exemple en tant que passager dans un véhicule.
L'opérateur humain, objet d'étude, peut être un professionnel qualifié manœuvrant une machine complexe dans un environnement artificiel, un client qui a acheté par hasard un nouvel équipement pour son usage personnel, un enfant assis dans une salle de classe ou une personne handicapée dans un fauteuil roulant. L'être humain est hautement adaptable mais pas infiniment. Il existe des gammes de conditions optimales pour toute activité. L'une des tâches de l'ergonomie est de définir quelles sont ces plages et d'explorer les effets indésirables qui se produisent si les limites sont transgressées, par exemple si une personne est censée travailler dans des conditions de chaleur, de bruit ou de vibrations excessives, ou si les ou la charge mentale est trop élevée ou trop faible.
L'ergonomie examine non seulement la situation ambiante passive, mais aussi les avantages uniques de l'opérateur humain et les contributions qui peuvent être apportées si une situation de travail est conçue pour permettre et encourager la personne à utiliser au mieux ses capacités. Les capacités humaines peuvent être caractérisées non seulement en référence à l'opérateur humain générique, mais aussi en ce qui concerne les capacités plus particulières qui sont sollicitées dans des situations spécifiques où des performances élevées sont essentielles. Par exemple, un constructeur automobile tiendra compte de la gamme de taille physique et de la force de la population de conducteurs qui sont censés utiliser un modèle particulier pour s'assurer que les sièges sont confortables, que les commandes sont facilement identifiables et à portée de main, qu'il est clair visibilité vers l'avant et vers l'arrière et que les instruments internes sont faciles à lire. La facilité d'entrée et de sortie sera également prise en compte. En revanche, le concepteur d'une voiture de course partira du principe que le pilote est athlétique, de sorte que la facilité d'accès et de sortie, par exemple, n'est pas importante et, en fait, les caractéristiques de conception dans leur ensemble en ce qui concerne le conducteur peuvent très bien être adaptés aux dimensions et aux préférences d'un conducteur particulier pour s'assurer qu'il ou elle peut exercer son plein potentiel et ses compétences en tant que conducteur.
Dans toutes les situations, activités et tâches, l'accent est mis sur la personne ou les personnes impliquées. Il est supposé que la structure, l'ingénierie et toute autre technologie sont là pour servir l'opérateur, et non l'inverse.
Historique et statut
Il y a environ un siècle, il était reconnu que les heures et les conditions de travail dans certaines mines et usines n'étaient pas tolérables en termes de sécurité et de santé, et la nécessité était évidente d'adopter des lois pour fixer des limites autorisées à ces égards. La détermination et l'énoncé de ces limites peuvent être considérés comme le début de l'ergonomie. Elles ont d'ailleurs été à l'origine de toutes les activités qui s'expriment aujourd'hui à travers les travaux de l'Organisation Internationale du Travail (OIT).
La recherche, le développement et l'application ont progressé lentement jusqu'à la Seconde Guerre mondiale. Cela a déclenché un développement considérablement accéléré de machines et d'instruments tels que des véhicules, des avions, des chars, des canons et des dispositifs de détection et de navigation considérablement améliorés. Au fur et à mesure que la technologie progressait, une plus grande flexibilité était disponible pour permettre l'adaptation à l'opérateur, une adaptation qui devenait d'autant plus nécessaire que les performances humaines limitaient les performances du système. Si un véhicule à moteur peut se déplacer à une vitesse de quelques kilomètres à l'heure seulement, il n'y a pas lieu de s'inquiéter des performances du conducteur, mais lorsque la vitesse maximale du véhicule est augmentée d'un facteur dix ou cent, alors le conducteur a réagir plus rapidement et il n'y a pas le temps de corriger les erreurs pour éviter le désastre. De même, à mesure que la technologie s'améliore, il est moins nécessaire de s'inquiéter des pannes mécaniques ou électriques (par exemple) et l'attention est libérée pour réfléchir aux besoins du conducteur.
Ainsi, l'ergonomie, dans le sens d'adapter la technologie de l'ingénierie aux besoins de l'opérateur, devient à la fois plus nécessaire et plus réalisable à mesure que l'ingénierie progresse.
Le terme ergonomie est entré en usage vers 1950 lorsque les priorités de l'industrie en développement ont pris le pas sur les priorités de l'armée. Le développement de la recherche et de l'application au cours des trente années suivantes est décrit en détail dans Singleton (1982). Les agences des Nations Unies, en particulier l'OIT et l'Organisation mondiale de la santé (OMS), sont devenues actives dans ce domaine dans les années 1960.
Dans l'industrie de l'immédiat après-guerre, l'objectif primordial, partagé par l'ergonomie, était une plus grande productivité. C'était un objectif réalisable pour l'ergonomie car une grande partie de la productivité industrielle était déterminée directement par l'effort physique des travailleurs impliqués - la vitesse d'assemblage et la vitesse de levage et de mouvement déterminaient l'étendue de la production. Peu à peu, la puissance mécanique a remplacé la puissance musculaire humaine. Plus de puissance, cependant, conduit à plus d'accidents sur le principe simple qu'un accident est la conséquence de la puissance au mauvais endroit au mauvais moment. Lorsque les choses vont plus vite, le potentiel d'accidents est encore accru. Ainsi, la préoccupation de l'industrie et l'objectif de l'ergonomie se sont progressivement déplacés de la productivité vers la sécurité. Cela s'est produit dans les années 1960 et au début des années 1970. À peu près et après cette époque, une grande partie de l'industrie manufacturière est passée de la production par lots à la production en continu et par processus. Le rôle de l'opérateur est passé en conséquence de la participation directe à la surveillance et à l'inspection. Il en résultait une moindre fréquence des accidents car l'opérateur était plus éloigné du lieu de l'action mais parfois une plus grande gravité des accidents en raison de la vitesse et de la puissance inhérentes au procédé.
Lorsque le rendement est déterminé par la vitesse à laquelle les machines fonctionnent, la productivité devient une question de maintien du fonctionnement du système : en d'autres termes, la fiabilité est l'objectif. Ainsi, l'opérateur devient un moniteur, un dépanneur et un mainteneur plutôt qu'un manipulateur direct.
Cette esquisse historique des mutations de l'industrie manufacturière d'après-guerre pourrait suggérer que l'ergonome a régulièrement abandonné une problématique pour en aborder une autre mais ce n'est pas le cas pour plusieurs raisons. Comme expliqué précédemment, les préoccupations de l'ergonomie sont beaucoup plus larges que celles de l'industrie manufacturière. A l'ergonomie de production s'ajoute l'ergonomie produit ou conception, c'est-à-dire l'adaptation de la machine ou du produit à l'utilisateur. Dans l'industrie automobile, par exemple, l'ergonomie est importante non seulement pour la fabrication des composants et les chaînes de production, mais aussi pour le conducteur, le passager et le personnel d'entretien. Il est maintenant courant dans la commercialisation des voitures et dans leur évaluation critique par d'autres d'examiner la qualité de l'ergonomie, en tenant compte de la conduite, du confort des sièges, de la maniabilité, des niveaux de bruit et de vibrations, de la facilité d'utilisation des commandes, de la visibilité à l'intérieur et à l'extérieur, etc. au.
Il a été suggéré ci-dessus que la performance humaine est généralement optimisée dans une plage de tolérance d'une variable pertinente. Une grande partie des premières ergonomies tentaient de réduire à la fois la production de puissance musculaire et l'étendue et la variété des mouvements en veillant à ce que ces tolérances ne soient pas dépassées. Le plus grand changement dans la situation de travail, l'avènement des ordinateurs, a créé le problème inverse. A moins d'être bien conçu ergonomiquement, un espace de travail informatique peut induire une posture trop figée, trop peu de mouvements corporels et trop de répétitions de combinaisons particulières de mouvements articulaires.
Ce bref aperçu historique vise à indiquer que, bien qu'il y ait eu un développement continu de l'ergonomie, il a pris la forme d'ajouter de plus en plus de problèmes plutôt que de changer les problèmes. Cependant, le corpus de connaissances s'étoffe et devient plus fiable et valide, les normes de dépense énergétique ne dépendent pas de comment ni pourquoi l'énergie est dépensée, les problèmes posturaux sont les mêmes dans les sièges d'avion et devant les écrans d'ordinateur, une grande partie de l'activité humaine consiste désormais à utiliser écrans vidéo et il existe des principes bien établis basés sur un mélange de preuves en laboratoire et d'études sur le terrain.
Ergonomie et disciplines connexes
Le développement d'une application scientifique intermédiaire entre les technologies bien établies de l'ingénierie et de la médecine chevauche inévitablement de nombreuses disciplines connexes. Sur le plan scientifique, une grande partie des connaissances ergonomiques dérive des sciences humaines : anatomie, physiologie et psychologie. Les sciences physiques contribuent également, par exemple, à résoudre les problèmes d'éclairage, de chauffage, de bruit et de vibration.
La plupart des pionniers européens de l'ergonomie étaient des travailleurs parmi les sciences humaines et c'est pour cette raison que l'ergonomie est bien équilibrée entre la physiologie et la psychologie. Une orientation physiologique est nécessaire en arrière-plan pour des problèmes tels que la dépense énergétique, la posture et l'application des forces, y compris le levage. Une orientation psychologique est nécessaire pour étudier des problèmes tels que la présentation de l'information et la satisfaction au travail. Il existe bien sûr de nombreux problèmes qui nécessitent une approche mixte des sciences humaines comme le stress, la fatigue et le travail posté.
La plupart des pionniers américains dans ce domaine étaient impliqués dans la psychologie expérimentale ou l'ingénierie et c'est pour cette raison que leurs titres professionnels typiques -ingénierie humaine et les facteurs humains— reflètent une différence d'accent (mais pas d'intérêts fondamentaux) par rapport à l'ergonomie européenne. Cela explique aussi pourquoi l'hygiène du travail, de par son lien étroit avec la médecine, notamment la médecine du travail, est considérée aux États-Unis comme assez différente des facteurs humains ou de l'ergonomie. La différence dans d'autres parties du monde est moins marquée. L'ergonomie se concentre sur l'opérateur humain en action, l'hygiène du travail se concentre sur les risques pour l'opérateur humain présents dans l'environnement ambiant. Ainsi, l'intérêt central de l'hygiéniste du travail porte sur les risques toxiques, qui sortent du cadre de l'ergonome. L'hygiéniste du travail se préoccupe des effets sur la santé, à long terme ou à court terme; l'ergonome est bien sûr soucieux de sa santé mais il est aussi soucieux d'autres conséquences comme la productivité, l'aménagement du travail et l'aménagement de l'espace de travail. La sécurité et la santé sont les questions génériques qui traversent l'ergonomie, l'hygiène du travail, la santé au travail et la médecine du travail. Il n'est donc pas surprenant de constater que dans une grande institution de type recherche, conception ou production, ces sujets sont souvent regroupés. Cela rend possible une approche basée sur une équipe d'experts dans ces domaines distincts, chacun apportant une contribution spécialisée au problème général de santé, non seulement des travailleurs de l'établissement mais aussi de ceux concernés par ses activités et ses produits. En revanche, dans les institutions concernées par la conception ou la prestation de services, l'ergonome peut être plus proche des ingénieurs et autres technologues.
Il ressortira clairement de cette discussion que l'ergonomie étant interdisciplinaire et encore assez nouvelle, il y a un problème important de savoir comment l'intégrer au mieux dans une organisation existante. Il chevauche tant d'autres domaines car il concerne les personnes et les personnes sont la ressource fondamentale et omniprésente de toute organisation. Il existe de nombreuses façons de l'intégrer, en fonction de l'histoire et des objectifs de l'organisation particulière. Les principaux critères sont que les objectifs ergonomiques sont compris et appréciés et que des mécanismes de mise en œuvre des recommandations sont intégrés à l'organisation.
Objectifs de l'ergonomie
Il sera déjà clair que les avantages de l'ergonomie peuvent apparaître sous de nombreuses formes différentes, en termes de productivité et de qualité, de sécurité et de santé, de fiabilité, de satisfaction au travail et de développement personnel.
La raison de cette étendue de portée est que son objectif fondamental est l'efficacité dans une activité intentionnelle - l'efficacité au sens le plus large d'atteindre le résultat souhaité sans gaspillage, sans erreur et sans dommage pour la personne impliquée ou pour les autres. Il n'est pas efficace de dépenser de l'énergie ou du temps inutilement parce qu'une réflexion insuffisante a été accordée à la conception du travail, de l'espace de travail, de l'environnement de travail et des conditions de travail. Il n'est pas efficace d'atteindre le résultat souhaité malgré la conception de la situation plutôt qu'avec le soutien de celle-ci.
L'ergonomie a pour but d'assurer que la situation de travail est en harmonie avec les activités du travailleur. Cet objectif est évidemment valable mais l'atteindre est loin d'être facile pour diverses raisons. L'opérateur humain est flexible et adaptable et il y a un apprentissage continu, mais il existe des différences individuelles assez importantes. Certaines différences, telles que la taille physique et la force, sont évidentes, mais d'autres, telles que les différences culturelles et les différences de style et de niveau de compétence, sont moins faciles à identifier.
Compte tenu de ces complexités, il pourrait sembler que la solution consiste à fournir une situation flexible où l'opérateur humain peut optimiser une manière spécifiquement appropriée de faire les choses. Malheureusement, une telle approche est parfois impraticable car la manière la plus efficace n'est souvent pas évidente, avec pour résultat qu'un travailleur peut continuer à faire quelque chose dans le mauvais sens ou dans de mauvaises conditions pendant des années.
Il est donc nécessaire d'adopter une approche systématique : partir d'une théorie solide, fixer des objectifs mesurables et vérifier le succès par rapport à ces objectifs. Les différents objectifs possibles sont examinés ci-dessous.
Sécurité et santé
Il ne peut y avoir de désaccord quant à l'opportunité d'objectifs de sécurité et de santé. La difficulté vient du fait qu'aucun n'est directement mesurable : leur réussite s'apprécie par leur absence plutôt que par leur présence. Les données en question concernent toujours les écarts à la sécurité et à la santé.
Dans le cas de la santé, la plupart des preuves sont à long terme car elles sont basées sur des populations plutôt que sur des individus. Il est donc nécessaire de conserver des archives minutieuses sur de longues périodes et d'adopter une approche épidémiologique permettant d'identifier et de mesurer les facteurs de risque. Par exemple, quel devrait être le nombre maximum d'heures par jour ou par an requis d'un travailleur à un poste de travail informatique ? Cela dépend de la conception du poste de travail, du type de travail et du type de personne (âge, vision, capacités, etc.). Les effets sur la santé peuvent être divers, allant des problèmes de poignet à l'apathie mentale, il est donc nécessaire de mener des études approfondies couvrant des populations assez importantes tout en gardant une trace des différences au sein des populations.
La sécurité est plus directement mesurable dans un sens négatif en termes de types et de fréquences d'accidents et de dommages. Il est difficile de définir les différents types d'accidents et d'identifier les facteurs de causalité souvent multiples et il existe souvent une relation lointaine entre le type d'accident et le degré de préjudice, de l'absence de décès au décès.
Néanmoins, un énorme corpus de preuves concernant la sécurité et la santé a été accumulé au cours des cinquante dernières années et des cohérences ont été découvertes qui peuvent être liées à la théorie, aux lois et normes et aux principes applicables dans des types particuliers de situations.
Productivité et efficacité
La productivité est généralement définie en termes de production par unité de temps, tandis que l'efficacité intègre d'autres variables, en particulier le rapport de la production à l'entrée. L'efficacité intègre le coût de ce qui est fait par rapport à la réalisation, et en termes humains, cela nécessite la prise en compte des pénalités pour l'opérateur humain.
Dans les situations industrielles, la productivité est relativement facile à mesurer : la quantité produite peut être comptée et le temps mis pour la produire est simple à enregistrer. Les données de productivité sont souvent utilisées dans les comparaisons avant/après des méthodes, situations ou conditions de travail. Elle implique des hypothèses sur l'équivalence des efforts et d'autres coûts car elle est basée sur le principe que l'opérateur humain fonctionnera aussi bien que possible dans les circonstances. Si la productivité est plus élevée, les circonstances doivent être meilleures. Il y a beaucoup à recommander cette approche simple à condition qu'elle soit utilisée en tenant dûment compte des nombreux facteurs de complication possibles qui peuvent déguiser ce qui se passe réellement. Le meilleur garde-fou est d'essayer de s'assurer que rien n'a changé entre les situations avant et après sauf les aspects étudiés.
L'efficacité est une mesure plus complète mais toujours plus difficile. Il doit généralement être spécifiquement défini pour une situation particulière et lors de l'évaluation des résultats de toute étude, la définition doit être vérifiée pour sa pertinence et sa validité en termes de conclusions tirées. Par exemple, le vélo est-il plus efficace que la marche ? Le vélo est beaucoup plus productif en termes de distance pouvant être parcourue sur une route en un temps donné, et il est plus efficace en termes de dépense énergétique par unité de distance ou, pour l'exercice en salle, car l'appareil nécessaire est moins cher et plus simple . D'autre part, le but de l'exercice peut être une dépense d'énergie pour des raisons de santé ou pour gravir une montagne sur un terrain difficile ; dans ces circonstances la marche sera plus efficace. Ainsi, une mesure d'efficacité n'a de sens que dans un contexte bien défini.
Fiabilité et qualité
Comme expliqué ci-dessus, la fiabilité plutôt que la productivité devient la mesure clé dans les systèmes de haute technologie (par exemple, les avions de transport, le raffinage du pétrole et la production d'électricité). Les contrôleurs de ces systèmes surveillent les performances et apportent leur contribution à la productivité et à la sécurité en effectuant des réglages de réglage pour s'assurer que les machines automatiques restent en ligne et fonctionnent dans les limites. Tous ces systèmes sont dans leur état le plus sûr, soit lorsqu'ils sont au repos, soit lorsqu'ils fonctionnent régulièrement dans l'enveloppe de performances conçue. Ils deviennent plus dangereux lorsqu'ils se déplacent ou sont déplacés entre des états d'équilibre, par exemple, lorsqu'un avion décolle ou qu'un système de traitement est arrêté. Une fiabilité élevée est la caractéristique clé, non seulement pour des raisons de sécurité, mais aussi parce qu'un arrêt ou un arrêt non planifié est extrêmement coûteux. La fiabilité est simple à mesurer après les performances mais est extrêmement difficile à prédire, sauf en référence aux performances passées de systèmes similaires. Quand ou si quelque chose ne va pas, l'erreur humaine est invariablement une cause contributive, mais ce n'est pas nécessairement une erreur de la part du contrôleur : les erreurs humaines peuvent provenir de la phase de conception et pendant la configuration et la maintenance. Il est désormais admis que de tels systèmes complexes de haute technologie nécessitent un apport ergonomique considérable et continu depuis la conception jusqu'à l'évaluation des défaillances éventuelles.
La qualité est liée à la fiabilité mais est très difficile voire impossible à mesurer. Traditionnellement, dans les systèmes de production par lots et en flux, la qualité était contrôlée par inspection après la sortie, mais le principe établi actuellement est de combiner la production et le maintien de la qualité. Ainsi, chaque opérateur a une responsabilité parallèle en tant qu'inspecteur. Cela s'avère généralement plus efficace, mais cela peut signifier l'abandon des incitations au travail basées simplement sur le taux de production. En termes ergonomiques, il est logique de traiter l'opérateur comme une personne responsable plutôt que comme une sorte de robot programmé pour des performances répétitives.
Satisfaction au travail et développement personnel
Du principe selon lequel le travailleur ou l'opérateur humain doit être reconnu comme une personne et non comme un robot, il s'ensuit qu'il convient de tenir compte des responsabilités, des attitudes, des croyances et des valeurs. Ce n'est pas facile car il existe de nombreuses variables, pour la plupart détectables mais non quantifiables, et il existe de grandes différences individuelles et culturelles. Néanmoins, beaucoup d'efforts sont maintenant consacrés à la conception et à la gestion des travaux dans le but de s'assurer que la situation est aussi satisfaisante que raisonnablement possible du point de vue de l'exploitant. Certaines mesures sont possibles en utilisant des techniques d'enquête et certains principes sont disponibles sur la base de caractéristiques de travail telles que l'autonomie et l'autonomisation.
Même en acceptant que ces efforts prennent du temps et coûtent de l'argent, il peut toujours y avoir des dividendes considérables à écouter les suggestions, les opinions et les attitudes des personnes qui font réellement le travail. Leur approche peut ne pas être la même que celle du concepteur des travaux externes et ne pas être la même que les hypothèses émises par le concepteur ou le gestionnaire des travaux. Ces différences de points de vue sont importantes et peuvent fournir un changement de stratégie rafraîchissant de la part de toutes les personnes impliquées.
Il est bien établi que l'être humain est un apprenant continu ou peut l'être, dans des conditions appropriées. La condition essentielle est de fournir des informations sur les performances passées et présentes qui peuvent être utilisées pour améliorer les performances futures. De plus, ce feedback lui-même agit comme une incitation à la performance. Ainsi tout le monde y gagne, l'interprète et les responsables au sens large de la performance. Il s'ensuit qu'il y a beaucoup à gagner de l'amélioration des performances, y compris l'auto-développement. Le principe selon lequel le développement personnel devrait être un aspect de l'application de l'ergonomie nécessite de plus grandes compétences de concepteur et de gestionnaire mais, s'il peut être appliqué avec succès, peut améliorer tous les aspects de la performance humaine discutés ci-dessus.
L'application réussie de l'ergonomie découle souvent du simple développement de l'attitude ou du point de vue approprié. Les personnes impliquées sont inévitablement le facteur central de tout effort humain et la prise en compte systématique de leurs avantages, limites, besoins et aspirations est intrinsèquement importante.
Conclusion
L'ergonomie est l'étude systématique des personnes au travail dans le but d'améliorer la situation de travail, les conditions de travail et les tâches effectuées. L'accent est mis sur l'acquisition de preuves pertinentes et fiables sur lesquelles fonder la recommandation de changements dans des situations spécifiques et sur le développement de théories, de concepts, de lignes directrices et de procédures plus générales qui contribueront à l'expertise en constante évolution de l'ergonomie.
Exposition, dose et réponse
Phytotoxicité est la capacité intrinsèque d'un agent chimique à affecter négativement un organisme.
Xénobiotique est un terme pour "substances étrangères", c'est-à-dire étrangères à l'organisme. Son contraire est les composés endogènes. Les xénobiotiques comprennent les médicaments, les produits chimiques industriels, les poisons naturels et les polluants environnementaux.
Danger est le potentiel de réalisation de la toxicité dans un contexte ou une situation spécifique.
Analyse est la probabilité qu'un effet indésirable spécifique se produise. Il est souvent exprimé en pourcentage de cas dans une population donnée et pendant une période de temps spécifique. Une estimation du risque peut être basée sur des cas réels ou sur une projection de cas futurs, basée sur des extrapolations.
Cote de toxicité et classification de la toxicité peut être utilisé à des fins réglementaires. L'évaluation de la toxicité est une classification arbitraire des doses ou des niveaux d'exposition provoquant des effets toxiques. Le classement peut être « supertoxique », « très toxique », « modérément toxique », etc. Les cotes les plus courantes concernent la toxicité aiguë. La classification de la toxicité concerne le regroupement des produits chimiques en catégories générales selon leur effet toxique le plus important. Ces catégories peuvent inclure les allergènes, les neurotoxiques, les cancérigènes, etc. Cette classification peut avoir une valeur administrative comme avertissement et comme information.
La relation dose-effet est la relation entre la dose et l'effet au niveau individuel. Une augmentation de la dose peut augmenter l'intensité d'un effet, ou un effet plus grave peut en résulter. Une courbe dose-effet peut être obtenue au niveau de l'organisme entier, de la cellule ou de la molécule cible. Certains effets toxiques, comme la mort ou le cancer, ne sont pas classés mais sont des effets « tout ou rien ».
La relation dose-réponse est la relation entre la dose et le pourcentage d'individus présentant un effet spécifique. Avec l'augmentation de la dose, un plus grand nombre d'individus dans la population exposée sera généralement affecté.
Il est essentiel en toxicologie d'établir des relations dose-effet et dose-réponse. Dans les études médicales (épidémiologiques), un critère souvent utilisé pour accepter une relation causale entre un agent et une maladie est que l'effet ou la réponse est proportionnel à la dose.
Plusieurs courbes dose-réponse peuvent être tracées pour un produit chimique, une pour chaque type d'effet. La courbe dose-réponse pour la plupart des effets toxiques (lorsqu'ils sont étudiés dans de grandes populations) a une forme sigmoïde. Il existe généralement une plage de faibles doses où aucune réponse n'est détectée ; à mesure que la dose augmente, la réponse suit une courbe ascendante qui atteint généralement un plateau à une réponse de 100 %. La courbe dose-réponse reflète les variations entre les individus d'une population. La pente de la courbe varie d'un produit chimique à l'autre et entre différents types d'effets. Pour certains produits chimiques ayant des effets spécifiques (cancérigènes, initiateurs, mutagènes), la courbe dose-réponse peut être linéaire à partir de la dose zéro dans une certaine plage de doses. Cela signifie qu'aucun seuil n'existe et que même de petites doses représentent un risque. Au-dessus de cette plage de doses, le risque peut augmenter à un taux supérieur à un taux linéaire.
La variation de l'exposition au cours de la journée et la durée totale d'exposition au cours de la vie peuvent être aussi importantes pour le résultat (réponse) que le niveau de dose moyen ou moyen ou même intégré. Des pics d'exposition élevés peuvent être plus nocifs qu'un niveau d'exposition plus uniforme. C'est le cas de certains solvants organiques. En revanche, pour certains cancérogènes, il a été démontré expérimentalement que le fractionnement d'une dose unique en plusieurs expositions avec la même dose totale peut être plus efficace pour produire des tumeurs.
A dose est souvent exprimée comme la quantité d'un xénobiotique pénétrant dans un organisme (en unités telles que mg/kg de poids corporel). La dose peut être exprimée de différentes manières (plus ou moins informatives) : dose d'exposition, qui est la concentration dans l'air du polluant inhalé pendant une certaine période de temps (en hygiène du travail généralement huit heures), ou la retenu or dose absorbée (en hygiène industrielle aussi appelée charge corporelle), qui est la quantité présente dans le corps à un certain moment pendant ou après l'exposition. Le dose tissulaire est la quantité de substance dans un tissu spécifique et la dose cible est la quantité de substance (généralement un métabolite) liée à la molécule critique. La dose cible peut être exprimée en mg de produit chimique lié par mg d'une macromolécule spécifique dans le tissu. Pour appliquer ce concept, des informations sur le mécanisme d'action toxique au niveau moléculaire sont nécessaires. La dose cible est plus exactement associée à l'effet toxique. La dose d'exposition ou la charge corporelle peuvent être plus facilement disponibles, mais elles sont moins précisément liées à l'effet.
Dans le concept de dose, un aspect temporel est souvent inclus, même s'il n'est pas toujours exprimé. La dose théorique selon la loi de Haber est D = ct, De D est la dose, c est la concentration du xénobiotique dans l'air et t la durée d'exposition au produit chimique. Si ce concept est utilisé au niveau de l'organe cible ou au niveau moléculaire, la quantité par mg de tissu ou de molécule pendant un certain temps peut être utilisée. L'aspect temporel est généralement plus important pour comprendre les expositions répétées et les effets chroniques que pour les expositions uniques et les effets aigus.
Effets additifs se produisent à la suite d'une exposition à une combinaison de produits chimiques, où les toxicités individuelles sont simplement ajoutées les unes aux autres (1+1= 2). Lorsque les produits chimiques agissent par le même mécanisme, l'additivité de leurs effets est supposée bien que ce ne soit pas toujours le cas dans la réalité. L'interaction entre les produits chimiques peut entraîner une inhibition (antagonisme), avec un effet plus faible que celui attendu de l'addition des effets des produits chimiques individuels (1+1 2). Alternativement, une combinaison de produits chimiques peut produire un effet plus prononcé que ce à quoi on pourrait s'attendre par addition (augmentation de la réponse chez les individus ou augmentation de la fréquence de réponse dans une population), c'est ce qu'on appelle synergie (1+1 >2).
Temps de latence est le temps entre la première exposition et l'apparition d'un effet ou d'une réponse détectable. Le terme est souvent utilisé pour les effets cancérigènes, où les tumeurs peuvent apparaître longtemps après le début de l'exposition et parfois longtemps après la fin de l'exposition.
A seuil de dose est un niveau de dose en dessous duquel aucun effet observable ne se produit. On pense qu'il existe des seuils pour certains effets, comme les effets toxiques aigus; mais pas pour d'autres, comme les effets cancérigènes (par des initiateurs formant des adduits d'ADN). La simple absence de réponse dans une population donnée ne doit cependant pas être considérée comme une preuve de l'existence d'un seuil. L'absence de réponse pourrait être due à des phénomènes statistiques simples : un effet indésirable survenant à faible fréquence peut ne pas être détectable dans une petite population.
LD50 (dose efficace) est la dose causant 50 % de létalité dans une population animale. Le DL50 est souvent donnée dans la littérature ancienne comme mesure de la toxicité aiguë des produits chimiques. Plus le DL est élevé50, plus la toxicité aiguë est faible. Un produit chimique hautement toxique (avec une faible LD50) est dit être puissant. Il n'y a pas de corrélation nécessaire entre la toxicité aiguë et chronique. DE50 (dose efficace) est la dose provoquant un effet spécifique autre que la létalité chez 50 % des animaux.
NOËL (NOAËL) signifie le niveau sans effet (nocif) observé, ou la dose la plus élevée qui ne provoque pas d'effet toxique. Pour établir un NOEL, il faut des doses multiples, une grande population et des informations supplémentaires pour s'assurer que l'absence de réponse n'est pas simplement un phénomène statistique. Loël est la dose efficace la plus faible observée sur une courbe dose-réponse, ou la dose la plus faible qui provoque un effet.
A facteur de sécurité est un nombre formel et arbitraire avec lequel on divise la NOEL ou la LOEL dérivée d'expérimentations animales pour obtenir une dose admissible provisoire pour l'homme. Ceci est souvent utilisé dans le domaine de la toxicologie alimentaire, mais peut également être utilisé en toxicologie professionnelle. Un facteur de sécurité peut également être utilisé pour l'extrapolation des données de petites populations à des populations plus importantes. Les facteurs de sécurité vont de 100 - 103. Un facteur de sécurité de deux peut généralement être suffisant pour protéger contre un effet moins grave (comme une irritation) et un facteur aussi grand que 1,000 XNUMX peut être utilisé pour des effets très graves (comme le cancer). Le terme facteur de sécurité pourrait être mieux remplacé par le terme protection facteur ou même, facteur d'incertitude. L'utilisation de ce dernier terme reflète des incertitudes scientifiques, telles que la question de savoir si les données exactes sur la dose-réponse peuvent être traduites des animaux aux humains pour le produit chimique, l'effet toxique ou la situation d'exposition particulière.
Extrapolations sont des estimations qualitatives ou quantitatives théoriques de la toxicité (extrapolations des risques) dérivées de la traduction des données d'une espèce à une autre ou d'un ensemble de données dose-réponse (généralement dans la gamme de doses élevées) aux régions de dose-réponse où aucune donnée n'existe. Des extrapolations doivent généralement être faites pour prédire les réponses toxiques en dehors de la plage d'observation. La modélisation mathématique est utilisée pour des extrapolations basées sur une compréhension du comportement de la substance chimique dans l'organisme (modélisation toxicocinétique) ou basées sur la compréhension des probabilités statistiques que des événements biologiques spécifiques se produiront (modèles biologiques ou mécanistes). Certaines agences nationales ont développé des modèles d'extrapolation sophistiqués comme méthode formalisée pour prédire les risques à des fins réglementaires. (Voir la discussion sur l'évaluation des risques plus loin dans le chapitre.)
Effets systémiques sont des effets toxiques dans les tissus éloignés de la voie d'absorption.
Organe cible est l'organe primaire ou le plus sensible affecté après l'exposition. Le même produit chimique pénétrant dans l'organisme par différentes voies d'exposition (dose, débit de dose, sexe et espèce) peut affecter différents organes cibles. L'interaction entre les produits chimiques ou entre les produits chimiques et d'autres facteurs peut également affecter différents organes cibles.
Effets aigus surviennent après une exposition limitée et peu de temps (heures, jours) après l'exposition et peuvent être réversibles ou irréversibles.
Effets chroniques surviennent après une exposition prolongée (mois, années, décennies) et/ou persistent après l'arrêt de l'exposition.
Aigu exposition est une exposition de courte durée, alors que exposition chronique est une exposition à long terme (parfois toute la vie).
Tolérance à un produit chimique peut se produire lorsque des expositions répétées entraînent une réponse plus faible que celle à laquelle on aurait pu s'attendre sans prétraitement.
Absorption et disposition
Processus de transport
La diffusion. Afin de pénétrer dans l'organisme et d'atteindre un site où des dommages sont produits, une substance étrangère doit franchir plusieurs barrières, dont les cellules et leurs membranes. La plupart des substances toxiques traversent passivement les membranes par diffusion. Cela peut se produire pour les petites molécules hydrosolubles par passage dans des canaux aqueux ou, pour celles liposolubles, par dissolution et diffusion à travers la partie lipidique de la membrane. L'éthanol, une petite molécule qui est à la fois soluble dans l'eau et dans les graisses, se diffuse rapidement à travers les membranes cellulaires.
Diffusion d'acides et de bases faibles. Les acides et les bases faibles peuvent facilement traverser les membranes sous leur forme non ionisée et liposoluble, tandis que les formes ionisées sont trop polaires pour passer. Le degré d'ionisation de ces substances dépend du pH. S'il existe un gradient de pH à travers une membrane, ils s'accumuleront donc d'un côté. L'excrétion urinaire des acides et des bases faibles dépend fortement du pH urinaire. Le pH fœtal ou embryonnaire est un peu plus élevé que le pH maternel, provoquant une légère accumulation d'acides faibles dans le fœtus ou l'embryon.
Diffusion facilitée. Le passage d'une substance peut être facilité par des porteurs dans la membrane. La diffusion facilitée est similaire aux processus enzymatiques en ce sens qu'elle est médiée par des protéines, hautement sélective et saturable. D'autres substances peuvent inhiber le transport facilité des xénobiotiques.
Transport actif. Certaines substances sont activement transportées à travers les membranes cellulaires. Ce transport est médié par des protéines porteuses dans un processus analogue à celui des enzymes. Le transport actif est similaire à la diffusion facilitée, mais il peut se produire contre un gradient de concentration. Il nécessite un apport d'énergie et un inhibiteur métabolique peut bloquer le processus. La plupart des polluants environnementaux ne sont pas transportés activement. Une exception est la sécrétion tubulaire active et la réabsorption des métabolites acides dans les reins.
Phagocytose est un processus où des cellules spécialisées telles que les macrophages engloutissent des particules pour une digestion ultérieure. Ce processus de transport est important, par exemple, pour l'élimination des particules dans les alvéoles.
Débit en vrac. Les substances sont également transportées dans le corps avec le mouvement de l'air dans le système respiratoire pendant la respiration et les mouvements du sang, de la lymphe ou de l'urine.
Filtration. En raison de la pression hydrostatique ou osmotique, l'eau s'écoule en vrac à travers les pores de l'endothélium. Tout soluté suffisamment petit sera filtré avec l'eau. La filtration se produit dans une certaine mesure dans le lit capillaire de tous les tissus, mais elle est particulièrement importante dans la formation de l'urine primaire dans les glomérules rénaux.
Absorption
L'absorption est l'absorption d'une substance de l'environnement dans l'organisme. Le terme comprend généralement non seulement l'entrée dans le tissu barrière, mais également le transport ultérieur dans le sang circulant.
Absorption pulmonaire. Les poumons sont la principale voie de dépôt et d'absorption des petites particules en suspension dans l'air, des gaz, des vapeurs et des aérosols. Pour les gaz et les vapeurs hautement solubles dans l'eau, une partie importante de l'absorption se produit dans le nez et l'arbre respiratoire, mais pour les substances moins solubles, elle se produit principalement dans les alvéoles pulmonaires. Les alvéoles ont une très grande surface (environ 100m2 chez l'homme). De plus, la barrière de diffusion est extrêmement petite, avec seulement deux fines couches cellulaires et une distance de l'ordre du micromètre entre l'air alvéolaire et la circulation sanguine systémique. Cela rend les poumons très efficaces non seulement dans l'échange d'oxygène et de dioxyde de carbone, mais aussi d'autres gaz et vapeurs. En général, la diffusion à travers la paroi alvéolaire est si rapide qu'elle ne limite pas la captation. Le taux d'absorption dépend plutôt du débit (ventilation pulmonaire, débit cardiaque) et de la solubilité (sang : coefficient de partage de l'air). Un autre facteur important est l'élimination métabolique. L'importance relative de ces facteurs pour l'absorption pulmonaire varie considérablement d'une substance à l'autre. L'activité physique entraîne une augmentation de la ventilation pulmonaire et du débit cardiaque, ainsi qu'une diminution du débit sanguin hépatique (et, par conséquent, du taux de biotransformation). Pour de nombreuses substances inhalées, cela conduit à une augmentation marquée de l'absorption pulmonaire.
Absorption percutanée. La peau est une barrière très efficace. Outre son rôle thermorégulateur, il est destiné à protéger l'organisme des micro-organismes, des rayonnements ultraviolets et autres agents délétères, ainsi que des pertes excessives d'eau. La distance de diffusion dans le derme est de l'ordre du dixième de millimètre. De plus, la couche de kératine présente une très grande résistance à la diffusion pour la plupart des substances. Néanmoins, une absorption cutanée importante entraînant une toxicité peut se produire pour certaines substances, des substances hautement toxiques et liposolubles telles que les insecticides organophosphorés et les solvants organiques, par exemple. Une absorption importante est susceptible de se produire après une exposition à des substances liquides. L'absorption percutanée de vapeur peut être importante pour les solvants à très faible pression de vapeur et à forte affinité pour l'eau et la peau.
Absorption gastro-intestinale se produit après une ingestion accidentelle ou intentionnelle. Les particules plus grosses initialement inhalées et déposées dans les voies respiratoires peuvent être avalées après transport mucociliaire vers le pharynx. Pratiquement toutes les substances solubles sont efficacement absorbées dans le tractus gastro-intestinal. Le faible pH de l'intestin peut faciliter l'absorption, par exemple, des métaux.
Autres itinéraires. Dans les tests de toxicité et d'autres expériences, des voies d'administration spéciales sont souvent utilisées pour des raisons de commodité, bien qu'elles soient rares et généralement non pertinentes dans le cadre professionnel. Ces voies comprennent les injections intraveineuses (IV), sous-cutanées (sc), intrapéritonéales (ip) et intramusculaires (im). En général, les substances sont absorbées à un rythme plus élevé et plus complètement par ces voies, surtout après injection IV. Cela conduit à des pics de concentration de courte durée mais élevés qui peuvent augmenter la toxicité d'une dose.
Distribution
La distribution d'une substance dans l'organisme est un processus dynamique qui dépend des taux d'absorption et d'élimination, ainsi que du flux sanguin vers les différents tissus et de leurs affinités pour la substance. Les petites molécules non chargées solubles dans l'eau, les cations univalents et la plupart des anions se diffusent facilement et finiront par atteindre une distribution relativement uniforme dans le corps.
Volume de distribution est la quantité d'une substance dans le corps à un moment donné, divisée par la concentration dans le sang, le plasma ou le sérum à ce moment-là. La valeur n'a aucune signification en tant que volume physique, car de nombreuses substances ne sont pas uniformément réparties dans l'organisme. Un volume de distribution inférieur à un l/kg de poids corporel indique une distribution préférentielle dans le sang (ou le sérum ou le plasma), tandis qu'une valeur supérieure à un indique une préférence pour les tissus périphériques tels que le tissu adipeux pour les substances liposolubles.
Accumulation est l'accumulation d'une substance dans un tissu ou un organe à des niveaux plus élevés que dans le sang ou le plasma. Il peut également faire référence à une accumulation progressive au fil du temps dans l'organisme. De nombreux xénobiotiques sont très liposolubles et ont tendance à s'accumuler dans le tissu adipeux, tandis que d'autres ont une affinité particulière pour les os. Par exemple, le calcium dans les os peut être échangé contre des cations de plomb, de strontium, de baryum et de radium, et les groupes hydroxyle dans les os peuvent être échangés contre du fluorure.
Barrières. Les vaisseaux sanguins du cerveau, des testicules et du placenta ont des caractéristiques anatomiques spéciales qui inhibent le passage de grosses molécules comme les protéines. Ces caractéristiques, souvent appelées barrières hémato-encéphalique, hémato-testiculaire et hémato-placentaire, peuvent donner la fausse impression qu'elles empêchent le passage de toute substance. Ces barrières sont peu ou pas importantes pour les xénobiotiques qui peuvent diffuser à travers les membranes cellulaires.
Liaison au sang. Les substances peuvent être liées aux globules rouges ou aux composants du plasma, ou se trouver non liées dans le sang. Le monoxyde de carbone, l'arsenic, le mercure organique et le chrome hexavalent ont une forte affinité pour les globules rouges, tandis que le mercure inorganique et le chrome trivalent montrent une préférence pour les protéines plasmatiques. Un certain nombre d'autres substances se lient également aux protéines plasmatiques. Seule la fraction non liée est disponible pour la filtration ou la diffusion dans les organes d'élimination. La liaison au sang peut donc augmenter le temps de séjour dans l'organisme mais diminuer l'absorption par les organes cibles.
Élimination
Élimination est la disparition d'une substance dans l'organisme. L'élimination peut impliquer l'excrétion du corps ou la transformation en d'autres substances non capturées par une méthode de mesure spécifique. La vitesse de disparition peut être exprimée par la constante de vitesse d'élimination, la demi-vie biologique ou la clairance.
Courbe concentration-temps. La courbe de concentration dans le sang (ou le plasma) en fonction du temps est un moyen pratique de décrire l'absorption et la disposition d'un xénobiotique.
Aire sous la courbe (ASC) est l'intégrale de la concentration dans le sang (plasma) au fil du temps. Lorsque la saturation métabolique et d'autres processus non linéaires sont absents, l'ASC est proportionnelle à la quantité de substance absorbée.
Mi-temps biologique (ou demi-vie) est le temps nécessaire après la fin de l'exposition pour réduire de moitié la quantité présente dans l'organisme. Comme il est souvent difficile d'évaluer la quantité totale d'une substance, des mesures telles que la concentration dans le sang (plasma) sont utilisées. La demi-vie doit être utilisée avec prudence, car elle peut changer, par exemple, avec la dose et la durée d'exposition. De plus, de nombreuses substances ont des courbes de décroissance complexes avec plusieurs demi-temps.
biodisponibilité est la fraction d'une dose administrée pénétrant dans la circulation systémique. En l'absence de clairance présystémique, ou métabolisme de premier passage, la fraction est un. Lors d'une exposition orale, la clairance présystémique peut être due au métabolisme dans le contenu gastro-intestinal, la paroi intestinale ou le foie. Le métabolisme de premier passage réduira l'absorption systémique de la substance et augmentera plutôt l'absorption des métabolites. Cela peut conduire à un profil de toxicité différent.
Liquidation est le volume de sang (plasma) par unité de temps complètement débarrassé d'une substance. Pour distinguer de la clairance rénale, par exemple, le préfixe total, métabolique ou sanguin (plasma) est souvent ajouté.
Jeu intrinsèque est la capacité des enzymes endogènes à transformer une substance, et s'exprime également en volume par unité de temps. Si la clairance intrinsèque dans un organe est beaucoup plus faible que le flux sanguin, on dit que le métabolisme est limité en capacité. A l'inverse, si la clairance intrinsèque est beaucoup plus élevée que le débit sanguin, le métabolisme est limité en débit.
Excrétion
L'excrétion est la sortie d'une substance et de ses produits de biotransformation hors de l'organisme.
Excrétion dans l'urine et la bile. Les reins sont les organes excréteurs les plus importants. Certaines substances, en particulier les acides à haut poids moléculaire, sont excrétées avec la bile. Une fraction des substances excrétées par les voies biliaires peut être réabsorbée dans les intestins. Ce processus, circulation entérohépatique, est fréquente pour les substances conjuguées après hydrolyse intestinale du conjugué.
Autres voies d'excrétion. Certaines substances, telles que les solvants organiques et les produits de dégradation tels que l'acétone, sont suffisamment volatiles pour qu'une fraction considérable puisse être excrétée par expiration après inhalation. Les petites molécules solubles dans l'eau ainsi que celles liposolubles sont facilement sécrétées par le fœtus via le placenta et dans le lait chez les mammifères. Pour la mère, la lactation peut être une voie d'excrétion quantitativement importante pour les produits chimiques liposolubles persistants. La progéniture peut être secondairement exposée via la mère pendant la grossesse ainsi que pendant l'allaitement. Les composés hydrosolubles peuvent, dans une certaine mesure, être excrétés dans la sueur et la salive. Ces itinéraires sont généralement d'importance mineure. Cependant, comme un grand volume de salive est produit et avalé, l'excrétion de salive peut contribuer à la réabsorption du composé. Certains métaux comme le mercure sont excrétés en se liant de manière permanente aux groupes sulfhydryles de la kératine du cheveu.
Modèles toxicocinétiques
Les modèles mathématiques sont des outils importants pour comprendre et décrire l'absorption et l'élimination des substances étrangères. La plupart des modèles sont compartimentaux, c'est-à-dire que l'organisme est représenté par un ou plusieurs compartiments. Un compartiment est un volume chimiquement et physiquement théorique dans lequel la substance est supposée se répartir de manière homogène et instantanée. Les modèles simples peuvent être exprimés comme une somme de termes exponentiels, tandis que les plus compliqués nécessitent des procédures numériques sur un ordinateur pour leur solution. Les modèles peuvent être subdivisés en deux catégories, descriptives et physiologiques.
In descriptif numériques jumeaux (digital twin models), l'ajustement aux données mesurées est effectué en modifiant les valeurs numériques des paramètres du modèle ou même la structure du modèle elle-même. La structure du modèle a normalement peu à voir avec la structure de l'organisme. Les avantages de l'approche descriptive sont que peu d'hypothèses sont faites et qu'il n'y a pas besoin de données supplémentaires. Un inconvénient des modèles descriptifs est leur utilité limitée pour les extrapolations.
Modèles physiologiques sont construits à partir de données physiologiques, anatomiques et autres données indépendantes. Le modèle est ensuite affiné et validé par comparaison avec des données expérimentales. Un avantage des modèles physiologiques est qu'ils peuvent être utilisés à des fins d'extrapolation. Par exemple, l'influence de l'activité physique sur l'absorption et l'élimination des substances inhalées peut être prédite à partir d'ajustements physiologiques connus de la ventilation et du débit cardiaque. Un inconvénient des modèles physiologiques est qu'ils nécessitent une grande quantité de données indépendantes.
Biotransformation
Biotransformation est un processus qui conduit à une conversion métabolique de composés étrangers (xénobiotiques) dans le corps. Le processus est souvent appelé métabolisme des xénobiotiques. En règle générale, le métabolisme convertit les xénobiotiques liposolubles en grands métabolites hydrosolubles qui peuvent être efficacement excrétés.
Le foie est le principal site de biotransformation. Tous les xénobiotiques prélevés dans l'intestin sont transportés vers le foie par un seul vaisseau sanguin (veine porte). Si elle est absorbée en petites quantités, une substance étrangère peut être complètement métabolisée dans le foie avant d'atteindre la circulation générale et d'autres organes (effet de premier passage). Les xénobiotiques inhalés sont distribués via la circulation générale vers le foie. Dans ce cas, seule une fraction de la dose est métabolisée dans le foie avant d'atteindre d'autres organes.
Les cellules hépatiques contiennent plusieurs enzymes qui oxydent les xénobiotiques. Cette oxydation active généralement le composé - il devient plus réactif que la molécule mère. Dans la plupart des cas, le métabolite oxydé est ensuite métabolisé par d'autres enzymes dans une seconde phase. Ces enzymes conjuguent le métabolite avec un substrat endogène, de sorte que la molécule devient plus grosse et plus polaire. Cela facilite l'excrétion.
Les enzymes qui métabolisent les xénobiotiques sont également présentes dans d'autres organes tels que les poumons et les reins. Dans ces organes, ils peuvent jouer des rôles spécifiques et qualitativement importants dans le métabolisme de certains xénobiotiques. Les métabolites formés dans un organe peuvent ensuite être métabolisés dans un deuxième organe. Les bactéries présentes dans l'intestin peuvent également participer à la biotransformation.
Les métabolites des xénobiotiques peuvent être excrétés par les reins ou via la bile. Ils peuvent également être exhalés via les poumons ou liés à des molécules endogènes dans le corps.
La relation entre la biotransformation et la toxicité est complexe. La biotransformation peut être considérée comme un processus nécessaire à la survie. Il protège l'organisme contre la toxicité en empêchant l'accumulation de substances nocives dans l'organisme. Cependant, des métabolites intermédiaires réactifs peuvent se former lors de la biotransformation, et ceux-ci sont potentiellement nocifs. C'est ce qu'on appelle l'activation métabolique. Ainsi, la biotransformation peut également induire une toxicité. Les métabolites intermédiaires oxydés qui ne sont pas conjugués peuvent se lier aux structures cellulaires et les endommager. Si, par exemple, un métabolite xénobiotique se lie à l'ADN, une mutation peut être induite (voir « Toxicologie génétique »). Si le système de biotransformation est surchargé, une destruction massive des protéines essentielles ou des membranes lipidiques peut se produire. Cela peut entraîner la mort cellulaire (voir « Lésion cellulaire et mort cellulaire »).
Métabolisme est un mot souvent utilisé de manière interchangeable avec biotransformation. Il dénote une décomposition chimique ou des réactions de synthèse catalysées par des enzymes dans le corps. Les nutriments provenant des aliments, les composés endogènes et les xénobiotiques sont tous métabolisés dans le corps.
Activation métabolique signifie qu'un composé moins réactif est converti en une molécule plus réactive. Cela se produit généralement pendant les réactions de phase 1.
Inactivation métabolique signifie qu'une molécule active ou toxique est convertie en un métabolite moins actif. Cela se produit généralement pendant les réactions de phase 2. Dans certains cas, un métabolite inactivé peut être réactivé, par exemple par clivage enzymatique.
Phase 1 réaction fait référence à la première étape du métabolisme des xénobiotiques. Cela signifie généralement que le composé est oxydé. L'oxydation rend généralement le composé plus soluble dans l'eau et facilite les réactions ultérieures.
Les enzymes du cytochrome P450 sont un groupe d'enzymes qui oxydent préférentiellement les xénobiotiques dans les réactions de phase 1. Les différentes enzymes sont spécialisées pour manipuler des groupes spécifiques de xénobiotiques avec certaines caractéristiques. Les molécules endogènes sont également des substrats. Les enzymes du cytochrome P450 sont induites par les xénobiotiques d'une manière spécifique. L'obtention de données d'induction sur le cytochrome P450 peut être informative sur la nature des expositions antérieures (voir « Déterminants génétiques de la réponse toxique »).
Phase 2 réaction fait référence à la deuxième étape du métabolisme des xénobiotiques. Cela signifie généralement que le composé oxydé est conjugué avec (couplé à) une molécule endogène. Cette réaction augmente encore la solubilité dans l'eau. De nombreux métabolites conjugués sont activement excrétés par les reins.
Transferts sont un groupe d'enzymes qui catalysent les réactions de phase 2. Ils conjuguent des xénobiotiques avec des composés endogènes tels que le glutathion, les acides aminés, l'acide glucuronique ou le sulfate.
Le glutathion est une molécule endogène, un tripeptide, qui se conjugue avec des xénobiotiques dans les réactions de Phase 2. Il est présent dans toutes les cellules (et dans les cellules hépatiques à des concentrations élevées) et protège généralement des xénobiotiques activés. Lorsque le glutathion est épuisé, des réactions toxiques entre les métabolites xénobiotiques activés et les protéines, les lipides ou l'ADN peuvent se produire.
Induction signifie que les enzymes impliquées dans la biotransformation sont augmentées (en activité ou en quantité) en réponse à l'exposition aux xénobiotiques. Dans certains cas, en quelques jours, l'activité enzymatique peut être multipliée plusieurs fois. L'induction est souvent équilibrée de sorte que les réactions de phase 1 et de phase 2 sont augmentées simultanément. Cela peut conduire à une biotransformation plus rapide et peut expliquer la tolérance. En revanche, une induction déséquilibrée peut augmenter la toxicité.
Inhibition de biotransformation peut se produire si deux xénobiotiques sont métabolisés par la même enzyme. Les deux substrats doivent entrer en compétition, et généralement l'un des substrats est préféré. Dans ce cas, le second substrat n'est pas métabolisé, ou seulement lentement métabolisé. Comme pour l'induction, l'inhibition peut aussi bien augmenter que diminuer la toxicité.
Activation de l'oxygène peut être déclenchée par les métabolites de certains xénobiotiques. Ils peuvent s'auto-oxyder sous la production d'espèces oxygénées activées. Ces espèces dérivées de l'oxygène, qui comprennent le superoxyde, le peroxyde d'hydrogène et le radical hydroxyle, peuvent endommager l'ADN, les lipides et les protéines des cellules. L'activation de l'oxygène est également impliquée dans les processus inflammatoires.
Variabilité génétique entre les individus est observée dans de nombreux gènes codant pour les enzymes de phase 1 et de phase 2. La variabilité génétique peut expliquer pourquoi certains individus sont plus sensibles aux effets toxiques des xénobiotiques que d'autres.
Les décisions affectant la santé, le bien-être et l'employabilité des travailleurs individuels ou l'approche d'un employeur en matière de santé et de sécurité doivent être fondées sur des données de bonne qualité. C'est particulièrement le cas dans le cas des données de surveillance biologique et il est donc de la responsabilité de tout laboratoire effectuant des travaux analytiques sur des échantillons biologiques de populations actives de s'assurer de la fiabilité, de l'exactitude et de la précision de ses résultats. Cette responsabilité s'étend de la fourniture de méthodes et de conseils appropriés pour le prélèvement d'échantillons à la garantie que les résultats sont renvoyés au professionnel de la santé responsable des soins du travailleur individuel sous une forme appropriée. Toutes ces activités sont couvertes par l'expression de l'assurance qualité.
L'activité centrale d'un programme d'assurance qualité est le contrôle et le maintien de l'exactitude et de la précision analytiques. Les laboratoires de surveillance biologique se sont souvent développés dans un environnement clinique et ont emprunté des techniques et des philosophies d'assurance qualité à la discipline de la chimie clinique. En effet, les mesures des produits chimiques toxiques et des indicateurs d'effets biologiques dans le sang et l'urine ne sont essentiellement pas différentes de celles effectuées en chimie clinique et dans les laboratoires des services de pharmacologie clinique que l'on trouve dans n'importe quel grand hôpital.
Un programme d'assurance qualité pour un analyste individuel commence par la sélection et l'établissement d'une méthode appropriée. La prochaine étape est le développement d'une procédure de contrôle interne de la qualité pour maintenir la précision ; le laboratoire doit alors s'assurer de l'exactitude de l'analyse, ce qui peut très bien impliquer une évaluation externe de la qualité (voir ci-dessous). Il est important de reconnaître cependant que l'assurance qualité comprend plus que ces aspects du contrôle de la qualité analytique.
Sélection de la méthode
Il existe plusieurs textes présentant des méthodes analytiques en suivi biologique. Bien que ceux-ci donnent des indications utiles, il reste encore beaucoup à faire par l'analyste individuel avant que des données de qualité appropriée puissent être produites. Au centre de tout programme d'assurance qualité se trouve la production d'un protocole de laboratoire qui doit spécifier en détail les parties de la méthode qui ont le plus d'incidence sur sa fiabilité, son exactitude et sa précision. En effet, l'accréditation nationale des laboratoires de chimie clinique, de toxicologie et de médecine légale dépend généralement de la qualité des protocoles du laboratoire. Le développement d'un protocole approprié est généralement un processus qui prend du temps. Si un laboratoire souhaite établir une nouvelle méthode, il est souvent plus rentable d'obtenir d'un laboratoire existant un protocole qui a prouvé sa performance, par exemple, grâce à la validation dans un programme international d'assurance qualité établi. Si le nouveau laboratoire se consacre à une technique analytique spécifique, par exemple la chromatographie en phase gazeuse plutôt que la chromatographie liquide à haute performance, il est souvent possible d'identifier un laboratoire qui a un bon dossier de performance et qui utilise la même approche analytique. Les laboratoires peuvent souvent être identifiés par des articles de revues ou par les organisateurs de divers programmes nationaux d'évaluation de la qualité.
Contrôle qualité interne
La qualité des résultats analytiques dépend de la précision de la méthode obtenue dans la pratique, qui à son tour dépend du strict respect d'un protocole défini. La précision est mieux évaluée par l'inclusion d'« échantillons de contrôle qualité » à intervalles réguliers au cours d'une analyse. Par exemple, pour le contrôle des analyses de plomb dans le sang, des échantillons de contrôle qualité sont introduits dans l'analyse tous les six ou huit échantillons de travailleurs réels. Des méthodes analytiques plus stables peuvent être surveillées avec moins d'échantillons de contrôle qualité par cycle. Les échantillons de contrôle qualité pour la plombémie sont préparés à partir de 500 ml de sang (humain ou bovin) additionné de plomb inorganique ; les aliquotes individuelles sont conservées à basse température (Bullock, Smith et Whitehead 1986). Avant la mise en service de chaque nouveau lot, 20 aliquotes sont analysées en séries séparées à différentes occasions pour établir le résultat moyen de ce lot d'échantillons de contrôle qualité, ainsi que son écart type (Whitehead 1977). Ces deux figures permettent d'établir une carte de contrôle de Shewhart (figure 27.2). Les résultats de l'analyse des échantillons de contrôle qualité inclus dans les analyses ultérieures sont tracés sur le graphique. L'analyste utilise ensuite des règles d'acceptation ou de rejet d'une analyse selon que les résultats de ces échantillons se situent à moins de deux ou trois écarts-types (ET) de la moyenne. Une séquence de règles, validée par modélisation informatique, a été proposée par Westgard et al. (1981) pour une application à des échantillons témoins. Cette approche du contrôle qualité est décrite dans les manuels de chimie clinique et une approche simple de l'introduction de l'assurance qualité est présentée dans Whitehead (1977). Il faut souligner que ces techniques de contrôle qualité dépendent de la préparation et de l'analyse d'échantillons de contrôle qualité séparément des échantillons d'étalonnage qui sont utilisés à chaque occasion d'analyse.
Figure 27.2 Carte de contrôle de Shewhart pour les échantillons de contrôle qualité
Cette approche peut être adaptée à une gamme d'essais de surveillance biologique ou de surveillance des effets biologiques. Des lots d'échantillons de sang ou d'urine peuvent être préparés en ajoutant soit la matière toxique, soit le métabolite à mesurer. De même, le sang, le sérum, le plasma ou l'urine peuvent être aliquotés et stockés congelés ou lyophilisés pour la mesure des enzymes ou des protéines. Cependant, il faut veiller à éviter tout risque infectieux pour l'analyste à partir d'échantillons à base de sang humain.
Le respect scrupuleux d'un protocole bien défini et de règles d'acceptabilité est une première étape essentielle d'un programme d'assurance qualité. Tout laboratoire doit être prêt à discuter de ses performances en matière de contrôle et d'évaluation de la qualité avec les professionnels de la santé qui l'utilisent et à enquêter sur des résultats surprenants ou inhabituels.
Évaluation externe de la qualité
Une fois qu'un laboratoire a établi qu'il peut produire des résultats avec une précision adéquate, l'étape suivante consiste à confirmer l'exactitude ("justesse") des valeurs mesurées, c'est-à-dire la relation entre les mesures effectuées et la quantité réelle présente. Il s'agit d'un exercice difficile à réaliser pour un laboratoire seul, mais il peut être réalisé en participant à un programme régulier d'évaluation externe de la qualité. Ceux-ci ont été une partie essentielle de la pratique de la chimie clinique pendant un certain temps, mais n'ont pas été largement disponibles pour la surveillance biologique. L'exception est l'analyse de la plombémie, pour laquelle des schémas sont disponibles depuis les années 1970 (par exemple, Bullock, Smith et Whitehead 1986). La comparaison des résultats d'analyse avec ceux rapportés par d'autres laboratoires analysant des échantillons du même lot permet d'évaluer la performance d'un laboratoire par rapport à d'autres, ainsi que de mesurer sa précision. Plusieurs systèmes nationaux et internationaux d'évaluation de la qualité sont disponibles. Beaucoup de ces programmes accueillent de nouveaux laboratoires, car la validité de la moyenne des résultats d'un analyte de tous les laboratoires participants (prise comme mesure de la concentration réelle) augmente avec le nombre de participants. Les systèmes comptant de nombreux participants sont également plus à même d'analyser les performances du laboratoire en fonction de la méthode d'analyse et donc de conseiller sur les alternatives aux méthodes aux caractéristiques de performance médiocres. Dans certains pays, la participation à un tel système est un élément essentiel de l'accréditation des laboratoires. L'OMS (1981) a publié des lignes directrices pour la conception et le fonctionnement d'un programme d'évaluation externe de la qualité.
En l'absence de systèmes établis d'évaluation externe de la qualité, l'exactitude peut être vérifiée à l'aide de matériaux de référence certifiés disponibles sur une base commerciale pour une gamme limitée d'analytes. Les avantages des échantillons diffusés par des systèmes d'évaluation externe de la qualité sont que (1) l'analyste n'a pas connaissance à l'avance du résultat, (2) une gamme de concentrations est présentée et (3) les méthodes d'analyse définitives n'ont pas à être employés, les matériaux impliqués sont moins chers.
Contrôle qualité pré-analytique
Les efforts déployés pour atteindre une bonne exactitude et précision du laboratoire sont vains si les échantillons présentés au laboratoire n'ont pas été prélevés au bon moment, s'ils ont subi une contamination, se sont détériorés pendant le transport ou ont été étiquetés de manière inadéquate ou incorrecte. C'est également une mauvaise pratique professionnelle de soumettre des individus à un échantillonnage invasif sans prendre suffisamment soin des matériaux échantillonnés. Bien que l'échantillonnage ne soit souvent pas sous le contrôle direct de l'analyste de laboratoire, un programme complet de surveillance biologique de la qualité doit tenir compte de ces facteurs et le laboratoire doit s'assurer que les seringues et les récipients d'échantillon fournis sont exempts de contamination, avec des instructions claires sur la technique d'échantillonnage et stockage et transport des échantillons. L'importance du bon moment d'échantillonnage au cours du quart de travail ou de la semaine de travail et sa dépendance à la toxicocinétique du matériel échantillonné sont maintenant reconnues (ACGIH 1993; HSE 1992), et cette information devrait être mise à la disposition des professionnels de la santé responsables de la collecte des échantillons. .
Contrôle qualité post-analytique
Des résultats analytiques de haute qualité peuvent être de peu d'utilité pour l'individu ou le professionnel de la santé s'ils ne sont pas communiqués au professionnel sous une forme interprétable et au bon moment. Chaque laboratoire de surveillance biologique doit élaborer des procédures de notification pour alerter le professionnel de la santé soumettant les échantillons des résultats anormaux, inattendus ou déroutants à temps pour permettre de prendre les mesures appropriées. L'interprétation des résultats de laboratoire, en particulier les changements de concentration entre des échantillons successifs, dépend souvent de la connaissance de la précision du dosage. Dans le cadre de la gestion de la qualité totale depuis le prélèvement des échantillons jusqu'à la restitution des résultats, les professionnels de santé doivent être informés de la précision et de l'exactitude du laboratoire de surveillance biologique, ainsi que des plages de référence et des limites d'avis et réglementaires, afin de les aider dans l'interprétation des résultats.
Il est difficile de parler d'analyse du travail sans le replacer dans la perspective des mutations récentes du monde industriel, car la nature des activités et les conditions dans lesquelles elles s'exercent ont beaucoup évolué ces dernières années. Les facteurs à l'origine de ces changements ont été nombreux, mais il en est deux dont l'impact s'est révélé crucial. D'une part, le progrès technologique avec son rythme toujours plus rapide et les bouleversements induits par les technologies de l'information ont révolutionné les métiers (De Keyser 1986). D'autre part, l'incertitude du marché économique a exigé plus de flexibilité dans la gestion du personnel et l'organisation du travail. Si les ouvriers ont acquis une vision plus large du processus de production, moins routinière et sans doute plus systématique, ils ont en même temps perdu des liens exclusifs avec un environnement, une équipe, un outil de production. Il est difficile d'envisager sereinement ces changements, mais force est de constater qu'un nouveau paysage industriel s'est créé, parfois plus enrichissant pour les travailleurs qui peuvent y trouver leur place, mais aussi semé d'embûches et d'inquiétudes pour ceux qui sont marginalisés ou exclus. Cependant, une idée est reprise dans les entreprises et a été confirmée par des expériences pilotes dans de nombreux pays : il devrait être possible d'orienter les changements et d'en atténuer les effets néfastes en s'appuyant sur des analyses pertinentes et en utilisant toutes les ressources de négociation entre les différents acteurs du travail. acteurs. C'est dans ce contexte qu'il faut situer aujourd'hui les analyses du travail, comme outils permettant de mieux décrire les tâches et les activités afin d'orienter les interventions de différentes natures, telles que la formation, la mise en place de nouveaux modes d'organisation ou la conception d'outils et de processus de travail. systèmes. On parle d'analyses, et pas d'une seule analyse, puisqu'il en existe un grand nombre, selon les contextes théoriques et culturels dans lesquels elles sont élaborées, les buts particuliers qu'elles poursuivent, les preuves qu'elles recueillent, ou le souci de l'analyseur soit spécificité ou généralité. Dans cet article, nous nous limiterons à présenter quelques caractéristiques des analyses du travail et à souligner l'importance du travail collectif. Nos conclusions mettront en évidence d'autres voies que les limites de ce texte nous empêchent d'approfondir.
Quelques caractéristiques des analyses de travail
Le contexte
Si l'objectif principal de toute analyse du travail est de décrire ce que l'opérateur ou devrait faire, la replacer plus précisément dans son contexte a souvent semblé indispensable aux chercheurs. Ils mentionnent, selon leur point de vue, mais d'une manière assez similaire, les concepts de contexte, situation, sûr, heureux et sain, domaine de travail, monde du travail or l'environnement de travail. Le problème réside moins dans les nuances entre ces termes que dans le choix des variables qu'il convient de décrire pour leur donner un sens utile. En effet, le monde est vaste et l'industrie est complexe, et les caractéristiques auxquelles on pourrait faire référence sont innombrables. Deux tendances peuvent être notées parmi les auteurs du domaine. La première voit dans la description du contexte un moyen de capter l'intérêt du lecteur et de lui fournir un cadre sémantique adéquat. La seconde a une perspective théorique différente : elle tente d'embrasser à la fois le contexte et l'activité, décrivant uniquement les éléments du contexte qui sont capables d'influencer le comportement des opérateurs.
Le cadre sémantique
Le contexte a un pouvoir évocateur. Il suffit, pour un lecteur averti, de lire l'histoire d'un opérateur dans une salle de contrôle engagé dans un processus continu pour se représenter un travail par commande et surveillance à distance, où prédominent les tâches de détection, de diagnostic et de régulation. Quelles variables faut-il décrire pour créer un contexte suffisamment significatif ? Tout dépend du lecteur. Néanmoins, il existe un consensus dans la littérature sur quelques variables clés. Le nature du secteur économique, le type de production ou de service, la taille et la situation géographique du site sont utiles.
Les processus de production, les outils ou machines et leur niveau d'automatisation laisser deviner certaines contraintes et certaines qualifications nécessaires. Le composition du personnel, ainsi que l'âge et le niveau de qualification et d'expérience sont des données cruciales dès lors que l'analyse porte sur des aspects de formation ou de flexibilité organisationnelle. Le organisation du travail établie dépend plus de la philosophie de l'entreprise que de la technologie. Sa description comprend notamment les horaires de travail, le degré de centralisation des décisions et les types de contrôle exercés sur les travailleurs. D'autres éléments peuvent être ajoutés dans différents cas. Ils sont liés à l'histoire et à la culture de l'entreprise, à sa situation économique, à ses conditions de travail, à d'éventuelles restructurations, fusions et investissements. Il existe au moins autant de systèmes de classification que d'auteurs et de nombreuses listes descriptives circulent. En France, un effort particulier a été fait pour généraliser des méthodes descriptives simples, permettant notamment de hiérarchiser certains facteurs selon qu'ils sont satisfaisants ou non pour l'exploitant (RNUR 1976 ; Guelaud et al. 1977).
La description des facteurs pertinents concernant l'activité
La taxonomie des systèmes complexes décrite par Rasmussen, Pejtersen et Schmidts (1990) représente l'une des tentatives les plus ambitieuses pour couvrir à la fois le contexte et son influence sur l'opérateur. Son idée principale est d'intégrer, de façon systématique, les différents éléments qui le composent et de faire ressortir les degrés de liberté et les contraintes à l'intérieur desquelles des stratégies individuelles peuvent être développées. Son objectif exhaustif le rend difficile à manipuler, mais l'utilisation de multiples modes de représentation, y compris les graphes, pour illustrer les contraintes a une valeur heuristique qui ne manquera pas d'intéresser de nombreux lecteurs. D'autres approches sont plus ciblées. Ce que les auteurs recherchent, c'est la sélection des facteurs qui peuvent influencer une activité précise. Ainsi, s'intéressant au contrôle des processus dans un environnement changeant, Brehmer (1990) propose une série de caractéristiques temporelles du contexte qui affectent le contrôle et l'anticipation de l'opérateur (voir figure 1). La typologie de cet auteur a été élaborée à partir de « micro-mondes », simulations informatiques de situations dynamiques, mais l'auteur lui-même, comme bien d'autres depuis, l'a utilisée pour l'industrie à processus continu (Van Daele 1992). Pour certaines activités, l'influence de l'environnement est bien connue et la sélection des facteurs n'est pas trop difficile. Ainsi, si l'on s'intéresse à la fréquence cardiaque en milieu de travail, on se limite souvent à décrire les températures de l'air, les contraintes physiques de la tâche ou l'âge et l'entraînement du sujet - même si l'on sait qu'en faisant cela on laisse peut-être éléments pertinents. Pour d'autres, le choix est plus difficile. Les études sur l'erreur humaine, par exemple, montrent que les facteurs capables de les produire sont nombreux (Reason 1989). Parfois, lorsque les connaissances théoriques sont insuffisantes, seul un traitement statistique, combinant analyse du contexte et de l'activité, permet de faire émerger les facteurs contextuels pertinents (Fadier 1990).
Figure 1. Les critères et sous-critères de la taxonomie des micro-mondes proposée par Brehmer (1990)
La tâche ou l'activité ?
La tâche
La tâche est définie par ses objectifs, ses contraintes et les moyens qu'elle nécessite pour sa réalisation. Une fonction au sein de l'entreprise est généralement caractérisée par un ensemble de tâches. La tâche réalisée diffère de la tâche prescrite planifiée par l'entreprise pour un grand nombre de raisons : les stratégies des opérateurs varient au sein et entre les individus, l'environnement fluctue et les aléas nécessitent des réponses qui sortent souvent du cadre prescrit. Finalement, le tâche n'est pas toujours ordonnancée avec la bonne connaissance de ses conditions d'exécution, d'où la nécessité d'adaptations en temps réel. Mais même si la tâche est mise à jour au cours de l'activité, parfois au point de se transformer, elle n'en reste pas moins la référence centrale.
Les questionnaires, inventaires et taxonomies de tâches sont nombreux, notamment dans la littérature anglo-saxonne — le lecteur trouvera d'excellentes recensions dans Fleishman et Quaintance (1984) et dans Greuter et Algera (1989). Certains de ces instruments ne sont que des listes d'éléments — par exemple, les verbes d'action pour illustrer des tâches — qui sont cochés selon la fonction étudiée. D'autres ont adopté un principe hiérarchique, caractérisant une tâche comme des éléments imbriqués, ordonnés du global au particulier. Ces méthodes sont standardisées et peuvent s'appliquer à un grand nombre de fonctions ; ils sont simples à utiliser et la phase d'analyse est beaucoup plus courte. Mais lorsqu'il s'agit de définir un travail spécifique, elles sont trop statiques et trop générales pour être utiles.
Ensuite, il y a les instruments qui demandent plus d'habileté de la part du chercheur ; les éléments d'analyse n'étant pas prédéfinis, il appartient au chercheur de les caractériser. La technique déjà dépassée de l'incident critique de Flanagan (1954), où l'observateur décrit une fonction par référence à ses difficultés et identifie les incidents auxquels l'individu devra faire face, appartient à ce groupe.
C'est aussi la voie empruntée par l'analyse des tâches cognitives (Roth et Woods 1988). Cette technique vise à mettre en lumière les exigences cognitives d'un travail. Une façon d'y parvenir est de décomposer le travail en objectifs, contraintes et moyens. La figure 2 montre comment la tâche d'un anesthésiste, caractérisée d'abord par un objectif très global de survie du patient, peut être décomposée en une série de sous-objectifs, eux-mêmes classables en actions et moyens à mettre en œuvre. Plus de 100 heures d'observation au bloc opératoire et d'entretiens ultérieurs avec des anesthésistes ont été nécessaires pour obtenir cette « photographie » synoptique des exigences de la fonction. Cette technique, bien qu'assez laborieuse, est néanmoins utile en ergonomie pour déterminer si tous les buts d'une tâche sont pourvus des moyens de les atteindre. Elle permet également de comprendre la complexité d'une tâche (ses difficultés particulières et ses objectifs contradictoires, par exemple) et facilite l'interprétation de certaines erreurs humaines. Mais elle souffre, comme d'autres méthodes, de l'absence d'un langage descriptif (Grant et Mayes 1991). De plus, elle ne permet pas de formuler des hypothèses sur la nature des processus cognitifs mis en jeu pour atteindre les buts en question.
Figure 2. Analyse cognitive de la tâche : anesthésie générale
D'autres approches ont analysé les processus cognitifs associés à des tâches données en élaborant des hypothèses sur le traitement de l'information nécessaire à leur accomplissement. Un modèle cognitif de ce type fréquemment employé est celui de Rasmussen (1986) qui prévoit, selon la nature de la tâche et sa familiarité pour le sujet, trois niveaux d'activité possibles basés soit sur des habitudes et des réflexes basés sur des compétences, soit sur des règles acquises basées sur les procédures ou sur les procédures basées sur les connaissances. Mais d'autres modèles ou théories qui ont atteint leur apogée dans les années 1970 restent en usage. Ainsi, la théorie du contrôle optimal, qui considère l'homme comme un contrôleur des écarts entre buts assignés et buts observés, est parfois encore appliquée aux processus cognitifs. Et la modélisation au moyen de réseaux de tâches interconnectées et d'organigrammes continue d'inspirer les auteurs de l'analyse cognitive des tâches ; la figure 3 propose une description simplifiée des séquences comportementales dans une tâche de contrôle de l'énergie, en construisant une hypothèse sur certaines opérations mentales. Toutes ces tentatives traduisent le souci des chercheurs de réunir dans une même description non seulement des éléments de contexte mais aussi la tâche elle-même et les processus cognitifs qui la sous-tendent – et de refléter aussi le caractère dynamique du travail.
Figure 3. Description simplifiée des déterminants d'une séquence de comportement dans des tâches de maîtrise de l'énergie : un cas de consommation d'énergie inacceptable
Depuis l'avènement de l'organisation scientifique du travail, le concept de tâche prescrite a fait l'objet de critiques négatives car il était considéré comme impliquant l'imposition aux travailleurs de tâches non seulement conçues sans consulter leurs besoins, mais souvent accompagnées d'un temps d'exécution spécifique. , une restriction mal accueillie par de nombreux travailleurs. Même si l'aspect d'imposition s'est plutôt assoupli aujourd'hui et même si les travailleurs contribuent plus souvent à la conception des tâches, un temps assigné aux tâches demeure nécessaire à la planification des horaires et demeure une composante essentielle de l'organisation du travail. La quantification du temps ne doit pas toujours être perçue de manière négative. Il constitue un indicateur précieux de la charge de travail. Une méthode simple mais courante de mesure de la pression temporelle exercée sur un travailleur consiste à déterminer le quotient du temps nécessaire à l'exécution d'une tâche divisé par le temps disponible. Plus ce quotient est proche de l'unité, plus la pression est forte (Wickens 1992). De plus, la quantification peut être utilisée dans une gestion du personnel souple mais appropriée. Prenons le cas des infirmières où la technique d'analyse prédictive des tâches a été généralisée, par exemple, dans la réglementation canadienne Planification des soins infirmiers requis (PRN 80) (Kepenne 1984) ou une de ses variantes européennes. Grâce à de telles listes de tâches, accompagnées de leurs délais d'exécution, on peut, chaque matin, compte tenu du nombre de patients et de leurs conditions médicales, établir un planning de soins et une répartition du personnel. Loin d'être une contrainte, le PRN 80 a, dans un certain nombre d'hôpitaux, démontré qu'il existait une pénurie de personnel soignant, puisque la technique permet d'établir un écart (voir figure 4) entre le souhaité et le constaté, c'est-à-dire entre le nombre de personnel nécessaire et le nombre disponible, et même entre les tâches prévues et les tâches réalisées. Les délais calculés ne sont que des moyennes et les fluctuations de la situation ne les rendent pas toujours applicables, mais cet aspect négatif est minimisé par une organisation souple qui accepte les ajustements et permet au personnel de participer à leur réalisation.
Figure 4. Écarts entre les effectifs présents et nécessaires sur la base du PRN80
L'activité, les preuves et la performance
Une activité est définie comme l'ensemble des comportements et des ressources utilisées par l'opérateur pour que se produise un travail, c'est-à-dire la transformation ou la production d'un bien ou la prestation d'un service. Cette activité peut être appréhendée par l'observation de différentes manières. Faverge (1972) a décrit quatre formes d'analyse. La première est une analyse en termes de gestes et postures, où l'observateur repère, au sein de l'activité visible de l'opérateur, des classes de comportements reconnaissables et répétés au cours du travail. Ces activités sont souvent couplées à une réponse précise : par exemple, la fréquence cardiaque, qui permet d'évaluer la charge physique associée à chaque activité. La deuxième forme d'analyse est en termes de prise d'informations. Ce qui est découvert, par observation directe - ou à l'aide de caméras ou d'enregistreurs de mouvements oculaires -, c'est l'ensemble des signaux captés par l'opérateur dans le champ d'information qui l'entoure. Cette analyse est particulièrement utile en ergonomie cognitive pour tenter de mieux comprendre le traitement de l'information effectué par l'opérateur. Le troisième type d'analyse est en termes de réglementation. L'idée est d'identifier les ajustements d'activité opérés par l'opérateur pour faire face soit aux fluctuations de l'environnement, soit à l'évolution de sa propre condition. On y retrouve l'intervention directe du contexte dans l'analyse. L'un des projets de recherche les plus fréquemment cités dans ce domaine est celui de Sperandio (1972). Cet auteur a étudié l'activité des contrôleurs aériens et identifié d'importants changements de stratégie lors d'une augmentation du trafic aérien. Il les a interprétés comme une tentative de simplifier l'activité en visant à maintenir un niveau de charge acceptable, tout en continuant à répondre aux exigences de la tâche. La quatrième est une analyse en termes de processus de pensée. Ce type d'analyse a été largement utilisé dans l'ergonomie des postes fortement automatisés. En effet, la conception d'aides informatiques et notamment d'aides intelligentes à l'opérateur nécessite une compréhension approfondie de la manière dont l'opérateur raisonne pour résoudre certains problèmes. Le raisonnement impliqué dans la planification, l'anticipation et le diagnostic a fait l'objet d'analyses, dont un exemple peut être trouvé dans la figure 5. Cependant, la preuve de l'activité mentale ne peut être qu'inférée. Hormis certains aspects observables du comportement, tels que les mouvements oculaires et le temps de résolution de problèmes, la plupart de ces analyses recourent à la réponse verbale. Un accent particulier a été mis, ces dernières années, sur les connaissances nécessaires à l'accomplissement de certaines activités, les chercheurs essayant de ne pas les postuler au départ mais de les faire apparaître à travers l'analyse elle-même.
Figure 5. Analyse de l'activité mentale. Stratégies de contrôle des procédés à temps de réponse longs : le besoin d'un support informatisé au diagnostic
Ces efforts ont mis en évidence le fait que des performances quasiment identiques peuvent être obtenues avec des niveaux de connaissance très différents, à condition que les opérateurs soient conscients de leurs limites et appliquent des stratégies adaptées à leurs capacités. Ainsi, dans notre étude du démarrage d'une centrale thermoélectrique (De Keyser et Housiaux 1989), les démarrages ont été effectués à la fois par des ingénieurs et des opérateurs. Les connaissances théoriques et procédurales que possédaient ces deux groupes, qui avaient été obtenues au moyen d'entretiens et de questionnaires, étaient très différentes. Les opérateurs notamment avaient parfois une compréhension erronée des variables dans les liens fonctionnels du processus. Malgré cela, les performances des deux groupes étaient très proches. Mais les opérateurs ont pris en compte plus de variables pour vérifier la maîtrise du démarrage et ont procédé à des vérifications plus fréquentes. De tels résultats ont également été obtenus par Amalberti (1991), qui mentionne l'existence de métaconnaissances permettant aux experts de gérer leurs propres ressources.
Quoi preuve d'activité convient-il d'élucider ? Sa nature, on l'a vu, dépend étroitement de la forme d'analyse envisagée. Sa forme varie selon le degré de soin méthodologique exercé par l'observateur. Provoqué la preuve se distingue de spontané preuves et concomitant du ultérieur preuve. De manière générale, lorsque la nature du travail le permet, les témoignages concomitants et spontanés sont à privilégier. Ils sont exempts de divers inconvénients tels que le manque de fiabilité de la mémoire, l'interférence de l'observateur, l'effet de rationalisation de la reconstruction de la part du sujet, etc. Pour illustrer ces distinctions, nous prendrons l'exemple des verbalisations. Les verbalisations spontanées sont des échanges verbaux, ou des monologues exprimés spontanément sans être sollicités par l'observateur ; les verbalisations provoquées sont celles faites à la demande spécifique de l'observateur, comme la demande faite au sujet de « penser à haute voix », bien connue dans la littérature cognitive. Les deux types peuvent être effectués en temps réel, pendant le travail, et sont donc concomitants.
Elles peuvent aussi être postérieures, comme dans les entretiens, ou les verbalisations des sujets lorsqu'ils visionnent des bandes vidéo de leur travail. Quant à la validité des verbalisations, le lecteur ne doit pas ignorer le doute soulevé à cet égard par la controverse entre Nisbett et De Camp Wilson (1977) et White (1988) et les précautions suggérées par de nombreux auteurs conscients de leur importance dans l'étude. de l'activité mentale compte tenu des difficultés méthodologiques rencontrées (Ericson et Simon 1984 ; Savoyant et Leplat 1983 ; Caverni 1988 ; Bainbridge 1986).
L'organisation de ces preuves, leur traitement et leur formalisation nécessitent des langages descriptifs et parfois des analyses qui vont au-delà de l'observation de terrain. Les activités mentales qui sont déduites de la preuve, par exemple, restent hypothétiques. Aujourd'hui, ils sont souvent décrits à l'aide de langages issus de l'intelligence artificielle, faisant appel à des représentations en termes de schémas, de règles de production et de réseaux de connexion. Par ailleurs, l'utilisation de simulations informatiques - de micro-mondes - pour repérer certaines activités mentales s'est généralisée, même si la validité des résultats obtenus à partir de telles simulations informatiques, compte tenu de la complexité du monde industriel, est sujette à débat. Enfin, il faut mentionner les modélisations cognitives de certaines activités mentales extraites du terrain. Parmi les plus connus figure le diagnostic de l'exploitant d'une centrale nucléaire, réalisé à ISPRA (Decortis et Cacciabue 1990), et la planification du pilote de combat mise au point à Centre d'études et de recherches de médecine aérospatiale (CERMA) (Amalberti et al. 1989).
La mesure des écarts entre les performances de ces modèles et celles d'opérateurs réels et vivants est un champ fécond d'analyse d'activité. Performance est le résultat de l'activité, la réponse finale donnée par le sujet aux exigences de la tâche. Elle s'exprime au niveau de la production : productivité, qualité, erreur, incident, accident – voire, à un niveau plus global, absentéisme ou turnover. Mais elle doit aussi être identifiée au niveau individuel : l'expression subjective de la satisfaction, du stress, de la fatigue ou de la charge de travail, et de nombreuses réponses physiologiques sont aussi des indicateurs de performance. Seul l'ensemble des données permet d'interpréter l'activité, c'est-à-dire de juger si elle sert ou non les buts recherchés tout en restant dans les limites humaines. Il existe un ensemble de normes qui, jusqu'à un certain point, guident l'observateur. Mais ces normes ne sont pas situé— ils ne tiennent pas compte du contexte, de ses fluctuations et de la condition du travailleur. C'est pourquoi en ergonomie de conception, même lorsqu'il existe des règles, des normes et des modèles, il est conseillé aux concepteurs de tester le produit à l'aide de prototypes le plus tôt possible et d'évaluer l'activité et les performances des utilisateurs.
Travail Individuel ou Collectif ?
Alors que dans la grande majorité des cas, le travail est un acte collectif, la plupart des analyses du travail portent sur des tâches ou des activités individuelles. Pourtant, force est de constater que l'évolution technologique, tout comme l'organisation du travail, privilégie aujourd'hui le travail distribué, que ce soit entre ouvriers et machines ou simplement au sein d'un groupe. Quelles pistes ont été explorées par les auteurs pour prendre en compte cette distribution (Rasmussen, Pejtersen et Schmidts 1990) ? Ils portent sur trois aspects : la structure, la nature des échanges et la labilité structurelle.
Structure
Que l'on considère la structure comme des éléments d'analyse des personnes, ou des services, voire des différentes branches d'une entreprise travaillant en réseau, la description des liens qui les unissent reste un problème. Nous connaissons très bien les organigrammes au sein des entreprises qui indiquent la structure d'autorité et dont les différentes formes reflètent la philosophie organisationnelle de l'entreprise, très hiérarchisées pour une structure de type Taylor, ou aplaties en râteau, voire matricielles, pour une structuration plus souple. D'autres descriptions d'activités distribuées sont possibles : un exemple est donné dans la figure 6. Plus récemment, la nécessité pour les entreprises de représenter leurs échanges d'informations au niveau mondial a conduit à repenser les systèmes d'information. Grâce à certains langages descriptifs, par exemple les schémas de conception ou les matrices entité-relations-attributs, la structure des relations au niveau collectif peut aujourd'hui être décrite de manière très abstraite et peut servir de tremplin à la création de systèmes de gestion informatisés. .
Figure 6. Conception intégrée du cycle de vie
La nature des échanges
La simple description des liens unissant les entités en dit peu sur le contenu même des échanges ; bien sûr, la nature de la relation peut être précisée — déplacement d'un lieu à un autre, transferts d'information, dépendance hiérarchique, etc. — mais c'est souvent tout à fait insuffisant. L'analyse des communications au sein des équipes est devenue un moyen privilégié pour saisir la nature même du travail collectif, englobant les sujets évoqués, la création d'un langage commun dans une équipe, la modification des communications lorsque les circonstances sont critiques, etc. (Tardieu, Nanci et Pascot 1985 ; Rolland 1986 ; Navarro 1990 ; Van Daele 1992 ; Lacoste 1983 ; Moray, Sanderson et Vincente 1989). La connaissance de ces interactions est particulièrement utile pour la création d'outils informatiques, notamment d'aide à la décision pour comprendre les erreurs. Les différentes étapes et les difficultés méthodologiques liées à l'utilisation de ces preuves ont été bien décrites par Falzon (1991).
Labilité structurelle
C'est le travail sur les activités plutôt que sur les tâches qui a ouvert le champ de la labilité structurelle, c'est-à-dire des reconfigurations constantes du travail collectif sous l'influence de facteurs contextuels. Des études comme celles de Rogalski (1991), qui ont analysé sur une longue période les activités collectives face aux incendies de forêt en France, ou de Bourdon et Weill Fassina (1994), qui ont étudié la structure organisationnelle mise en place pour faire face aux accidents ferroviaires, sont à la fois très instructif. Ils montrent bien comment le contexte façonne la structure des échanges, le nombre et le type d'acteurs impliqués, la nature des communications et le nombre de paramètres essentiels au travail. Plus ce contexte fluctue, plus les descriptions figées de la tâche s'éloignent de la réalité. La connaissance de cette labilité et une meilleure compréhension des phénomènes qui s'y déroulent sont indispensables pour anticiper l'imprévisible et mieux former les acteurs du travail collectif en situation de crise.
Conclusions
Les différentes phases de l'analyse du travail qui ont été décrites sont une partie itérative de tout cycle de conception des facteurs humains (voir figure 6). Dans cette conception de tout objet technique, qu'il s'agisse d'un outil, d'un poste de travail ou d'une usine, où les facteurs humains sont pris en compte, certaines informations sont nécessaires dans le temps. En général, le début du cycle de conception est caractérisé par un besoin de données portant sur les contraintes environnementales, les types de travaux à réaliser et les différentes caractéristiques des utilisateurs. Ces premières informations permettent d'établir le cahier des charges de l'objet afin de tenir compte des impératifs de travail. Mais ce n'est, en quelque sorte, qu'un modèle grossier par rapport à la situation de travail réelle. C'est pourquoi il faut des modèles et des prototypes qui, dès leur création, permettent d'évaluer non pas les emplois eux-mêmes, mais les activités des futurs utilisateurs. Par conséquent, si la conception des images sur un moniteur dans une salle de contrôle peut être basée sur une analyse cognitive approfondie du travail à effectuer, seule une analyse basée sur les données de l'activité permettra de déterminer avec précision si le prototype sera réellement être utile dans la situation de travail réelle (Van Daele 1988). Une fois l'objet technique fini mis en service, l'accent est davantage mis sur la performance des utilisateurs et sur les situations de dysfonctionnement, comme les accidents ou les erreurs humaines. La collecte de ce type d'informations permet d'apporter les corrections finales qui augmenteront la fiabilité et la convivialité de l'objet terminé. L'industrie nucléaire comme l'industrie aéronautique en sont un exemple : le retour d'expérience consiste à signaler chaque incident survenu. De cette façon, la boucle de conception est bouclée.
L'organisme humain représente un système biologique complexe à différents niveaux d'organisation, du niveau moléculaire-cellulaire aux tissus et organes. L'organisme est un système ouvert, échangeant de la matière et de l'énergie avec l'environnement par de nombreuses réactions biochimiques en équilibre dynamique. L'environnement peut être pollué ou contaminé par diverses substances toxiques.
La pénétration de molécules ou d'ions de substances toxiques provenant du milieu de travail ou de vie dans un système biologique aussi fortement coordonné peut perturber de manière réversible ou irréversible les processus biochimiques cellulaires normaux, voire blesser et détruire la cellule (voir « Lésion cellulaire et mort cellulaire »).
La pénétration d'un toxique de l'environnement vers les sites de son effet toxique à l'intérieur de l'organisme peut être divisée en trois phases :
Ici, nous concentrerons notre attention exclusivement sur les processus toxicocinétiques à l'intérieur de l'organisme humain suite à une exposition à des substances toxiques dans l'environnement.
Les molécules ou les ions de toxiques présents dans l'environnement vont pénétrer dans l'organisme par la peau et les muqueuses, ou les cellules épithéliales des voies respiratoires et gastro-intestinales, selon le point d'entrée. Cela signifie que les molécules et les ions de substances toxiques doivent pénétrer à travers les membranes cellulaires de ces systèmes biologiques, ainsi qu'à travers un système complexe d'endomembranes à l'intérieur de la cellule.
Tous les processus toxicocinétiques et toxicodynamiques se produisent au niveau moléculaire-cellulaire. De nombreux facteurs influencent ces processus et ceux-ci peuvent être divisés en deux groupes de base :
Propriétés physico-chimiques des toxiques
En 1854, le toxicologue russe EV Pelikan a commencé des études sur la relation entre la structure chimique d'une substance et son activité biologique - la relation structure-activité (SAR). La structure chimique détermine directement les propriétés physico-chimiques, dont certaines sont responsables de l'activité biologique.
Pour définir la structure chimique, de nombreux paramètres peuvent être sélectionnés comme descripteurs, qui peuvent être divisés en différents groupes :
1. Physico-chimique :
2. Stérique : volume moléculaire, forme et surface, forme de la sous-structure, réactivité moléculaire, etc.
3. De construction: nombre de liaisons nombre de cycles (dans les composés polycycliques), degré de ramification, etc.
Pour chaque substance toxique, il est nécessaire de sélectionner un ensemble de descripteurs liés à un mécanisme d'activité particulier. Cependant, du point de vue toxicocinétique, deux paramètres sont d'une importance générale pour tous les toxiques :
Pour les poussières et aérosols inhalés, la taille, la forme, la surface et la densité des particules influencent également leur toxicocinétique et leur toxicodynamique.
Structure et propriétés des membranes
La cellule eucaryote des organismes humains et animaux est entourée d'une membrane cytoplasmique régulant le transport des substances et maintenant l'homéostasie cellulaire. Les organites cellulaires (noyau, mitochondries) possèdent également des membranes. Le cytoplasme cellulaire est compartimenté par des structures membraneuses complexes, le réticulum endoplasmique et le complexe de Golgi (endomembranes). Toutes ces membranes sont structurellement similaires, mais varient dans la teneur en lipides et en protéines.
L'armature structurale des membranes est une bicouche de molécules lipidiques (phospholipides, sphyngolipides, cholestérol). Le squelette d'une molécule de phospholipide est le glycérol avec deux de ses groupes -OH estérifiés par des acides gras aliphatiques de 16 à 18 atomes de carbone, et le troisième groupe estérifié par un groupe phosphate et un composé azoté (choline, éthanolamine, sérine). Dans les sphyngolipides, la sphyngosine est la base.
La molécule lipidique est amphipatique car elle est constituée d'une « tête » polaire hydrophile (alcool aminé, phosphate, glycérol) et d'une « queue » jumelle non polaire (acides gras). La bicouche lipidique est disposée de sorte que les têtes hydrophiles constituent la surface externe et interne de la membrane et les queues lipophiles sont étirées vers l'intérieur de la membrane, qui contient de l'eau, divers ions et molécules.
Les protéines et les glycoprotéines sont insérées dans la bicouche lipidique (protéines intrinsèques) ou fixées à la surface de la membrane (protéines extrinsèques). Ces protéines contribuent à l'intégrité structurelle de la membrane, mais elles peuvent également jouer le rôle d'enzymes, de transporteurs, de parois de pores ou de récepteurs.
La membrane représente une structure dynamique qui peut être désintégrée et reconstruite avec une proportion différente de lipides et de protéines, selon les besoins fonctionnels.
La régulation du transport des substances dans et hors de la cellule représente l'une des fonctions de base des membranes externes et internes.
Certaines molécules lipophiles traversent directement la bicouche lipidique. Les molécules hydrophiles et les ions sont transportés via les pores. Les membranes réagissent aux conditions changeantes en ouvrant ou en scellant certains pores de différentes tailles.
Les processus et mécanismes suivants sont impliqués dans le transport de substances, y compris les substances toxiques, à travers les membranes :
Processus actifs :
La diffusion
Cela représente le mouvement des molécules et des ions à travers la bicouche lipidique ou les pores d'une région à forte concentration, ou potentiel électrique élevé, vers une région à faible concentration ou potentiel ("en descente"). La différence de concentration ou de charge électrique est la force motrice qui influence l'intensité du flux dans les deux sens. Dans l'état d'équilibre, l'afflux sera égal à l'efflux. Le taux de diffusion suit la loi de Ficke, indiquant qu'il est directement proportionnel à la surface disponible de la membrane, à la différence de gradient de concentration (charge) et au coefficient de diffusion caractéristique, et inversement proportionnel à l'épaisseur de la membrane.
Les petites molécules lipophiles traversent facilement la couche lipidique de la membrane, selon le coefficient de partage de Nernst.
Les grosses molécules lipophiles, les molécules hydrosolubles et les ions utiliseront des canaux de pores aqueux pour leur passage. La taille et la stéréoconfiguration influenceront le passage des molécules. Pour les ions, outre la taille, le type de charge sera déterminant. Les molécules de protéines des parois des pores peuvent acquérir une charge positive ou négative. Les pores étroits ont tendance à être sélectifs - les ligands chargés négativement ne permettront le passage qu'aux cations, et les ligands chargés positivement ne permettront le passage qu'aux anions. Avec l'augmentation du diamètre des pores, le flux hydrodynamique est dominant, permettant le libre passage des ions et des molécules, selon la loi de Poiseuille. Cette filtration est une conséquence du gradient osmotique. Dans certains cas, les ions peuvent pénétrer à travers des molécules complexes spécifiques—ionophores—qui peuvent être produits par des micro-organismes à effet antibiotique (nonactine, valinomycine, gramacidine, etc.).
Diffusion facilitée ou catalysée
Cela nécessite la présence d'un transporteur dans la membrane, généralement une molécule de protéine (perméase). Le support lie sélectivement les substances, ressemblant à un complexe substrat-enzyme. Des molécules similaires (y compris des substances toxiques) peuvent entrer en compétition pour le support spécifique jusqu'à ce que son point de saturation soit atteint. Les substances toxiques peuvent concourir pour le transporteur et lorsqu'elles y sont liées de manière irréversible, le transport est bloqué. Le tarif du transport est caractéristique pour chaque type de transporteur. Si le transport s'effectue dans les deux sens, on parle d'échange diffusion.
Transport actif
Pour le transport de certaines substances vitales pour la cellule, un type spécial de transporteur est utilisé, transportant contre le gradient de concentration ou le potentiel électrique ("en montée"). Le porteur est très stéréospécifique et peut être saturé.
Pour le transport en montée, il faut de l'énergie. L'énergie nécessaire est obtenue par clivage catalytique des molécules d'ATP en ADP par l'enzyme adénosine triphosphatase (ATP-ase).
Les toxiques peuvent interférer avec ce transport par inhibition compétitive ou non compétitive du transporteur ou par inhibition de l'activité ATP-ase.
Endocytose
Endocytose est défini comme un mécanisme de transport dans lequel la membrane cellulaire encercle le matériau en se repliant pour former une vésicule le transportant à travers la cellule. Lorsque le matériau est liquide, le processus est appelé pinocytose. Dans certains cas, le matériau est lié à un récepteur et ce complexe est transporté par une vésicule membranaire. Ce type de transport est notamment utilisé par les cellules épithéliales du tractus gastro-intestinal, et les cellules du foie et des reins.
Absorption de substances toxiques
Les personnes sont exposées à de nombreuses substances toxiques présentes dans l'environnement de travail et de vie, qui peuvent pénétrer dans l'organisme humain par trois principales portes d'entrée :
Dans le cas de l'exposition dans l'industrie, l'inhalation représente la principale voie d'entrée des toxiques, suivie de la pénétration cutanée. En agriculture, l'exposition aux pesticides par absorption cutanée est presque égale aux cas d'inhalation et de pénétration cutanée combinées. La population générale est principalement exposée par ingestion d'aliments, d'eau et de boissons contaminés, puis par inhalation et moins souvent par pénétration cutanée.
Absorption par les voies respiratoires
L'absorption dans les poumons représente la principale voie d'absorption de nombreux toxiques atmosphériques (gaz, vapeurs, émanations, brouillards, fumées, poussières, aérosols, etc.).
Les voies respiratoires (RT) représentent un système d'échange de gaz idéal possédant une membrane d'une surface de 30m2 (expiration) à 100m2 (inspiration profonde), derrière laquelle se situe un réseau d'environ 2,000 XNUMX km de capillaires. Le système, développé au fil de l'évolution, est logé dans un espace relativement petit (cavité thoracique) protégé par des côtes.
Anatomiquement et physiologiquement, la RT peut être divisée en trois compartiments :
Les toxiques hydrophiles sont facilement absorbés par l'épithélium de la région nasopharyngée. L'ensemble de l'épithélium des régions NP et TB est recouvert d'un film d'eau. Les toxiques lipophiles sont partiellement absorbés dans le NP et le TB, mais surtout dans les alvéoles par diffusion à travers les membranes alvéolo-capillaires. Le taux d'absorption dépend de la ventilation pulmonaire, du débit cardiaque (flux sanguin dans les poumons), de la solubilité du toxique dans le sang et de son taux métabolique.
Dans les alvéoles, des échanges gazeux s'effectuent. La paroi alvéolaire est constituée d'un épithélium, d'une trame interstitielle de membrane basale, de tissu conjonctif et de l'endothélium capillaire. La diffusion des toxiques est très rapide à travers ces couches qui ont une épaisseur d'environ 0.8 μm. Dans les alvéoles, le toxique est transféré de la phase air à la phase liquide (sang). Le taux d'absorption (distribution air-sang) d'un toxique dépend de sa concentration dans l'air alvéolaire et du coefficient de partage de Nernst pour le sang (coefficient de solubilité).
Dans le sang, le toxique peut être dissous dans la phase liquide par de simples processus physiques ou lié aux cellules sanguines et/ou aux constituants du plasma selon l'affinité chimique ou par adsorption. La teneur en eau du sang est de 75% et, par conséquent, les gaz et vapeurs hydrophiles présentent une solubilité élevée dans le plasma (par exemple, les alcools). Les toxiques lipophiles (par exemple, le benzène) sont généralement liés aux cellules ou aux macromolécules telles que l'albumine.
Dès le début de l'exposition dans les poumons, deux processus opposés se produisent : l'absorption et la désorption. L'équilibre entre ces processus dépend de la concentration de toxique dans l'air et le sang alvéolaires. Au début de l'exposition, la concentration de toxique dans le sang est de 0 et la rétention dans le sang est de près de 100 %. Avec la poursuite de l'exposition, un équilibre entre l'absorption et la désorption est atteint. Les toxiques hydrophiles atteindront rapidement l'équilibre, et le taux d'absorption dépend de la ventilation pulmonaire plutôt que du débit sanguin. Les toxiques lipophiles ont besoin de plus de temps pour atteindre l'équilibre, et ici le flux de sang insaturé régit le taux d'absorption.
Le dépôt de particules et d'aérosols dans la RT dépend de facteurs physiques et physiologiques, ainsi que de la taille des particules. En bref, plus la particule est petite, plus elle pénétrera profondément dans la RT.
La faible rétention relativement constante des particules de poussière dans les poumons des personnes fortement exposées (par exemple, les mineurs) suggère l'existence d'un système très efficace d'élimination des particules. Dans la partie supérieure du RT (trachéo-bronchique) un tapis mucociliaire assure la clairance. Dans la partie pulmonaire, trois mécanismes différents sont à l'œuvre : (1) couverture mucociliaire, (2) phagocytose et (3) pénétration directe des particules à travers la paroi alvéolaire.
Les 17 premières des 23 ramifications de l'arbre trachéo-bronchique possèdent des cellules épithéliales ciliées. Par leurs coups, ces cils déplacent constamment un tapis muqueux vers la bouche. Les particules déposées sur ce tapis mucociliaire seront avalées par la bouche (ingestion). Un tapis muqueux recouvre également la surface de l'épithélium alvéolaire, se déplaçant vers le tapis mucociliaire. De plus, les cellules mobiles spécialisées - les phagocytes - engloutissent les particules et les micro-organismes dans les alvéoles et migrent dans deux directions possibles :
Absorption via le tractus gastro-intestinal
Des substances toxiques peuvent être ingérées en cas d'ingestion accidentelle, d'ingestion d'aliments et de boissons contaminés ou d'ingestion de particules éliminées de la RT.
L'ensemble du tube digestif, de l'œsophage à l'anus, est fondamentalement construit de la même manière. Une couche muqueuse (épithélium) est soutenue par du tissu conjonctif puis par un réseau de capillaires et de muscles lisses. L'épithélium de surface de l'estomac est très plissé pour augmenter la surface d'absorption/sécrétion. La région intestinale contient de nombreuses petites saillies (villosités), qui sont capables d'absorber de la matière en « pompant ». La zone active d'absorption dans les intestins est d'environ 100 m2.
Dans le tractus gastro-intestinal (GIT), tous les processus d'absorption sont très actifs :
Certains ions métalliques toxiques utilisent des systèmes de transport spécialisés pour les éléments essentiels : le thallium, le cobalt et le manganèse utilisent le système du fer, tandis que le plomb semble utiliser le système du calcium.
De nombreux facteurs influencent le taux d'absorption des substances toxiques dans diverses parties du GIT :
Il faut aussi mentionner la circulation entérohépatique. Les toxiques polaires et/ou métabolites (glucuronides et autres conjugués) sont excrétés avec la bile dans le duodénum. Ici, les enzymes de la microflore effectuent une hydrolyse et les produits libérés peuvent être réabsorbés et transportés par la veine porte dans le foie. Ce mécanisme est très dangereux dans le cas des substances hépatotoxiques, permettant leur accumulation temporaire dans le foie.
Dans le cas de substances toxiques biotransformées dans le foie en métabolites moins toxiques ou non toxiques, l'ingestion peut représenter une porte d'entrée moins dangereuse. Après absorption dans le GIT, ces toxiques seront transportés par la veine porte vers le foie, et là ils pourront être partiellement détoxifiés par biotransformation.
Absorption par la peau (dermique, percutanée)
La peau (1.8 m2 de surface chez un humain adulte) avec les membranes muqueuses des orifices corporels, recouvre la surface du corps. Il représente une barrière contre les agents physiques, chimiques et biologiques, en maintenant l'intégrité et l'homéostasie du corps et en effectuant de nombreuses autres tâches physiologiques.
Fondamentalement, la peau se compose de trois couches : l'épiderme, la vraie peau (derme) et le tissu sous-cutané (hypoderme). Du point de vue toxicologique, l'épiderme est ici le plus intéressant. Il est constitué de plusieurs couches de cellules. Une surface cornée de cellules mortes aplaties (stratum corneum) est la couche supérieure, sous laquelle se trouve une couche continue de cellules vivantes (stratum corneum compactum), suivie d'une membrane lipidique typique, puis de stratum lucidum, stratum gramulosum et stratum muqueuse. La membrane lipidique représente une barrière protectrice, mais dans les parties pileuses de la peau, les follicules pileux et les canaux des glandes sudoripares la traversent. Par conséquent, l'absorption cutanée peut se produire par les mécanismes suivants :
Le taux d'absorption à travers la peau dépendra de nombreux facteurs :
Transport de substances toxiques par le sang et la lymphe
Après absorption par l'une de ces portes d'entrée, les substances toxiques atteindront le sang, la lymphe ou d'autres fluides corporels. Le sang représente le principal véhicule de transport des substances toxiques et de leurs métabolites.
Le sang est un organe de circulation fluide, transportant l'oxygène et les substances vitales nécessaires aux cellules et éliminant les déchets du métabolisme. Le sang contient également des composants cellulaires, des hormones et d'autres molécules impliquées dans de nombreuses fonctions physiologiques. Le sang circule à l'intérieur d'un système circulatoire de vaisseaux sanguins à haute pression relativement bien fermé, poussé par l'activité du cœur. En raison de la haute pression, une fuite de liquide se produit. Le système lymphatique représente le système de drainage, sous la forme d'un fin maillage de petits capillaires lymphatiques à parois minces se ramifiant à travers les tissus mous et les organes.
Le sang est un mélange d'une phase liquide (plasma, 55%) et de cellules sanguines solides (45%). Le plasma contient des protéines (albumines, globulines, fibrinogène), des acides organiques (lactique, glutamique, citrique) et de nombreuses autres substances (lipides, lipoprotéines, glycoprotéines, enzymes, sels, xénobiotiques, etc.). Les éléments des cellules sanguines comprennent les érythrocytes (Er), les leucocytes, les réticulocytes, les monocytes et les plaquettes.
Les substances toxiques sont absorbées sous forme de molécules et d'ions. Certaines substances toxiques au pH sanguin forment des particules colloïdales en tant que troisième forme dans ce liquide. Les molécules, les ions et les colloïdes de substances toxiques ont diverses possibilités de transport dans le sang :
La plupart des substances toxiques présentes dans le sang existent partiellement à l'état libre dans le plasma et partiellement liées aux érythrocytes et aux constituants du plasma. La distribution dépend de l'affinité des substances toxiques avec ces constituants. Toutes les fractions sont en équilibre dynamique.
Certaines substances toxiques sont transportées par les éléments sanguins, principalement par les érythrocytes, très rarement par les leucocytes. Les toxiques peuvent être adsorbés à la surface de Er ou peuvent se lier aux ligands du stroma. S'ils pénètrent dans Er, ils peuvent se lier à l'hème (par exemple, le monoxyde de carbone et le sélénium) ou à la globine (Sb111, Petit210). Certains toxiques transportés par Er sont l'arsenic, le césium, le thorium, le radon, le plomb et le sodium. Le chrome hexavalent est exclusivement lié à l'ER et le chrome trivalent aux protéines du plasma. Pour le zinc, une compétition entre Er et le plasma se produit. Environ 96% du plomb est transporté par Er. Le mercure organique est principalement lié à Er et le mercure inorganique est transporté principalement par l'albumine plasmatique. De petites fractions de béryllium, de cuivre, de tellure et d'uranium sont transportées par Er.
La majorité des toxiques sont transportés par le plasma ou les protéines plasmatiques. De nombreux électrolytes sont présents sous forme d'ions en équilibre avec des molécules non dissociées libres ou liées aux fractions plasmatiques. Cette fraction ionique de substances toxiques est très diffusible, pénétrant à travers les parois des capillaires dans les tissus et les organes. Les gaz et les vapeurs peuvent être dissous dans le plasma.
Les protéines plasmatiques possèdent une surface totale d'environ 600 à 800 km2 offert pour l'absorption de substances toxiques. Les molécules d'albumine possèdent environ 109 ligands cationiques et 120 anioniques à la disposition des ions. De nombreux ions sont partiellement transportés par l'albumine (par exemple, le cuivre, le zinc et le cadmium), tout comme des composés tels que les dinitro- et ortho-crésols, les dérivés nitrés et halogénés d'hydrocarbures aromatiques et les phénols.
Les molécules de globuline (alpha et bêta) transportent de petites molécules de substances toxiques ainsi que certains ions métalliques (cuivre, zinc et fer) et des particules colloïdales. Le fibrinogène montre une affinité pour certaines petites molécules. De nombreux types de liaisons peuvent être impliquées dans la liaison des toxiques aux protéines plasmatiques : forces de Van der Waals, attraction de charges, association entre groupes polaires et non polaires, ponts hydrogène, liaisons covalentes.
Les lipoprotéines plasmatiques transportent des substances toxiques lipophiles telles que les PCB. Les autres fractions de plasma servent également de véhicule de transport. L'affinité des substances toxiques pour les protéines plasmatiques suggère leur affinité pour les protéines dans les tissus et les organes pendant la distribution.
Les acides organiques (lactique, glutaminique, citrique) forment des complexes avec certains toxiques. Les alcalino-terreux et les terres rares, ainsi que certains éléments lourds sous forme de cations, sont également complexés avec des oxyacides et des acides aminés organiques. Tous ces complexes sont généralement diffusibles et facilement distribués dans les tissus et les organes.
Les agents chélateurs physiologiques dans le plasma tels que la transferrine et la métallothionéine entrent en compétition avec les acides organiques et les acides aminés pour les cations pour former des chélates stables.
Les ions libres diffusibles, certains complexes et certaines molécules libres sont facilement évacués du sang vers les tissus et les organes. La fraction libre d'ions et de molécules est en équilibre dynamique avec la fraction liée. La concentration d'une substance toxique dans le sang déterminera la vitesse de sa distribution dans les tissus et les organes, ou sa mobilisation à partir d'eux dans le sang.
Distribution des substances toxiques dans l'organisme
L'organisme humain peut être divisé comme suit compartiments. (1) les organes internes, (2) la peau et les muscles, (3) les tissus adipeux, (4) le tissu conjonctif et les os. Cette classification est principalement basée sur le degré de perfusion vasculaire (sanguine) dans un ordre décroissant. Par exemple, les organes internes (y compris le cerveau), qui ne représentent que 12 % du poids corporel total, reçoivent environ 75 % du volume sanguin total. En revanche, les tissus conjonctifs et les os (15 % du poids corporel total) ne reçoivent qu'un pour cent du volume sanguin total.
Les organes internes bien perfusés atteignent généralement la concentration la plus élevée de substances toxiques dans les plus brefs délais, ainsi qu'un équilibre entre le sang et ce compartiment. L'absorption des substances toxiques par les tissus moins perfusés est beaucoup plus lente, mais la rétention est plus élevée et la durée de séjour beaucoup plus longue (accumulation) en raison d'une faible perfusion.
Trois composants sont d'une importance majeure pour la distribution intracellulaire des substances toxiques : la teneur en eau, en lipides et en protéines dans les cellules des différents tissus et organes. L'ordre des compartiments mentionné ci-dessus suit également de près une teneur en eau décroissante dans leurs cellules. Les toxiques hydrophiles seront distribués plus rapidement aux fluides corporels et aux cellules à forte teneur en eau, et les toxiques lipophiles aux cellules à forte teneur en lipides (tissu adipeux).
L'organisme possède certaines barrières qui entravent la pénétration de certains groupes de substances toxiques, principalement hydrophiles, dans certains organes et tissus, tels que :
Comme indiqué précédemment, seules les formes libres de substances toxiques dans le plasma (molécules, ions, colloïdes) sont disponibles pour la pénétration à travers les parois capillaires participant à la distribution. Cette fraction libre est en équilibre dynamique avec la fraction liée. La concentration de substances toxiques dans le sang est en équilibre dynamique avec leur concentration dans les organes et les tissus, régissant leur rétention (accumulation) ou leur mobilisation.
L'état de l'organisme, l'état fonctionnel des organes (en particulier la régulation neuro-humorale), l'équilibre hormonal et d'autres facteurs jouent un rôle dans la distribution.
La rétention d'une substance toxique dans un compartiment particulier est généralement temporaire et une redistribution dans d'autres tissus peut se produire. La rétention et l'accumulation sont basées sur la différence entre les taux d'absorption et d'élimination. La durée de rétention dans un compartiment est exprimée par la demi-vie biologique. Il s'agit de l'intervalle de temps pendant lequel 50 % de la substance toxique est éliminée du tissu ou de l'organe et redistribuée, transloquée ou éliminée de l'organisme.
Les processus de biotransformation se produisent lors de la distribution et de la rétention dans divers organes et tissus. La biotransformation produit des métabolites plus polaires, plus hydrophiles, qui sont plus facilement éliminés. Un faible taux de biotransformation d'un toxique lipophile entraînera généralement son accumulation dans un compartiment.
Les toxiques peuvent être divisés en quatre groupes principaux selon leur affinité, leur rétention prédominante et leur accumulation dans un compartiment particulier :
Accumulation dans les tissus riches en lipides
L'« homme standard » de 70 kg de poids corporel contient environ 15 % de son poids corporel sous forme de tissu adipeux, augmentant avec l'obésité jusqu'à 50 %. Cependant, cette fraction lipidique n'est pas uniformément répartie. Le cerveau (SNC) est un organe riche en lipides et les nerfs périphériques sont enveloppés d'une gaine de myéline riche en lipides et de cellules de Schwann. Tous ces tissus offrent des possibilités d'accumulation de toxiques lipophiles.
Seront distribués dans ce compartiment de nombreux non-électrolytes et toxiques apolaires avec un coefficient de partage de Nernst adapté, ainsi que de nombreux solvants organiques (alcools, aldéhydes, cétones...), des hydrocarbures chlorés (dont des insecticides organochlorés comme le DDT), certains gaz inertes (radon), etc.
Le tissu adipeux accumulera des substances toxiques en raison de sa faible vascularisation et de son faible taux de biotransformation. Ici, l'accumulation de substances toxiques peut représenter une sorte de « neutralisation » temporaire en raison du manque de cibles pour l'effet toxique. Cependant, le danger potentiel pour l'organisme est toujours présent en raison de la possibilité de mobilisation de substances toxiques de ce compartiment vers la circulation.
Le dépôt de substances toxiques dans le cerveau (SNC) ou les tissus riches en lipides de la gaine de myéline du système nerveux périphérique est très dangereux. Les neurotoxiques sont déposés ici directement à côté de leurs cibles. Les substances toxiques retenues dans les tissus riches en lipides des glandes endocrines peuvent produire des troubles hormonaux. Malgré la barrière hémato-encéphalique, de nombreux neurotoxiques de nature lipophile atteignent le cerveau (SNC) : anesthésiques, solvants organiques, pesticides, plomb tétraéthyle, organomercuriels, etc.
Rétention dans le système réticulo-endothélial
Dans chaque tissu et organe, un certain pourcentage de cellules est spécialisé pour l'activité phagocytaire, engloutissant les micro-organismes, les particules, les particules colloïdes, etc. Ce système est appelé le système réticulo-endothélial (RES), comprenant des cellules fixes ainsi que des cellules mobiles (phagocytes). Ces cellules sont présentes sous une forme non active. Une augmentation des microbes et particules mentionnés ci-dessus activera les cellules jusqu'à un point de saturation.
Les toxiques sous forme de colloïdes seront capturés par le SER des organes et des tissus. La distribution dépend de la taille des particules de colloïde. Pour les particules plus grosses, la rétention dans le foie sera favorisée. Avec des particules colloïdales plus petites, une distribution plus ou moins uniforme se produira entre la rate, la moelle osseuse et le foie. L'élimination des colloïdes du RES est très lente, bien que les petites particules soient éliminées relativement plus rapidement.
Accumulation dans les os
Environ 60 éléments peuvent être identifiés comme éléments ostéotropes, ou chercheurs osseux.
Les éléments ostéotropes peuvent être divisés en trois groupes :
Le squelette d'un homme standard représente 10 à 15 % du poids corporel total, ce qui représente un important dépôt potentiel de substances toxiques ostéotropes. L'os est un tissu hautement spécialisé constitué en volume de 54 % de minéraux et de 38 % de matrice organique. La matrice minérale de l'os est l'hydroxyapatite, Ca10(PO4)6(OH)2 , dans lequel le rapport de Ca à P est d'environ 1.5 à un. La surface de minéral disponible pour l'adsorption est d'environ 100 m2 par g d'os.
L'activité métabolique des os du squelette peut être divisée en deux catégories :
Chez le fœtus, le nourrisson et le jeune enfant, l'os métabolique (voir « squelette disponible ») représente près de 100 % du squelette. Avec l'âge, ce pourcentage d'os métabolique diminue. L'incorporation de substances toxiques lors de l'exposition apparaît dans l'os métabolique et dans des compartiments à rotation plus lente.
L'incorporation de substances toxiques dans l'os se produit de deux manières :
Réactions d'échange d'ions
Le minéral osseux, l'hydroxyapatite, représente un système complexe d'échange d'ions. Les cations calcium peuvent être échangés par divers cations. Les anions présents dans l'os peuvent aussi être échangés par des anions : phosphate avec citrates et carbonates, hydroxyle avec fluor. Les ions non échangeables peuvent être adsorbés sur la surface minérale. Lorsque des ions toxiques sont incorporés dans le minéral, une nouvelle couche de minéral peut recouvrir la surface minérale, enterrant le toxique dans la structure osseuse. L'échange d'ions est un processus réversible, qui dépend de la concentration d'ions, du pH et du volume de liquide. Ainsi, par exemple, une augmentation du calcium alimentaire peut diminuer le dépôt d'ions toxiques dans le réseau des minéraux. Il a été mentionné qu'avec l'âge, le pourcentage d'os métabolique diminue, bien que l'échange d'ions se poursuive. Avec le vieillissement, une résorption minérale osseuse se produit, au cours de laquelle la densité osseuse diminue. À ce stade, des substances toxiques dans les os peuvent être libérées (par exemple, le plomb).
Environ 30% des ions incorporés dans les minéraux osseux sont faiblement liés et peuvent être échangés, capturés par des agents chélateurs naturels et excrétés, avec une demi-vie biologique de 15 jours. Les 70 % restants sont plus solidement liés. La mobilisation et l'excrétion de cette fraction montre une demi-vie biologique de 2.5 ans et plus selon le type d'os (processus de remodelage).
Les agents chélateurs (Ca-EDTA, pénicillamine, BAL, etc.) peuvent mobiliser des quantités considérables de certains métaux lourds, et leur excrétion dans les urines est fortement augmentée.
Adsorption colloïdale
Les particules colloïdales sont adsorbées sous forme de film sur la surface minérale (100m2 par g) par les forces de Van der Waals ou la chimisorption. Cette couche de colloïdes sur les surfaces minérales est recouverte de la couche suivante de minéraux formés, et les substances toxiques sont davantage enfouies dans la structure osseuse. Le taux de mobilisation et d'élimination dépend des processus de remodelage.
Accumulation dans les cheveux et les ongles
Les cheveux et les ongles contiennent de la kératine, avec des groupes sulfhydryle capables de chélater les cations métalliques tels que le mercure et le plomb.
Distribution du toxique à l'intérieur de la cellule
Récemment, la distribution des substances toxiques, en particulier certains métaux lourds, dans les cellules des tissus et des organes est devenue importante. Avec des techniques d'ultracentrifugation, diverses fractions de la cellule peuvent être séparées pour déterminer leur teneur en ions métalliques et autres substances toxiques.
Des études animales ont révélé qu'après pénétration dans la cellule, certains ions métalliques sont liés à une protéine spécifique, la métallothionéine. Cette protéine de faible poids moléculaire est présente dans les cellules du foie, des reins et d'autres organes et tissus. Ses groupes sulfhydryle peuvent lier six ions par molécule. La présence accrue d'ions métalliques induit la biosynthèse de cette protéine. Les ions de cadmium sont l'inducteur le plus puissant. La métallothionéine sert également à maintenir l'homéostasie des ions vitaux de cuivre et de zinc. La métallothionéine peut lier le zinc, le cuivre, le cadmium, le mercure, le bismuth, l'or, le cobalt et d'autres cations.
Biotransformation et élimination des toxiques
Pendant leur rétention dans les cellules de divers tissus et organes, les substances toxiques sont exposées à des enzymes qui peuvent les biotransformer (métaboliser) en produisant des métabolites. Il existe de nombreuses voies d'élimination des toxiques et/ou des métabolites : par l'air expiré via les poumons, par l'urine via les reins, par la bile via le tube digestif, par la sueur via la peau, par la salive via la muqueuse buccale, par le lait via les glandes mammaires, ainsi que par les cheveux et les ongles via la croissance normale et le renouvellement cellulaire.
L'élimination d'un toxique absorbé dépend de la porte d'entrée. Dans les poumons, le processus d'absorption/désorption démarre immédiatement et les substances toxiques sont partiellement éliminées par l'air expiré. L'élimination des toxiques absorbés par d'autres voies d'entrée est prolongée et commence après le transport par le sang, pour s'achever après distribution et biotransformation. Au cours de l'absorption, un équilibre existe entre les concentrations d'une substance toxique dans le sang et dans les tissus et organes. L'excrétion diminue la concentration sanguine de la substance toxique et peut induire la mobilisation d'une substance toxique des tissus vers le sang.
De nombreux facteurs peuvent influencer le taux d'élimination des substances toxiques et de leurs métabolites de l'organisme :
On distingue ici deux groupes de compartiments : (1) les système d'échange rapide— dans ces compartiments, la concentration tissulaire de toxique est similaire à celle du sang; et (2) le système d'échange lent, où la concentration tissulaire de substance toxique est plus élevée que dans le sang en raison de la liaison et de l'accumulation - le tissu adipeux, le squelette et les reins peuvent retenir temporairement certaines substances toxiques, par exemple l'arsenic et le zinc.
Un toxique peut être excrété simultanément par deux ou plusieurs voies d'excrétion. Cependant, généralement une route est dominante.
Les scientifiques développent des modèles mathématiques décrivant l'excrétion d'un toxique particulier. Ces modèles sont basés sur le mouvement d'un ou des deux compartiments (systèmes d'échange), la biotransformation, etc.
Élimination par l'air expiré via les poumons
L'élimination par les poumons (désorption) est typique des substances toxiques très volatiles (p. ex. solvants organiques). Les gaz et les vapeurs à faible solubilité dans le sang seront rapidement éliminés de cette manière, tandis que les toxiques à forte solubilité dans le sang seront éliminés par d'autres voies.
Les solvants organiques absorbés par l'intestin ou la peau sont partiellement excrétés par l'air expiré à chaque passage du sang dans les poumons, s'ils ont une pression de vapeur suffisante. L'alcootest utilisé pour les conducteurs en état d'ébriété présumés est basé sur ce fait. La concentration de CO dans l'air expiré est en équilibre avec la teneur sanguine en CO-Hb. Le gaz radioactif radon apparaît dans l'air expiré en raison de la désintégration du radium accumulé dans le squelette.
L'élimination d'un toxique par l'air expiré en fonction de la période post-exposition est généralement exprimée par une courbe triphasée. La première phase représente l'élimination du toxique du sang, montrant une courte demi-vie. La deuxième phase, plus lente, représente l'élimination due à l'échange de sang avec les tissus et les organes (système d'échange rapide). La troisième phase, très lente, est due aux échanges sanguins avec les tissus adipeux et le squelette. Si un toxique ne s'accumule pas dans de tels compartiments, la courbe sera à deux phases. Dans certains cas, une courbe à quatre phases est également possible.
La détermination des gaz et des vapeurs dans l'air expiré au cours de la période post-exposition est parfois utilisée pour évaluer l'exposition des travailleurs.
Excrétion rénale
Le rein est un organe spécialisé dans l'excrétion de nombreux toxiques et métabolites hydrosolubles, maintenant l'homéostasie de l'organisme. Chaque rein possède environ un million de néphrons capables d'effectuer l'excrétion. L'excrétion rénale représente un événement très complexe englobant trois mécanismes différents :
L'excrétion d'un toxique par les reins dans l'urine dépend du coefficient de partage de Nernst, de la constante de dissociation et du pH de l'urine, de la taille et de la forme moléculaires, du taux de métabolisme en métabolites plus hydrophiles, ainsi que de l'état de santé des reins.
La cinétique d'excrétion rénale d'un toxique ou de son métabolite peut être exprimée par une courbe d'excrétion à deux, trois ou quatre phases, selon la distribution du toxique particulier dans divers compartiments corporels différant par le taux d'échange avec le sang.
salive
Certains médicaments et ions métalliques peuvent être excrétés par la muqueuse de la bouche par la salive, par exemple le plomb ("ligne de plomb"), le mercure, l'arsenic, le cuivre, ainsi que les bromures, les iodures, l'alcool éthylique, les alcaloïdes, etc. Les toxiques sont ensuite avalés, atteignant le GIT, où ils peuvent être réabsorbés ou éliminés par les fèces.
Transpirer
De nombreux non-électrolytes peuvent être partiellement éliminés par voie cutanée par la sueur : alcool éthylique, acétone, phénols, sulfure de carbone et hydrocarbures chlorés.
Lait
De nombreux métaux, solvants organiques et certains pesticides organochlorés (DDT) sont sécrétés via la glande mammaire dans le lait maternel. Cette voie peut représenter un danger pour les nourrissons.
Implants
L'analyse des cheveux peut être utilisée comme indicateur de l'homéostasie de certaines substances physiologiques. L'exposition à certaines substances toxiques, en particulier les métaux lourds, peut également être évaluée par ce type d'essai biologique.
L'élimination des substances toxiques du corps peut être augmentée par:
Détermination de l'exposition
La détermination des substances toxiques et des métabolites dans le sang, l'air expiré, l'urine, la sueur, les matières fécales et les cheveux est de plus en plus utilisée pour l'évaluation de l'exposition humaine (tests d'exposition) et/ou l'évaluation du degré d'intoxication. Par conséquent, des limites d'exposition biologique (valeurs MAC biologiques, indices d'exposition biologique - BEI) ont été récemment établies. Ces bioessais montrent « l'exposition interne » de l'organisme, c'est-à-dire l'exposition totale de l'organisme dans les milieux de travail et de vie par toutes les portes d'entrée (voir « Méthodes d'essai toxicologique : Biomarqueurs »).
Effets combinés dus à une exposition multiple
Les personnes dans le milieu de travail et/ou de vie sont généralement exposées simultanément ou consécutivement à divers agents physiques et chimiques. Il faut également tenir compte du fait que certaines personnes consomment des médicaments, fument, consomment de l'alcool et des aliments contenant des additifs, etc. Cela signifie qu'il se produit généralement une exposition multiple. Les agents physiques et chimiques peuvent interagir à chaque étape des processus toxicocinétiques et/ou toxicodynamiques, produisant trois effets possibles :
Cependant, les études sur les effets combinés sont rares. Ce type d'étude est très complexe en raison de la combinaison de divers facteurs et agents.
Nous pouvons conclure que lorsque l'organisme humain est exposé à deux ou plusieurs substances toxiques simultanément ou consécutivement, il est nécessaire de considérer la possibilité de certains effets combinés, qui peuvent augmenter ou diminuer le taux de processus toxicocinétiques.
Les métaux toxiques et les composés organométalliques tels que l'aluminium, l'antimoine, l'arsenic inorganique, le béryllium, le cadmium, le chrome, le cobalt, le plomb, le plomb alkylique, le mercure métallique et ses sels, les composés organiques du mercure, le nickel, le sélénium et le vanadium sont tous reconnus depuis un certain temps comme présentant des risques potentiels pour la santé des personnes exposées. Dans certains cas, des études épidémiologiques sur les relations entre la dose interne et l'effet/réponse résultant chez les travailleurs exposés professionnellement ont été étudiées, permettant ainsi de proposer des valeurs limites biologiques à visée sanitaire (voir tableau 1).
Tableau 1. Métaux : valeurs de référence et valeurs limites biologiques proposées par l'American Conference of Governmental Industrial Hygienists (ACGIH), la Deutsche Forschungsgemeinschaft (DFG) et Lauwerys et Hoet (L et H)
Métal |
Échantillon |
Référence1 valeurs* |
Limite ACGIH (BEI)2 |
Limite DFG (BAT)3 |
Limite L et H4 (TMPC) |
Aluminium |
Sérum/plasma Urine |
<1 μg/100 ml <30 μg/g |
200 μg/l (fin de poste) |
150 μg/g (fin de poste) |
|
Antimoine |
Urine |
<1 μg/g |
35 μg/g (fin de poste) |
||
Arsenic |
Urine (somme de l'arsenic inorganique et des métabolites méthylés) |
<10 μg/g |
50 μg/g (fin de semaine de travail) |
50 μg/g (si TWA : 0.05 mg/m3 ); 30 μg/g (si TWA : 0.01 mg/m3 ) (fin de quart de travail) |
|
Béryllium |
Urine |
<2 μg/g |
|||
Cadmium |
sanguins Urine |
<0.5 μg/100 ml <2 μg/g |
0.5 μg/100 ml 5 µg/g |
1.5 μg/100 ml 15 μg / l |
0.5 μg/100 ml 5 µg/g |
Chrome (composés solubles) |
Sérum/plasma Urine |
<0.05 μg/100 ml <5 μg/g |
30 μg/g (fin de quart de travail, fin de semaine de travail); 10 μg/g (augmenter pendant le quart de travail) |
30 μg/g (fin de poste) |
|
Cobalt |
Sérum/plasma sanguins Urine |
<0.05 μg/100 ml <0.2 μg/100 ml <2 μg/g |
0.1 μg/100 ml (fin de quart de travail, fin de semaine de travail) 15 μg/l (fin de quart de travail, fin de semaine de travail) |
0.5 μg/100 ml (EKA)** 60 μg/l (EKA)** |
30 μg/g (fin de quart de travail, fin de semaine de travail) |
Plomb |
Sang (plomb) ZPP dans le sang Urine (plomb) AAL urinaire |
<25 μg/100 ml <40 μg/100 ml de sang <2.5 μg/g d'Hb <50 μg/g <4.5 mg / g |
30 μg/100 ml (non critique) |
femme <45 ans : 30 μg/100 ml mâle : 70 μg/100 ml femme <45 ans : 6 mg/litre ; mâle : 15 mg/l |
40 μg/100 ml 40 μg/100 ml de sang ou 3 μg/g Hb 50 µg/g 5 mg / g |
Manganèse |
sanguins Urine |
<1 μg/100 ml <3 μg/g |
|||
Mercure inorganique |
sanguins Urine |
<1 μg/100 ml <5 μg/g |
1.5 μg/100 ml (fin de quart de travail, fin de semaine de travail) 35 μg/g (pré-shift) |
5 μg/100 ml 200 μg / l |
2 μg/100 ml (fin de poste) 50 μg/g (fin de poste) |
Nickel (composés solubles) |
Sérum/plasma Urine |
<0.05 μg/100 ml <2 μg/g |
45 μg/l (EKA)** |
30 µg/g |
|
Sélénium |
Sérum/plasma Urine |
<15 μg/100 ml <25 μg/g |
|||
Vanadium |
Sérum/plasma sanguins Urine |
<0.2 μg/100 ml <0.1 μg/100 ml <1 μg/g |
70 μg/g de créatinine |
50 µg/g |
* Les valeurs d'urine sont par gramme de créatinine.
** EKA = Équivalents d'exposition pour les matières cancérigènes.
1 Pris avec quelques modifications de Lauwerys et Hoet 1993.
2 De l'ACGIH 1996-97.
3 De DFG 1996.
4 Concentrations maximales admissibles provisoires (TMPC) tirées de Lauwerys et Hoet 1993.
Un problème dans la recherche de mesures précises et exactes des métaux dans les matériaux biologiques est que les substances métalliques d'intérêt sont souvent présentes dans les milieux à des niveaux très bas. Lorsque le suivi biologique consiste en un prélèvement et une analyse des urines, comme c'est souvent le cas, il est le plus souvent réalisé sur des prélèvements « ponctuels » ; la correction des résultats pour la dilution de l'urine est donc généralement conseillée. L'expression des résultats par gramme de créatinine est la méthode de standardisation la plus fréquemment utilisée. Les analyses effectuées sur des échantillons d'urine trop dilués ou trop concentrés ne sont pas fiables et doivent être répétées.
Aluminium
Dans l'industrie, les travailleurs peuvent être exposés à des composés inorganiques de l'aluminium par inhalation et éventuellement aussi par ingestion de poussières contenant de l'aluminium. L'aluminium est mal absorbé par voie orale, mais son absorption est augmentée par la prise simultanée de citrates. Le taux d'absorption de l'aluminium déposé dans les poumons est inconnu; la biodisponibilité est probablement dépendante des caractéristiques physicochimiques de la particule. L'urine est la principale voie d'excrétion de l'aluminium absorbé. La concentration d'aluminium dans le sérum et dans l'urine est déterminée à la fois par l'intensité d'une exposition récente et par la charge corporelle en aluminium. Chez les personnes non exposées professionnellement, la concentration d'aluminium dans le sérum est généralement inférieure à 1 μg/100 ml et dans l'urine dépasse rarement 30 μg/g de créatinine. Chez les sujets ayant une fonction rénale normale, l'excrétion urinaire d'aluminium est un indicateur plus sensible de l'exposition à l'aluminium que sa concentration dans le sérum/plasma.
Les données sur les soudeurs suggèrent que la cinétique d'excrétion de l'aluminium dans l'urine implique un mécanisme en deux étapes, la première ayant une demi-vie biologique d'environ huit heures. Chez les travailleurs exposés pendant plusieurs années, une certaine accumulation du métal dans l'organisme se produit effectivement et les concentrations d'aluminium dans le sérum et dans l'urine sont également influencées par la charge corporelle en aluminium. L'aluminium est stocké dans plusieurs compartiments du corps et excrété de ces compartiments à des rythmes différents sur de nombreuses années. Une forte accumulation d'aluminium dans l'organisme (os, foie, cerveau) a également été constatée chez des patients souffrant d'insuffisance rénale. Les patients sous dialyse sont à risque de toxicité osseuse et/ou d'encéphalopathie lorsque leur concentration sérique en aluminium dépasse chroniquement 20 μg/100 ml, mais il est possible de détecter des signes de toxicité à des concentrations encore plus faibles. La Commission des Communautés européennes a recommandé que, afin de prévenir la toxicité de l'aluminium, la concentration d'aluminium dans le plasma ne dépasse jamais 20 μg/100 ml ; un niveau supérieur à 10 μg/100 ml devrait entraîner une augmentation de la fréquence des contrôles et de la surveillance de la santé, et une concentration supérieure à 6 μg/100 ml devrait être considérée comme la preuve d'une accumulation excessive de la charge corporelle en aluminium.
Antimoine
L'antimoine inorganique peut pénétrer dans l'organisme par ingestion ou inhalation, mais le taux d'absorption est inconnu. Les composés pentavalents absorbés sont principalement excrétés avec l'urine et les composés trivalents via les fèces. La rétention de certains composés d'antimoine est possible après une exposition à long terme. Les concentrations normales d'antimoine dans le sérum et l'urine sont probablement inférieures à 0.1 μg/100 ml et 1 μg/g de créatinine, respectivement.
Une étude préliminaire sur des travailleurs exposés à l'antimoine pentavalent indique qu'une exposition moyenne pondérée dans le temps à 0.5 mg/m3 entraînerait une augmentation de la concentration urinaire en antimoine de 35 μg/g de créatinine pendant le quart de travail.
Arsenic inorganique
L'arsenic inorganique peut pénétrer dans l'organisme par les voies gastro-intestinales et respiratoires. L'arsenic absorbé est principalement éliminé par voie rénale sous forme inchangée ou après méthylation. L'arsenic inorganique est également excrété dans la bile sous forme de complexe de glutathion.
Suite à une exposition orale unique à une faible dose d'arséniate, 25 et 45 % de la dose administrée sont excrétés dans l'urine en un et quatre jours, respectivement.
Après exposition à l'arsenic inorganique trivalent ou pentavalent, l'excrétion urinaire est constituée de 10 à 20 % d'arsenic inorganique, de 10 à 20 % d'acide monométhylarsonique et de 60 à 80 % d'acide cacodylique. Suite à une exposition professionnelle à l'arsenic inorganique, la proportion des espèces arsenicales dans les urines dépend du moment du prélèvement.
Les organoarsenicaux présents dans les organismes marins sont également facilement absorbés par le tractus gastro-intestinal mais sont excrétés pour la plupart sous forme inchangée.
Les effets toxiques à long terme de l'arsenic (y compris les effets toxiques sur les gènes) résultent principalement de l'exposition à l'arsenic inorganique. Par conséquent, la surveillance biologique vise à évaluer l'exposition aux composés inorganiques de l'arsenic. A cet effet, le dosage spécifique de l'arsenic inorganique (Asi), l'acide monométhylarsonique (MMA) et l'acide cacodylique (DMA) dans l'urine est la méthode de choix. Cependant, étant donné que la consommation de fruits de mer peut encore influencer le taux d'excrétion de DMA, les travailleurs testés doivent s'abstenir de manger des fruits de mer pendant les 48 heures précédant le prélèvement d'urine.
Chez les personnes non exposées professionnellement à l'arsenic inorganique et n'ayant pas consommé récemment d'organisme marin, la somme de ces trois espèces d'arsenic ne dépasse généralement pas 10 μg/g de créatinine urinaire. Des valeurs plus élevées peuvent être trouvées dans les zones géographiques où l'eau potable contient des quantités importantes d'arsenic.
Il a été estimé qu'en l'absence de consommation de produits de la mer, une exposition moyenne pondérée dans le temps à 50 et 200 μg/m3 l'arsenic inorganique conduit à des concentrations urinaires moyennes de la somme des métabolites (Asi, MMA, DMA) dans des échantillons d'urine post-poste de 54 et 88 μg/g de créatinine, respectivement.
En cas d'exposition à des composés d'arsenic inorganiques moins solubles (p. ex. arséniure de gallium), la détermination de l'arsenic dans l'urine reflétera la quantité absorbée mais pas la dose totale délivrée à l'organisme (poumon, tractus gastro-intestinal).
L'arsenic dans les cheveux est un bon indicateur de la quantité d'arsenic inorganique absorbée pendant la période de croissance des cheveux. L'arsenic organique d'origine marine ne semble pas être absorbé dans les cheveux au même degré que l'arsenic inorganique. La détermination de la concentration d'arsenic sur la longueur des cheveux peut fournir des informations précieuses concernant le temps d'exposition et la durée de la période d'exposition. Cependant, le dosage de l'arsenic dans les cheveux n'est pas recommandé lorsque l'air ambiant est contaminé par l'arsenic, car il ne sera pas possible de faire la distinction entre l'arsenic endogène et l'arsenic déposé extérieurement sur les cheveux. Les niveaux d'arsenic dans les cheveux sont généralement inférieurs à 1 mg/kg. L'arsenic dans les ongles a la même signification que l'arsenic dans les cheveux.
Comme pour les niveaux d'urine, les niveaux d'arsenic dans le sang peuvent refléter la quantité d'arsenic récemment absorbée, mais la relation entre l'intensité de l'exposition à l'arsenic et sa concentration dans le sang n'a pas encore été évaluée.
Béryllium
L'inhalation est la principale voie d'absorption du béryllium pour les personnes exposées professionnellement. Une exposition à long terme peut entraîner le stockage de quantités appréciables de béryllium dans les tissus pulmonaires et dans le squelette, le site ultime de stockage. L'élimination du béryllium absorbé se produit principalement par l'urine et seulement dans une moindre mesure dans les fèces.
Les niveaux de béryllium peuvent être déterminés dans le sang et l'urine, mais à l'heure actuelle, ces analyses ne peuvent être utilisées que comme tests qualitatifs pour confirmer l'exposition au métal, car on ne sait pas dans quelle mesure les concentrations de béryllium dans le sang et l'urine peuvent être influencées par les récentes l'exposition et par la quantité déjà stockée dans le corps. De plus, il est difficile d'interpréter les données publiées limitées sur l'excrétion du béryllium chez les travailleurs exposés, car généralement l'exposition externe n'a pas été adéquatement caractérisée et les méthodes d'analyse ont des sensibilités et une précision différentes. Les taux urinaires et sériques normaux de béryllium sont probablement inférieurs
2 μg/g de créatinine et 0.03 μg/100 ml, respectivement.
Cependant, la découverte d'une concentration normale de béryllium dans l'urine n'est pas une preuve suffisante pour exclure la possibilité d'une exposition passée au béryllium. En effet, une augmentation de l'excrétion urinaire de béryllium n'a pas toujours été retrouvée chez les travailleurs même s'ils ont été exposés au béryllium dans le passé et ont par conséquent développé une granulomatose pulmonaire, une maladie caractérisée par de multiples granulomes, c'est-à-dire des nodules de tissus inflammatoires, retrouvés dans les poumons.
Cadmium
En milieu professionnel, l'absorption du cadmium se fait principalement par inhalation. Cependant, l'absorption gastro-intestinale peut contribuer de manière significative à la dose interne de cadmium. Une caractéristique importante du cadmium est sa longue demi-vie biologique dans l'organisme, dépassant
10 années. Dans les tissus, le cadmium est principalement lié à la métallothionéine. Dans le sang, il est principalement lié aux globules rouges. Compte tenu de la propriété du cadmium à s'accumuler, tout programme de surveillance biologique des groupes de population chroniquement exposés au cadmium devrait tenter d'évaluer à la fois l'exposition actuelle et l'exposition intégrée.
Par activation neutronique, il est actuellement possible de réaliser in vivo mesures des quantités de cadmium accumulées dans les principaux sites de stockage, les reins et le foie. Cependant, ces techniques ne sont pas utilisées en routine. Jusqu'à présent, dans la surveillance de la santé des travailleurs de l'industrie ou dans des études à grande échelle sur la population générale, l'exposition au cadmium a généralement été évaluée indirectement en mesurant le métal dans l'urine et le sang.
La cinétique détaillée de l'action du cadmium chez l'homme n'est pas encore entièrement élucidée, mais à des fins pratiques, les conclusions suivantes peuvent être formulées concernant l'importance du cadmium dans le sang et l'urine. Chez les travailleurs nouvellement exposés, les niveaux de cadmium dans le sang augmentent progressivement et atteignent après quatre à six mois une concentration correspondant à l'intensité de l'exposition. Chez les personnes exposées au cadmium de manière continue sur une longue période, la concentration de cadmium dans le sang reflète principalement l'apport moyen au cours des derniers mois. L'influence relative de la charge corporelle en cadmium sur le niveau de cadmium dans le sang peut être plus importante chez les personnes qui ont accumulé une grande quantité de cadmium et qui ont été retirées de l'exposition. Après arrêt de l'exposition, le taux de cadmium dans le sang diminue relativement rapidement, avec une demi-vie initiale de deux à trois mois. Selon la charge corporelle, le niveau peut cependant rester plus élevé que chez les sujets témoins. Plusieurs études chez l'homme et l'animal ont indiqué que le niveau de cadmium dans l'urine peut être interprété comme suit : en l'absence de surexposition aiguë au cadmium, et tant que la capacité de stockage du cortex rénal n'est pas dépassée ou que la néphropathie induite par le cadmium n'a pas ne s'est pas encore produit, le taux de cadmium dans les urines augmente progressivement avec la quantité de cadmium stockée dans les reins. Dans ces conditions, qui prévalent principalement dans la population générale et chez les travailleurs modérément exposés au cadmium, il existe une corrélation significative entre le cadmium urinaire et le cadmium dans les reins. Si l'exposition au cadmium a été excessive, les sites de fixation du cadmium dans l'organisme se saturent progressivement et, malgré une exposition continue, la concentration en cadmium dans le cortex rénal se stabilise.
A partir de ce stade, le cadmium absorbé ne peut plus être retenu dans cet organe et il est rapidement excrété dans les urines. Puis à ce stade, la concentration en cadmium urinaire est influencée à la fois par la charge corporelle et par l'apport récent. Si l'exposition se poursuit, certains sujets peuvent développer des lésions rénales, ce qui entraîne une augmentation supplémentaire du cadmium urinaire en raison de la libération du cadmium stocké dans les reins et de la diminution de la réabsorption du cadmium circulant. Cependant, après un épisode d'exposition aiguë, les niveaux de cadmium dans l'urine peuvent augmenter rapidement et brièvement sans refléter une augmentation de la charge corporelle.
Des études récentes indiquent que la métallothionéine dans l'urine a la même signification biologique. De bonnes corrélations ont été observées entre la concentration urinaire de métallothionéine et celle de cadmium, indépendamment de l'intensité de l'exposition et de l'état de la fonction rénale.
Les taux normaux de cadmium dans le sang et dans les urines sont généralement inférieurs à 0.5 μg/100 ml et
2 μg/g de créatinine, respectivement. Ils sont plus élevés chez les fumeurs que chez les non-fumeurs. Chez les travailleurs exposés de manière chronique au cadmium, le risque d'insuffisance rénale est négligeable lorsque les taux urinaires de cadmium ne dépassent jamais 10 μg/g de créatinine. Une accumulation de cadmium dans l'organisme qui conduirait à une excrétion urinaire dépassant ce niveau doit être évitée. Cependant, certaines données suggèrent que certains marqueurs rénaux (dont la signification sanitaire est encore inconnue) peuvent devenir anormaux pour des valeurs de cadmium urinaire comprises entre 3 et 5 μg/g de créatinine, il semble donc raisonnable de proposer une valeur limite biologique inférieure de 5 μg/g de créatinine . Pour le sang, une limite biologique de 0.5 μg/100 ml a été proposée pour une exposition à long terme. Il est cependant possible que dans le cas de la population générale exposée au cadmium via l'alimentation ou le tabac ou chez les personnes âgées, qui souffrent normalement d'une altération de la fonction rénale, le niveau critique dans le cortex rénal soit plus faible.
Chrome
La toxicité du chrome est principalement attribuable à ses composés hexavalents. L'absorption des composés hexavalents est relativement plus élevée que l'absorption des composés trivalents. L'élimination se fait principalement par voie urinaire.
Chez les personnes non professionnellement exposées au chrome, la concentration de chrome dans le sérum et dans l'urine ne dépasse généralement pas 0.05 μg/100 ml et 2 μg/g de créatinine, respectivement. L'exposition récente aux sels de chrome hexavalent solubles (par exemple, chez les galvanoplastes et les soudeurs en acier inoxydable) peut être évaluée en surveillant le niveau de chrome dans l'urine à la fin du poste de travail. Des études menées par plusieurs auteurs suggèrent la relation suivante : une exposition TWA de 0.025 ou 0.05 mg/m3 le chrome hexavalent est associé à une concentration moyenne à la fin de la période d'exposition de 15 ou 30 μg/g de créatinine, respectivement. Cette relation n'est valable que sur une base de groupe. Suite à une exposition à 0.025 mg/m3 chrome hexavalent, la valeur limite inférieure de l'intervalle de confiance à 95 % est d'environ 5 μg/g de créatinine. Une autre étude chez des soudeurs d'acier inoxydable a montré qu'une concentration urinaire en chrome de l'ordre de 40 μg/l correspond à une exposition moyenne à 0.1 mg/m3 trioxyde de chrome.
Le chrome hexavalent traverse facilement les membranes cellulaires, mais une fois à l'intérieur de la cellule, il est réduit en chrome trivalent. La concentration de chrome dans les érythrocytes pourrait être un indicateur de l'intensité de l'exposition au chrome hexavalent pendant la durée de vie des globules rouges, mais cela ne s'applique pas au chrome trivalent.
Il reste à évaluer dans quelle mesure la surveillance du chrome dans l'urine est utile pour l'estimation des risques pour la santé.
Cobalt
Une fois absorbé, par inhalation et dans une certaine mesure par voie orale, le cobalt (avec une demi-vie biologique de quelques jours) est éliminé principalement avec les urines. L'exposition aux composés de cobalt solubles entraîne une augmentation de la concentration de cobalt dans le sang et l'urine.
Les concentrations de cobalt dans le sang et dans l'urine sont influencées principalement par une exposition récente. Chez les sujets non exposés professionnellement, le cobalt urinaire est généralement inférieur à 2 μg/g de créatinine et le cobalt sérique/plasmatique inférieur à 0.05 μg/100 ml.
Pour des expositions TWA de 0.1 mg/m3 et 0.05 mg/m3, des taux urinaires moyens allant d'environ 30 à 75 μg/l et 30 à 40 μg/l, respectivement, ont été rapportés (à partir d'échantillons de fin de poste). Le temps d'échantillonnage est important car il y a une augmentation progressive des niveaux urinaires de cobalt pendant la semaine de travail.
Chez les travailleurs exposés aux oxydes de cobalt, aux sels de cobalt ou à la poudre de cobalt métallique dans une raffinerie, une TWA de 0.05 mg/m3 a entraîné une concentration moyenne de cobalt de 33 et 46 μg/g de créatinine dans l'urine prélevée à la fin du quart de travail le lundi et le vendredi, respectivement.
Plomb
Le plomb inorganique, une toxine cumulative absorbée par les poumons et le tractus gastro-intestinal, est clairement le métal le plus étudié ; ainsi, de tous les contaminants métalliques, la fiabilité des méthodes d'évaluation de l'exposition récente ou de la charge corporelle par des méthodes biologiques est la plus grande pour le plomb.
Dans une situation d'exposition à l'état d'équilibre, le plomb dans le sang total est considéré comme le meilleur indicateur de la concentration de plomb dans les tissus mous et donc de l'exposition récente. Cependant, l'augmentation des niveaux de plomb dans le sang (Pb-B) diminue progressivement avec l'augmentation des niveaux d'exposition au plomb. Lorsque l'exposition professionnelle a été prolongée, l'arrêt de l'exposition n'est pas nécessairement associé à un retour du Pb-B à une valeur de pré-exposition (fond) en raison de la libération continue de plomb à partir des dépôts tissulaires. Les plombémies et urinaires normales sont généralement inférieures à 20 μg/100 ml et 50 μg/g de créatinine, respectivement. Ces taux peuvent être influencés par les habitudes alimentaires et le lieu de résidence des sujets. L'OMS a proposé 40 μg/100 ml comme concentration individuelle maximale tolérable de plomb dans le sang pour les hommes adultes et 30 μg/100 ml pour les femmes en âge de procréer. Chez les enfants, des concentrations plus faibles de plomb dans le sang ont été associées à des effets indésirables sur le système nerveux central. Le niveau de plomb dans l'urine augmente de façon exponentielle avec l'augmentation de Pb-B et, dans une situation d'équilibre, reflète principalement une exposition récente.
La quantité de plomb excrétée dans l'urine après administration d'un agent chélateur (par exemple, CaEDTA) reflète le pool de plomb mobilisable. Chez les sujets témoins, la quantité de plomb excrétée dans l'urine dans les 24 heures suivant l'administration intraveineuse d'un gramme d'EDTA ne dépasse généralement pas 600 μg. Il semble que sous une exposition constante, les valeurs de plomb chélatable reflètent principalement le pool de plomb dans le sang et les tissus mous, avec seulement une petite fraction provenant des os.
Une technique de fluorescence X a été développée pour mesurer la concentration en plomb dans les os (phalanges, tibia, calcanéus, vertèbres), mais actuellement la limite de détection de la technique restreint son utilisation aux personnes professionnellement exposées.
La détermination du plomb dans les cheveux a été proposée comme méthode d'évaluation du pool de plomb mobilisable. Cependant, en milieu professionnel, il est difficile de faire la distinction entre le plomb incorporé de manière endogène dans les cheveux et celui simplement adsorbé à leur surface.
La détermination de la concentration de plomb dans la dentine circumpulpaire des dents de lait (dents de lait) a été utilisée pour estimer l'exposition au plomb pendant la petite enfance.
Les paramètres reflétant l'interférence du plomb avec les processus biologiques peuvent également être utilisés pour évaluer l'intensité de l'exposition au plomb. Les paramètres biologiques actuellement utilisés sont la coproporphyrine dans les urines (COPRO-U), l'acide delta-aminolévulinique dans les urines (ALA-U), la protoporphyrine érythrocytaire (EP, ou protoporphyrine de zinc), la déshydratase de l'acide delta-aminolévulinique (ALA-D), et la pyrimidine-5'-nucléotidase (P5N) dans les globules rouges. En régime permanent, les variations de ces paramètres sont corrélées positivement (COPRO-U, ALA-U, EP) ou négativement (ALA-D, P5N) avec la plombémie. L'excrétion urinaire de COPRO (principalement l'isomère III) et d'ALA commence à augmenter lorsque la concentration de plomb dans le sang atteint une valeur d'environ 40 μg/100 ml. La protoporphyrine érythrocytaire commence à augmenter de manière significative à des niveaux de plomb dans le sang d'environ 35 μg/100 ml chez les hommes et 25 μg/100 ml chez les femmes. Après la fin de l'exposition professionnelle au plomb, la protoporphyrine érythrocytaire reste élevée de manière disproportionnée par rapport aux niveaux actuels de plomb dans le sang. Dans ce cas, le niveau d'EP est mieux corrélé avec la quantité de plomb chélatable excrété dans l'urine qu'avec le plomb dans le sang.
Une légère carence en fer entraînera également une concentration élevée de protoporphyrine dans les globules rouges. Les enzymes des globules rouges, ALA-D et P5N, sont très sensibles à l'action inhibitrice du plomb. Dans la plage de plombémie de 10 à 40 μg/100 ml, il existe une étroite corrélation négative entre l'activité des deux enzymes et celle de la plombémie.
Alkyle Plomb
Dans certains pays, le plomb tétraéthyle et le plomb tétraméthyle sont utilisés comme agents antidétonants dans les carburants automobiles. Le plomb dans le sang n'est pas un bon indicateur d'exposition au plomb tétraalkyl, alors que le plomb dans les urines semble être utile pour évaluer le risque de surexposition.
Manganèse
En milieu professionnel, le manganèse pénètre dans l'organisme principalement par les poumons; l'absorption par le tractus gastro-intestinal est faible et dépend probablement d'un mécanisme homéostatique. L'élimination du manganèse se fait par la bile, avec seulement de petites quantités excrétées avec l'urine.
Les concentrations normales de manganèse dans l'urine, le sang et le sérum ou le plasma sont généralement inférieures à 3 μg/g de créatinine, 1 μg/100 ml et 0.1 μg/100 ml, respectivement.
Il semble que, sur une base individuelle, ni le manganèse dans le sang ni le manganèse dans les urines ne soient corrélés aux paramètres d'exposition externe.
Il n'y a apparemment pas de relation directe entre la concentration de manganèse dans le matériel biologique et la gravité de l'intoxication chronique au manganèse. Il est possible qu'à la suite d'une exposition professionnelle au manganèse, des effets néfastes précoces sur le système nerveux central soient déjà détectés à des niveaux biologiques proches des valeurs normales.
Mercure métallique et ses sels inorganiques
L'inhalation représente la principale voie d'absorption du mercure métallique. L'absorption gastro-intestinale du mercure métallique est négligeable. Les sels de mercure inorganique peuvent être absorbés par les poumons (inhalation d'aérosols de mercure inorganique) ainsi que par le tractus gastro-intestinal. L'absorption cutanée du mercure métallique et de ses sels inorganiques est possible.
La demi-vie biologique du mercure est de l'ordre de deux mois dans le rein mais est beaucoup plus longue dans le système nerveux central.
Le mercure inorganique est excrété principalement avec les fèces et l'urine. De petites quantités sont excrétées par les glandes salivaires, lacrymales et sudoripares. Le mercure peut également être détecté dans l'air expiré pendant les quelques heures suivant l'exposition aux vapeurs de mercure. Dans des conditions d'exposition chronique, il existe, au moins sur une base de groupe, une relation entre l'intensité de l'exposition récente aux vapeurs de mercure et la concentration de mercure dans le sang ou l'urine. Les premières investigations, au cours desquelles des échantillons statiques ont été utilisés pour surveiller l'air général des salles de travail, ont montré qu'une concentration moyenne de mercure-air, Hg-air, de 100 μg/m3 correspond à des taux moyens de mercure dans le sang (Hg–B) et dans les urines (Hg–U) de 6 μg Hg/100 ml et 200 à 260 μg/l, respectivement. Des observations plus récentes, notamment celles évaluant la contribution du micro-environnement externe proche des voies respiratoires des travailleurs, indiquent que l'air (μg/m3)/urine (μg/g créatinine)/mercure sanguin (μg/100ml) est d'environ 1/1.2/0.045. Plusieurs études épidémiologiques sur des travailleurs exposés aux vapeurs de mercure ont démontré que pour une exposition à long terme, les niveaux d'effet critique de Hg–U et Hg–B sont d'environ 50 μg/g de créatinine et 2 μg/100 ml, respectivement.
Cependant, certaines études récentes semblent indiquer que des signes d'effets indésirables sur le système nerveux central ou le rein peuvent déjà être observés à un taux de mercure urinaire inférieur à 50 μg/g de créatinine.
Les taux urinaires et sanguins normaux sont généralement inférieurs à 5 μg/g de créatinine et 1 μg/100 ml, respectivement. Ces valeurs peuvent être influencées par la consommation de poisson et le nombre d'amalgames dentaires au mercure.
Composés organiques du mercure
Les composés organiques du mercure sont facilement absorbés par toutes les voies. Dans le sang, on les retrouve principalement dans les globules rouges (environ 90%). Il faut cependant distinguer les composés alkylés à chaîne courte (principalement le méthylmercure), très stables et résistants à la biotransformation, et les dérivés arylés ou alcoxyalkylés, qui libèrent du mercure inorganique. in vivo. Pour ces derniers composés, la concentration de mercure dans le sang, ainsi que dans l'urine, est probablement indicative de l'intensité de l'exposition.
Dans des conditions d'équilibre, le mercure dans le sang total et dans les cheveux est en corrélation avec la charge corporelle en méthylmercure et avec le risque de signes d'empoisonnement au méthylmercure. Chez les personnes exposées de manière chronique à l'alkylmercure, les premiers signes d'intoxication (paresthésies, troubles sensoriels) peuvent survenir lorsque le taux de mercure dans le sang et dans les cheveux dépasse respectivement 20 μg/100 ml et 50 μg/g.
Nickel
Le nickel n'est pas une toxine cumulative et la quasi-totalité de la quantité absorbée est excrétée principalement via l'urine, avec une demi-vie biologique de 17 à 39 heures. Chez les sujets non exposés professionnellement, les concentrations urinaires et plasmatiques de nickel sont généralement inférieures à 2 μg/g de créatinine et 0.05 μg/100 ml, respectivement.
Les concentrations de nickel dans le plasma et dans l'urine sont de bons indicateurs d'une exposition récente au nickel métallique et à ses composés solubles (par exemple, lors de la galvanoplastie au nickel ou de la production de batteries au nickel). Les valeurs dans les plages normales indiquent généralement une exposition non significative et les valeurs élevées indiquent une surexposition.
Pour les travailleurs exposés à des composés de nickel solubles, une valeur limite biologique de 30 μg/g de créatinine (fin de poste) a été provisoirement proposée pour le nickel dans l'urine.
Chez les travailleurs exposés à des composés de nickel légèrement solubles ou insolubles, des niveaux accrus dans les fluides corporels indiquent généralement une absorption importante ou une libération progressive de la quantité stockée dans les poumons ; cependant, des quantités importantes de nickel peuvent se déposer dans les voies respiratoires (cavités nasales, poumons) sans élévation significative de sa concentration plasmatique ou urinaire. Par conséquent, les valeurs « normales » doivent être interprétées avec prudence et n'indiquent pas nécessairement l'absence de risque pour la santé.
Sélénium
Le sélénium est un oligo-élément essentiel. Les composés de sélénium solubles semblent être facilement absorbés par les poumons et le tractus gastro-intestinal. Le sélénium est principalement excrété dans l'urine, mais lorsque l'exposition est très élevée, il peut également être excrété dans l'air expiré sous forme de vapeur de diméthylséléniure. Les concentrations normales de sélénium dans le sérum et l'urine dépendent de l'apport quotidien, qui peut varier considérablement dans différentes parties du monde mais est généralement inférieur à 15 μg/100 ml et 25 μg/g de créatinine, respectivement. La concentration de sélénium dans l'urine est principalement le reflet d'une exposition récente. La relation entre l'intensité de l'exposition et la concentration de sélénium dans l'urine n'a pas encore été établie.
Il semble que la concentration dans le plasma (ou le sérum) et les urines reflète principalement une exposition à court terme, alors que la teneur en sélénium des érythrocytes reflète une exposition à plus long terme.
La mesure du sélénium dans le sang ou l'urine donne des informations sur le statut en sélénium. Actuellement, il est plus souvent utilisé pour détecter une carence plutôt qu'une surexposition. Les données disponibles concernant le risque sanitaire d'une exposition à long terme au sélénium et la relation entre le risque potentiel pour la santé et les niveaux dans les milieux biologiques étant trop limitées, aucune valeur seuil biologique ne peut être proposée.
Vanadium
Dans l'industrie, le vanadium est principalement absorbé par voie pulmonaire. L'absorption orale semble faible (moins de 1 %). Le vanadium est excrété dans les urines avec une demi-vie biologique d'environ 20 à 40 heures et, à un moindre degré, dans les fèces. Le vanadium urinaire semble être un bon indicateur d'une exposition récente, mais la relation entre l'absorption et les niveaux de vanadium dans l'urine n'a pas encore été suffisamment établie. Il a été suggéré que la différence entre les concentrations urinaires de vanadium après et avant le quart de travail permet d'évaluer l'exposition pendant la journée de travail, alors que le vanadium urinaire deux jours après l'arrêt de l'exposition (lundi matin) refléterait l'accumulation du métal dans l'organisme. . Chez les personnes non exposées professionnellement, la concentration de vanadium dans l'urine est généralement inférieure à 1 μg/g de créatinine. Une valeur limite biologique provisoire de 50 μg/g de créatinine (fin de poste) a été proposée pour le vanadium dans l'urine.
Origins
La normalisation dans le domaine de l'ergonomie a une histoire relativement courte. Elle a commencé au début des années 1970 lorsque les premiers comités ont été fondés au niveau national (par exemple, en Allemagne au sein de l'institut de normalisation DIN), et elle s'est poursuivie au niveau international après la fondation de l'ISO (Organisation internationale de normalisation) TC (Comité technique) 159 « Ergonomie », en 1975. Entre-temps, la normalisation de l'ergonomie a également lieu au niveau régional, par exemple au niveau européen au sein du CEN (Commission européenne de normalisation), qui a créé son TC 122 "Ergonomie" en 1987. L'existence de ce dernier comité souligne le fait que l'une des raisons importantes de la création de comités de normalisation des connaissances et des principes en ergonomie se trouve dans l'ordre juridique (et quasi-juridique) réglementations, notamment en matière de sécurité et de santé, qui exigent l'application des principes et des connaissances ergonomiques dans la conception des produits et des systèmes de travail. Les lois nationales exigeant l'application de connaissances ergonomiques bien établies ont été à l'origine de la création du comité allemand de l'ergonomie en 1970, et les directives européennes, en particulier la directive Machines (relative aux normes de sécurité), ont été chargées de créer un comité ergonomique sur le marché européen. niveau. Étant donné que les réglementations légales ne sont généralement pas, ne peuvent et ne doivent pas être très spécifiques, la tâche de spécifier quels principes et conclusions ergonomiques doivent être appliqués a été confiée ou reprise par des comités de normalisation ergonomique. Surtout au niveau européen, on peut reconnaître que la normalisation ergonomique peut contribuer à fournir des conditions générales et comparables de sécurité des machines, supprimant ainsi les obstacles au libre-échange des machines sur le continent lui-même.
Perspectives
La normalisation de l'ergonomie a donc commencé par une forte protecteur, bien que préventive, avec des normes ergonomiques élaborées dans le but de protéger les travailleurs contre les effets néfastes à différents niveaux de protection de la santé. Des normes ergonomiques ont ainsi été élaborées avec les intentions suivantes en vue :
La normalisation internationale, qui n'était pas si étroitement couplée à la législation, en revanche, a toujours aussi tenté d'ouvrir une perspective dans le sens d'une production de normes allant au-delà de la prévention et de la protection contre les effets néfastes (par exemple, en spécifiant des normes minimales/maximales valeurs) et à la place proactive prévoir des conditions de travail optimales pour favoriser le bien-être et le développement personnel du travailleur, ainsi que l'efficacité, l'efficience, la fiabilité et la productivité du système de travail.
C'est un point où il devient évident que l'ergonomie, et en particulier la normalisation de l'ergonomie, a des dimensions sociales et politiques très distinctes. Alors que l'approche protectrice en matière de sécurité et de santé est généralement acceptée et convenue entre les parties concernées (employeurs, syndicats, administration et experts en ergonomie) pour tous les niveaux de normalisation, l'approche proactive n'est pas également acceptée par toutes les parties de la même manière . Cela pourrait être dû au fait que, en particulier lorsque la législation exige l'application de principes ergonomiques (et donc explicitement ou implicitement l'application de normes ergonomiques), certaines parties estiment que ces normes pourraient limiter leur liberté d'action ou de négociation. Étant donné que les normes internationales sont moins contraignantes (leur transfert dans le corps des normes nationales est à la discrétion des comités nationaux de normalisation), l'approche proactive a été développée le plus au niveau international de la normalisation ergonomique.
Le fait que certaines réglementations restreignent effectivement la marge d'appréciation de ceux auxquels elles s'appliquent a eu pour effet de décourager la normalisation dans certains domaines, par exemple en lien avec les directives européennes de l'article 118a de l'Acte unique européen, relatives à la sécurité et à la santé dans l'utilisation et la fonctionnement des machines sur le lieu de travail, et dans la conception des systèmes de travail et la conception du lieu de travail. D'autre part, en vertu des directives émises en vertu de l'article 100a, relatives à la sécurité et à la santé dans la conception des machines en ce qui concerne le libre échange de ces machines au sein de l'Union européenne (UE), la normalisation ergonomique européenne est mandatée par la Commission européenne.
D'un point de vue ergonomique, cependant, il est difficile de comprendre pourquoi l'ergonomie dans la conception des machines devrait être différente de celle dans l'utilisation et le fonctionnement des machines dans un système de travail. Il faut donc espérer que la distinction sera abandonnée à l'avenir, car elle semble être plus préjudiciable que bénéfique au développement d'un corps cohérent de normes ergonomiques.
Types de normes ergonomiques
La première norme internationale d'ergonomie à avoir été développée (basée sur une norme nationale allemande DIN) est la norme ISO 6385, "Principes ergonomiques dans la conception des systèmes de travail", publiée en 1981. C'est la norme de base de la série de normes ergonomiques et elle fixe les étape pour les normes qui ont suivi en définissant les concepts de base et en énonçant les principes généraux de la conception ergonomique des systèmes de travail, y compris les tâches, les outils, les machines, les postes de travail, l'espace de travail, l'environnement de travail et l'organisation du travail. Cette norme internationale, actuellement en cours de révision, est une norme de référence, et en tant que tel fournit des directives à suivre. Cependant, il ne fournit pas de spécifications techniques ou physiques qui doivent être respectées. Ceux-ci peuvent être trouvés dans un autre type de normes, c'est-à-dire normes de spécification, par exemple celles sur l'anthropométrie ou les conditions thermiques. Les deux types de normes remplissent des fonctions différentes. Alors que les normes d'orientation ont l'intention de montrer à leurs utilisateurs "ce qu'il faut faire et comment le faire" et d'indiquer les principes qui doivent ou doivent être respectés, par exemple, en ce qui concerne la charge de travail mental, les normes de spécification fournissent aux utilisateurs des informations détaillées sur les distances de sécurité ou les procédures de mesure, par exemple par exemple, qui doivent être respectées et où le respect de ces prescriptions peut être testé par des procédures spécifiées. Cela n'est pas toujours possible avec les normes de lignes directrices, même si malgré leur manque relatif de spécificité, il peut généralement être démontré quand et où les lignes directrices ont été violées. Un sous-ensemble de normes de spécification sont des normes de « base de données », qui fournissent à l'utilisateur des données ergonomiques pertinentes, par exemple, les dimensions du corps.
Les normes CEN sont classées en normes de type A, B et C, en fonction de leur portée et de leur domaine d'application. Les normes de type A sont des normes générales de base qui s'appliquent à toutes sortes d'applications, les normes de type B sont spécifiques à un domaine d'application (ce qui signifie que la plupart des normes ergonomiques au sein du CEN seront de ce type), et C- les normes de type sont spécifiques à un certain type de machines, par exemple les perceuses à main.
Comités de normalisation
Les normes ergonomiques, comme les autres normes, sont produites dans les comités techniques (TC) appropriés, leurs sous-comités (SC) ou groupes de travail (WG). Pour l'ISO, il s'agit du TC 159, pour le CEN, du TC 122 et, au niveau national, des comités nationaux respectifs. Outre les comités d'ergonomie, l'ergonomie est également traitée dans les TC travaillant sur la sécurité des machines (par exemple, CEN TC 114 et ISO TC 199) avec lesquels une liaison et une coopération étroite sont maintenues. Des liaisons sont également établies avec d'autres comités pour lesquels l'ergonomie pourrait être pertinente. La responsabilité des normes ergonomiques est toutefois réservée aux comités d'ergonomie eux-mêmes.
Un certain nombre d'autres organisations sont engagées dans la production de normes ergonomiques, telles que la CEI (Commission électrotechnique internationale); CENELEC, ou les comités nationaux respectifs dans le domaine électrotechnique ; CCITT (Comité consultatif international des organisations téléphoniques et télégraphiques) ou ETSI (Institut européen des normes de télécommunication) dans le domaine des télécommunications ; ECMA (European Computer Manufacturers Association) dans le domaine des systèmes informatiques ; et CAMAC (Computer Assisted Measurement and Control Association) dans le domaine des nouvelles technologies en fabrication, pour n'en nommer que quelques-unes. Avec certains d'entre eux, les comités d'ergonomie ont des liaisons afin d'éviter la duplication du travail ou des spécifications incohérentes ; avec certaines organisations (par exemple, la CEI), même des comités techniques mixtes sont établis pour la coopération dans des domaines d'intérêt mutuel. Avec d'autres comités, cependant, il n'y a aucune coordination ou coopération. L'objectif principal de ces comités est de produire des normes (d'ergonomie) spécifiques à leur domaine d'activité. Comme le nombre de telles organisations aux différents niveaux est assez important, il devient assez compliqué (voire impossible) de faire un tour d'horizon complet de la normalisation ergonomique. La présente revue se limitera donc à la normalisation ergonomique dans les comités d'ergonomie internationaux et européens.
Structure des comités de normalisation
Les comités de normalisation de l'ergonomie ont une structure assez similaire. Habituellement, un TC au sein d'une organisation de normalisation est responsable de l'ergonomie. Ce comité (par exemple, ISO TC 159) a principalement à voir avec les décisions sur ce qui doit être normalisé (par exemple, les éléments de travail) et comment organiser et coordonner la normalisation au sein du comité, mais généralement aucune norme n'est préparée à ce niveau. Au-dessous du niveau TC se trouvent d'autres comités. Par exemple, l'ISO a des sous-comités (SC), qui sont responsables d'un domaine de normalisation défini : SC 1 pour les principes directeurs ergonomiques généraux, SC 3 pour l'anthropométrie et la biomécanique, SC 4 pour l'interaction homme-système et SC 5 pour le travail physique. environnement. Le CEN TC 122 a des groupes de travail (WG) sous le niveau TC qui sont constitués de manière à traiter des domaines spécifiés dans le cadre de la normalisation ergonomique. Les SC au sein de l'ISO TC 159 fonctionnent comme des comités directeurs pour leur domaine de responsabilité et procèdent au premier vote, mais généralement ils ne préparent pas également les normes. Cela se fait dans leurs groupes de travail, qui sont composés d'experts nommés par leurs comités nationaux, tandis que les réunions du SC et du TC sont suivies par des délégations nationales représentant les points de vue nationaux. Au sein du CEN, les tâches ne sont pas nettement distinguées au niveau du groupe de travail ; Les groupes de travail fonctionnent à la fois comme comités de pilotage et de production, bien qu'une grande partie du travail soit accomplie dans des groupes ad hoc, qui sont composés de membres du groupe de travail (nommés par leurs comités nationaux) et établis pour préparer les projets de norme. Les groupes de travail au sein d'un SC ISO sont créés pour effectuer le travail pratique de normalisation, c'est-à-dire préparer des projets, travailler sur des commentaires, identifier les besoins de normalisation et préparer des propositions au SC et au TC, qui prendront ensuite les décisions ou actions appropriées.
Préparation des normes ergonomiques
La préparation des normes ergonomiques a changé de manière assez marquée au cours des dernières années compte tenu de l'accent mis désormais davantage sur les développements européens et internationaux. Au début, les normes nationales, qui avaient été préparées par des experts d'un pays au sein de leur comité national et approuvées par les parties intéressées parmi le grand public de ce pays dans le cadre d'une procédure de vote spécifiée, ont été transférées en tant que contribution au SC et au GT responsables. de l'ISO TC 159, après qu'un vote formel ait été pris au niveau du TC pour qu'une telle norme internationale soit préparée. Le groupe de travail, composé d'experts en ergonomie (et d'experts des parties politiquement intéressées) de tous les organismes membres participants (c'est-à-dire les organisations nationales de normalisation) du TC 159 qui étaient disposés à coopérer à ce projet de travail, travaillerait ensuite sur toutes les contributions et préparerait un projet de travail (WD). Une fois ce projet de proposition approuvé par le groupe de travail, il devient un projet de comité (CD), qui est distribué aux comités membres du SC pour approbation et commentaires. Si le projet reçoit un soutien substantiel de la part des comités membres du SC (c'est-à-dire si au moins les deux tiers votent en faveur) et après que les commentaires des comités nationaux ont été incorporés par le groupe de travail dans la version améliorée, un projet de norme internationale (DIS) est soumise au vote de tous les membres du TC 159. Si un soutien substantiel, à cette étape de la part des comités membres du TC, est obtenu (et peut-être après avoir incorporé des modifications éditoriales), cette version sera alors publiée en tant que Norme internationale (IS) par l'ISO. Le vote des comités membres au niveau TC et SC est basé sur le vote au niveau national, et les commentaires peuvent être fournis par les comités membres par des experts ou des parties intéressées dans chaque pays. La procédure est à peu près équivalente dans le CEN TC 122, à l'exception qu'il n'y a pas de SC en dessous du niveau TC et que le vote a lieu avec des votes pondérés (selon la taille du pays) alors qu'au sein de l'ISO la règle est un pays, un voter. Si un projet échoue à n'importe quelle étape, et à moins que le groupe de travail décide qu'une révision acceptable ne peut pas être réalisée, il doit être révisé et doit ensuite repasser par la procédure de vote.
Les normes internationales sont ensuite transférées en normes nationales si les comités nationaux votent en conséquence. En revanche, les normes européennes (EN) doivent être transférées dans des normes nationales par les membres du CEN et les normes nationales en conflit doivent être supprimées. Cela signifie que les EN harmonisées seront effectives dans tous les pays CEN (et, en raison de leur influence sur le commerce, seront pertinentes pour les fabricants de tous les autres pays qui ont l'intention de vendre des biens à un client dans un pays CEN).
Coopération ISO-CEN
Afin d'éviter les normes contradictoires et la duplication des travaux et de permettre aux non-membres du CEN de participer aux développements au sein du CEN, un accord de coopération entre l'ISO et le CEN a été conclu (ce que l'on appelle Accord de Vienne) qui réglemente les formalités et prévoit une procédure dite de vote parallèle, qui permet de voter parallèlement sur les mêmes projets au CEN et à l'ISO, si les commissions compétentes en conviennent. Parmi les comités d'ergonomie, la tendance est assez claire : éviter la duplication du travail (les ressources humaines et financières sont trop limitées), éviter les spécifications contradictoires et essayer de parvenir à un ensemble cohérent de normes ergonomiques basées sur une division du travail. Alors que le CEN TC 122 est lié par les décisions de l'administration de l'UE et obtient des éléments de travail mandatés pour stipuler les spécifications des directives européennes, l'ISO TC 159 est libre de normaliser tout ce qu'il juge nécessaire ou approprié dans le domaine de l'ergonomie. Cela a conduit à des changements d'orientation des deux comités, le CEN se concentrant sur les machines et les sujets liés à la sécurité et l'ISO se concentrant sur les domaines où les intérêts du marché plus larges que l'Europe sont concernés (par exemple, le travail avec les écrans de visualisation et la conception de la salle de contrôle pour les processus et industries connexes); sur les domaines où le fonctionnement des machines est concerné, comme dans la conception du système de travail; et sur des domaines tels que l'environnement de travail et l'organisation du travail. L'intention, cependant, est de transférer les résultats des travaux du CEN vers l'ISO, et vice versa, afin de constituer un ensemble de normes ergonomiques cohérentes qui soient en fait efficaces dans le monde entier.
La procédure formelle d'élaboration des normes est toujours la même aujourd'hui. Mais comme l'accent s'est de plus en plus déplacé vers le niveau international ou européen, de plus en plus d'activités sont transférées à ces comités. Les projets sont désormais généralement élaborés directement dans ces comités et ne sont plus basés sur les normes nationales existantes. Une fois que la décision a été prise d'élaborer une norme, le travail commence directement à l'un de ces niveaux supranationaux, sur la base de tout apport disponible, parfois en partant de zéro. Cela modifie radicalement le rôle des comités nationaux d'ergonomie. Alors qu'ils développaient formellement leurs propres normes nationales selon leurs règles nationales, ils ont maintenant pour tâche d'observer et d'influencer la normalisation aux niveaux supranationaux - via les experts qui élaborent les normes ou via les commentaires formulés aux différentes étapes du vote (au sein de CEN, un projet national de normalisation sera arrêté si un projet comparable est en cours d'élaboration au niveau CEN). Cela rend la tâche encore plus compliquée, étant donné que cette influence ne peut s'exercer qu'indirectement et que l'élaboration de normes ergonomiques n'est pas seulement une question de science pure, mais une question de marchandage, de consensus et d'accord (notamment en raison des implications politiques que norme pourrait avoir). C'est bien sûr l'une des raisons pour lesquelles le processus d'élaboration d'une norme ergonomique internationale ou européenne prend généralement plusieurs années et pourquoi les normes ergonomiques ne peuvent pas refléter l'état de l'art le plus récent en matière d'ergonomie. Les normes ergonomiques internationales doivent donc être examinées tous les cinq ans et, si nécessaire, être révisées.
Domaines de normalisation en ergonomie
La normalisation internationale de l'ergonomie a commencé par des lignes directrices sur les principes généraux de l'ergonomie dans la conception des systèmes de travail; ils ont été définis dans l'ISO 6385, qui est actuellement en cours de révision afin d'intégrer de nouveaux développements. Le CEN a produit une norme de base similaire (EN 614, partie 1, 1994) - qui est davantage orientée vers les machines et la sécurité - et prépare une norme avec des lignes directrices sur la conception des tâches comme deuxième partie de cette norme de base. Le CEN souligne ainsi l'importance des tâches de l'opérateur dans la conception des machines ou des systèmes de travail, pour lesquels des outils ou des machines appropriés doivent être conçus.
Un autre domaine dans lequel des concepts et des lignes directrices ont été définis dans des normes est celui de la charge de travail mental. La partie 10075 de l'ISO 1 définit des termes et des concepts (par exemple, fatigue, monotonie, vigilance réduite) et la partie 2 (au stade d'un DIS dans la seconde moitié des années 1990) fournit des lignes directrices pour la conception de systèmes de travail en ce qui concerne charge mentale afin d'éviter les déficiences.
Le SC 3 de l'ISO TC 159 et le WG 1 du CEN TC 122 produisent des normes sur l'anthropométrie et la biomécanique, couvrant, entre autres sujets, les méthodes de mesures anthropométriques, les dimensions corporelles, les distances de sécurité et les dimensions d'accès, l'évaluation des postures de travail et la conception des postes de travail. en ce qui concerne les machines, les limites recommandées de résistance physique et les problèmes de manutention manuelle.
Le SC 4 de l'ISO 159 montre comment les changements technologiques et sociaux affectent la normalisation de l'ergonomie et le programme d'un tel sous-comité. SC 4 a commencé comme "Signaux et commandes" en normalisant les principes d'affichage des informations et en concevant des actionneurs de commande, l'un de ses éléments de travail étant l'unité d'affichage visuel (VDU), utilisée pour les tâches de bureau. Mais il est vite apparu qu'une standardisation de l'ergonomie des écrans ne suffirait pas et qu'une standardisation « autour » de ce poste de travail - au sens d'un système de travail— était nécessaire, couvrant des domaines tels que le matériel (par exemple, l'écran de visualisation lui-même, y compris les écrans, les claviers, les périphériques d'entrée sans clavier, les postes de travail), l'environnement de travail (par exemple, l'éclairage), l'organisation du travail (par exemple, les exigences des tâches) et les logiciels ( ex., principes de dialogue, menus et dialogues de manipulation directe). Cela a conduit à une norme en plusieurs parties (ISO 9241) couvrant les "exigences ergonomiques pour le travail de bureau avec des écrans de visualisation" avec pour le moment 17 parties, dont 3 ont déjà atteint le statut d'un SI. Cette norme sera transférée au CEN (en tant que EN 29241) qui spécifiera les exigences de la directive VDU (90/270 CEE) de l'UE, bien qu'il s'agisse d'une directive en vertu de l'article 118a de l'Acte unique européen. Cette série de normes fournit des lignes directrices ainsi que des spécifications, selon le sujet de la partie donnée de la norme, et introduit un nouveau concept de normalisation, l'approche de la performance de l'utilisateur, qui pourrait aider à résoudre certains des problèmes de normalisation ergonomique. Il est décrit plus en détail dans le chapitre Unités d'affichage visuel .
L'approche de la performance de l'utilisateur repose sur l'idée que l'objectif de la normalisation est de prévenir les déficiences et de fournir des conditions de travail optimales pour l'opérateur, mais pas d'établir une spécification technique en soi. La spécification n'est donc considérée que comme un moyen d'obtenir des performances optimales et sans entrave pour l'utilisateur. L'important est d'obtenir cette performance intacte de l'opérateur, qu'une certaine spécification physique soit respectée ou non. Cela nécessite que les performances de l'opérateur non altérées qui doivent être atteintes, par exemple, les performances de lecture sur un écran de visualisation, soient spécifiées en premier lieu, et en second lieu, que des spécifications techniques soient développées qui permettront d'atteindre les performances souhaitées, sur la base de les preuves disponibles. Le fabricant est alors libre de suivre ces spécifications techniques qui assureront la conformité du produit aux exigences ergonomiques. Soit il peut démontrer, par comparaison avec un produit dont on sait qu'il satisfait aux exigences (soit par la conformité aux spécifications techniques de la norme, soit par des performances éprouvées), qu'avec le nouveau produit les exigences de performances sont également ou mieux satisfaites qu'avec le produit de référence, avec ou sans conformité aux spécifications techniques de la norme. Une procédure d'essai qui doit être suivie pour démontrer la conformité aux exigences de performance de l'utilisateur de la norme est spécifiée dans la norme.
Cette approche permet de surmonter deux problèmes. Les normes, en vertu de leurs spécifications, qui sont basées sur l'état de l'art (et de la technologie) au moment de la préparation de la norme, peuvent limiter les nouveaux développements. Les spécifications basées sur une certaine technologie (par exemple, les tubes à rayons cathodiques) peuvent être inappropriées pour d'autres technologies. Indépendamment de la technologie, cependant, l'utilisateur d'un dispositif d'affichage (par exemple) devrait être capable de lire et de comprendre les informations affichées de manière efficace et efficiente sans aucune altération, quelle que soit la technique utilisée. Dans ce cas, les performances ne doivent cependant pas se limiter à la puissance pure (mesurée en termes de vitesse ou de précision), mais doivent également tenir compte du confort et de l'effort.
Le deuxième problème qui peut être traité par cette approche est le problème des interactions entre les conditions. La spécification physique est généralement unidimensionnelle, laissant les autres conditions hors de considération. Dans le cas d'effets interactifs, cependant, cela peut être trompeur ou même faux. En spécifiant des exigences de performance, d'autre part, et en laissant les moyens de les atteindre au fabricant, toute solution qui satisfait à ces exigences de performance sera acceptable. Traiter la spécification comme un moyen vers une fin représente ainsi une véritable perspective ergonomique.
Une autre norme avec une approche de système de travail est en cours de préparation dans SC 4, qui concerne la conception de salles de contrôle, par exemple, pour les industries de transformation ou les centrales électriques. Une norme en plusieurs parties (ISO 11064) devrait être préparée en conséquence, les différentes parties traitant d'aspects de la conception de la salle de contrôle tels que l'aménagement, la conception du poste de travail de l'opérateur et la conception des écrans et des dispositifs d'entrée pour le contrôle des processus. Parce que ces éléments de travail et l'approche adoptée dépassent clairement les problèmes de conception des « affichages et commandes », SC 4 a été renommé « Interaction Homme-Système ».
Les problèmes d'environnement, notamment ceux liés aux conditions thermiques et à la communication en milieu bruyant, sont traités dans le SC 5, où des normes ont été ou sont en cours d'élaboration sur les méthodes de mesure, les méthodes d'estimation du stress thermique, les conditions de confort thermique, la production de chaleur métabolique , et sur les signaux de danger auditifs et visuels, le niveau d'interférence de la parole et l'évaluation de la communication vocale.
Le CEN TC 122 couvre à peu près les mêmes domaines de la normalisation ergonomique, bien qu'avec un accent différent et une structure différente de ses groupes de travail. Il est prévu, cependant, que par une division du travail entre les comités d'ergonomie et l'acceptation mutuelle des résultats du travail, un ensemble général et utilisable de normes ergonomiques sera développé.
L'objectif prioritaire de la toxicologie professionnelle et environnementale est d'améliorer la prévention ou la limitation substantielle des effets sanitaires de l'exposition à des agents dangereux en milieu général et professionnel. À cette fin, des systèmes d'évaluation quantitative des risques liés à une exposition donnée ont été développés (voir la section « Toxicologie réglementaire »).
Les effets d'un produit chimique sur des systèmes et des organes particuliers sont liés à l'ampleur de l'exposition et au caractère aigu ou chronique de l'exposition. Compte tenu de la diversité des effets toxiques même au sein d'un système ou d'un organe, une philosophie uniforme concernant l'organe critique et l'effet critique a été proposée aux fins de l'évaluation des risques et de l'élaboration de limites de concentration recommandées pour la santé des substances toxiques dans différents milieux environnementaux. .
Du point de vue de la médecine préventive, il est particulièrement important d'identifier les effets indésirables précoces, sur la base de l'hypothèse générale selon laquelle la prévention ou la limitation des effets précoces peut empêcher l'apparition d'effets plus graves sur la santé.
Une telle approche a été appliquée aux métaux lourds. Bien que les métaux lourds, tels que le plomb, le cadmium et le mercure, appartiennent à un groupe spécifique de substances toxiques où l'effet chronique de l'activité dépend de leur accumulation dans les organes, les définitions présentées ci-dessous ont été publiées par le Task Group on Metal Toxicity (Nordberg 1976).
La définition de l'organe critique proposée par le Groupe de travail sur la toxicité des métaux a été adoptée avec une légère modification : le mot Métal a été remplacée par l'expression substance potentiellement toxique (Duffus 1993).
Le fait qu'un organe ou un système donné soit considéré comme critique dépend non seulement de la toxicomécanique de l'agent dangereux mais aussi de la voie d'absorption et de la population exposée.
La signification biologique de l'effet sous-critique n'est parfois pas connue; il peut s'agir d'un biomarqueur d'exposition, d'un indice d'adaptation ou d'un précurseur d'effet critique (voir « Méthodes d'essai toxicologique : biomarqueurs »). Cette dernière possibilité peut être particulièrement importante compte tenu des activités prophylactiques.
Le tableau 1 présente des exemples d'organes critiques et d'effets pour différents produits chimiques. Dans l'exposition environnementale chronique au cadmium, où la voie d'absorption est d'importance mineure (les concentrations de cadmium dans l'air varient de 10 à 20 μg/m3 en milieu urbain et 1 à 2 μg/m3 dans les zones rurales), l'organe critique est le rein. En milieu professionnel où la TLV atteint 50μg/m3 et l'inhalation constitue la principale voie d'exposition, deux organes, poumon et rein, sont considérés comme critiques.
Tableau 1. Exemples d'organes critiques et d'effets critiques
Substance | Organe critique en exposition chronique | Effet critique |
Cadmium | Poumons | Sans seuil: Cancer du poumon (risque unitaire 4.6 x 10-3) |
Rein | seuil: Augmentation de l'excrétion des protéines de faible poids moléculaire (β2 –M, RBP) dans l'urine |
|
Poumons | Légers changements fonctionnels de l'emphysème | |
Plomb | Adultes Système hématopoïétique |
Augmentation de l'excrétion d'acide delta-aminolévulinique dans l'urine (ALA-U); augmentation de la concentration de protoporphyrine érythrocytaire libre (FEP) dans les érythrocytes |
Système nerveux périphérique | Ralentissement des vitesses de conduction des fibres nerveuses plus lentes | |
Mercure (élémentaire) | Jeunes enfants Système nerveux central |
Diminution du QI et autres effets subtils ; tremblement mercuriel (doigts, lèvres, paupières) |
Mercure (mercurique) | Rein | Protéinurie |
Manganèse | Adultes Système nerveux central |
Altération des fonctions psychomotrices |
Enfants Poumons |
Symptômes respiratoires | |
Système nerveux central | Altération des fonctions psychomotrices | |
Toluène | Membranes muqueuses | Irritation |
Chlorure de vinyle | Foie | Cancer (risque unitaire d'angiosarcome 1 x 10-6 ) |
Acétate d'éthyle | Membrane muqueuse | Irritation |
Pour le plomb, les organes critiques chez l'adulte sont les systèmes hématopoïétique et nerveux périphérique, où les effets critiques (p. ex., concentration élevée de protoporphyrine érythrocytaire libre (FEP), augmentation de l'excrétion d'acide delta-aminolévulinique dans l'urine ou altération de la conduction nerveuse périphérique) se manifestent lorsque la plombémie (indice d'absorption du plomb dans l'organisme) approche 200 à 300 μg/l. Chez les jeunes enfants, l'organe critique est le système nerveux central (SNC), et les symptômes de dysfonctionnement détectés à l'aide d'une batterie de tests psychologiques se sont avérés apparaître dans les populations examinées, même à des concentrations de l'ordre d'environ 100 μg/l Pb en sang.
Un certain nombre d'autres définitions ont été formulées qui pourraient mieux refléter le sens de la notion. Selon l'OMS (1989), l'effet critique a été défini comme « le premier effet indésirable qui apparaît lorsque la concentration ou la dose seuil (critique) est atteinte dans l'organe critique. Les effets indésirables, tels que le cancer, sans concentration seuil définie sont souvent considérés comme critiques. La décision de savoir si un effet est critique est une question de jugement d'expert. Dans les lignes directrices du Programme international sur la sécurité chimique (IPCS) pour l'élaboration de Documents sur les critères de santé environnementale, l'effet critique est décrit comme « l'effet indésirable jugé le plus approprié pour déterminer la dose tolérable ». Cette dernière définition a été formulée directement dans le but d'évaluer les limites d'exposition à visée sanitaire dans l'environnement général. Dans ce contexte, le plus essentiel semble être de déterminer quel effet peut être considéré comme un effet néfaste. Selon la terminologie actuelle, l'effet indésirable est le "changement de morphologie, de physiologie, de croissance, de développement ou de durée de vie d'un organisme qui entraîne une altération de la capacité à compenser un stress supplémentaire ou une augmentation de la sensibilité aux effets nocifs d'autres influences environnementales". La décision de savoir si un effet est négatif ou non nécessite un jugement d'expert.
La figure 1 affiche des courbes dose-réponse hypothétiques pour différents effets. En cas d'exposition au plomb, A peut représenter un effet sous-critique (inhibition de l'ALA-déshydratase érythrocytaire), B l'effet critique (augmentation de la protoporphyrine de zinc érythrocytaire ou augmentation de l'excrétion d'acide delta-aminolévulinique, C l'effet clinique (anémie) et D l'effet fatal (la mort). Pour l'exposition au plomb, il existe de nombreuses preuves illustrant comment les effets particuliers de l'exposition dépendent de la concentration de plomb dans le sang (équivalent pratique de la dose), soit sous la forme de la relation dose-réponse ou en relation avec différentes variables (sexe, âge, etc. .). La détermination des effets critiques et de la relation dose-réponse pour de tels effets chez l'homme permet de prédire la fréquence d'un effet donné pour une dose donnée ou sa contrepartie (concentration dans le matériel biologique) dans une certaine population.
Figure 1. Courbes dose-réponse hypothétiques pour divers effets
Les effets critiques peuvent être de deux types : ceux considérés comme ayant un seuil et ceux pour lesquels il peut y avoir un certain risque à tout niveau d'exposition (sans seuil, cancérogènes génotoxiques et germes mutagènes). Dans la mesure du possible, des données humaines appropriées doivent être utilisées comme base pour l'évaluation des risques. Afin de déterminer les effets seuils pour la population générale, des hypothèses concernant le niveau d'exposition (dose tolérable, biomarqueurs d'exposition) doivent être faites telles que la fréquence de l'effet critique dans la population exposée à un agent dangereux donné corresponde à la fréquence de cet effet dans la population générale. Dans le cas de l'exposition au plomb, la concentration maximale recommandée de plomb dans le sang pour la population générale (200 μg/l, médiane inférieure à 100 μg/l) (OMS, 1987) est pratiquement inférieure à la valeur seuil de l'effet critique supposé, à savoir le taux élevé de protoporphyrine érythrocytaire libre, bien qu'il n'est pas inférieur au niveau associé à des effets sur le SNC chez les enfants ou la tension artérielle chez les adultes. En général, si les données d'études bien menées sur la population humaine définissant une dose sans effet nocif observé constituent la base de l'évaluation de l'innocuité, alors le facteur d'incertitude de dix a été considéré comme approprié. Dans le cas d'une exposition professionnelle, les effets critiques peuvent concerner une certaine partie de la population (par exemple 10 %). En conséquence, dans l'exposition professionnelle au plomb, la concentration de plomb dans le sang recommandée pour la santé a été adoptée à 400 mg/l chez les hommes, où un niveau de réponse de 10 % pour l'ALA-U de 5 mg/l s'est produit à des concentrations de PbB d'environ 300 à 400 mg/l. . Pour l'exposition professionnelle au cadmium (en supposant que l'excrétion urinaire accrue de protéines de faible poids soit l'effet critique), le niveau de 200 ppm de cadmium dans le cortex rénal a été considéré comme la valeur admissible, car cet effet a été observé chez 10 % des la population exposée. Ces deux valeurs sont à l'étude pour l'abaissement, dans de nombreux pays, à l'heure actuelle (c'est-à-dire, 1996).
Il n'y a pas de consensus clair sur la méthodologie appropriée pour l'évaluation des risques des produits chimiques pour lesquels l'effet critique peut ne pas avoir de seuil, tels que les cancérogènes génotoxiques. Un certain nombre d'approches fondées en grande partie sur la caractérisation de la relation dose-réponse ont été adoptées pour l'évaluation de ces effets. En raison du manque d'acceptation sociopolitique des risques pour la santé causés par les agents cancérigènes dans des documents tels que le Directives sur la qualité de l'air pour l'Europe (OMS 1987), seules les valeurs telles que le risque unitaire à vie (c'est-à-dire le risque associé à une exposition à vie à 1μg/m3 de l'agent dangereux) sont présentés pour les effets sans seuil (voir « Toxicologie réglementaire »).
À l'heure actuelle, l'étape fondamentale des activités d'évaluation des risques consiste à déterminer l'organe critique et les effets critiques. Les définitions de l'effet critique et de l'effet nocif reflètent la responsabilité de décider lequel des effets au sein d'un organe ou d'un système donné doit être considéré comme critique, et cela est directement lié à la détermination ultérieure des valeurs recommandées pour un produit chimique donné dans l'environnement général. -par exemple, Directives sur la qualité de l'air pour l'Europe (OMS 1987) ou les limites d'exposition professionnelle fondées sur la santé (OMS 1980). La détermination de l'effet critique à partir de la plage des effets sous-critiques peut conduire à une situation où les limites recommandées sur la concentration des produits chimiques toxiques dans l'environnement général ou professionnel peuvent être en pratique impossibles à maintenir. Considérer comme critique un effet pouvant se superposer aux effets cliniques précoces peut entraîner l'adoption de valeurs pour lesquelles des effets indésirables peuvent se développer dans une partie de la population. La décision de considérer ou non un effet donné comme critique reste du ressort de groupes d'experts spécialisés dans l'évaluation de la toxicité et des risques.
Introduction
Les solvants organiques sont volatils et généralement solubles dans la graisse corporelle (lipophiles), bien que certains d'entre eux, par exemple le méthanol et l'acétone, soient également solubles dans l'eau (hydrophiles). Ils ont été largement utilisés non seulement dans l'industrie mais aussi dans les produits de consommation tels que les peintures, les encres, les diluants, les dégraissants, les agents de nettoyage à sec, les détachants, les répulsifs, etc. Bien qu'il soit possible d'appliquer une surveillance biologique pour détecter des effets sur la santé, par exemple des effets sur le foie et les reins, dans le cadre de la surveillance de la santé des travailleurs exposés professionnellement à des solvants organiques, il est préférable d'utiliser plutôt la surveillance biologique pour " surveillance de l'exposition afin de protéger la santé des travailleurs de la toxicité de ces solvants, car il s'agit d'une approche suffisamment sensible pour alerter bien avant qu'un effet sur la santé ne se produise. Le dépistage des travailleurs pour une sensibilité élevée à la toxicité des solvants peut également contribuer à la protection de leur santé.
Résumé de la toxicocinétique
Les solvants organiques sont généralement volatils dans des conditions standard, bien que la volatilité varie d'un solvant à l'autre. Ainsi, la principale voie d'exposition en milieu industriel est l'inhalation. Le taux d'absorption à travers la paroi alvéolaire des poumons est beaucoup plus élevé que celui à travers la paroi du tube digestif, et un taux d'absorption pulmonaire d'environ 50 % est considéré comme typique pour de nombreux solvants courants tels que le toluène. Certains solvants, par exemple le disulfure de carbone et le N,N-diméthylformamide à l'état liquide, peuvent pénétrer la peau humaine intacte en quantités suffisamment importantes pour être toxiques.
Lorsque ces solvants sont absorbés, une partie est exhalée dans l'haleine sans aucune biotransformation, mais la plus grande partie est distribuée dans les organes et tissus riches en lipides du fait de leur lipophilie. La biotransformation a lieu principalement dans le foie (et également dans d'autres organes dans une moindre mesure), et la molécule de solvant devient plus hydrophile, généralement par un processus d'oxydation suivi d'une conjugaison, pour être excrétée via le rein dans l'urine sous forme de métabolite(s ). Une petite partie peut être éliminée sous forme inchangée dans les urines.
Ainsi, trois matériaux biologiques, l'urine, le sang et l'haleine expirée, sont disponibles pour la surveillance de l'exposition aux solvants d'un point de vue pratique. Un autre facteur important dans le choix des matériaux biologiques pour la surveillance de l'exposition est la vitesse de disparition de la substance absorbée, pour laquelle la demi-vie biologique, ou le temps nécessaire pour qu'une substance diminue de moitié sa concentration d'origine, est un paramètre quantitatif. Par exemple, les solvants disparaîtront de l'haleine expirée beaucoup plus rapidement que les métabolites correspondants de l'urine, ce qui signifie qu'ils ont une demi-vie beaucoup plus courte. Au sein des métabolites urinaires, la demi-vie biologique varie en fonction de la vitesse à laquelle le composé parent est métabolisé, de sorte que le temps d'échantillonnage par rapport à l'exposition est souvent d'une importance critique (voir ci-dessous). Une troisième considération dans le choix d'un matériel biologique est la spécificité du produit chimique cible à analyser par rapport à l'exposition. Par exemple, l'acide hippurique est un marqueur d'exposition au toluène utilisé depuis longtemps, mais il n'est pas seulement formé naturellement par le corps, mais peut également être dérivé de sources non professionnelles telles que certains additifs alimentaires, et n'est plus considéré comme un marqueur fiable. marqueur lorsque l'exposition au toluène est faible (moins de 50 cm3/m3). D'une manière générale, les métabolites urinaires ont été les plus largement utilisés comme indicateurs d'exposition à divers solvants organiques. Le solvant dans le sang est analysé comme une mesure qualitative de l'exposition parce qu'il reste généralement dans le sang moins longtemps et reflète davantage une exposition aiguë, alors que le solvant dans l'air exhalé est difficile à utiliser pour estimer l'exposition moyenne parce que la concentration dans l'haleine diminue tellement rapidement après l'arrêt de l'exposition. Le solvant dans l'urine est un candidat prometteur comme mesure de l'exposition, mais il doit encore être validé.
Essais d'exposition biologique aux solvants organiques
Dans l'application de la surveillance biologique de l'exposition aux solvants, le temps d'échantillonnage est important, comme indiqué ci-dessus. Le tableau 1 indique les durées d'échantillonnage recommandées pour les solvants courants dans le cadre de la surveillance de l'exposition professionnelle quotidienne. Lorsque le solvant lui-même doit être analysé, une attention doit être portée à la prévention d'éventuelles pertes (par exemple, évaporation dans l'air ambiant) ainsi que de la contamination (par exemple, dissolution de l'air ambiant dans l'échantillon) pendant le processus de manipulation de l'échantillon. Si les échantillons doivent être transportés vers un laboratoire éloigné ou stockés avant l'analyse, des précautions doivent être prises pour éviter toute perte. La congélation est recommandée pour les métabolites, tandis que la réfrigération (mais pas de congélation) dans un récipient hermétique sans espace d'air (ou plus préférablement, dans un flacon à espace libre) est recommandée pour l'analyse du solvant lui-même. En analyse chimique, le contrôle qualité est essentiel pour obtenir des résultats fiables (pour plus de détails, voir l'article « Assurance qualité » dans ce chapitre). Dans la communication des résultats, l'éthique doit être respectée (voir chapitre Questions éthiques ailleurs dans le Encyclopédie).
Tableau 1. Quelques exemples de produits chimiques cibles pour la surveillance biologique et le moment de l'échantillonnage
Solvant |
Produit chimique cible |
Urine/sang |
Temps d'échantillonnage1 |
Sulfure de carbone |
Acide 2-thiothiazolidine-4-carboxylique |
Urine |
Je F |
N,N-Diméthyl-formamide |
N-Méthylformamide |
Urine |
L Ma W Je V |
2-Ethoxyéthanol et son acétate |
Acide éthoxyacétique |
Urine |
Th F (fin du dernier quart de travail) |
hexane |
2,4-hexanedione hexane |
Urine sanguins |
L Ma W Je V confirmation de l'exposition |
Méthanol |
Méthanol |
Urine |
L Ma W Je V |
Styrène |
Acide mandélique Acide phénylglyoxylique Styrène |
Urine Urine sanguins |
Je F Je F confirmation de l'exposition |
Toluène |
Acide hippurique o-Crésol Toluène Toluène |
Urine Urine sanguins Urine |
Ma W Je V Ma W Je V confirmation de l'exposition Ma W Je V |
Trichloroéthylène |
Acide trichloroacetic (ACT) Composés trichlorés totaux (somme du TCA et du trichloroéthanol libre et conjugué) Trichloroéthylène |
Urine Urine sanguins |
Je F Je F confirmation de l'exposition |
Xylènes2 |
Acides méthylhippuriques Xylènes |
Urine sanguins |
Ma W Je V Ma W Je V |
1 Fin du quart de travail sauf indication contraire : les jours de la semaine indiquent les jours d'échantillonnage préférés.
2 Trois isomères, séparément ou dans n'importe quelle combinaison.
Source : Résumé de l'OMS 1996.
Un certain nombre de procédures analytiques sont établies pour de nombreux solvants. Les méthodes varient en fonction du produit chimique cible, mais la plupart des méthodes récemment développées utilisent la chromatographie en phase gazeuse (GC) ou la chromatographie liquide à haute performance (HPLC) pour la séparation. L'utilisation d'un échantillonneur automatique et d'un processeur de données est recommandée pour un bon contrôle de la qualité dans l'analyse chimique. Lorsqu'un solvant lui-même dans le sang ou dans l'urine doit être analysé, une application de la technique de l'espace de tête en GC (headspace GC) est très pratique, surtout lorsque le solvant est suffisamment volatil. Le tableau 2 présente quelques exemples des méthodes établies pour les solvants courants.
Tableau 2. Quelques exemples de méthodes analytiques pour le suivi biologique de l'exposition aux solvants organiques
Solvant |
Produit chimique cible |
Sang/urine |
Méthode analytique |
Sulfure de carbone |
2-thiothiazolidine-4- |
Urine |
Chromatographe liquide haute performance avec détection ultraviolette (UV-HPLC) |
N, N-diméthylformamide |
N-méthylformamide |
Urine |
Chromatographie en phase gazeuse avec détection thermionique de flamme (FTD-GC) |
2-Ethoxyéthanol et son acétate |
Acide éthoxyacétique |
Urine |
Extraction, dérivatisation et chromatographe en phase gazeuse avec détection par ionisation de flamme (FID-GC) |
hexane |
2,4-hexanedione hexane |
Urine sanguins |
Extraction, (hydrolyse) et FID-GC Espace de tête FID-GC |
Méthanol |
Méthanol |
Urine |
Espace de tête FID-GC |
Styrène |
Acide mandélique Acide phénylglyoxylique Styrène |
Urine Urine sanguins |
Dessalage et UV-HPLC Dessalage et UV-HPLC Espace de tête FID-GC |
Toluène |
Acide hippurique o-Crésol Toluène Toluène |
Urine Urine sanguins Urine |
Dessalage et UV-HPLC Hydrolyse, extraction et FID-GC Espace de tête FID-GC Espace de tête FID-GC |
Trichloroéthylène |
Acide trichloroacetic Composés trichloro totaux (somme du TCA et du trichloroéthanol libre et conjugué) Trichloroéthylène |
Urine Urine sanguins |
Colorimétrie ou estérification et chromatographe en phase gazeuse avec détection par capture d'électrons (ECD-GC) Oxydation et colorimétrie, ou hydrolyse, oxydation, estérification et ECD-GC Espace de tête ECD-GC |
Xylènes |
Acides méthylhippuriques (trois isomères, soit séparément, soit en combinaison) |
Urine |
Espace de tête FID-GC |
Source : Résumé de l'OMS 1996.
Evaluation
Une relation linéaire des indicateurs d'exposition (listés dans le tableau 2) avec l'intensité d'exposition aux solvants correspondants peut être établie soit par une enquête auprès des travailleurs exposés professionnellement aux solvants, soit par l'exposition expérimentale de volontaires humains. Ainsi, l'ACGIH (1994) et la DFG (1994), par exemple, ont établi l'indice d'exposition biologique (BEI) et la valeur de tolérance biologique (BAT), respectivement, comme les valeurs dans les échantillons biologiques qui sont équivalentes à l'exposition professionnelle. limite d'exposition pour les produits chimiques en suspension dans l'air, c'est-à-dire la valeur limite de seuil (TLV) et la concentration maximale sur le lieu de travail (MAK), respectivement. On sait cependant que le niveau de la substance chimique cible dans les échantillons prélevés sur des personnes non exposées peut varier, reflétant, par exemple, les coutumes locales (par exemple, la nourriture), et que des différences ethniques peuvent exister dans le métabolisme des solvants. Il est donc souhaitable d'établir des valeurs limites par l'étude de la population locale concernée.
Lors de l'évaluation des résultats, l'exposition non professionnelle au solvant (par exemple, via l'utilisation de produits de consommation contenant du solvant ou l'inhalation intentionnelle) et l'exposition à des produits chimiques qui donnent lieu aux mêmes métabolites (par exemple, certains additifs alimentaires) doivent être soigneusement exclues. S'il existe un écart important entre l'intensité de l'exposition aux vapeurs et les résultats de la surveillance biologique, la différence peut indiquer la possibilité d'une absorption cutanée. Le tabagisme supprime le métabolisme de certains solvants (par exemple, le toluène), tandis que la consommation aiguë d'éthanol peut supprimer le métabolisme du méthanol de manière compétitive.
Les systèmes de travail englobent des variables organisationnelles de niveau macro telles que le sous-système du personnel, le sous-système technologique et l'environnement externe. L'analyse des systèmes de travail est donc essentiellement un effort pour comprendre la répartition des fonctions entre l'ouvrier et l'équipe technique et la division du travail entre les personnes dans un environnement sociotechnique. Une telle analyse peut aider à prendre des décisions éclairées pour améliorer la sécurité des systèmes, l'efficacité du travail, le développement technologique et le bien-être mental et physique des travailleurs.
Les chercheurs examinent les systèmes de travail selon des approches divergentes (mécaniste, biologique, perceptuelle/motrice, motivationnelle) avec des résultats individuels et organisationnels correspondants (Campion et Thayer 1985). Le choix des méthodes d'analyse des systèmes de travail est dicté par les approches spécifiques adoptées et l'objectif particulier visé, le contexte organisationnel, les caractéristiques professionnelles et humaines et la complexité technologique du système étudié (Drury 1987). Les listes de contrôle et les questionnaires sont les moyens courants d'assembler des bases de données pour les planificateurs organisationnels afin de hiérarchiser les plans d'action dans les domaines de la sélection et du placement du personnel, de l'évaluation des performances, de la gestion de la sécurité et de la santé, de la conception travailleur-machine et de la conception ou reconception du travail. Les méthodes d'inventaire des listes de contrôle, par exemple le Position Analysis Questionnaire, ou PAQ (McCormick 1979), le Job Components Inventory (Banks et Miller 1984), le Job Diagnostic Survey (Hackman et Oldham 1975) et le Multi-method Job Design Questionnaire ( Campion 1988) sont les instruments les plus populaires et visent une variété d'objectifs.
Le PAQ comprend six grandes sections, comprenant 189 items comportementaux requis pour l'évaluation du rendement au travail et sept items supplémentaires liés à la rémunération monétaire :
L'inventaire des composants du travail Mark II contient sept sections. La section d'introduction traite des détails de l'organisation, des descriptions de poste et des détails biographiques du titulaire du poste. Les autres rubriques sont les suivantes :
Les méthodes de profil ont des éléments communs, c'est-à-dire (1) un ensemble complet de facteurs d'emploi utilisés pour sélectionner la gamme de travail, (2) une échelle de notation qui permet l'évaluation des exigences de l'emploi et (3) la pondération des caractéristiques de l'emploi en fonction de la structure organisationnelle et des exigences sociotechniques. Les profils des postes, un autre instrument de profil de tâche, développé dans l'Organisation Renault (RNUR 1976), contient un tableau d'entrées de variables représentatives des conditions de travail, et fournit aux répondants une échelle en cinq points sur laquelle ils peuvent sélectionner la valeur d'une variable qui va de très satisfaisant à très médiocre en enregistrant les réponses standardisées. Les variables couvrent (1) la conception du poste de travail, (2) l'environnement physique, (3) les facteurs de charge physique, (4) la tension nerveuse, (5) l'autonomie au travail, (6) les relations, (7) la répétitivité et ( 8) contenu du travail.
L'AET (Ergonomic Job Analysis) (Rohmert et Landau 1985), a été développé sur la base du concept de contrainte-déformation. Chacun des 216 items de l'AET est codé : un code définit les facteurs de stress, indiquant si un élément de travail est ou non qualifié de facteur de stress ; d'autres codes définissent le degré de stress associé à un travail ; et d'autres encore décrivent la durée et la fréquence du stress pendant le quart de travail.
L'AET se compose de trois parties :
De manière générale, les listes de contrôle adoptent l'une des deux approches, (1) l'approche axée sur l'emploi (par exemple, l'AET, Les profils des postes) et (2) l'approche axée sur les travailleurs (p. ex., le PAQ). Les inventaires et profils de tâches offrent une comparaison subtile des tâches complexes et des profils professionnels des emplois et déterminent les aspects du travail considérés a priori comme des facteurs incontournables d'amélioration des conditions de travail. Le PAQ met l'accent sur la classification des familles ou groupes d'emplois (Fleishman et Quaintence 1984 ; Mossholder et Arvey 1984 ; Carter et Biersner 1987), en inférant la validité des composantes de l'emploi et le stress au travail (Jeanneret 1980 ; Shaw et Riskind 1983). Du point de vue médical, tant la méthode AET que la méthode des profils permettent de comparer contraintes et aptitudes lorsque cela est nécessaire (Wagner 1985). Le questionnaire nordique est une présentation illustrative de l'analyse ergonomique du lieu de travail (Ahonen, Launis et Kuorinka 1989), qui couvre les aspects suivants :
Parmi les lacunes du format de liste de contrôle à usage général utilisé dans l'analyse ergonomique des tâches figurent les suivantes :
Une check-list construite systématiquement nous oblige à investiguer les facteurs des conditions de travail qui sont visibles ou faciles à modifier, et nous permet d'engager un dialogue social entre les employeurs, les titulaires d'emplois et les autres personnes concernées. Il faut faire preuve d'une certaine prudence vis-à-vis de l'illusion de simplicité et d'efficacité des listes de contrôle, ainsi que vis-à-vis de leurs approches quantitatives et techniques. La polyvalence d'une liste de contrôle ou d'un questionnaire peut être obtenue en incluant des modules spécifiques pour répondre à des objectifs spécifiques. Par conséquent, le choix des variables est très lié à l'objectif pour lequel les systèmes de travail doivent être analysés et cela détermine l'approche générale pour la construction d'une liste de contrôle conviviale.
La « liste de contrôle ergonomique » suggérée peut être adoptée pour diverses applications. La collecte des données et le traitement informatisé des données de la liste de contrôle sont relativement simples, en répondant aux énoncés primaires et secondaires (qv).
LISTE DE CONTRÔLE ERGONOMIQUE
Une ligne directrice générale pour une liste de contrôle des systèmes de travail à structure modulaire est suggérée ici, couvrant cinq aspects majeurs (mécaniste, biologique, perceptif/moteur, technique et psychosocial). La pondération des modules varie en fonction de la nature du ou des emplois à analyser, des spécificités du pays ou de la population étudiée, des priorités organisationnelles et de l'utilisation prévue des résultats de l'analyse. Les répondants marquent la « déclaration principale » comme Oui/Non. Les réponses « oui » indiquent l'absence apparente de problème, même si l'opportunité d'un examen plus approfondi ne doit pas être exclue. Les réponses « non » indiquent un besoin d'évaluation et d'amélioration de l'ergonomie. Les réponses aux « affirmations secondaires » sont indiquées par un seul chiffre sur l'échelle de sévérité de l'accord/désaccord illustrée ci-dessous.
0 Ne sais pas ou sans objet
1 Pas du tout d'accord
2 Pas d'accord
3 Ni d'accord ni en désaccord
4 D'accord
5 Tout à fait d'accord
A. Organisation, intervenant et tâche Vos réponses/notes
Le concepteur de la liste de contrôle peut fournir un exemple de dessin/photographie du travail et
lieu de travail à l'étude.
1. Description de l'organisation et des fonctions.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
2. Caractéristiques des travailleurs : Un bref compte rendu du groupe de travail.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
3. Description de la tâche : Dressez la liste des activités et du matériel en cours d'utilisation. Donnez quelques indications sur
les aléas du travail.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
B. Aspect mécanique Vos réponses/notes
I. Spécialisation professionnelle
4.Les tâches/modèles de travail sont simples et simples. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
4.1 L'affectation des tâches est propre à l'opérateur.
4.2 Les outils et les méthodes de travail sont adaptés à l'objectif du travail.
4.3 Volume de production et qualité du travail.
4.4 Le titulaire du poste exécute plusieurs tâches.
II. Compétence requise
5. Le travail nécessite un acte moteur simple. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
5.1 Le travail exige des connaissances et des capacités habiles.
5.2 Le travail exige une formation pour l'acquisition de compétences.
5.3 Le travailleur fait fréquemment des erreurs au travail.
5.4 Le travail exige une rotation fréquente, selon les directives.
5.5 Les opérations de travail sont rythmées par la machine/assistées par l'automatisation.
Remarques et suggestions d'amélioration. Articles 4 à 5.5 :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
q Note de l'analyste Note de l'ouvrier q
C. Aspect biologique Vos réponses/notes
III. Activité physique générale
6. L'activité physique est entièrement déterminée et
réglementé par le travailleur. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
6.1 Le travailleur maintient un rythme axé sur les objectifs.
6.2 Le travail implique des mouvements fréquemment répétés.
6.3 Exigences cardiorespiratoires du travail :
sédentaire/léger/modéré/lourd/extrêmement lourd.
(Quels sont les éléments de travail lourds ?):
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
(Entrez 0-5)
6.4 Le travail exige un effort de force musculaire élevé.
6.5 Le travail (actionnement de la poignée, du volant, de la pédale de frein) est principalement un travail statique.
6.6. Le travail nécessite une position de travail fixe (assis ou debout).
IV. Manutention manuelle des matériaux (MMH)
Nature des objets manipulés : animés/inanimés, taille et forme.
_______________________________________________________________
_______________________________________________________________
7. Le travail nécessite une activité MMH minimale. Oui Non
If Non, précisez le travail :
7.1 Mode de travail : (encercler)
tirer/pousser/tourner/soulever/abaisser/porter
(Préciser le cycle de répétition):
_______________________________________________________________
_______________________________________________________________
7.2 Poids de la charge (kg) : (encercler)
5-10, 10-20, 20-30, 30-40, >>40.
7.3 Distance horizontale entre le sujet et la charge (cm) : (encercler)
<25, 25-40, 40-55, 55-70, >70.
7.4 Hauteur de charge : (encercler)
sol, genoux, taille, poitrine, niveau des épaules.
(Entrez 0-5)
7.5 Les vêtements limitent les tâches MMH.
8. La situation de travail est exempte de risque de blessure corporelle. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
8.1 La tâche peut être modifiée pour réduire la charge à manipuler.
8.2 Les matériaux peuvent être emballés dans des tailles standard.
8.3 La taille/position des poignées sur les objets peut être améliorée.
8.4 Les travailleurs n'adoptent pas de méthodes plus sûres de manutention des charges.
8.5 Les aides mécaniques peuvent réduire les efforts corporels.
Dressez la liste de chaque article si des palans ou d'autres aides à la manutention sont disponibles.
Suggestions d'amélioration, Items 6 à 8.5 :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
V. Conception du lieu de travail/de l'espace de travail
Le lieu de travail peut être illustré schématiquement, montrant la portée humaine et
autorisation:
9. Le lieu de travail est compatible avec les dimensions humaines. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
9.1 La distance de travail est éloignée de la portée normale dans le plan horizontal ou vertical (> 60 cm).
9.2 La hauteur du bureau/de l'équipement est fixe ou réglable au minimum.
9.3 Pas d'espace pour les opérations annexes (ex. inspection et entretien).
9.4 Les postes de travail comportent des obstacles, des parties saillantes ou des arêtes vives.
9.5 Les sols des surfaces de travail sont glissants, inégaux, encombrés ou instables.
10. La disposition des sièges est adéquate (p. ex. chaise confortable,
bon maintien postural). Oui Non
If Non, les causes sont : (Entrez 0-5)
10.1 Les dimensions du siège (par exemple, la hauteur du siège, le dossier) ne correspondent pas aux dimensions humaines.
10.2 Ajustabilité minimale du siège.
10.3 Le siège de travail n'offre aucun maintien/soutien (par exemple, au moyen de bords verticaux/d'un revêtement extra rigide) pour travailler avec la machinerie.
10.4 Absence de mécanisme d'amortissement des vibrations dans le siège de travail.
11. Un support auxiliaire suffisant est disponible pour la sécurité
sur le lieu de travail. Oui Non
If Non, mentionnez ce qui suit : (Entrez 0-5)
11.1 Non-disponibilité d'espace de rangement pour outils, objets personnels.
11.2 Les portes, les voies d'entrée/sortie ou les couloirs sont limités.
11.3 Inadéquation de la conception des poignées, échelles, escaliers, mains courantes.
11.4 Les poignées et les appuis pour les pieds exigent une position inconfortable des membres.
11.5 Les supports sont méconnaissables par leur emplacement, leur forme ou leur construction.
11.6 Utilisation limitée de gants/chaussures pour travailler et faire fonctionner les commandes de l'équipement.
Suggestions d'amélioration, Items 9 à 11.6 :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VI. Position de travail
12. Le travail permet une posture de travail détendue. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
12.1 Travailler avec les bras au-dessus des épaules et/ou éloignés du corps.
12.2 Hyperextension du poignet et demande de force élevée.
12.3 Le cou/l'épaule ne sont pas maintenus à un angle d'environ 15°.
12.4 Dos courbé et tordu.
12.5 Les hanches et les jambes ne sont pas bien soutenues en position assise.
12.6 Mouvement unilatéral et asymétrique du corps.
12.7 Mentionnez les raisons de la posture forcée :
(1) emplacement de la machine
(2) conception du siège,
(3) la manutention du matériel,
(4) lieu de travail/espace de travail
12.8 Spécifiez le code OWAS. (Pour une description détaillée de l'OWAS
méthode se référer à Karhu et al. 1981.)
_______________________________________________________________
_______________________________________________________________
Suggestions d'amélioration, Items 12 à 12.7 :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VII. Environnement de travail
(Donnez des mesures si possible)
BRUIT
[Identifier les sources de bruit, le type et la durée d'exposition ; se référer au code OIT 1984].
13. Le niveau de bruit est inférieur au maximum Oui/Non
niveau sonore recommandé. (Utilisez le tableau suivant.)
Note |
Travail ne nécessitant aucune communication verbale |
Travail nécessitant une communication verbale |
Travail demandant de la concentration |
1 |
moins de 60 dBA |
moins de 50 dBA |
moins de 45 dBA |
2 |
60-70 dBA |
50-60 dBA |
45-55 dBA |
3 |
70-80 dBA |
60-70 dBA |
55-65 dBA |
4 |
80-90 dBA |
70-80 dBA |
65-75 dBA |
5 |
plus de 90 dBA |
plus de 80 dBA |
plus de 75 dBA |
Source : Ahonen et al. 1989.
Donnez votre score d'accord/désaccord (0-5)
14. Les bruits nuisibles sont supprimés à la source. Oui Non
Si non, évaluez les contre-mesures : (Entrez 0-5)
14.1 Absence d'isolation acoustique efficace.
14.2 Aucune mesure d'urgence contre le bruit n'est prise (par exemple, restriction du temps de travail, utilisation de protecteurs auditifs personnels).
15. CHANGEMENT
Précisez les conditions climatiques.
Température ____
Humidité ____
Température radiante ____
Brouillons ____
16. Le climat est confortable. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
16.1 Sensation de température (entourez une réponse) :
frais/un peu frais/neutre/chaud/très chaud
16.2 Les dispositifs de ventilation (par exemple, ventilateurs, fenêtres, climatiseurs) ne sont pas adéquats.
16.3 Non-exécution des mesures réglementaires sur les limites d'exposition (si disponibles, veuillez préciser).
16.4 Les travailleurs ne portent pas de vêtements de protection contre la chaleur/d'assistance.
16.5 Les fontaines d'eau fraîche ne sont pas disponibles à proximité.
17. LIGHTING
Le lieu de travail/les machines sont suffisamment éclairés à tout moment. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
17.1 L'éclairage est suffisamment intense.
17.2 L'éclairage de la zone de travail est suffisamment uniforme.
17.3 Les phénomènes de scintillement sont minimes ou absents.
17.4 La formation d'ombres n'est pas problématique.
17.5 Les reflets gênants réfléchis sont minimes ou absents.
17.6 La dynamique des couleurs (accentuation visuelle, chaleur des couleurs) est adéquate.
18. POUSSIÈRE, FUMÉE, TOXICANTS
L'environnement est exempt de poussière excessive,
vapeurs et substances toxiques. Oui Non
Si non, évaluez les éléments suivants : (Entrez 0-5)
18.1 Systèmes de ventilation et d'évacuation inefficaces pour évacuer les émanations, la fumée et la saleté.
18.2 Manque de mesures de protection contre la libération d'urgence et le contact avec des substances dangereuses/toxiques.
Énumérez les toxiques chimiques :
_______________________________________________________________
_______________________________________________________________
18.3 La surveillance du lieu de travail pour les substances chimiques toxiques n'est pas régulière.
18.4 Non-disponibilité des mesures de protection individuelle (par exemple, gants, chaussures, masque, tablier).
19. RAYONNEMENT
Les travailleurs sont efficacement protégés contre l'exposition aux rayonnements. Oui Non
Si non, mentionnez les expositions
(voir liste de contrôle ISSA, Ergonomie): (Entrez 0-5)
19.1 Rayonnement UV (200 nm – 400 nm).
19.2 Rayonnement IR (780 nm – 100 μm).
19.3 Radioactivité/rayonnement X (<200 nm).
19.4 Micro-ondes (1 mm – 1 m).
19.5 Lasers (300 nm – 1.4 μm).
19.6 Autres (mentionner):
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
20. VIBRATIONS
La machine peut être utilisée sans transmission de vibrations
au corps de l'opérateur. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
20.1 Les vibrations sont transmises à tout le corps via les pieds.
20.2 La transmission des vibrations se produit à travers le siège (par exemple, les machines mobiles qui sont conduites avec l'opérateur assis).
20.3 Les vibrations sont transmises par le système main-bras (p. ex. outils à main électriques, machines entraînées lorsque l'opérateur marche).
20.4 Exposition prolongée à une source continue/répétitive de vibrations.
20.5 Les sources de vibrations ne peuvent pas être isolées ou éliminées.
20.6 Identifier les sources de vibrations.
Commentaires et suggestions, points 13 à 20 :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VIII. Horaire de travail
Indiquez le temps de travail : heures de travail/jour/semaine/année, y compris le travail saisonnier et le système de travail posté.
21. La pression du temps de travail est minimale. Oui Non
If Non, notez ce qui suit : (Entrez 0-5)
21.1 Le travail nécessite du travail de nuit.
21.2 Le travail implique des heures supplémentaires/du temps de travail supplémentaire.
Spécifiez la durée moyenne :
_______________________________________________________________
21.3 Les tâches lourdes sont inégalement réparties tout au long du quart de travail.
21.4 Les personnes travaillent à un rythme/temps limite prédéterminé.
21.5 Les allocations de fatigue/les schémas travail-repos ne sont pas suffisamment intégrés (utiliser des critères cardio-respiratoires sur la sévérité du travail).
Commentaires et suggestions, points 21 à 21.5 :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Note de l'analyste Note de l'ouvrier
D. Aspect perceptif/moteur Vos réponses/évaluations
IX. Affiche
22. Affichages visuels (jauges, compteurs, signaux d'avertissement)
sont faciles à lire. Oui Non
Si Non, évaluez les difficultés : (Entrez 0-5)
22.1 Éclairage insuffisant (se référer au point n° 17).
22.2 Positionnement maladroit de la tête/des yeux pour la ligne visuelle.
22.3 Le style d'affichage des chiffres/de la progression numérique crée de la confusion et provoque des erreurs de lecture.
22.4 Les affichages numériques ne sont pas disponibles pour une lecture précise.
22.5 Grande distance visuelle pour une lecture précise.
22.6 Les informations affichées ne sont pas faciles à comprendre.
23. Les signaux/impulsions d'urgence sont facilement reconnaissables. Oui Non
Si non, évaluez les raisons :
23.1 Les signaux (visuels/auditifs) ne sont pas conformes au processus de travail.
23.2 Les clignotants sont hors du champ visuel.
23.3 Les signaux d'affichage sonores ne sont pas audibles.
24. Les regroupements des fonctions d'affichage sont logiques. Oui Non
Si non, évaluez les éléments suivants :
24.1 Les affichages ne se distinguent pas par la forme, la position, la couleur ou le ton.
24.2 Les écrans fréquemment utilisés et critiques sont retirés de la ligne de vision centrale.
X. Commandes
25. Les commandes (p. ex. interrupteurs, boutons, grues, roues motrices, pédales) sont faciles à manipuler. Oui Non
Si Non, les causes sont : (Entrez 0-5)
25.1 Les positions des commandes main/pied sont inconfortables.
25.2 La latéralité des commandes/outils est incorrecte.
25.3 Les dimensions des commandes ne correspondent pas à la partie du corps de commande.
25.4 Les commandes nécessitent une force d'actionnement élevée.
25.5 Les commandes nécessitent une précision et une rapidité élevées.
25.6 Les commandes n'ont pas de code de forme pour une bonne prise en main.
25.7 Les commandes ne sont pas codées par couleur/symbole pour l'identification.
25.8 Les commandes provoquent une sensation désagréable (chaleur, froid, vibration).
26. Les affichages et les commandes (combinés) sont compatibles avec des réactions humaines simples et confortables. Oui Non
Si non, évaluez les éléments suivants : (Entrez 0-5)
26.1 Les emplacements ne sont pas suffisamment proches les uns des autres.
26.2 L'affichage/les commandes ne sont pas disposés séquentiellement pour les fonctions/la fréquence d'utilisation.
26.3 Les opérations d'affichage/de contrôle sont successives, sans durée suffisante pour terminer l'opération (cela crée une surcharge sensorielle).
26.4 Désharmonie dans le sens du mouvement de l'affichage/de la commande (par exemple, le mouvement de la commande vers la gauche ne donne pas le mouvement de l'unité vers la gauche).
Commentaires et suggestions, points 22 à 26.4 :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Note de l'analyste Note de l'ouvrier
E. Aspect technique Vos réponses/notes
XI. Machinerie
27. Machine (par exemple, chariot transporteur, chariot élévateur, machine-outil)
est facile à conduire et à travailler. Oui Non
Si non, évaluez les éléments suivants : (Entrez 0-5)
27.1 La machine est instable en fonctionnement.
27.2 Mauvais entretien des machines.
27.3 La vitesse de conduite de la machine ne peut pas être réglée.
27.4 Les volants/poignées sont actionnés depuis la position debout.
27.5 Les mécanismes de commande gênent les mouvements du corps dans l'espace de travail.
27.6 Risque de blessure dû à l'absence de protection de la machine.
27.7 La machinerie n'est pas équipée de signaux d'avertissement.
27.8 La machine est mal équipée pour l'amortissement des vibrations.
27.9 Les niveaux de bruit des machines sont supérieurs aux limites légales (se référer aux articles n° 13 et 14)
27.10 Mauvaise visibilité des pièces de la machine et de la zone adjacente (se référer aux articles n° 17 et 22).
XII. Petits outils/instruments
28. Les outils/équipements fournis aux opérateurs sont
confortable pour travailler avec. Oui Non
Si non, évaluez les éléments suivants : (Entrez 0-5)
28.1 L'outil/outil n'a pas de sangle de transport/cadre arrière.
28.2 L'outil ne peut pas être utilisé avec des mains alternées.
28.3 Le poids élevé de l'outil provoque une hyperextension du poignet.
28.4 La forme et la position de la poignée ne sont pas conçues pour une prise en main pratique.
28.5 L'outil électrique n'est pas conçu pour être utilisé à deux mains.
28.6 Les arêtes vives/arêtes de l'outil/équipement peuvent causer des blessures.
28.7 Les harnais (gants, etc.) ne sont pas régulièrement utilisés pour faire fonctionner l'outil vibrant.
28.8 Les niveaux de bruit des outils électriques sont supérieurs aux limites acceptables
(se référer au point n° 13).
Suggestions d'amélioration, items 27 à 28.8 :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
XIII. La sécurité du travail
29. Les mesures de sécurité de la machine sont adéquates pour
accidents et risques pour la santé. Oui Non
Si non, évaluez les éléments suivants : (Entrez 0-5)
29.1 Les accessoires de la machine ne peuvent pas être fixés et retirés facilement.
29.2 Les points dangereux, les pièces mobiles et les installations électriques ne sont pas suffisamment protégés.
29.3 Le contact direct/indirect des parties du corps avec les machines peut entraîner des dangers.
29.4 Difficulté d'inspection et d'entretien de la machine.
29.5 Aucune instruction claire n'est disponible pour le fonctionnement, l'entretien et la sécurité de la machine.
Suggestions d'amélioration, points 29 à 29. 5 :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Note de l'analyste Note de l'ouvrier
F. Aspect psychosocial Vos réponses/notations
XIV. Autonomie de travail
30. Le travail permet l'autonomie (par exemple, la liberté concernant la méthode de travail,
conditions d'exécution, calendrier, contrôle qualité). Oui Non
Si Non, les causes possibles sont : (Entrez 0-5)
30.1 Aucune discrétion sur les heures de début/fin du travail.
30.2 Absence de soutien organisationnel en ce qui concerne l'appel à l'aide au travail.
30.3 Nombre de personnes insuffisant pour la tâche (travail d'équipe).
30.4 Rigidité dans les méthodes et conditions de travail.
XV. Rétroaction sur le travail (intrinsèque et extrinsèque)
31. Le travail permet une rétroaction directe des informations sur la qualité
et la quantité de ses performances. Oui Non
Si Non, les raisons sont : (Entrez 0-5)
31.1 Aucun rôle participatif dans l'information sur les tâches et la prise de décision.
31.2 Contraintes de contact social dues aux barrières physiques.
31.3 Difficulté de communication due au niveau de bruit élevé.
31.4 Augmentation de la demande attentionnelle dans la stimulation de la machine.
31.5 D'autres personnes (directeurs, collègues) informent le travailleur de l'efficacité de son travail.
XVI. Variété/Clarté des tâches
32. Job a des tâches variées et demande de la spontanéité de la part du travailleur. Oui Non
Si non, évaluez les éléments suivants : (Entrez 0-5)
32.1 Les rôles et les objectifs du poste sont ambigus.
32.2 La restriction du travail est imposée par une machine, un processus ou un groupe de travail.
32.3 La relation ouvrier-machine suscite un conflit quant au comportement à adopter par l'opérateur.
32.4 Niveau de stimulation restreint (p. ex., environnement visuel et auditif inchangé).
32.5 Niveau élevé d'ennui au travail.
32.6 Possibilité limitée d'élargissement des emplois.
XVII. Identité/importance de la tâche
33. Le travailleur reçoit un lot de tâches Oui/Non
et organise son propre horaire pour terminer le travail
(par exemple, on planifie et exécute le travail et on inspecte et
gère les produits).
Donnez votre score d'accord/désaccord (0-5)
34. Le travail est important dans l'organisation. Oui Non
Il fournit la reconnaissance et la reconnaissance des autres.
(Donnez votre score d'accord/désaccord)
XVIII. Surcharge/sous-charge mentale
35. Le travail consiste en des tâches pour lesquelles une communication claire et
des systèmes d'aide à l'information sans ambiguïté sont disponibles. Oui Non
Si non, évaluez les éléments suivants : (Entrez 0-5)
35.1 Les informations fournies en rapport avec le travail sont nombreuses.
35.2 Le traitement de l'information sous pression est nécessaire (par exemple, manœuvre d'urgence dans le contrôle de processus).
35.3 Charge de travail élevée en matière de traitement de l'information (p. ex., tâche de positionnement difficile — aucune motivation particulière requise).
35.4 Une attention occasionnelle est portée sur des informations autres que celles nécessaires à la tâche proprement dite.
35.5 La tâche consiste en un acte moteur simple répétitif nécessitant une attention superficielle.
35.6 Les outils/équipements ne sont pas prépositionnés pour éviter un retard mental.
35.7 Des choix multiples sont nécessaires dans la prise de décision et l'évaluation des risques.
(Commentaires et suggestions, points 30 à 35.7)
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
XIX. Formation et promotion
36. Le poste offre des opportunités de croissance associée des compétences
et l'accomplissement des tâches. Oui Non
Si Non, les causes possibles sont : (Entrez 0-5)
36.1 Aucune possibilité d'avancement à des niveaux supérieurs.
36.2 Pas de formation périodique des opérateurs, spécifique aux métiers.
36.3 Les programmes/outils de formation ne sont pas faciles à apprendre et à utiliser.
36.4 Pas de système de rémunération incitative.
XX. L'engagement organisationnel
37. Engagement défini envers l'organisation Oui/Non
l'efficacité et le bien-être physique, mental et social.
Évaluez le degré auquel les éléments suivants sont mis à disposition : (Entrez 0-5)
37.1 Rôle organisationnel dans les conflits et ambiguïtés de rôle individuel.
37.2 Services médico-administratifs d'intervention préventive en cas de risques professionnels.
37.3 Mesures promotionnelles pour contrôler l'absentéisme dans le groupe de travail.
37.4 Règles de sécurité efficaces.
37.5 Inspection du travail et contrôle des meilleures pratiques de travail.
37.6 Action de suivi pour la gestion des accidents/blessures.
La fiche d'évaluation sommaire peut être utilisée pour le profilage et le regroupement d'un groupe sélectionné d'éléments, qui peuvent constituer la base des décisions sur les systèmes de travail. Le processus d'analyse est souvent chronophage et les utilisateurs de ces instruments doivent avoir une solide formation en ergonomie tant théorique que pratique, dans l'évaluation des systèmes de travail.
FICHE SOMMAIRE D'EVALUATION
A. Brève description de l'organisation, caractéristiques des travailleurs et description des tâches
.................................................. .................................................. .................................................. .................................................. ...................
.................................................. .................................................. .................................................. .................................................. ...................
Accord de gravité |
||||||||||
Modules |
sections |
Nombre de |
|
|
|
|
|
|
Relatif |
Numéro(s) d'article(s). |
B. Mécaniste |
I. Spécialisation professionnelle II. Compétence requise |
4 5 |
||||||||
C. Biologique |
III. Activité physique générale IV. Manutention manuelle des matériaux V. Lieu de travail/Conception du lieu de travail VI. Position de travail VII. Environnement de travail VIII. Horaire de travail |
5 6 15 6 28 5 |
||||||||
D. Perceptif/moteur |
IX. Affiche X. Commandes |
12 10 |
||||||||
E. Technique |
XI. Machinerie XII. Petits outils/instruments XIII. La sécurité du travail |
10 8 5 |
||||||||
F. Psychosocial |
XIV. Autonomie de travail XV. Commentaires sur l'emploi XVI. Variété/Clarté des tâches XVII. Identité/importance de la tâche XVIII. Surcharge/sous-charge mentale XIX. Formation et promotion XX. L'engagement organisationnel |
5 5 6 2 7 4 6 |
Évaluation globale
Accord de sévérité des modules |
Remarques |
||
A |
|||
B |
|||
C |
|||
D |
|||
E |
|||
F |
|||
Analyste travaux : |
Il existe souvent de grandes différences entre les humains dans l'intensité de la réponse aux produits chimiques toxiques et les variations de la sensibilité d'un individu au cours d'une vie. Ceux-ci peuvent être attribués à une variété de facteurs capables d'influencer le taux d'absorption, la distribution dans le corps, la biotransformation et/ou le taux d'excrétion d'un produit chimique particulier. Outre les facteurs héréditaires connus dont il a été clairement démontré qu'ils étaient liés à une susceptibilité accrue à la toxicité chimique chez l'homme (voir « Déterminants génétiques de la réponse toxique »), d'autres facteurs comprennent : les caractéristiques constitutionnelles liées à l'âge et au sexe ; états pathologiques préexistants ou réduction de la fonction organique (non héréditaire, c'est-à-dire acquis); les habitudes alimentaires, le tabagisme, la consommation d'alcool et l'utilisation de médicaments ; exposition concomitante à des biotoxines (divers micro-organismes) et à des facteurs physiques (radiations, humidité, températures extrêmement basses ou élevées ou pressions barométriques particulièrement pertinentes pour la pression partielle d'un gaz), ainsi qu'exercice physique concomitant ou situations de stress psychologique ; exposition professionnelle et/ou environnementale antérieure à un produit chimique particulier, et en particulier exposition concomitante à d'autres produits chimiques, ne sauraient nécessairement toxique (p. ex. métaux essentiels). Les contributions possibles des facteurs susmentionnés à l'augmentation ou à la diminution de la sensibilité aux effets nocifs sur la santé, ainsi que les mécanismes de leur action, sont spécifiques à un produit chimique particulier. Par conséquent, seuls les facteurs les plus courants, les mécanismes de base et quelques exemples caractéristiques seront présentés ici, alors que des informations spécifiques concernant chaque produit chimique particulier peuvent être trouvées ailleurs dans ce Encyclopédie.
Selon le stade auquel ces facteurs agissent (absorption, distribution, biotransformation ou excrétion d'un produit chimique particulier), les mécanismes peuvent être grossièrement classés selon deux conséquences fondamentales de l'interaction : (1) un changement de la quantité du produit chimique dans un organe cible, c'est-à-dire au(x) site(s) de son effet dans l'organisme (interactions toxicocinétiques), ou (2) une modification de l'intensité d'une réponse spécifique à la quantité de la substance chimique dans un organe cible (interactions toxicodynamiques) . Les mécanismes les plus courants de l'un ou l'autre type d'interaction sont liés à la compétition avec d'autres produits chimiques pour se lier aux mêmes composés impliqués dans leur transport dans l'organisme (par exemple, des protéines sériques spécifiques) et/ou pour la même voie de biotransformation (par exemple, enzymes spécifiques) entraînant une modification de la vitesse ou de la séquence entre la réaction initiale et l'effet néfaste final sur la santé. Cependant, les interactions toxicocinétiques et toxicodynamiques peuvent influencer la sensibilité individuelle à un produit chimique particulier. L'influence de plusieurs facteurs concomitants peut entraîner soit : (a) effets additifs—l'intensité de l'effet combiné est égale à la somme des effets produits par chaque facteur séparément, (b) effets synergiques—l'intensité de l'effet combiné est supérieure à la somme des effets produits par chaque facteur séparément, ou (c) effets antagonistes—l'intensité de l'effet combiné est inférieure à la somme des effets produits par chaque facteur séparément.
La quantité d'un produit chimique toxique particulier ou d'un métabolite caractéristique au(x) site(s) de son effet dans le corps humain peut être plus ou moins évaluée par une surveillance biologique, c'est-à-dire en choisissant le bon échantillon biologique et le moment optimal pour l'échantillonnage, en prenant en compte les demi-vies biologiques d'un produit chimique particulier à la fois dans l'organe critique et dans le compartiment biologique mesuré. Cependant, des informations fiables concernant d'autres facteurs possibles qui pourraient influencer la susceptibilité individuelle chez l'homme font généralement défaut, et par conséquent la majorité des connaissances concernant l'influence de divers facteurs est basée sur des données expérimentales sur des animaux.
Il convient de souligner que, dans certains cas, des différences relativement importantes existent entre les humains et les autres mammifères dans l'intensité de la réponse à un niveau et/ou une durée d'exposition équivalents à de nombreux produits chimiques toxiques ; par exemple, les humains semblent être considérablement plus sensibles aux effets néfastes sur la santé de plusieurs métaux toxiques que ne le sont les rats (couramment utilisés dans les études expérimentales sur des animaux). Certaines de ces différences peuvent être attribuées au fait que les voies de transport, de distribution et de biotransformation de divers produits chimiques dépendent fortement de changements subtils du pH tissulaire et de l'équilibre redox dans l'organisme (tout comme les activités de diverses enzymes), et que le système redox de l'homme diffère considérablement de celui du rat.
C'est évidemment le cas d'importants antioxydants tels que la vitamine C et le glutathion (GSH), qui sont essentiels au maintien de l'équilibre redox et qui ont un rôle protecteur contre les effets néfastes des radicaux libres dérivés de l'oxygène ou des xénobiotiques qui interviennent dans une variété de conditions pathologiques (Kehrer 1993). L'homme ne peut pas auto-synthétiser la vitamine C, contrairement au rat, et les niveaux ainsi que le taux de renouvellement du GSH érythrocytaire chez l'homme sont considérablement inférieurs à ceux du rat. Les humains manquent également de certaines des enzymes antioxydantes protectrices, par rapport au rat ou à d'autres mammifères (par exemple, la GSH-peroxydase est considérée comme peu active dans le sperme humain). Ces exemples illustrent la vulnérabilité potentiellement plus grande au stress oxydatif chez l'homme (en particulier dans les cellules sensibles, p. divers facteurs chez l'homme par rapport à d'autres mammifères (Telišman 1995).
Influence de l'âge
Comparativement aux adultes, les très jeunes enfants sont souvent plus sensibles à la toxicité chimique en raison de leurs volumes d'inhalation relativement plus élevés et de leur taux d'absorption gastro-intestinale en raison d'une plus grande perméabilité de l'épithélium intestinal, et en raison de systèmes enzymatiques de détoxification immatures et d'un taux d'excrétion relativement plus faible de produits chimiques toxiques. . Le système nerveux central semble être particulièrement sensible au stade précoce du développement en ce qui concerne la neurotoxicité de divers produits chimiques, par exemple le plomb et le méthylmercure. D'autre part, les personnes âgées peuvent être sensibles en raison d'antécédents d'exposition chimique et d'une augmentation des réserves corporelles de certains xénobiotiques, ou d'une fonction préexistante compromise des organes cibles et/ou des enzymes pertinentes entraînant une diminution du taux de détoxification et d'excrétion. Chacun de ces facteurs peut contribuer à l'affaiblissement des défenses de l'organisme - une diminution de la capacité de réserve, entraînant une susceptibilité accrue à une exposition ultérieure à d'autres dangers. Par exemple, les enzymes du cytochrome P450 (impliquées dans les voies de biotransformation de presque tous les produits chimiques toxiques) peuvent être induites ou avoir une activité réduite en raison de l'influence de divers facteurs au cours de la vie (y compris les habitudes alimentaires, le tabagisme, l'alcool, l'utilisation de médicaments et exposition aux xénobiotiques environnementaux).
Influence du sexe
Des différences de sensibilité liées au sexe ont été décrites pour un grand nombre de produits chimiques toxiques (environ 200), et de telles différences se retrouvent chez de nombreuses espèces de mammifères. Il semble que les mâles soient généralement plus sensibles aux toxines rénales et les femelles aux toxines hépatiques. Les causes de la réponse différente entre les hommes et les femmes ont été liées à des différences dans une variété de processus physiologiques (par exemple, les femmes sont capables d'excréter davantage de certains produits chimiques toxiques par la perte de sang menstruel, le lait maternel et/ou le transfert au fœtus, mais elles subissent un stress supplémentaire pendant la grossesse, l'accouchement et l'allaitement), les activités enzymatiques, les mécanismes de réparation génétique, les facteurs hormonaux ou la présence de dépôts de graisse relativement plus importants chez les femelles, entraînant une plus grande accumulation de certains produits chimiques toxiques lipophiles, tels que les solvants organiques et certains médicaments .
Influence des habitudes alimentaires
Les habitudes alimentaires ont une influence importante sur la susceptibilité à la toxicité chimique, principalement parce qu'une nutrition adéquate est essentielle au fonctionnement du système de défense chimique de l'organisme pour le maintien d'une bonne santé. Un apport adéquat en métaux essentiels (y compris les métalloïdes) et en protéines, en particulier les acides aminés soufrés, est nécessaire à la biosynthèse de diverses enzymes détoxifiantes et à l'apport de glycine et de glutathion pour les réactions de conjugaison avec des composés endogènes et exogènes. Les lipides, notamment les phospholipides, et les lipotropes (donneurs de groupes méthyle) sont nécessaires à la synthèse des membranes biologiques. Les glucides fournissent l'énergie nécessaire à divers processus de détoxification et fournissent de l'acide glucuronique pour la conjugaison des produits chimiques toxiques et de leurs métabolites. Le sélénium (un métalloïde essentiel), le glutathion et des vitamines telles que la vitamine C (soluble dans l'eau), la vitamine E et la vitamine A (soluble dans les lipides) jouent un rôle important en tant qu'antioxydants (p. ex., dans le contrôle de la peroxydation des lipides et le maintien de l'intégrité des membranes cellulaires) et des piégeurs de radicaux libres pour la protection contre les produits chimiques toxiques. De plus, divers constituants alimentaires (teneur en protéines et en fibres, minéraux, phosphates, acide citrique, etc.) ainsi que la quantité de nourriture consommée peuvent grandement influencer le taux d'absorption gastro-intestinal de nombreux produits chimiques toxiques (p. sels de plomb pris avec les repas est d'environ 60 %, contre environ XNUMX % chez les sujets à jeun). Cependant, l'alimentation elle-même peut être une source supplémentaire d'exposition individuelle à divers produits chimiques toxiques (par exemple, apports quotidiens considérablement accrus et accumulation d'arsenic, de mercure, de cadmium et/ou de plomb chez les sujets qui consomment des produits de la mer contaminés).
Influence du tabagisme
L'habitude de fumer peut influencer la sensibilité individuelle à de nombreux produits chimiques toxiques en raison de la variété des interactions possibles impliquant le grand nombre de composés présents dans la fumée de cigarette (en particulier les hydrocarbures aromatiques polycycliques, le monoxyde de carbone, le benzène, la nicotine, l'acroléine, certains pesticides, le cadmium et , dans une moindre mesure, le plomb et d'autres métaux toxiques, etc.), dont certains sont capables de s'accumuler dans le corps humain au cours de la vie, y compris la vie prénatale (par exemple, le plomb et le cadmium). Les interactions se produisent principalement parce que divers produits chimiques toxiques entrent en compétition pour le(s) même(s) site(s) de liaison pour le transport et la distribution dans l'organisme et/ou pour la même voie de biotransformation impliquant des enzymes particulières. Par exemple, plusieurs constituants de la fumée de cigarette peuvent induire des enzymes du cytochrome P450, tandis que d'autres peuvent réduire leur activité, et ainsi influencer les voies de biotransformation communes de nombreux autres produits chimiques toxiques, tels que les solvants organiques et certains médicaments. Une forte consommation de cigarettes sur une longue période peut réduire considérablement les mécanismes de défense de l'organisme en diminuant la capacité de réserve pour faire face à l'influence néfaste d'autres facteurs liés au mode de vie.
Influence de l'alcool
La consommation d'alcool (éthanol) peut influencer la sensibilité à de nombreux produits chimiques toxiques de plusieurs façons. Il peut influencer le taux d'absorption et la distribution de certains produits chimiques dans le corps, par exemple, augmenter le taux d'absorption gastro-intestinal du plomb ou diminuer le taux d'absorption pulmonaire de la vapeur de mercure en inhibant l'oxydation qui est nécessaire à la rétention de la vapeur de mercure inhalée. L'éthanol peut également influencer la sensibilité à divers produits chimiques par des changements à court terme du pH des tissus et une augmentation du potentiel redox résultant du métabolisme de l'éthanol, car l'éthanol s'oxydant en acétaldéhyde et l'acétaldéhyde s'oxydant en acétate produisent un équivalent de nicotinamide adénine dinucléotide réduit (NADH) et hydrogène (H+). Étant donné que l'affinité des métaux et métalloïdes essentiels et toxiques pour la liaison à divers composés et tissus est influencée par le pH et les modifications du potentiel redox (Telišman 1995), même une consommation modérée d'éthanol peut entraîner une série de conséquences telles que : ( 1) redistribution du plomb accumulé à long terme dans l'organisme humain en faveur d'une fraction de plomb biologiquement active, (2) remplacement du zinc essentiel par le plomb dans les enzymes contenant du zinc, affectant ainsi l'activité enzymatique ou l'influence de la mobilité plomb isé sur la distribution d'autres métaux et métalloïdes essentiels dans l'organisme tels que le calcium, le fer, le cuivre et le sélénium, (3) augmentation de l'excrétion urinaire de zinc, etc. L'effet des éventuels événements susmentionnés peut être augmenté du fait que les boissons alcoolisées peuvent contenir une quantité appréciable de plomb provenant des récipients ou de la transformation (Prpic-Majic et al. 1984 ; Telišman et al. 1984 ; 1993).
Une autre raison courante des changements de sensibilité liés à l'éthanol est que de nombreux produits chimiques toxiques, par exemple divers solvants organiques, partagent la même voie de biotransformation impliquant les enzymes du cytochrome P450. En fonction de l'intensité de l'exposition aux solvants organiques ainsi que de la quantité et de la fréquence d'ingestion d'éthanol (c.-à-d. consommation aiguë ou chronique d'alcool), l'éthanol peut diminuer ou augmenter les taux de biotransformation de divers solvants organiques et ainsi influencer leur toxicité (Sato 1991) .
Influence des médicaments
L'utilisation courante de divers médicaments peut influer sur la sensibilité aux produits chimiques toxiques, principalement parce que de nombreux médicaments se lient aux protéines sériques et influencent ainsi le transport, la distribution ou le taux d'excrétion de divers produits chimiques toxiques, ou parce que de nombreux médicaments sont capables d'induire des enzymes détoxifiantes pertinentes ou de réduire leur activité. (par exemple, les enzymes du cytochrome P450), affectant ainsi la toxicité des produits chimiques ayant la même voie de biotransformation. La caractéristique de l'un ou l'autre des mécanismes est l'augmentation de l'excrétion urinaire d'acide trichloroacétique (le métabolite de plusieurs hydrocarbures chlorés) lors de l'utilisation de salicylate, de sulfonamide ou de phénylbutazone, et une augmentation de l'hépato-néphrotoxicité du tétrachlorure de carbone lors de l'utilisation de phénobarbital. De plus, certains médicaments contiennent une quantité considérable d'un produit chimique potentiellement toxique, par exemple les antiacides contenant de l'aluminium ou les préparations utilisées pour la prise en charge thérapeutique de l'hyperphosphatémie survenant dans l'insuffisance rénale chronique.
Influence de l'exposition concomitante à d'autres produits chimiques
Les modifications de la susceptibilité aux effets nocifs sur la santé dues à l'interaction de divers produits chimiques (c.-à-d. possibles effets additifs, synergiques ou antagonistes) ont été étudiées presque exclusivement chez des animaux de laboratoire, principalement chez le rat. Les études épidémiologiques et cliniques pertinentes font défaut. Ceci est particulièrement préoccupant compte tenu de l'intensité relativement plus grande de la réponse ou de la variété des effets néfastes sur la santé de plusieurs produits chimiques toxiques chez l'homme par rapport au rat et à d'autres mammifères. Hormis les données publiées dans le domaine de la pharmacologie, la plupart des données ne concernent que des combinaisons de deux produits chimiques différents au sein de groupes spécifiques, tels que divers pesticides, solvants organiques ou métaux et métalloïdes essentiels et/ou toxiques.
L'exposition combinée à divers solvants organiques peut entraîner divers effets additifs, synergiques ou antagonistes (selon la combinaison de certains solvants organiques, leur intensité et la durée d'exposition), principalement en raison de la capacité d'influencer la biotransformation de l'autre (Sato 1991).
Un autre exemple caractéristique sont les interactions des métaux et des métalloïdes à la fois essentiels et/ou toxiques, car ceux-ci sont impliqués dans l'influence possible de l'âge (par exemple, une accumulation corporelle de plomb et de cadmium environnementaux à vie), du sexe (par exemple, une carence en fer courante chez les femmes ), habitudes alimentaires (par exemple, apport alimentaire accru de métaux et métalloïdes toxiques et/ou apport alimentaire insuffisant en métaux et métalloïdes essentiels), tabagisme et consommation d'alcool (par exemple, exposition supplémentaire au cadmium, au plomb et à d'autres métaux toxiques), et utilisation de médicaments (p. ex., une seule dose d'antiacide peut entraîner une augmentation de 50 fois de l'apport quotidien moyen d'aluminium par l'alimentation). La possibilité de divers effets additifs, synergiques ou antagonistes de l'exposition à divers métaux et métalloïdes chez l'homme peut être illustrée par des exemples simples liés aux principaux éléments toxiques (voir tableau 1), à part lesquels d'autres interactions peuvent se produire car des éléments essentiels peuvent également influencer les uns des autres (par exemple, l'effet antagoniste bien connu du cuivre sur le taux d'absorption gastro-intestinal ainsi que sur le métabolisme du zinc, et vice versa). La principale cause de toutes ces interactions est la compétition de divers métaux et métalloïdes pour le même site de liaison (en particulier le groupe sulfhydryle, -SH) dans diverses enzymes, métalloprotéines (en particulier la métallothionéine) et tissus (par exemple, membranes cellulaires et barrières organiques). Ces interactions peuvent avoir un rôle important dans le développement de plusieurs maladies chroniques qui sont médiées par l'action des radicaux libres et le stress oxydatif (Telišman 1995).
Tableau 1. Effets de base des interactions multiples possibles concernant les principaux métaux et métalloïdes toxiques et/ou essentiels chez les mammifères
Métal ou métalloïde toxique | Effets de base de l'interaction avec d'autres métaux ou métalloïdes |
Aluminium (Al) | Diminue le taux d'absorption du Ca et altère le métabolisme du Ca ; une alimentation déficiente en Ca augmente le taux d'absorption d'Al. Altère le métabolisme des phosphates. Les données sur les interactions avec Fe, Zn et Cu sont équivoques (c'est-à-dire le rôle possible d'un autre métal comme médiateur). |
Arsenic (As) | Affecte la distribution de Cu (une augmentation de Cu dans les reins et une diminution de Cu dans le foie, le sérum et l'urine). Altère le métabolisme du Fe (augmentation du Fe dans le foie avec diminution concomitante de l'hématocrite). Zn diminue le taux d'absorption de l'As inorganique et diminue la toxicité de l'As. Le Se diminue la toxicité de l'As et vice versa. |
Cadmium (Cd) | Diminue le taux d'absorption du Ca et altère le métabolisme du Ca ; une carence en Ca alimentaire augmente le taux d'absorption du Cd. Altère le métabolisme des phosphates, c'est-à-dire augmente l'excrétion urinaire des phosphates. Altère le métabolisme du Fe; une alimentation déficiente en Fe augmente le taux d'absorption du Cd. Affecte la distribution de Zn ; Le Zn diminue la toxicité du Cd, alors que son influence sur le taux d'absorption du Cd est équivoque. Le Se diminue la toxicité du Cd. Le Mn diminue la toxicité du Cd lors d'une faible exposition au Cd. Les données sur l'interaction avec Cu sont équivoques (c'est-à-dire le rôle possible de Zn, ou d'un autre métal, en tant que médiateur). Des niveaux alimentaires élevés de Pb, Ni, Sr, Mg ou Cr(III) peuvent diminuer le taux d'absorption du Cd. |
Mercure (Hg) | Affecte la distribution de Cu (une augmentation de Cu dans le foie). Zn diminue le taux d'absorption du Hg inorganique et diminue la toxicité du Hg. Le Se diminue la toxicité du Hg. Le Cd augmente la concentration de Hg dans le rein, mais diminue en même temps la toxicité du Hg dans le rein (l'influence de la synthèse de métallothionéine induite par le Cd). |
Plomb (Pb) | Altère le métabolisme du Ca; une alimentation déficiente en Ca augmente le taux d'absorption du Pb inorganique et augmente la toxicité du Pb. Altère le métabolisme du Fe; une alimentation déficiente en Fe augmente la toxicité du Pb, alors que son influence sur le taux d'absorption du Pb est équivoque. Altère le métabolisme du Zn et augmente l'excrétion urinaire de Zn; une alimentation déficiente en Zn augmente le taux d'absorption du Pb inorganique et augmente la toxicité du Pb. Le Se diminue la toxicité du Pb. Les données sur les interactions avec Cu et Mg sont équivoques (c'est-à-dire le rôle possible du Zn ou d'un autre métal en tant que médiateur). |
Remarque : Les données sont principalement liées à des études expérimentales chez le rat, alors que les données cliniques et épidémiologiques pertinentes (en particulier concernant les relations dose-réponse quantitatives) font généralement défaut (Elsenhans et al. 1991 ; Fergusson 1990 ; Telišman et al. 1993).
La surveillance biologique humaine utilise des échantillons de fluides corporels ou d'autres matières biologiques facilement disponibles pour la mesure de l'exposition à des substances spécifiques ou non spécifiques et/ou leurs métabolites ou pour la mesure des effets biologiques de cette exposition. La surveillance biologique permet d'estimer l'exposition individuelle totale par différentes voies d'exposition (poumons, peau, tractus gastro-intestinal) et différentes sources d'exposition (air, alimentation, mode de vie ou profession). Il est également connu que dans des situations d'exposition complexes, très souvent rencontrées sur les lieux de travail, différents agents exposants peuvent interagir entre eux, renforçant ou inhibant les effets des composés individuels. Et puisque les individus diffèrent dans leur constitution génétique, ils présentent une variabilité dans leur réponse aux expositions chimiques. Ainsi, il peut être plus raisonnable de rechercher des effets précoces directement chez les individus ou les groupes exposés que d'essayer de prédire les dangers potentiels des schémas d'exposition complexes à partir de données relatives à des composés uniques. C'est un avantage de la biosurveillance génétique pour les effets précoces, une approche utilisant des techniques qui se concentrent sur les dommages cytogénétiques, les mutations ponctuelles ou les adduits à l'ADN dans les tissus humains de substitution (voir l'article « Principes généraux » dans ce chapitre).
Qu'est-ce que la génotoxicité ?
La génotoxicité des agents chimiques est un caractère chimique intrinsèque, basé sur le potentiel électrophile de l'agent à se lier à des sites nucléophiles dans les macromolécules cellulaires comme l'acide désoxyribonucléique, l'ADN, porteur d'informations héréditaires. La génotoxicité est donc une toxicité manifestée dans le matériel génétique des cellules.
La définition de la génotoxicité, telle que discutée dans un rapport de consensus (IARC 1992), est large et inclut à la fois les effets directs et indirects dans l'ADN : (1) l'induction de mutations (géniques, chromosomiques, génomiales, recombinatoires) qui, au niveau moléculaire sont similaires à des événements connus pour être impliqués dans la carcinogenèse, (2) des événements de substitution indirects associés à la mutagenèse (par exemple, la synthèse non programmée d'ADN (UDS) et l'échange de chromatides sœurs (SCE), ou (3) des dommages à l'ADN (par exemple, la formation d'adduits ), ce qui peut éventuellement conduire à des mutations.
Génotoxicité, mutagénicité et cancérogénicité
Les mutations sont des changements héréditaires permanents dans les lignées cellulaires, soit horizontalement dans les cellules somatiques, soit verticalement dans les cellules germinales (sexes) du corps. Autrement dit, les mutations peuvent affecter l'organisme lui-même par des changements dans les cellules du corps, ou elles peuvent être transmises à d'autres générations par l'altération des cellules sexuelles. La génotoxicité précède donc la mutagénicité bien que la plus grande partie de la génotoxicité soit réparée et ne soit jamais exprimée sous forme de mutations. Des mutations somatiques sont induites au niveau cellulaire et dans le cas où elles conduisent à la mort cellulaire ou à des malignités, peuvent se manifester par divers troubles des tissus ou de l'organisme lui-même. On pense que les mutations somatiques sont liées aux effets du vieillissement ou à l'induction de plaques d'athérosclérose (voir figure 1 et le chapitre sur Cancer).
Figure 1. Vue schématique du paradigme scientifique en toxicologie génétique et effets sur la santé humaine
Des mutations dans la lignée de cellules germinales peuvent être transférées au zygote - l'ovule fécondé - et être exprimées dans la génération de la progéniture (voir aussi le chapitre Système de reproduction). Les troubles mutationnels les plus importants observés chez le nouveau-né sont induits par une mauvaise ségrégation des chromosomes au cours de la gamétogenèse (le développement des cellules germinales) et entraînent des syndromes chromosomiques sévères (p. ex., trisomie 21 ou syndrome de Down, et monosomie X ou syndrome de Turner).
Le paradigme de la génotoxicologie de l'exposition aux effets anticipés peut être simplifié comme le montre la figure 1.
La relation entre la génotoxicité et la cancérogénicité est bien étayée par divers faits de recherche indirects, comme le montre la figure 2.
Figure 2. Interrelations entre génotoxicité et cancérogénicité
Cette corrélation fournit la base pour appliquer des biomarqueurs de génotoxicité à utiliser dans la surveillance humaine comme indicateurs de risque de cancer.
Toxicité génétique dans l'identification des dangers
Le rôle des changements génétiques dans la carcinogenèse souligne l'importance des tests de toxicité génétique dans l'identification des cancérogènes potentiels. Diverses méthodes de test à court terme ont été développées qui sont capables de détecter certains des paramètres de génotoxicité supposés pertinents dans la cancérogenèse.
Plusieurs enquêtes approfondies ont été réalisées pour comparer la cancérogénicité des produits chimiques avec les résultats obtenus en les examinant dans des tests à court terme. La conclusion générale a été qu'étant donné qu'aucun test validé ne peut fournir des informations sur tous les paramètres génétiques mentionnés ci-dessus ; il est nécessaire de tester chaque produit chimique dans plus d'un test. En outre, la valeur des tests à court terme de toxicité génétique pour la prédiction de la cancérogénicité chimique a été discutée et examinée à plusieurs reprises. Sur la base de ces examens, un groupe de travail du Centre international de recherche sur le cancer (CIRC) a conclu que la plupart des agents cancérigènes pour l'homme donnent des résultats positifs dans les tests à court terme couramment utilisés tels que le des salmonelles et les tests d'aberration chromosomique (tableau 1). Cependant, il faut savoir que les cancérogènes épigénétiques, tels que les composés à activité hormonale qui peuvent augmenter l'activité génotoxique sans être eux-mêmes génotoxiques, ne peuvent pas être détectés par des tests à court terme, qui ne mesurent que l'activité génotoxique intrinsèque d'une substance.
Tableau 1. Génotoxicité des produits chimiques évaluée dans les suppléments 6 et 7 aux monographies du CIRC (1986)
Classification de cancérogénicité |
Rapport des preuves de génotoxicité/cancérogénicité |
% |
1 : cancérigènes pour l'homme |
24/30 |
80 |
2A : cancérigènes humains probables |
14/20 |
70 |
2B : cancérigènes humains possibles |
72/128 |
56 |
3 : non classable |
19/66 |
29 |
Biosurveillance génétique
La surveillance génétique utilise des méthodes de toxicologie génétique pour la surveillance biologique des effets génétiques ou l'évaluation de l'exposition génotoxique dans un groupe d'individus avec une exposition définie sur un lieu de travail ou par l'environnement ou le mode de vie. Ainsi, la surveillance génétique a le potentiel d'identifier précocement les expositions génotoxiques dans un groupe de personnes et permet d'identifier les populations à haut risque et donc les priorités d'intervention. L'utilisation de biomarqueurs prédictifs dans une population exposée est justifiée pour gagner du temps (par rapport aux techniques épidémiologiques) et pour prévenir des effets finaux inutiles, à savoir le cancer (figure 3).
Figure 3. La prédictivité des biomarqueurs permet de mener des actions préventives pour diminuer les risques pour la santé des populations humaines
Les méthodes actuellement utilisées pour la biosurveillance de l'exposition génotoxique et des effets biologiques précoces sont listées dans le tableau 2. Les échantillons utilisés pour la biosurveillance doivent répondre à plusieurs critères, dont la nécessité qu'ils soient à la fois facilement accessibles et comparables au tissu cible.
Tableau 2. Biomarqueurs dans le suivi génétique de l'exposition à la génotoxicité et les échantillons de cellules/tissus les plus couramment utilisés.
Marqueur de suivi génétique |
Échantillons de cellules/tissus |
Aberrations chromosomiques (AC) |
Les lymphocytes |
Échanges de chromatides soeurs (SCE) |
Les lymphocytes |
Micronoyaux (MN) |
Les lymphocytes |
Mutations ponctuelles (p. ex., gène HPRT) |
Lymphocytes et autres tissus |
Adduits à l'ADN |
ADN isolé à partir de cellules/tissus |
Adduits protéiques |
Hémoglobine, albumine |
ruptures de brins d'ADN |
ADN isolé à partir de cellules/tissus |
Activation de l'oncogène |
ADN ou protéines spécifiques isolées |
Mutations/oncoprotéines |
Diverses cellules et tissus |
Réparation de l'ADN |
Cellules isolées à partir d'échantillons de sang |
Les types de dommages moléculairement reconnaissables à l'ADN comprennent la formation d'adduits à l'ADN et la réorganisation de la séquence d'ADN. Ces types de dommages peuvent être détectés par des mesures d'adduits à l'ADN à l'aide de diverses techniques, par exemple, soit le post-marquage au 32P, soit la détection d'anticorps monoclonaux dirigés contre les adduits à l'ADN. La mesure des ruptures de brins d'ADN est classiquement effectuée en utilisant des tests d'élution alcaline ou de déroulement. Les mutations peuvent être détectées en séquençant l'ADN d'un gène spécifique, par exemple le gène HPRT.
Plusieurs rapports méthodologiques ont paru qui traitent en détail des techniques du tableau 2 (CEC 1987; IARC 1987, 1992, 1993).
La génotoxicité peut également être surveillée indirectement par la mesure des adduits protéiques, c'est-à-dire dans l'hémoglobine au lieu de l'ADN, ou la surveillance de l'activité de réparation de l'ADN. En tant que stratégie de mesure, l'activité de surveillance peut être ponctuelle ou continue. Dans tous les cas, les résultats doivent être appliqués au développement de conditions de travail sûres.
Biosurveillance cytogénétique
Un raisonnement théorique et empirique relie le cancer aux lésions chromosomiques. Les événements mutationnels altérant l'activité ou l'expression des gènes des facteurs de croissance sont des étapes clés de la cancérogenèse. De nombreux types de cancers ont été associés à des aberrations chromosomiques spécifiques ou non spécifiques. Dans plusieurs maladies humaines héréditaires, l'instabilité chromosomique est associée à une susceptibilité accrue au cancer.
La surveillance cytogénétique des personnes exposées à des produits chimiques ou rayonnements cancérigènes et/ou mutagènes peut mettre en évidence des effets sur le matériel génétique des individus concernés. Les études d'aberration chromosomique des personnes exposées aux rayonnements ionisants sont appliquées à la dosimétrie biologique depuis des décennies, mais des résultats positifs bien documentés ne sont encore disponibles que pour un nombre limité de cancérogènes chimiques.
Les dommages chromosomiques reconnaissables au microscope comprennent à la fois les aberrations chromosomiques structurelles (CA), dans lesquelles un changement brutal de la morphologie (forme) d'un chromosome s'est produit, et les échanges de chromatides soeurs (SCE). SCE est l'échange symétrique de matériel chromosomique entre deux chromatides sœurs. Les micronoyaux (MN) peuvent provenir soit de fragments de chromosomes acentriques, soit de chromosomes entiers en retard. Ces types de changements sont illustrés à la figure 4.
Figure 4. Chromosomes lymphocytaires humains en métaphase, révélant une mutation chromosomique induite (flèche pointant vers un fragment acentrique)
Les lymphocytes du sang périphérique chez l'homme sont des cellules appropriées pour être utilisées dans les études de surveillance en raison de leur facilité d'accès et parce qu'ils peuvent intégrer l'exposition sur une durée de vie relativement longue. L'exposition à une variété de mutagènes chimiques peut entraîner une augmentation de la fréquence des CA et/ou des SCE dans les lymphocytes sanguins des personnes exposées. En outre, l'étendue des dommages est à peu près corrélée à l'exposition, bien que cela n'ait été démontré qu'avec quelques produits chimiques.
Lorsque des tests cytogénétiques sur des lymphocytes du sang périphérique montrent que le matériel génétique a été endommagé, les résultats ne peuvent être utilisés pour estimer le risque qu'au niveau de la population. Une fréquence accrue d'AC dans une population doit être considérée comme une indication d'un risque accru de cancer, mais les tests cytogénétiques ne permettent pas, en tant que tels, de prédire le risque individuel de cancer.
L'importance pour la santé des dommages génétiques somatiques vus à travers la fenêtre étroite d'un échantillon de lymphocytes du sang périphérique a peu ou pas d'importance pour la santé d'un individu, puisque la plupart des lymphocytes porteurs de dommages génétiques meurent et sont remplacés.
Problèmes et leur contrôle dans les études de biosurveillance humaine
Une conception d'étude rigoureuse est nécessaire dans l'application de toute méthode de biosurveillance humaine, car de nombreux facteurs interindividuels qui ne sont pas liés à l'exposition ou aux expositions chimiques spécifiques d'intérêt peuvent affecter les réponses biologiques étudiées. Étant donné que les études de biosurveillance humaine sont fastidieuses et difficiles à bien des égards, une planification préalable minutieuse est très importante. Lors de la réalisation d'études cytogénétiques humaines, la confirmation expérimentale du potentiel d'endommagement chromosomique du ou des agents exposants doit toujours être une condition préalable expérimentale.
Dans les études de biosurveillance cytogénétique, deux grands types de variations ont été documentés. Le premier comprend des facteurs techniques associés aux écarts de lecture des lames et aux conditions de culture, en particulier au type de milieu, à la température et à la concentration de produits chimiques (tels que la bromodésoxyuridine ou la cytochalasine-B). En outre, les temps d'échantillonnage peuvent modifier les rendements d'aberrations chromosomiques, et peut-être aussi les résultats de l'incidence de SCE, par des changements dans les sous-populations de lymphocytes T et B. Dans les analyses de micronoyaux, les différences méthodologiques (par exemple, l'utilisation de cellules binucléées induites par la cytochalasine-B) affectent assez clairement les résultats de notation.
Les lésions induites dans l'ADN des lymphocytes par une exposition chimique qui conduisent à la formation d'aberrations chromosomiques structurelles, à l'échange de chromatides sœurs et aux micronoyaux doivent persister in vivo jusqu'à ce que le sang soit prélevé, puis in vitro jusqu'à ce que le lymphocyte cultivé commence la synthèse d'ADN. Il est donc important de noter les cellules directement après la première division (dans le cas d'aberrations chromosomiques ou de micronoyaux) ou après la deuxième division (échanges de chromatides sœurs) afin d'obtenir la meilleure estimation des dommages induits.
Le scoring constitue un élément extrêmement important du biomonitoring cytogénétique. Les lames doivent être randomisées et codées pour éviter autant que possible les biais du correcteur. Des critères de notation cohérents, un contrôle de la qualité et des analyses et rapports statistiques normalisés doivent être maintenus. La deuxième catégorie de variabilité est due aux conditions associées aux sujets, telles que l'âge, le sexe, les médicaments et les infections. Des variations individuelles peuvent également être causées par une susceptibilité génétique aux agents environnementaux.
Il est essentiel d'obtenir un groupe témoin concurrent qui corresponde aussi étroitement que possible sur des facteurs internes tels que le sexe et l'âge ainsi que sur des facteurs tels que le statut tabagique, les infections virales et les vaccinations, la consommation d'alcool et de drogues et l'exposition aux rayons X. . De plus, il est nécessaire d'obtenir des estimations qualitatives (catégorie d'emploi, années d'exposition) et quantitatives (p. ex., échantillons d'air de la zone respiratoire pour analyse chimique et métabolites spécifiques, si possible) ou de l'exposition au(x) agent(s) génotoxique(s) putatif(s) sur le lieu de travail. Une attention particulière doit être accordée au traitement statistique approprié des résultats.
Pertinence de la biosurveillance génétique pour l'évaluation du risque de cancer
Le nombre d'agents dont il a été démontré à plusieurs reprises qu'ils induisent des modifications cytogénétiques chez l'homme est encore relativement limité, mais la plupart des agents cancérigènes connus induisent des dommages dans les chromosomes des lymphocytes.
L'étendue des dommages est fonction du niveau d'exposition, comme il a été démontré que c'est le cas, par exemple, avec le chlorure de vinyle, le benzène, l'oxyde d'éthylène et les agents anticancéreux alkylants. Même si les critères d'évaluation cytogénétiques sont peu sensibles ou spécifiques quant à la détection des expositions survenant dans les milieux professionnels actuels, les résultats positifs de tels tests ont souvent conduit à mettre en place des contrôles d'hygiène même en l'absence de preuves directes d'atteintes chromosomiques somatiques à effets néfastes sur la santé.
La plupart des expériences d'application de la biosurveillance cytogénétique proviennent de situations professionnelles «à forte exposition». Très peu d'expositions ont été confirmées par plusieurs études indépendantes, et la plupart d'entre elles ont été réalisées à l'aide de la biosurveillance des aberrations chromosomiques. La base de données du Centre international de recherche sur le cancer répertorie dans ses volumes mis à jour 43 à 50 des monographies du CIRC un total de 14 cancérogènes professionnels des groupes 1, 2A ou 2B, pour lesquels il existe des données cytogénétiques humaines positives disponibles qui sont dans la plupart des cas soutenu par la cytogénétique animale correspondante (tableau 3). Cette base de données limitée suggère que les produits chimiques cancérigènes ont tendance à être clastogènes et que la clastogénicité a tendance à être associée à des cancérogènes humains connus. De toute évidence, cependant, tous les agents cancérigènes n'induisent pas de dommages cytogénétiques chez l'homme ou les animaux de laboratoire. in vivo. Les cas dans lesquels les données animales sont positives et les résultats humains négatifs peuvent représenter des différences dans les niveaux d'exposition. De plus, les expositions humaines complexes et à long terme au travail peuvent ne pas être comparables à des expérimentations animales à court terme.
Tableau 3. Agents cancérogènes avérés, probables et possibles pour l'homme pour lesquels il existe une exposition professionnelle et pour lesquels des paramètres cytogénétiques ont été mesurés chez l'homme et les animaux de laboratoire
Résultats cytogéniques1 |
||||||
Les êtres humains |
Animaux |
|||||
Agent/exposition |
CA |
SCE |
MN |
CA |
SCE |
MN |
GROUPE 1, Cancérogènes humains |
||||||
Arsenic et composés d'arsenic |
? |
? |
|
+ |
|
+ |
Amiante |
|
? |
|
- |
|
- |
Benzène |
+ |
|
|
+ |
+ |
+ |
Bis(chlorométhyl)éther et chlorométhylméthyléther (qualité technique) |
(+) |
|
|
- |
|
|
Cyclophosphamide |
+ |
+ |
|
+ |
+ |
+ |
Composés de chrome hexavalent |
+ |
+ |
|
+ |
+ |
+ |
Melphalan |
+ |
+ |
|
+ |
|
|
Composés de nickel |
+ |
- |
|
? |
|
|
Radon |
+ |
|
|
- |
|
|
Fumée de tabac |
+ |
+ |
+ |
|
+ |
|
Chlorure de vinyle |
+ |
? |
|
+ |
+ |
+ |
GROUPE 2A, Cancérogènes humains probables |
||||||
Acrylonitrile |
- |
|
|
- |
|
- |
Adriamycine |
+ |
+ |
|
+ |
+ |
+ |
Cadmium et composés de cadmium |
- |
(-) |
|
- |
|
|
Cisplatine |
|
+ |
|
+ |
+ |
|
Épichlorhydrine |
+ |
|
|
? |
+ |
- |
Dibromure d'éthylène |
- |
- |
|
- |
+ |
- |
Oxyde d'éthylène |
+ |
+ |
+ |
+ |
+ |
+ |
Formaldéhyde |
? |
? |
|
- |
|
- |
GROUPE 2B, cancérigènes humains possibles |
||||||
Herbicides chlorophénoxy (2,4-D et 2,4,5-T) |
- |
- |
|
+ |
+ |
- |
DDT |
? |
|
|
+ |
|
- |
Diméthylformamide |
(+) |
|
|
|
- |
- |
Composés de plomb |
? |
? |
|
? |
- |
? |
Styrène |
+ |
? |
+ |
? |
+ |
+ |
2,3,7,8-tétrachlorodibenzo-para-dioxine |
? |
|
|
- |
- |
- |
Émanations de soudure |
+ |
+ |
|
- |
- |
|
1 CA, aberration chromosomique ; SCE, échange de chromatides sœurs ; MN, micronoyaux.
(–) = relation négative pour une étude ; – = relation négative ;
(+) = relation positive pour une étude ; + = relation positive ;
? = non concluant ; zone vide = non étudié
Source : CIRC, 1987 ; mis à jour dans les volumes 43 à 50 des monographies du CIRC.
Les études de génotoxicité chez les humains exposés comprennent divers paramètres autres que les paramètres chromosomiques, tels que les dommages à l'ADN, l'activité de réparation de l'ADN et les adduits dans l'ADN et dans les protéines. Certains de ces paramètres peuvent être plus pertinents que d'autres pour la prédiction du risque cancérogène. Les changements génétiques stables (par exemple, les réarrangements chromosomiques, les délétions et les mutations ponctuelles) sont très pertinents, car ces types de dommages sont connus pour être liés à la cancérogenèse. L'importance des adduits à l'ADN dépend de leur identification chimique et de la preuve qu'ils résultent de l'exposition. Certains paramètres, tels que SCE, UDS, SSB, rupture de brin d'ADN, sont des indicateurs et/ou des marqueurs potentiels d'événements génétiques ; cependant, leur valeur est réduite en l'absence d'une compréhension mécaniste de leur capacité à conduire à des événements génétiques. De toute évidence, le marqueur génétique le plus pertinent chez l'homme serait l'induction d'une mutation spécifique qui a été directement associée au cancer chez les rongeurs exposés à l'agent à l'étude (figure 5).
Figure 5. Pertinence des différents effets de la biosurveillance génétique pour le risque potentiel de cancer
Considérations éthiques pour la biosurveillance génétique
Les progrès rapides des techniques de génétique moléculaire, la vitesse accrue de séquençage du génome humain et l'identification du rôle des gènes suppresseurs de tumeurs et des proto-oncogènes dans la carcinogenèse humaine, soulèvent des questions éthiques dans l'interprétation, la communication et l'utilisation de ce type de informations personnelles. L'amélioration rapide des techniques d'analyse des gènes humains permettra bientôt l'identification d'encore plus de gènes de susceptibilité héréditaires chez des individus sains et asymptomatiques (US Office of Technology Assessment 1990), se prêtant à être utilisés dans le dépistage génétique.
De nombreuses questions d'ordre social et éthique se poseront si l'application du dépistage génétique devient bientôt une réalité. Déjà à l'heure actuelle, environ 50 traits génétiques du métabolisme, des polymorphismes enzymatiques et de la réparation de l'ADN sont suspectés pour des sensibilités spécifiques à des maladies, et un test ADN de diagnostic est disponible pour environ 300 maladies génétiques. Doit-on effectuer un quelconque dépistage génétique sur le lieu de travail ? Qui doit décider qui subira le test et comment l'information sera-t-elle utilisée dans les décisions d'embauche ? Qui aura accès aux informations issues du dépistage génétique et comment les résultats seront-ils communiqués aux personnes concernées ? Bon nombre de ces questions sont fortement liées aux normes sociales et aux valeurs éthiques dominantes. L'objectif principal doit être la prévention de la maladie et de la souffrance humaine, mais le respect doit être accordé à la volonté propre et aux prémisses éthiques de l'individu. Certaines des questions éthiques pertinentes auxquelles il faut répondre bien avant le début de toute étude de biosurveillance en milieu de travail sont présentées dans le tableau 4 et sont également abordées dans le chapitre Questions éthiques.
Tableau 4. Quelques principes éthiques relatifs au besoin de savoir dans les études de biosurveillance génétique professionnelle
Groupes à qui l'information est donnée |
|||
Informations données |
Personnes étudiées |
Unité de santé au travail |
Employeur |
Ce qui est étudié |
|||
Pourquoi l'étude est-elle réalisée |
|||
Y a-t-il des risques encourus |
|||
Problèmes de confidentialité |
|||
Préparation à d'éventuelles améliorations hygiéniques, réductions d'exposition indiquées |
Du temps et des efforts doivent être consacrés à la phase de planification de toute étude de biosurveillance génétique, et toutes les parties nécessaires - les employés, les employeurs et le personnel médical du lieu de travail collaborateur - doivent être bien informées avant l'étude, et les résultats communiqués à eux aussi après l'étude. Avec des soins appropriés et des résultats fiables, la biosurveillance génétique peut aider à garantir des lieux de travail plus sûrs et à améliorer la santé des travailleurs.
Il est reconnu depuis longtemps que la réaction de chaque personne aux produits chimiques environnementaux est différente. L'explosion récente de la biologie moléculaire et de la génétique a permis de mieux comprendre les bases moléculaires d'une telle variabilité. Les principaux déterminants de la réponse individuelle aux produits chimiques comprennent des différences importantes entre plus d'une douzaine de superfamilles d'enzymes, appelées collectivement xénobiotique- (étranger au corps) ou métabolisant les médicaments enzymes. Bien que le rôle de ces enzymes ait été classiquement considéré comme une détoxification, ces mêmes enzymes convertissent également un certain nombre de composés inertes en intermédiaires hautement toxiques. Récemment, de nombreuses différences aussi bien subtiles que grossières dans les gènes codant pour ces enzymes ont été identifiées, lesquelles se sont avérées entraîner des variations marquées de l'activité enzymatique. Il est maintenant clair que chaque individu possède un complément distinct d'activités enzymatiques métabolisant les xénobiotiques ; cette diversité pourrait être considérée comme une « empreinte métabolique ». C'est l'interaction complexe de ces nombreuses superfamilles d'enzymes différentes qui détermine en fin de compte non seulement le devenir et le potentiel de toxicité d'un produit chimique chez un individu donné, mais également l'évaluation de l'exposition. Dans cet article, nous avons choisi d'utiliser la superfamille des enzymes du cytochrome P450 pour illustrer les progrès remarquables réalisés dans la compréhension de la réponse individuelle aux produits chimiques. Le développement de tests basés sur l'ADN relativement simples conçus pour identifier des altérations génétiques spécifiques dans ces enzymes fournit désormais des prédictions plus précises de la réponse individuelle à l'exposition chimique. Nous espérons que le résultat sera une toxicologie préventive. En d'autres termes, chaque individu pourrait en apprendre davantage sur les produits chimiques auxquels il est particulièrement sensible, évitant ainsi une toxicité ou un cancer auparavant imprévisible.
Bien que cela ne soit généralement pas apprécié, les êtres humains sont exposés quotidiennement à un barrage d'innombrables produits chimiques divers. Bon nombre de ces produits chimiques sont hautement toxiques et proviennent d'une grande variété de sources environnementales et alimentaires. La relation entre ces expositions et la santé humaine a été, et continue d'être, un objectif majeur des efforts de recherche biomédicale dans le monde entier.
Quels sont quelques exemples de ce bombardement chimique ? Plus de 400 substances chimiques du vin rouge ont été isolées et caractérisées. On estime qu'au moins 1,000 75,000 produits chimiques sont produits par une cigarette allumée. Il existe d'innombrables produits chimiques dans les cosmétiques et les savons parfumés. L'agriculture est une autre source majeure d'exposition aux produits chimiques : rien qu'aux États-Unis, les terres agricoles reçoivent chaque année plus de XNUMX XNUMX produits chimiques sous forme de pesticides, d'herbicides et d'agents fertilisants ; après absorption par les plantes et les animaux au pâturage, ainsi que par les poissons dans les cours d'eau à proximité, les humains (à la fin de la chaîne alimentaire) ingèrent ces produits chimiques. Deux autres sources de fortes concentrations de produits chimiques absorbés par le corps comprennent (a) les médicaments pris de manière chronique et (b) l'exposition à des substances dangereuses sur le lieu de travail au cours d'une vie d'emploi.
Il est désormais bien établi que l'exposition aux produits chimiques peut avoir des effets néfastes sur de nombreux aspects de la santé humaine, provoquant des maladies chroniques et le développement de nombreux cancers. Au cours de la dernière décennie, la base moléculaire de bon nombre de ces relations a commencé à être dévoilée. De plus, la prise de conscience a émergé que les humains diffèrent nettement dans leur susceptibilité aux effets nocifs de l'exposition chimique.
Les efforts actuels pour prédire la réponse humaine à l'exposition chimique combinent deux approches fondamentales (figure 1) : surveiller l'étendue de l'exposition humaine à l'aide de marqueurs biologiques (biomarqueurs) et prédire la réponse probable d'un individu à un niveau d'exposition donné. Bien que ces deux approches soient extrêmement importantes, il convient de souligner qu'elles sont très différentes l'une de l'autre. Cet article portera sur la les facteurs génétiques susceptibilité individuelle sous-jacente à une exposition chimique particulière. Ce domaine de recherche est généralement appelé écogénétiqueou pharmacogénétique (voir Kalow 1962 et 1992). Bon nombre des progrès récents dans la détermination de la susceptibilité individuelle à la toxicité chimique ont évolué à partir d'une meilleure appréciation des processus par lesquels les humains et les autres mammifères détoxifient les produits chimiques et de la complexité remarquable des systèmes enzymatiques impliqués.
Figure 1. Interrelations entre l'évaluation de l'exposition, les différences ethniques, l'âge, le régime alimentaire, la nutrition et l'évaluation de la susceptibilité génétique - qui jouent tous un rôle dans le risque individuel de toxicité et de cancer
Nous décrirons d'abord la variabilité des réponses toxiques chez l'homme. Nous présenterons ensuite certaines des enzymes responsables d'une telle variation de réponse, due à des différences dans le métabolisme des produits chimiques étrangers. Ensuite, l'histoire et la nomenclature de la superfamille du cytochrome P450 seront détaillées. Cinq polymorphismes P450 humains ainsi que plusieurs polymorphismes non-P450 seront brièvement décrits ; ceux-ci sont responsables des différences humaines dans la réponse toxique. Nous discuterons ensuite d'un exemple pour souligner le fait que les différences génétiques chez les individus peuvent influencer l'évaluation de l'exposition, telle que déterminée par la surveillance environnementale. Enfin, nous discuterons du rôle de ces enzymes métabolisant les xénobiotiques dans les fonctions vitales critiques.
Variation de la réponse toxique parmi la population humaine
Les toxicologues et les pharmacologues parlent couramment de la dose létale moyenne pour 50 % de la population (LD50), la dose maximale moyenne tolérée pour 50 % de la population (MTD50), et la dose efficace moyenne d'un médicament particulier pour 50 % de la population (ED50). Cependant, comment ces doses affectent-elles chacun de nous sur une base individuelle ? En d'autres termes, un individu hautement sensible peut être 500 fois plus affecté ou 500 fois plus susceptible d'être affecté que l'individu le plus résistant d'une population ; pour ces personnes, le LD50 (et MDT50 et DE50) les valeurs auraient peu de sens. LD50, MDT50 et DE50 les valeurs ne sont pertinentes que lorsqu'elles se réfèrent à la population dans son ensemble.
Figure 2 illustre une relation dose-réponse hypothétique pour une réponse toxique par des individus dans une population donnée. Ce diagramme générique pourrait représenter le carcinome bronchique en réponse au nombre de cigarettes fumées, la chloracné en fonction des niveaux de dioxine sur le lieu de travail, l'asthme en fonction des concentrations d'ozone ou d'aldéhyde dans l'air, les coups de soleil en réponse à la lumière ultraviolette, la diminution du temps de coagulation en tant que une fonction de la prise d'aspirine, ou une détresse gastro-intestinale en réponse au nombre de jalapeno piments consommés. Généralement, dans chacun de ces cas, plus l'exposition est importante, plus la réponse toxique est importante. La plupart de la population présentera la moyenne et l'écart type de la réponse toxique en fonction de la dose. La « valeur aberrante résistante » (en bas à droite sur la figure 2) est un individu ayant moins de réponse à des doses ou des expositions plus élevées. Une « valeur aberrante sensible » (en haut à gauche) est un individu ayant une réponse exagérée à une dose ou une exposition relativement faible. Ces valeurs aberrantes, avec des différences extrêmes de réponse par rapport à la majorité des individus de la population, peuvent représenter des variantes génétiques importantes qui peuvent aider les scientifiques à tenter de comprendre les mécanismes moléculaires sous-jacents d'une réponse toxique.
Figure 2. Relation générique entre toute réponse toxique et la dose de tout agent environnemental, chimique ou physique
En utilisant ces valeurs aberrantes dans les études familiales, les scientifiques d'un certain nombre de laboratoires ont commencé à apprécier l'importance de l'hérédité mendélienne pour une réponse toxique donnée. Par la suite, on peut alors se tourner vers la biologie moléculaire et les études génétiques pour identifier le mécanisme sous-jacent au niveau du gène (génotype) responsable de la maladie causée par l'environnement (phénotype).
Enzymes xénobiotiques ou métabolisant les médicaments
Comment le corps réagit-il à la myriade de produits chimiques exogènes auxquels nous sommes exposés ? Les humains et d'autres mammifères ont développé des systèmes enzymatiques métaboliques très complexes comprenant plus d'une douzaine de superfamilles distinctes d'enzymes. Presque tous les produits chimiques auxquels les humains sont exposés seront modifiés par ces enzymes, afin de faciliter l'élimination de la substance étrangère du corps. Collectivement, ces enzymes sont fréquemment appelées enzymes métabolisant les médicaments or enzymes métabolisant les xénobiotiques. En fait, les deux termes sont des abus de langage. Premièrement, bon nombre de ces enzymes métabolisent non seulement des médicaments, mais aussi des centaines de milliers de produits chimiques environnementaux et alimentaires. Deuxièmement, toutes ces enzymes ont également des composés corporels normaux comme substrats ; aucune de ces enzymes ne métabolise uniquement les produits chimiques étrangers.
Depuis plus de quatre décennies, les processus métaboliques médiés par ces enzymes ont généralement été classés en réactions de phase I ou de phase II (figure 3). Les réactions de phase I («fonctionnalisation») impliquent généralement des modifications structurelles relativement mineures de la substance chimique mère par oxydation, réduction ou hydrolyse afin de produire un métabolite plus soluble dans l'eau. Fréquemment, les réactions de phase I fournissent une "manipulation" pour une modification supplémentaire d'un composé par des réactions de phase II ultérieures. Les réactions de phase I sont principalement médiées par une superfamille d'enzymes très polyvalentes, collectivement appelées cytochromes P450, bien que d'autres superfamilles d'enzymes puissent également être impliquées (figure 4).
Figure 3. Désignation classique des enzymes xénobiotiques ou métabolisant les médicaments de phase I et de phase II
Figure 4. Exemples d'enzymes métabolisant les médicaments
Les réactions de phase II impliquent le couplage d'une molécule endogène soluble dans l'eau à un produit chimique (produit chimique parent ou métabolite de phase I) afin de faciliter l'excrétion. Les réactions de phase II sont fréquemment appelées réactions de « conjugaison » ou de « dérivatisation ». Les superfamilles d'enzymes catalysant les réactions de phase II sont généralement nommées en fonction de la fraction de conjugaison endogène impliquée : par exemple, l'acétylation par les N-acétyltransférases, la sulfatation par les sulfotransférases, la conjugaison du glutathion par les glutathion transférases et la glucuronidation par les UDP glucuronosyltransférases (figure 4). . Bien que le foie soit le principal organe du métabolisme des médicaments, les niveaux de certaines enzymes métabolisant les médicaments sont assez élevés dans le tractus gastro-intestinal, les gonades, les poumons, le cerveau et les reins, et ces enzymes sont sans aucun doute présentes dans une certaine mesure dans chaque cellule vivante.
Les enzymes métabolisant les xénobiotiques représentent un double tranchant Swords
Au fur et à mesure que nous en apprenons davantage sur les processus biologiques et chimiques conduisant à des aberrations pour la santé humaine, il est devenu de plus en plus évident que les enzymes métabolisant les médicaments fonctionnent de manière ambivalente (figure 3). Dans la majorité des cas, les produits chimiques liposolubles sont convertis en métabolites hydrosolubles plus facilement excrétés. Cependant, il est clair qu'en de nombreuses occasions, les mêmes enzymes sont capables de transformer d'autres produits chimiques inertes en molécules hautement réactives. Ces intermédiaires peuvent alors interagir avec des macromolécules cellulaires telles que les protéines et l'ADN. Ainsi, pour chaque produit chimique auquel les humains sont exposés, il existe un potentiel pour les voies concurrentes de activation métabolique et désintoxication.
Bref examen de la génétique
En génétique humaine, chaque gène (lieu) est situé sur l'une des 23 paires de chromosomes. Les deux allèles (un présent sur chaque chromosome de la paire) peuvent être identiques ou différents les uns des autres. Par exemple, le B et b allèles, dans lesquels B (yeux marrons) est dominant sur b (yeux bleus) : les individus de phénotype yeux bruns peuvent avoir soit BB or Bb génotypes, alors que les individus de phénotype aux yeux bleus ne peuvent avoir que bb génotype.
A polymorphisme est défini comme deux ou plusieurs phénotypes (traits) hérités de manière stable - dérivés du ou des mêmes gènes - qui sont maintenus dans la population, souvent pour des raisons pas nécessairement évidentes. Pour qu'un gène soit polymorphe, le produit du gène ne doit pas être essentiel au développement, à la vigueur reproductive ou à d'autres processus vitaux critiques. En fait, un « polymorphisme équilibré », dans lequel l'hétérozygote a un avantage de survie distinct sur l'un ou l'autre des homozygotes (par exemple, la résistance au paludisme et l'allèle drépanocytaire de l'hémoglobine) est une explication courante du maintien d'un allèle dans la population à un niveau élevé autrement inexpliqué. fréquences (voir Gonzalez et Nebert 1990).
Polymorphismes humains des enzymes métabolisant les xénobiotiques
Les différences génétiques dans le métabolisme de divers médicaments et produits chimiques environnementaux sont connues depuis plus de quatre décennies (Kalow 1962 et 1992). Ces différences sont fréquemment appelées pharmacogénétique ou, plus largement, polymorphismes écogénétiques. Ces polymorphismes représentent des allèles variants qui se produisent à une fréquence relativement élevée dans la population et sont généralement associés à des aberrations dans l'expression ou la fonction enzymatique. Historiquement, les polymorphismes étaient généralement identifiés suite à des réponses inattendues à des agents thérapeutiques. Plus récemment, la technologie de l'ADN recombinant a permis aux scientifiques d'identifier les altérations précises des gènes responsables de certains de ces polymorphismes. Les polymorphismes ont maintenant été caractérisés dans de nombreuses enzymes métabolisant les médicaments, y compris les enzymes de phase I et de phase II. Au fur et à mesure que de plus en plus de polymorphismes sont identifiés, il devient de plus en plus évident que chaque individu peut posséder un complément distinct d'enzymes métabolisant les médicaments. Cette diversité pourrait être qualifiée d'« empreinte métabolique ». C'est l'interaction complexe des diverses superfamilles d'enzymes métabolisant les médicaments au sein d'un individu qui déterminera finalement sa réponse particulière à un produit chimique donné (Kalow 1962 et 1992 ; Nebert 1988 ; Gonzalez et Nebert 1990 ; Nebert et Weber 1990).
Expression d'enzymes métabolisant les xénobiotiques humains dans la cellule Votre culture
Comment pourrions-nous développer de meilleurs prédicteurs des réponses toxiques humaines aux produits chimiques ? Les progrès dans la définition de la multiplicité des enzymes métabolisant les médicaments doivent s'accompagner d'une connaissance précise des enzymes qui déterminent le devenir métabolique des produits chimiques individuels. Les données recueillies dans les études de laboratoire sur les rongeurs ont certainement fourni des informations utiles. Cependant, des différences interspécifiques significatives dans les enzymes métabolisant les xénobiotiques nécessitent la prudence dans l'extrapolation des données aux populations humaines. Pour surmonter cette difficulté, de nombreux laboratoires ont développé des systèmes dans lesquels diverses lignées cellulaires en culture peuvent être modifiées pour produire des enzymes humaines fonctionnelles stables et à des concentrations élevées (Gonzalez, Crespi et Gelboin 1991). La production réussie d'enzymes humaines a été obtenue dans une variété de lignées cellulaires diverses provenant de sources comprenant des bactéries, des levures, des insectes et des mammifères.
Afin de définir encore plus précisément le métabolisme des substances chimiques, plusieurs enzymes ont également été produites avec succès dans une seule lignée cellulaire (Gonzalez, Crespi et Gelboin 1991). De telles lignées cellulaires fournissent des informations précieuses sur les enzymes précises impliquées dans le traitement métabolique d'un composé donné et de métabolites potentiellement toxiques. Si ces informations peuvent ensuite être combinées avec des connaissances concernant la présence et le niveau d'une enzyme dans les tissus humains, ces données devraient fournir des prédicteurs précieux de la réponse.
Cytochrome P450
Histoire et nomenclature
La superfamille du cytochrome P450 est l'une des superfamilles d'enzymes métabolisant les médicaments les plus étudiées, présentant une grande variabilité individuelle en réponse aux produits chimiques. Le cytochrome P450 est un terme générique pratique utilisé pour décrire une grande superfamille d'enzymes essentielles dans le métabolisme d'innombrables substrats endogènes et exogènes. Le terme cytochrome P450 a été inventé en 1962 pour décrire un inconnu pigment dans des cellules qui, lorsqu'elles sont réduites et liées avec du monoxyde de carbone, produisent un pic d'absorption caractéristique à 450 nm. Depuis le début des années 1980, la technologie de clonage d'ADNc a permis d'obtenir des informations remarquables sur la multiplicité des enzymes du cytochrome P450. À ce jour, plus de 400 gènes distincts du cytochrome P450 ont été identifiés chez les animaux, les plantes, les bactéries et les levures. Il a été estimé que n'importe quelle espèce de mammifère, comme les humains, peut posséder 60 gènes P450 distincts ou plus (Nebert et Nelson 1991). La multiplicité des gènes P450 a nécessité le développement d'un système de nomenclature standardisé (Nebert et al. 1987 ; Nelson et al. 1993). Proposé pour la première fois en 1987 et mis à jour sur une base semestrielle, le système de nomenclature est basé sur l'évolution divergente des comparaisons de séquences d'acides aminés entre les protéines P450. Les gènes P450 sont divisés en familles et sous-familles : les enzymes d'une famille présentent une similitude d'acides aminés supérieure à 40 %, et celles de la même sous-famille présentent une similitude de 55 %. Les gènes P450 sont nommés avec le symbole racine CYP suivi d'un chiffre arabe désignant la famille P450, d'une lettre désignant la sous-famille et d'un autre chiffre arabe désignant le gène individuel (Nelson et al. 1993; Nebert et al. 1991). Ainsi, CYP1A1 représente le gène P450 1 dans la famille 1 et la sous-famille A.
En février 1995, il y avait 403 CYP gènes dans la base de données, composée de 59 familles et 105 sous-familles. Celles-ci comprennent huit familles d'eucaryotes inférieurs, 15 familles de plantes et 19 familles de bactéries. Les 15 familles de gènes P450 humains comprennent 26 sous-familles, dont 22 ont été cartographiées à des emplacements chromosomiques dans la majeure partie du génome. Certaines séquences sont clairement orthologues dans de nombreuses espèces, par exemple, une seule CYP17 (stéroïde 17α-hydroxylase) a été trouvé chez tous les vertébrés examinés à ce jour ; d'autres séquences au sein d'une sous-famille sont fortement dupliquées, ce qui rend impossible l'identification de paires orthologues (par exemple, le CYP2C sous-famille). Fait intéressant, l'homme et la levure partagent un gène orthologue dans le CYP51 famille. De nombreuses revues complètes sont disponibles pour les lecteurs à la recherche d'informations complémentaires sur la superfamille P450 (Nelson et al. 1993 ; Nebert et al. 1991 ; Nebert et McKinnon 1994 ; Guengerich 1993 ; Gonzalez 1992).
Le succès du système de nomenclature P450 a entraîné le développement de systèmes terminologiques similaires pour les glucuronosyltransférases UDP (Burchell et al. 1991) et les mono-oxygénases contenant de la flavine (Lawton et al. 1994). Des systèmes de nomenclature similaires basés sur une évolution divergente sont également en cours de développement pour plusieurs autres superfamilles d'enzymes métabolisant les médicaments (par exemple, les sulfotransférases, les époxydes hydrolases et les aldéhydes déshydrogénases).
Récemment, nous avons divisé la superfamille des gènes P450 des mammifères en trois groupes (Nebert et McKinnon 1994) - ceux impliqués principalement dans le métabolisme chimique étranger, ceux impliqués dans la synthèse de diverses hormones stéroïdes et ceux participant à d'autres fonctions endogènes importantes. Ce sont les enzymes P450 métabolisant les xénobiotiques qui revêtent le plus d'importance pour la prédiction de la toxicité.
Enzymes P450 métabolisant les xénobiotiques
Les enzymes P450 impliquées dans le métabolisme des composés étrangers et des médicaments se trouvent presque toujours au sein des familles CYP1, CYP2, CYP3 et CYP4. Ces enzymes P450 catalysent une grande variété de réactions métaboliques, avec un seul P450 souvent capable de métaboliser de nombreux composés différents. De plus, plusieurs enzymes P450 peuvent métaboliser un seul composé à différents sites. En outre, un composé peut être métabolisé au même site unique par plusieurs P450, bien qu'à des vitesses variables.
Une propriété très importante des enzymes P450 métabolisant les médicaments est que nombre de ces gènes sont inductibles par les substances mêmes qui leur servent de substrats. D'autre part, d'autres gènes P450 sont induits par des non-substrats. Ce phénomène d'induction enzymatique est à la base de nombreuses interactions médicamenteuses d'importance thérapeutique.
Bien que présentes dans de nombreux tissus, ces enzymes P450 particulières se trouvent à des niveaux relativement élevés dans le foie, site principal du métabolisme des médicaments. Certaines des enzymes P450 métabolisant les xénobiotiques présentent une activité vis-à-vis de certains substrats endogènes (par exemple, l'acide arachidonique). Cependant, on pense généralement que la plupart de ces enzymes P450 métabolisant les xénobiotiques ne jouent pas de rôle physiologique important, bien que cela n'ait pas encore été établi expérimentalement. La perturbation homozygote sélective, ou "knock-out", des gènes P450 métabolisant les xénobiotiques individuels au moyen de méthodologies de ciblage génique chez la souris est susceptible de fournir bientôt des informations sans équivoque en ce qui concerne les rôles physiologiques des P450 métabolisant les xénobiotiques (pour une revue de ciblage génétique, voir Capecchi 1994).
Contrairement aux familles P450 codant pour les enzymes impliquées principalement dans les processus physiologiques, les familles codant pour les enzymes P450 métabolisant les xénobiotiques présentent une spécificité d'espèce marquée et contiennent fréquemment de nombreux gènes actifs par sous-famille (Nelson et al. 1993 ; Nebert et al. 1991). Compte tenu du manque apparent de substrats physiologiques, il est possible que les enzymes P450 des familles CYP1, CYP2, CYP3 et CYP4 qui sont apparus au cours des dernières centaines de millions d'années ont évolué comme un moyen de détoxification des produits chimiques étrangers rencontrés dans l'environnement et l'alimentation. De toute évidence, l'évolution des P450 métabolisant les xénobiotiques se serait produite sur une période qui précède de loin la synthèse de la plupart des produits chimiques synthétiques auxquels les humains sont maintenant exposés. Les gènes de ces quatre familles de gènes peuvent avoir évolué et divergé chez les animaux en raison de leur exposition aux métabolites des plantes au cours des 1.2 dernier milliard d'années - un processus appelé de manière descriptive « guerre animal-plante » (Gonzalez et Nebert 1990). La guerre animal-plante est le phénomène dans lequel les plantes ont développé de nouveaux produits chimiques (phytoalexines) comme mécanisme de défense afin d'empêcher l'ingestion par les animaux, et les animaux, à leur tour, ont répondu en développant de nouveaux gènes P450 pour s'adapter aux substrats diversifiés. Les exemples récemment décrits de guerre chimique plantes-insectes et plantes-champignons impliquant la détoxification P450 de substrats toxiques donnent un nouvel élan à cette proposition (Nebert 1994).
Ce qui suit est une brève introduction à plusieurs des polymorphismes de l'enzyme humaine P450 métabolisant les xénobiotiques dans lesquels on pense que les déterminants génétiques de la réponse toxique sont d'une grande importance. Jusqu'à récemment, les polymorphismes P450 étaient généralement suggérés par une variation inattendue de la réponse du patient aux agents thérapeutiques administrés. Plusieurs polymorphismes P450 sont en effet nommés en fonction du médicament avec lequel le polymorphisme a été identifié pour la première fois. Plus récemment, les efforts de recherche se sont concentrés sur l'identification des enzymes P450 précises impliquées dans le métabolisme des produits chimiques pour lesquels une variance est observée et la caractérisation précise des gènes P450 impliqués. Comme décrit précédemment, l'activité mesurable d'une enzyme P450 vis-à-vis d'un produit chimique modèle peut être appelée le phénotype. Les différences alléliques dans un gène P450 pour chaque individu sont appelées le génotype P450. Au fur et à mesure que l'analyse des gènes P450 est de plus en plus minutieuse, la base moléculaire précise de la variance phénotypique précédemment documentée devient plus claire.
La sous-famille CYP1A
La CYP1A La sous-famille comprend deux enzymes chez l'homme et tous les autres mammifères : celles-ci sont désignées CYP1A1 et CYP1A2 sous la nomenclature standard P450. Ces enzymes présentent un intérêt considérable, car elles sont impliquées dans l'activation métabolique de nombreux procarcinogènes et sont également induites par plusieurs composés d'intérêt toxicologique, dont la dioxine. Par exemple, le CYP1A1 active métaboliquement de nombreux composés présents dans la fumée de cigarette. Le CYP1A2 active métaboliquement de nombreuses arylamines, associées au cancer de la vessie, trouvées dans l'industrie des colorants chimiques. Le CYP1A2 active également métaboliquement la 4-(méthylnitrosamino)-1-(3-pyridyl)-1-butanone (NNK), une nitrosamine dérivée du tabac. CYP1A1 et CYP1A2 se trouvent également à des niveaux plus élevés dans les poumons des fumeurs de cigarettes, en raison de l'induction par les hydrocarbures polycycliques présents dans la fumée. Les niveaux d'activité du CYP1A1 et du CYP1A2 sont donc considérés comme des déterminants importants de la réponse individuelle à de nombreux produits chimiques potentiellement toxiques.
Intérêt toxicologique de la CYP1A sous-famille a été considérablement intensifiée par un rapport de 1973 établissant une corrélation entre le niveau d'inductibilité du CYP1A1 chez les fumeurs de cigarettes et la susceptibilité individuelle au cancer du poumon (Kellermann, Shaw et Luyten-Kellermann 1973). La base moléculaire de l'induction du CYP1A1 et du CYP1A2 a été au centre des préoccupations de nombreux laboratoires. Le processus d'induction est médié par une protéine appelée récepteur Ah à laquelle se lient les dioxines et les produits chimiques structurellement apparentés. Le nom Ah est dérivé de la aryl hnature hydrocarbonée de nombreux inducteurs du CYP1A. Fait intéressant, les différences dans le gène codant pour le récepteur Ah entre les souches de souris entraînent des différences marquées dans la réponse chimique et la toxicité. Un polymorphisme du gène du récepteur Ah semble également se produire chez l'homme : environ un dixième de la population présente une induction élevée du CYP1A1 et peut être plus à risque que les autres neuf dixièmes de la population de développer certains cancers induits chimiquement. Le rôle du récepteur Ah dans le contrôle des enzymes dans le CYP1A sous-famille, et son rôle en tant que déterminant de la réponse humaine à l'exposition chimique, a fait l'objet de plusieurs études récentes (Nebert, Petersen et Puga 1991; Nebert, Puga et Vasiliou 1993).
Existe-t-il d'autres polymorphismes qui pourraient contrôler le niveau de protéines CYP1A dans une cellule ? Un polymorphisme dans CYP1A1 a également été identifié, ce qui semble influencer le risque de cancer du poumon chez les fumeurs de cigarettes japonais, bien que ce même polymorphisme ne semble pas influencer le risque dans d'autres groupes ethniques (Nebert et McKinnon 1994).
CYP2C19
Les variations de la vitesse à laquelle les individus métabolisent le médicament anticonvulsivant (S)-méphénytoïne sont bien documentées depuis de nombreuses années (Guengerich 1989). Entre 2% et 5% des Caucasiens et jusqu'à 25% des Asiatiques sont déficients dans cette activité et peuvent être plus à risque de toxicité du médicament. On sait depuis longtemps que ce défaut enzymatique implique un membre de l'humain CYP2C sous-famille, mais la base moléculaire précise de cette déficience a fait l'objet d'une controverse considérable. La principale raison de cette difficulté était les six gènes ou plus dans le corps humain. CYP2C sous-famille. Cependant, il a été récemment démontré qu'une mutation à base unique dans le CYP2C19 est la principale cause de cette déficience (Goldstein et de Morais 1994). Un test ADN simple, basé sur la réaction en chaîne par polymérase (PCR), a également été développé pour identifier rapidement cette mutation dans les populations humaines (Goldstein et de Morais 1994).
CYP2D6
La variation la plus largement caractérisée dans un gène P450 est peut-être celle impliquant le CYP2D6 gène. Plus d'une dizaine d'exemples de mutations, réarrangements et délétions affectant ce gène ont été décrits (Meyer 1994). Ce polymorphisme a été suggéré pour la première fois il y a 20 ans par la variabilité clinique de la réponse des patients à l'agent antihypertenseur débrisoquine. Modifications dans le CYP2D6 gène donnant lieu à une activité enzymatique altérée sont donc collectivement appelés le polymorphisme débrisoquine.
Avant l'avènement des études basées sur l'ADN, les individus étaient classés comme métaboliseurs lents ou intensifs (PM, EM) de la débrisoquine sur la base des concentrations de métabolites dans les échantillons d'urine. Il est maintenant clair que les modifications de la CYP2D6 peut entraîner chez les individus non seulement un métabolisme médiocre ou étendu de la débrisoquine, mais également un métabolisme ultrarapide. La plupart des modifications dans le CYP2D6 gène sont associés à une déficience partielle ou totale de la fonction enzymatique ; cependant, des individus de deux familles ont récemment été décrits qui possèdent de multiples copies fonctionnelles du CYP2D6 gène, donnant lieu à un métabolisme ultrarapide des substrats du CYP2D6 (Meyer 1994). Cette observation remarquable fournit de nouvelles informations sur le large spectre d'activité du CYP2D6 précédemment observé dans les études de population. Les altérations de la fonction CYP2D6 revêtent une importance particulière, compte tenu des plus de 30 médicaments couramment prescrits métabolisés par cette enzyme. La fonction CYP2D6 d'un individu est donc un déterminant majeur de la réponse thérapeutique et toxique à la thérapie administrée. En effet, il a récemment été soutenu que la prise en compte du statut CYP2D6 d'un patient est nécessaire pour l'utilisation sûre des médicaments psychiatriques et cardiovasculaires.
Le rôle de l' CYP2D6 le polymorphisme en tant que déterminant de la susceptibilité individuelle aux maladies humaines telles que le cancer du poumon et la maladie de Parkinson a également fait l'objet d'études approfondies (Nebert et McKinnon 1994 ; Meyer 1994). Bien que les conclusions soient difficiles à définir compte tenu de la diversité des protocoles d'étude utilisés, la majorité des études semblent indiquer une association entre les métaboliseurs extensifs de la débrisoquine (phénotype EM) et le cancer du poumon. Les raisons d'une telle association ne sont pas claires pour le moment. Cependant, il a été démontré que l'enzyme CYP2D6 métabolise la NNK, une nitrosamine dérivée du tabac.
À mesure que les tests basés sur l'ADN s'améliorent, permettant une évaluation encore plus précise du statut du CYP2D6, il est prévu que la relation précise entre le CYP2D6 et le risque de maladie soit clarifiée. Alors que le métaboliseur rapide peut être lié à la susceptibilité au cancer du poumon, le métaboliseur lent (phénotype PM) semble être associé à la maladie de Parkinson de cause inconnue. Alors que ces études sont également difficiles à comparer, il semble que les individus PM ayant une capacité réduite à métaboliser les substrats du CYP2D6 (par exemple, la débrisoquine) ont un risque de développer la maladie de Parkinson de 2 à 2.5 fois.
CYP2E1
La CYP2E1 Le gène code une enzyme qui métabolise de nombreux produits chimiques, y compris des médicaments et de nombreux cancérogènes de faible poids moléculaire. Cette enzyme est également intéressante car elle est hautement inductible par l'alcool et peut jouer un rôle dans les lésions hépatiques induites par des produits chimiques tels que le chloroforme, le chlorure de vinyle et le tétrachlorure de carbone. L'enzyme se trouve principalement dans le foie et le niveau d'enzyme varie considérablement d'un individu à l'autre. Un examen minutieux de la CYP2E1 a abouti à l'identification de plusieurs polymorphismes (Nebert et McKinnon 1994). Une relation a été rapportée entre la présence de certaines variations structurelles dans le CYP2E1 réduction génétique et apparente du risque de cancer du poumon dans certaines études ; cependant, il existe des différences interethniques claires qui nécessitent une clarification de cette relation possible.
La sous-famille CYP3A
Chez l'homme, quatre enzymes ont été identifiées comme membres de la CYP3A sous-famille en raison de leur similitude dans la séquence d'acides aminés. Les enzymes CYP3A métabolisent de nombreux médicaments couramment prescrits tels que l'érythromycine et la cyclosporine. L'aflatoxine B, contaminant alimentaire cancérigène1 est également un substrat du CYP3A. Un membre de l'humain CYP3A sous-famille, désignée CYP3A4, est le principal P450 dans le foie humain et est également présent dans le tractus gastro-intestinal. Comme c'est le cas pour de nombreuses autres enzymes P450, le niveau de CYP3A4 est très variable d'un individu à l'autre. Une deuxième enzyme, désignée CYP3A5, se trouve dans seulement environ 25 % des foies ; la base génétique de cette découverte n'a pas été élucidée. L'importance de la variabilité du CYP3A4 ou du CYP3A5 en tant que facteur dans les déterminants génétiques de la réponse toxique n'a pas encore été établie (Nebert et McKinnon, 1994).
Polymorphismes non P450
De nombreux polymorphismes existent également au sein d'autres superfamilles d'enzymes métabolisant les xénobiotiques (par exemple, les glutathion transférases, les UDP glucuronosyltransférases, les para-oxonases, les déshydrogénases, les N-acétyltransférases et les mono-oxygénases contenant de la flavine). Étant donné que la toxicité ultime de tout intermédiaire généré par P450 dépend de l'efficacité des réactions de détoxification de phase II ultérieures, le rôle combiné des polymorphismes enzymatiques multiples est important pour déterminer la sensibilité aux maladies induites chimiquement. L'équilibre métabolique entre les réactions de phase I et de phase II (figure 3) est donc susceptible d'être un facteur majeur dans les maladies humaines d'origine chimique et les déterminants génétiques de la réponse toxique.
Le polymorphisme du gène GSTM1
Un exemple bien étudié d'un polymorphisme dans une enzyme de phase II est celui impliquant un membre de la superfamille des enzymes glutathion S-transférase, désignée GST mu ou GSTM1. Cette enzyme particulière présente un intérêt toxicologique considérable car elle semble être impliquée dans la détoxification ultérieure des métabolites toxiques produits à partir de produits chimiques dans la fumée de cigarette par l'enzyme CYP1A1. Le polymorphisme identifié dans ce gène de la glutathion transférase implique une absence totale d'enzyme fonctionnelle chez jusqu'à la moitié de tous les Caucasiens étudiés. Cette absence d'enzyme de phase II semble être associée à une susceptibilité accrue au cancer du poumon. En regroupant les individus sur la base des deux variantes CYP1A1 gènes et la délétion ou la présence d'un GSTM1 gène, il a été démontré que le risque de développer un cancer du poumon induit par le tabagisme varie considérablement (Kawajiri, Watanabe et Hayashi 1994). En particulier, les individus présentant une rare CYP1A1 altération génétique, associée à une absence de GSTM1 , présentaient un risque plus élevé (jusqu'à neuf fois) de développer un cancer du poumon lorsqu'ils étaient exposés à un niveau relativement faible de fumée de cigarette. Fait intéressant, il semble y avoir des différences interethniques dans la signification des gènes variants qui nécessitent une étude plus approfondie afin d'élucider le rôle précis de ces altérations dans la susceptibilité à la maladie (Kalow 1962 ; Nebert et McKinnon 1994 ; Kawajiri, Watanabe et Hayashi 1994).
Effet synergique de deux ou plusieurs polymorphismes sur la toxicité réponse
Une réponse toxique à un agent environnemental peut être fortement exagérée par la combinaison de deux défauts pharmacogénétiques chez le même individu, par exemple, les effets combinés du polymorphisme de la N-acétyltransférase (NAT2) et du polymorphisme de la glucose-6-phosphate déshydrogénase (G6PD) .
L'exposition professionnelle aux arylamines constitue un risque grave de cancer de la vessie. Depuis les élégantes études de Cartwright en 1954, il est devenu clair que le statut de N-acétylateur est un déterminant du cancer de la vessie induit par les colorants azoïques. Il existe une corrélation hautement significative entre le phénotype acétyleur lent et la survenue d'un cancer de la vessie, ainsi que le degré d'envahissement de ce cancer dans la paroi vésicale. Au contraire, il existe une association significative entre le phénotype à acétylation rapide et l'incidence du carcinome colorectal. La N-acétyltransférase (NAT1, NAT2) ont été clonés et séquencés, et les tests basés sur l'ADN sont maintenant capables de détecter plus d'une douzaine de variantes alléliques qui expliquent le phénotype à acétyleur lent. Le NAT2 Le gène est polymorphe et responsable de la majeure partie de la variabilité de la réponse toxique aux produits chimiques environnementaux (Weber 1987; Grant 1993).
La glucose-6-phosphate déshydrogénase (G6PD) est une enzyme essentielle à la génération et au maintien du NADPH. Une activité G6PD faible ou absente peut entraîner une hémolyse sévère induite par des médicaments ou des xénobiotiques, en raison de l'absence de taux normaux de glutathion réduit (GSH) dans les globules rouges. Le déficit en G6PD touche au moins 300 millions de personnes dans le monde. Plus de 10% des hommes afro-américains présentent le phénotype le moins sévère, tandis que certaines communautés sardes présentent le «type méditerranéen» plus sévère à des fréquences pouvant atteindre une personne sur trois. Le G6PD Le gène a été cloné et localisé sur le chromosome X, et de nombreuses mutations ponctuelles diverses expliquent le degré élevé d'hétérogénéité phénotypique observée chez les individus déficients en G6PD (Beutler 1992).
La thiozalsulphone, une arylamine sulfamide, s'est avérée provoquer une distribution bimodale de l'anémie hémolytique dans la population traitée. Lorsqu'ils sont traités avec certains médicaments, les individus présentant la combinaison d'un déficit en G6PD et du phénotype d'acétylateur lent sont plus affectés que ceux présentant le déficit en G6PD seul ou le phénotype d'acétylateur lent seul. Les acétyleurs lents déficients en G6PD sont au moins 40 fois plus sensibles que les acétyleurs rapides normaux à la G6PD à l'hémolyse induite par la thiozalsulfone.
Effet des polymorphismes génétiques sur l'évaluation de l'exposition
L'évaluation de l'exposition et la biosurveillance (figure 1) nécessitent également des informations sur la constitution génétique de chaque individu. Étant donné une exposition identique à un produit chimique dangereux, le niveau d'adduits à l'hémoglobine (ou d'autres biomarqueurs) peut varier de deux ou trois ordres de grandeur entre les individus, en fonction de l'empreinte métabolique de chacun.
La même pharmacogénétique combinée a été étudiée chez des ouvriers d'usines chimiques en Allemagne (tableau 1). Les adduits d'hémoglobine chez les travailleurs exposés à l'aniline et à l'acétanilide sont de loin les plus élevés chez les acétyleurs lents déficients en G6PD, par rapport aux autres phénotypes pharmacogénétiques combinés possibles. Cette étude a des implications importantes pour l'évaluation de l'exposition. Ces données démontrent que, bien que deux personnes puissent être exposées au même niveau ambiant de produit chimique dangereux sur le lieu de travail, la quantité d'exposition (via des biomarqueurs tels que les adduits d'hémoglobine) peut être estimée à deux ordres de grandeur ou plus de moins, en raison à la prédisposition génétique sous-jacente de l'individu. De même, le risque résultant d'un effet néfaste sur la santé peut varier de deux ordres de grandeur ou plus.
Tableau 1 : Adduits à l'hémoglobine chez les travailleurs exposés à l'aniline et à l'acétanilide
Statut d'acétylateur | Déficit en G6PD | |||
Fast | Lent | Non | Oui | Adduits de l'Hb |
+ | + | 2 | ||
+ | + | 30 | ||
+ | + | 20 | ||
+ | + | 100 |
Source : Adapté de Lewalter et Korallus 1985.
Différences génétiques dans la liaison ainsi que dans le métabolisme
Il convient de souligner que le même cas fait ici pour le méta-bolisme peut également être fait pour la liaison. Les différences héréditaires dans la liaison des agents environnementaux affecteront grandement la réponse toxique. Par exemple, les différences dans la souris cdm peut profondément affecter la sensibilité individuelle à la nécrose testiculaire induite par le cadmium (Taylor, Heiniger et Meier 1973). Les différences d'affinité de liaison du récepteur Ah affectent probablement la toxicité induite par la dioxine et le cancer (Nebert, Petersen et Puga 1991; Nebert, Puga et Vasiliou 1993).
La figure 5 résume le rôle du métabolisme et de la liaison dans la toxicité et le cancer. Les agents toxiques, tels qu'ils existent dans l'environnement ou après le métabolisme ou la liaison, déclenchent leurs effets soit par une voie génotoxique (dans laquelle des dommages à l'ADN se produisent) soit par une voie non génotoxique (dans laquelle les dommages à l'ADN et la mutagenèse ne doivent pas se produire). Fait intéressant, il est récemment devenu clair que les agents endommageant l'ADN "classiques" peuvent fonctionner via une voie de transduction de signal non génotoxique dépendante du glutathion réduit (GSH), qui est initiée sur ou près de la surface cellulaire en l'absence d'ADN et à l'extérieur du noyau cellulaire. (Devary et al. 1993). Les différences génétiques dans le métabolisme et la liaison restent cependant les principaux déterminants du contrôle des différentes réponses toxiques individuelles.
Figure 5. Moyens généraux par lesquels la toxicité se produit
Rôle de la fonction cellulaire de l'enzyme métabolisant les médicaments
La variation génétique de la fonction enzymatique métabolisant les médicaments est d'une importance majeure pour déterminer la réponse individuelle aux produits chimiques. Ces enzymes sont essentielles pour déterminer le devenir et l'évolution dans le temps d'un produit chimique étranger après exposition.
Comme l'illustre la figure 5, l'importance des enzymes métabolisant les médicaments dans la sensibilité individuelle à l'exposition chimique peut en fait présenter un problème beaucoup plus complexe que ce qui ressort de cette simple discussion du métabolisme des xénobiotiques. En d'autres termes, au cours des deux dernières décennies, les mécanismes génotoxiques (mesures des adduits à l'ADN et des adduits aux protéines) ont été fortement mis en avant. Cependant, que se passe-t-il si les mécanismes non génotoxiques sont au moins aussi importants que les mécanismes génotoxiques pour provoquer des réponses toxiques ?
Comme mentionné précédemment, les rôles physiologiques de nombreuses enzymes métabolisant les médicaments impliquées dans le métabolisme des xénobiotiques n'ont pas été définis avec précision. Nebert (1994) a proposé qu'en raison de leur présence sur cette planète depuis plus de 3.5 milliards d'années, les enzymes métabolisant les médicaments étaient à l'origine (et sont encore principalement) responsables de la régulation des niveaux cellulaires de nombreux ligands non peptidiques importants dans l'activation transcriptionnelle. de gènes affectant la croissance, la différenciation, l'apoptose, l'homéostasie et les fonctions neuroendocrines. De plus, la toxicité de la plupart, sinon de la totalité, des agents environnementaux se produit au moyen de Agoniste or antagoniste action sur ces voies de transduction du signal (Nebert 1994). Sur la base de cette hypothèse, la variabilité génétique des enzymes métabolisant les médicaments peut avoir des effets assez dramatiques sur de nombreux processus biochimiques critiques au sein de la cellule, entraînant ainsi des différences importantes dans la réponse toxique. Il est en effet possible qu'un tel scénario puisse également être à l'origine de nombreux effets indésirables idiosyncratiques rencontrés chez les patients utilisant des médicaments couramment prescrits.
Conclusions
La dernière décennie a vu des progrès remarquables dans notre compréhension de la base génétique de la réponse différentielle aux produits chimiques dans les médicaments, les aliments et les polluants environnementaux. Les enzymes métabolisant les médicaments ont une profonde influence sur la façon dont les humains réagissent aux produits chimiques. À mesure que notre connaissance de la multiplicité des enzymes métabolisant les médicaments continue d'évoluer, nous sommes de plus en plus en mesure d'améliorer les évaluations du risque toxique pour de nombreux médicaments et produits chimiques environnementaux. Ceci est peut-être le plus clairement illustré dans le cas de l'enzyme CYP2D6 du cytochrome P450. En utilisant des tests basés sur l'ADN relativement simples, il est possible de prédire la réponse probable de tout médicament principalement métabolisé par cette enzyme ; cette prédiction garantira une utilisation plus sûre de médicaments précieux, mais potentiellement toxiques.
L'avenir verra sans aucun doute une explosion dans l'identification d'autres polymorphismes (phénotypes) impliquant des enzymes métabolisant les médicaments. Ces informations seront accompagnées de tests ADN améliorés et peu invasifs pour identifier les génotypes dans les populations humaines.
De telles études devraient être particulièrement instructives pour évaluer le rôle des produits chimiques dans les nombreuses maladies environnementales d'origine actuellement inconnue. La prise en compte de multiples polymorphismes d'enzymes métabolisant les médicaments, en combinaison (par exemple, tableau 1), est également susceptible de représenter un domaine de recherche particulièrement fertile. De telles études permettront de clarifier le rôle des produits chimiques dans l'étiologie des cancers. Collectivement, ces informations devraient permettre de formuler des conseils de plus en plus individualisés sur l'évitement des produits chimiques susceptibles d'être une préoccupation individuelle. C'est le domaine de la toxicologie préventive. De tels conseils aideront sans aucun doute grandement tous les individus à faire face à la charge chimique toujours croissante à laquelle nous sommes exposés.
" AVIS DE NON-RESPONSABILITÉ : L'OIT n'assume aucune responsabilité pour le contenu présenté sur ce portail Web qui est présenté dans une langue autre que l'anglais, qui est la langue utilisée pour la production initiale et l'examen par les pairs du contenu original. Certaines statistiques n'ont pas été mises à jour depuis la production de la 4ème édition de l'Encyclopédie (1998)."