27. Surveillance biologique
Éditeur de chapitre : Robert Lauwerys
Table des matières
Principes généraux
Vito Foà et Lorenzo Alessio
Assurance qualité
D. Gompertz
Métaux et composés organométalliques
P. Hoet et Robert Lauwerys
Solvants organiques
Masayuki Ikeda
Produits chimiques génotoxiques
Marja Sorsa
Pesticides
Marco Maroni et Adalberto Ferioli
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. ACGIH, DFG et autres valeurs limites pour les métaux
2. Exemples de produits chimiques et de surveillance biologique
3. Surveillance biologique des solvants organiques
4. Génotoxicité des produits chimiques évaluée par le CIRC
5. Biomarqueurs et certains échantillons de cellules/tissus et génotoxicité
6. Agents cancérigènes pour l'homme, exposition professionnelle et paramètres cytogénétiques
8. Exposition due à la production et à l'utilisation de pesticides
9. Toxicité aiguë de l'OP à différents niveaux d'inhibition de l'ACHE
10. Variations de ACHE & PCHE et conditions de santé sélectionnées
11. Activités de la cholinestérase chez des personnes en bonne santé non exposées
12. Phosphates d'alkyle urinaires et pesticides OP
13. Dosage des alkylphosphates urinaires & OP
14. Métabolites urinaires des carbamates
15. Métabolites urinaires du dithiocarbamate
16. Indices proposés pour la surveillance biologique des pesticides
17. Valeurs limites biologiques recommandées (à partir de 1996)
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
28. Épidémiologie et statistiques
Éditeurs de chapitre : Franco Merletti, Colin L. Soskolne et Paolo Vineis
Méthode épidémiologique appliquée à la santé et à la sécurité au travail
Franco Merletti, Colin L. Soskolne et Paolo Vineis
Évaluation de l'exposition
M. Gérald Ott
Résumé des mesures d'exposition au travail
Colin L. Soskolné
Mesurer les effets des expositions
Shelia Hoar Zahm
Étude de cas : Mesures
Franco Merletti, Colin L. Soskolne et Paola Vineis
Options dans la conception de l'étude
Sven Hernberg
Problèmes de validité dans la conception de l'étude
Annie J.Sasco
Impact de l'erreur de mesure aléatoire
Paolo Vineis et Colin L. Soskolne
Méthodes statistiques
Annibale Biggeri et Mario Braga
Évaluation de la causalité et éthique dans la recherche épidémiologique
Paolo Vineis
Études de cas illustrant les enjeux méthodologiques de la surveillance des maladies professionnelles
Jung-Der Wang
Questionnaires en recherche épidémiologique
Steven D. Stellman et Colin L. Soskolne
Perspective historique de l'amiante
Laurent Garfinkel
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. Cinq mesures sommaires sélectionnées de l'exposition au travail
2. Mesures de l'apparition de la maladie
3. Mesures d'association pour une étude de cohorte
4. Mesures d'association pour les études cas-témoins
5. Disposition générale du tableau de fréquence pour les données de cohorte
6. Exemple de mise en page des données cas-témoins
7. Mise en page des données cas-témoin - un contrôle par cas
8. Cohorte hypothétique de 1950 individus à T2
9. Indices de tendance centrale & dispersion
10. Une expérience binomiale & probabilités
11. Résultats possibles d'une expérience binomiale
12. Distribution binomiale, 15 succès/30 essais
13. Distribution binomiale, p = 0.25 ; 30 essais
14. Erreur de type II et alimentation ; x = 12, n = 30, a = 0.05
15. Erreur de type II et alimentation ; x = 12, n = 40, a = 0.05
16. 632 travailleurs exposés à l'amiante 20 ans ou plus
17. O/E nombre de décès parmi 632 travailleurs de l'amiante
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
29. Ergonomie
Éditeurs de chapitre : Wolfgang Laurig et Joachim Vedder
Table des matières
Vue d’ensemble
Wolfgang Laurig et Joachim Vedder
La nature et les objectifs de l'ergonomie
William T.Singleton
Analyse des activités, des tâches et des systèmes de travail
Véronique De Keyser
Ergonomie et standardisation
Friedhelm Nachreiner
Listes de contrôle
Pranab Kumar Nag
Anthropométrie
Melchiorre Masali
Travail musculaire
Juhani Smolander et Veikko Louhevaara
Postures au travail
Ilkka Kuorinka
Biomécanique
Franck Darby
Fatigue générale
Étienne Grandjean
Fatigue et récupération
Rolf Helbig et Walter Rohmert
Charge de travail mentale
Winfried Hacker
Vigilance
Herbert Heuer
Fatigue mentale
Pierre Richter
Organisation du travail
Eberhard Ulich et Gudela Grote
Privation de sommeil
Kazutaka Kogi
Stations de travail
Roland Kadefors
Outils
TM Fraser
Commandes, indicateurs et panneaux
Karl HE Kroemer
Traitement de l'information et conception
Andries F. Sanders
Concevoir pour des groupes spécifiques
Blague H. Grady-van den Nieuwboer
Étude de cas : La classification internationale des limitations fonctionnelles chez les personnes
Les différences culturelles
Houshang Shahnavaz
Travailleurs âgés
Antoine Laville et Serge Volkoff
Travailleurs ayant des besoins spéciaux
Blague H. Grady-van den Nieuwboer
Conception de systèmes dans la fabrication de diamants
Issacar Guilad
Ne pas tenir compte des principes de conception ergonomique : Tchernobyl
Vladimir M. Munipov
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. Liste de base anthropométrique de base
2. Fatigue et récupération en fonction des niveaux d'activité
3. Règles de combinaison des effets de deux facteurs de stress sur la déformation
4. Faire la différence entre plusieurs conséquences négatives de la tension mentale
5. Principes axés sur le travail pour la structuration de la production
6. Participation au contexte organisationnel
7. Participation des utilisateurs au processus technologique
8. Horaires de travail irréguliers et privation de sommeil
9. Aspects des sommeils avancés, ancrés et retardés
10. Contrôler les mouvements et les effets attendus
11. Relations contrôle-effet des commandes manuelles courantes
12. Règles de disposition des commandes
13. Lignes directrices pour les étiquettes
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
30. Hygiène du travail
Éditeur de chapitre : Robert F. Herrick
Table des matières
Objectifs, définitions et informations générales
Bérénice I. Ferrari Goelzer
Reconnaissance des dangers
Linnéa Lillienberg
Évaluation de l'environnement de travail
Lori A.Todd
Hygiène du travail : contrôle des expositions par l'intervention
James Stewart
La base biologique de l'évaluation de l'exposition
Dick Heederik
Limites d'exposition professionnelle
Dennis J. Paustenbach
1. Dangers des produits chimiques ; agents biologiques et physiques
2. Limites d'exposition professionnelle (LEP) - divers pays
31. Protection personnelle
Éditeur de chapitre : Robert F. Herrick
Table des matières
Présentation et philosophie de la protection personnelle
Robert F. Herrick
Protecteurs des yeux et du visage
Kikuzi Kimura
Protection des pieds et des jambes
Toyohiko Miura
Protection de la tête
Isabelle Balty et Alain Mayer
Protection auditive
John R. Franks et Elliott H. Berger
Vêtements de protection
S.Zack Mansdorf
Protection respiratoire
Thomas J. Nelson
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. Exigences de transmission (ISO 4850-1979)
2. Balances de protection - soudage au gaz et soudo-brasage
3. Echelles de protection - oxycoupage
4. Échelles de protection - coupage plasma
5. Échelles de protection - soudage à l'arc électrique ou gougeage
6. Échelles de protection - soudage plasma à l'arc direct
7. Casque de sécurité : Norme ISO 3873-1977
8. Taux de réduction du bruit d'un protecteur auditif
9. Calcul de la réduction de bruit pondérée A
10. Exemples de catégories de danger cutané
11. Exigences de performances physiques, chimiques et biologiques
12. Dangers matériels associés à des activités particulières
13. Facteurs de protection attribués selon ANSI Z88 2 (1992)
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
32. Systèmes d'enregistrement et surveillance
Éditeur de chapitre : Steven D.Stellman
Table des matières
Systèmes de surveillance et de notification des maladies professionnelles
Steven B. Markowitz
Surveillance des risques professionnels
David H. Wegman et Steven D. Stellman
Surveillance dans les pays en développement
David Koh et Kee-Seng Chia
Élaboration et application d'un système de classification des lésions et maladies professionnelles
Élyce Biddle
Analyse des risques des blessures et maladies professionnelles non mortelles
John W.Ruser
Étude de cas : Protection des travailleurs et statistiques sur les accidents et les maladies professionnelles - HVBG, Allemagne
Martin Butz et Burkhard Hoffmann
Étude de cas : Wismut - Une exposition à l'uranium revisitée
Heinz Otten et Horst Schulz
Stratégies et techniques de mesure pour l'évaluation de l'exposition professionnelle en épidémiologie
Frank Bochmann et Helmut Blome
Étude de cas : Enquêtes sur la santé au travail en Chine
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
1. Angiosarcome du foie - registre mondial
2. Maladie professionnelle, États-Unis, 1986 par rapport à 1992
3. États-Unis Décès dus à la pneumoconiose et au mésothéliome pleural
4. Exemple de liste de maladies professionnelles à déclaration obligatoire
5. Structure du code de déclaration des maladies et des blessures, États-Unis
6. Blessures et maladies professionnelles non mortelles, États-Unis 1993
7. Risque d'accidents du travail et de maladies professionnelles
8. Risque relatif pour les conditions de mouvement répétitif
9. Accidents du travail, Allemagne, 1981-93
10. Rectifieuses dans les accidents de la métallurgie, Allemagne, 1984-93
11. Maladie professionnelle, Allemagne, 1980-93
12. Maladies infectieuses, Allemagne, 1980-93
13. Exposition aux radiations dans les mines de Wismut
14. Maladies professionnelles dans les mines d'uranium de Wismut 1952-90
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
33. Toxicologie
Rédactrice de chapitre : Ellen K. Silbergeld
Introduction
Ellen K. Silbergeld, rédactrice en chef
Définitions et concepts
Bo Holmberg, Johan Hogberg et Gunnar Johanson
Toxicocinétique
Dušan Djuric
Organe cible et effets critiques
Marek Jakubowski
Effets de l'âge, du sexe et d'autres facteurs
Spomenka Telishman
Déterminants génétiques de la réponse toxique
Daniel W. Nebert et Ross A. McKinnon
Introduction et notions
Philip G. Watanabe
Lésion cellulaire et mort cellulaire
Benjamin F. Trump et Irene K. Berezesky
Toxicologie génétique
R. Rita Misra et Michael P. Waalkes
Immunotoxicologie
Joseph G. Vos et Henk van Loveren
Toxicologie des organes cibles
Ellen K.Silbergeld
Biomarqueurs
Philippe Grandjean
Évaluation de la toxicité génétique
David M. DeMarini et James Huff
Tests de toxicité in vitro
Joanne Zurlo
Structurer les relations d'activité
Ellen K.Silbergeld
Toxicologie dans la réglementation de la santé et de la sécurité
Ellen K.Silbergeld
Principes d'identification des dangers - L'approche japonaise
Masayuki Ikeda
L'approche des États-Unis en matière d'évaluation des risques des toxiques pour la reproduction et des agents neurotoxiques
Ellen K.Silbergeld
Approches d'identification des dangers - IARC
Harri Vainio et Julian Wilbourn
Évaluation du risque cancérigène : autres approches
Cees A. van der Heijden
Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.
Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.
Cet article est adapté de la 3e édition de l'Encyclopaedia of Occupational Health and Safety.
Les deux concepts de fatigue et de repos sont familiers à tous par expérience personnelle. Le mot « fatigue » est utilisé pour désigner des conditions très différentes, qui entraînent toutes une réduction de la capacité de travail et de la résistance. L'utilisation très variée du concept de fatigue a entraîné une confusion presque chaotique et une clarification des idées actuelles est nécessaire. Pendant longtemps, la physiologie a distingué la fatigue musculaire de la fatigue générale. Le premier est un phénomène douloureux aigu localisé dans les muscles : la fatigue générale se caractérise par un sentiment de diminution de la volonté de travailler. Cet article ne traite que de la fatigue générale, que l'on peut aussi appeler « fatigue psychique » ou « fatigue nerveuse » et du repos qu'elle nécessite.
La fatigue générale peut être due à des causes assez différentes, dont les plus importantes sont présentées dans la figure 1. L'effet est comme si, au cours de la journée, tous les différents stress subis s'accumulaient dans l'organisme, produisant progressivement une sensation de fatigue croissante. fatigue. Ce sentiment incite à la décision d'arrêter de travailler ; son effet est celui d'un prélude physiologique au sommeil.
Figure 1. Présentation schématique de l'effet cumulatif des causes quotidiennes de la fatigue
La fatigue est une sensation salutaire si l'on peut s'allonger et se reposer. Cependant, si l'on ne tient pas compte de ce sentiment et que l'on se force à continuer à travailler, le sentiment de fatigue augmente jusqu'à devenir angoissant et finalement écrasant. Cette expérience quotidienne démontre bien la signification biologique de la fatigue qui joue un rôle dans le maintien de la vie, semblable à celui joué par d'autres sensations comme, par exemple, la soif, la faim, la peur, etc.
Le repos est représenté sur la figure 1 comme la vidange d'un tonneau. Le phénomène de repos peut se dérouler normalement si l'organisme reste intact ou si au moins une partie essentielle du corps n'est pas soumise à des contraintes. C'est ce qui explique le rôle déterminant que jouent les journées de travail toutes les pauses de travail, de la courte pause pendant le travail au sommeil nocturne. La comparaison du tonneau illustre combien il est nécessaire pour une vie normale d'atteindre un certain équilibre entre la charge totale supportée par l'organisme et la somme des possibilités de repos.
Interprétation neurophysiologique de la fatigue
Les progrès de la neurophysiologie au cours des dernières décennies ont largement contribué à une meilleure compréhension des phénomènes déclenchés par la fatigue dans le système nerveux central.
Le physiologiste Hess a été le premier à observer que la stimulation électrique de certaines des structures diencéphaliques, et plus particulièrement de certaines des structures du noyau médial du thalamus, produisait progressivement un effet inhibiteur qui se traduisait par une altération de la capacité de réaction. et dans une tendance à dormir. Si la stimulation était poursuivie pendant un certain temps, la relaxation générale était suivie de somnolence et enfin de sommeil. Il a été prouvé plus tard qu'à partir de ces structures, une inhibition active peut s'étendre jusqu'au cortex cérébral où se concentrent tous les phénomènes conscients. Cela se reflète non seulement dans le comportement, mais aussi dans l'activité électrique du cortex cérébral. D'autres expériences ont également réussi à initier des inhibitions à partir d'autres régions sous-corticales.
La conclusion que l'on peut tirer de toutes ces études est qu'il existe des structures situées dans le diencéphale et le mésencéphale qui représentent un système inhibiteur efficace et qui déclenchent la fatigue avec tous les phénomènes qui l'accompagnent.
Inhibition et activation
De nombreuses expériences réalisées sur des animaux et des humains ont montré que leur disposition générale à réagir dépend non seulement de ce système d'inhibition mais aussi essentiellement d'un système fonctionnant de manière antagoniste, appelé système d'activation ascendant réticulaire. Nous savons par expériences que la formation réticulaire contient des structures qui contrôlent le degré d'éveil, et par conséquent les dispositions générales à une réaction. Des liens nerveux existent entre ces structures et le cortex cérébral où s'exercent les influences activatrices sur la conscience. De plus, le système d'activation reçoit une stimulation des organes sensoriels. D'autres connexions nerveuses transmettent des impulsions du cortex cérébral - la zone de perception et de pensée - au système d'activation. Sur la base de ces concepts neurophysiologiques, on peut établir que des stimuli externes, ainsi que des influences provenant des aires de la conscience, peuvent, en passant par le système activateur, stimuler une disposition à une réaction.
De plus, de nombreuses autres investigations permettent de conclure que la stimulation du système activateur se propage fréquemment aussi à partir des centres végétatifs, et amène l'organisme à s'orienter vers la dépense d'énergie, vers le travail, la lutte, la fuite, etc. (conversion ergotrope de les organes internes). A l'inverse, il apparaît que la stimulation du système inhibiteur au sein de la sphère du système nerveux végétatif fait tendre l'organisme vers le repos, reconstitution de ses réserves d'énergie, phénomènes d'assimilation (conversion trophotrope).
Par synthèse de toutes ces découvertes neurophysiologiques, on peut établir la conception suivante de la fatigue : l'état et la sensation de fatigue sont conditionnés par la réaction fonctionnelle de la conscience dans le cortex cérébral, qui est, à son tour, régi par deux systèmes mutuellement antagonistes : le système d'inhibition et le système d'activation. Ainsi, la disposition de l'homme au travail dépend à chaque instant du degré d'activation des deux systèmes : si le système inhibiteur est dominant, l'organisme sera en état de fatigue ; lorsque le système d'activation est dominant, il présentera une disposition accrue au travail.
Cette conception psychophysiologique de la fatigue permet de comprendre certains de ses symptômes parfois difficiles à expliquer. Ainsi, par exemple, une sensation de fatigue peut disparaître brutalement lorsqu'un événement extérieur inattendu survient ou lorsque la tension émotionnelle se développe. Il est clair dans ces deux cas que le système activateur a été stimulé. A l'inverse, si l'environnement est monotone ou que le travail semble ennuyeux, le fonctionnement du système activateur est diminué et le système inhibiteur devient dominant. Ceci explique pourquoi la fatigue apparaît dans une situation monotone sans que l'organisme ne soit soumis à une quelconque charge de travail.
La figure 2 décrit schématiquement la notion de systèmes mutuellement antagonistes d'inhibition et d'activation.
Figure 2. Présentation schématique du contrôle de la disposition au travail au moyen de systèmes d'inhibition et d'activation
Fatigue clinique
Il est de notoriété publique qu'une fatigue prononcée survenant jour après jour produira progressivement un état de fatigue chronique. La sensation de fatigue s'intensifie alors et survient non seulement le soir après le travail mais déjà dans la journée, parfois même avant le début du travail. Un sentiment de malaise, souvent de nature émotive, accompagne cet état. Les symptômes suivants sont souvent observés chez les personnes souffrant de fatigue : émotivité psychique accrue (comportement antisocial, incompatibilité), tendance à la dépression (anxiété non motivée) et manque d'énergie avec perte d'initiative. Ces effets psychiques s'accompagnent souvent d'un malaise non spécifique et se manifestent par des symptômes psychosomatiques : maux de tête, vertiges, troubles fonctionnels cardiaques et respiratoires, perte d'appétit, troubles digestifs, insomnie, etc.
Compte tenu de la tendance aux symptômes morbides qui accompagnent la fatigue chronique, on peut à juste titre parler de fatigue clinique. Il y a une tendance à l'augmentation de l'absentéisme, et en particulier à plus d'absences pour de courtes périodes. Cela semble être causé à la fois par le besoin de repos et par une morbidité accrue. L'état de fatigue chronique survient particulièrement chez les personnes exposées à des conflits ou difficultés psychiques. Il est parfois très difficile de distinguer les causes externes et internes. En fait, il est presque impossible de distinguer la cause et l'effet de la fatigue clinique : une attitude négative envers le travail, les supérieurs ou le lieu de travail peut tout aussi bien être la cause de la fatigue clinique que le résultat.
Des recherches ont montré que les standardistes et le personnel d'encadrement employés dans les services de télécommunications présentaient une augmentation significative des symptômes physiologiques de fatigue après leur travail (temps de réaction visuelle, fréquence de fusion des scintillements, tests de dextérité). Les investigations médicales ont révélé que dans ces deux groupes de travailleurs, il y avait une augmentation significative des états névrotiques, de l'irritabilité, des troubles du sommeil et de la sensation chronique de lassitude, par rapport à un groupe similaire de femmes employées dans les branches techniques de la poste, du téléphone et les services télégraphiques. L'accumulation de symptômes n'était pas toujours due à une attitude négative de la part des femmes affectées à leur emploi ou à leurs conditions de travail.
Mesures préventives
Il n'y a pas de panacée contre la fatigue, mais on peut faire beaucoup pour atténuer le problème en prêtant attention aux conditions générales de travail et à l'environnement physique sur le lieu de travail. Par exemple, on peut faire beaucoup en organisant correctement les heures de travail, en prévoyant des périodes de repos adéquates et des cantines et des toilettes appropriées ; des congés payés adéquats devraient également être accordés aux travailleurs. L'étude ergonomique du lieu de travail peut également aider à réduire la fatigue en s'assurant que les sièges, les tables et les établis sont de dimensions appropriées et que le flux de travail est correctement organisé. De plus, le contrôle du bruit, la climatisation, le chauffage, la ventilation et l'éclairage peuvent tous avoir un effet bénéfique sur le retardement de l'apparition de la fatigue chez les travailleurs.
La monotonie et la tension peuvent également être atténuées par une utilisation contrôlée de la couleur et de la décoration dans l'environnement, des intervalles de musique et parfois des pauses pour des exercices physiques pour les travailleurs sédentaires. La formation des travailleurs et en particulier du personnel d'encadrement et de direction joue également un rôle important.
L'étude et la caractérisation des produits chimiques et autres agents pour leurs propriétés toxiques sont souvent entreprises sur la base d'organes et de systèmes d'organes spécifiques. Dans ce chapitre, deux cibles ont été sélectionnées pour une discussion approfondie : le système immunitaire et le gène. Ces exemples ont été choisis pour représenter un système d'organe cible complexe et une cible moléculaire dans les cellules. Pour une discussion plus complète de la toxicologie des organes cibles, le lecteur est renvoyé aux textes de toxicologie standard tels que Casarett et Doull, et Hayes. Le Programme international sur la sécurité chimique (IPCS) a également publié plusieurs documents de référence sur la toxicologie des organes cibles, par système d'organes.
Les études de toxicologie des organes cibles sont généralement entreprises sur la base d'informations indiquant le potentiel d'effets toxiques spécifiques d'une substance, soit à partir de données épidémiologiques, soit à partir d'études générales de toxicité aiguë ou chronique, soit sur la base de préoccupations particulières visant à protéger certaines fonctions d'organes, telles que que la reproduction ou le développement fœtal. Dans certains cas, des tests de toxicité pour des organes cibles spécifiques sont expressément mandatés par des autorités statutaires, tels que les tests de neurotoxicité en vertu de la loi américaine sur les pesticides (voir « L'approche des États-Unis pour l'évaluation des risques des toxiques pour la reproduction et des agents neurotoxiques », et les tests de mutagénicité en vertu de la loi japonaise sur les produits chimiques). Loi sur le contrôle des substances (voir « Principes d'identification des dangers : l'approche japonaise »).
Comme indiqué dans la section « Organe cible et effets critiques », l'identification d'un organe critique est basée sur la détection de l'organe ou du système d'organes qui réagit le premier négativement ou aux doses ou expositions les plus faibles. Ces informations sont ensuite utilisées pour concevoir des investigations toxicologiques spécifiques ou des tests de toxicité plus définis qui sont conçus pour élucider des indications plus sensibles d'intoxication dans l'organe cible. Les études de toxicologie des organes cibles peuvent également être utilisées pour déterminer les mécanismes d'action, utiles dans l'évaluation des risques (voir « L'approche des États-Unis pour l'évaluation des risques des toxiques pour la reproduction et des agents neurotoxiques »).
Méthodes d'études de toxicité pour les organes cibles
Les organes cibles peuvent être étudiés par exposition d'organismes intacts et analyse détaillée de la fonction et de l'histopathologie dans l'organe cible, ou par exposition in vitro de cellules, de tranches de tissus ou d'organes entiers maintenus pendant des périodes de courte ou de longue durée en culture (voir "Mécanismes de toxicologie : Introduction et concepts »). Dans certains cas, des tissus de sujets humains peuvent également être disponibles pour des études de toxicité sur des organes cibles, et ceux-ci peuvent fournir des opportunités pour valider les hypothèses d'extrapolation inter-espèces. Cependant, il faut garder à l'esprit que de telles études ne fournissent pas d'informations sur la toxicocinétique relative.
En général, les études de toxicité pour les organes cibles partagent les caractéristiques communes suivantes : examen histopathologique détaillé de l'organe cible, y compris examen post mortem, poids des tissus et examen des tissus fixés ; études biochimiques des voies critiques dans l'organe cible, telles que les systèmes enzymatiques importants ; des études fonctionnelles de la capacité de l'organe et des constituants cellulaires à remplir les fonctions métaboliques et autres attendues ; et l'analyse des biomarqueurs d'exposition et des effets précoces dans les cellules des organes cibles.
Une connaissance détaillée de la physiologie, de la biochimie et de la biologie moléculaire des organes cibles peut être intégrée aux études sur les organes cibles. Par exemple, étant donné que la synthèse et la sécrétion de protéines de faible poids moléculaire constituent un aspect important de la fonction rénale, les études de néphrotoxicité accordent souvent une attention particulière à ces paramètres (IPCS 1991). Étant donné que la communication de cellule à cellule est un processus fondamental du fonctionnement du système nerveux, les études d'organes cibles sur la neurotoxicité peuvent inclure des mesures neurochimiques et biophysiques détaillées de la synthèse, de l'absorption, du stockage, de la libération et de la liaison aux récepteurs des neurotransmetteurs, ainsi que des mesures électrophysiologiques des modifications de la membrane. potentiel associé à ces événements.
Un degré élevé d'accent est mis sur le développement de méthodes in vitro pour la toxicité des organes cibles, pour remplacer ou réduire l'utilisation d'animaux entiers. Des progrès substantiels dans ces méthodes ont été réalisés pour les substances toxiques pour la reproduction (Heindel et Chapin 1993).
En résumé, les études de toxicité pour les organes cibles sont généralement entreprises comme test d'ordre supérieur pour déterminer la toxicité. La sélection d'organes cibles spécifiques pour une évaluation plus approfondie dépend des résultats des tests de dépistage, tels que les tests aigus ou subchroniques utilisés par l'OCDE et l'Union européenne ; certains organes et systèmes d'organes cibles peuvent être candidats a priori à une enquête spéciale en raison du souci de prévenir certains types d'effets néfastes sur la santé.
Le besoin de validité
L'épidémiologie vise à fournir une compréhension de l'expérience de la maladie dans les populations. En particulier, il peut être utilisé pour mieux comprendre les causes professionnelles de la mauvaise santé. Ces connaissances proviennent d'études menées sur des groupes de personnes atteintes d'une maladie en les comparant à des personnes sans cette maladie. Une autre approche consiste à examiner quelles maladies contractent les personnes qui travaillent dans certains emplois avec des expositions particulières et à comparer ces schémas de maladie à ceux de personnes non exposées de la même manière. Ces études fournissent des estimations du risque de maladie pour des expositions spécifiques. Pour que les informations issues de ces études soient utilisées pour établir des programmes de prévention, pour la reconnaissance des maladies professionnelles et pour que les travailleurs affectés par des expositions soient convenablement indemnisés, ces études doivent être valides.
Validité peut être défini comme la capacité d'une étude à refléter l'état réel des choses. Une étude valide est donc celle qui mesure correctement l'association (qu'elle soit positive, négative ou absente) entre une exposition et une maladie. Il décrit la direction et l'ampleur d'un risque réel. Deux types de validité sont distingués : la validité interne et la validité externe. La validité interne est la capacité d'une étude à refléter ce qui s'est réellement passé entre les sujets de l'étude ; la validité externe reflète ce qui pourrait se produire dans la population.
La validité concerne la véracité d'une mesure. La validité doit être distinguée de la précision de la mesure, qui est fonction de la taille de l'étude et de l'efficacité de la conception de l'étude.
Validité interne
Une étude est dite valide en interne lorsqu'elle est exempte de biais et reflète donc fidèlement l'association entre l'exposition et la maladie qui existe parmi les participants à l'étude. Un risque observé de maladie associé à une exposition peut en effet résulter d'une association réelle et donc être valide, mais il peut aussi refléter l'influence de biais. Un biais donnera une image déformée de la réalité.
Trois grands types de biais, également appelés erreurs systématiques, se distinguent généralement :
Ils seront brièvement présentés ci-dessous, à l'aide d'exemples tirés du milieu de la santé au travail.
Biais de séléction
Un biais de sélection se produira lorsque l'entrée dans l'étude est influencée par la connaissance du statut d'exposition du participant potentiel à l'étude. Ce problème n'est donc rencontré que lorsque la maladie a déjà eu lieu au moment (avant) que la personne entre dans l'étude. En règle générale, dans le cadre épidémiologique, cela se produit dans des études cas-témoins ou dans des études de cohorte rétrospectives. Cela signifie qu'une personne sera plus susceptible d'être considérée comme un cas si l'on sait qu'elle a été exposée. Trois séries de circonstances peuvent conduire à un tel événement, qui dépendra également de la gravité de la maladie.
Biais d'autosélection
Cela peut se produire lorsque des personnes qui savent qu'elles ont été exposées à des produits nocifs connus ou présumés dans le passé et qui sont convaincues que leur maladie est le résultat de l'exposition consulteront un médecin pour des symptômes que d'autres personnes, moins exposées, auraient pu ignorer. Cela est particulièrement susceptible de se produire pour les maladies qui présentent peu de symptômes perceptibles. Un exemple peut être une perte de grossesse précoce ou un avortement spontané chez les infirmières manipulant des médicaments utilisés pour le traitement du cancer. Ces femmes sont plus conscientes que la plupart de la physiologie de la reproduction et, en étant préoccupées par leur capacité à avoir des enfants, elles peuvent être plus susceptibles de reconnaître ou de qualifier d'avortement spontané ce que d'autres femmes ne considéreraient que comme un retard dans l'apparition des menstruations. Un autre exemple tiré d'une étude de cohorte rétrospective, cité par Rothman (1986), concerne une étude des Centers for Disease Control sur la leucémie parmi les troupes qui avaient été présentes lors d'un essai atomique américain au Nevada. Parmi les troupes présentes sur le site test, 76% ont été tracées et ont constitué la cohorte. Parmi ceux-ci, 82% ont été trouvés par les enquêteurs, mais 18% supplémentaires ont contacté les enquêteurs eux-mêmes après avoir entendu parler de l'étude. Quatre cas de leucémie étaient présents parmi les 82 % suivis par les CDC et quatre cas étaient présents parmi les 18 % auto-référés. Cela suggère fortement que la capacité des enquêteurs à identifier les personnes exposées était liée au risque de leucémie.
Biais diagnostique
Cela se produira lorsque les médecins sont plus susceptibles de diagnostiquer une maladie donnée une fois qu'ils savent à quoi le patient a été exposé précédemment. Par exemple, lorsque la plupart des peintures étaient à base de plomb, un symptôme de maladie des nerfs périphériques appelé névrite périphérique avec paralysie était également connu sous le nom de « chute de poignet » des peintres. Connaître la profession du patient facilitait le diagnostic de la maladie même à ses débuts, alors que l'identification de l'agent causal serait beaucoup plus difficile chez les participants à la recherche dont on ne savait pas qu'ils étaient professionnellement exposés au plomb.
Biais résultant du refus de participer à une étude
Lorsque des personnes, en bonne santé ou malades, sont invitées à participer à une étude, plusieurs facteurs jouent un rôle pour déterminer si elles seront d'accord ou non. La volonté de répondre à des questionnaires plus ou moins longs, qui portent parfois sur des questions sensibles, et plus encore de donner du sang ou d'autres échantillons biologiques, peut être déterminée par le degré d'intérêt personnel de la personne. Quelqu'un qui est conscient d'une exposition potentielle passée peut être prêt à se conformer à cette enquête dans l'espoir qu'elle aidera à trouver la cause de la maladie, tandis que quelqu'un qui considère qu'il n'a été exposé à rien de dangereux, ou qui n'est pas intéressé en sachant, peut décliner l'invitation à participer à l'étude. Cela peut conduire à une sélection des personnes qui seront finalement les participants à l'étude par rapport à toutes celles qui auraient pu l'être.
Biais informationnel
Ceci est également appelé biais d'observation et concerne l'issue de la maladie dans les études de suivi et l'évaluation de l'exposition dans les études cas-témoins.
Évaluation différentielle des résultats dans les études de suivi prospectives (de cohorte)
Deux groupes sont définis au début de l'étude : un groupe exposé et un groupe non exposé. Des problèmes de biais diagnostiques se poseront si la recherche de cas diffère entre ces deux groupes. Par exemple, considérons une cohorte de personnes exposées à un rejet accidentel de dioxine dans une industrie donnée. Pour le groupe très exposé, un système de suivi actif est mis en place avec des examens médicaux et une surveillance biologique à intervalles réguliers, alors que le reste de la population active ne reçoit que des soins de routine. Il est fort probable que davantage de maladies soient identifiées dans le groupe sous surveillance étroite, ce qui conduirait à une surestimation potentielle du risque.
Pertes différentielles dans les études de cohorte rétrospectives
Le mécanisme inverse de celui décrit au paragraphe précédent peut se produire dans les études de cohorte rétrospectives. Dans ces études, la façon habituelle de procéder est de partir des dossiers de toutes les personnes qui ont été employées dans une industrie donnée dans le passé, et d'évaluer la maladie ou la mortalité consécutive à l'emploi. Malheureusement, dans presque toutes les études, les dossiers sont incomplets, et le fait qu'une personne soit portée disparue peut être lié soit au statut d'exposition, soit au statut de la maladie, soit aux deux. Par exemple, dans une étude récente menée dans l'industrie chimique auprès de travailleurs exposés aux amines aromatiques, huit tumeurs ont été retrouvées dans un groupe de 777 travailleurs ayant subi un dépistage cytologique des tumeurs urinaires. Au total, seuls 34 enregistrements ont été trouvés manquants, correspondant à une perte de 4.4 % du fichier d'évaluation de l'exposition, mais pour les cas de cancer de la vessie, les données d'exposition manquaient pour deux cas sur huit, soit 25 %. Cela montre que les dossiers des personnes qui sont devenues des cas étaient plus susceptibles d'être perdus que les dossiers des autres travailleurs. Cela peut se produire en raison de changements d'emploi plus fréquents au sein de l'entreprise (qui peuvent être liés à des effets d'exposition), de démissions, de licenciements ou d'un simple hasard.
Évaluation différentielle de l'exposition dans les études cas-témoins
Dans les études cas-témoins, la maladie est déjà survenue au début de l'étude et des informations seront recherchées sur les expositions passées. Le biais peut résulter de l'attitude de l'intervieweur ou du participant à l'étude à l'égard de l'enquête. Les informations sont généralement recueillies par des enquêteurs formés qui peuvent ou non être au courant de l'hypothèse sous-jacente à la recherche. Par exemple, dans une étude cas-témoins basée sur la population sur le cancer de la vessie menée dans une région hautement industrialisée, le personnel de l'étude pourrait bien être conscient du fait que certains produits chimiques, tels que les amines aromatiques, sont des facteurs de risque du cancer de la vessie. S'ils savent également qui a développé la maladie et qui ne l'a pas fait, ils peuvent être susceptibles de mener des entretiens plus approfondis avec les participants atteints d'un cancer de la vessie qu'avec les témoins. Ils peuvent exiger des informations plus détaillées sur les occupations passées, en recherchant systématiquement l'exposition aux amines aromatiques, alors que pour les témoins, ils peuvent enregistrer les occupations de manière plus routinière. Le biais qui en résulte est appelé biais de suspicion d'exposition.
Les participants eux-mêmes peuvent également être responsables de ce biais. C'est appelé biais de rappel pour le distinguer du biais de l'intervieweur. Dans les deux cas, la suspicion d'exposition est le mécanisme du biais. Les personnes malades peuvent suspecter une origine professionnelle à leur maladie et vont donc essayer de se souvenir le plus précisément possible de tous les agents dangereux auxquels elles ont pu être exposées. En cas de manipulation de produits non définis, ils peuvent être enclins à rappeler les noms de produits chimiques précis, notamment si une liste de produits suspects est mise à leur disposition. En revanche, les contrôles peuvent être moins susceptibles de passer par le même processus de pensée.
La confusion
Il y a confusion lorsque l'association observée entre exposition et maladie résulte en partie d'un mélange de l'effet de l'exposition étudiée et d'un autre facteur. Disons, par exemple, qu'on constate un risque accru de cancer du poumon chez les soudeurs. On est tenté de conclure immédiatement qu'il existe une association causale entre l'exposition aux fumées de soudage et le cancer du poumon. Cependant, nous savons aussi que le tabagisme est de loin le principal facteur de risque du cancer du poumon. Par conséquent, si des informations sont disponibles, nous commençons à vérifier le statut tabagique des soudeurs et des autres participants à l'étude. Nous pouvons constater que les soudeurs sont plus susceptibles de fumer que les non-soudeurs. Dans cette situation, le tabagisme est connu pour être associé au cancer du poumon et, en même temps, dans notre étude, le tabagisme est également associé au fait d'être soudeur. En termes épidémiologiques, cela signifie que le tabagisme, lié à la fois au cancer du poumon et à la soudure, brouille l'association entre la soudure et le cancer du poumon.
Interaction ou modification d'effet
Contrairement à tous les problèmes énumérés ci-dessus, à savoir la sélection, l'information et la confusion, qui sont des biais, l'interaction n'est pas un biais dû à des problèmes de conception ou d'analyse de l'étude, mais reflète la réalité et sa complexité. Un exemple de ce phénomène est le suivant : l'exposition au radon est un facteur de risque de cancer du poumon, tout comme le tabagisme. De plus, le tabagisme et l'exposition au radon ont des effets différents sur le risque de cancer du poumon selon qu'ils agissent ensemble ou isolément. La plupart des études professionnelles sur ce sujet ont été menées auprès de mineurs de fond et ont parfois fourni des résultats contradictoires. Dans l'ensemble, il semble y avoir des arguments en faveur d'une interaction du tabagisme et de l'exposition au radon dans la production du cancer du poumon. Cela signifie que le risque de cancer du poumon est augmenté par l'exposition au radon, même chez les non-fumeurs, mais que l'ampleur de l'augmentation du risque due au radon est beaucoup plus importante chez les fumeurs que chez les non-fumeurs. En termes épidémiologiques, on dit que l'effet est multiplicatif. Contrairement à la confusion décrite ci-dessus, l'interaction doit être soigneusement analysée et décrite dans l'analyse plutôt que simplement contrôlée, car elle reflète ce qui se passe au niveau biologique et n'est pas simplement une conséquence d'une mauvaise conception de l'étude. Son explication conduit à une interprétation plus valable des résultats d'une étude.
Validité externe
Ce problème ne peut être résolu qu'après s'être assuré que la validité interne est garantie. Si l'on est convaincu que les résultats observés dans l'étude reflètent des associations réelles, on peut se demander si l'on peut ou non extrapoler ces résultats à la population plus large dont sont eux-mêmes issus les participants à l'étude, voire à d'autres populations identiques ou du moins très similaires. La question la plus fréquente est de savoir si les résultats obtenus pour les hommes s'appliquent également aux femmes. Pendant des années, les études et surtout les enquêtes d'épidémiologie professionnelle ont été menées exclusivement auprès des hommes. Des études menées auprès de chimistes dans les années 1960 et 1970 aux États-Unis, au Royaume-Uni et en Suède ont toutes révélé des risques accrus de cancers spécifiques, à savoir la leucémie, le lymphome et le cancer du pancréas. Sur la base de ce que nous savions des effets de l'exposition aux solvants et à certains autres produits chimiques, nous pouvions déjà en déduire à l'époque que le travail en laboratoire comportait également un risque cancérogène pour les femmes. Cela s'est d'ailleurs avéré être le cas lorsque la première étude menée auprès de femmes chimistes a finalement été publiée au milieu des années 1980, qui a trouvé des résultats similaires à ceux des hommes. Il est à noter que d'autres cancers en excès retrouvés étaient des tumeurs du sein et de l'ovaire, traditionnellement considérées comme n'étant liées qu'à des facteurs endogènes ou à la reproduction, mais pour lesquelles des facteurs environnementaux nouvellement suspectés comme les pesticides peuvent jouer un rôle. Il reste encore beaucoup à faire sur les déterminants professionnels des cancers féminins.
Stratégies pour une étude valide
Une étude parfaitement valide ne peut jamais exister, mais il incombe au chercheur d'essayer d'éviter, ou du moins de minimiser, autant de biais que possible. Cela peut souvent être fait au stade de la conception de l'étude, mais peut également être effectué pendant l'analyse.
Conception de l'étude
Les biais de sélection et d'information ne peuvent être évités que par la conception minutieuse d'une étude épidémiologique et la mise en œuvre scrupuleuse de toutes les directives quotidiennes qui en découlent, y compris une attention méticuleuse à l'assurance qualité, pour la conduite de l'étude dans les conditions de terrain. La confusion peut être traitée au stade de la conception ou de l'analyse.
Sélection
Les critères pour considérer un participant comme un cas doivent être explicitement définis. On ne peut pas, ou du moins on ne doit pas, tenter d'étudier des conditions cliniques mal définies. Une façon de minimiser l'impact que la connaissance de l'exposition peut avoir sur l'évaluation de la maladie est de n'inclure que les cas graves qui auraient été diagnostiqués indépendamment de toute information sur l'histoire du patient. Dans le domaine du cancer, les études seront souvent limitées aux cas avec preuve histologique de la maladie pour éviter l'inclusion de lésions borderline. Cela signifie également que les groupes à l'étude sont bien définis. Par exemple, il est bien connu en épidémiologie du cancer que les cancers de différents types histologiques au sein d'un organe donné peuvent avoir des facteurs de risque différents. Si le nombre de cas est suffisant, il est préférable de séparer l'adénocarcinome du poumon du carcinome épidermoïde du poumon. Quels que soient les critères définitifs d'admission à l'étude, ils doivent toujours être clairement définis et décrits. Par exemple, le code exact de la maladie doit être indiqué en utilisant la Classification Internationale des Maladies (CIM) et aussi, pour le cancer, la Classification Internationale des Maladies-Oncologie (CIM-O).
Des efforts devraient être faits une fois les critères précisés pour maximiser la participation à l'étude. La décision de refuser de participer n'est presque jamais prise au hasard et conduit donc à des préjugés. Les études doivent d'abord être présentées aux cliniciens qui voient les patients. Leur approbation est nécessaire pour approcher les patients, et il faudra donc les convaincre de soutenir l'étude. Un argument souvent convaincant est que l'étude est dans l'intérêt de la santé publique. Cependant, à ce stade, il est préférable de ne pas discuter de l'hypothèse exacte à évaluer afin d'éviter d'influencer indûment les cliniciens impliqués. On ne devrait pas demander aux médecins d'assumer des tâches supplémentaires; il est plus facile de convaincre le personnel de santé d'apporter son soutien à une étude si les moyens sont fournis par les investigateurs de l'étude pour effectuer toutes les tâches supplémentaires, en plus des soins de routine, nécessitées par l'étude. Les enquêteurs et les personnes chargées de l'analyse des données ne doivent pas être au courant de l'état pathologique de leurs patients.
Une attention similaire doit être accordée aux informations fournies aux participants. L'objectif de l'étude doit être décrit en termes généraux et neutres, mais doit également être convaincant et persuasif. Il est important que les questions de confidentialité et d'intérêt pour la santé publique soient bien comprises tout en évitant le jargon médical. Dans la plupart des contextes, l'utilisation d'incitations financières ou autres n'est pas considérée comme appropriée, bien qu'une compensation doive être prévue pour toute dépense encourue par un participant. Enfin, et ce n'est pas le moins important, la population générale devrait être suffisamment instruite sur le plan scientifique pour comprendre l'importance de telles recherches. Les avantages et les risques de la participation doivent être expliqués à chaque participant potentiel lorsqu'il doit remplir des questionnaires et/ou fournir des échantillons biologiques pour le stockage et/ou l'analyse. Aucune coercition ne doit être appliquée pour obtenir un consentement préalable et pleinement informé. Lorsque les études sont exclusivement fondées sur des dossiers, l'approbation préalable des organismes chargés d'assurer la confidentialité de ces dossiers doit être obtenue. Dans ces cas, le consentement individuel des participants peut généralement être annulé. Au lieu de cela, l'approbation des dirigeants syndicaux et gouvernementaux suffira. Les enquêtes épidémiologiques ne constituent pas une menace pour la vie privée d'un individu, mais sont une aide potentielle pour améliorer la santé de la population. L'approbation d'un comité d'examen institutionnel (ou comité d'examen éthique) sera nécessaire avant la conduite d'une étude, et une grande partie de ce qui est indiqué ci-dessus sera attendue par eux pour leur examen.
Informations
Dans les études de suivi prospectives, les moyens d'évaluation de l'état de la maladie ou de la mortalité doivent être identiques pour les participants exposés et non exposés. En particulier, différentes sources ne doivent pas être utilisées, telles que la vérification dans un registre central de mortalité uniquement pour les participants non exposés et l'utilisation d'une surveillance active intensive pour les participants exposés. De même, la cause du décès doit être obtenue par des moyens strictement comparables. Cela signifie que si un système est utilisé pour accéder à des documents officiels pour la population non exposée, qui est souvent la population générale, il ne faut jamais envisager d'obtenir des informations encore plus précises par le biais de dossiers médicaux ou d'entretiens sur les participants eux-mêmes ou sur leurs familles pour le sous-groupe exposé.
Dans les études de cohorte rétrospectives, des efforts doivent être faits pour déterminer dans quelle mesure la population étudiée est comparée à la population d'intérêt. Il faut se méfier des pertes différentielles potentielles dans les groupes exposés et non exposés en utilisant diverses sources concernant la composition de la population. Par exemple, il peut être utile de comparer les listes de paie avec les listes de membres des syndicats ou d'autres listes professionnelles. Les divergences doivent être conciliées et le protocole adopté pour l'étude doit être suivi de près.
Dans les études cas-témoins, d'autres options existent pour éviter les biais. Les enquêteurs, le personnel de l'étude et les participants à l'étude n'ont pas besoin d'être au courant de l'hypothèse précise à l'étude. S'ils ne connaissent pas l'association testée, ils sont moins susceptibles d'essayer de fournir la réponse attendue. Garder le personnel de l'étude dans l'ignorance quant à l'hypothèse de recherche est en fait souvent très peu pratique. L'enquêteur connaîtra presque toujours les expositions présentant le plus grand intérêt potentiel ainsi que qui est un cas et qui est un témoin. Il faut donc compter sur leur honnêteté et aussi sur leur formation en méthodologie fondamentale de la recherche, qui devrait faire partie de leur parcours professionnel ; l'objectivité est la marque de fabrique à toutes les étapes de la science.
Il est plus facile de ne pas informer les participants à l'étude de l'objet exact de la recherche. De bonnes explications de base sur la nécessité de collecter des données pour mieux comprendre la santé et la maladie sont généralement suffisantes et satisferont les besoins de l'examen éthique.
La confusion
La confusion est le seul biais qui peut être traité soit au stade de la conception de l'étude, soit, à condition que des informations adéquates soient disponibles, au stade de l'analyse. Si, par exemple, l'âge est considéré comme un facteur de confusion potentiel de l'association d'intérêt parce que l'âge est associé au risque de maladie (c'est-à-dire que le cancer devient plus fréquent chez les personnes âgées) et également à l'exposition (les conditions d'exposition varient avec l'âge ou avec des facteurs liés à l'âge tels que la qualification, le poste et la durée de l'emploi), plusieurs solutions existent. Le plus simple est de limiter l'étude à une tranche d'âge précise - par exemple, ne recruter que des hommes caucasiens âgés de 40 à 50 ans. Cela fournira des éléments d'analyse simple, mais aura aussi l'inconvénient de limiter l'application des résultats à une seule sexe âge/groupe racial. Une autre solution consiste à faire correspondre l'âge. Cela signifie que pour chaque cas, un référent du même âge est nécessaire. C'est une idée intéressante, mais il faut garder à l'esprit la difficulté éventuelle de satisfaire à cette exigence à mesure que le nombre de facteurs d'appariement augmente. De plus, une fois qu'un facteur a été apparié, il devient impossible d'évaluer son rôle dans la survenue de la maladie. La dernière solution consiste à disposer de suffisamment d'informations sur les facteurs de confusion potentiels dans la base de données de l'étude afin de les vérifier dans l'analyse. Cela peut être fait soit par une simple analyse stratifiée, soit avec des outils plus sophistiqués tels que l'analyse multivariée. Cependant, il convient de rappeler que l'analyse ne pourra jamais compenser une étude mal conçue ou mal menée.
Conclusion
La possibilité que des biais se produisent dans la recherche épidémiologique est établie depuis longtemps. Cela n'était pas trop préoccupant lorsque les associations étudiées étaient fortes (comme c'est le cas pour le tabagisme et le cancer du poumon) et, par conséquent, certaines inexactitudes ne causaient pas de problème trop grave. Cependant, maintenant que le moment est venu d'évaluer les facteurs de risque les plus faibles, le besoin de meilleurs outils devient primordial. Cela comprend la nécessité d'excellents modèles d'étude et la possibilité de combiner les avantages de divers modèles traditionnels tels que les études cas-témoins ou de cohorte avec des approches plus innovantes telles que les études cas-témoins imbriquées dans une cohorte. En outre, l'utilisation de biomarqueurs peut fournir les moyens d'obtenir des évaluations plus précises des expositions actuelles et éventuellement passées, ainsi que pour les premiers stades de la maladie.
La fatigue et la récupération sont des processus périodiques dans tout organisme vivant. La fatigue peut être décrite comme un état qui se caractérise par une sensation de fatigue associée à une réduction ou une variation non désirée de la performance de l'activité (Rohmert 1973).
Toutes les fonctions de l'organisme humain ne se fatiguent pas à cause de l'utilisation. Même en dormant, par exemple, nous respirons et notre cœur bat sans arrêt. De toute évidence, les fonctions de base de la respiration et de l'activité cardiaque sont possibles tout au long de la vie sans fatigue et sans pauses pour la récupération.
Par contre, on constate après un gros travail assez prolongé qu'il y a une réduction de capacité - ce que l'on appelle sensation de fatigue. Cela ne s'applique pas à la seule activité musculaire. Les organes sensoriels ou les centres nerveux se fatiguent également. C'est pourtant le but de chaque cellule d'équilibrer la capacité perdue par son activité, un processus que nous appelons récupération.
Stress, effort, fatigue et récupération
Les concepts de fatigue et de récupération au travail humain sont étroitement liés aux concepts ergonomiques de stress et d'effort (Rohmert 1984) (figure 1).
Figure 1. Stress, déformation et fatigue
Le stress désigne la somme de tous les paramètres de travail dans le système de travail qui influencent les personnes au travail, qui sont perçus ou ressentis principalement par le système récepteur ou qui sollicitent le système effecteur. Les paramètres de stress résultent de la tâche de travail (travail musculaire, travail non musculaire - dimensions et facteurs liés à la tâche) et des conditions physiques, chimiques et sociales dans lesquelles le travail doit être effectué (bruit, climat, éclairement, vibrations , travail posté, etc.—dimensions et facteurs liés à la situation).
L'intensité/difficulté, la durée et la composition (c'est-à-dire la répartition simultanée et successive de ces demandes spécifiques) des facteurs de stress se traduisent par un stress combiné, qu'exercent tous les effets exogènes d'un système de travail sur le travailleur. Ce stress combiné peut être géré activement ou supporté passivement, en fonction notamment du comportement de la personne qui travaille. Le cas actif impliquera des activités orientées vers l'efficacité du système de travail, tandis que le cas passif induira des réactions (volontaires ou involontaires), qui visent principalement à minimiser le stress. La relation entre le stress et l'activité est influencée de manière décisive par les caractéristiques individuelles et les besoins de la personne qui travaille. Les principaux facteurs d'influence sont ceux qui déterminent la performance et sont liés à la motivation et à la concentration et ceux liés à la disposition, que l'on peut appeler capacités et compétences.
Les contraintes liées au comportement, qui se manifestent dans certaines activités, provoquent des contraintes individuellement différentes. Les souches peuvent être indiquées par la réaction d'indicateurs physiologiques ou biochimiques (par exemple, l'augmentation de la fréquence cardiaque) ou elles peuvent être perçues. Ainsi, les souches sont sensibles à la "mise à l'échelle psycho-physique", qui estime la souche telle qu'elle est ressentie par la personne qui travaille. Dans une approche comportementale, l'existence d'une contrainte peut également être déduite d'une analyse d'activité. L'intensité avec laquelle les indicateurs de stress (physiologiques-biochimiques, comportementaux ou psycho-physiques) réagissent dépend de l'intensité, de la durée et de la combinaison des facteurs de stress ainsi que des caractéristiques individuelles, des capacités, des compétences et des besoins de la personne qui travaille.
Malgré des contraintes constantes, les indicateurs issus des domaines d'activité, de performance et de pénibilité peuvent varier dans le temps (effet temporel). De telles variations temporelles doivent être interprétées comme des processus d'adaptation des systèmes organiques. Les effets positifs entraînent une réduction de la tension/amélioration de l'activité ou de la performance (par exemple, grâce à l'entraînement). Dans le cas négatif, cependant, ils entraîneront une augmentation de l'effort/une réduction de l'activité ou des performances (par exemple, fatigue, monotonie).
Les effets positifs peuvent entrer en action si les capacités et les compétences disponibles sont améliorées dans le processus de travail lui-même, par exemple, lorsque le seuil de stimulation de l'entraînement est légèrement dépassé. Les effets négatifs sont susceptibles d'apparaître si les soi-disant limites d'endurance (Rohmert 1984) sont dépassées au cours du processus de travail. Cette fatigue entraîne une diminution des fonctions physiologiques et psychologiques, qui peut être compensée par la récupération.
Pour restaurer les performances d'origine, des indemnités de repos ou au moins des périodes avec moins de stress sont nécessaires (Luczak 1993).
Lorsque le processus d'adaptation est porté au-delà de seuils définis, le système organique employé peut être endommagé au point de provoquer une déficience partielle ou totale de ses fonctions. Une réduction irréversible des fonctions peut apparaître lorsque le stress est beaucoup trop élevé (dommage aigu) ou lorsque la récupération est impossible pendant une durée plus longue (dommage chronique). Un exemple typique de tels dommages est la perte auditive induite par le bruit.
Modèles de fatigue
La fatigue peut être multiforme, selon la forme et la combinaison de la contrainte, et une définition générale de celle-ci n'est pas encore possible. Les suites biologiques de la fatigue ne sont en général pas mesurables de manière directe, de sorte que les définitions sont principalement orientées vers les symptômes de la fatigue. Ces symptômes de fatigue peuvent être divisés, par exemple, dans les trois catégories suivantes.
Dans le processus de fatigue, ces trois symptômes peuvent jouer un rôle, mais ils peuvent apparaître à différents moments.
Les réactions physiologiques dans les systèmes organiques, en particulier ceux impliqués dans le travail, peuvent apparaître en premier. Plus tard, les sensations d'effort peuvent être affectées. Les changements de performance se manifestent généralement par une régularité décroissante du travail ou par une quantité croissante d'erreurs, bien que la moyenne des performances ne soit pas encore affectée. Au contraire, avec une motivation appropriée, la personne qui travaille peut même essayer de maintenir ses performances grâce à sa volonté. La prochaine étape peut être une nette réduction des performances se terminant par une dégradation des performances. Les symptômes physiologiques peuvent conduire à une dégradation de l'organisme, y compris des modifications de la structure de la personnalité et à l'épuisement. Le processus de fatigue est expliqué dans la théorie des déstabilisations successives (Luczak 1983).
La tendance principale de la fatigue et de la récupération est illustrée à la figure 2.
Figure 2. Tendance principale de la fatigue et de la récupération
Pronostic de la fatigue et de la récupération
Dans le domaine de l'ergonomie, il existe un intérêt particulier à prédire la fatigue en fonction de l'intensité, de la durée et de la composition des facteurs de stress et à déterminer le temps de récupération nécessaire. Le tableau 1 montre ces différents niveaux d'activité et périodes de réflexion ainsi que les raisons possibles de la fatigue et les différentes possibilités de récupération.
Tableau 1. Fatigue et récupération en fonction des niveaux d'activité
Niveau d'activité |
Période |
Fatigue de |
Récupération par |
La vie de travail |
Décennies |
Surmenage pour |
Retraite |
Phases de la vie professionnelle |
Années |
Surmenage pour |
Vacances |
Séquences de |
Mois/semaines |
Changement défavorable |
Week-end, gratuit |
Un quart de travail |
Un jour |
Stress au-dessus |
Temps libre, repos |
Tâches |
HORAIRES |
Stress au-dessus |
Période de repos |
Partie d'une tâche |
Minutes |
Stress au-dessus |
Changement de tension |
Dans l'analyse ergonomique du stress et de la fatigue pour déterminer le temps de récupération nécessaire, la prise en compte de la durée d'une journée de travail est la plus importante. Les méthodes de telles analyses commencent par la détermination des différents facteurs de stress en fonction du temps (Laurig 1992) (figure 3).
Figure 3. Stress en fonction du temps
Les facteurs de stress sont déterminés à partir du contenu spécifique du travail et des conditions de travail. Le contenu du travail pourrait être la production de force (par exemple, lors de la manipulation de charges), la coordination des fonctions motrices et sensorielles (par exemple, lors de l'assemblage ou de l'utilisation d'une grue), la conversion d'informations en réaction (par exemple, lors du contrôle), les transformations pour produire des informations (par exemple, lors de la programmation, de la traduction) et la production d'informations (par exemple, lors de la conception, de la résolution de problèmes). Les conditions de travail comprennent des aspects physiques (par exemple, bruit, vibrations, chaleur), chimiques (agents chimiques) et sociaux (par exemple, collègues, travail posté).
Dans le cas le plus simple, il y aura un seul facteur de stress important tandis que les autres peuvent être négligés. Dans ces cas, notamment lorsque les facteurs de stress résultent d'un travail musculaire, il est souvent possible de calculer les indemnités de repos nécessaires, car les notions de base sont connues.
Par exemple, l'allocation de repos suffisante dans le travail musculaire statique dépend de la force et de la durée de la contraction musculaire comme dans une fonction exponentielle liée par multiplication selon la formule :
avec
RA = Allocation de repos en pourcentage de t
t = durée de contraction (période de travail) en minutes
T = durée maximale possible de contraction en minutes
f = la force nécessaire pour la force statique et
F = force maximale.
Le lien entre la force, le temps de maintien et les allocations de repos est illustré à la figure 4.
Figure 4. Allocations de repos en pourcentage pour diverses combinaisons de forces de maintien et de temps
Des lois similaires existent pour un travail musculaire dynamique lourd (Rohmert 1962), un travail musculaire léger actif (Laurig 1974) ou différents travaux musculaires industriels (Schmidtke 1971). Plus rarement, vous trouverez des lois comparables pour le travail non physique, par exemple pour l'informatique (Schmidtke 1965). Laurig (1981) et Luczak (1982) donnent un aperçu des méthodes existantes de détermination des indemnités de repos pour les travaux musculaires et non musculaires principalement isolés.
Plus difficile est la situation où il existe une combinaison de différents facteurs de stress, comme le montre la figure 5, qui affectent simultanément la personne active (Laurig 1992).
Figure 5. La combinaison de deux facteurs de stress
La combinaison de deux facteurs de stress, par exemple, peut conduire à des réactions de déformation différentes selon les lois de combinaison. L'effet combiné de différents facteurs de stress peut être indifférent, compensatoire ou cumulatif.
Dans le cas de lois de combinaison indifférentes, les différents facteurs de stress ont un effet sur différents sous-systèmes de l'organisme. Chacun de ces sous-systèmes peut compenser la contrainte sans que la contrainte soit introduite dans un sous-système commun. La déformation globale dépend du facteur de contrainte le plus élevé, et donc les lois de superposition ne sont pas nécessaires.
Un effet compensatoire est donné lorsque la combinaison de différents facteurs de stress conduit à une déformation inférieure à celle de chaque facteur de stress seul. La combinaison du travail musculaire et des basses températures peut réduire l'effort global, car les basses températures permettent au corps de perdre la chaleur produite par le travail musculaire.
Un effet cumulatif se produit si plusieurs facteurs de stress se superposent, c'est-à-dire qu'ils doivent passer par un « goulot d'étranglement » physiologique. Un exemple est la combinaison du travail musculaire et du stress thermique. Les deux facteurs de stress affectent le système circulatoire en tant que goulot d'étranglement commun avec une contrainte cumulative résultante.
Les effets de combinaison possibles entre le travail musculaire et les conditions physiques sont décrits dans Bruder (1993) (voir tableau 2).
Tableau 2. Règles de combinaison des effets de deux facteurs de stress sur la déformation
Du froid |
Vibration |
uniforme |
Bruit |
|
Travail dynamique lourd |
- |
+ |
0 |
0 |
Travail musculaire léger actif |
+ |
+ |
0 |
0 |
Travail musculaire statique |
+ |
+ |
0 |
0 |
0 effet indifférent ; + effet cumulatif ; – effet compensateur.
Source : Adapté de Bruder 1993.
Pour le cas de la combinaison de plus de deux facteurs de stress, qui est la situation normale en pratique, seules des connaissances scientifiques limitées sont disponibles. Il en va de même pour la combinaison successive de facteurs de stress (c'est-à-dire l'effet de contrainte de différents facteurs de stress qui affectent successivement le travailleur). Dans de tels cas, en pratique, le temps de récupération nécessaire est déterminé en mesurant des paramètres physiologiques ou psychologiques et en les utilisant comme valeurs d'intégration.
Les erreurs de mesure de l'exposition peuvent avoir des impacts différents sur la relation exposition-maladie étudiée, selon la manière dont les erreurs sont réparties. Si une étude épidémiologique a été menée à l'aveugle (c'est-à-dire que des mesures ont été prises sans connaître la maladie ou l'état de santé des participants à l'étude), nous nous attendons à ce que l'erreur de mesure soit répartie uniformément entre les strates de la maladie ou de l'état de santé.
Le tableau 1 donne un exemple : supposons que nous recrutions une cohorte de personnes exposées au travail à un toxique, afin d'investiguer une maladie fréquente. Nous déterminons le statut d'exposition uniquement au recrutement (T0), et non à d'autres moments du suivi. Disons cependant qu'un certain nombre d'individus changent effectivement de statut d'exposition l'année suivante : au temps T1, 250 des 1,200 150 personnes exposées à l'origine ont cessé d'être exposées, tandis que 750 des XNUMX personnes non exposées à l'origine ont commencé à être exposées au toxique. Ainsi, à l'instant T1, 1,100 850 personnes sont exposées et XNUMX ne le sont pas. En conséquence, nous avons une « erreur de classification » de l'exposition, basée sur notre mesure initiale de l'état de l'exposition au temps T0. Ces individus sont ensuite retrouvés après 20 ans (au temps T2) et le risque cumulé de maladie est évalué. (L'hypothèse faite dans l'exemple est que seule une exposition de plus d'un an est préoccupante.)
Tableau 1. Cohorte hypothétique de 1950 individus (exposés et non exposés au travail), recrutés au temps T0 et dont le statut pathologique est déterminé au temps T2
Temps |
|||
T0 |
T1 |
T2 |
Travailleurs exposés 1200 250 abandonnent l'exposition 1100 (1200-250+150)
Cas de maladie au temps T2 = 220 parmi les travailleurs exposés
Travailleurs non exposés 750 150 commencent l'exposition 850 (750-150+250)
Cas de maladie au temps T2 = 85 chez les travailleurs non exposés
La vrai risque de la maladie au temps T2 est de 20% chez les travailleurs exposés (220/1100),
et 10 % chez les travailleurs non exposés (85/850) (risque relatif = 2.0).
Risque estimé à T2 de la maladie parmi les personnes classées comme exposées à T0:% 20
(c.-à-d. risque réel chez les personnes exposées) ´ 950 (c.-à-d. 1200-250)+ 10 %
(c'est-à-dire, risque réel chez les non-exposés) ´ 250 = (190+25)/1200 = 17.9 %
Risque estimé à T2 de la maladie parmi ceux classés comme non exposés à
T0: 20 % (c'est-à-dire le risque réel chez les personnes exposées) ´ 150 +10 %
(c'est-à-dire le risque réel chez les personnes non exposées) ´ 600 (c'est-à-dire 750-150) = (30+60)/750 = 12 %
Risque relatif estimé = 17.9 % / 12 % = 1.49
Les erreurs de classification dépendent, dans cet exemple, de la conception de l'étude et des caractéristiques de la population, plutôt que des limites techniques de la mesure de l'exposition. L'effet d'une mauvaise classification est tel que le « vrai » rapport de 2.0 entre le risque cumulé chez les personnes exposées et les personnes non exposées devient un rapport « observé » de 1.49 (tableau 1). Cette sous-estimation du rapport de risque découle d'un « brouillage » de la relation entre l'exposition et la maladie, qui se produit lorsque la classification erronée de l'exposition, comme dans ce cas, est uniformément répartie en fonction de la maladie ou de l'état de santé (c'est-à-dire que la mesure de l'exposition est pas influencé par le fait que la personne souffrait ou non de la maladie que nous étudions).
En revanche, une sous-estimation ou une surestimation de l'association d'intérêt peut se produire lorsque la classification erronée de l'exposition n'est pas uniformément répartie sur le résultat d'intérêt. Dans l'exemple, on peut avoir biais, et pas seulement un brouillage de la relation étiologique, si la classification de l'exposition dépend de la maladie ou de l'état de santé des travailleurs. Cela pourrait se produire, par exemple, si l'on décide de prélever des échantillons biologiques sur un groupe de travailleurs exposés et sur un groupe de travailleurs non exposés, afin d'identifier les changements précoces liés à l'exposition au travail. Les échantillons prélevés sur les travailleurs exposés pourraient alors être analysés de manière plus précise que les échantillons prélevés sur les travailleurs non exposés; la curiosité scientifique pourrait conduire le chercheur à mesurer des biomarqueurs supplémentaires parmi les personnes exposées (y compris, par exemple, des adduits à l'ADN dans les lymphocytes ou des marqueurs urinaires de dommages oxydatifs à l'ADN), en supposant que ces personnes sont scientifiquement "plus intéressantes". Il s'agit d'une attitude assez courante qui, cependant, pourrait conduire à de sérieux préjugés.
Il y a beaucoup de débats sur le rôle des statistiques dans la recherche épidémiologique sur les relations causales. En épidémiologie, la statistique est avant tout un ensemble de méthodes d'évaluation de données basées sur des populations humaines (et aussi animales). En particulier, la statistique est une technique de quantification et de mesure de phénomènes incertains. Toutes les investigations scientifiques qui traitent d'aspects non déterministes et variables de la réalité pourraient bénéficier d'une méthodologie statistique. En épidémiologie, la variabilité est intrinsèque à l'unité d'observation – une personne n'est pas une entité déterministe. Alors que les conceptions expérimentales seraient améliorées pour mieux répondre aux hypothèses des statistiques en termes de variation aléatoire, pour des raisons éthiques et pratiques, cette approche n'est pas trop courante. Au lieu de cela, l'épidémiologie est engagée dans la recherche observationnelle qui lui est associée à la fois des sources aléatoires et d'autres sources de variabilité.
La théorie statistique s'intéresse à la manière de contrôler la variabilité non structurée des données afin de tirer des conclusions valables à partir d'observations empiriques. En l'absence d'explication du comportement variable du phénomène étudié, la statistique le suppose comme aléatoire— c'est-à-dire des écarts non systématiques par rapport à un état moyen de la nature (voir Greenland 1990 pour une critique de ces hypothèses).
La science s'appuie sur l'empirique preuve pour démontrer si ses modèles théoriques d'événements naturels ont une quelconque validité. En effet, les méthodes utilisées à partir de la théorie statistique déterminent dans quelle mesure les observations dans le monde réel sont conformes à la vision des scientifiques, sous forme de modèle mathématique, d'un phénomène. Les méthodes statistiques, basées sur les mathématiques, doivent donc être soigneusement sélectionnées ; il y a plein d'exemples sur "comment mentir avec les statistiques". Par conséquent, les épidémiologistes doivent être conscients de la pertinence des techniques qu'ils appliquent pour mesurer le risque de maladie. En particulier, une grande prudence est nécessaire lors de l'interprétation des résultats statistiquement significatifs et statistiquement non significatifs.
Le premier sens du mot statistiques concerne toute quantité récapitulative calculée sur un ensemble de valeurs. Les indices descriptifs ou statistiques tels que la moyenne arithmétique, la médiane ou le mode sont largement utilisés pour résumer les informations d'une série d'observations. Historiquement, ces descripteurs sommaires étaient utilisés à des fins administratives par les États, et par conséquent ils ont été nommés statistiques. En épidémiologie, les statistiques que l'on voit couramment dérivent des comparaisons inhérentes à la nature de l'épidémiologie, qui pose des questions telles que : « Une population est-elle plus à risque de maladie qu'une autre ? » En faisant de telles comparaisons, le risque relatif est une mesure populaire de la force de l'association entre une caractéristique individuelle et la probabilité de tomber malade, et il est le plus couramment appliqué dans la recherche étiologique ; Le risque attribuable est aussi une mesure de l'association entre les caractéristiques individuelles et la survenue de la maladie, mais il met l'accent sur le gain en nombre de cas épargnés par une intervention qui supprime le facteur en question - il est surtout appliqué en santé publique et en médecine préventive.
Le deuxième sens du mot statistiques concerne l'ensemble des techniques et la théorie sous-jacente de l'inférence statistique. Il s'agit d'une forme particulière de logique inductive qui spécifie les règles permettant d'obtenir une généralisation valide à partir d'un ensemble particulier d'observations empiriques. Cette généralisation serait valide à condition que certaines hypothèses soient satisfaites. C'est la deuxième façon dont une utilisation peu éduquée des statistiques peut nous tromper : en épidémiologie observationnelle, il est très difficile d'être sûr des hypothèses qu'impliquent les techniques statistiques. Par conséquent, une analyse de sensibilité et des estimateurs robustes devraient accompagner toute analyse de données correctement menée. Les conclusions finales doivent également être basées sur des connaissances globales et ne doivent pas reposer exclusivement sur les résultats de tests d'hypothèses statistiques.
Définitions
A unité statistique est l'élément sur lequel les observations empiriques sont faites. Il peut s'agir d'une personne, d'un spécimen biologique ou d'un morceau de matière première à analyser. Habituellement, les unités statistiques sont choisies indépendamment par le chercheur, mais parfois des conceptions plus complexes peuvent être mises en place. Par exemple, dans les études longitudinales, une série de déterminations est faite sur un ensemble de personnes au fil du temps ; les unités statistiques de cette étude sont l'ensemble des déterminations, qui ne sont pas indépendantes, mais structurées par leurs liens respectifs à chaque personne étudiée. Le manque d'indépendance ou de corrélation entre les unités statistiques mérite une attention particulière dans l'analyse statistique.
A variable est une caractéristique individuelle mesurée sur une unité statistique donnée. Il doit être mis en contraste avec un constant, une caractéristique individuelle fixe - par exemple, dans une étude sur des êtres humains, avoir une tête ou un thorax sont des constantes, tandis que le sexe d'un seul membre de l'étude est une variable.
Les variables sont évaluées à l'aide de différents échelles de mesure. La première distinction est entre les échelles qualitatives et quantitatives. Les variables qualitatives fournissent différentes modalités or catégories. Si chaque modalité ne peut pas être classée ou ordonnée par rapport aux autres - par exemple, la couleur des cheveux ou les modalités de genre - nous notons la variable comme nominal. Si les catégories peuvent être ordonnées, comme le degré de gravité d'une maladie, la variable est appelée ordinal. Lorsqu'une variable est constituée d'une valeur numérique, on dit que l'échelle est quantitative. UNE discret L'échelle indique que la variable ne peut prendre que certaines valeurs définies, par exemple, des valeurs entières pour le nombre de cas de maladie. UNE continu l'échelle est utilisée pour les mesures qui aboutissent à réal Nombres. On dit que les échelles continues sont intervalle échelles lorsque la valeur nulle a une signification purement conventionnelle. Autrement dit, une valeur de zéro ne signifie pas une quantité nulle - par exemple, une température de zéro degré Celsius ne signifie pas une énergie thermique nulle. Dans ce cas, seules les différences entre les valeurs ont un sens (c'est la raison du terme échelle « d'intervalle »). Une vraie valeur nulle dénote un rapport échelle. Pour une variable mesurée sur cette échelle, les rapports de valeurs ont également un sens : en effet, un rapport double signifie une quantité double. Par exemple, dire qu'un corps a une température deux fois supérieure à un deuxième corps signifie qu'il a deux fois l'énergie thermique du deuxième corps, à condition que la température est mesurée sur une échelle de rapport (par exemple, en degrés Kelvin). L'ensemble des valeurs autorisées pour une variable donnée est appelé le domaine de la variable.
Paradigmes statistiques
La statistique traite de la manière de généraliser à partir d'un ensemble d'observations particulières. Cet ensemble de mesures empiriques est appelé un échantillon. A partir d'un échantillon, nous calculons quelques statistiques descriptives afin de synthétiser les informations recueillies.
Les informations de base généralement requises pour caractériser un ensemble de mesures concernent sa tendance centrale et sa variabilité. Le choix entre plusieurs alternatives dépend de l'échelle utilisée pour mesurer un phénomène et des objectifs pour lesquels les statistiques sont calculées. Dans le tableau 1, différentes mesures de tendance centrale et de variabilité (ou dispersion) sont décrites et associées à l'échelle de mesure appropriée.
Tableau 1. Indices de tendance centrale et de dispersion par échelle de mesure
Échelle de mesure |
||||
Qualitative |
Quantitatif |
|||
Indices |
Définition |
Capacité |
Ordinal |
Intervalle/rapport |
Moyenne arithmétique |
Somme des valeurs observées divisée par le nombre total d'observations |
|
|
x |
Moyenne |
Valeur médiane de la distribution observée |
|
x |
x |
Mode |
Valeur la plus fréquente |
x |
x |
x |
Catégorie |
Valeurs les plus basses et les plus hautes de la distribution |
|
x |
x |
Variance |
Somme de la différence au carré de chaque valeur par rapport à la moyenne divisée par le nombre total d'observations moins 1 |
|
|
x |
Les statistiques descriptives calculées sont appelées estimations lorsque nous les utilisons comme substitut de la quantité analogue de la population à partir de laquelle l'échantillon a été sélectionné. Les contreparties de population des estimations sont des constantes appelées paramètres. Des estimations d'un même paramètre peuvent être obtenues à l'aide de différentes méthodes statistiques. Une estimation doit être à la fois valide et précise.
Le paradigme population-échantillon implique que la validité peut être assurée par la manière dont l'échantillon est sélectionné dans la population. L'échantillonnage aléatoire ou probabiliste est la stratégie habituelle : si chaque membre de la population a la même probabilité d'être inclus dans l'échantillon, alors, en moyenne, notre échantillon devrait être représentatif de la population et, de plus, tout écart par rapport à notre attente pourrait être expliqué par hasard. La probabilité d'un écart donné par rapport à notre attente peut également être calculée, à condition qu'un échantillonnage aléatoire ait été effectué. Le même type de raisonnement s'applique aux estimations calculées pour notre échantillon en ce qui concerne les paramètres de la population. Nous prenons, par exemple, la moyenne arithmétique de notre échantillon comme estimation de la valeur moyenne pour la population. Toute différence, si elle existe, entre la moyenne de l'échantillon et la moyenne de la population est attribuée à des fluctuations aléatoires dans le processus de sélection des membres inclus dans l'échantillon. Nous pouvons calculer la probabilité de toute valeur de cette différence, à condition que l'échantillon ait été sélectionné au hasard. Si l'écart entre l'estimation de l'échantillon et le paramètre de la population ne peut être expliqué par le hasard, l'estimation est dite biaisé. La conception de l'observation ou de l'expérience assure la validité des estimations et le paradigme statistique fondamental est celui de l'échantillonnage aléatoire.
En médecine, un deuxième paradigme est adopté lorsqu'une comparaison entre différents groupes est le but de l'étude. Un exemple typique est l'essai clinique contrôlé : un ensemble de patients présentant des caractéristiques similaires est sélectionné sur la base de critères prédéfinis. Aucun souci de représentativité n'est fait à ce stade. Chaque patient inscrit à l'essai est affecté par une procédure aléatoire au groupe de traitement - qui recevra le traitement standard plus le nouveau médicament à évaluer - ou au groupe témoin - recevant le traitement standard et un placebo. Dans ce plan, l'attribution aléatoire des patients à chaque groupe remplace la sélection aléatoire des membres de l'échantillon. L'estimation de la différence entre les deux groupes peut être appréciée statistiquement car, sous l'hypothèse d'aucune efficacité du nouveau médicament, on peut calculer la probabilité de toute différence non nulle.
En épidémiologie, il nous manque la possibilité de rassembler aléatoirement des groupes de personnes exposées et non exposées. Dans ce cas, on peut toujours utiliser des méthodes statistiques, comme si les groupes analysés avaient été tirés au sort ou répartis. L'exactitude de cette hypothèse repose principalement sur la conception de l'étude. Ce point est particulièrement important et souligne l'importance de la conception des études épidémiologiques par rapport aux techniques statistiques dans la recherche biomédicale.
Signal et bruit
Le terme Variable aléatoire fait référence à une variable pour laquelle une probabilité définie est associée à chaque valeur qu'elle peut prendre. Les modèles théoriques de distribution de la probabilité d'une variable aléatoire sont des modèles de population. Les homologues de l'échantillon sont représentés par la distribution de fréquence d'échantillonnage. C'est un moyen utile de rapporter un ensemble de données ; il se compose d'un plan cartésien avec la variable d'intérêt le long de l'axe horizontal et la fréquence ou fréquence relative le long de l'axe vertical. Un affichage graphique permet de voir aisément quelle(s) est (sont) la (les) valeur(s) la plus fréquente(s) et comment la distribution se concentre autour de certaines valeurs centrales comme la moyenne arithmétique.
Pour les variables aléatoires et leurs distributions de probabilité, nous utilisons les termes paramètres, valeur moyenne attendue (au lieu de la moyenne arithmétique) et variance. Ces modèles théoriques décrivent la variabilité d'un phénomène donné. En théorie de l'information, le signal est représenté par la tendance centrale (par exemple, la valeur moyenne), tandis que le bruit est mesuré par un indice de dispersion (comme la variance).
Pour illustrer l'inférence statistique, nous utiliserons le modèle binomial. Dans les sections qui suivent, les notions d'estimations ponctuelles et d'intervalles de confiance, de tests d'hypothèses et de probabilité de décisions erronées, et de puissance d'une étude seront introduites.
Tableau 2. Résultats possibles d'une expérience binomiale (oui = 1, non = 0) et leurs probabilités (n = 3)
Ouvrier |
Probabilité |
||
A |
B |
C |
|
0 |
0 |
0 |
|
1 |
0 |
0 |
|
0 |
1 |
0 |
|
0 |
0 |
1 |
|
0 |
1 |
1 |
|
1 |
0 |
1 |
|
1 |
1 |
0 |
|
1 |
1 |
1 |
Un exemple : la distribution binomiale
En recherche biomédicale et en épidémiologie, le modèle le plus important de variation stochastique est la distribution binomiale. Elle repose sur le fait que la plupart des phénomènes se comportent comme une variable nominale avec seulement deux catégories : par exemple, la présence/absence de maladie : vivant/mort, ou guéri/malade. Dans de telles circonstances, nous nous intéressons à la probabilité de succès, c'est-à-dire à l'événement qui nous intéresse (par exemple, présence d'une maladie, vivant ou guéri) et aux facteurs ou variables qui peuvent la modifier. Considérons n = 3 travailleurs, et supposons que nous nous intéressons à la probabilité, p, d'avoir une déficience visuelle (oui/non). Le résultat de notre observation pourrait être les résultats possibles du tableau 2.
Tableau 3. Résultats possibles d'une expérience binomiale (oui = 1, non = 0) et leurs probabilités (n = 3)
Nombre de succès |
Probabilité |
0 |
|
1 |
|
2 |
|
3 |
La probabilité de chacune de ces combinaisons d'événements est facilement obtenue en considérant p, la probabilité (individuelle) de succès, constante pour chaque sujet et indépendante des autres résultats. Puisque nous nous intéressons au nombre total de succès et non à une séquence ordonnée spécifique, nous pouvons réorganiser le tableau comme suit (voir tableau 3) et, en général, exprimer la probabilité de x succès P (x) comme:
De x est le nombre de succès et la notation x! désigne la factorielle de x, c'est à dire, x! = x×(x–1)×(x–2)…×1.
Lorsque l'on considère l'événement « être/ne pas être malade », la probabilité individuelle, désigne l'état dans lequel le sujet est présumé ; en épidémiologie, cette probabilité est appelée « prévalence ». Pour estimer p, nous utilisons la proportion d'échantillon :
p = x/n
avec écart :
Dans une hypothétique série infinie d'échantillons répliqués de même taille n, on obtiendrait des proportions d'échantillon différentes p = x/n, avec des probabilités données par la formule binomiale. La « vraie » valeur de est estimé par chaque proportion d'échantillon, et un intervalle de confiance pour p, c'est-à-dire l'ensemble des valeurs probables pour p, compte tenu des données observées et d'un niveau de confiance prédéfini (disons 95%), est estimé à partir de la distribution binomiale comme l'ensemble des valeurs de p qui donne une probabilité de x supérieure à une valeur prédéfinie (disons 2.5 %). Pour une expérience hypothétique dans laquelle nous avons observé x = 15 succès en n = 30 essais, la probabilité estimée de succès est :
Tableau 4. Distribution binomiale. Probabilités pour différentes valeurs de pour x = 15 succès en n = 30 essais
Probabilité |
|
0.200 |
0.0002 |
0.300 |
0.0116 |
0.334 |
0.025 |
0.400 |
0.078 |
0.500 |
0.144 |
0.600 |
0.078 |
0.666 |
0.025 |
0.700 |
0.0116 |
L'intervalle de confiance à 95 % pour p, obtenu à partir du tableau 4, est de 0.334 à 0.666. Chaque entrée du tableau indique la probabilité de x = 15 succès en n = 30 essais calculés avec la formule binomiale ; par exemple, pour = 0.30, on obtient de :
Pour n grand et p proche de 0.5 on peut utiliser une approximation basée sur la distribution gaussienne :
De za /2 désigne la valeur de la distribution gaussienne standard pour une probabilité
P (|z| ³ za /2) = a/2;
1 – a étant le niveau de confiance choisi. Pour l'exemple considéré, = 15/30 = 0.5 ; n = 30 et de la table gaussienne standard z0.025 = 1.96. L'intervalle de confiance à 95 % donne l'ensemble de valeurs 0.321 - 0.679, obtenu en remplaçant p = 0.5, n = 30, et z0.025 = 1.96 dans l'équation ci-dessus pour la distribution gaussienne. Notez que ces valeurs sont proches des valeurs exactes calculées auparavant.
Les tests statistiques d'hypothèses comprennent une procédure de décision sur la valeur d'un paramètre de population. Supposons, dans l'exemple précédent, que nous voulions répondre à la proposition selon laquelle il existe un risque élevé de déficience visuelle chez les travailleurs d'une usine donnée. L'hypothèse scientifique à tester par nos observations empiriques est alors « il existe un risque élevé de déficience visuelle chez les travailleurs d'une usine donnée ». Les statisticiens démontrent de telles hypothèses en falsifiant l'hypothèse complémentaire « il n'y a pas d'élévation du risque de déficience visuelle ». Ceci suit la démonstration mathématique par absurde et, au lieu de vérifier une affirmation, les preuves empiriques ne servent qu'à la falsifier. L'hypothèse statistique est appelée hypothèse nulle. La deuxième étape consiste à spécifier une valeur pour le paramètre de cette distribution de probabilité utilisée pour modéliser la variabilité des observations. Dans nos exemples, le phénomène étant binaire (c'est-à-dire présence/absence de déficience visuelle), nous choisissons la distribution binomiale de paramètre p, la probabilité de déficience visuelle. L'hypothèse nulle affirme que = 0.25, disons. Cette valeur est choisie parmi l'ensemble des connaissances sur le sujet et la connaissance a priori de la prévalence habituelle de la déficience visuelle dans les populations non exposées (c'est-à-dire les non-travailleurs). Supposons que nos données produisent une estimation = 0.50, sur les 30 travailleurs examinés.
Peut-on rejeter l'hypothèse nulle ?
Si oui, en faveur de quoi alternative hypothèse?
Nous spécifions une hypothèse alternative comme candidate si les preuves dictent que l'hypothèse nulle soit rejetée. Les hypothèses alternatives non directionnelles (bilatérales) indiquent que le paramètre de population est différent de la valeur indiquée dans l'hypothèse nulle ; les hypothèses alternatives directionnelles (unilatérales) indiquent que le paramètre de population est supérieur (ou inférieur) à la valeur nulle.
Tableau 5. Distribution binomiale. Probabilités de succès pour = 0.25 dans n = 30 essais
X |
Probabilité |
Probabilité cumulative |
0 |
0.0002 |
0.0002 |
1 |
0.0018 |
0.0020 |
2 |
0.0086 |
0.0106 |
3 |
0.0269 |
0.0374 |
4 |
0.0604 |
0.0979 |
5 |
0.1047 |
0.2026 |
6 |
0.1455 |
0.3481 |
7 |
0.1662 |
0.5143 |
8 |
0.1593 |
0.6736 |
9 |
0.1298 |
0.8034 |
10 |
0.0909 |
0.8943 |
11 |
0.0551 |
0.9493 |
12 |
0.0291 |
0.9784 |
13 |
0.0134 |
0.9918 |
14 |
0.0054 |
0.9973 |
15 |
0.0019 |
0.9992 |
16 |
0.0006 |
0.9998 |
17 |
0.0002 |
1.0000 |
. |
. |
. |
30 |
0.0000 |
1.0000 |
Sous l'hypothèse nulle, nous pouvons calculer la distribution de probabilité des résultats de notre exemple. Le tableau 5 montre, pour = 0.25 et n = 30, les probabilités (voir équation (1)) et les probabilités cumulées :
A partir de ce tableau, on obtient la probabilité d'avoir x ³15 travailleurs ayant une déficience visuelle
P(x ³15) = 1 - P(X15) = 1 - 0.9992 = 0.0008
Cela signifie qu'il est hautement improbable que nous observions 15 travailleurs ou plus ayant une déficience visuelle s'ils connaissaient la prévalence de la maladie des populations non exposées. Par conséquent, nous pourrions rejeter l'hypothèse nulle et affirmer qu'il existe une prévalence plus élevée de déficience visuelle dans la population de travailleurs étudiée.
Quand n×p ³ 5 et n×(1-) ³ 5, on peut utiliser l'approximation gaussienne :
À partir du tableau de la distribution gaussienne standard, nous obtenons :
P(|z|>2.95) = 0.0008
en accord étroit avec les résultats exacts. De cette approximation, nous pouvons voir que la structure de base d'un test statistique d'hypothèse consiste en le rapport signal sur bruit. Dans notre cas, le signal est (p-), l'écart observé par rapport à l'hypothèse nulle, tandis que le bruit est l'écart type de P:
Plus le rapport est grand, plus la probabilité de la valeur nulle est faible.
En prenant des décisions sur des hypothèses statistiques, nous pouvons encourir deux types d'erreurs : une erreur de type I, le rejet de l'hypothèse nulle lorsqu'elle est vraie ; soit une erreur de type II, acceptation de l'hypothèse nulle alors qu'elle est fausse. Le niveau de probabilité, ou valeur p, est la probabilité d'une erreur de type I, désignée par la lettre grecque a. Ceci est calculé à partir de la distribution de probabilité des observations sous l'hypothèse nulle. Il est d'usage de prédéfinir un niveau d'erreur a (par exemple, 5%, 1%) et de rejeter l'hypothèse nulle lorsque le résultat de notre observation a une probabilité égale ou inférieure à ce niveau dit critique.
La probabilité d'une erreur de type II est désignée par la lettre grecque β. Pour le calculer, il faut préciser, dans l'hypothèse alternative, la valeur α du paramètre à tester (dans notre exemple, la valeur α de ). Les hypothèses alternatives génériques (différent de, supérieur à, inférieur à) ne sont pas utiles. En pratique, la valeur β pour un ensemble d'hypothèses alternatives est intéressante, ou son complément, qui est appelé la puissance statistique du test. Par exemple, en fixant la valeur de l'erreur α à 5 %, à partir du tableau 5, nous trouvons :
P(x ³12) <0.05
sous l'hypothèse nulle = 0.25. Si nous devions observer au moins x = 12 succès, on rejetterait l'hypothèse nulle. Les valeurs β correspondantes et la puissance pour x = 12 sont donnés par le tableau 6.
Tableau 6. Erreur de type II et puissance pour x = 12, n = 30, α = 0.05
β |
Puissance |
|
0.30 |
0.9155 |
0.0845 |
0.35 |
0.7802 |
0.2198 |
0.40 |
0.5785 |
0.4215 |
0.45 |
0.3592 |
0.6408 |
0.50 |
0.1808 |
0.8192 |
0.55 |
0.0714 |
0.9286 |
Dans ce cas, nos données ne peuvent pas discriminer si est supérieure à la valeur nulle de 0.25 mais inférieure à 0.50, car la puissance de l'étude est trop faible (<80%) pour ces valeurs de <0.50, c'est-à-dire que la sensibilité de notre étude est de 8 % pour = 0.3, 22 % pour = 0.35,…, 64% pour = 0.45.
La seule façon d'obtenir un β inférieur, ou un niveau de puissance supérieur, serait d'augmenter la taille de l'étude. Par exemple, dans le tableau 7, nous rapportons β et la puissance pour n = 40 ; comme prévu, nous devrions pouvoir détecter un valeur supérieure à 0.40.
Tableau 7. Erreur de type II et puissance pour x = 12, n = 40, α = 0.05
β |
Puissance |
|
0.30 |
0.5772 |
0.4228 |
0.35 |
0.3143 |
0.6857 |
0.40 |
0.1285 |
0.8715 |
0.45 |
0.0386 |
0.8614 |
0.50 |
0.0083 |
0.9917 |
0.55 |
0.0012 |
0.9988 |
La conception de l'étude est basée sur un examen minutieux de l'ensemble des hypothèses alternatives qui méritent considération et garantissent la puissance de l'étude en fournissant une taille d'échantillon adéquate.
Dans la littérature épidémiologique, la pertinence de fournir des estimations de risque fiables a été soulignée. Par conséquent, il est plus important de rapporter des intervalles de confiance (95 % ou 90 %) qu'un p-valeur d'un test d'une hypothèse. Suivant le même type de raisonnement, il convient d'être attentif à l'interprétation des résultats d'études de petite taille : du fait de la faible puissance, même des effets intermédiaires pourraient ne pas être détectés et, d'autre part, des effets de grande ampleur pourraient ne pas être répliqués par la suite.
Méthodes avancées
Le degré de complexité des méthodes statistiques utilisées dans le contexte de la médecine du travail s'est accru au cours des dernières années. Des développements majeurs peuvent être trouvés dans le domaine de la modélisation statistique. La famille de modèles non gaussiens de Nelder et Wedderburn (modèles linéaires généralisés) a été l'une des contributions les plus frappantes à l'augmentation des connaissances dans des domaines tels que l'épidémiologie professionnelle, où les variables de réponse pertinentes sont binaires (par exemple, survie/décès) ou comptages (par exemple, nombre d'accidents du travail).
Ce fut le point de départ d'une application extensive des modèles de régression comme alternative aux types d'analyse plus traditionnels basés sur des tableaux de contingence (analyse simple et stratifiée). Poisson, Cox et la régression logistique sont désormais couramment utilisés pour l'analyse des études longitudinales et cas-témoins, respectivement. Ces modèles sont le pendant de la régression linéaire pour les variables de réponse catégorielles et ont la particularité élégante de fournir directement la mesure épidémiologique pertinente de l'association. Par exemple, les coefficients de la régression de Poisson sont le logarithme des rapports de taux, tandis que ceux de la régression logistique sont le log des rapports de cotes.
En prenant cela comme référence, les développements ultérieurs dans le domaine de la modélisation statistique ont pris deux directions principales : les modèles pour les mesures catégorielles répétées et les modèles qui étendent les modèles linéaires généralisés (modèles additifs généralisés). Dans les deux cas, les objectifs sont axés sur l'augmentation de la flexibilité des outils statistiques afin de faire face à des problèmes plus complexes découlant de la réalité. Des modèles de mesures répétées sont nécessaires dans de nombreuses études professionnelles où les unités d'analyse se situent au niveau sous-individuel. Par exemple:
Un développement parallèle et probablement plus rapide a été observé dans le contexte des statistiques bayésiennes. La barrière pratique de l'utilisation des méthodes bayésiennes s'est effondrée après l'introduction des méthodes à forte intensité de calcul. Les procédures de Monte Carlo telles que les schémas d'échantillonnage de Gibbs nous ont permis d'éviter le besoin d'intégration numérique pour calculer les distributions postérieures qui représentaient la caractéristique la plus difficile des méthodes bayésiennes. Le nombre d'applications des modèles bayésiens dans des problèmes réels et complexes a trouvé de plus en plus d'espace dans les revues appliquées. Par exemple, les analyses géographiques et les corrélations écologiques au niveau des petites zones et les modèles de prédiction du SIDA sont de plus en plus souvent abordés à l'aide d'approches bayésiennes. Ces développements sont les bienvenus parce qu'ils représentent non seulement une augmentation du nombre de solutions statistiques alternatives qui pourraient être employées dans l'analyse des données épidémiologiques, mais aussi parce que l'approche bayésienne peut être considérée comme une stratégie plus solide.
Les articles précédents de ce chapitre ont montré la nécessité d'une évaluation minutieuse de la conception de l'étude afin de tirer des conclusions crédibles à partir des observations épidémiologiques. Bien qu'il ait été affirmé que les inférences en épidémiologie observationnelle sont faibles en raison de la nature non expérimentale de la discipline, il n'y a pas de supériorité intrinsèque des essais contrôlés randomisés ou d'autres types de conception expérimentale sur l'observation bien planifiée (Cornfield 1954). Cependant, tirer des conclusions valables implique une analyse approfondie de la conception de l'étude afin d'identifier les sources potentielles de biais et de confusion. Les résultats faux positifs et faux négatifs peuvent provenir de différents types de biais.
Dans cet article, certaines des lignes directrices qui ont été proposées pour évaluer la nature causale des observations épidémiologiques sont discutées. En outre, même si une bonne science est une prémisse pour une recherche épidémiologique éthiquement correcte, il existe d'autres questions qui sont pertinentes pour les préoccupations éthiques. Par conséquent, nous avons consacré une partie de la discussion à l'analyse des problèmes éthiques qui peuvent survenir lors de la réalisation d'études épidémiologiques.
Évaluation de la causalité
Plusieurs auteurs ont discuté de l'évaluation de la causalité en épidémiologie (Hill 1965 ; Buck 1975 ; Ahlbom 1984 ; Maclure 1985 ; Miettinen 1985 ; Rothman 1986 ; Weed 1986 ; Schlesselman 1987 ; Maclure 1988 ; Weed 1988 ; Karhausen 1995). L'un des principaux points de discussion est de savoir si l'épidémiologie utilise ou devrait utiliser les mêmes critères pour la détermination des relations de cause à effet que ceux utilisés dans d'autres sciences.
Les causes ne doivent pas être confondues avec les mécanismes. Par exemple, l'amiante est une cause de mésothéliome, tandis que la mutation oncogène est un mécanisme putatif. Sur la base des preuves existantes, il est probable que (a) différentes expositions externes peuvent agir aux mêmes stades mécanistes et (b) il n'y a généralement pas de séquence fixe et nécessaire d'étapes mécanistes dans le développement de la maladie. Par exemple, la carcinogenèse est interprétée comme une séquence de transitions stochastiques (probabilistes), de la mutation génique à la prolifération cellulaire, puis à nouveau à la mutation génique, qui finit par conduire au cancer. De plus, la cancérogenèse est un processus multifactoriel, c'est-à-dire que différentes expositions externes peuvent l'affecter et qu'aucune d'entre elles n'est nécessaire chez une personne sensible. Ce modèle est susceptible de s'appliquer à plusieurs maladies en plus du cancer.
Une telle nature multifactorielle et probabiliste de la plupart des relations exposition-maladie implique qu'il est difficile de démêler le rôle joué par une exposition spécifique. De plus, la nature observationnelle de l'épidémiologie nous empêche de mener des expériences qui pourraient clarifier les relations étiologiques par une altération volontaire du cours des événements. L'observation d'une association statistique entre l'exposition et la maladie ne signifie pas que l'association est causale. Par exemple, la plupart des épidémiologistes ont interprété l'association entre l'exposition aux gaz d'échappement diesel et le cancer de la vessie comme causale, mais d'autres ont affirmé que les travailleurs exposés aux gaz d'échappement diesel (principalement les chauffeurs de camions et de taxis) sont plus souvent des fumeurs de cigarettes que les personnes non exposées. . L'association observée, selon cette affirmation, serait donc « confondue » par un facteur de risque bien connu comme le tabagisme.
Compte tenu de la nature probabiliste et multifactorielle de la plupart des associations exposition-maladie, les épidémiologistes ont élaboré des lignes directrices pour reconnaître les relations susceptibles d'être causales. Voici les lignes directrices initialement proposées par Sir Bradford Hill pour les maladies chroniques (1965) :
Ces critères doivent être considérés uniquement comme des lignes directrices générales ou des outils pratiques ; en fait, l'évaluation causale scientifique est un processus itératif centré sur la mesure de la relation exposition-maladie. Cependant, les critères de Hill sont souvent utilisés comme une description concise et pratique des procédures d'inférence causale en épidémiologie.
Prenons l'exemple de la relation entre l'exposition au chlorure de vinyle et l'angiosarcome du foie, en appliquant les critères de Hill.
L'expression usuelle des résultats d'une étude épidémiologique est une mesure du degré d'association entre exposition et maladie (premier critère de Hill). Un risque relatif (RR) supérieur à l'unité signifie qu'il existe une association statistique entre l'exposition et la maladie. Par exemple, si le taux d'incidence de l'angiosarcome du foie est généralement de 1 sur 10 millions, mais qu'il est de 1 sur 100,000 100 chez les personnes exposées au chlorure de vinyle, alors le RR est de 100 (c'est-à-dire que les personnes qui travaillent avec du chlorure de vinyle ont une augmentation de XNUMX fois risque de développer un angiosarcome par rapport aux personnes qui ne travaillent pas avec du chlorure de vinyle).
Il est plus probable qu'une association soit causale lorsque le risque augmente avec l'augmentation des niveaux d'exposition (effet dose-réponse, deuxième critère de Hill) et lorsque la relation temporelle entre l'exposition et la maladie a un sens biologique (l'exposition précède l'effet et la durée de cette période « d'induction » est compatible avec un modèle biologique de la maladie ; troisième critère de Hill). De plus, une association est plus susceptible d'être causale lorsque des résultats similaires sont obtenus par d'autres personnes qui ont pu reproduire les résultats dans des circonstances différentes (« cohérence », quatrième critère de Hill).
Une analyse scientifique des résultats nécessite une évaluation de la plausibilité biologique (cinquième critère de Hill). Ceci peut être réalisé de différentes manières. Par exemple, un critère simple consiste à évaluer si la « cause » alléguée est capable d'atteindre l'organe cible (par exemple, les substances inhalées qui n'atteignent pas les poumons ne peuvent pas circuler dans l'organisme). De plus, des preuves à l'appui provenant d'études animales sont utiles : l'observation d'angiosarcomes hépatiques chez des animaux traités au chlorure de vinyle renforce fortement l'association observée chez l'homme.
La cohérence interne des observations (par exemple, le RR est augmenté de manière similaire dans les deux sexes) est un critère scientifique important (sixième critère de Hill). La causalité est plus probable lorsque la relation est très spécifique, c'est-à-dire qu'elle implique des causes rares et/ou des maladies rares, ou un type/sous-groupe histologique spécifique de patients (septième critère de Hill).
« L'induction énumérative » (la simple énumération des cas d'association entre l'exposition et la maladie) est insuffisante pour décrire complètement les étapes inductives du raisonnement causal. Habituellement, le résultat de l'induction énumérative produit une observation complexe et encore confuse parce que différentes chaînes causales ou, plus fréquemment, une véritable relation causale et d'autres expositions non pertinentes, sont enchevêtrées. Les explications alternatives doivent être éliminées par «induction éliminatoire», montrant qu'une association est susceptible d'être causale parce qu'elle n'est pas «confondue» avec d'autres. Une définition simple d'une explication alternative est "un facteur étranger dont l'effet est mélangé à l'effet de l'exposition d'intérêt, faussant ainsi l'estimation du risque pour l'exposition d'intérêt" (Rothman 1986).
Le rôle de l'induction est d'élargir les connaissances, alors que le rôle de la déduction est de « transmettre la vérité » (Giere 1979). Le raisonnement déductif examine la conception de l'étude et identifie les associations qui ne sont pas empiriquement vraies, mais juste logiquement vraies. De telles associations ne sont pas une question de fait, mais des nécessités logiques. Par exemple, un biais de séléction se produit lorsque le groupe exposé est sélectionné parmi des personnes malades (comme lorsque nous commençons une étude de cohorte recrutant comme « exposés » au chlorure de vinyle un groupe de cas d'angiosarcome du foie) ou lorsque le groupe non exposé est sélectionné parmi des personnes en bonne santé. Dans les deux cas, l'association trouvée entre l'exposition et la maladie est nécessairement (logiquement) mais non empiriquement vraie (Vineis 1991).
En conclusion, même si l'on considère sa nature observationnelle (non expérimentale), l'épidémiologie n'utilise pas de procédures inférentielles qui diffèrent substantiellement de la tradition des autres disciplines scientifiques (Hume 1978 ; Schaffner 1993).
Questions éthiques dans la recherche épidémiologique
En raison des subtilités impliquées dans l'inférence de la causalité, les épidémiologistes doivent être particulièrement prudents dans l'interprétation de leurs études. En effet, plusieurs préoccupations d'ordre éthique en découlent.
Les questions éthiques dans la recherche épidémiologique sont devenues un sujet de discussion intense (Schulte 1989 ; Soskolne 1993 ; Beauchamp et al. 1991). La raison en est évidente : les épidémiologistes, en particulier les épidémiologistes du travail et de l'environnement, étudient souvent des questions ayant d'importantes implications économiques, sociales et politiques de santé. Les résultats négatifs et positifs concernant l'association entre des expositions chimiques spécifiques et la maladie peuvent affecter la vie de milliers de personnes, influencer les décisions économiques et donc sérieusement conditionner les choix politiques. Ainsi, l'épidémiologiste peut être sous pression, et être tenté voire incité par d'autres à modifier, marginalement ou substantiellement, l'interprétation des résultats de ses investigations.
Parmi les nombreuses questions pertinentes, transparence de la collecte, du codage, de l'informatisation et de l'analyse des données est essentielle en tant que défense contre les allégations de partialité de la part du chercheur. Également crucial, et potentiellement en conflit avec une telle transparence, est le droit des sujets inscrits à la recherche épidémiologique d'être protégés contre la divulgation d'informations personnelles
(confidentialité problèmes).
Du point de vue de l'inconduite qui peut survenir en particulier dans le contexte de l'inférence causale, les questions qui devraient être abordées par les lignes directrices en matière d'éthique sont :
D'autres questions cruciales, dans le cas de l'épidémiologie professionnelle et environnementale, concernent l'implication des travailleurs dans les phases préliminaires des études, et la diffusion des résultats d'une étude aux sujets qui ont été enrôlés et sont directement concernés (Schulte 1989 ). Malheureusement, il n'est pas courant que les travailleurs inscrits à des études épidémiologiques soient impliqués dans des discussions collaboratives sur les objectifs de l'étude, son interprétation et les utilisations potentielles des résultats (ce qui peut être à la fois avantageux et préjudiciable au travailleur).
Des réponses partielles à ces questions ont été fournies par des recommandations récentes (Beauchamp et al. 1991 ; CIOMS 1991). Cependant, dans chaque pays, les associations professionnelles d'épidémiologistes du travail devraient engager une discussion approfondie sur les questions éthiques et, éventuellement, adopter un ensemble de lignes directrices éthiques adaptées au contexte local tout en reconnaissant les normes de pratique normatives acceptées au niveau international.
La documentation des maladies professionnelles dans un pays comme Taïwan est un défi pour un médecin du travail. Faute d'un système comprenant des fiches de données de sécurité (FDS), les travailleurs n'étaient généralement pas au courant des produits chimiques avec lesquels ils travaillaient. Étant donné que de nombreuses maladies professionnelles ont de longues latences et ne présentent aucun symptôme ou signe spécifique jusqu'à ce qu'elles soient cliniquement évidentes, la reconnaissance et l'identification de l'origine professionnelle sont souvent très difficiles.
Pour mieux contrôler les maladies professionnelles, nous avons accédé à des bases de données qui fournissent une liste relativement complète de produits chimiques industriels et un ensemble de signes et/ou symptômes spécifiques. Combiné à l'approche épidémiologique des conjectures et des réfutations (c'est-à-dire considérer et écarter toutes les explications alternatives possibles), nous avons documenté plus d'une dizaine de types de maladies professionnelles et une épidémie de botulisme. Nous recommandons qu'une approche similaire soit appliquée à tout autre pays dans une situation similaire, et qu'un système impliquant une fiche d'identification (par exemple, MSDS) pour chaque produit chimique soit préconisé et mis en œuvre comme un moyen de permettre une reconnaissance rapide et donc la prévention des accidents du travail. maladies.
Hépatite dans une usine d'impression couleur
Trois travailleurs d'une imprimerie couleur ont été admis dans des hôpitaux communautaires en 1985 avec des manifestations d'hépatite aiguë. L'un des trois présentait une insuffisance rénale aiguë superposée. L'hépatite virale ayant une prévalence élevée à Taïwan, il convient de considérer une origine virale parmi les étiologies les plus probables. La consommation d'alcool et de drogues, ainsi que les solvants organiques sur le lieu de travail, doivent également être inclus. Parce qu'il n'y avait pas de système de FDS à Taïwan, ni les employés ni l'employeur n'étaient au courant de tous les produits chimiques utilisés dans l'usine (Wang 1991).
Nous avons dû compiler une liste d'agents hépatotoxiques et néphrotoxiques à partir de plusieurs bases de données toxicologiques. Ensuite, nous avons déduit toutes les inférences possibles des hypothèses ci-dessus. Par exemple, si le virus de l'hépatite A (VHA) était l'étiologie, on devrait observer des anticorps (VHA-IgM) chez les travailleurs touchés ; si le virus de l'hépatite B était l'étiologie, on devrait observer plus de porteurs d'antigènes de surface de l'hépatite B (HBsAg) parmi les travailleurs atteints que chez les travailleurs non atteints ; si l'alcool était l'étiologie principale, on devrait observer plus d'alcooliques ou d'alcooliques chroniques parmi les travailleurs concernés ; si un solvant toxique (par exemple, le chloroforme) était l'étiologie, nous devrions le trouver sur le lieu de travail.
Nous avons effectué une évaluation médicale complète pour chaque travailleur. L'étiologie virale a été facilement réfutée, ainsi que l'hypothèse de l'alcool, car elles ne pouvaient pas être étayées par des preuves.
Au lieu de cela, 17 des 25 travailleurs de l'usine avaient des tests anormaux de la fonction hépatique, et une association significative a été trouvée entre la présence d'une fonction hépatique anormale et des antécédents de travail récent dans l'une des trois pièces dans lesquelles un système de climatisation interconnecté avait été installé. installé pour refroidir les machines d'impression. L'association est restée après stratification selon le statut de porteur de l'hépatite B. Il a été déterminé plus tard que l'incident s'était produit à la suite de l'utilisation par inadvertance d'un «agent de nettoyage» (qui était du tétrachlorure de carbone) pour nettoyer une pompe dans la machine à imprimer. De plus, un test de simulation de l'opération de nettoyage de la pompe a révélé des niveaux de tétrachlorure de carbone dans l'air ambiant de 115 à 495 ppm, ce qui pourrait entraîner des lésions hépatiques. Dans une autre tentative de réfutation, en éliminant le tétrachlorure de carbone sur le lieu de travail, nous avons constaté qu'aucun nouveau cas ne s'est produit et que tous les travailleurs concernés se sont améliorés après avoir été retirés du lieu de travail pendant 20 jours. Par conséquent, nous avons conclu que l'éclosion était due à l'utilisation de tétrachlorure de carbone.
Symptômes neurologiques dans une usine d'impression couleur
En septembre 1986, un apprenti dans une usine d'impression couleur à Chang-Hwa a soudainement développé une faiblesse bilatérale aiguë et une paralysie respiratoire. Le père de la victime a allégué au téléphone qu'il y avait plusieurs autres travailleurs présentant des symptômes similaires. Étant donné que les ateliers d'impression couleur étaient autrefois documentés pour avoir des maladies professionnelles résultant d'expositions aux solvants organiques, nous nous sommes rendus sur le lieu de travail pour déterminer l'étiologie avec une hypothèse d'intoxication possible aux solvants à l'esprit (Wang 1991).
Notre pratique courante, cependant, consistait à considérer toutes les conjectures alternatives, y compris d'autres problèmes médicaux, notamment la fonction altérée des motoneurones supérieurs, des motoneurones inférieurs, ainsi que la jonction neuromusculaire. Encore une fois, nous avons déduit des déclarations de résultats à partir des hypothèses ci-dessus. Par exemple, si un solvant signalé comme produisant une polyneuropathie (par exemple, le n-hexane, le méthylbutylcétone, l'acrylamide) en était la cause, il altérerait également la vitesse de conduction nerveuse (NCV) ; s'il s'agissait d'autres problèmes médicaux impliquant les motoneurones supérieurs, il y aurait des signes d'altération de la conscience et/ou de mouvement involontaire.
Les observations sur le terrain ont révélé que tous les travailleurs concernés avaient une conscience claire tout au long de l'évolution clinique. Une étude NCV de trois travailleurs affectés a montré des motoneurones inférieurs intacts. Il n'y avait aucun mouvement involontaire, aucun antécédent de médication ou de morsures avant l'apparition des symptômes, et le test à la néostigmine était négatif. Une association significative entre la maladie et le petit-déjeuner pris à la cafétéria de l'usine les 26 ou 27 septembre a été trouvée ; sept des sept travailleurs touchés contre sept des 32 travailleurs non touchés ont pris le petit déjeuner à l'usine ces deux jours. Un effort de test supplémentaire a montré que la toxine botulique de type A a été détectée dans des arachides en conserve fabriquées par une société non autorisée, et son échantillon a également montré une croissance complète de Clostridium botulinum. Un dernier procès de réfutation a été le retrait de ces produits du marché commercial, qui n'a abouti à aucun nouveau cas. Cette enquête a documenté les premiers cas de botulisme provenant d'un produit alimentaire commercial à Taïwan.
Lésions cutanées précancéreuses chez les fabricants de paraquat
En juin 1983, deux travailleurs d'une usine de fabrication de paraquat se sont rendus dans une clinique de dermatologie pour se plaindre de nombreuses macules hyperpigmentées bilatérales avec des modifications hyperkératosiques sur les parties des mains, du cou et du visage exposées au soleil. Certains spécimens de peau ont également montré des changements Bowenoid. Étant donné que des lésions cutanées malignes et précancéreuses ont été signalées chez les travailleurs de la fabrication de bipyridyle, une cause professionnelle a été fortement suspectée. Cependant, nous avons également dû considérer d'autres causes (ou hypothèses) alternatives de cancer de la peau telles que l'exposition aux rayonnements ionisants, au goudron de houille, au brai, à la suie ou à tout autre hydrocarbure polyaromatique (HAP). Pour écarter toutes ces conjectures, nous avons mené une étude en 1985, visitant toutes les 28 usines qui se sont jamais engagées dans la fabrication ou l'emballage de paraquat et examinant les processus de fabrication ainsi que les travailleurs (Wang et al. 1987; Wang 1993).
Nous avons examiné 228 travailleurs et aucun d'entre eux n'avait jamais été exposé aux carcinogènes cutanés susmentionnés, à l'exception de la lumière du soleil et de la 4'-4'-bipyridine et de ses isomères. Après avoir exclu les travailleurs ayant subi des expositions multiples, nous avons constaté qu'un administrateur sur sept et deux sur 82 travailleurs du conditionnement du paraquat ont développé des lésions cutanées hyperpigmentées, contre trois travailleurs sur trois impliqués uniquement dans la cristallisation et la centrifugation de la bipyridine. De plus, les 17 travailleurs atteints d'hyperkératose ou de lésions de Bowen avaient des antécédents d'exposition directe au bipyridyle et à ses isomères. Plus l'exposition aux bipyridyles est longue, plus le développement de lésions cutanées est probable, et cette tendance ne peut être expliquée par la lumière du soleil ou l'âge, comme le démontrent la stratification et l'analyse de régression logistique. Par conséquent, la lésion cutanée a été provisoirement attribuée à une combinaison d'expositions au bipyridyle et à la lumière du soleil. Nous avons fait d'autres tentatives de réfutation pour suivre si un nouveau cas se produisait après avoir inclus tous les processus impliquant une exposition aux bipyridyles. Aucun nouveau cas n'a été découvert.
Discussion et conclusions
Les trois exemples ci-dessus ont illustré l'importance d'adopter une approche réfutationnelle et une base de données des maladies professionnelles. La première nous fait toujours considérer des hypothèses alternatives de la même manière que l'hypothèse intuitionnelle initiale, tandis que la seconde fournit une liste détaillée d'agents chimiques qui peuvent nous guider vers la véritable étiologie. Une limitation possible de cette approche est que nous ne pouvons considérer que les explications alternatives que nous pouvons imaginer. Si notre liste d'alternatives est incomplète, il se peut que nous nous retrouvions sans réponse ou avec une mauvaise réponse. Par conséquent, une base de données complète sur les maladies professionnelles est cruciale pour le succès de cette stratégie.
Nous avions l'habitude de construire notre propre base de données de manière laborieuse. Cependant, les bases de données OSH-ROM récemment publiées, qui contiennent la base de données NIOSHTIC de plus de 160,000 XNUMX résumés, peuvent être l'une des plus complètes à cette fin, comme indiqué ailleurs dans le Encyclopédie. De plus, si une nouvelle maladie professionnelle survenait, nous pourrions rechercher une telle base de données et exclure tous les agents étiologiques connus, et n'en laisser aucun non réfuté. Dans une telle situation, nous pouvons essayer d'identifier ou de définir le nouvel agent (ou cadre professionnel) aussi précisément que possible afin que le problème puisse d'abord être atténué, puis tester d'autres hypothèses. Le cas des lésions cutanées précancéreuses chez les fabricants de paraquat en est un bon exemple.
Rôle des questionnaires dans la recherche épidémiologique
La recherche épidémiologique est généralement menée afin de répondre à une question de recherche spécifique qui concerne les expositions des individus à des substances dangereuses ou à des situations ayant des effets ultérieurs sur la santé, comme le cancer ou la mort. Au cœur de presque toutes ces enquêtes se trouve un questionnaire qui constitue l'outil de collecte de données de base. Même lorsque des mesures physiques doivent être effectuées dans un environnement de travail, et en particulier lorsque des matériaux biologiques tels que le sérum doivent être prélevés sur des sujets d'étude exposés ou non exposés, un questionnaire est essentiel afin de développer une image adéquate de l'exposition en recueillant systématiquement des données personnelles et autres caractéristiques de manière organisée et uniforme.
Le questionnaire remplit un certain nombre de fonctions de recherche essentielles :
Place de la conception du questionnaire dans les objectifs généraux de l'étude
Alors que le questionnaire est souvent la partie la plus visible d'une étude épidémiologique, en particulier pour les travailleurs ou les autres participants à l'étude, il n'est qu'un outil et est souvent appelé « instrument » par les chercheurs. La figure 1 décrit de manière très générale les étapes de la conception de l'enquête, de la conception à la collecte et à l'analyse des données. La figure montre quatre niveaux ou niveaux d'opération d'étude qui se déroulent en parallèle tout au long de la vie de l'étude : échantillonnage, questionnaire, opérations et analyse. La figure montre assez clairement la manière dont les étapes de l'élaboration du questionnaire sont liées au plan d'étude global, allant d'une ébauche initiale à une première ébauche du questionnaire et de ses codes associés, suivie d'un prétest au sein d'une sous-population sélectionnée, d'un ou plusieurs révisions dictées par les expériences de pré-test, et préparation du document final pour la collecte effective des données sur le terrain. Ce qui est le plus important, c'est le contexte : chaque étape de l'élaboration du questionnaire est réalisée en conjonction avec une étape correspondante de création et de raffinement du plan d'échantillonnage global, ainsi que la conception opérationnelle pour l'administration du questionnaire.
Figure 1. Les étapes d'une enquête
Types d'études et de questionnaires
Les objectifs de recherche de l'étude elle-même déterminent la structure, la longueur et le contenu du questionnaire. Ces attributs du questionnaire sont invariablement tempérés par la méthode de collecte des données, qui relève généralement de l'un des trois modes suivants : en personne, par la poste et par téléphone. Chacun d'entre eux a ses avantages et ses inconvénients qui peuvent affecter non seulement la qualité des données mais aussi la validité de l'étude globale.
A questionnaire envoyé par la poste est le format le moins coûteux et peut couvrir les travailleurs d'une vaste zone géographique. Cependant, dans la mesure où les taux de réponse globaux sont souvent faibles (généralement de 45 à 75 %), cela ne peut pas être trop complexe car il y a peu ou pas de possibilité de clarifier les questions, et il peut être difficile de déterminer si les réponses potentielles à une exposition critique ou à d'autres les questions diffèrent systématiquement entre les répondants et les non-répondants. L'agencement physique et la langue doivent s'adapter aux participants potentiels à l'étude les moins instruits et doivent pouvoir être achevés dans un laps de temps assez court, généralement de 20 à 30 minutes.
Questionnaires téléphoniques peuvent être utilisées dans des études basées sur la population, c'est-à-dire des enquêtes dans lesquelles un échantillon d'une population géographiquement définie est sondé, et constituent une méthode pratique pour mettre à jour les informations dans les fichiers de données existants. Ils peuvent être plus longs et plus complexes que les questionnaires envoyés par courrier en termes de langue et de contenu, et comme ils sont administrés par des enquêteurs formés, le coût plus élevé d'une enquête téléphonique peut être partiellement compensé en structurant physiquement le questionnaire pour une administration efficace (par exemple par des modèles de saut). Les taux de réponse sont généralement meilleurs qu'avec les questionnaires postés, mais sont sujets à des biais liés à l'utilisation croissante des répondeurs téléphoniques, aux refus, aux non-contacts et aux problèmes des populations peu desservies par le téléphone. Ces biais sont généralement liés au plan d'échantillonnage lui-même et pas spécialement au questionnaire. Bien que les questionnaires téléphoniques soient utilisés depuis longtemps en Amérique du Nord, leur faisabilité dans d'autres parties du monde n'a pas encore été établie.
Face à face les entretiens offrent la meilleure opportunité de collecter des données complexes et précises ; ils sont aussi les plus coûteux à administrer, car ils nécessitent à la fois une formation et des déplacements pour le personnel professionnel. La disposition physique et l'ordre des questions peuvent être aménagés pour optimiser le temps d'administration. Les études qui utilisent des entretiens en personne ont généralement les taux de réponse les plus élevés et sont sujettes au moins de biais de réponse. C'est aussi le type d'entretien dans lequel l'enquêteur est le plus susceptible de savoir si le participant est un cas ou non (dans une étude cas-témoin) ou le statut d'exposition du participant (dans une étude de cohorte). Il faut donc veiller à préserver l'objectivité de l'intervieweur en l'entraînant à éviter les questions suggestives et le langage corporel qui pourraient susciter des réponses biaisées.
Il est de plus en plus courant d'utiliser un conception d'étude hybride dans laquelle des situations d'exposition complexes sont évaluées lors d'un entretien personnel ou téléphonique qui permet un maximum d'approfondissement et de clarification, suivi d'un questionnaire envoyé par courrier pour saisir des données sur le mode de vie comme le tabagisme et l'alimentation.
Confidentialité et problèmes des participants à la recherche
Étant donné que le but d'un questionnaire est d'obtenir des données sur des individus, la conception du questionnaire doit être guidée par des normes établies pour le traitement éthique des sujets humains. Ces lignes directrices s'appliquent à l'acquisition des données du questionnaire tout comme elles s'appliquent aux échantillons biologiques tels que le sang et l'urine, ou aux tests génétiques. Aux États-Unis et dans de nombreux autres pays, aucune étude impliquant des êtres humains ne peut être menée avec des fonds publics à moins que l'approbation de la langue et du contenu du questionnaire ne soit d'abord obtenue auprès d'un comité d'examen institutionnel approprié. Cette approbation vise à garantir que les questions sont limitées à des fins d'étude légitimes et qu'elles ne violent pas les droits des participants à l'étude de répondre volontairement aux questions. Les participants doivent être assurés que leur participation à l'étude est entièrement volontaire et que le refus de répondre aux questions ou même de participer ne les exposera à aucune sanction ni n'altérera leur relation avec leur employeur ou leur médecin.
Les participants doivent également être assurés que les informations qu'ils fournissent seront traitées de manière strictement confidentielle par l'enquêteur, qui doit bien entendu prendre des mesures pour maintenir la sécurité physique et l'inviolabilité des données. Cela implique souvent une séparation physique des informations concernant l'identité des participants des fichiers de données informatisés. Il est courant d'informer les participants à l'étude que leurs réponses aux questions du questionnaire ne seront utilisées qu'en agrégation avec les réponses d'autres participants dans les rapports statistiques et ne seront pas divulguées à l'employeur, au médecin ou à d'autres parties.
Aspects de mesure de la conception du questionnaire
L'une des fonctions les plus importantes d'un questionnaire est d'obtenir des données sur un aspect ou un attribut d'une personne sous forme qualitative ou quantitative. Certains éléments peuvent être aussi simples que le poids, la taille ou l'âge, tandis que d'autres peuvent être considérablement plus compliqués, comme la réponse d'un individu au stress. Les réponses qualitatives, comme le sexe, seront habituellement converties en variables numériques. Toutes ces mesures peuvent être caractérisées par leur validité et leur fiabilité. La validité est le degré auquel un nombre dérivé du questionnaire s'approche de sa valeur réelle, mais peut-être inconnue. La fiabilité mesure la probabilité qu'une mesure donnée produise le même résultat à répétition, que ce résultat soit proche de la « vérité » ou non. La figure 2 montre comment ces concepts sont liés. Il démontre qu'une mesure peut être valide mais non fiable, fiable mais non valide, ou à la fois valide et fiable.
Figure 2. Relation validité et fiabilité
Au fil des ans, de nombreux questionnaires ont été élaborés par des chercheurs afin de répondre à des questions de recherche d'intérêt général. Les exemples incluent le Scholastic Aptitude Test, qui mesure le potentiel d'un élève pour la réussite scolaire future, et le Minnesota Multiphasic Personality Inventory (MMPI), qui mesure certaines caractéristiques psychosociales. Une variété d'autres indicateurs psychologiques sont discutés dans le chapitre sur la psychométrie. Il existe également des échelles physiologiques établies, telles que le questionnaire du British Medical Research Council (BMRC) pour la fonction pulmonaire. Ces instruments présentent un certain nombre d'avantages importants. Parmi ceux-ci, le plus important est le fait qu'ils ont déjà été développés et testés, généralement dans de nombreuses populations, et que leur fiabilité et leur validité sont connues. Toute personne construisant un questionnaire est bien avisée d'utiliser de telles échelles si elles correspondent à l'objectif de l'étude. Non seulement ils épargnent l'effort de « réinventer la roue », mais ils augmentent la probabilité que les résultats de l'étude soient acceptés comme valides par la communauté des chercheurs. Cela permet également des comparaisons plus valables des résultats de différentes études à condition qu'ils aient été correctement utilisés.
Les échelles précédentes sont des exemples de deux types importants de mesures qui sont couramment utilisées dans les questionnaires pour quantifier des concepts qui peuvent ne pas être entièrement mesurables objectivement comme le sont la taille et le poids, ou qui nécessitent de nombreuses questions similaires pour « exploiter pleinement le domaine » de un modèle de comportement spécifique. Plus généralement, les indices et les échelles sont deux techniques de réduction de données qui fournissent un résumé numérique de groupes de questions. Les exemples ci-dessus illustrent des indices physiologiques et psychologiques, et ils sont également fréquemment utilisés pour mesurer les connaissances, l'attitude et le comportement. Bref, un indice est généralement construit comme un score obtenu en comptant, parmi un groupe de questions connexes, le nombre d'items qui s'appliquent à un participant à l'étude. Par exemple, si un questionnaire présente une liste de maladies, un indice d'antécédents de maladies pourrait être le nombre total de celles qu'un répondant déclare avoir eues. UNE escaliers est une mesure composite basée sur l'intensité avec laquelle un participant répond à une ou plusieurs questions connexes. Par exemple, l'échelle de Likert, qui est fréquemment utilisée dans la recherche sociale, est généralement construite à partir d'énoncés avec lesquels on peut être fortement d'accord, faiblement d'accord, n'exprimer aucune opinion, être légèrement en désaccord ou fortement en désaccord, la réponse étant notée comme un nombre de 1 à 5. Les échelles et les indices peuvent être additionnés ou autrement combinés pour former une image assez complexe des caractéristiques physiques, psychologiques, sociales ou comportementales des participants à l'étude.
La validité mérite une attention particulière en raison de son reflet de la « vérité ». Trois types importants de validité souvent discutés sont la validité apparente, de contenu et de critère. Validité faciale est une qualité subjective d'un indicateur qui assure que la formulation d'une question est claire et sans ambiguïté. Validité du contenu assure que les questions serviront à exploiter cette dimension de réponse qui intéresse le chercheur. Critère (ou prédictif) validité est dérivée d'une évaluation objective de la proximité d'une mesure par questionnaire avec une quantité mesurable séparément, comme par exemple dans quelle mesure une évaluation par questionnaire de l'apport alimentaire en vitamine A correspond à la consommation réelle de vitamine A, sur la base de la consommation alimentaire documentée par les registres alimentaires.
Contenu, qualité et longueur du questionnaire
Wording. La formulation des questions est à la fois un art et une compétence professionnelle. Par conséquent, seules les lignes directrices les plus générales peuvent être présentées. Il est généralement admis qu'il faut concevoir des questions qui :
Séquence et structure des questions. L'ordre et la présentation des questions peuvent affecter la qualité des informations recueillies. Un questionnaire typique, qu'il soit auto-administré ou lu par un enquêteur, contient un prologue qui présente l'étude et son sujet au répondant, fournit toute information supplémentaire dont il aura besoin et tente de motiver le répondant à répondre aux questions. La plupart des questionnaires contiennent une section conçue pour recueillir des informations démographiques, telles que l'âge, le sexe, l'origine ethnique et d'autres variables sur l'origine du participant, y compris éventuellement des variables confusionnelles. Le sujet principal de la collecte de données, comme la nature du lieu de travail et l'exposition à des substances spécifiques, est généralement une section distincte du questionnaire, et est souvent précédé d'un prologue introductif qui pourrait d'abord rappeler au participant des aspects spécifiques du travail. ou le lieu de travail afin de créer un contexte pour des questions détaillées. La disposition des questions qui visent à établir des chronologies de vie au travail devrait être organisée de manière à minimiser le risque d'omissions chronologiques. Enfin, il est d'usage de remercier le répondant pour sa participation.
Types de questions. Le concepteur doit décider d'utiliser des questions ouvertes dans lesquelles les participants composent leurs propres réponses, ou des questions fermées qui nécessitent une réponse précise ou un choix parmi un petit menu de réponses possibles. Les questions fermées ont l'avantage de clarifier les alternatives pour le répondant, d'éviter les réponses brusques et de minimiser les longues divagations qui peuvent être impossibles à interpréter. Cependant, ils exigent que le concepteur anticipe l'éventail des réponses possibles afin d'éviter de perdre des informations, en particulier pour les situations inattendues qui surviennent dans de nombreux lieux de travail. Cela nécessite à son tour des essais pilotes bien planifiés. L'enquêteur doit décider si et dans quelle mesure il autorise une catégorie de réponse « ne sait pas ».
Longueur. Déterminer la longueur finale d'un questionnaire nécessite de trouver un équilibre entre le désir d'obtenir autant d'informations détaillées que possible pour atteindre les objectifs de l'étude et le fait que si un questionnaire est trop long, à un moment donné, de nombreux répondants perdront tout intérêt et cesseront de répondre ou répondre à la hâte, de manière inexacte et sans réfléchir afin de mettre fin à la session. En revanche, un questionnaire très court peut obtenir un taux de réponse élevé mais ne pas atteindre les objectifs de l'étude. Étant donné que la motivation des répondants dépend souvent de leur intérêt personnel dans le résultat, comme l'amélioration des conditions de travail, la tolérance à un long questionnaire peut varier considérablement, en particulier lorsque certains participants (comme les travailleurs d'une usine particulière) peuvent percevoir leur intérêt comme étant plus élevé que autres (telles que les personnes contactées par numérotation téléphonique aléatoire). Cet équilibre ne peut être atteint que grâce à des essais pilotes et à l'expérience. Les questionnaires administrés par l'enquêteur doivent enregistrer l'heure de début et de fin pour permettre le calcul de la durée de l'entretien. Ces informations sont utiles pour évaluer le niveau de qualité des données.
La langue. Il est essentiel d'utiliser le langage de la population pour faire comprendre les questions à tous. Cela peut nécessiter de se familiariser avec la langue vernaculaire locale qui peut varier dans un même pays. Même dans les pays où la même langue est théoriquement parlée, comme la Grande-Bretagne et les États-Unis, ou les pays hispanophones d'Amérique latine, les idiomes et l'usage locaux peuvent varier d'une manière qui peut obscurcir l'interprétation. Par exemple, aux États-Unis, le «thé» n'est qu'une boisson, alors qu'en Grande-Bretagne, il peut signifier «une théière», «un thé» ou «le principal repas du soir», selon le lieu et le contexte. Il est particulièrement important d'éviter le jargon scientifique, sauf lorsque l'on peut s'attendre à ce que les participants à l'étude possèdent des connaissances techniques spécifiques.
Clarté et questions orientées. S'il arrive souvent que des questions plus courtes soient plus claires, il existe des exceptions, en particulier lorsqu'un sujet complexe doit être introduit. Néanmoins, des questions courtes clarifient la pensée et réduisent les mots inutiles. Ils réduisent également le risque de surcharger le répondant avec trop d'informations à digérer. Si l'objectif de l'étude est d'obtenir des informations objectives sur la situation de travail du participant, il est important de formuler les questions de manière neutre et d'éviter les questions « suggestives » susceptibles de favoriser une réponse particulière, telles que « Êtes-vous d'accord que votre lieu de travail les conditions sont nocives pour votre santé ? »
Mise en page du questionnaire. La disposition physique d'un questionnaire peut affecter le coût et l'efficacité d'une étude. Elle est plus importante pour les questionnaires auto-administrés que pour ceux qui sont réalisés par les enquêteurs. Un questionnaire qui est conçu pour être rempli par le répondant mais qui est trop complexe ou difficile à lire peut être rempli avec désinvolture ou même jeté. Même les questionnaires conçus pour être lus à haute voix par des enquêteurs formés doivent être imprimés en caractères clairs et lisibles, et les schémas de saut de questions doivent être indiqués de manière à maintenir un flux constant de questions et à minimiser le nombre de pages à tourner et la recherche de la prochaine question applicable. question.
Problèmes de validité
Préjugé
L'ennemi de la collecte de données objectives est le biais, qui résulte de différences systématiques mais non planifiées entre des groupes de personnes : cas et témoins dans une étude cas-témoins ou exposés et non exposés dans une étude de cohorte. Biais informationnel peut être introduit lorsque deux groupes de participants comprennent ou répondent différemment à la même question. Cela peut se produire, par exemple, si les questions sont posées de manière à exiger une connaissance technique particulière d'un lieu de travail ou de ses expositions qui serait comprise par les travailleurs exposés mais pas nécessairement par le grand public à partir duquel les contrôles sont effectués.
L'utilisation de substituts pour les travailleurs malades ou décédés peut être biaisée, car les proches sont susceptibles de se souvenir des informations de différentes manières et avec moins de précision que le travailleur lui-même. L'introduction d'un tel biais est particulièrement probable dans les études dans lesquelles certains entretiens sont menés directement avec les participants à l'étude tandis que d'autres entretiens sont menés avec des parents ou des collègues d'autres participants à la recherche. Dans l'une ou l'autre situation, il faut veiller à réduire tout effet pouvant découler de la connaissance par l'intervieweur de la maladie ou de l'état d'exposition du travailleur concerné. Puisqu'il n'est pas toujours possible de garder les enquêteurs "aveugles", il est important de mettre l'accent sur l'objectivité et d'éviter les questions suggestives ou suggestives ou le langage corporel inconscient pendant la formation, et de surveiller les performances pendant la réalisation de l'étude.
Biais de rappel résultats lorsque les cas et les témoins « se souviennent » différemment des expositions ou des situations de travail. Les cas hospitalisés avec une maladie potentiellement liée au travail peuvent être plus capables de se souvenir des détails de leurs antécédents médicaux ou de leurs expositions professionnelles que les personnes contactées au hasard par téléphone. Un type de ce biais qui devient de plus en plus courant a été étiqueté biais de désirabilité sociale. Il décrit la tendance de nombreuses personnes à sous-estimer, consciemment ou non, leur indulgence dans les « mauvaises habitudes » telles que le tabagisme ou la consommation d'aliments riches en graisses et en cholestérol, et à exagérer les « bonnes habitudes » comme l'exercice.
Biais de réponse désigne une situation dans laquelle un groupe de participants à l'étude, tels que les travailleurs exposés à une exposition professionnelle particulière, peut être plus susceptible de remplir des questionnaires ou de participer autrement à une étude que les personnes non exposées. Une telle situation peut entraîner une estimation biaisée de l'association entre l'exposition et la maladie. Un biais de réponse peut être suspecté si les taux de réponse ou le temps nécessaire pour remplir un questionnaire ou un entretien diffèrent considérablement entre les groupes (par exemple, cas vs témoins, exposés vs non exposés). Le biais de réponse diffère généralement selon le mode d'administration du questionnaire. Les questionnaires envoyés par la poste sont généralement plus susceptibles d'être retournés par des personnes qui voient un intérêt personnel dans les résultats de l'étude, et sont plus susceptibles d'être ignorés ou rejetés par des personnes choisies au hasard dans la population générale. De nombreux enquêteurs qui utilisent les enquêtes par courrier intègrent également un mécanisme de suivi qui peut inclure des deuxième et troisième envois ainsi que des contacts téléphoniques ultérieurs avec les non-répondants afin de maximiser les taux de réponse.
Les études qui utilisent des enquêtes téléphoniques, y compris celles qui utilisent la composition aléatoire des chiffres pour identifier les témoins, ont généralement un ensemble de règles ou un protocole définissant le nombre de tentatives pour contacter les répondants potentiels, y compris l'heure de la journée, et si le soir ou les appels du week-end doivent être tentés. Ceux qui mènent des études en milieu hospitalier enregistrent généralement le nombre de patients qui refusent de participer et les raisons de leur non-participation. Dans tous ces cas, diverses mesures de taux de réponse sont enregistrés afin de fournir une évaluation de la mesure dans laquelle la population cible a effectivement été atteinte.
Biais de séléction résultats lorsqu'un groupe de participants répond préférentiellement ou participe autrement à une étude, et peut entraîner une estimation biaisée de la relation entre l'exposition et la maladie. Afin d'évaluer le biais de sélection et s'il conduit à une sous-estimation ou à une surestimation de l'exposition, des informations démographiques telles que le niveau d'éducation peuvent être utilisées pour comparer les répondants aux non-répondants. Par exemple, si les participants peu instruits ont des taux de réponse inférieurs à ceux des participants plus instruits, et si une profession particulière ou une habitude de fumer est connue pour être plus fréquente dans les groupes moins instruits, alors biais de sélection avec sous-estimation de l'exposition pour cette profession ou catégorie de tabagisme est susceptible d'avoir eu lieu.
La confusion est un type important de biais de sélection qui se produit lorsque la sélection des répondants (cas et témoins dans une étude cas-témoins, ou exposés et non exposés dans une étude de cohorte) dépend d'une certaine manière d'une troisième variable, parfois d'une manière inconnue du enquêteur. S'il n'est pas identifié et contrôlé, il peut conduire de manière imprévisible à des sous-estimations ou des surestimations des risques de maladie associés aux expositions professionnelles. La confusion est généralement traitée soit en manipulant la conception de l'étude elle-même (par exemple, en appariant des cas à des témoins sur l'âge et d'autres variables) ou à l'étape de l'analyse. Les détails de ces techniques sont présentés dans d'autres articles de ce chapitre.
Documentation
Dans toute étude de recherche, toutes les procédures d'étude doivent être soigneusement documentées afin que tout le personnel, y compris les enquêteurs, le personnel de supervision et les chercheurs, connaisse bien ses tâches respectives. Dans la plupart des études basées sur des questionnaires, un manuel de codage est préparé et décrit question par question tout ce que l'intervieweur doit savoir au-delà de la formulation littérale des questions. Cela inclut des instructions pour coder les réponses catégorielles et peut contenir des instructions explicites sur l'approfondissement, énumérant les questions pour lesquelles cela est autorisé et celles pour lesquelles cela ne l'est pas. Dans de nombreuses études, de nouveaux choix de réponse imprévus à certaines questions sont parfois rencontrés sur le terrain ; ceux-ci doivent être consignés dans le livre de codes principal et des copies des ajouts, modifications ou nouvelles instructions doivent être distribuées à tous les enquêteurs en temps opportun.
Planification, test et révision
Comme le montre la figure 1, l'élaboration du questionnaire nécessite beaucoup de réflexion et la planification de votre patrimoine. Chaque questionnaire doit être testé en plusieurs étapes afin de s'assurer que les questions « fonctionnent », c'est-à-dire qu'elles sont compréhensibles et produisent des réponses de la qualité voulue. Il est utile de tester de nouvelles questions sur des volontaires, puis de les interroger longuement pour déterminer dans quelle mesure des questions spécifiques ont été comprises et quels types de problèmes ou d'ambiguïtés ont été rencontrés. Les résultats peuvent ensuite être utilisés pour réviser le questionnaire, et la procédure peut être répétée si nécessaire. Les bénévoles sont parfois appelés « groupes de discussion ».
Toutes les études épidémiologiques nécessitent Test de pilotage, non seulement pour les questionnaires, mais aussi pour les procédures d'étude. Un questionnaire bien conçu n'atteint son but que s'il peut être livré efficacement aux participants à l'étude, et cela ne peut être déterminé qu'en testant les procédures sur le terrain et en faisant des ajustements si nécessaire.
Formation et supervision des enquêteurs
Dans les études menées par téléphone ou par entretien en face-à-face, l'intervieweur joue un rôle essentiel. Cette personne est chargée non seulement de poser des questions aux participants à l'étude et d'enregistrer leurs réponses, mais également d'interpréter ces réponses. Même avec l'étude d'entretien la plus rigidement structurée, les répondants demandent parfois des éclaircissements sur des questions ou offrent des réponses qui ne correspondent pas aux catégories de réponses disponibles. Dans de tels cas, le travail de l'intervieweur consiste à interpréter la question ou la réponse d'une manière conforme à l'intention du chercheur. Pour le faire de manière efficace et cohérente, il faut une formation et une supervision par un chercheur ou un gestionnaire expérimenté. Lorsque plusieurs enquêteurs sont employés pour une étude, la formation des enquêteurs est particulièrement importante pour s'assurer que les questions sont présentées et les réponses interprétées de manière uniforme. Dans de nombreux projets de recherche, cela se fait dans le cadre d'une formation de groupe et est répété périodiquement (par exemple, chaque année) afin de maintenir à jour les compétences des enquêteurs. Les séminaires de formation couvrent généralement les sujets suivants de manière très détaillée :
La supervision de l'étude implique souvent une observation sur place, qui peut inclure l'enregistrement sur bande des entretiens pour une dissection ultérieure. Il est courant que le superviseur examine personnellement chaque questionnaire avant de l'approuver et de le soumettre à la saisie des données. Le superviseur établit et applique également des normes de performance pour les enquêteurs et, dans certaines études, mène des réinterviews indépendantes avec des participants sélectionnés à titre de vérification de la fiabilité.
Collecte de données
La distribution proprement dite des questionnaires aux participants à l'étude et la collecte subséquente pour analyse s'effectuent selon l'un des trois modes décrits ci-dessus : par courrier, par téléphone ou en personne. Certains chercheurs organisent et même assurent eux-mêmes cette fonction au sein de leurs propres institutions. Bien qu'il y ait un intérêt considérable à ce qu'un enquêteur principal se familiarise avec la dynamique de l'entretien de première main, il est plus rentable et propice au maintien d'une qualité élevée des données pour les enquêteurs professionnels formés et bien supervisés d'être inclus dans l'équipe de recherche. .
Certains chercheurs concluent des ententes contractuelles avec des entreprises spécialisées dans la recherche par sondage. Les contractants peuvent fournir une gamme de services pouvant inclure une ou plusieurs des tâches suivantes : distribution et collecte de questionnaires, réalisation d'entretiens téléphoniques ou en face à face, obtention d'échantillons biologiques tels que sang ou urine, gestion des données, analyse statistique et la rédaction de rapports. Quel que soit le niveau de soutien, les sous-traitants sont généralement chargés de fournir des informations sur les taux de réponse et la qualité des données. Néanmoins, c'est le chercheur qui porte la responsabilité finale de l'intégrité scientifique de l'étude.
Fiabilité et ré-interviews
La qualité des données peut être évaluée en réinterrogeant un échantillon des participants à l'étude initiale. Cela fournit un moyen de déterminer la fiabilité des entretiens initiaux et une estimation de la répétabilité des réponses. L'ensemble du questionnaire n'a pas besoin d'être ré-administré ; un sous-ensemble de questions suffit généralement. Des tests statistiques sont disponibles pour évaluer la fiabilité d'un ensemble de questions posées au même participant à différents moments, ainsi que pour évaluer la fiabilité des réponses fournies par différents participants et même pour celles interrogées par différents enquêteurs (c. -évaluations des évaluateurs).
Technologie de traitement des questionnaires
Les progrès de la technologie informatique ont créé de nombreuses façons différentes de saisir les données des questionnaires et de les mettre à la disposition du chercheur pour analyse informatique. Il existe trois manières fondamentalement différentes d'informatiser les données : en temps réel (c'est-à-dire au fur et à mesure que le participant répond pendant une entrevue), par les méthodes traditionnelles d'entrée au clavier et par les méthodes de saisie optique des données.
Saisie de données assistée par ordinateur
De nombreux chercheurs utilisent désormais des ordinateurs pour collecter les réponses aux questions posées lors des entretiens en face à face et par téléphone. Les chercheurs sur le terrain trouvent pratique d'utiliser des ordinateurs portables qui ont été programmés pour afficher les questions séquentiellement et qui permettent à l'intervieweur d'entrer la réponse immédiatement. Les entreprises de recherche par sondage qui effectuent des interviews téléphoniques ont développé des systèmes analogues appelés systèmes d'interview téléphonique assistée par ordinateur (CATI). Ces méthodes présentent deux avantages importants par rapport aux questionnaires papier plus traditionnels. Premièrement, les réponses peuvent être instantanément vérifiées par rapport à une gamme de réponses autorisées et pour la cohérence avec les réponses précédentes, et les divergences peuvent être immédiatement portées à l'attention de l'intervieweur et du répondant. Cela réduit considérablement le taux d'erreur. Deuxièmement, des modèles de saut peuvent être programmés pour minimiser le temps d'administration.
La méthode la plus courante d'informatisation des données reste la méthode traditionnelle entrée de clé par un opérateur qualifié. Pour les très grandes études, les questionnaires sont généralement envoyés à une entreprise sous contrat professionnelle spécialisée dans la saisie de données. Ces entreprises utilisent souvent un équipement spécialisé qui permet à un opérateur de saisir un questionnaire (une procédure parfois appelée frappe au clavier pour des raisons historiques) et un deuxième opérateur pour ressaisir les mêmes données, un processus appelé vérification des clés. Les résultats de la seconde saisie sont comparés à la première pour s'assurer que les données ont été saisies correctement. Des procédures d'assurance qualité peuvent être programmées pour garantir que chaque réponse se situe dans une plage autorisée et qu'elle est cohérente avec les autres réponses. Les fichiers de données qui en résultent peuvent être transmis au chercheur sur disque, bande ou électroniquement par téléphone ou autre réseau informatique.
Pour les petites études, il existe de nombreux programmes commerciaux basés sur PC qui ont des fonctionnalités de saisie de données qui émulent celles de systèmes plus spécialisés. Ceux-ci incluent des programmes de base de données tels que dBase, Foxpro et Microsoft Access, ainsi que des tableurs tels que Microsoft Excel et Lotus 1-2-3. De plus, des fonctionnalités de saisie de données sont incluses dans de nombreux progiciels informatiques dont le but principal est l'analyse de données statistiques, tels que SPSS, BMDP et EPI INFO.
Une méthode répandue de saisie de données qui fonctionne bien pour certains questionnaires spécialisés utilise des systèmes optiques. Lecture optique de marques ou la détection optique est utilisée pour lire les réponses sur des questionnaires spécialement conçus pour que les participants saisissent des données en marquant de petits rectangles ou cercles (parfois appelés « codes à bulles »). Ceux-ci fonctionnent plus efficacement lorsque chaque individu remplit son propre questionnaire. Des équipements plus sophistiqués et coûteux peuvent lire des caractères manuscrits, mais à l'heure actuelle, ce n'est pas une technique efficace pour capturer des données dans des études à grande échelle.
Archivage des questionnaires et des manuels de codage
Étant donné que l'information est une ressource précieuse et est sujette à interprétation et à d'autres influences, on demande parfois aux chercheurs de partager leurs données avec d'autres chercheurs. La demande de partage de données peut être motivée par diverses raisons, qui peuvent aller d'un intérêt sincère à reproduire un rapport à la crainte que les données n'aient peut-être pas été analysées ou interprétées correctement.
En cas de suspicion ou d'allégation de falsification ou de fabrication de données, il devient essentiel que les enregistrements originaux sur lesquels reposent les constatations signalées soient disponibles à des fins d'audit. En plus des questionnaires originaux et/ou des fichiers informatiques de données brutes, le chercheur doit être en mesure de fournir pour examen le(s) manuel(s) de codage élaboré(s) pour l'étude et le(s) journal(s) de toutes les modifications de données qui ont été apportées au cours de codage, d'informatisation et d'analyse des données. Par exemple, si une valeur de données avait été modifiée parce qu'elle était initialement apparue comme une valeur aberrante, un enregistrement de la modification et les raisons de la modification auraient dû être enregistrés dans le journal à des fins éventuelles d'audit des données. Ces informations sont également utiles au moment de la préparation du rapport car elles servent de rappel sur la manière dont les données qui ont donné lieu aux conclusions rapportées ont été effectivement traitées.
Pour ces raisons, à la fin d'une étude, le chercheur a l'obligation de s'assurer que toutes les données de base sont correctement archivées pendant une période de temps raisonnable et qu'elles pourront être récupérées si le chercheur était appelé à les fournir.
Plusieurs exemples de dangers sur le lieu de travail sont souvent cités pour illustrer non seulement les effets néfastes possibles sur la santé associés aux expositions sur le lieu de travail, mais aussi pour révéler comment une approche systématique de l'étude des populations de travailleurs peut découvrir d'importantes relations exposition-maladie. Un tel exemple est celui de l'amiante. L'élégance simple avec laquelle le regretté Dr Irving J. Selikoff a démontré le risque élevé de cancer chez les travailleurs de l'amiante a été documentée dans un article de Lawrence Garfinkel. Il est reproduit ici avec seulement de légères modifications et avec la permission du CA-A Cancer Journal for Clinicians (Garfinkel 1984). Les tableaux proviennent de l'article original du Dr Selikoff et de ses collaborateurs (1964).
L'exposition à l'amiante est devenue un problème de santé publique d'une ampleur considérable, avec des ramifications qui s'étendent au-delà du domaine immédiat des professionnels de la santé jusqu'aux domaines desservis par les législateurs, les juges, les avocats, les éducateurs et d'autres dirigeants communautaires concernés. Par conséquent, les maladies liées à l'amiante préoccupent de plus en plus les cliniciens et les autorités sanitaires, ainsi que les consommateurs et le grand public.
Contexte historique
L'amiante est un minéral très utile qui a été utilisé de diverses manières pendant de nombreux siècles. Des études archéologiques en Finlande ont montré des preuves de fibres d'amiante incorporées dans la poterie dès 2500 av. Au Ve siècle av. J.-C., il servait de mèche pour les lampes. Hérodote a commenté l'utilisation de tissu d'amiante pour la crémation vers 5 av. L'amiante était utilisé dans les gilets pare-balles au XVe siècle et dans la fabrication de textiles, de gants, de chaussettes et de sacs à main en Russie. c. 1720. Bien que l'on ne sache pas quand l'art du tissage de l'amiante s'est développé, nous savons que les anciens tissaient souvent l'amiante avec du lin. La production commerciale d'amiante a commencé en Italie vers 1850, dans la fabrication de papier et de tissu.
Le développement de l'extraction de l'amiante au Canada et en Afrique du Sud vers 1880 a réduit les coûts et stimulé la fabrication de produits en amiante. L'exploitation minière et la production d'amiante aux États-Unis, en Italie et en Russie ont suivi peu de temps après. Aux États-Unis, le développement de l'amiante comme isolant des tuyaux a augmenté la production et a été suivi peu de temps après par d'autres utilisations variées, notamment les garnitures de frein, les tuyaux en ciment, les vêtements de protection, etc.
La production aux États-Unis est passée d'environ 6,000 1900 tonnes en 650,000 à 1975 1982 tonnes en 300,000, bien qu'en 1994, elle était d'environ 33,000 XNUMX tonnes et en XNUMX, la production était tombée à XNUMX XNUMX tonnes.
Il est rapporté que Pline le Jeune (61-113 après JC) a commenté la maladie des esclaves qui travaillaient avec de l'amiante. La référence aux maladies professionnelles liées à l'exploitation minière apparaît au XVIe siècle, mais ce n'est qu'en 16 en Angleterre qu'apparaît la première référence à la fibrose pulmonaire chez un travailleur de l'amiante. Des décès excessifs chez les travailleurs impliqués dans des applications de fabrication d'amiante ont été signalés peu de temps après en France et en Italie, mais la reconnaissance majeure des maladies induites par l'amiante a commencé en Angleterre en 1906. En 1924, Wood et Gloyne avaient signalé 1930 cas de fibrose pulmonaire.
La première référence à un carcinome du poumon chez un patient atteint d'« amiante-silicose » est apparue en 1935. Plusieurs autres rapports de cas ont suivi. Des rapports faisant état de pourcentages élevés de cancer du poumon chez des patients décédés d'asbestose sont apparus en 1947, 1949 et 1951. En 1955, Richard Doll en Angleterre a signalé un risque excessif de cancer du poumon chez les personnes qui avaient travaillé dans une usine d'amiante depuis 1935, avec un taux particulièrement élevé. risque chez ceux qui ont travaillé plus de 20 ans.
Observations cliniques
C'est dans ce contexte que les observations cliniques du Dr Irving Selikoff sur les maladies liées à l'amiante ont commencé. Le Dr Selikoff était déjà à cette époque un scientifique distingué. Ses réalisations antérieures comprenaient le développement et la première utilisation de l'isoniazide dans le traitement de la tuberculose, pour lequel il a reçu un prix Lasker en 1952.
Au début des années 1960, en tant que pneumologue exerçant à Paterson, New Jersey , il avait observé de nombreux cas de cancer du poumon chez les travailleurs d'une usine d'amiante de la région. Il a décidé d'étendre ses observations à deux sections locales du syndicat des travailleurs de l'isolation de l'amiante, dont les membres avaient également été exposés aux fibres d'amiante. Il a reconnu qu'il y avait encore beaucoup de gens qui ne croyaient pas que le cancer du poumon était lié à l'exposition à l'amiante et que seule une étude approfondie d'une population totale exposée pouvait les convaincre. Il est possible que l'exposition à l'amiante dans la population soit liée à d'autres types de cancer, tels que le mésothéliome pleural et péritonéal, comme cela a été suggéré dans certaines études, et peut-être aussi à d'autres localisations. Dans le passé, la plupart des études sur les effets de l'amiante sur la santé concernaient les travailleurs exposés dans l'extraction et la production d'amiante. Il était important de savoir si l'inhalation d'amiante affectait également d'autres groupes exposés à l'amiante.
Le Dr Selikoff avait entendu parler des réalisations du Dr E. Cuyler Hammond, alors directeur de la section de recherche statistique de l'American Cancer Society (ACS), et a décidé de lui demander de collaborer à la conception et à l'analyse d'une étude. C'est le Dr Hammond qui avait rédigé l'étude prospective historique sur le tabagisme et la santé publiée quelques années plus tôt.
Le Dr Hammond a immédiatement vu l'importance potentielle d'une étude sur les travailleurs de l'amiante. Bien qu'il ait été activement engagé dans l'analyse des données de la nouvelle étude prospective de l'ACS, Cancer Prevention Study I (CPS I), qu'il avait commencée quelques années plus tôt, il a facilement accepté une collaboration pendant son "temps libre". Il a suggéré de limiter l'analyse aux travailleurs ayant au moins 20 ans d'expérience professionnelle, qui auraient donc été le plus exposés à l'amiante.
L'équipe a été rejointe par Mme Janet Kaffenburgh, associée de recherche du Dr Selikoff à l'hôpital Mount Sinai, qui a travaillé avec le Dr Hammond pour préparer les listes des hommes participant à l'étude, y compris leurs âges et dates d'emploi et obtenir les données. sur les faits de décès et leurs causes tirés des registres du siège du syndicat. Ces informations ont ensuite été transférées sur des fiches qui ont été triées littéralement sur le sol du salon de la maison du Dr Hammond par le Dr Hammond et Mme Kaffenburgh.
Le Dr Jacob Churg, pathologiste au Barnert Memorial Hospital Center de Paterson, New Jersey, a fourni une vérification pathologique de la cause du décès.
Tableau 1. Années-homme d'expérience de 632 travailleurs de l'amiante exposés à la poussière d'amiante pendant 20 ans ou plus
Âge |
Période de temps |
|||
1943-47 |
1948-52 |
1953-57 |
1958-62 |
|
35-39 |
85.0 |
185.0 |
7.0 |
11.0 |
40-44 |
230.5 |
486.5 |
291.5 |
70.0 |
45-49 |
339.5 |
324.0 |
530.0 |
314.5 |
50-54 |
391.5 |
364.0 |
308.0 |
502.5 |
55-59 |
382.0 |
390.0 |
316.0 |
268.5 |
60-64 |
221.0 |
341.5 |
344.0 |
255.0 |
65-69 |
139.0 |
181.0 |
286.0 |
280.0 |
70-74 |
83.0 |
115.5 |
137.0 |
197.5 |
75-79 |
31.5 |
70.0 |
70.5 |
75.0 |
80-84 |
5.5 |
18.5 |
38.5 |
23.5 |
85+ |
3.5 |
2.0 |
8.0 |
13.5 |
Total |
1,912.0 |
2,478.0 |
2,336.5 |
2,011.0 |
L'étude qui en a résulté était du type « étude prospective réalisée rétrospectivement ». La nature des dossiers syndicaux a permis d'effectuer une analyse d'une étude à long terme dans un laps de temps relativement court. Bien que seulement 632 hommes aient participé à l'étude, il y a eu 8,737 1 hommes-années d'exposition au risque (voir tableau 255) ; 20 décès sont survenus au cours de la période d'observation de 1943 ans de 1962 à 2 (voir tableau 28.17). C'est dans le tableau XNUMX que l'on peut voir que le nombre de décès observés dépasse invariablement le nombre attendu, démontrant l'association entre l'exposition à l'amiante sur le lieu de travail et un taux élevé de mortalité par cancer.
Tableau 2. Nombre de décès observés et attendus parmi 632 travailleurs de l'amiante exposés à la poussière d'amiante pendant 20 ans ou plus
Cause de décès |
Période de temps |
Total |
|||
1943-47 |
1948-52 |
1953-57 |
1958-62 |
1943-62 |
|
Total, toutes causes |
|||||
Observé (travailleurs de l'amiante) |
28.0 |
54.0 |
85.0 |
88.0 |
255.0 |
Attendu (hommes blancs américains) |
39.7 |
50.8 |
56.6 |
54.4 |
203.5 |
Cancer total, tous sièges |
|||||
Observé (travailleurs de l'amiante) |
13.0 |
17.0 |
26.0 |
39.0 |
95.0 |
Attendu (hommes blancs américains) |
5.7 |
8.1 |
13.0 |
9.7 |
36.5 |
Cancer du poumon et de la plèvre |
|||||
Observé (travailleurs de l'amiante) |
6.0 |
8.0 |
13.0 |
18.0 |
45.0 |
Attendu (hommes blancs américains) |
0.8 |
1.4 |
2.0 |
2.4 |
6.6 |
Cancer de l'estomac, du côlon et du rectum |
|||||
Observé (travailleurs de l'amiante) |
4.0 |
4.0 |
7.0 |
14.0 |
29.0 |
Attendu (hommes blancs américains) |
2.0 |
2.5 |
2.6 |
2.3 |
9.4 |
Cancer de tous les autres sites combinés |
|||||
Observé (travailleurs de l'amiante) |
3.0 |
5.0 |
6.0 |
7.0 |
21.0 |
Attendu (hommes blancs américains) |
2.9 |
4.2 |
8.4 |
5.0 |
20.5 |
Importance de l'œuvre
Cet article a constitué un tournant dans nos connaissances sur les maladies liées à l'amiante et a défini l'orientation des recherches futures. L'article a été cité dans des publications scientifiques au moins 261 fois depuis sa publication initiale. Avec le soutien financier de l'ACS et des National Institutes of Health, le Dr Selikoff et le Dr Hammond et leur équipe grandissante de minéralogistes, pneumologues, radiologues, pathologistes, hygiénistes et épidémiologistes ont continué à explorer diverses facettes de la maladie de l'amiante.
Un article majeur de 1968 a signalé l'effet synergique du tabagisme sur l'exposition à l'amiante (Selikoff, Hammond et Churg 1968). Les études ont été élargies pour inclure les travailleurs de la production d'amiante, les personnes indirectement exposées à l'amiante dans leur travail (les travailleurs des chantiers navals, par exemple) et celles ayant une exposition familiale à l'amiante.
Dans une analyse ultérieure, dans laquelle l'équipe a été rejointe par Herbert Seidman, MBA, vice-président adjoint pour l'épidémiologie et les statistiques de l'American Cancer Society, le groupe a démontré que même une exposition à court terme à l'amiante entraînait une augmentation significative du risque de cancer jusqu'à à 30 ans plus tard (Seidman, Selikoff et Hammond 1979). Il n'y avait que trois cas de mésothéliome dans cette première étude de 632 isolateurs, mais des enquêtes ultérieures ont montré que 8% de tous les décès parmi les travailleurs de l'amiante étaient dus à un mésothéliome pleural et péritonéal.
Au fur et à mesure que les recherches scientifiques du Dr Selikoff se développaient, lui et ses collègues ont apporté des contributions remarquables à la réduction de l'exposition à l'amiante grâce à des innovations dans les techniques d'hygiène industrielle; en persuadant les législateurs de l'urgence du problème de l'amiante ; dans l'évaluation des problèmes des prestations d'invalidité liées à la maladie de l'amiante; et en étudiant la distribution générale des particules d'amiante dans les approvisionnements en eau et dans l'air ambiant.
Le Dr Selikoff a également attiré l'attention de la communauté médicale et scientifique sur le problème de l'amiante en organisant des conférences sur le sujet et en participant à de nombreuses réunions scientifiques. Plusieurs de ses réunions d'orientation sur le problème de la maladie de l'amiante étaient structurées notamment pour les avocats, les juges, les présidents de grandes entreprises et les dirigeants d'assurances.
Charge de travail mentale ou physique
Le concept de charge de travail mental (MWL) est devenu de plus en plus important car les technologies modernes semi-automatisées et informatisées peuvent imposer des exigences sévères aux capacités mentales humaines ou de traitement de l'information dans les tâches de fabrication et administratives. Ainsi, en particulier pour les domaines de l'analyse des tâches, de l'évaluation des exigences des tâches et de la conception des tâches, la conceptualisation de la charge mentale est devenue encore plus importante que celle de la charge physique traditionnelle.
Définitions de la charge de travail mental
Il n'y a pas de définition convenue de la charge de travail mental. La raison principale est qu'il existe au moins deux approches et définitions théoriquement bien fondées : (1) la MWL considérée en termes d'exigences de la tâche comme une variable externe indépendante avec laquelle les sujets qui travaillent doivent faire face plus ou moins efficacement, et (2) MWL tel que défini en termes d'interaction entre les exigences de la tâche et les capacités ou ressources humaines (Hancock et Chignell 1986 ; Welford 1986 ; Wieland-Eckelmann 1992).
Bien que issues de contextes différents, les deux approches offrent des contributions nécessaires et fondées à des problèmes différents.
La exigences ressources interaction Cette approche a été développée dans le contexte des théories de l'adéquation/inadéquation personnalité-environnement qui tentent d'expliquer les réponses interindividuelles différentes à des conditions et exigences physiques et psychosociales identiques. Ainsi, cette approche peut expliquer les différences individuelles dans les schémas de réponses subjectives aux exigences et conditions de charge, par exemple en termes de fatigue, de monotonie, d'aversion affective, d'épuisement professionnel ou de maladies (Gopher et Donchin 1986 ; Hancock et Meshkati 1988).
La exigences de la tâche Cette approche a été développée dans les parties de la psychologie du travail et de l'ergonomie qui sont principalement engagées dans la conception de tâches, en particulier dans la conception de tâches futures nouvelles et non testées, ou soi-disant conception prospective des tâches. Le contexte ici est le concept de contrainte-déformation. Les exigences de la tâche constituent le stress et les sujets qui travaillent essaient de s'adapter ou de faire face aux exigences comme ils le feraient pour d'autres formes de stress (Hancock et Chignell 1986). Cette approche des exigences des tâches tente de répondre à la question de savoir comment concevoir les tâches à l'avance afin d'optimiser leur impact ultérieur sur les employés, souvent encore inconnus, qui accompliront ces tâches futures.
Il existe au moins quelques caractéristiques communes aux deux conceptualisations de MWL.
Approches théoriques : Approches exigences-ressources
Du point de vue de l'adéquation personne-environnement, la MWL et ses conséquences peuvent être grossièrement classées - comme le montre la figure 1 - en sous-charge, charge correctement adaptée et surcharge. Cette catégorisation résulte des relations entre les exigences de la tâche et les capacités ou ressources mentales. Les exigences des tâches peuvent dépasser, correspondre ou ne pas être satisfaites par les ressources. Les deux types d'inadéquation peuvent résulter de modes d'inadéquation quantitatifs ou qualitatifs et auront des conséquences qualitativement différentes, mais en tout cas négatives (voir figure 1).
Figure 1. Types et conséquences des relations exigences-ressources
Certaines théories tentent de définir MWL à partir du côté ressource ou capacité des exigences, à savoir les relations de ressources. Ces théories des ressources pourraient être subdivisées en théories du volume des ressources et de l'allocation des ressources (Wieland-Eckelmann 1992). La quantité de capacité disponible peut provenir d'une source unique (unique théories des ressources) qui détermine le traitement. La disponibilité de cette ressource varie selon l'éveil (Kahneman 1973). Moderne plusieurs les théories des ressources supposent un ensemble de ressources de traitement relativement indépendantes. Ainsi, les performances dépendront de la condition selon laquelle la même ressource ou des ressources différentes sont requises simultanément et simultanément. Différentes ressources sont, par exemple, les ressources d'encodage, de traitement ou de réponse (Gopher et Donchin 1986 ; Welford 1986). Le problème le plus critique pour ces types de théories est l'identification fiable d'une ou plusieurs capacités bien définies pour des opérations de traitement qualitativement différentes.
Les théories de l'allocation des ressources supposent un changement qualitatif du traitement en fonction de stratégies variables. Selon les stratégies, différents processus mentaux et représentations peuvent être appliqués pour l'accomplissement des tâches. Ainsi, ce n'est pas le volume des ressources stables mais les stratégies d'allocation flexibles qui deviennent le principal point d'intérêt. Là encore, cependant, des questions essentielles, notamment concernant les modalités de diagnostic des stratégies, restent sans réponse.
Évaluation de MWL : utilisation d'approches exigences-ressources
Une mesure stricte de la MWL serait actuellement impossible car des unités de mesure bien définies font défaut. Mais, bien sûr, la conceptualisation et les instruments d'une évaluation doivent répondre aux critères généraux de qualité des approches diagnostiques, qui ont l'objectivité, la fiabilité, la validité et l'utilité. Cependant, à l'heure actuelle, on ne sait que peu de choses sur la qualité globale des techniques ou des instruments proposés.
Il existe un nombre important de raisons expliquant les difficultés qui subsistent dans l'évaluation de la MWL selon les approches besoins-ressources (O'Donnell et Eggemeier 1986). Une tentative d'évaluation MWL doit faire face à des questions telles que les suivantes : la tâche est-elle auto-intentionnée, suivant des objectifs auto-définis, ou est-elle dirigée en référence à un ordre défini de l'extérieur ? Quels types de capacités (traitement intellectuel conscient, application de connaissances tacites, etc.) sont requises et sont-elles sollicitées simultanément ou séquentiellement ? Existe-t-il différentes stratégies disponibles et, si oui, lesquelles ? Quels mécanismes d'adaptation d'une personne au travail pourraient être nécessaires ?
Les approches les plus souvent discutées tentent d'évaluer le MWL en termes de :
Les deux approches dépendent fortement des hypothèses des théories des ressources uniques et doivent par conséquent se débattre avec les questions susmentionnées.
Évaluation de l'effort. Des techniques d'évaluation de l'effort telles que, par exemple, la procédure de mise à l'échelle appliquée à un corrélat perçu de la activation centrale générale, développées et validées par Bartenwerfer (1970), proposent des échelles verbales qui peuvent être complétées par des échelles graphiques et qui notent la part variable de manière unidimensionnelle de l'effort requis perçu lors de l'accomplissement d'une tâche. Les sujets sont invités à décrire leur effort perçu au moyen d'une des étapes de l'échelle proposée.
Les critères de qualité mentionnés ci-dessus sont remplis par cette technique. Ses limites incluent l'unidimensionnalité de l'échelle, couvrant une partie essentielle mais discutable de l'effort perçu ; la possibilité limitée ou absente de prévoir les résultats perçus des tâches personnelles, par exemple, en termes de fatigue, d'ennui ou d'anxiété ; et surtout le caractère très abstrait ou formel de l'effort qui n'identifiera et n'expliquera presque rien des aspects dépendant du contenu de la MWL comme, par exemple, les éventuelles applications utiles de la qualification ou des options d'apprentissage.
Évaluation de la capacité mentale. L'évaluation de la capacité mentale comprend les techniques de double tâche et une procédure d'interprétation des données associée, appelée performance caractéristique de fonctionnement (POC). Les techniques à double tâche couvrent plusieurs procédures. Leur caractéristique commune est qu'il est demandé aux sujets d'effectuer deux tâches simultanément. L'hypothèse cruciale est la suivante : moins une tâche supplémentaire ou secondaire dans la situation de double tâche se détériorera par rapport à la situation de base de tâche unique, plus les exigences de capacité mentale de la tâche principale seront faibles, et vice versa. L'approche est maintenant élargie et diverses versions de l'interférence de tâche dans des conditions de double tâche sont étudiées. Par exemple, les sujets sont chargés d'effectuer deux tâches simultanément avec des variations graduées des priorités des tâches. La courbe POC illustre graphiquement les effets d'éventuelles combinaisons de tâches doubles résultant du partage de ressources limitées entre les tâches exécutées simultanément.
Les hypothèses critiques de l'approche consistent principalement dans les suggestions selon lesquelles chaque tâche nécessitera une certaine part d'une capacité de traitement consciente (par opposition à inconsciente, automatisée, implicite ou tacite) stable et limitée, dans la relation additive hypothétique des deux exigences de capacité, et dans la restriction de l'approche aux seules données de performance. Ce dernier peut être trompeur pour plusieurs raisons. Tout d'abord, il existe des différences substantielles dans la sensibilité des données de performance et des données subjectivement perçues. La charge perçue semble être déterminée principalement par la quantité de ressources requises, souvent opérationnalisée en termes de mémoire de travail, alors que les mesures de performance semblent être déterminées principalement par l'efficacité du partage des ressources, en fonction des stratégies d'allocation (c'est théorie de la dissociation; voir Wickens et Yeh 1983). De plus, les différences individuelles dans les capacités de traitement de l'information et les traits de personnalité influencent fortement les indicateurs de MWL dans les domaines subjectif (perçu), de performance et psychophysiologique.
Approches théoriques : Approches des exigences de tâche
Comme on l'a montré, les exigences d'une tâche sont multidimensionnelles et, par conséquent, peuvent ne pas être suffisamment décrites au moyen d'une seule dimension, qu'il s'agisse de l'effort perçu ou de la capacité mentale consciente résiduelle. Une description plus approfondie pourrait être une description de type profil, appliquant un modèle théoriquement sélectionné de dimensions graduées des caractéristiques de la tâche. La question centrale est donc la conceptualisation de la « tâche », en particulier en termes de contenu de la tâche, et de « l'accomplissement de la tâche », en particulier en termes de structure et de phases d'actions orientées vers un but. Le rôle de la tâche est accentué par le fait que même l'impact des conditions contextuelles (comme la température, le bruit ou les heures de travail) sur les personnes dépend de la tâche, car ils sont médiatisés par la tâche agissant comme un dispositif de porte (Fisher 1986) . Diverses approches théoriques s'accordent suffisamment sur ces dimensions critiques de la tâche, qui offrent une prédiction valide du résultat de la tâche. Dans tous les cas, le résultat de la tâche est double, puisque (1) le résultat escompté doit être atteint, répondant aux critères de résultat de performance, et (2) un certain nombre d'effets secondaires personnels non intentionnels à court terme et cumulatifs à long terme apparaîtront, par exemple. fatigue, ennui (monotonie), maladies professionnelles ou amélioration de la motivation, des connaissances ou des compétences intrinsèques.
Évaluation de la MWL. Avec les approches d'exigences de tâches, les approches orientées vers l'action comme celles des actions complètes versus partielles ou le score de potentiel de motivation (pour une élaboration des deux, voir Hacker 1986), proposent comme caractéristiques de tâche indispensables pour l'analyse et l'évaluation au moins les éléments suivants :
L'identification de ces caractéristiques de tâche nécessite les procédures conjointes d'analyse emploi/tâche, comprenant des analyses de documents, des observations, des entretiens et des discussions de groupe, qui doivent être intégrées dans un devis quasi-expérimental (Rudolph, Schönfelder et Hacker 1987). Des instruments d'analyse des tâches qui peuvent guider et aider l'analyse sont disponibles. Certains d'entre eux ne facilitent que l'analyse (par exemple, NASA-TLX Task Load Index, Hart et Staveland, 1988) tandis que d'autres sont utiles pour l'évaluation et la conception ou la reconception. Un exemple ici est le TBS-GA (Tätigkeitsbewertungs System für geistige Arbeit [Task Diagnosis Survey—Mental Work]); voir Rudolph, Schönfelder et Hacker (1987).
Le mot biomarqueur est l'abréviation de marqueur biologique, un terme qui fait référence à un événement mesurable se produisant dans un système biologique, tel que le corps humain. Cet événement est alors interprété comme le reflet, ou le marqueur, d'un état plus général de l'organisme ou de l'espérance de vie. En santé au travail, un biomarqueur est généralement utilisé comme indicateur de l'état de santé ou du risque de maladie.
Les biomarqueurs sont utilisés pour des études in vitro et in vivo qui peuvent inclure des humains. Habituellement, trois types spécifiques de marqueurs biologiques sont identifiés. Bien que quelques biomarqueurs puissent être difficiles à classer, ils sont généralement séparés en biomarqueurs d'exposition, biomarqueurs d'effet ou biomarqueurs de sensibilité (voir tableau 1).
Tableau 1. Exemples de biomarqueurs d'exposition ou biomarqueurs d'effet utilisés dans les études toxicologiques en santé au travail
Échantillon | Mesure | Objectif |
Biomarqueurs d'exposition | ||
Tissu adipeux | dioxine | Exposition aux dioxines |
sanguins | Plomb | Exposition au plomb |
Greffe Osseuse | Aluminium | Exposition à l'aluminium |
Souffle expiré | Toluène | Exposition au toluène |
Implants | Mercury | Exposition au méthylmercure |
Sérum | Benzène | Exposition au benzène |
Urine | Phénol | Exposition au benzène |
Biomarqueurs d'effet | ||
sanguins | Carboxyhémoglobine | Exposition au monoxyde de carbone |
des globules rouges | Zinc-protoporphyrine | Exposition au plomb |
Sérum | Cholinestérase | Exposition aux organophosphorés |
Urine | Microglobulines | Exposition néphrotoxique |
Les globules blancs | Adduits à l'ADN | Exposition mutagène |
Avec un degré de validité acceptable, les biomarqueurs peuvent être utilisés à plusieurs fins. Sur une base individuelle, un biomarqueur peut être utilisé pour étayer ou réfuter un diagnostic d'un type particulier d'empoisonnement ou d'un autre effet indésirable d'origine chimique. Chez un sujet sain, un biomarqueur peut également refléter l'hypersensibilité individuelle à des expositions chimiques spécifiques et peut donc servir de base pour la prédiction des risques et le conseil. Dans les groupes de travailleurs exposés, certains biomarqueurs d'exposition peuvent être appliqués pour évaluer le degré de conformité aux réglementations antipollution ou l'efficacité des efforts de prévention en général.
Biomarqueurs d'exposition
Un biomarqueur d'exposition peut être un composé exogène (ou un métabolite) dans le corps, un produit interactif entre le composé (ou le métabolite) et un composant endogène, ou un autre événement lié à l'exposition. Le plus souvent, les biomarqueurs des expositions à des composés stables, tels que les métaux, comprennent des mesures des concentrations de métaux dans des échantillons appropriés, tels que le sang, le sérum ou l'urine. Avec les produits chimiques volatils, leur concentration dans l'air expiré (après inhalation d'air non contaminé) peut être évaluée. Si le composé est métabolisé dans l'organisme, un ou plusieurs métabolites peuvent être choisis comme biomarqueur de l'exposition ; les métabolites sont souvent déterminés dans des échantillons d'urine.
Les méthodes modernes d'analyse peuvent permettre la séparation d'isomères ou de congénères de composés organiques et la détermination de la spéciation de composés métalliques ou des rapports isotopiques de certains éléments. Des analyses sophistiquées permettent de déterminer les changements dans la structure de l'ADN ou d'autres macromolécules provoqués par la liaison avec des produits chimiques réactifs. Ces techniques avancées gagneront sans aucun doute considérablement en importance pour les applications dans les études de biomarqueurs, et des limites de détection plus basses et une meilleure validité analytique rendront probablement ces biomarqueurs encore plus utiles.
Des développements particulièrement prometteurs ont eu lieu avec des biomarqueurs d'exposition à des produits chimiques mutagènes. Ces composés sont réactifs et peuvent former des adduits avec des macromolécules, telles que des protéines ou de l'ADN. Des adduits d'ADN peuvent être détectés dans les globules blancs ou des biopsies tissulaires, et des fragments d'ADN spécifiques peuvent être excrétés dans l'urine. Par exemple, l'exposition à l'oxyde d'éthylène entraîne des réactions avec les bases de l'ADN et, après excision de la base endommagée, la N-7-(2-hydroxyéthyl)guanine sera éliminée dans les urines. Certains adduits peuvent ne pas se référer directement à une exposition particulière. Par exemple, la 8-hydroxy-2´-désoxyguanosine reflète les dommages oxydatifs de l'ADN, et cette réaction peut être déclenchée par plusieurs composés chimiques, dont la plupart induisent également une peroxydation lipidique.
D'autres macromolécules peuvent également être modifiées par formation d'adduits ou oxydation. D'un intérêt particulier, de tels composés réactifs peuvent générer des adduits d'hémoglobine qui peuvent être déterminés en tant que biomarqueurs d'exposition aux composés. L'avantage est que de grandes quantités d'hémoglobine peuvent être obtenues à partir d'un échantillon de sang et, étant donné la durée de vie de quatre mois des globules rouges, les adduits formés avec les acides aminés de la protéine indiqueront l'exposition totale pendant cette période.
Les adduits peuvent être déterminés par des techniques sensibles telles que la chromatographie lipidique à haute performance, et certaines méthodes immunologiques sont également disponibles. En général, les méthodes analytiques sont nouvelles, coûteuses et nécessitent un développement et une validation supplémentaires. Une meilleure sensibilité peut être obtenue en utilisant le 32Test de post-marquage P, qui est une indication non spécifique que des dommages à l'ADN ont eu lieu. Toutes ces techniques sont potentiellement utiles pour la surveillance biologique et ont été appliquées dans un nombre croissant d'études. Cependant, des méthodes analytiques plus simples et plus sensibles sont nécessaires. Compte tenu de la spécificité limitée de certaines méthodes à de faibles niveaux d'exposition, le tabagisme ou d'autres facteurs peuvent avoir un impact significatif sur les résultats de mesure, entraînant ainsi des difficultés d'interprétation.
L'exposition à des composés mutagènes ou à des composés qui sont métabolisés en mutagènes peut également être déterminée en évaluant la mutagénicité de l'urine d'un individu exposé. L'échantillon d'urine est incubé avec une souche de bactéries dans laquelle une mutation ponctuelle spécifique est exprimée d'une manière qui peut être facilement mesurée. Si des produits chimiques mutagènes sont présents dans l'échantillon d'urine, un taux accru de mutations se produira dans les bactéries.
Les biomarqueurs d'exposition doivent être évalués au regard de la variation temporelle de l'exposition et de la relation aux différents compartiments. Ainsi, la ou les périodes de temps représentées par le biomarqueur, c'est-à-dire la mesure dans laquelle la mesure du biomarqueur reflète l'exposition ou les expositions passées et/ou la charge corporelle accumulée, doivent être déterminées à partir des données toxicocinétiques afin d'interpréter le résultat. En particulier, le degré auquel le biomarqueur indique une rétention dans des organes cibles spécifiques doit être pris en compte. Bien que les échantillons de sang soient souvent utilisés pour les études de biomarqueurs, le sang périphérique n'est généralement pas considéré comme un compartiment en tant que tel, bien qu'il agisse comme un milieu de transport entre les compartiments. La mesure dans laquelle la concentration dans le sang reflète les niveaux dans différents organes varie considérablement entre les différents produits chimiques et dépend généralement aussi de la durée de l'exposition ainsi que du temps écoulé depuis l'exposition.
Parfois, ce type de preuve est utilisé pour classer un biomarqueur comme un indicateur de dose absorbée (totale) ou un indicateur de dose efficace (c'est-à-dire la quantité qui a atteint le tissu cible). Par exemple, l'exposition à un solvant particulier peut être évaluée à partir de données sur la concentration réelle du solvant dans le sang à un moment particulier après l'exposition. Cette mesure reflétera la quantité de solvant qui a été absorbée par le corps. Une partie de la quantité absorbée sera expirée en raison de la pression de vapeur du solvant. En circulant dans le sang, le solvant interagira avec divers composants du corps et finira par être dégradé par les enzymes. Le résultat des processus métaboliques peut être évalué en déterminant des acides mercapturiques spécifiques produits par conjugaison avec le glutathion. L'excrétion cumulée des acides mercapturiques peut mieux refléter la dose efficace que la concentration sanguine.
Les événements de la vie, tels que la reproduction et la sénescence, peuvent affecter la distribution d'un produit chimique. La distribution des produits chimiques dans le corps est considérablement affectée par la grossesse, et de nombreux produits chimiques peuvent traverser la barrière placentaire, provoquant ainsi une exposition du fœtus. La lactation peut entraîner l'excrétion de produits chimiques liposolubles, entraînant ainsi une diminution de la rétention chez la mère ainsi qu'une augmentation de l'absorption par le nourrisson. Pendant la perte de poids ou le développement de l'ostéoporose, des produits chimiques stockés peuvent être libérés, ce qui peut alors entraîner une exposition «endogène» renouvelée et prolongée des organes cibles. D'autres facteurs peuvent affecter l'absorption individuelle, le métabolisme, la rétention et la distribution des composés chimiques, et certains biomarqueurs de sensibilité sont disponibles (voir ci-dessous).
Biomarqueurs d'effet
Un marqueur d'effet peut être un composant endogène, ou une mesure de la capacité fonctionnelle, ou un autre indicateur de l'état ou de l'équilibre du corps ou du système organique, tel qu'affecté par l'exposition. De tels marqueurs d'effets sont généralement des indicateurs précliniques d'anomalies.
Ces biomarqueurs peuvent être spécifiques ou non spécifiques. Les biomarqueurs spécifiques sont utiles car ils indiquent un effet biologique d'une exposition particulière, fournissant ainsi des preuves qui peuvent potentiellement être utilisées à des fins préventives. Les biomarqueurs non spécifiques n'indiquent pas une cause individuelle de l'effet, mais ils peuvent refléter l'effet total intégré dû à une exposition mixte. Les deux types de biomarqueurs peuvent donc être d'une utilité considérable en santé au travail.
Il n'y a pas de distinction claire entre les biomarqueurs d'exposition et les biomarqueurs d'effet. Par exemple, on pourrait dire que la formation d'adduits reflète un effet plutôt que l'exposition. Cependant, les biomarqueurs d'effet indiquent généralement des changements dans les fonctions des cellules, des tissus ou de l'ensemble du corps. Certains chercheurs incluent des changements brutaux, tels qu'une augmentation du poids du foie des animaux de laboratoire exposés ou une diminution de la croissance chez les enfants, comme biomarqueurs d'effet. Aux fins de la santé au travail, les biomarqueurs d'effets devraient être limités à ceux qui indiquent des modifications biochimiques subcliniques ou réversibles, telles que l'inhibition des enzymes. Le biomarqueur d'effet le plus fréquemment utilisé est probablement l'inhibition de la cholinestérase causée par certains insecticides, c'est-à-dire les organophosphorés et les carbamates. Dans la plupart des cas, cet effet est entièrement réversible et l'inhibition enzymatique reflète l'exposition totale à ce groupe particulier d'insecticides.
Certaines expositions n'entraînent pas d'inhibition enzymatique mais plutôt une activité accrue d'une enzyme. C'est le cas de plusieurs enzymes appartenant à la famille P450 (voir « Déterminants génétiques de la réponse toxique »). Ils peuvent être induits par des expositions à certains solvants et hydrocarbures polyaromatiques (HAP). Étant donné que ces enzymes sont principalement exprimées dans les tissus à partir desquels une biopsie peut être difficile à obtenir, l'activité enzymatique est déterminée indirectement in vivo en administrant un composé qui est métabolisé par cette enzyme particulière, puis le produit de dégradation est mesuré dans l'urine ou le plasma.
D'autres expositions peuvent induire la synthèse d'une protéine protectrice dans l'organisme. Le meilleur exemple est probablement la métallothionéine, qui lie le cadmium et favorise l'excrétion de ce métal ; l'exposition au cadmium est l'un des facteurs qui entraînent une expression accrue du gène de la métallothionéine. Des protéines protectrices similaires peuvent exister mais n'ont pas encore été suffisamment explorées pour être acceptées comme biomarqueurs. Parmi les candidats à une utilisation possible en tant que biomarqueurs figurent les protéines dites de stress, appelées à l'origine protéines de choc thermique. Ces protéines sont générées par une gamme d'organismes différents en réponse à une variété d'expositions nocives.
Les dommages oxydatifs peuvent être évalués en déterminant la concentration de malondialdéhyde dans le sérum ou l'exhalation d'éthane. De même, l'excrétion urinaire de protéines de faible poids moléculaire, comme l'albumine, peut être utilisée comme biomarqueur d'une atteinte rénale précoce. Plusieurs paramètres couramment utilisés en pratique clinique (par exemple, les taux sériques d'hormones ou d'enzymes) peuvent également être utiles en tant que biomarqueurs. Cependant, bon nombre de ces paramètres peuvent ne pas être suffisamment sensibles pour détecter une déficience précoce.
Un autre groupe de paramètres d'effet concerne les effets génotoxiques (modifications de la structure des chromosomes). De tels effets peuvent être détectés par microscopie des globules blancs qui subissent une division cellulaire. De graves dommages aux chromosomes - aberrations chromosomiques ou formation de micronoyaux - peuvent être observés au microscope. Les dommages peuvent également être révélés en ajoutant un colorant aux cellules lors de la division cellulaire. L'exposition à un agent génotoxique peut alors être visualisée comme un échange accru du colorant entre les deux chromatides de chaque chromosome (échange de chromatides sœurs). Les aberrations chromosomiques sont liées à un risque accru de développer un cancer, mais la signification d'un taux accru d'échange de chromatides sœurs est moins claire.
Une évaluation plus sophistiquée de la génotoxicité est basée sur des mutations ponctuelles particulières dans les cellules somatiques, c'est-à-dire les globules blancs ou les cellules épithéliales obtenues à partir de la muqueuse buccale. Une mutation à un locus spécifique peut rendre les cellules capables de se développer dans une culture contenant un produit chimique autrement toxique (comme la 6-thioguanine). En variante, un produit génique spécifique peut être évalué (par exemple, des concentrations sériques ou tissulaires d'oncoprotéines codées par des oncogènes particuliers). De toute évidence, ces mutations reflètent le total des dommages génotoxiques subis et n'indiquent pas nécessairement quoi que ce soit sur l'exposition causale. Ces méthodes ne sont pas encore prêtes pour une utilisation pratique en médecine du travail, mais des progrès rapides dans cette ligne de recherche suggèrent que de telles méthodes deviendront disponibles d'ici quelques années.
Biomarqueurs de susceptibilité
Un marqueur de susceptibilité, qu'il soit héréditaire ou induit, est un indicateur que l'individu est particulièrement sensible à l'effet d'un xénobiotique ou aux effets d'un groupe de tels composés. La plus grande attention a été portée sur la susceptibilité génétique, bien que d'autres facteurs puissent être au moins aussi importants. L'hypersensibilité peut être due à un trait héréditaire, à la constitution de l'individu ou à des facteurs environnementaux.
La capacité à métaboliser certains produits chimiques est variable et déterminée génétiquement (voir « Déterminants génétiques de la réponse toxique »). Plusieurs enzymes pertinentes semblent être contrôlées par un seul gène. Par exemple, l'oxydation de produits chimiques étrangers est principalement réalisée par une famille d'enzymes appartenant à la famille P450. D'autres enzymes rendent les métabolites plus solubles dans l'eau par conjugaison (par exemple, N-acétyltransférase et μ-glutathion-S-transférase). L'activité de ces enzymes est contrôlée génétiquement et varie considérablement. Comme mentionné ci-dessus, l'activité peut être déterminée en administrant une petite dose d'un médicament, puis en déterminant la quantité du métabolite dans l'urine. Certains des gènes ont maintenant été caractérisés et des techniques sont disponibles pour déterminer le génotype. Des études importantes suggèrent qu'un risque de développer certaines formes de cancer est lié à la capacité de métaboliser des composés étrangers. De nombreuses questions restent encore en suspens, ce qui limite à ce jour l'utilisation de ces potentiels biomarqueurs de susceptibilité en santé au travail.
D'autres traits hérités, tels que l'alpha1-le déficit en antitrypsine ou déficit en glucose-6-phosphate déshydrogénase, entraînent également des mécanismes de défense déficients dans l'organisme, provoquant ainsi une hypersensibilité à certaines expositions.
La plupart des recherches liées à la susceptibilité ont porté sur la prédisposition génétique. D'autres facteurs jouent également un rôle et ont été en partie négligés. Par exemple, les personnes atteintes d'une maladie chronique peuvent être plus sensibles à une exposition professionnelle. De plus, si un processus pathologique ou une exposition antérieure à des produits chimiques toxiques a causé des dommages subcliniques aux organes, la capacité de résister à une nouvelle exposition toxique est susceptible d'être moindre. Des indicateurs biochimiques du fonctionnement des organes peuvent dans ce cas être utilisés comme biomarqueurs de susceptibilité. Le meilleur exemple concernant l'hypersensibilité concerne peut-être les réactions allergiques. Si un individu est devenu sensibilisé à une exposition particulière, des anticorps spécifiques peuvent être détectés dans le sérum. Même si l'individu n'a pas été sensibilisé, d'autres expositions actuelles ou passées peuvent augmenter le risque de développer un effet indésirable lié à une exposition professionnelle.
Un problème majeur est de déterminer l'effet conjoint des expositions mixtes au travail. De plus, les habitudes personnelles et la consommation de drogues peuvent entraîner une sensibilité accrue. Par exemple, la fumée de tabac contient généralement une quantité considérable de cadmium. Ainsi, avec une exposition professionnelle au cadmium, un gros fumeur qui a accumulé des quantités substantielles de ce métal dans le corps sera plus à risque de développer une maladie rénale liée au cadmium.
Application en santé au travail
Les biomarqueurs sont extrêmement utiles dans la recherche toxicologique et nombre d'entre eux peuvent s'appliquer à la surveillance biologique. Néanmoins, les limites doivent également être reconnues. De nombreux biomarqueurs n'ont jusqu'à présent été étudiés que sur des animaux de laboratoire. Les schémas toxicocinétiques chez d'autres espèces ne reflètent pas nécessairement la situation chez les êtres humains, et l'extrapolation peut nécessiter des études de confirmation chez des volontaires humains. Il faut également tenir compte des variations individuelles dues à des facteurs génétiques ou constitutionnels.
Dans certains cas, les biomarqueurs d'exposition peuvent ne pas être réalisables du tout (par exemple, pour les produits chimiques à courte durée de vie in vivo). D'autres produits chimiques peuvent être stockés dans des organes auxquels il n'est pas possible d'accéder par des procédures de routine, tels que le système nerveux, ou les affecter. La voie d'exposition peut également affecter le schéma de distribution et donc également la mesure du biomarqueur et son interprétation. Par exemple, une exposition directe du cerveau via le nerf olfactif est susceptible d'échapper à la détection par la mesure des biomarqueurs d'exposition. Quant aux biomarqueurs d'effet, beaucoup d'entre eux ne sont pas du tout spécifiques et le changement peut être dû à diverses causes, y compris des facteurs liés au mode de vie. Peut-être en particulier avec les biomarqueurs de sensibilité, l'interprétation doit être très prudente pour le moment, car de nombreuses incertitudes subsistent quant à l'importance globale pour la santé des génotypes individuels.
En santé au travail, le biomarqueur idéal doit répondre à plusieurs exigences. Tout d'abord, le prélèvement et l'analyse des échantillons doivent être simples et fiables. Pour une qualité analytique optimale, une normalisation est nécessaire, mais les exigences spécifiques varient considérablement. Les principaux domaines de préoccupation comprennent : la préparation de l'individu, la procédure d'échantillonnage et la manipulation des échantillons, et la procédure de mesure ; ce dernier englobe des facteurs techniques, tels que les procédures d'étalonnage et d'assurance qualité, et des facteurs liés à l'individu, tels que l'éducation et la formation des opérateurs.
Pour la documentation de la validité analytique et de la traçabilité, les matériaux de référence doivent être basés sur des matrices pertinentes et avec des concentrations appropriées de substances toxiques ou de métabolites pertinents à des niveaux appropriés. Pour que les biomarqueurs soient utilisés pour la surveillance biologique ou à des fins de diagnostic, les laboratoires responsables doivent disposer de procédures analytiques bien documentées avec des caractéristiques de performance définies et des enregistrements accessibles pour permettre la vérification des résultats. Dans le même temps, néanmoins, les aspects économiques de la caractérisation et de l'utilisation de matériaux de référence pour compléter les procédures d'assurance qualité en général doivent être pris en compte. Ainsi, la qualité réalisable des résultats et les utilisations qui en sont faites doivent être mises en balance avec les coûts supplémentaires de l'assurance qualité, y compris les matériaux de référence, la main-d'œuvre et l'instrumentation.
Une autre exigence est que le biomarqueur doit être spécifique, au moins dans les circonstances de l'étude, pour un type particulier d'exposition, avec une relation claire avec le degré d'exposition. Sinon, le résultat de la mesure du biomarqueur peut être trop difficile à interpréter. Pour une interprétation correcte du résultat de mesure d'un biomarqueur d'exposition, la validité diagnostique doit être connue (c'est-à-dire la traduction de la valeur du biomarqueur en ampleur des risques possibles pour la santé). Dans ce domaine, les métaux servent de paradigme pour la recherche de biomarqueurs. Des recherches récentes ont démontré la complexité et la subtilité des relations dose-réponse, avec des difficultés considérables pour identifier les niveaux sans effet et donc aussi pour définir les expositions tolérables. Cependant, ce type de recherche a également illustré les types d'enquête et le raffinement qui sont nécessaires pour découvrir les informations pertinentes. Pour la plupart des composés organiques, les associations quantitatives entre les expositions et les effets nocifs correspondants sur la santé ne sont pas encore disponibles ; dans de nombreux cas, même les principaux organes cibles ne sont pas connus avec certitude. De plus, l'évaluation des données de toxicité et des concentrations de biomarqueurs est souvent compliquée par l'exposition à des mélanges de substances, plutôt que par l'exposition à un seul composé à la fois.
Avant que le biomarqueur ne soit appliqué à des fins de santé au travail, certaines considérations supplémentaires sont nécessaires. Premièrement, le biomarqueur doit refléter uniquement un changement subclinique et réversible. Deuxièmement, étant donné que les résultats des biomarqueurs peuvent être interprétés en fonction des risques pour la santé, des efforts de prévention doivent être disponibles et doivent être considérés comme réalistes au cas où les données des biomarqueurs suggèrent la nécessité de réduire l'exposition. Troisièmement, l'utilisation pratique du biomarqueur doit être généralement considérée comme éthiquement acceptable.
Les mesures d'hygiène industrielle peuvent être comparées aux limites d'exposition applicables. De même, les résultats sur les biomarqueurs d'exposition ou les biomarqueurs d'effet peuvent être comparés à des limites d'action biologique, parfois appelées indices d'exposition biologique. Ces limites devraient être fondées sur les meilleurs conseils des cliniciens et des scientifiques des disciplines appropriées, et les administrateurs responsables en tant que « gestionnaires des risques » devraient alors tenir compte des facteurs éthiques, sociaux, culturels et économiques pertinents. La base scientifique devrait, si possible, inclure des relations dose-réponse complétées par des informations sur les variations de sensibilité au sein de la population à risque. Dans certains pays, les travailleurs et les membres du grand public sont impliqués dans le processus de normalisation et apportent une contribution importante, en particulier lorsque l'incertitude scientifique est considérable. L'une des principales incertitudes est de savoir comment définir un effet nocif sur la santé qui devrait être évité, par exemple, si la formation d'adduits en tant que biomarqueur d'exposition représente en soi un effet nocif (c'est-à-dire un biomarqueur d'effet) qui devrait être prévenu. Des questions difficiles sont susceptibles de se poser lorsqu'il s'agit de décider s'il est éthiquement défendable, pour un même composé, d'avoir des limites différentes pour l'exposition fortuite, d'une part, et l'exposition professionnelle, d'autre part.
Les informations générées par l'utilisation des biomarqueurs doivent généralement être transmises aux personnes examinées dans le cadre de la relation médecin-patient. Les préoccupations éthiques doivent notamment être prises en compte dans le cadre d'analyses de biomarqueurs très expérimentales qui ne peuvent actuellement être interprétées en détail en termes de risques réels pour la santé. Pour la population générale, par exemple, il existe actuellement peu d'orientations concernant l'interprétation des biomarqueurs d'exposition autres que la plombémie. La confiance dans les données générées est également importante (c'est-à-dire si un échantillonnage approprié a été effectué et si de bonnes procédures d'assurance qualité ont été utilisées dans le laboratoire concerné). Un domaine supplémentaire d'inquiétude particulière concerne l'hypersensibilité individuelle. Ces questions doivent être prises en compte lors de la restitution de l'étude.
Tous les secteurs de la société concernés par ou concernés par la réalisation d'une étude de biomarqueurs doivent être impliqués dans le processus de prise de décision sur la manière de traiter les informations générées par l'étude. Des procédures spécifiques pour prévenir ou surmonter les conflits éthiques inévitables doivent être développées dans les cadres juridiques et sociaux de la région ou du pays. Cependant, chaque situation représente un ensemble différent de questions et de pièges, et aucune procédure unique de participation du public ne peut être développée pour couvrir toutes les applications des biomarqueurs d'exposition.
Le concept de vigilance fait référence à l'état de vigilance d'un observateur humain dans des tâches qui exigent un enregistrement et un traitement efficaces des signaux. Les principales caractéristiques des tâches de vigilance sont des durées relativement longues et la nécessité de détecter des stimuli cibles peu fréquents et imprévisibles (signaux) sur fond d'autres événements de stimulation.
Tâches de vigilance
La tâche prototypique de la recherche sur la vigilance était celle des radaristes. Historiquement, leurs performances apparemment insatisfaisantes pendant la Seconde Guerre mondiale ont été une impulsion majeure pour l'étude approfondie de la vigilance. Une autre tâche majeure nécessitant de la vigilance est une inspection industrielle. Plus généralement, toutes sortes de tâches de surveillance qui nécessitent la détection de signaux relativement peu fréquents comportent le risque de ne pas détecter et répondre à ces événements critiques.
Les tâches de vigilance constituent un ensemble hétérogène et varient sur plusieurs dimensions, malgré leurs caractéristiques communes. Une dimension évidemment importante est le taux de stimulus global ainsi que le taux de stimuli cibles. Il n'est pas toujours possible de définir sans ambiguïté le taux de stimulation. C'est le cas dans les tâches qui nécessitent la détection d'événements cibles par rapport à des stimuli de fond présentés en continu, comme la détection de valeurs critiques sur un ensemble de cadrans dans une tâche de surveillance. Une distinction moins évidemment importante est celle entre les tâches de discrimination successive et les tâches de discrimination simultanée. Dans les tâches de discrimination simultanée, les stimuli cibles et les stimuli d'arrière-plan sont présents en même temps, tandis que dans les tâches de discrimination successive, l'un est présenté après l'autre afin que certaines demandes de mémoire soient faites. Bien que la plupart des tâches de vigilance nécessitent la détection de stimuli visuels, des stimuli dans d'autres modalités ont également été étudiés. Les stimuli peuvent être confinés à un seul emplacement spatial, ou il peut y avoir différentes sources pour les stimuli cibles. Les stimuli cibles peuvent différer des stimuli de fond par des caractéristiques physiques, mais aussi par des caractéristiques plus conceptuelles (comme un certain modèle de relevés de compteur qui peut différer d'autres modèles). Bien sûr, la visibilité des cibles peut varier : certaines peuvent être détectées facilement, tandis que d'autres peuvent être difficiles à distinguer des stimuli de fond. Les stimuli cibles peuvent être uniques ou il peut y avoir des ensembles de stimuli cibles sans limites bien définies pour les différencier des stimuli de fond, comme c'est le cas dans de nombreuses tâches d'inspection industrielle. Cette liste de dimensions sur lesquelles les tâches de vigilance diffèrent peut être élargie, mais même cette longueur de liste suffit à souligner l'hétérogénéité des tâches de vigilance et donc les risques encourus à généraliser certaines observations à l'ensemble.
Variations de performance et diminution de la vigilance
La mesure de performance la plus fréquemment utilisée dans les tâches de vigilance est la proportion de stimuli cibles, par exemple, des produits défectueux en inspection industrielle, qui ont été détectés ; il s'agit d'une estimation de la probabilité de soi-disant les coups. Ces stimuli cibles qui restent inaperçus sont appelés manque. Bien que le taux de réussite soit une mesure pratique, il est quelque peu incomplet. Il existe une stratégie triviale qui permet d'atteindre 100% de succès : il suffit de classer tous les stimuli en cibles. Cependant, le taux de réussite de 100 % s'accompagne alors d'un taux de fausses alarmes de 100 %, c'est-à-dire que non seulement les stimuli cibles sont correctement détectés, mais que les stimuli de fond sont également "détectés" de manière incorrecte. Ce raisonnement montre clairement que chaque fois qu'il y a de fausses alarmes, il est important de connaître leur proportion en plus du taux de succès. Une autre mesure de la performance dans une tâche de vigilance est le temps nécessaire pour répondre aux stimuli cibles (temps de réponse).
La performance dans les tâches de vigilance présente deux attributs typiques. Le premier est le faible niveau global de performance de la vigilance. Elle est faible par rapport à une situation idéale pour les mêmes stimuli (périodes d'observation courtes, grande disponibilité de l'observateur à chaque discrimination, etc.). Le deuxième attribut est le soi-disant décrément de vigilance, la baisse de performance au cours de la montre qui peut commencer dès les premières minutes. Ces deux observations se réfèrent à la proportion de résultats, mais elles ont également été rapportées pour les temps de réponse. Bien que le décrément de vigilance soit typique des tâches de vigilance, il n'est pas universel.
Dans l'étude des causes d'une mauvaise performance globale et des baisses de vigilance, une distinction sera faite entre les concepts qui sont liés aux caractéristiques de base de la tâche et les concepts qui sont liés aux facteurs situationnels de l'organisme et non liés à la tâche. Parmi les facteurs liés à la tâche, on peut distinguer les facteurs stratégiques et non stratégiques.
Processus stratégiques dans les tâches de vigilance
La détection d'un signal comme un produit défectueux est en partie une question de stratégie de l'observateur et en partie une question de discriminabilité du signal. Cette distinction est basée sur la théorie de la détection de signal (TSD), et quelques bases de la théorie doivent être présentées afin de souligner l'importance de la distinction. Considérons une variable hypothétique, définie comme « la preuve de la présence d'un signal ». Chaque fois qu'un signal est présenté, cette variable prend une certaine valeur, et chaque fois qu'un stimulus de fond est présenté, il prend une valeur inférieure à la moyenne. La valeur de la variable de preuve est supposée varier selon les présentations répétées du signal. Ainsi, il peut être caractérisé par une fonction dite de densité de probabilité comme illustré sur la figure 1. Une autre fonction de densité caractérise les valeurs de la variable de preuve lors de la présentation d'un stimulus de fond. Lorsque les signaux sont similaires aux stimuli de fond, les fonctions se chevauchent, de sorte qu'une certaine valeur de la variable de preuve peut provenir soit d'un signal, soit d'un stimulus de fond. La forme particulière des fonctions de densité de la figure 1 n'est pas essentielle pour l'argument.
Figure 1. Seuils et discriminabilité
La réponse de détection de l'observateur est basée sur la variable de preuve. On suppose qu'un seuil est défini de sorte qu'une réponse de détection est donnée chaque fois que la valeur de la variable de preuve est supérieure au seuil. Comme l'illustre la figure 1, les aires sous les fonctions de densité à droite du seuil correspondent aux probabilités d'occurrences et de fausses alarmes. En pratique, des estimations de la séparation des deux fonctions et de l'emplacement du seuil peuvent être dérivées. La séparation des deux fonctions de densité caractérise la discriminabilité des stimuli cibles des stimuli de fond, tandis que la localisation du seuil caractérise la stratégie de l'observateur. La variation du seuil produit une variation conjointe des proportions d'occurrences et de fausses alarmes. Avec un seuil élevé, les proportions d'occurrences et de fausses alarmes seront faibles, tandis qu'avec un seuil bas, les proportions seront importantes. Ainsi, la sélection d'une stratégie (placement du seuil) est essentiellement la sélection d'une certaine combinaison de taux de succès et de taux de fausses alarmes parmi les combinaisons possibles pour une certaine discriminabilité.
Deux facteurs majeurs qui influencent l'emplacement du seuil sont les gains et la fréquence du signal. Le seuil sera défini sur des valeurs inférieures lorsqu'il y a beaucoup à gagner d'un hit et peu à perdre d'une fausse alarme, et il sera défini sur des valeurs plus élevées lorsque les fausses alarmes sont coûteuses et que les avantages des hits sont faibles. Un réglage de seuil bas peut également être induit par une forte proportion de signaux, tandis qu'une faible proportion de signaux tend à induire des réglages de seuil plus élevés. L'effet de la fréquence du signal sur les paramètres de seuil est un facteur majeur pour la faible performance globale en termes de proportion de succès dans les tâches de vigilance et pour le décrément de vigilance.
Une prise en compte de la décroissance de la vigilance en termes de changements stratégiques (changements de seuil) nécessite que la réduction de la proportion de hits en cours de veille s'accompagne d'une réduction de la proportion de fausses alertes. C'est d'ailleurs le cas dans de nombreuses études, et il est probable que la mauvaise performance globale aux tâches de vigilance (par rapport à la situation optimale) résulte aussi, au moins en partie, d'un ajustement des seuils. Au cours d'une veille, la fréquence relative des réponses de détection vient correspondre à la fréquence relative des cibles, et cet ajustement implique un seuil élevé avec une proportion relativement faible de coups et une proportion relativement faible de fausses alarmes également. Néanmoins, il existe des baisses de vigilance qui résultent de changements dans la discriminabilité plutôt que de changements dans les paramètres de seuil. Ceux-ci ont été observés principalement dans des tâches de discrimination successive avec un taux relativement élevé d'événements de stimulation.
Processus non stratégiques dans les tâches de vigilance
Bien qu'une partie de la mauvaise performance globale dans les tâches de vigilance et de nombreux cas de diminution de la vigilance puisse être expliquée en termes d'ajustements stratégiques du seuil de détection aux faibles taux de signal, un tel compte rendu n'est pas complet. Il y a des changements chez l'observateur au cours d'une montre qui peuvent réduire la discriminabilité des stimuli ou entraîner des changements de seuil apparents qui ne peuvent pas être considérés comme une adaptation aux caractéristiques de la tâche. Au cours des plus de 40 années de recherche sur la vigilance, un certain nombre de facteurs non stratégiques qui contribuent à une mauvaise performance globale et à la diminution de la vigilance ont été identifiés.
Une réponse correcte à une cible dans une tâche de vigilance nécessite un enregistrement sensoriel suffisamment précis, une localisation de seuil appropriée, et un lien entre les processus perceptuels et les processus liés à la réponse associés. Pendant la veille, les observateurs doivent maintenir un certain ensemble de tâches, une certaine disposition à répondre aux stimuli cibles d'une certaine manière. Il s'agit d'une exigence non triviale car sans un ensemble de tâches particulier, aucun observateur ne répondrait aux stimuli cibles de la manière requise. Deux principales sources d'échecs sont donc un enregistrement sensoriel inexact et des défaillances dans la préparation à répondre aux stimuli cibles. Les principales hypothèses pour expliquer ces échecs seront brièvement passées en revue.
La détection et l'identification d'un stimulus sont plus rapides lorsqu'il n'y a pas d'incertitude temporelle ou spatiale sur son apparition. L'incertitude temporelle et/ou spatiale est susceptible de réduire les performances de vigilance. C'est la prédiction essentielle de la théorie de l'espérance. La préparation optimale de l'observateur nécessite une certitude temporelle et spatiale ; évidemment les tâches de vigilance sont loin d'être optimales à cet égard. Bien que la théorie des attentes se concentre principalement sur la faible performance globale, elle peut également servir à expliquer certaines parties de la diminution de la vigilance. Avec des signaux peu fréquents à intervalles aléatoires, des niveaux élevés de préparation peuvent initialement exister à des moments où aucun signal n'est présenté ; en outre, des signaux seront présentés à de faibles niveaux de préparation. Cela décourage les niveaux élevés occasionnels de préparation en général, de sorte que tous les avantages qui en découlent disparaîtront au cours d'une surveillance.
La théorie des attentes est étroitement liée à théories attentionnelles. Les variantes des théories attentionnelles de la vigilance sont bien sûr liées aux théories dominantes de l'attention en général. Considérez une vision de l'attention comme une « sélection pour le traitement » ou une « sélection pour l'action ». Selon ce point de vue, les stimuli sont sélectionnés dans l'environnement et traités avec une grande efficacité chaque fois qu'ils servent le plan d'action ou l'ensemble de tâches actuellement dominant. Comme déjà dit, la sélection bénéficiera d'attentes précises quant au moment et à l'endroit où de tels stimuli se produiront. Mais les stimuli ne seront sélectionnés que si le plan d'action - l'ensemble de tâches - est actif. (Les conducteurs de voitures, par exemple, réagissent aux feux de signalisation, à d'autres types de trafic, etc. ; les passagers ne le font pas normalement, bien que les deux se trouvent presque dans la même situation. La différence critique est qu'entre les ensembles de tâches des deux : seulement l'ensemble de tâches du conducteur nécessite des réponses aux feux de circulation.)
La sélection des stimuli à traiter souffrira lorsque le plan d'action est temporairement désactivé, c'est-à-dire lorsque l'ensemble de tâches est temporairement absent. Les tâches de vigilance incarnent un certain nombre de caractéristiques qui découragent la maintenance continue de l'ensemble de tâches, comme des temps de cycle courts pour le traitement des stimuli, le manque de rétroaction et peu de défi motivationnel par la difficulté apparente de la tâche. Les soi-disant blocages peuvent être observés dans presque toutes les tâches cognitives simples avec des temps de cycle courts comme le calcul mental simple ou les réponses en série rapides à des signaux simples. Des blocages similaires se produisent également dans la maintenance de la tâche définie dans une tâche de vigilance. Ils ne sont pas immédiatement reconnaissables en tant que réponses retardées car les réponses sont peu fréquentes et les cibles qui sont présentées pendant une période d'ensemble de tâches absentes peuvent ne plus être là lorsque l'absence est terminée, de sorte qu'un échec sera observé au lieu d'une réponse retardée. Les blocages deviennent plus fréquents avec le temps passé sur la tâche. Cela peut donner lieu au décrément de vigilance. Il peut y avoir des raisons supplémentaires pour les défaillances temporaires dans la disponibilité de l'ensemble de tâches approprié, par exemple, la distraction.
Certains stimuli ne sont pas sélectionnés au service du plan d'action actuel, mais en vertu de leurs caractéristiques propres. Ce sont des stimuli intenses, nouveaux, se déplaçant vers l'observateur, qui ont un début brutal ou pour toute autre raison qui pourraient nécessiter une action immédiate, quel que soit le plan d'action actuel de l'observateur. Il y a peu de risque de ne pas détecter de tels stimuli. Ils attirent automatiquement l'attention, comme l'indique, par exemple, la réponse d'orientation, qui comprend un déplacement de la direction du regard vers la source du stimulus. Cependant, répondre à une sonnette d'alarme n'est normalement pas considéré comme une tâche de vigilance. En plus des stimuli qui attirent l'attention par leurs propres caractéristiques, il existe des stimuli qui sont traités automatiquement à la suite de la pratique. Ils semblent "sortir" de l'environnement. Ce type de traitement automatique nécessite une pratique prolongée avec une cartographie dite cohérente, c'est-à-dire une affectation cohérente des réponses aux stimuli. Le décrément de la vigilance est susceptible d'être faible voire absent une fois que le traitement automatique des stimuli a été développé.
Enfin, les performances de vigilance souffrent d'un manque d'éveil. Ce concept fait référence de manière assez globale à l'intensité de l'activité neuronale, allant du sommeil à l'éveil normal en passant par une forte excitation. L'un des facteurs censés affecter l'excitation est la stimulation externe, et celle-ci est assez faible et uniforme dans la plupart des tâches de vigilance. Ainsi, l'intensité de l'activité du système nerveux central peut diminuer globalement au cours d'une montre. Un aspect important de la théorie de l'éveil est qu'elle relie la performance de la vigilance à divers facteurs situationnels non liés à la tâche et à des facteurs liés à l'organisme.
L'influence des facteurs situationnels et de l'organisme
Une faible excitation contribue à de mauvaises performances dans les tâches de vigilance. Ainsi, la performance peut être améliorée par des facteurs situationnels qui tendent à augmenter l'excitation, et elle peut être réduite par toutes les mesures qui réduisent le niveau d'excitation. Dans l'ensemble, cette généralisation est généralement correcte pour le niveau de performance global dans les tâches de vigilance, mais les effets sur la diminution de la vigilance sont absents ou observés de manière moins fiable dans différents types de manipulation de l'éveil.
Une façon d'augmenter le niveau d'excitation est l'introduction de bruit supplémentaire. Cependant, la diminution de la vigilance n'est généralement pas affectée et, en ce qui concerne la performance globale, les résultats sont incohérents : des niveaux de performance améliorés, inchangés et réduits ont tous été observés. Peut-être que la nature complexe du bruit est pertinente. Par exemple, il peut être affectivement neutre ou ennuyeux ; cela peut non seulement être excitant, mais aussi distrayant. Plus cohérents sont les effets de la privation de sommeil, qui est « désexcitante ». Il réduit généralement les performances de vigilance et a parfois été vu comme augmentant le décrément de vigilance. Des modifications appropriées des performances de vigilance ont également été observées avec des dépresseurs comme les benzodiazépines ou l'alcool et des stimulants comme l'amphétamine, la caféine ou la nicotine.
Les différences individuelles sont une caractéristique évidente de la performance dans les tâches de vigilance. Bien que les différences individuelles ne soient pas cohérentes dans toutes les sortes de tâches de vigilance, elles sont assez cohérentes dans les tâches similaires. Il n'y a que peu ou pas d'effet du sexe et de l'intelligence générale. En fonction de l'âge, les performances de vigilance augmentent pendant l'enfance et tendent à décliner au-delà de soixante ans. De plus, il y a de fortes chances que les introvertis affichent de meilleures performances que les extravertis.
L'amélioration des performances de vigilance
Les théories et les données existantes suggèrent des moyens d'améliorer les performances de vigilance. Selon le degré de spécificité des suggestions, il n'est pas difficile de compiler des listes de différentes longueurs. Quelques suggestions assez générales sont données ci-dessous qui doivent être adaptées aux exigences spécifiques de la tâche. Ils sont liés à la facilité des discriminations perceptives, aux ajustements stratégiques appropriés, à la réduction de l'incertitude, à l'évitement des effets des défaillances attentionnelles et au maintien de l'éveil.
Les tâches de vigilance nécessitent des discriminations dans des conditions non optimales. On est donc bien avisé de rendre les discriminations aussi faciles que possible, ou les signaux aussi visibles que possible. Les mesures liées à cet objectif général peuvent être simples (comme un éclairage approprié ou des temps d'inspection plus longs par produit) ou plus sophistiquées, y compris des dispositifs spéciaux pour améliorer la visibilité des cibles. Les comparaisons simultanées sont plus faciles que les comparaisons successives, de sorte que la disponibilité d'un étalon de référence peut être utile. Au moyen de dispositifs techniques, il est parfois possible de présenter l'étalon et l'objet à examiner en alternance rapide, de sorte que des différences apparaîtront sous forme de mouvements dans l'affichage ou d'autres changements pour lesquels le système visuel est particulièrement sensible.
Pour contrer les changements stratégiques du seuil qui conduisent à une proportion relativement faible de détections correctes de cibles (et pour rendre la tâche moins ennuyeuse en termes de fréquence d'actions à entreprendre), il a été suggéré d'introduire de fausses cibles. Cependant, cela ne semble pas être une bonne recommandation. Les fausses cibles augmenteront la proportion de résultats dans l'ensemble, mais au prix de fausses alarmes plus fréquentes. De plus, la proportion de cibles non détectées parmi tous les stimuli auxquels on ne répond pas (le matériel défectueux sortant dans une tâche d'inspection industrielle) ne sera pas nécessairement réduite. Une connaissance explicite de l'importance relative des occurrences et des fausses alarmes et peut-être d'autres mesures pour obtenir un placement approprié du seuil pour décider entre « bon » et « mauvais » semblent mieux adaptées.
Les incertitudes temporelles et spatiales sont des déterminants importants d'une faible performance de vigilance. Pour certaines tâches, l'incertitude spatiale peut être réduite en définissant une certaine position de l'objet à inspecter. Cependant, on ne peut pas faire grand-chose au sujet de l'incertitude temporelle : l'observateur serait inutile dans une tâche de vigilance si l'occurrence d'une cible pouvait être signalée avant sa présentation. Une chose qui peut être faite en principe, cependant, est de mélanger les objets à inspecter si les défauts ont tendance à se produire en grappes ; ceci permet d'éviter des intervalles très longs sans cible ainsi que des intervalles très courts.
Il existe des suggestions évidentes pour la réduction des défaillances de l'attention ou du moins leur impact sur les performances. Par un entraînement approprié, une sorte de traitement automatique des cibles peut peut-être être obtenu à condition que les stimuli de fond et de cible ne soient pas trop variables. L'exigence d'un entretien soutenu de l'ensemble de tâches peut être évitée au moyen de courtes pauses fréquentes, de la rotation des tâches, de l'élargissement ou de l'enrichissement des tâches. L'introduction d'une variété peut être aussi simple que de demander à l'inspecteur lui-même d'aller chercher le matériel à inspecter à partir d'une boîte ou d'un autre endroit. Cela introduit également l'auto-rythme, ce qui peut aider à éviter les présentations de signaux lors des désactivations temporaires de l'ensemble de tâches. La maintenance soutenue de l'ensemble de tâches peut être soutenue par le retour d'informations, l'intérêt manifesté par les superviseurs et la prise de conscience de l'opérateur de l'importance de la tâche. Bien sûr, une rétroaction précise du niveau de performance n'est pas possible dans les tâches de vigilance typiques ; cependant, même une rétroaction inexacte ou incomplète peut être utile en ce qui concerne la motivation de l'observateur.
Certaines mesures peuvent être prises pour maintenir un niveau d'excitation suffisant. L'usage continu de médicaments peut exister en pratique mais ne figure jamais parmi les recommandations. Certaines musiques de fond peuvent être utiles, mais peuvent aussi avoir un effet inverse. L'isolement social pendant les tâches de vigilance doit surtout être évité, et pendant les heures de la journée avec de faibles niveaux d'éveil comme les heures tardives de la nuit, les mesures de soutien telles que les montres courtes sont particulièrement importantes.
L'évaluation de la toxicité génétique est l'évaluation des agents pour leur capacité à induire l'un des trois types généraux de changements (mutations) dans le matériel génétique (ADN) : gène, chromosomique et génomique. Dans des organismes tels que les humains, les gènes sont composés d'ADN, qui se compose d'unités individuelles appelées bases nucléotidiques. Les gènes sont disposés dans des structures physiques discrètes appelées chromosomes. La génotoxicité peut entraîner des effets importants et irréversibles sur la santé humaine. Les dommages génotoxiques sont une étape critique dans l'induction du cancer et peuvent également être impliqués dans l'induction de malformations congénitales et de mort fœtale. Les trois classes de mutations mentionnées ci-dessus peuvent se produire dans l'un ou l'autre des deux types de tissus possédés par des organismes tels que les humains : les spermatozoïdes ou les ovules (cellules germinales) et le tissu restant (cellules somatiques).
Les tests qui mesurent la mutation génique sont ceux qui détectent la substitution, l'addition ou la suppression de nucléotides dans un gène. Les tests qui mesurent la mutation chromosomique sont ceux qui détectent les cassures ou les réarrangements chromosomiques impliquant un ou plusieurs chromosomes. Les tests qui mesurent la mutation génomique sont ceux qui détectent les changements dans le nombre de chromosomes, une condition appelée aneuploïdie. L'évaluation de la toxicité génétique a considérablement évolué depuis la mise au point par Herman Muller en 1927 du premier test de détection d'agents génotoxiques (mutagènes). Depuis lors, plus de 200 tests ont été développés pour mesurer les mutations de l'ADN ; cependant, moins de dix tests sont couramment utilisés aujourd'hui pour l'évaluation de la toxicité génétique. Cet article passe en revue ces essais, décrit ce qu'ils mesurent et explore le rôle de ces essais dans l'évaluation de la toxicité.
Identification des risques de cancerAvant le développement du Domaine de la toxicologie génétique
La toxicologie génétique est devenue une partie intégrante du processus global d'évaluation des risques et s'est récemment imposée comme un prédicteur fiable de l'activité cancérigène. Cependant, avant le développement de la toxicologie génétique (avant 1970), d'autres méthodes étaient et sont toujours utilisées pour identifier les risques potentiels de cancer chez l'homme. Il existe six grandes catégories de méthodes actuellement utilisées pour identifier les risques de cancer chez l'homme : les études épidémiologiques, les bioessais in vivo à long terme, les bioessais in vivo à moyen terme, les bioessais in vivo et in vitro à court terme, l'intelligence artificielle (structure-activité), et l'inférence basée sur le mécanisme.
Le tableau 1 donne les avantages et les inconvénients de ces méthodes.
Tableau 1. Avantages et inconvénients des méthodes actuelles d'identification des risques de cancer chez l'homme
Avantages | Inconvénients | |
Les études épidémiologiques | (1) les humains sont les indicateurs ultimes de la maladie ; (2) évaluer les populations sensibles ou sensibles ; (3) cohortes d'exposition professionnelle; (4) alertes sentinelles environnementales |
(1) généralement rétrospectif (certificats de décès, biais de rappel, etc.) ; (2) insensible, coûteux, long ; (3) des données d'exposition fiables parfois indisponibles ou difficiles à obtenir ; (4) expositions combinées, multiples et complexes; manque de cohortes de contrôle appropriées; (5) les expériences sur les humains ne sont pas faites ; (6) détection du cancer, pas prévention |
Essais biologiques in vivo à long terme | (1) évaluations prospectives et rétrospectives (validation) ; (2) excellente corrélation avec les carcinogènes humains identifiés; (3) niveaux et conditions d'exposition connus; (4) identifie la toxicité chimique et les effets cancérigènes ; (5) des résultats obtenus assez rapidement ; (6) comparaisons qualitatives entre classes chimiques; (7) systèmes biologiques intégratifs et interactifs étroitement liés aux humains | (1) rarement reproduit, gourmand en ressources ; (3) des installations limitées adaptées à de telles expériences ; (4) débat sur l'extrapolation des espèces; (5) les expositions utilisées sont souvent à des niveaux bien supérieurs à ceux subis par les humains; (6) l'exposition à un seul produit chimique n'imite pas les expositions humaines, qui sont généralement à plusieurs produits chimiques simultanément |
Essais biologiques in vivo et in vitro à moyen et court terme | (1) plus rapide et moins cher que les autres tests ; (2) de grands échantillons facilement reproductibles ; (3) les points limites biologiquement significatifs sont mesurés (mutation, etc.); (4) peuvent être utilisés comme essais de dépistage pour sélectionner des produits chimiques pour des essais biologiques à long terme |
(1) in vitro pas entièrement prédictif d'in vivo; (2) généralement spécifiques à un organisme ou à un organe ; (3) puissances non comparables à des animaux entiers ou à des humains |
Associations structure chimique–activité biologique | (1) relativement facile, rapide et peu coûteux ; (2) fiable pour certaines classes chimiques (par exemple, les colorants nitrosamines et benzidine); (3) développé à partir de données biologiques mais non dépendant d'expérimentations biologiques supplémentaires | (1) non « biologique » ; (2) de nombreuses exceptions aux règles formulées; (3) rétrospective et rarement (mais devenant) prospective |
Inférences basées sur le mécanisme | (1) raisonnablement précis pour certaines classes de produits chimiques ; (2) permet d'affiner les hypothèses ; (3) peut orienter les évaluations des risques vers les populations sensibles | (1) mécanismes de carcinogenèse chimique indéfinis, multiples et probablement chimiques ou spécifiques à une classe ; (2) peut ne pas mettre en évidence les exceptions aux mécanismes généraux |
Justification et fondement conceptuel des tests de toxicologie génétique
Bien que les types et le nombre exacts de tests utilisés pour l'évaluation de la toxicité génétique évoluent constamment et varient d'un pays à l'autre, les plus courants incluent des tests pour (1) la mutation génique dans les bactéries et/ou les cellules de mammifères cultivées et (2) la mutation chromosomique dans des cellules de mammifères cultivées et/ou de la moelle osseuse chez des souris vivantes. Certains des tests de cette deuxième catégorie peuvent également détecter l'aneuploïdie. Bien que ces tests ne détectent pas les mutations dans les cellules germinales, ils sont principalement utilisés en raison du coût supplémentaire et de la complexité de la réalisation des tests sur les cellules germinales. Néanmoins, les tests sur les cellules germinales chez la souris sont utilisés lorsque des informations sur les effets sur les cellules germinales sont souhaitées.
Des études systématiques sur une période de 25 ans (1970-1995), en particulier au US National Toxicology Program en Caroline du Nord, ont abouti à l'utilisation d'un nombre discret de tests pour détecter l'activité mutagène des agents. La raison d'être de l'évaluation de l'utilité des tests reposait sur leur capacité à détecter des agents qui causent le cancer chez les rongeurs et qui sont soupçonnés de causer le cancer chez l'homme (c.-à-d., des agents cancérigènes). En effet, des études menées au cours des dernières décennies ont indiqué que les cellules cancéreuses contiennent des mutations dans certains gènes et que de nombreux agents cancérigènes sont également mutagènes. Ainsi, les cellules cancéreuses sont considérées comme contenant des mutations des cellules somatiques et la carcinogenèse est considérée comme un type de mutagenèse des cellules somatiques.
Les tests de toxicité génétique les plus couramment utilisés aujourd'hui ont été sélectionnés non seulement en raison de leur grande base de données, de leur coût relativement faible et de leur facilité d'exécution, mais aussi parce qu'il a été démontré qu'ils détectent de nombreux cancérogènes chez les rongeurs et, par présomption, chez l'homme. Par conséquent, des tests de toxicité génétique sont utilisés pour prédire la cancérogénicité potentielle des agents.
Un développement conceptuel et pratique important dans le domaine de la toxicologie génétique a été la reconnaissance que de nombreux cancérogènes étaient modifiés par des enzymes dans le corps, créant des formes altérées (métabolites) qui étaient souvent la forme cancérigène et mutagène ultime de la substance chimique mère. Pour dupliquer ce métabolisme dans une boîte de Pétri, Heinrich Malling a montré que l'inclusion d'une préparation de foie de rongeur contenait de nombreuses enzymes nécessaires pour effectuer cette conversion ou activation métabolique. Ainsi, de nombreux tests de toxicité génétique effectués dans des boîtes ou des tubes (in vitro) emploient l'addition de préparations enzymatiques similaires. Les préparations simples sont appelées mélange S9 et les préparations purifiées sont appelées microsomes. Certaines cellules bactériennes et mammifères ont maintenant été génétiquement modifiées pour contenir certains des gènes de rongeurs ou d'humains qui produisent ces enzymes, réduisant ainsi la nécessité d'ajouter un mélange S9 ou des microsomes.
Dosages et techniques de toxicologie génétique
Les principaux systèmes bactériens utilisés pour le dépistage de la toxicité génétique sont le test de mutagénicité de Salmonella (Ames) et, dans une bien moindre mesure, la souche WP2 de Escherichia coli. Des études menées au milieu des années 1980 ont indiqué que l'utilisation de seulement deux souches du système Salmonella (TA98 et TA100) était suffisante pour détecter environ 90 % des mutagènes connus de Salmonella. Ainsi, ces deux souches sont utilisées pour la plupart des objectifs de dépistage ; cependant, diverses autres souches sont disponibles pour des tests plus approfondis.
Ces dosages sont effectués de diverses manières, mais deux procédures générales sont les dosages d'incorporation sur plaque et de suspension liquide. Dans le test d'incorporation sur plaque, les cellules, le produit chimique d'essai et (le cas échéant) le S9 sont ajoutés ensemble dans une gélose liquéfiée et versés sur la surface d'une boîte de Pétri d'agar. La gélose supérieure durcit en quelques minutes et les plaques sont incubées pendant deux à trois jours, après quoi les cellules mutantes se sont développées pour former des amas de cellules détectables visuellement appelées colonies, qui sont ensuite comptées. Le milieu gélosé contient des agents sélectifs ou est composé d'ingrédients tels que seules les cellules nouvellement mutées se développeront. Le test d'incubation liquide est similaire, sauf que les cellules, l'agent de test et S9 sont incubés ensemble dans un liquide qui ne contient pas d'agar liquéfié, puis les cellules sont lavées sans l'agent de test et S9 et ensemencées sur l'agar.
Les mutations dans les cellules de mammifères en culture sont principalement détectées dans l'un des deux gènes suivants : hprt ainsi que tk. Comme pour les tests bactériens, les lignées cellulaires de mammifères (développées à partir de cellules de rongeurs ou humaines) sont exposées à l'agent de test dans des boîtes ou des tubes de culture en plastique, puis sont ensemencées dans des boîtes de culture contenant un milieu avec un agent sélectif qui permet uniquement aux cellules mutantes de se développer. . Les tests utilisés à cette fin comprennent le CHO/HPRT, le TK6 et le lymphome de souris L5178Y/TK+/- dosages. D'autres lignées cellulaires contenant diverses mutations de réparation de l'ADN ainsi que certains gènes humains impliqués dans le métabolisme sont également utilisées. Ces systèmes permettent la récupération de mutations au sein du gène (mutation génique) ainsi que de mutations impliquant des régions du chromosome flanquant le gène (mutation chromosomique). Cependant, ce dernier type de mutation est beaucoup plus récupéré par la tk systèmes de gènes que par le hprt systèmes de gènes en raison de l'emplacement du tk .
Semblable au test d'incubation liquide pour la mutagénicité bactérienne, les tests de mutagénicité sur les cellules de mammifères impliquent généralement l'exposition des cellules dans des boîtes ou des tubes de culture en présence de l'agent de test et de S9 pendant plusieurs heures. Les cellules sont ensuite lavées, cultivées pendant plusieurs jours supplémentaires pour permettre la dégradation des produits géniques normaux (de type sauvage) et l'expression et l'accumulation des produits géniques nouvellement mutants, puis elles sont ensemencées dans un milieu contenant un agent sélectif qui permet seules les cellules mutantes se développent. Comme les tests bactériens, les cellules mutantes se développent en colonies visuellement détectables qui sont ensuite comptées.
La mutation chromosomique est identifiée principalement par des tests cytogénétiques, qui impliquent d'exposer des rongeurs et/ou des cellules de rongeurs ou humaines dans des boîtes de culture à un produit chimique d'essai, permettant à une ou plusieurs divisions cellulaires de se produire, de colorer les chromosomes, puis d'examiner visuellement les chromosomes au microscope. détecter des altérations de la structure ou du nombre de chromosomes. Bien qu'une variété de paramètres puissent être examinés, les deux qui sont actuellement acceptés par les organismes de réglementation comme étant les plus significatifs sont les aberrations chromosomiques et une sous-catégorie appelée micronoyaux.
Une formation et une expertise considérables sont nécessaires pour évaluer la présence d'aberrations chromosomiques dans les cellules, ce qui en fait une procédure coûteuse en temps et en argent. En revanche, les micronoyaux nécessitent peu de formation et leur détection peut être automatisée. Les micronoyaux apparaissent sous forme de petits points dans la cellule qui sont distincts du noyau, qui contient les chromosomes. Les micronoyaux résultent soit d'une rupture chromosomique, soit d'une aneuploïdie. En raison de la facilité de notation des micronoyaux par rapport aux aberrations chromosomiques, et parce que des études récentes indiquent que les agents qui induisent des aberrations chromosomiques dans la moelle osseuse des souris vivantes induisent généralement des micronoyaux dans ce tissu, les micronoyaux sont maintenant couramment mesurés comme une indication de la capacité d'un agent pour induire la mutation chromosomique.
Bien que les tests sur les cellules germinales soient utilisés beaucoup moins fréquemment que les autres tests décrits ci-dessus, ils sont indispensables pour déterminer si un agent présente un risque pour les cellules germinales, dont les mutations peuvent entraîner des effets sur la santé des générations suivantes. Les tests de cellules germinales les plus couramment utilisés sont chez la souris et impliquent des systèmes qui détectent (1) les translocations héréditaires (échanges) entre les chromosomes (test de translocation héréditaire), (2) les mutations génétiques ou chromosomiques impliquant des gènes spécifiques (locus visible ou biochimique spécifique). tests) et (3) les mutations qui affectent la viabilité (dosage létal dominant). Comme pour les tests sur les cellules somatiques, l'hypothèse de travail avec les tests sur les cellules germinales est que les agents positifs dans ces tests sont présumés être des mutagènes potentiels des cellules germinales humaines.
Situation actuelle et perspectives d'avenir
Des études récentes ont indiqué que seulement trois éléments d'information étaient nécessaires pour détecter environ 90 % d'un ensemble de 41 cancérogènes chez les rongeurs (c.-à-d., cancérogènes humains présumés et mutagènes des cellules somatiques). Celles-ci comprenaient (1) la connaissance de la structure chimique de l'agent, en particulier s'il contient des fractions électrophiles (voir la section sur les relations structure-activité) ; (2) Données sur la mutagénicité de Salmonella ; et (3) les données d'un test de toxicité chronique de 90 jours chez les rongeurs (souris et rats). En effet, pratiquement tous les cancérogènes humains déclarés par le CIRC sont détectables en tant que mutagènes en utilisant uniquement le test Salmonella et le test du micronoyau de moelle osseuse de souris. L'utilisation de ces essais de mutagénicité pour détecter des cancérogènes humains potentiels est étayée par la découverte que la plupart des cancérogènes pour l'homme sont cancérigènes à la fois pour les rats et les souris (cancérigènes trans-espèces) et que la plupart des cancérogènes trans-espèces sont mutagènes pour Salmonella et/ou induisent des micronoyaux. dans la moelle osseuse de souris.
Avec les progrès de la technologie de l'ADN, le projet du génome humain et une meilleure compréhension du rôle de la mutation dans le cancer, de nouveaux tests de génotoxicité sont en cours de développement et seront probablement intégrés aux procédures de dépistage standard. Parmi ceux-ci figurent l'utilisation de cellules transgéniques et de rongeurs. Les systèmes transgéniques sont ceux dans lesquels un gène d'une autre espèce a été introduit dans une cellule ou un organisme. Par exemple, des souris transgéniques sont maintenant utilisées à titre expérimental pour permettre la détection d'une mutation dans n'importe quel organe ou tissu de l'animal, sur la base de l'introduction d'un gène bactérien dans la souris. Des cellules bactériennes, telles que Salmonella, et des cellules de mammifères (y compris des lignées cellulaires humaines) sont désormais disponibles et contiennent des gènes impliqués dans le métabolisme d'agents cancérigènes/mutagènes, tels que les gènes P450. L'analyse moléculaire des mutations réelles induites dans le trans-gène chez les rongeurs transgéniques, ou dans les gènes natifs tels que hprt, ou les gènes cibles au sein de Salmonella peuvent maintenant être analysés, de sorte que la nature exacte des mutations induites par les produits chimiques puisse être déterminée, fournissant des informations sur le mécanisme d'action du produit chimique et permettant des comparaisons avec des mutations chez des humains présumés exposés à l'agent .
Les progrès moléculaires de la cytogénétique permettent maintenant une évaluation plus détaillée des mutations chromosomiques. Celles-ci incluent l'utilisation de sondes (petits morceaux d'ADN) qui se fixent (s'hybrident) à des gènes spécifiques. Des réarrangements de gènes sur le chromosome peuvent alors être révélés par la localisation altérée des sondes, qui sont fluorescentes et facilement visualisables sous forme de secteurs colorés sur les chromosomes. Le test d'électrophorèse sur gel unicellulaire pour la rupture de l'ADN (communément appelé le test «comète») permet la détection des ruptures d'ADN dans des cellules individuelles et peut devenir un outil extrêmement utile en combinaison avec des techniques cytogénétiques pour détecter les dommages chromosomiques.
Après de nombreuses années d'utilisation et la génération d'une base de données importante et systématiquement développée, l'évaluation de la toxicité génétique peut désormais être effectuée avec seulement quelques tests pour un coût relativement faible dans un court laps de temps (quelques semaines). Les données produites peuvent être utilisées pour prédire la capacité d'un agent à être un rongeur et, par présomption, un cancérigène humain/mutagène des cellules somatiques. Une telle capacité permet de limiter l'introduction dans l'environnement d'agents mutagènes et cancérigènes et de développer des agents alternatifs non mutagènes. Les études futures devraient conduire à des méthodes encore meilleures avec une plus grande prédictivité que les tests actuels.
" AVIS DE NON-RESPONSABILITÉ : L'OIT n'assume aucune responsabilité pour le contenu présenté sur ce portail Web qui est présenté dans une langue autre que l'anglais, qui est la langue utilisée pour la production initiale et l'examen par les pairs du contenu original. Certaines statistiques n'ont pas été mises à jour depuis la production de la 4ème édition de l'Encyclopédie (1998)."