Outils de bannièreApproche

Catégories Enfants

27. Surveillance biologique

27. Surveillance biologique (6)

4 bannière

 

27. Surveillance biologique

Éditeur de chapitre : Robert Lauwerys


 

Table des matières  

Tableaux et figures

Principes généraux
Vito Foà et Lorenzo Alessio

Assurance qualité
D. Gompertz

Métaux et composés organométalliques
P. Hoet et Robert Lauwerys

Solvants organiques
Masayuki Ikeda

Produits chimiques génotoxiques
Marja Sorsa

Pesticides
Marco Maroni et Adalberto Ferioli 

Tables

Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.

1. ACGIH, DFG et autres valeurs limites pour les métaux

2. Exemples de produits chimiques et de surveillance biologique

3. Surveillance biologique des solvants organiques

4. Génotoxicité des produits chimiques évaluée par le CIRC

5. Biomarqueurs et certains échantillons de cellules/tissus et génotoxicité

6. Agents cancérigènes pour l'homme, exposition professionnelle et paramètres cytogénétiques

7. Principes éthiques

8. Exposition due à la production et à l'utilisation de pesticides

9. Toxicité aiguë de l'OP à différents niveaux d'inhibition de l'ACHE

10. Variations de ACHE & PCHE et conditions de santé sélectionnées

11. Activités de la cholinestérase chez des personnes en bonne santé non exposées

12. Phosphates d'alkyle urinaires et pesticides OP

13. Dosage des alkylphosphates urinaires & OP

14. Métabolites urinaires des carbamates

15. Métabolites urinaires du dithiocarbamate

16. Indices proposés pour la surveillance biologique des pesticides

17. Valeurs limites biologiques recommandées (à partir de 1996)

Figures

Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.

BMO010F1BMO020F1BMO050F1BMO050T1BMO050F2BMO050F3BMO050T5BMO060F1BMO060F2BMO060F3

 


Cliquez pour revenir en haut de la page

Voir les articles ...
28. Épidémiologie et statistiques

28. Épidémiologie et statistiques (12)

4 bannière

 

28. Épidémiologie et statistiques

Éditeurs de chapitre :  Franco Merletti, Colin L. Soskolne et Paolo Vineis


Table des matières

Tableaux et figures

Méthode épidémiologique appliquée à la santé et à la sécurité au travail
Franco Merletti, Colin L. Soskolne et Paolo Vineis

Évaluation de l'exposition
M. Gérald Ott

Résumé des mesures d'exposition au travail
Colin L. Soskolné

Mesurer les effets des expositions
Shelia Hoar Zahm

     Étude de cas : Mesures
     Franco Merletti, Colin L. Soskolne et Paola Vineis

Options dans la conception de l'étude
Sven Hernberg

Problèmes de validité dans la conception de l'étude
Annie J.Sasco

Impact de l'erreur de mesure aléatoire
Paolo Vineis et Colin L. Soskolne

Méthodes statistiques
Annibale Biggeri et Mario Braga

Évaluation de la causalité et éthique dans la recherche épidémiologique
Paolo Vineis

Études de cas illustrant les enjeux méthodologiques de la surveillance des maladies professionnelles
Jung-Der Wang

Questionnaires en recherche épidémiologique
Steven D. Stellman et Colin L. Soskolne

Perspective historique de l'amiante
Laurent Garfinkel

Tables

Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.

1. Cinq mesures sommaires sélectionnées de l'exposition au travail

2. Mesures de l'apparition de la maladie

3. Mesures d'association pour une étude de cohorte

4. Mesures d'association pour les études cas-témoins

5. Disposition générale du tableau de fréquence pour les données de cohorte

6. Exemple de mise en page des données cas-témoins

7. Mise en page des données cas-témoin - un contrôle par cas

8. Cohorte hypothétique de 1950 individus à T2

9. Indices de tendance centrale & dispersion

10. Une expérience binomiale & probabilités

11. Résultats possibles d'une expérience binomiale

12. Distribution binomiale, 15 succès/30 essais

13. Distribution binomiale, p = 0.25 ; 30 essais

14. Erreur de type II et alimentation ; x = 12, n = 30, a = 0.05

15. Erreur de type II et alimentation ; x = 12, n = 40, a = 0.05

16. 632 travailleurs exposés à l'amiante 20 ans ou plus

17. O/E nombre de décès parmi 632 travailleurs de l'amiante

Figures

Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.

EPI110F1EPI110F2


Cliquez pour revenir en haut de la page

Voir les articles ...
29. Ergonomie

29. Ergonomie (27)

4 bannière

 

29. Ergonomie

Éditeurs de chapitre :  Wolfgang Laurig et Joachim Vedder

 


 

Table des matières 

Tableaux et figures

Vue d’ensemble
Wolfgang Laurig et Joachim Vedder

Objectifs, principes et méthodes

La nature et les objectifs de l'ergonomie
William T.Singleton

Analyse des activités, des tâches et des systèmes de travail
Véronique De Keyser

Ergonomie et standardisation
Friedhelm Nachreiner

Listes de contrôle
Pranab Kumar Nag

Aspects physiques et physiologiques

Anthropométrie
Melchiorre Masali

Travail musculaire
Juhani Smolander et Veikko Louhevaara

Postures au travail
Ilkka Kuorinka

Biomécanique
Franck Darby

Fatigue générale
Étienne Grandjean

Fatigue et récupération
Rolf Helbig et Walter Rohmert

Aspects psychologiques

Charge de travail mentale
Winfried Hacker

Vigilance
Herbert Heuer

Fatigue mentale
Pierre Richter

Aspects organisationnels du travail

Organisation du travail
Eberhard Ulich et Gudela Grote

Privation de sommeil
Kazutaka Kogi

Conception de systèmes de travail

Stations de travail
Roland Kadefors

Outils
TM Fraser

Commandes, indicateurs et panneaux
Karl HE Kroemer

Traitement de l'information et conception
Andries F. Sanders

Concevoir pour tout le monde

Concevoir pour des groupes spécifiques
Blague H. Grady-van den Nieuwboer

     Étude de cas : La classification internationale des limitations fonctionnelles chez les personnes

Les différences culturelles
Houshang Shahnavaz

Travailleurs âgés
Antoine Laville et Serge Volkoff

Travailleurs ayant des besoins spéciaux
Blague H. Grady-van den Nieuwboer

Diversité et importance de l'ergonomie - Deux exemples

Conception de systèmes dans la fabrication de diamants
Issacar Guilad

Ne pas tenir compte des principes de conception ergonomique : Tchernobyl
Vladimir M. Munipov 

Tables

Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.

1. Liste de base anthropométrique de base

2. Fatigue et récupération en fonction des niveaux d'activité

3. Règles de combinaison des effets de deux facteurs de stress sur la déformation

4. Faire la différence entre plusieurs conséquences négatives de la tension mentale

5. Principes axés sur le travail pour la structuration de la production

6. Participation au contexte organisationnel

7. Participation des utilisateurs au processus technologique

8. Horaires de travail irréguliers et privation de sommeil

9. Aspects des sommeils avancés, ancrés et retardés

10. Contrôler les mouvements et les effets attendus

11. Relations contrôle-effet des commandes manuelles courantes

12. Règles de disposition des commandes

13. Lignes directrices pour les étiquettes

Figures

Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.

ERG040T1ERG040F1ERG040F2ERG040F3ERG040T2ERG040F5ERG070F1ERG070F2ERG070F3ERG060F2ERG060F1ERG060F3ERG080F1ERG080F4ERG090F1ERG090F2ERG090F3ERG090F4ERG225F1ERG225F2ERG150F1ERG150F2ERG150F4ERG150F5ERG150F6ERG120F1ERG130F1ERG290F1ERG160T1ERG160F1ERG185F1ERG185F2ERG185F3ERG185F4ERG190F1ERG190F2ERG190F3ERG210F1ERG210F2ERG210F3ERG210F4ERG210T4ERG210T5ERG210T6ERG220F1ERG240F1ERG240F2ERG240F3ERG240F4ERG260F1ERG300F1ERG255F1

Voir les articles ...
31. Protection personnelle

31. Protection personnelle (7)

4 bannière

 

31. Protection personnelle

Éditeur de chapitre :  Robert F. Herrick 


 

Table des matières 

Tableaux et figures

Présentation et philosophie de la protection personnelle
Robert F. Herrick

Protecteurs des yeux et du visage
Kikuzi Kimura

Protection des pieds et des jambes
Toyohiko Miura

Protection de la tête
Isabelle Balty et Alain Mayer

Protection auditive
John R. Franks et Elliott H. Berger

Vêtements de protection
S.Zack Mansdorf

Protection respiratoire
Thomas J. Nelson

Tables

Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.

1. Exigences de transmission (ISO 4850-1979)

2. Balances de protection - soudage au gaz et soudo-brasage

3. Echelles de protection - oxycoupage

4. Échelles de protection - coupage plasma

5. Échelles de protection - soudage à l'arc électrique ou gougeage

6. Échelles de protection - soudage plasma à l'arc direct

7. Casque de sécurité : Norme ISO 3873-1977

8. Taux de réduction du bruit d'un protecteur auditif

9. Calcul de la réduction de bruit pondérée A

10. Exemples de catégories de danger cutané

11. Exigences de performances physiques, chimiques et biologiques

12. Dangers matériels associés à des activités particulières

13. Facteurs de protection attribués selon ANSI Z88 2 (1992)

Figures

Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.

PPE020F1PPE020F2PPE020F3PPE020F4PPE030F1PPE030F2PPE030F3PPE050F1PPE050F2PPE060F1PPE060F2PPE060F3PPE060F4PPE060F5PPE070F3PPE070F5PPE070F7PPE080F3PPE080F1PPE080F2


Cliquez pour revenir en haut de la page

Voir les articles ...
32. Systèmes d'enregistrement et surveillance

32. Systèmes d'enregistrement et surveillance (9)

4 bannière

 

32. Systèmes d'enregistrement et surveillance

Éditeur de chapitre :  Steven D.Stellman

 


 

Table des matières 

Tableaux et figures

Systèmes de surveillance et de notification des maladies professionnelles
Steven B. Markowitz

Surveillance des risques professionnels
David H. Wegman et Steven D. Stellman

Surveillance dans les pays en développement
David Koh et Kee-Seng Chia

Élaboration et application d'un système de classification des lésions et maladies professionnelles
Élyce Biddle

Analyse des risques des blessures et maladies professionnelles non mortelles
John W.Ruser

Étude de cas : Protection des travailleurs et statistiques sur les accidents et les maladies professionnelles - HVBG, Allemagne
Martin Butz et Burkhard Hoffmann

Étude de cas : Wismut - Une exposition à l'uranium revisitée
Heinz Otten et Horst Schulz

Stratégies et techniques de mesure pour l'évaluation de l'exposition professionnelle en épidémiologie
Frank Bochmann et Helmut Blome

Étude de cas : Enquêtes sur la santé au travail en Chine

Tables

Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.

1. Angiosarcome du foie - registre mondial

2. Maladie professionnelle, États-Unis, 1986 par rapport à 1992

3. États-Unis Décès dus à la pneumoconiose et au mésothéliome pleural

4. Exemple de liste de maladies professionnelles à déclaration obligatoire

5. Structure du code de déclaration des maladies et des blessures, États-Unis

6. Blessures et maladies professionnelles non mortelles, États-Unis 1993

7. Risque d'accidents du travail et de maladies professionnelles

8. Risque relatif pour les conditions de mouvement répétitif

9. Accidents du travail, Allemagne, 1981-93

10. Rectifieuses dans les accidents de la métallurgie, Allemagne, 1984-93

11. Maladie professionnelle, Allemagne, 1980-93

12. Maladies infectieuses, Allemagne, 1980-93

13. Exposition aux radiations dans les mines de Wismut

14. Maladies professionnelles dans les mines d'uranium de Wismut 1952-90

Figures

Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.

REC60F1AREC060F2REC100F1REC100T1REC100T2


Cliquez pour revenir en haut de la page

Voir les articles ...
33. Toxicologie

33. Toxicologie (21)

4 bannière

 

33. Toxicologie

Rédactrice de chapitre : Ellen K. Silbergeld


Table des matières

Tableaux et figures

Introduction
Ellen K. Silbergeld, rédactrice en chef

Principes généraux de toxicologie

Définitions et concepts
Bo Holmberg, Johan Hogberg et Gunnar Johanson

Toxicocinétique
Dušan Djuric

Organe cible et effets critiques
Marek Jakubowski

Effets de l'âge, du sexe et d'autres facteurs
Spomenka Telishman

Déterminants génétiques de la réponse toxique
Daniel W. Nebert et Ross A. McKinnon

Mécanismes de toxicité

Introduction et notions
Philip G. Watanabe

Lésion cellulaire et mort cellulaire
Benjamin F. Trump et Irene K. Berezesky

Toxicologie génétique
R. Rita Misra et Michael P. Waalkes

Immunotoxicologie
Joseph G. Vos et Henk van Loveren

Toxicologie des organes cibles
Ellen K.Silbergeld

Méthodes d'essais toxicologiques

Biomarqueurs
Philippe Grandjean

Évaluation de la toxicité génétique
David M. DeMarini et James Huff

Tests de toxicité in vitro
Joanne Zurlo

Structurer les relations d'activité
Ellen K.Silbergeld

Toxicologie réglementaire

Toxicologie dans la réglementation de la santé et de la sécurité
Ellen K.Silbergeld

Principes d'identification des dangers - L'approche japonaise
Masayuki Ikeda

L'approche des États-Unis en matière d'évaluation des risques des toxiques pour la reproduction et des agents neurotoxiques
Ellen K.Silbergeld

Approches d'identification des dangers - IARC
Harri Vainio et Julian Wilbourn

Annexe - Évaluations globales de la cancérogénicité pour l'homme : monographies du CIRC Volumes 1-69 (836)

Évaluation du risque cancérigène : autres approches
Cees A. van der Heijden

Tables 

Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.

  1. Exemples d'organes critiques et d'effets critiques
  2. Effets de base des interactions multiples possibles des métaux
  3. Adduits à l'hémoglobine chez les travailleurs exposés à l'aniline et à l'acétanilide
  4. Troubles héréditaires prédisposés au cancer et défauts de réparation de l'ADN
  5. Exemples de produits chimiques qui présentent une génotoxicité dans les cellules humaines
  6. Classification des tests pour les marqueurs immunitaires
  7. Exemples de biomarqueurs d'exposition
  8. Avantages et inconvénients des méthodes d'identification des risques de cancer chez l'homme
  9. Comparaison des systèmes in vitro pour les études d'hépatotoxicité
  10. Comparaison des données SAR et des tests : analyses OCDE/NTP
  11. Réglementation des substances chimiques par des lois, Japon
  12. Éléments de test en vertu de la loi sur le contrôle des substances chimiques, Japon
  13. Substances chimiques et loi sur le contrôle des substances chimiques
  14. Incidents majeurs de neurotoxicité sélectionnés
  15. Exemples de tests spécialisés pour mesurer la neurotoxicité
  16. Critères d'évaluation en toxicologie de la reproduction
  17. Comparaison des procédures d'extrapolation à faible dose
  18. Modèles fréquemment cités dans la caractérisation des risques cancérigènes

Figures

Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.

testerTOX050F1TOX050F2TOX050F4TOX050T1TOX050F6TOX210F1TOX210F2TOX060F1TOX090F1TOX090F2TOX090F3TOX090F4TOX110F1TOX260F1TOX260T4


Cliquez pour revenir en haut de la page

Voir les articles ...
Mardi 08 Mars 2011 21: 29

Fatigue générale

Cet article est adapté de la 3e édition de l'Encyclopaedia of Occupational Health and Safety.

Les deux concepts de fatigue et de repos sont familiers à tous par expérience personnelle. Le mot « fatigue » est utilisé pour désigner des conditions très différentes, qui entraînent toutes une réduction de la capacité de travail et de la résistance. L'utilisation très variée du concept de fatigue a entraîné une confusion presque chaotique et une clarification des idées actuelles est nécessaire. Pendant longtemps, la physiologie a distingué la fatigue musculaire de la fatigue générale. Le premier est un phénomène douloureux aigu localisé dans les muscles : la fatigue générale se caractérise par un sentiment de diminution de la volonté de travailler. Cet article ne traite que de la fatigue générale, que l'on peut aussi appeler « fatigue psychique » ou « fatigue nerveuse » et du repos qu'elle nécessite.

La fatigue générale peut être due à des causes assez différentes, dont les plus importantes sont présentées dans la figure 1. L'effet est comme si, au cours de la journée, tous les différents stress subis s'accumulaient dans l'organisme, produisant progressivement une sensation de fatigue croissante. fatigue. Ce sentiment incite à la décision d'arrêter de travailler ; son effet est celui d'un prélude physiologique au sommeil.

Figure 1. Présentation schématique de l'effet cumulatif des causes quotidiennes de la fatigue

ERG225F1

La fatigue est une sensation salutaire si l'on peut s'allonger et se reposer. Cependant, si l'on ne tient pas compte de ce sentiment et que l'on se force à continuer à travailler, le sentiment de fatigue augmente jusqu'à devenir angoissant et finalement écrasant. Cette expérience quotidienne démontre bien la signification biologique de la fatigue qui joue un rôle dans le maintien de la vie, semblable à celui joué par d'autres sensations comme, par exemple, la soif, la faim, la peur, etc.

Le repos est représenté sur la figure 1 comme la vidange d'un tonneau. Le phénomène de repos peut se dérouler normalement si l'organisme reste intact ou si au moins une partie essentielle du corps n'est pas soumise à des contraintes. C'est ce qui explique le rôle déterminant que jouent les journées de travail toutes les pauses de travail, de la courte pause pendant le travail au sommeil nocturne. La comparaison du tonneau illustre combien il est nécessaire pour une vie normale d'atteindre un certain équilibre entre la charge totale supportée par l'organisme et la somme des possibilités de repos.

Interprétation neurophysiologique de la fatigue

Les progrès de la neurophysiologie au cours des dernières décennies ont largement contribué à une meilleure compréhension des phénomènes déclenchés par la fatigue dans le système nerveux central.

Le physiologiste Hess a été le premier à observer que la stimulation électrique de certaines des structures diencéphaliques, et plus particulièrement de certaines des structures du noyau médial du thalamus, produisait progressivement un effet inhibiteur qui se traduisait par une altération de la capacité de réaction. et dans une tendance à dormir. Si la stimulation était poursuivie pendant un certain temps, la relaxation générale était suivie de somnolence et enfin de sommeil. Il a été prouvé plus tard qu'à partir de ces structures, une inhibition active peut s'étendre jusqu'au cortex cérébral où se concentrent tous les phénomènes conscients. Cela se reflète non seulement dans le comportement, mais aussi dans l'activité électrique du cortex cérébral. D'autres expériences ont également réussi à initier des inhibitions à partir d'autres régions sous-corticales.

La conclusion que l'on peut tirer de toutes ces études est qu'il existe des structures situées dans le diencéphale et le mésencéphale qui représentent un système inhibiteur efficace et qui déclenchent la fatigue avec tous les phénomènes qui l'accompagnent.

Inhibition et activation

De nombreuses expériences réalisées sur des animaux et des humains ont montré que leur disposition générale à réagir dépend non seulement de ce système d'inhibition mais aussi essentiellement d'un système fonctionnant de manière antagoniste, appelé système d'activation ascendant réticulaire. Nous savons par expériences que la formation réticulaire contient des structures qui contrôlent le degré d'éveil, et par conséquent les dispositions générales à une réaction. Des liens nerveux existent entre ces structures et le cortex cérébral où s'exercent les influences activatrices sur la conscience. De plus, le système d'activation reçoit une stimulation des organes sensoriels. D'autres connexions nerveuses transmettent des impulsions du cortex cérébral - la zone de perception et de pensée - au système d'activation. Sur la base de ces concepts neurophysiologiques, on peut établir que des stimuli externes, ainsi que des influences provenant des aires de la conscience, peuvent, en passant par le système activateur, stimuler une disposition à une réaction.

De plus, de nombreuses autres investigations permettent de conclure que la stimulation du système activateur se propage fréquemment aussi à partir des centres végétatifs, et amène l'organisme à s'orienter vers la dépense d'énergie, vers le travail, la lutte, la fuite, etc. (conversion ergotrope de les organes internes). A l'inverse, il apparaît que la stimulation du système inhibiteur au sein de la sphère du système nerveux végétatif fait tendre l'organisme vers le repos, reconstitution de ses réserves d'énergie, phénomènes d'assimilation (conversion trophotrope).

Par synthèse de toutes ces découvertes neurophysiologiques, on peut établir la conception suivante de la fatigue : l'état et la sensation de fatigue sont conditionnés par la réaction fonctionnelle de la conscience dans le cortex cérébral, qui est, à son tour, régi par deux systèmes mutuellement antagonistes : le système d'inhibition et le système d'activation. Ainsi, la disposition de l'homme au travail dépend à chaque instant du degré d'activation des deux systèmes : si le système inhibiteur est dominant, l'organisme sera en état de fatigue ; lorsque le système d'activation est dominant, il présentera une disposition accrue au travail.

Cette conception psychophysiologique de la fatigue permet de comprendre certains de ses symptômes parfois difficiles à expliquer. Ainsi, par exemple, une sensation de fatigue peut disparaître brutalement lorsqu'un événement extérieur inattendu survient ou lorsque la tension émotionnelle se développe. Il est clair dans ces deux cas que le système activateur a été stimulé. A l'inverse, si l'environnement est monotone ou que le travail semble ennuyeux, le fonctionnement du système activateur est diminué et le système inhibiteur devient dominant. Ceci explique pourquoi la fatigue apparaît dans une situation monotone sans que l'organisme ne soit soumis à une quelconque charge de travail.

La figure 2 décrit schématiquement la notion de systèmes mutuellement antagonistes d'inhibition et d'activation.

Figure 2. Présentation schématique du contrôle de la disposition au travail au moyen de systèmes d'inhibition et d'activation

ERG225F2

Fatigue clinique

Il est de notoriété publique qu'une fatigue prononcée survenant jour après jour produira progressivement un état de fatigue chronique. La sensation de fatigue s'intensifie alors et survient non seulement le soir après le travail mais déjà dans la journée, parfois même avant le début du travail. Un sentiment de malaise, souvent de nature émotive, accompagne cet état. Les symptômes suivants sont souvent observés chez les personnes souffrant de fatigue : émotivité psychique accrue (comportement antisocial, incompatibilité), tendance à la dépression (anxiété non motivée) et manque d'énergie avec perte d'initiative. Ces effets psychiques s'accompagnent souvent d'un malaise non spécifique et se manifestent par des symptômes psychosomatiques : maux de tête, vertiges, troubles fonctionnels cardiaques et respiratoires, perte d'appétit, troubles digestifs, insomnie, etc.

Compte tenu de la tendance aux symptômes morbides qui accompagnent la fatigue chronique, on peut à juste titre parler de fatigue clinique. Il y a une tendance à l'augmentation de l'absentéisme, et en particulier à plus d'absences pour de courtes périodes. Cela semble être causé à la fois par le besoin de repos et par une morbidité accrue. L'état de fatigue chronique survient particulièrement chez les personnes exposées à des conflits ou difficultés psychiques. Il est parfois très difficile de distinguer les causes externes et internes. En fait, il est presque impossible de distinguer la cause et l'effet de la fatigue clinique : une attitude négative envers le travail, les supérieurs ou le lieu de travail peut tout aussi bien être la cause de la fatigue clinique que le résultat.

Des recherches ont montré que les standardistes et le personnel d'encadrement employés dans les services de télécommunications présentaient une augmentation significative des symptômes physiologiques de fatigue après leur travail (temps de réaction visuelle, fréquence de fusion des scintillements, tests de dextérité). Les investigations médicales ont révélé que dans ces deux groupes de travailleurs, il y avait une augmentation significative des états névrotiques, de l'irritabilité, des troubles du sommeil et de la sensation chronique de lassitude, par rapport à un groupe similaire de femmes employées dans les branches techniques de la poste, du téléphone et les services télégraphiques. L'accumulation de symptômes n'était pas toujours due à une attitude négative de la part des femmes affectées à leur emploi ou à leurs conditions de travail.

Mesures préventives

Il n'y a pas de panacée contre la fatigue, mais on peut faire beaucoup pour atténuer le problème en prêtant attention aux conditions générales de travail et à l'environnement physique sur le lieu de travail. Par exemple, on peut faire beaucoup en organisant correctement les heures de travail, en prévoyant des périodes de repos adéquates et des cantines et des toilettes appropriées ; des congés payés adéquats devraient également être accordés aux travailleurs. L'étude ergonomique du lieu de travail peut également aider à réduire la fatigue en s'assurant que les sièges, les tables et les établis sont de dimensions appropriées et que le flux de travail est correctement organisé. De plus, le contrôle du bruit, la climatisation, le chauffage, la ventilation et l'éclairage peuvent tous avoir un effet bénéfique sur le retardement de l'apparition de la fatigue chez les travailleurs.

La monotonie et la tension peuvent également être atténuées par une utilisation contrôlée de la couleur et de la décoration dans l'environnement, des intervalles de musique et parfois des pauses pour des exercices physiques pour les travailleurs sédentaires. La formation des travailleurs et en particulier du personnel d'encadrement et de direction joue également un rôle important.

 

Retour

Dimanche, Janvier 16 2011 18: 43

Toxicologie des organes cibles

L'étude et la caractérisation des produits chimiques et autres agents pour leurs propriétés toxiques sont souvent entreprises sur la base d'organes et de systèmes d'organes spécifiques. Dans ce chapitre, deux cibles ont été sélectionnées pour une discussion approfondie : le système immunitaire et le gène. Ces exemples ont été choisis pour représenter un système d'organe cible complexe et une cible moléculaire dans les cellules. Pour une discussion plus complète de la toxicologie des organes cibles, le lecteur est renvoyé aux textes de toxicologie standard tels que Casarett et Doull, et Hayes. Le Programme international sur la sécurité chimique (IPCS) a également publié plusieurs documents de référence sur la toxicologie des organes cibles, par système d'organes.

Les études de toxicologie des organes cibles sont généralement entreprises sur la base d'informations indiquant le potentiel d'effets toxiques spécifiques d'une substance, soit à partir de données épidémiologiques, soit à partir d'études générales de toxicité aiguë ou chronique, soit sur la base de préoccupations particulières visant à protéger certaines fonctions d'organes, telles que que la reproduction ou le développement fœtal. Dans certains cas, des tests de toxicité pour des organes cibles spécifiques sont expressément mandatés par des autorités statutaires, tels que les tests de neurotoxicité en vertu de la loi américaine sur les pesticides (voir « L'approche des États-Unis pour l'évaluation des risques des toxiques pour la reproduction et des agents neurotoxiques », et les tests de mutagénicité en vertu de la loi japonaise sur les produits chimiques). Loi sur le contrôle des substances (voir « Principes d'identification des dangers : l'approche japonaise »).

Comme indiqué dans la section « Organe cible et effets critiques », l'identification d'un organe critique est basée sur la détection de l'organe ou du système d'organes qui réagit le premier négativement ou aux doses ou expositions les plus faibles. Ces informations sont ensuite utilisées pour concevoir des investigations toxicologiques spécifiques ou des tests de toxicité plus définis qui sont conçus pour élucider des indications plus sensibles d'intoxication dans l'organe cible. Les études de toxicologie des organes cibles peuvent également être utilisées pour déterminer les mécanismes d'action, utiles dans l'évaluation des risques (voir « L'approche des États-Unis pour l'évaluation des risques des toxiques pour la reproduction et des agents neurotoxiques »).

Méthodes d'études de toxicité pour les organes cibles

Les organes cibles peuvent être étudiés par exposition d'organismes intacts et analyse détaillée de la fonction et de l'histopathologie dans l'organe cible, ou par exposition in vitro de cellules, de tranches de tissus ou d'organes entiers maintenus pendant des périodes de courte ou de longue durée en culture (voir "Mécanismes de toxicologie : Introduction et concepts »). Dans certains cas, des tissus de sujets humains peuvent également être disponibles pour des études de toxicité sur des organes cibles, et ceux-ci peuvent fournir des opportunités pour valider les hypothèses d'extrapolation inter-espèces. Cependant, il faut garder à l'esprit que de telles études ne fournissent pas d'informations sur la toxicocinétique relative.

En général, les études de toxicité pour les organes cibles partagent les caractéristiques communes suivantes : examen histopathologique détaillé de l'organe cible, y compris examen post mortem, poids des tissus et examen des tissus fixés ; études biochimiques des voies critiques dans l'organe cible, telles que les systèmes enzymatiques importants ; des études fonctionnelles de la capacité de l'organe et des constituants cellulaires à remplir les fonctions métaboliques et autres attendues ; et l'analyse des biomarqueurs d'exposition et des effets précoces dans les cellules des organes cibles.

Une connaissance détaillée de la physiologie, de la biochimie et de la biologie moléculaire des organes cibles peut être intégrée aux études sur les organes cibles. Par exemple, étant donné que la synthèse et la sécrétion de protéines de faible poids moléculaire constituent un aspect important de la fonction rénale, les études de néphrotoxicité accordent souvent une attention particulière à ces paramètres (IPCS 1991). Étant donné que la communication de cellule à cellule est un processus fondamental du fonctionnement du système nerveux, les études d'organes cibles sur la neurotoxicité peuvent inclure des mesures neurochimiques et biophysiques détaillées de la synthèse, de l'absorption, du stockage, de la libération et de la liaison aux récepteurs des neurotransmetteurs, ainsi que des mesures électrophysiologiques des modifications de la membrane. potentiel associé à ces événements.

Un degré élevé d'accent est mis sur le développement de méthodes in vitro pour la toxicité des organes cibles, pour remplacer ou réduire l'utilisation d'animaux entiers. Des progrès substantiels dans ces méthodes ont été réalisés pour les substances toxiques pour la reproduction (Heindel et Chapin 1993).

En résumé, les études de toxicité pour les organes cibles sont généralement entreprises comme test d'ordre supérieur pour déterminer la toxicité. La sélection d'organes cibles spécifiques pour une évaluation plus approfondie dépend des résultats des tests de dépistage, tels que les tests aigus ou subchroniques utilisés par l'OCDE et l'Union européenne ; certains organes et systèmes d'organes cibles peuvent être candidats a priori à une enquête spéciale en raison du souci de prévenir certains types d'effets néfastes sur la santé.

 

Retour

Le besoin de validité

L'épidémiologie vise à fournir une compréhension de l'expérience de la maladie dans les populations. En particulier, il peut être utilisé pour mieux comprendre les causes professionnelles de la mauvaise santé. Ces connaissances proviennent d'études menées sur des groupes de personnes atteintes d'une maladie en les comparant à des personnes sans cette maladie. Une autre approche consiste à examiner quelles maladies contractent les personnes qui travaillent dans certains emplois avec des expositions particulières et à comparer ces schémas de maladie à ceux de personnes non exposées de la même manière. Ces études fournissent des estimations du risque de maladie pour des expositions spécifiques. Pour que les informations issues de ces études soient utilisées pour établir des programmes de prévention, pour la reconnaissance des maladies professionnelles et pour que les travailleurs affectés par des expositions soient convenablement indemnisés, ces études doivent être valides.

Validité peut être défini comme la capacité d'une étude à refléter l'état réel des choses. Une étude valide est donc celle qui mesure correctement l'association (qu'elle soit positive, négative ou absente) entre une exposition et une maladie. Il décrit la direction et l'ampleur d'un risque réel. Deux types de validité sont distingués : la validité interne et la validité externe. La validité interne est la capacité d'une étude à refléter ce qui s'est réellement passé entre les sujets de l'étude ; la validité externe reflète ce qui pourrait se produire dans la population.

La validité concerne la véracité d'une mesure. La validité doit être distinguée de la précision de la mesure, qui est fonction de la taille de l'étude et de l'efficacité de la conception de l'étude.

Validité interne

Une étude est dite valide en interne lorsqu'elle est exempte de biais et reflète donc fidèlement l'association entre l'exposition et la maladie qui existe parmi les participants à l'étude. Un risque observé de maladie associé à une exposition peut en effet résulter d'une association réelle et donc être valide, mais il peut aussi refléter l'influence de biais. Un biais donnera une image déformée de la réalité.

Trois grands types de biais, également appelés erreurs systématiques, se distinguent généralement :

  • biais de séléction
  • biais d'information ou d'observation
  • déroutant

 

Ils seront brièvement présentés ci-dessous, à l'aide d'exemples tirés du milieu de la santé au travail.

Biais de séléction

Un biais de sélection se produira lorsque l'entrée dans l'étude est influencée par la connaissance du statut d'exposition du participant potentiel à l'étude. Ce problème n'est donc rencontré que lorsque la maladie a déjà eu lieu au moment (avant) que la personne entre dans l'étude. En règle générale, dans le cadre épidémiologique, cela se produit dans des études cas-témoins ou dans des études de cohorte rétrospectives. Cela signifie qu'une personne sera plus susceptible d'être considérée comme un cas si l'on sait qu'elle a été exposée. Trois séries de circonstances peuvent conduire à un tel événement, qui dépendra également de la gravité de la maladie.

Biais d'autosélection

Cela peut se produire lorsque des personnes qui savent qu'elles ont été exposées à des produits nocifs connus ou présumés dans le passé et qui sont convaincues que leur maladie est le résultat de l'exposition consulteront un médecin pour des symptômes que d'autres personnes, moins exposées, auraient pu ignorer. Cela est particulièrement susceptible de se produire pour les maladies qui présentent peu de symptômes perceptibles. Un exemple peut être une perte de grossesse précoce ou un avortement spontané chez les infirmières manipulant des médicaments utilisés pour le traitement du cancer. Ces femmes sont plus conscientes que la plupart de la physiologie de la reproduction et, en étant préoccupées par leur capacité à avoir des enfants, elles peuvent être plus susceptibles de reconnaître ou de qualifier d'avortement spontané ce que d'autres femmes ne considéreraient que comme un retard dans l'apparition des menstruations. Un autre exemple tiré d'une étude de cohorte rétrospective, cité par Rothman (1986), concerne une étude des Centers for Disease Control sur la leucémie parmi les troupes qui avaient été présentes lors d'un essai atomique américain au Nevada. Parmi les troupes présentes sur le site test, 76% ont été tracées et ont constitué la cohorte. Parmi ceux-ci, 82% ont été trouvés par les enquêteurs, mais 18% supplémentaires ont contacté les enquêteurs eux-mêmes après avoir entendu parler de l'étude. Quatre cas de leucémie étaient présents parmi les 82 % suivis par les CDC et quatre cas étaient présents parmi les 18 % auto-référés. Cela suggère fortement que la capacité des enquêteurs à identifier les personnes exposées était liée au risque de leucémie.

Biais diagnostique

Cela se produira lorsque les médecins sont plus susceptibles de diagnostiquer une maladie donnée une fois qu'ils savent à quoi le patient a été exposé précédemment. Par exemple, lorsque la plupart des peintures étaient à base de plomb, un symptôme de maladie des nerfs périphériques appelé névrite périphérique avec paralysie était également connu sous le nom de « chute de poignet » des peintres. Connaître la profession du patient facilitait le diagnostic de la maladie même à ses débuts, alors que l'identification de l'agent causal serait beaucoup plus difficile chez les participants à la recherche dont on ne savait pas qu'ils étaient professionnellement exposés au plomb.

Biais résultant du refus de participer à une étude

Lorsque des personnes, en bonne santé ou malades, sont invitées à participer à une étude, plusieurs facteurs jouent un rôle pour déterminer si elles seront d'accord ou non. La volonté de répondre à des questionnaires plus ou moins longs, qui portent parfois sur des questions sensibles, et plus encore de donner du sang ou d'autres échantillons biologiques, peut être déterminée par le degré d'intérêt personnel de la personne. Quelqu'un qui est conscient d'une exposition potentielle passée peut être prêt à se conformer à cette enquête dans l'espoir qu'elle aidera à trouver la cause de la maladie, tandis que quelqu'un qui considère qu'il n'a été exposé à rien de dangereux, ou qui n'est pas intéressé en sachant, peut décliner l'invitation à participer à l'étude. Cela peut conduire à une sélection des personnes qui seront finalement les participants à l'étude par rapport à toutes celles qui auraient pu l'être.

Biais informationnel

Ceci est également appelé biais d'observation et concerne l'issue de la maladie dans les études de suivi et l'évaluation de l'exposition dans les études cas-témoins.

Évaluation différentielle des résultats dans les études de suivi prospectives (de cohorte)

Deux groupes sont définis au début de l'étude : un groupe exposé et un groupe non exposé. Des problèmes de biais diagnostiques se poseront si la recherche de cas diffère entre ces deux groupes. Par exemple, considérons une cohorte de personnes exposées à un rejet accidentel de dioxine dans une industrie donnée. Pour le groupe très exposé, un système de suivi actif est mis en place avec des examens médicaux et une surveillance biologique à intervalles réguliers, alors que le reste de la population active ne reçoit que des soins de routine. Il est fort probable que davantage de maladies soient identifiées dans le groupe sous surveillance étroite, ce qui conduirait à une surestimation potentielle du risque.

Pertes différentielles dans les études de cohorte rétrospectives

Le mécanisme inverse de celui décrit au paragraphe précédent peut se produire dans les études de cohorte rétrospectives. Dans ces études, la façon habituelle de procéder est de partir des dossiers de toutes les personnes qui ont été employées dans une industrie donnée dans le passé, et d'évaluer la maladie ou la mortalité consécutive à l'emploi. Malheureusement, dans presque toutes les études, les dossiers sont incomplets, et le fait qu'une personne soit portée disparue peut être lié soit au statut d'exposition, soit au statut de la maladie, soit aux deux. Par exemple, dans une étude récente menée dans l'industrie chimique auprès de travailleurs exposés aux amines aromatiques, huit tumeurs ont été retrouvées dans un groupe de 777 travailleurs ayant subi un dépistage cytologique des tumeurs urinaires. Au total, seuls 34 enregistrements ont été trouvés manquants, correspondant à une perte de 4.4 % du fichier d'évaluation de l'exposition, mais pour les cas de cancer de la vessie, les données d'exposition manquaient pour deux cas sur huit, soit 25 %. Cela montre que les dossiers des personnes qui sont devenues des cas étaient plus susceptibles d'être perdus que les dossiers des autres travailleurs. Cela peut se produire en raison de changements d'emploi plus fréquents au sein de l'entreprise (qui peuvent être liés à des effets d'exposition), de démissions, de licenciements ou d'un simple hasard.

Évaluation différentielle de l'exposition dans les études cas-témoins

Dans les études cas-témoins, la maladie est déjà survenue au début de l'étude et des informations seront recherchées sur les expositions passées. Le biais peut résulter de l'attitude de l'intervieweur ou du participant à l'étude à l'égard de l'enquête. Les informations sont généralement recueillies par des enquêteurs formés qui peuvent ou non être au courant de l'hypothèse sous-jacente à la recherche. Par exemple, dans une étude cas-témoins basée sur la population sur le cancer de la vessie menée dans une région hautement industrialisée, le personnel de l'étude pourrait bien être conscient du fait que certains produits chimiques, tels que les amines aromatiques, sont des facteurs de risque du cancer de la vessie. S'ils savent également qui a développé la maladie et qui ne l'a pas fait, ils peuvent être susceptibles de mener des entretiens plus approfondis avec les participants atteints d'un cancer de la vessie qu'avec les témoins. Ils peuvent exiger des informations plus détaillées sur les occupations passées, en recherchant systématiquement l'exposition aux amines aromatiques, alors que pour les témoins, ils peuvent enregistrer les occupations de manière plus routinière. Le biais qui en résulte est appelé biais de suspicion d'exposition.

Les participants eux-mêmes peuvent également être responsables de ce biais. C'est appelé biais de rappel pour le distinguer du biais de l'intervieweur. Dans les deux cas, la suspicion d'exposition est le mécanisme du biais. Les personnes malades peuvent suspecter une origine professionnelle à leur maladie et vont donc essayer de se souvenir le plus précisément possible de tous les agents dangereux auxquels elles ont pu être exposées. En cas de manipulation de produits non définis, ils peuvent être enclins à rappeler les noms de produits chimiques précis, notamment si une liste de produits suspects est mise à leur disposition. En revanche, les contrôles peuvent être moins susceptibles de passer par le même processus de pensée.

La confusion

Il y a confusion lorsque l'association observée entre exposition et maladie résulte en partie d'un mélange de l'effet de l'exposition étudiée et d'un autre facteur. Disons, par exemple, qu'on constate un risque accru de cancer du poumon chez les soudeurs. On est tenté de conclure immédiatement qu'il existe une association causale entre l'exposition aux fumées de soudage et le cancer du poumon. Cependant, nous savons aussi que le tabagisme est de loin le principal facteur de risque du cancer du poumon. Par conséquent, si des informations sont disponibles, nous commençons à vérifier le statut tabagique des soudeurs et des autres participants à l'étude. Nous pouvons constater que les soudeurs sont plus susceptibles de fumer que les non-soudeurs. Dans cette situation, le tabagisme est connu pour être associé au cancer du poumon et, en même temps, dans notre étude, le tabagisme est également associé au fait d'être soudeur. En termes épidémiologiques, cela signifie que le tabagisme, lié à la fois au cancer du poumon et à la soudure, brouille l'association entre la soudure et le cancer du poumon.

Interaction ou modification d'effet

Contrairement à tous les problèmes énumérés ci-dessus, à savoir la sélection, l'information et la confusion, qui sont des biais, l'interaction n'est pas un biais dû à des problèmes de conception ou d'analyse de l'étude, mais reflète la réalité et sa complexité. Un exemple de ce phénomène est le suivant : l'exposition au radon est un facteur de risque de cancer du poumon, tout comme le tabagisme. De plus, le tabagisme et l'exposition au radon ont des effets différents sur le risque de cancer du poumon selon qu'ils agissent ensemble ou isolément. La plupart des études professionnelles sur ce sujet ont été menées auprès de mineurs de fond et ont parfois fourni des résultats contradictoires. Dans l'ensemble, il semble y avoir des arguments en faveur d'une interaction du tabagisme et de l'exposition au radon dans la production du cancer du poumon. Cela signifie que le risque de cancer du poumon est augmenté par l'exposition au radon, même chez les non-fumeurs, mais que l'ampleur de l'augmentation du risque due au radon est beaucoup plus importante chez les fumeurs que chez les non-fumeurs. En termes épidémiologiques, on dit que l'effet est multiplicatif. Contrairement à la confusion décrite ci-dessus, l'interaction doit être soigneusement analysée et décrite dans l'analyse plutôt que simplement contrôlée, car elle reflète ce qui se passe au niveau biologique et n'est pas simplement une conséquence d'une mauvaise conception de l'étude. Son explication conduit à une interprétation plus valable des résultats d'une étude.

Validité externe

Ce problème ne peut être résolu qu'après s'être assuré que la validité interne est garantie. Si l'on est convaincu que les résultats observés dans l'étude reflètent des associations réelles, on peut se demander si l'on peut ou non extrapoler ces résultats à la population plus large dont sont eux-mêmes issus les participants à l'étude, voire à d'autres populations identiques ou du moins très similaires. La question la plus fréquente est de savoir si les résultats obtenus pour les hommes s'appliquent également aux femmes. Pendant des années, les études et surtout les enquêtes d'épidémiologie professionnelle ont été menées exclusivement auprès des hommes. Des études menées auprès de chimistes dans les années 1960 et 1970 aux États-Unis, au Royaume-Uni et en Suède ont toutes révélé des risques accrus de cancers spécifiques, à savoir la leucémie, le lymphome et le cancer du pancréas. Sur la base de ce que nous savions des effets de l'exposition aux solvants et à certains autres produits chimiques, nous pouvions déjà en déduire à l'époque que le travail en laboratoire comportait également un risque cancérogène pour les femmes. Cela s'est d'ailleurs avéré être le cas lorsque la première étude menée auprès de femmes chimistes a finalement été publiée au milieu des années 1980, qui a trouvé des résultats similaires à ceux des hommes. Il est à noter que d'autres cancers en excès retrouvés étaient des tumeurs du sein et de l'ovaire, traditionnellement considérées comme n'étant liées qu'à des facteurs endogènes ou à la reproduction, mais pour lesquelles des facteurs environnementaux nouvellement suspectés comme les pesticides peuvent jouer un rôle. Il reste encore beaucoup à faire sur les déterminants professionnels des cancers féminins.

Stratégies pour une étude valide

Une étude parfaitement valide ne peut jamais exister, mais il incombe au chercheur d'essayer d'éviter, ou du moins de minimiser, autant de biais que possible. Cela peut souvent être fait au stade de la conception de l'étude, mais peut également être effectué pendant l'analyse.

Conception de l'étude

Les biais de sélection et d'information ne peuvent être évités que par la conception minutieuse d'une étude épidémiologique et la mise en œuvre scrupuleuse de toutes les directives quotidiennes qui en découlent, y compris une attention méticuleuse à l'assurance qualité, pour la conduite de l'étude dans les conditions de terrain. La confusion peut être traitée au stade de la conception ou de l'analyse.

Sélection

Les critères pour considérer un participant comme un cas doivent être explicitement définis. On ne peut pas, ou du moins on ne doit pas, tenter d'étudier des conditions cliniques mal définies. Une façon de minimiser l'impact que la connaissance de l'exposition peut avoir sur l'évaluation de la maladie est de n'inclure que les cas graves qui auraient été diagnostiqués indépendamment de toute information sur l'histoire du patient. Dans le domaine du cancer, les études seront souvent limitées aux cas avec preuve histologique de la maladie pour éviter l'inclusion de lésions borderline. Cela signifie également que les groupes à l'étude sont bien définis. Par exemple, il est bien connu en épidémiologie du cancer que les cancers de différents types histologiques au sein d'un organe donné peuvent avoir des facteurs de risque différents. Si le nombre de cas est suffisant, il est préférable de séparer l'adénocarcinome du poumon du carcinome épidermoïde du poumon. Quels que soient les critères définitifs d'admission à l'étude, ils doivent toujours être clairement définis et décrits. Par exemple, le code exact de la maladie doit être indiqué en utilisant la Classification Internationale des Maladies (CIM) et aussi, pour le cancer, la Classification Internationale des Maladies-Oncologie (CIM-O).

Des efforts devraient être faits une fois les critères précisés pour maximiser la participation à l'étude. La décision de refuser de participer n'est presque jamais prise au hasard et conduit donc à des préjugés. Les études doivent d'abord être présentées aux cliniciens qui voient les patients. Leur approbation est nécessaire pour approcher les patients, et il faudra donc les convaincre de soutenir l'étude. Un argument souvent convaincant est que l'étude est dans l'intérêt de la santé publique. Cependant, à ce stade, il est préférable de ne pas discuter de l'hypothèse exacte à évaluer afin d'éviter d'influencer indûment les cliniciens impliqués. On ne devrait pas demander aux médecins d'assumer des tâches supplémentaires; il est plus facile de convaincre le personnel de santé d'apporter son soutien à une étude si les moyens sont fournis par les investigateurs de l'étude pour effectuer toutes les tâches supplémentaires, en plus des soins de routine, nécessitées par l'étude. Les enquêteurs et les personnes chargées de l'analyse des données ne doivent pas être au courant de l'état pathologique de leurs patients.

Une attention similaire doit être accordée aux informations fournies aux participants. L'objectif de l'étude doit être décrit en termes généraux et neutres, mais doit également être convaincant et persuasif. Il est important que les questions de confidentialité et d'intérêt pour la santé publique soient bien comprises tout en évitant le jargon médical. Dans la plupart des contextes, l'utilisation d'incitations financières ou autres n'est pas considérée comme appropriée, bien qu'une compensation doive être prévue pour toute dépense encourue par un participant. Enfin, et ce n'est pas le moins important, la population générale devrait être suffisamment instruite sur le plan scientifique pour comprendre l'importance de telles recherches. Les avantages et les risques de la participation doivent être expliqués à chaque participant potentiel lorsqu'il doit remplir des questionnaires et/ou fournir des échantillons biologiques pour le stockage et/ou l'analyse. Aucune coercition ne doit être appliquée pour obtenir un consentement préalable et pleinement informé. Lorsque les études sont exclusivement fondées sur des dossiers, l'approbation préalable des organismes chargés d'assurer la confidentialité de ces dossiers doit être obtenue. Dans ces cas, le consentement individuel des participants peut généralement être annulé. Au lieu de cela, l'approbation des dirigeants syndicaux et gouvernementaux suffira. Les enquêtes épidémiologiques ne constituent pas une menace pour la vie privée d'un individu, mais sont une aide potentielle pour améliorer la santé de la population. L'approbation d'un comité d'examen institutionnel (ou comité d'examen éthique) sera nécessaire avant la conduite d'une étude, et une grande partie de ce qui est indiqué ci-dessus sera attendue par eux pour leur examen.

Informations

Dans les études de suivi prospectives, les moyens d'évaluation de l'état de la maladie ou de la mortalité doivent être identiques pour les participants exposés et non exposés. En particulier, différentes sources ne doivent pas être utilisées, telles que la vérification dans un registre central de mortalité uniquement pour les participants non exposés et l'utilisation d'une surveillance active intensive pour les participants exposés. De même, la cause du décès doit être obtenue par des moyens strictement comparables. Cela signifie que si un système est utilisé pour accéder à des documents officiels pour la population non exposée, qui est souvent la population générale, il ne faut jamais envisager d'obtenir des informations encore plus précises par le biais de dossiers médicaux ou d'entretiens sur les participants eux-mêmes ou sur leurs familles pour le sous-groupe exposé.

Dans les études de cohorte rétrospectives, des efforts doivent être faits pour déterminer dans quelle mesure la population étudiée est comparée à la population d'intérêt. Il faut se méfier des pertes différentielles potentielles dans les groupes exposés et non exposés en utilisant diverses sources concernant la composition de la population. Par exemple, il peut être utile de comparer les listes de paie avec les listes de membres des syndicats ou d'autres listes professionnelles. Les divergences doivent être conciliées et le protocole adopté pour l'étude doit être suivi de près.

Dans les études cas-témoins, d'autres options existent pour éviter les biais. Les enquêteurs, le personnel de l'étude et les participants à l'étude n'ont pas besoin d'être au courant de l'hypothèse précise à l'étude. S'ils ne connaissent pas l'association testée, ils sont moins susceptibles d'essayer de fournir la réponse attendue. Garder le personnel de l'étude dans l'ignorance quant à l'hypothèse de recherche est en fait souvent très peu pratique. L'enquêteur connaîtra presque toujours les expositions présentant le plus grand intérêt potentiel ainsi que qui est un cas et qui est un témoin. Il faut donc compter sur leur honnêteté et aussi sur leur formation en méthodologie fondamentale de la recherche, qui devrait faire partie de leur parcours professionnel ; l'objectivité est la marque de fabrique à toutes les étapes de la science.

Il est plus facile de ne pas informer les participants à l'étude de l'objet exact de la recherche. De bonnes explications de base sur la nécessité de collecter des données pour mieux comprendre la santé et la maladie sont généralement suffisantes et satisferont les besoins de l'examen éthique.

La confusion

La confusion est le seul biais qui peut être traité soit au stade de la conception de l'étude, soit, à condition que des informations adéquates soient disponibles, au stade de l'analyse. Si, par exemple, l'âge est considéré comme un facteur de confusion potentiel de l'association d'intérêt parce que l'âge est associé au risque de maladie (c'est-à-dire que le cancer devient plus fréquent chez les personnes âgées) et également à l'exposition (les conditions d'exposition varient avec l'âge ou avec des facteurs liés à l'âge tels que la qualification, le poste et la durée de l'emploi), plusieurs solutions existent. Le plus simple est de limiter l'étude à une tranche d'âge précise - par exemple, ne recruter que des hommes caucasiens âgés de 40 à 50 ans. Cela fournira des éléments d'analyse simple, mais aura aussi l'inconvénient de limiter l'application des résultats à une seule sexe âge/groupe racial. Une autre solution consiste à faire correspondre l'âge. Cela signifie que pour chaque cas, un référent du même âge est nécessaire. C'est une idée intéressante, mais il faut garder à l'esprit la difficulté éventuelle de satisfaire à cette exigence à mesure que le nombre de facteurs d'appariement augmente. De plus, une fois qu'un facteur a été apparié, il devient impossible d'évaluer son rôle dans la survenue de la maladie. La dernière solution consiste à disposer de suffisamment d'informations sur les facteurs de confusion potentiels dans la base de données de l'étude afin de les vérifier dans l'analyse. Cela peut être fait soit par une simple analyse stratifiée, soit avec des outils plus sophistiqués tels que l'analyse multivariée. Cependant, il convient de rappeler que l'analyse ne pourra jamais compenser une étude mal conçue ou mal menée.

Conclusion

La possibilité que des biais se produisent dans la recherche épidémiologique est établie depuis longtemps. Cela n'était pas trop préoccupant lorsque les associations étudiées étaient fortes (comme c'est le cas pour le tabagisme et le cancer du poumon) et, par conséquent, certaines inexactitudes ne causaient pas de problème trop grave. Cependant, maintenant que le moment est venu d'évaluer les facteurs de risque les plus faibles, le besoin de meilleurs outils devient primordial. Cela comprend la nécessité d'excellents modèles d'étude et la possibilité de combiner les avantages de divers modèles traditionnels tels que les études cas-témoins ou de cohorte avec des approches plus innovantes telles que les études cas-témoins imbriquées dans une cohorte. En outre, l'utilisation de biomarqueurs peut fournir les moyens d'obtenir des évaluations plus précises des expositions actuelles et éventuellement passées, ainsi que pour les premiers stades de la maladie.

 

Retour

Mardi 08 Mars 2011 21: 40

Fatigue et récupération

La fatigue et la récupération sont des processus périodiques dans tout organisme vivant. La fatigue peut être décrite comme un état qui se caractérise par une sensation de fatigue associée à une réduction ou une variation non désirée de la performance de l'activité (Rohmert 1973).

Toutes les fonctions de l'organisme humain ne se fatiguent pas à cause de l'utilisation. Même en dormant, par exemple, nous respirons et notre cœur bat sans arrêt. De toute évidence, les fonctions de base de la respiration et de l'activité cardiaque sont possibles tout au long de la vie sans fatigue et sans pauses pour la récupération.

Par contre, on constate après un gros travail assez prolongé qu'il y a une réduction de capacité - ce que l'on appelle sensation de fatigue. Cela ne s'applique pas à la seule activité musculaire. Les organes sensoriels ou les centres nerveux se fatiguent également. C'est pourtant le but de chaque cellule d'équilibrer la capacité perdue par son activité, un processus que nous appelons récupération.

Stress, effort, fatigue et récupération

Les concepts de fatigue et de récupération au travail humain sont étroitement liés aux concepts ergonomiques de stress et d'effort (Rohmert 1984) (figure 1).

Figure 1. Stress, déformation et fatigue

ERG150F1

Le stress désigne la somme de tous les paramètres de travail dans le système de travail qui influencent les personnes au travail, qui sont perçus ou ressentis principalement par le système récepteur ou qui sollicitent le système effecteur. Les paramètres de stress résultent de la tâche de travail (travail musculaire, travail non musculaire - dimensions et facteurs liés à la tâche) et des conditions physiques, chimiques et sociales dans lesquelles le travail doit être effectué (bruit, climat, éclairement, vibrations , travail posté, etc.—dimensions et facteurs liés à la situation).

L'intensité/difficulté, la durée et la composition (c'est-à-dire la répartition simultanée et successive de ces demandes spécifiques) des facteurs de stress se traduisent par un stress combiné, qu'exercent tous les effets exogènes d'un système de travail sur le travailleur. Ce stress combiné peut être géré activement ou supporté passivement, en fonction notamment du comportement de la personne qui travaille. Le cas actif impliquera des activités orientées vers l'efficacité du système de travail, tandis que le cas passif induira des réactions (volontaires ou involontaires), qui visent principalement à minimiser le stress. La relation entre le stress et l'activité est influencée de manière décisive par les caractéristiques individuelles et les besoins de la personne qui travaille. Les principaux facteurs d'influence sont ceux qui déterminent la performance et sont liés à la motivation et à la concentration et ceux liés à la disposition, que l'on peut appeler capacités et compétences.

Les contraintes liées au comportement, qui se manifestent dans certaines activités, provoquent des contraintes individuellement différentes. Les souches peuvent être indiquées par la réaction d'indicateurs physiologiques ou biochimiques (par exemple, l'augmentation de la fréquence cardiaque) ou elles peuvent être perçues. Ainsi, les souches sont sensibles à la "mise à l'échelle psycho-physique", qui estime la souche telle qu'elle est ressentie par la personne qui travaille. Dans une approche comportementale, l'existence d'une contrainte peut également être déduite d'une analyse d'activité. L'intensité avec laquelle les indicateurs de stress (physiologiques-biochimiques, comportementaux ou psycho-physiques) réagissent dépend de l'intensité, de la durée et de la combinaison des facteurs de stress ainsi que des caractéristiques individuelles, des capacités, des compétences et des besoins de la personne qui travaille.

Malgré des contraintes constantes, les indicateurs issus des domaines d'activité, de performance et de pénibilité peuvent varier dans le temps (effet temporel). De telles variations temporelles doivent être interprétées comme des processus d'adaptation des systèmes organiques. Les effets positifs entraînent une réduction de la tension/amélioration de l'activité ou de la performance (par exemple, grâce à l'entraînement). Dans le cas négatif, cependant, ils entraîneront une augmentation de l'effort/une réduction de l'activité ou des performances (par exemple, fatigue, monotonie).

Les effets positifs peuvent entrer en action si les capacités et les compétences disponibles sont améliorées dans le processus de travail lui-même, par exemple, lorsque le seuil de stimulation de l'entraînement est légèrement dépassé. Les effets négatifs sont susceptibles d'apparaître si les soi-disant limites d'endurance (Rohmert 1984) sont dépassées au cours du processus de travail. Cette fatigue entraîne une diminution des fonctions physiologiques et psychologiques, qui peut être compensée par la récupération.

Pour restaurer les performances d'origine, des indemnités de repos ou au moins des périodes avec moins de stress sont nécessaires (Luczak 1993).

Lorsque le processus d'adaptation est porté au-delà de seuils définis, le système organique employé peut être endommagé au point de provoquer une déficience partielle ou totale de ses fonctions. Une réduction irréversible des fonctions peut apparaître lorsque le stress est beaucoup trop élevé (dommage aigu) ou lorsque la récupération est impossible pendant une durée plus longue (dommage chronique). Un exemple typique de tels dommages est la perte auditive induite par le bruit.

Modèles de fatigue

La fatigue peut être multiforme, selon la forme et la combinaison de la contrainte, et une définition générale de celle-ci n'est pas encore possible. Les suites biologiques de la fatigue ne sont en général pas mesurables de manière directe, de sorte que les définitions sont principalement orientées vers les symptômes de la fatigue. Ces symptômes de fatigue peuvent être divisés, par exemple, dans les trois catégories suivantes.

    1. Symptômes physiologiques: la fatigue est interprétée comme une diminution des fonctions des organes ou de tout l'organisme. Il en résulte des réactions physiologiques, par exemple une augmentation de la fréquence cardiaque ou de l'activité musculaire électrique (Laurig 1970).
    2. Symptômes comportementaux: la fatigue est interprétée principalement comme une diminution des paramètres de performance. Les exemples sont des erreurs croissantes lors de la résolution de certaines tâches, ou une variabilité croissante des performances.
    3. Symptômes psycho-physiques: la fatigue est interprétée comme une augmentation de la sensation d'effort et une détérioration de la sensation, en fonction de l'intensité, de la durée et de la composition des facteurs de stress.

         

        Dans le processus de fatigue, ces trois symptômes peuvent jouer un rôle, mais ils peuvent apparaître à différents moments.

        Les réactions physiologiques dans les systèmes organiques, en particulier ceux impliqués dans le travail, peuvent apparaître en premier. Plus tard, les sensations d'effort peuvent être affectées. Les changements de performance se manifestent généralement par une régularité décroissante du travail ou par une quantité croissante d'erreurs, bien que la moyenne des performances ne soit pas encore affectée. Au contraire, avec une motivation appropriée, la personne qui travaille peut même essayer de maintenir ses performances grâce à sa volonté. La prochaine étape peut être une nette réduction des performances se terminant par une dégradation des performances. Les symptômes physiologiques peuvent conduire à une dégradation de l'organisme, y compris des modifications de la structure de la personnalité et à l'épuisement. Le processus de fatigue est expliqué dans la théorie des déstabilisations successives (Luczak 1983).

        La tendance principale de la fatigue et de la récupération est illustrée à la figure 2.

        Figure 2. Tendance principale de la fatigue et de la récupération

        ERG150F2

        Pronostic de la fatigue et de la récupération

        Dans le domaine de l'ergonomie, il existe un intérêt particulier à prédire la fatigue en fonction de l'intensité, de la durée et de la composition des facteurs de stress et à déterminer le temps de récupération nécessaire. Le tableau 1 montre ces différents niveaux d'activité et périodes de réflexion ainsi que les raisons possibles de la fatigue et les différentes possibilités de récupération.

        Tableau 1. Fatigue et récupération en fonction des niveaux d'activité

        Niveau d'activité

        Période

        Fatigue de

        Récupération par

        La vie de travail

        Décennies

        Surmenage pour
        décennies

        Retraite

        Phases de la vie professionnelle

        Années

        Surmenage pour
        années

        Vacances

        Séquences de
        quarts de travail

        Mois/semaines

        Changement défavorable
        régimes

        Week-end, gratuit
        jours

        Un quart de travail

        Un jour

        Stress au-dessus
        limites d'endurance

        Temps libre, repos
        périodes

        Tâches

        HORAIRES

        Stress au-dessus
        limites d'endurance

        Période de repos

        Partie d'une tâche

        Minutes

        Stress au-dessus
        limites d'endurance

        Changement de tension
        facteurs

         

        Dans l'analyse ergonomique du stress et de la fatigue pour déterminer le temps de récupération nécessaire, la prise en compte de la durée d'une journée de travail est la plus importante. Les méthodes de telles analyses commencent par la détermination des différents facteurs de stress en fonction du temps (Laurig 1992) (figure 3).

        Figure 3. Stress en fonction du temps

        ERG150F4

        Les facteurs de stress sont déterminés à partir du contenu spécifique du travail et des conditions de travail. Le contenu du travail pourrait être la production de force (par exemple, lors de la manipulation de charges), la coordination des fonctions motrices et sensorielles (par exemple, lors de l'assemblage ou de l'utilisation d'une grue), la conversion d'informations en réaction (par exemple, lors du contrôle), les transformations pour produire des informations (par exemple, lors de la programmation, de la traduction) et la production d'informations (par exemple, lors de la conception, de la résolution de problèmes). Les conditions de travail comprennent des aspects physiques (par exemple, bruit, vibrations, chaleur), chimiques (agents chimiques) et sociaux (par exemple, collègues, travail posté).

        Dans le cas le plus simple, il y aura un seul facteur de stress important tandis que les autres peuvent être négligés. Dans ces cas, notamment lorsque les facteurs de stress résultent d'un travail musculaire, il est souvent possible de calculer les indemnités de repos nécessaires, car les notions de base sont connues.

        Par exemple, l'allocation de repos suffisante dans le travail musculaire statique dépend de la force et de la durée de la contraction musculaire comme dans une fonction exponentielle liée par multiplication selon la formule :

        avec

        RA = Allocation de repos en pourcentage de t

        t = durée de contraction (période de travail) en minutes

        T = durée maximale possible de contraction en minutes

        f = la force nécessaire pour la force statique et

        F = force maximale.

        Le lien entre la force, le temps de maintien et les allocations de repos est illustré à la figure 4.

        Figure 4. Allocations de repos en pourcentage pour diverses combinaisons de forces de maintien et de temps

        ERG150F5

        Des lois similaires existent pour un travail musculaire dynamique lourd (Rohmert 1962), un travail musculaire léger actif (Laurig 1974) ou différents travaux musculaires industriels (Schmidtke 1971). Plus rarement, vous trouverez des lois comparables pour le travail non physique, par exemple pour l'informatique (Schmidtke 1965). Laurig (1981) et Luczak (1982) donnent un aperçu des méthodes existantes de détermination des indemnités de repos pour les travaux musculaires et non musculaires principalement isolés.

         

         

         

         

         

        Plus difficile est la situation où il existe une combinaison de différents facteurs de stress, comme le montre la figure 5, qui affectent simultanément la personne active (Laurig 1992).

        Figure 5. La combinaison de deux facteurs de stress    

        ERG150F6

        La combinaison de deux facteurs de stress, par exemple, peut conduire à des réactions de déformation différentes selon les lois de combinaison. L'effet combiné de différents facteurs de stress peut être indifférent, compensatoire ou cumulatif.

        Dans le cas de lois de combinaison indifférentes, les différents facteurs de stress ont un effet sur différents sous-systèmes de l'organisme. Chacun de ces sous-systèmes peut compenser la contrainte sans que la contrainte soit introduite dans un sous-système commun. La déformation globale dépend du facteur de contrainte le plus élevé, et donc les lois de superposition ne sont pas nécessaires.

        Un effet compensatoire est donné lorsque la combinaison de différents facteurs de stress conduit à une déformation inférieure à celle de chaque facteur de stress seul. La combinaison du travail musculaire et des basses températures peut réduire l'effort global, car les basses températures permettent au corps de perdre la chaleur produite par le travail musculaire.

        Un effet cumulatif se produit si plusieurs facteurs de stress se superposent, c'est-à-dire qu'ils doivent passer par un « goulot d'étranglement » physiologique. Un exemple est la combinaison du travail musculaire et du stress thermique. Les deux facteurs de stress affectent le système circulatoire en tant que goulot d'étranglement commun avec une contrainte cumulative résultante.

        Les effets de combinaison possibles entre le travail musculaire et les conditions physiques sont décrits dans Bruder (1993) (voir tableau 2).

        Tableau 2. Règles de combinaison des effets de deux facteurs de stress sur la déformation

         

        Du froid

        Vibration

        uniforme

        Bruit

        Travail dynamique lourd

        -

        +

        0

        0

        Travail musculaire léger actif

        +

        +

        0

        0

        Travail musculaire statique

        +

        +

        0

        0

        0 effet indifférent ; + effet cumulatif ; – effet compensateur.

        Source : Adapté de Bruder 1993.

        Pour le cas de la combinaison de plus de deux facteurs de stress, qui est la situation normale en pratique, seules des connaissances scientifiques limitées sont disponibles. Il en va de même pour la combinaison successive de facteurs de stress (c'est-à-dire l'effet de contrainte de différents facteurs de stress qui affectent successivement le travailleur). Dans de tels cas, en pratique, le temps de récupération nécessaire est déterminé en mesurant des paramètres physiologiques ou psychologiques et en les utilisant comme valeurs d'intégration.

         

        Retour

        Les erreurs de mesure de l'exposition peuvent avoir des impacts différents sur la relation exposition-maladie étudiée, selon la manière dont les erreurs sont réparties. Si une étude épidémiologique a été menée à l'aveugle (c'est-à-dire que des mesures ont été prises sans connaître la maladie ou l'état de santé des participants à l'étude), nous nous attendons à ce que l'erreur de mesure soit répartie uniformément entre les strates de la maladie ou de l'état de santé.

        Le tableau 1 donne un exemple : supposons que nous recrutions une cohorte de personnes exposées au travail à un toxique, afin d'investiguer une maladie fréquente. Nous déterminons le statut d'exposition uniquement au recrutement (T0), et non à d'autres moments du suivi. Disons cependant qu'un certain nombre d'individus changent effectivement de statut d'exposition l'année suivante : au temps T1, 250 des 1,200 150 personnes exposées à l'origine ont cessé d'être exposées, tandis que 750 des XNUMX personnes non exposées à l'origine ont commencé à être exposées au toxique. Ainsi, à l'instant T1, 1,100 850 personnes sont exposées et XNUMX ne le sont pas. En conséquence, nous avons une « erreur de classification » de l'exposition, basée sur notre mesure initiale de l'état de l'exposition au temps T0. Ces individus sont ensuite retrouvés après 20 ans (au temps T2) et le risque cumulé de maladie est évalué. (L'hypothèse faite dans l'exemple est que seule une exposition de plus d'un an est préoccupante.)


        Tableau 1. Cohorte hypothétique de 1950 individus (exposés et non exposés au travail), recrutés au temps T0 et dont le statut pathologique est déterminé au temps T2

        Temps

         

        T0

        T1

        T2

        Travailleurs exposés 1200 250 abandonnent l'exposition 1100 (1200-250+150)

        Cas de maladie au temps T2 = 220 parmi les travailleurs exposés

        Travailleurs non exposés 750 150 commencent l'exposition 850 (750-150+250)

        Cas de maladie au temps T2 = 85 chez les travailleurs non exposés

        La vrai risque de la maladie au temps T2 est de 20% chez les travailleurs exposés (220/1100),
        et 10 % chez les travailleurs non exposés (85/850) (risque relatif = 2.0).

        Risque estimé à T2 de la maladie parmi les personnes classées comme exposées à T0:% 20
        (c.-à-d. risque réel chez les personnes exposées) ´ 950 (c.-à-d. 1200-250)+ 10 %
        (c'est-à-dire, risque réel chez les non-exposés) ´ 250 = (190+25)/1200 = 17.9 %

        Risque estimé à T2 de la maladie parmi ceux classés comme non exposés à
        T0: 20 % (c'est-à-dire le risque réel chez les personnes exposées) ´ 150 +10 %
        (c'est-à-dire le risque réel chez les personnes non exposées) ´ 600 (c'est-à-dire 750-150) = (30+60)/750 = 12 %

        Risque relatif estimé = 17.9 % / 12 % = 1.49


        Les erreurs de classification dépendent, dans cet exemple, de la conception de l'étude et des caractéristiques de la population, plutôt que des limites techniques de la mesure de l'exposition. L'effet d'une mauvaise classification est tel que le « vrai » rapport de 2.0 entre le risque cumulé chez les personnes exposées et les personnes non exposées devient un rapport « observé » de 1.49 (tableau 1). Cette sous-estimation du rapport de risque découle d'un « brouillage » de la relation entre l'exposition et la maladie, qui se produit lorsque la classification erronée de l'exposition, comme dans ce cas, est uniformément répartie en fonction de la maladie ou de l'état de santé (c'est-à-dire que la mesure de l'exposition est pas influencé par le fait que la personne souffrait ou non de la maladie que nous étudions).

        En revanche, une sous-estimation ou une surestimation de l'association d'intérêt peut se produire lorsque la classification erronée de l'exposition n'est pas uniformément répartie sur le résultat d'intérêt. Dans l'exemple, on peut avoir biais, et pas seulement un brouillage de la relation étiologique, si la classification de l'exposition dépend de la maladie ou de l'état de santé des travailleurs. Cela pourrait se produire, par exemple, si l'on décide de prélever des échantillons biologiques sur un groupe de travailleurs exposés et sur un groupe de travailleurs non exposés, afin d'identifier les changements précoces liés à l'exposition au travail. Les échantillons prélevés sur les travailleurs exposés pourraient alors être analysés de manière plus précise que les échantillons prélevés sur les travailleurs non exposés; la curiosité scientifique pourrait conduire le chercheur à mesurer des biomarqueurs supplémentaires parmi les personnes exposées (y compris, par exemple, des adduits à l'ADN dans les lymphocytes ou des marqueurs urinaires de dommages oxydatifs à l'ADN), en supposant que ces personnes sont scientifiquement "plus intéressantes". Il s'agit d'une attitude assez courante qui, cependant, pourrait conduire à de sérieux préjugés.

         

        Retour

        Mercredi, Mars 02 2011 03: 15

        Méthodes statistiques

        Il y a beaucoup de débats sur le rôle des statistiques dans la recherche épidémiologique sur les relations causales. En épidémiologie, la statistique est avant tout un ensemble de méthodes d'évaluation de données basées sur des populations humaines (et aussi animales). En particulier, la statistique est une technique de quantification et de mesure de phénomènes incertains. Toutes les investigations scientifiques qui traitent d'aspects non déterministes et variables de la réalité pourraient bénéficier d'une méthodologie statistique. En épidémiologie, la variabilité est intrinsèque à l'unité d'observation – une personne n'est pas une entité déterministe. Alors que les conceptions expérimentales seraient améliorées pour mieux répondre aux hypothèses des statistiques en termes de variation aléatoire, pour des raisons éthiques et pratiques, cette approche n'est pas trop courante. Au lieu de cela, l'épidémiologie est engagée dans la recherche observationnelle qui lui est associée à la fois des sources aléatoires et d'autres sources de variabilité.

        La théorie statistique s'intéresse à la manière de contrôler la variabilité non structurée des données afin de tirer des conclusions valables à partir d'observations empiriques. En l'absence d'explication du comportement variable du phénomène étudié, la statistique le suppose comme aléatoire— c'est-à-dire des écarts non systématiques par rapport à un état moyen de la nature (voir Greenland 1990 pour une critique de ces hypothèses).

        La science s'appuie sur l'empirique preuve pour démontrer si ses modèles théoriques d'événements naturels ont une quelconque validité. En effet, les méthodes utilisées à partir de la théorie statistique déterminent dans quelle mesure les observations dans le monde réel sont conformes à la vision des scientifiques, sous forme de modèle mathématique, d'un phénomène. Les méthodes statistiques, basées sur les mathématiques, doivent donc être soigneusement sélectionnées ; il y a plein d'exemples sur "comment mentir avec les statistiques". Par conséquent, les épidémiologistes doivent être conscients de la pertinence des techniques qu'ils appliquent pour mesurer le risque de maladie. En particulier, une grande prudence est nécessaire lors de l'interprétation des résultats statistiquement significatifs et statistiquement non significatifs.

        Le premier sens du mot statistiques concerne toute quantité récapitulative calculée sur un ensemble de valeurs. Les indices descriptifs ou statistiques tels que la moyenne arithmétique, la médiane ou le mode sont largement utilisés pour résumer les informations d'une série d'observations. Historiquement, ces descripteurs sommaires étaient utilisés à des fins administratives par les États, et par conséquent ils ont été nommés statistiques. En épidémiologie, les statistiques que l'on voit couramment dérivent des comparaisons inhérentes à la nature de l'épidémiologie, qui pose des questions telles que : « Une population est-elle plus à risque de maladie qu'une autre ? » En faisant de telles comparaisons, le risque relatif est une mesure populaire de la force de l'association entre une caractéristique individuelle et la probabilité de tomber malade, et il est le plus couramment appliqué dans la recherche étiologique ; Le risque attribuable est aussi une mesure de l'association entre les caractéristiques individuelles et la survenue de la maladie, mais il met l'accent sur le gain en nombre de cas épargnés par une intervention qui supprime le facteur en question - il est surtout appliqué en santé publique et en médecine préventive.

        Le deuxième sens du mot statistiques concerne l'ensemble des techniques et la théorie sous-jacente de l'inférence statistique. Il s'agit d'une forme particulière de logique inductive qui spécifie les règles permettant d'obtenir une généralisation valide à partir d'un ensemble particulier d'observations empiriques. Cette généralisation serait valide à condition que certaines hypothèses soient satisfaites. C'est la deuxième façon dont une utilisation peu éduquée des statistiques peut nous tromper : en épidémiologie observationnelle, il est très difficile d'être sûr des hypothèses qu'impliquent les techniques statistiques. Par conséquent, une analyse de sensibilité et des estimateurs robustes devraient accompagner toute analyse de données correctement menée. Les conclusions finales doivent également être basées sur des connaissances globales et ne doivent pas reposer exclusivement sur les résultats de tests d'hypothèses statistiques.

        Définitions

        A unité statistique est l'élément sur lequel les observations empiriques sont faites. Il peut s'agir d'une personne, d'un spécimen biologique ou d'un morceau de matière première à analyser. Habituellement, les unités statistiques sont choisies indépendamment par le chercheur, mais parfois des conceptions plus complexes peuvent être mises en place. Par exemple, dans les études longitudinales, une série de déterminations est faite sur un ensemble de personnes au fil du temps ; les unités statistiques de cette étude sont l'ensemble des déterminations, qui ne sont pas indépendantes, mais structurées par leurs liens respectifs à chaque personne étudiée. Le manque d'indépendance ou de corrélation entre les unités statistiques mérite une attention particulière dans l'analyse statistique.

        A variable est une caractéristique individuelle mesurée sur une unité statistique donnée. Il doit être mis en contraste avec un constant, une caractéristique individuelle fixe - par exemple, dans une étude sur des êtres humains, avoir une tête ou un thorax sont des constantes, tandis que le sexe d'un seul membre de l'étude est une variable.

        Les variables sont évaluées à l'aide de différents échelles de mesure. La première distinction est entre les échelles qualitatives et quantitatives. Les variables qualitatives fournissent différentes modalités or catégories. Si chaque modalité ne peut pas être classée ou ordonnée par rapport aux autres - par exemple, la couleur des cheveux ou les modalités de genre - nous notons la variable comme nominal. Si les catégories peuvent être ordonnées, comme le degré de gravité d'une maladie, la variable est appelée ordinal. Lorsqu'une variable est constituée d'une valeur numérique, on dit que l'échelle est quantitative. UNE discret L'échelle indique que la variable ne peut prendre que certaines valeurs définies, par exemple, des valeurs entières pour le nombre de cas de maladie. UNE continu l'échelle est utilisée pour les mesures qui aboutissent à réal Nombres. On dit que les échelles continues sont intervalle échelles lorsque la valeur nulle a une signification purement conventionnelle. Autrement dit, une valeur de zéro ne signifie pas une quantité nulle - par exemple, une température de zéro degré Celsius ne signifie pas une énergie thermique nulle. Dans ce cas, seules les différences entre les valeurs ont un sens (c'est la raison du terme échelle « d'intervalle »). Une vraie valeur nulle dénote un rapport échelle. Pour une variable mesurée sur cette échelle, les rapports de valeurs ont également un sens : en effet, un rapport double signifie une quantité double. Par exemple, dire qu'un corps a une température deux fois supérieure à un deuxième corps signifie qu'il a deux fois l'énergie thermique du deuxième corps, à condition que la température est mesurée sur une échelle de rapport (par exemple, en degrés Kelvin). L'ensemble des valeurs autorisées pour une variable donnée est appelé le domaine de la variable.

        Paradigmes statistiques

        La statistique traite de la manière de généraliser à partir d'un ensemble d'observations particulières. Cet ensemble de mesures empiriques est appelé un échantillon. A partir d'un échantillon, nous calculons quelques statistiques descriptives afin de synthétiser les informations recueillies.

        Les informations de base généralement requises pour caractériser un ensemble de mesures concernent sa tendance centrale et sa variabilité. Le choix entre plusieurs alternatives dépend de l'échelle utilisée pour mesurer un phénomène et des objectifs pour lesquels les statistiques sont calculées. Dans le tableau 1, différentes mesures de tendance centrale et de variabilité (ou dispersion) sont décrites et associées à l'échelle de mesure appropriée.

        Tableau 1. Indices de tendance centrale et de dispersion par échelle de mesure

         

        Échelle de mesure

         

        Qualitative

         

        Quantitatif

        Indices

        Définition

        Capacité

        Ordinal

        Intervalle/rapport

        Moyenne arithmétique

        Somme des valeurs observées divisée par le nombre total d'observations

         

        x

        Moyenne

        Valeur médiane de la distribution observée

         

        x

        x

        Mode

        Valeur la plus fréquente

        x

        x

        x

        Catégorie

        Valeurs les plus basses et les plus hautes de la distribution

         

        x

        x

        Variance

        Somme de la différence au carré de chaque valeur par rapport à la moyenne divisée par le nombre total d'observations moins 1

         

         

        x

         

        Les statistiques descriptives calculées sont appelées estimations lorsque nous les utilisons comme substitut de la quantité analogue de la population à partir de laquelle l'échantillon a été sélectionné. Les contreparties de population des estimations sont des constantes appelées paramètres. Des estimations d'un même paramètre peuvent être obtenues à l'aide de différentes méthodes statistiques. Une estimation doit être à la fois valide et précise.

        Le paradigme population-échantillon implique que la validité peut être assurée par la manière dont l'échantillon est sélectionné dans la population. L'échantillonnage aléatoire ou probabiliste est la stratégie habituelle : si chaque membre de la population a la même probabilité d'être inclus dans l'échantillon, alors, en moyenne, notre échantillon devrait être représentatif de la population et, de plus, tout écart par rapport à notre attente pourrait être expliqué par hasard. La probabilité d'un écart donné par rapport à notre attente peut également être calculée, à condition qu'un échantillonnage aléatoire ait été effectué. Le même type de raisonnement s'applique aux estimations calculées pour notre échantillon en ce qui concerne les paramètres de la population. Nous prenons, par exemple, la moyenne arithmétique de notre échantillon comme estimation de la valeur moyenne pour la population. Toute différence, si elle existe, entre la moyenne de l'échantillon et la moyenne de la population est attribuée à des fluctuations aléatoires dans le processus de sélection des membres inclus dans l'échantillon. Nous pouvons calculer la probabilité de toute valeur de cette différence, à condition que l'échantillon ait été sélectionné au hasard. Si l'écart entre l'estimation de l'échantillon et le paramètre de la population ne peut être expliqué par le hasard, l'estimation est dite biaisé. La conception de l'observation ou de l'expérience assure la validité des estimations et le paradigme statistique fondamental est celui de l'échantillonnage aléatoire.

        En médecine, un deuxième paradigme est adopté lorsqu'une comparaison entre différents groupes est le but de l'étude. Un exemple typique est l'essai clinique contrôlé : un ensemble de patients présentant des caractéristiques similaires est sélectionné sur la base de critères prédéfinis. Aucun souci de représentativité n'est fait à ce stade. Chaque patient inscrit à l'essai est affecté par une procédure aléatoire au groupe de traitement - qui recevra le traitement standard plus le nouveau médicament à évaluer - ou au groupe témoin - recevant le traitement standard et un placebo. Dans ce plan, l'attribution aléatoire des patients à chaque groupe remplace la sélection aléatoire des membres de l'échantillon. L'estimation de la différence entre les deux groupes peut être appréciée statistiquement car, sous l'hypothèse d'aucune efficacité du nouveau médicament, on peut calculer la probabilité de toute différence non nulle.

        En épidémiologie, il nous manque la possibilité de rassembler aléatoirement des groupes de personnes exposées et non exposées. Dans ce cas, on peut toujours utiliser des méthodes statistiques, comme si les groupes analysés avaient été tirés au sort ou répartis. L'exactitude de cette hypothèse repose principalement sur la conception de l'étude. Ce point est particulièrement important et souligne l'importance de la conception des études épidémiologiques par rapport aux techniques statistiques dans la recherche biomédicale.

        Signal et bruit

        Le terme Variable aléatoire fait référence à une variable pour laquelle une probabilité définie est associée à chaque valeur qu'elle peut prendre. Les modèles théoriques de distribution de la probabilité d'une variable aléatoire sont des modèles de population. Les homologues de l'échantillon sont représentés par la distribution de fréquence d'échantillonnage. C'est un moyen utile de rapporter un ensemble de données ; il se compose d'un plan cartésien avec la variable d'intérêt le long de l'axe horizontal et la fréquence ou fréquence relative le long de l'axe vertical. Un affichage graphique permet de voir aisément quelle(s) est (sont) la (les) valeur(s) la plus fréquente(s) et comment la distribution se concentre autour de certaines valeurs centrales comme la moyenne arithmétique.

        Pour les variables aléatoires et leurs distributions de probabilité, nous utilisons les termes paramètres, valeur moyenne attendue (au lieu de la moyenne arithmétique) et variance. Ces modèles théoriques décrivent la variabilité d'un phénomène donné. En théorie de l'information, le signal est représenté par la tendance centrale (par exemple, la valeur moyenne), tandis que le bruit est mesuré par un indice de dispersion (comme la variance).

        Pour illustrer l'inférence statistique, nous utiliserons le modèle binomial. Dans les sections qui suivent, les notions d'estimations ponctuelles et d'intervalles de confiance, de tests d'hypothèses et de probabilité de décisions erronées, et de puissance d'une étude seront introduites.

        Tableau 2. Résultats possibles d'une expérience binomiale (oui = 1, non = 0) et leurs probabilités (n = 3)

        Ouvrier

        Probabilité

        A

        B

        C

         

        0

        0

        0

        1

        0

        0

        0

        1

        0

        0

        0

        1

        0

        1

        1

        1

        0

        1

        1

        1

        0

        1

        1

        1

         

        Un exemple : la distribution binomiale

        En recherche biomédicale et en épidémiologie, le modèle le plus important de variation stochastique est la distribution binomiale. Elle repose sur le fait que la plupart des phénomènes se comportent comme une variable nominale avec seulement deux catégories : par exemple, la présence/absence de maladie : vivant/mort, ou guéri/malade. Dans de telles circonstances, nous nous intéressons à la probabilité de succès, c'est-à-dire à l'événement qui nous intéresse (par exemple, présence d'une maladie, vivant ou guéri) et aux facteurs ou variables qui peuvent la modifier. Considérons n = 3 travailleurs, et supposons que nous nous intéressons à la probabilité, p, d'avoir une déficience visuelle (oui/non). Le résultat de notre observation pourrait être les résultats possibles du tableau 2.

        Tableau 3. Résultats possibles d'une expérience binomiale (oui = 1, non = 0) et leurs probabilités (n = 3)

        Nombre de succès

        Probabilité

        0

        1

        2

        3

         

        La probabilité de chacune de ces combinaisons d'événements est facilement obtenue en considérant p, la probabilité (individuelle) de succès, constante pour chaque sujet et indépendante des autres résultats. Puisque nous nous intéressons au nombre total de succès et non à une séquence ordonnée spécifique, nous pouvons réorganiser le tableau comme suit (voir tableau 3) et, en général, exprimer la probabilité de x succès P (x) comme:

        De x est le nombre de succès et la notation x! désigne la factorielle de x, c'est à dire, x! = x×(x–1)×(x–2)…×1.

        Lorsque l'on considère l'événement « être/ne pas être malade », la probabilité individuelle, désigne l'état dans lequel le sujet est présumé ; en épidémiologie, cette probabilité est appelée « prévalence ». Pour estimer p, nous utilisons la proportion d'échantillon :

        p = x/n

        avec écart :

        Dans une hypothétique série infinie d'échantillons répliqués de même taille n, on obtiendrait des proportions d'échantillon différentes p = x/n, avec des probabilités données par la formule binomiale. La « vraie » valeur de  est estimé par chaque proportion d'échantillon, et un intervalle de confiance pour p, c'est-à-dire l'ensemble des valeurs probables pour p, compte tenu des données observées et d'un niveau de confiance prédéfini (disons 95%), est estimé à partir de la distribution binomiale comme l'ensemble des valeurs de p qui donne une probabilité de x supérieure à une valeur prédéfinie (disons 2.5 %). Pour une expérience hypothétique dans laquelle nous avons observé x = 15 succès en n = 30 essais, la probabilité estimée de succès est :

        p = x/n = 15/30 = 0.5 

        Tableau 4. Distribution binomiale. Probabilités pour différentes valeurs de  pour x = 15 succès en n = 30 essais

        Probabilité

        0.200

        0.0002

        0.300

        0.0116

        0.334

        0.025

        0.400

        0.078

        0.500

        0.144

        0.600

        0.078

        0.666

        0.025

        0.700

        0.0116

         

        L'intervalle de confiance à 95 % pour p, obtenu à partir du tableau 4, est de 0.334 à 0.666. Chaque entrée du tableau indique la probabilité de x = 15 succès en n = 30 essais calculés avec la formule binomiale ; par exemple, pour = 0.30, on obtient de :

        Pour n grand et p proche de 0.5 on peut utiliser une approximation basée sur la distribution gaussienne :

        De za /2 désigne la valeur de la distribution gaussienne standard pour une probabilité

        P (|z| ³ za /2) = a/2;

        1 – a étant le niveau de confiance choisi. Pour l'exemple considéré, = 15/30 = 0.5 ; n = 30 et de la table gaussienne standard z0.025 = 1.96. L'intervalle de confiance à 95 % donne l'ensemble de valeurs 0.321 - 0.679, obtenu en remplaçant p = 0.5, n = 30, et z0.025 = 1.96 dans l'équation ci-dessus pour la distribution gaussienne. Notez que ces valeurs sont proches des valeurs exactes calculées auparavant.

        Les tests statistiques d'hypothèses comprennent une procédure de décision sur la valeur d'un paramètre de population. Supposons, dans l'exemple précédent, que nous voulions répondre à la proposition selon laquelle il existe un risque élevé de déficience visuelle chez les travailleurs d'une usine donnée. L'hypothèse scientifique à tester par nos observations empiriques est alors « il existe un risque élevé de déficience visuelle chez les travailleurs d'une usine donnée ». Les statisticiens démontrent de telles hypothèses en falsifiant l'hypothèse complémentaire « il n'y a pas d'élévation du risque de déficience visuelle ». Ceci suit la démonstration mathématique par absurde et, au lieu de vérifier une affirmation, les preuves empiriques ne servent qu'à la falsifier. L'hypothèse statistique est appelée hypothèse nulle. La deuxième étape consiste à spécifier une valeur pour le paramètre de cette distribution de probabilité utilisée pour modéliser la variabilité des observations. Dans nos exemples, le phénomène étant binaire (c'est-à-dire présence/absence de déficience visuelle), nous choisissons la distribution binomiale de paramètre p, la probabilité de déficience visuelle. L'hypothèse nulle affirme que = 0.25, disons. Cette valeur est choisie parmi l'ensemble des connaissances sur le sujet et la connaissance a priori de la prévalence habituelle de la déficience visuelle dans les populations non exposées (c'est-à-dire les non-travailleurs). Supposons que nos données produisent une estimation = 0.50, sur les 30 travailleurs examinés.

        Peut-on rejeter l'hypothèse nulle ?

        Si oui, en faveur de quoi alternative hypothèse?

        Nous spécifions une hypothèse alternative comme candidate si les preuves dictent que l'hypothèse nulle soit rejetée. Les hypothèses alternatives non directionnelles (bilatérales) indiquent que le paramètre de population est différent de la valeur indiquée dans l'hypothèse nulle ; les hypothèses alternatives directionnelles (unilatérales) indiquent que le paramètre de population est supérieur (ou inférieur) à la valeur nulle.

        Tableau 5. Distribution binomiale. Probabilités de succès pour  = 0.25 dans n = 30 essais

        X

        Probabilité

        Probabilité cumulative

        0

        0.0002

        0.0002

        1

        0.0018

        0.0020

        2

        0.0086

        0.0106

        3

        0.0269

        0.0374

        4

        0.0604

        0.0979

        5

        0.1047

        0.2026

        6

        0.1455

        0.3481

        7

        0.1662

        0.5143

        8

        0.1593

        0.6736

        9

        0.1298

        0.8034

        10

        0.0909

        0.8943

        11

        0.0551

        0.9493

        12

        0.0291

        0.9784

        13

        0.0134

        0.9918

        14

        0.0054

        0.9973

        15

        0.0019

        0.9992

        16

        0.0006

        0.9998

        17

        0.0002

        1.0000

        .

        .

        .

        30

        0.0000

        1.0000

         

        Sous l'hypothèse nulle, nous pouvons calculer la distribution de probabilité des résultats de notre exemple. Le tableau 5 montre, pour = 0.25 et n = 30, les probabilités (voir équation (1)) et les probabilités cumulées :

        A partir de ce tableau, on obtient la probabilité d'avoir x ³15 travailleurs ayant une déficience visuelle

        P(x ³15) = 1 - P(X15) = 1 - 0.9992 = 0.0008

        Cela signifie qu'il est hautement improbable que nous observions 15 travailleurs ou plus ayant une déficience visuelle s'ils connaissaient la prévalence de la maladie des populations non exposées. Par conséquent, nous pourrions rejeter l'hypothèse nulle et affirmer qu'il existe une prévalence plus élevée de déficience visuelle dans la population de travailleurs étudiée.

        Quand n×p ³ 5 et n×(1-) ³ 5, on peut utiliser l'approximation gaussienne :

        À partir du tableau de la distribution gaussienne standard, nous obtenons :

        P(|z|>2.95) = 0.0008

        en accord étroit avec les résultats exacts. De cette approximation, nous pouvons voir que la structure de base d'un test statistique d'hypothèse consiste en le rapport signal sur bruit. Dans notre cas, le signal est (p-), l'écart observé par rapport à l'hypothèse nulle, tandis que le bruit est l'écart type de P:

        Plus le rapport est grand, plus la probabilité de la valeur nulle est faible.

        En prenant des décisions sur des hypothèses statistiques, nous pouvons encourir deux types d'erreurs : une erreur de type I, le rejet de l'hypothèse nulle lorsqu'elle est vraie ; soit une erreur de type II, acceptation de l'hypothèse nulle alors qu'elle est fausse. Le niveau de probabilité, ou valeur p, est la probabilité d'une erreur de type I, désignée par la lettre grecque a. Ceci est calculé à partir de la distribution de probabilité des observations sous l'hypothèse nulle. Il est d'usage de prédéfinir un niveau d'erreur a (par exemple, 5%, 1%) et de rejeter l'hypothèse nulle lorsque le résultat de notre observation a une probabilité égale ou inférieure à ce niveau dit critique.

        La probabilité d'une erreur de type II est désignée par la lettre grecque β. Pour le calculer, il faut préciser, dans l'hypothèse alternative, la valeur α du paramètre à tester (dans notre exemple, la valeur α de ). Les hypothèses alternatives génériques (différent de, supérieur à, inférieur à) ne sont pas utiles. En pratique, la valeur β pour un ensemble d'hypothèses alternatives est intéressante, ou son complément, qui est appelé la puissance statistique du test. Par exemple, en fixant la valeur de l'erreur α à 5 %, à partir du tableau 5, nous trouvons :

        P(x ³12) <0.05

        sous l'hypothèse nulle = 0.25. Si nous devions observer au moins x = 12 succès, on rejetterait l'hypothèse nulle. Les valeurs β correspondantes et la puissance pour x = 12 sont donnés par le tableau 6. 

        Tableau 6. Erreur de type II et puissance pour x = 12, n = 30, α = 0.05

        β

        Puissance

        0.30

        0.9155

        0.0845

        0.35

        0.7802

        0.2198

        0.40

        0.5785

        0.4215

        0.45

        0.3592

        0.6408

        0.50

        0.1808

        0.8192

        0.55

        0.0714

        0.9286

         

        Dans ce cas, nos données ne peuvent pas discriminer si est supérieure à la valeur nulle de 0.25 mais inférieure à 0.50, car la puissance de l'étude est trop faible (<80%) pour ces valeurs de <0.50, c'est-à-dire que la sensibilité de notre étude est de 8 % pour = 0.3, 22 % pour = 0.35,…, 64% pour = 0.45.

        La seule façon d'obtenir un β inférieur, ou un niveau de puissance supérieur, serait d'augmenter la taille de l'étude. Par exemple, dans le tableau 7, nous rapportons β et la puissance pour n = 40 ; comme prévu, nous devrions pouvoir détecter un  valeur supérieure à 0.40. 

        Tableau 7. Erreur de type II et puissance pour x = 12, n = 40, α = 0.05

        β

        Puissance

        0.30

        0.5772

        0.4228

        0.35

        0.3143

        0.6857

        0.40

        0.1285

        0.8715

        0.45

        0.0386

        0.8614

        0.50

        0.0083

        0.9917

        0.55

        0.0012

        0.9988

         

        La conception de l'étude est basée sur un examen minutieux de l'ensemble des hypothèses alternatives qui méritent considération et garantissent la puissance de l'étude en fournissant une taille d'échantillon adéquate.

        Dans la littérature épidémiologique, la pertinence de fournir des estimations de risque fiables a été soulignée. Par conséquent, il est plus important de rapporter des intervalles de confiance (95 % ou 90 %) qu'un p-valeur d'un test d'une hypothèse. Suivant le même type de raisonnement, il convient d'être attentif à l'interprétation des résultats d'études de petite taille : du fait de la faible puissance, même des effets intermédiaires pourraient ne pas être détectés et, d'autre part, des effets de grande ampleur pourraient ne pas être répliqués par la suite.

        Méthodes avancées

        Le degré de complexité des méthodes statistiques utilisées dans le contexte de la médecine du travail s'est accru au cours des dernières années. Des développements majeurs peuvent être trouvés dans le domaine de la modélisation statistique. La famille de modèles non gaussiens de Nelder et Wedderburn (modèles linéaires généralisés) a été l'une des contributions les plus frappantes à l'augmentation des connaissances dans des domaines tels que l'épidémiologie professionnelle, où les variables de réponse pertinentes sont binaires (par exemple, survie/décès) ou comptages (par exemple, nombre d'accidents du travail).

        Ce fut le point de départ d'une application extensive des modèles de régression comme alternative aux types d'analyse plus traditionnels basés sur des tableaux de contingence (analyse simple et stratifiée). Poisson, Cox et la régression logistique sont désormais couramment utilisés pour l'analyse des études longitudinales et cas-témoins, respectivement. Ces modèles sont le pendant de la régression linéaire pour les variables de réponse catégorielles et ont la particularité élégante de fournir directement la mesure épidémiologique pertinente de l'association. Par exemple, les coefficients de la régression de Poisson sont le logarithme des rapports de taux, tandis que ceux de la régression logistique sont le log des rapports de cotes.

        En prenant cela comme référence, les développements ultérieurs dans le domaine de la modélisation statistique ont pris deux directions principales : les modèles pour les mesures catégorielles répétées et les modèles qui étendent les modèles linéaires généralisés (modèles additifs généralisés). Dans les deux cas, les objectifs sont axés sur l'augmentation de la flexibilité des outils statistiques afin de faire face à des problèmes plus complexes découlant de la réalité. Des modèles de mesures répétées sont nécessaires dans de nombreuses études professionnelles où les unités d'analyse se situent au niveau sous-individuel. Par exemple:

        1. L'étude de l'effet des conditions de travail sur le syndrome du canal carpien doit considérer les deux mains d'une personne, qui ne sont pas indépendantes l'une de l'autre.
        2. L'analyse des tendances temporelles des polluants environnementaux et de leur effet sur les systèmes respiratoires des enfants peut être évaluée à l'aide de modèles extrêmement flexibles car la forme fonctionnelle exacte de la relation dose-réponse est difficile à obtenir.

         

        Un développement parallèle et probablement plus rapide a été observé dans le contexte des statistiques bayésiennes. La barrière pratique de l'utilisation des méthodes bayésiennes s'est effondrée après l'introduction des méthodes à forte intensité de calcul. Les procédures de Monte Carlo telles que les schémas d'échantillonnage de Gibbs nous ont permis d'éviter le besoin d'intégration numérique pour calculer les distributions postérieures qui représentaient la caractéristique la plus difficile des méthodes bayésiennes. Le nombre d'applications des modèles bayésiens dans des problèmes réels et complexes a trouvé de plus en plus d'espace dans les revues appliquées. Par exemple, les analyses géographiques et les corrélations écologiques au niveau des petites zones et les modèles de prédiction du SIDA sont de plus en plus souvent abordés à l'aide d'approches bayésiennes. Ces développements sont les bienvenus parce qu'ils représentent non seulement une augmentation du nombre de solutions statistiques alternatives qui pourraient être employées dans l'analyse des données épidémiologiques, mais aussi parce que l'approche bayésienne peut être considérée comme une stratégie plus solide.

         

        Retour

        Les articles précédents de ce chapitre ont montré la nécessité d'une évaluation minutieuse de la conception de l'étude afin de tirer des conclusions crédibles à partir des observations épidémiologiques. Bien qu'il ait été affirmé que les inférences en épidémiologie observationnelle sont faibles en raison de la nature non expérimentale de la discipline, il n'y a pas de supériorité intrinsèque des essais contrôlés randomisés ou d'autres types de conception expérimentale sur l'observation bien planifiée (Cornfield 1954). Cependant, tirer des conclusions valables implique une analyse approfondie de la conception de l'étude afin d'identifier les sources potentielles de biais et de confusion. Les résultats faux positifs et faux négatifs peuvent provenir de différents types de biais.

        Dans cet article, certaines des lignes directrices qui ont été proposées pour évaluer la nature causale des observations épidémiologiques sont discutées. En outre, même si une bonne science est une prémisse pour une recherche épidémiologique éthiquement correcte, il existe d'autres questions qui sont pertinentes pour les préoccupations éthiques. Par conséquent, nous avons consacré une partie de la discussion à l'analyse des problèmes éthiques qui peuvent survenir lors de la réalisation d'études épidémiologiques.

        Évaluation de la causalité

        Plusieurs auteurs ont discuté de l'évaluation de la causalité en épidémiologie (Hill 1965 ; Buck 1975 ; Ahlbom 1984 ; Maclure 1985 ; Miettinen 1985 ; Rothman 1986 ; Weed 1986 ; Schlesselman 1987 ; Maclure 1988 ; Weed 1988 ; Karhausen 1995). L'un des principaux points de discussion est de savoir si l'épidémiologie utilise ou devrait utiliser les mêmes critères pour la détermination des relations de cause à effet que ceux utilisés dans d'autres sciences.

        Les causes ne doivent pas être confondues avec les mécanismes. Par exemple, l'amiante est une cause de mésothéliome, tandis que la mutation oncogène est un mécanisme putatif. Sur la base des preuves existantes, il est probable que (a) différentes expositions externes peuvent agir aux mêmes stades mécanistes et (b) il n'y a généralement pas de séquence fixe et nécessaire d'étapes mécanistes dans le développement de la maladie. Par exemple, la carcinogenèse est interprétée comme une séquence de transitions stochastiques (probabilistes), de la mutation génique à la prolifération cellulaire, puis à nouveau à la mutation génique, qui finit par conduire au cancer. De plus, la cancérogenèse est un processus multifactoriel, c'est-à-dire que différentes expositions externes peuvent l'affecter et qu'aucune d'entre elles n'est nécessaire chez une personne sensible. Ce modèle est susceptible de s'appliquer à plusieurs maladies en plus du cancer.

        Une telle nature multifactorielle et probabiliste de la plupart des relations exposition-maladie implique qu'il est difficile de démêler le rôle joué par une exposition spécifique. De plus, la nature observationnelle de l'épidémiologie nous empêche de mener des expériences qui pourraient clarifier les relations étiologiques par une altération volontaire du cours des événements. L'observation d'une association statistique entre l'exposition et la maladie ne signifie pas que l'association est causale. Par exemple, la plupart des épidémiologistes ont interprété l'association entre l'exposition aux gaz d'échappement diesel et le cancer de la vessie comme causale, mais d'autres ont affirmé que les travailleurs exposés aux gaz d'échappement diesel (principalement les chauffeurs de camions et de taxis) sont plus souvent des fumeurs de cigarettes que les personnes non exposées. . L'association observée, selon cette affirmation, serait donc « confondue » par un facteur de risque bien connu comme le tabagisme.

        Compte tenu de la nature probabiliste et multifactorielle de la plupart des associations exposition-maladie, les épidémiologistes ont élaboré des lignes directrices pour reconnaître les relations susceptibles d'être causales. Voici les lignes directrices initialement proposées par Sir Bradford Hill pour les maladies chroniques (1965) :

        • force de l'association
        • effet dose-réponse
        • absence d'ambiguïté temporelle
        • cohérence des résultats
        • plausibilité biologique
        • cohérence des preuves
        • spécificité de l'association.

         

        Ces critères doivent être considérés uniquement comme des lignes directrices générales ou des outils pratiques ; en fait, l'évaluation causale scientifique est un processus itératif centré sur la mesure de la relation exposition-maladie. Cependant, les critères de Hill sont souvent utilisés comme une description concise et pratique des procédures d'inférence causale en épidémiologie.

        Prenons l'exemple de la relation entre l'exposition au chlorure de vinyle et l'angiosarcome du foie, en appliquant les critères de Hill.

        L'expression usuelle des résultats d'une étude épidémiologique est une mesure du degré d'association entre exposition et maladie (premier critère de Hill). Un risque relatif (RR) supérieur à l'unité signifie qu'il existe une association statistique entre l'exposition et la maladie. Par exemple, si le taux d'incidence de l'angiosarcome du foie est généralement de 1 sur 10 millions, mais qu'il est de 1 sur 100,000 100 chez les personnes exposées au chlorure de vinyle, alors le RR est de 100 (c'est-à-dire que les personnes qui travaillent avec du chlorure de vinyle ont une augmentation de XNUMX fois risque de développer un angiosarcome par rapport aux personnes qui ne travaillent pas avec du chlorure de vinyle).

        Il est plus probable qu'une association soit causale lorsque le risque augmente avec l'augmentation des niveaux d'exposition (effet dose-réponse, deuxième critère de Hill) et lorsque la relation temporelle entre l'exposition et la maladie a un sens biologique (l'exposition précède l'effet et la durée de cette période « d'induction » est compatible avec un modèle biologique de la maladie ; troisième critère de Hill). De plus, une association est plus susceptible d'être causale lorsque des résultats similaires sont obtenus par d'autres personnes qui ont pu reproduire les résultats dans des circonstances différentes (« cohérence », quatrième critère de Hill).

        Une analyse scientifique des résultats nécessite une évaluation de la plausibilité biologique (cinquième critère de Hill). Ceci peut être réalisé de différentes manières. Par exemple, un critère simple consiste à évaluer si la « cause » alléguée est capable d'atteindre l'organe cible (par exemple, les substances inhalées qui n'atteignent pas les poumons ne peuvent pas circuler dans l'organisme). De plus, des preuves à l'appui provenant d'études animales sont utiles : l'observation d'angiosarcomes hépatiques chez des animaux traités au chlorure de vinyle renforce fortement l'association observée chez l'homme.

        La cohérence interne des observations (par exemple, le RR est augmenté de manière similaire dans les deux sexes) est un critère scientifique important (sixième critère de Hill). La causalité est plus probable lorsque la relation est très spécifique, c'est-à-dire qu'elle implique des causes rares et/ou des maladies rares, ou un type/sous-groupe histologique spécifique de patients (septième critère de Hill).

        « L'induction énumérative » (la simple énumération des cas d'association entre l'exposition et la maladie) est insuffisante pour décrire complètement les étapes inductives du raisonnement causal. Habituellement, le résultat de l'induction énumérative produit une observation complexe et encore confuse parce que différentes chaînes causales ou, plus fréquemment, une véritable relation causale et d'autres expositions non pertinentes, sont enchevêtrées. Les explications alternatives doivent être éliminées par «induction éliminatoire», montrant qu'une association est susceptible d'être causale parce qu'elle n'est pas «confondue» avec d'autres. Une définition simple d'une explication alternative est "un facteur étranger dont l'effet est mélangé à l'effet de l'exposition d'intérêt, faussant ainsi l'estimation du risque pour l'exposition d'intérêt" (Rothman 1986).

        Le rôle de l'induction est d'élargir les connaissances, alors que le rôle de la déduction est de « transmettre la vérité » (Giere 1979). Le raisonnement déductif examine la conception de l'étude et identifie les associations qui ne sont pas empiriquement vraies, mais juste logiquement vraies. De telles associations ne sont pas une question de fait, mais des nécessités logiques. Par exemple, un biais de séléction se produit lorsque le groupe exposé est sélectionné parmi des personnes malades (comme lorsque nous commençons une étude de cohorte recrutant comme « exposés » au chlorure de vinyle un groupe de cas d'angiosarcome du foie) ou lorsque le groupe non exposé est sélectionné parmi des personnes en bonne santé. Dans les deux cas, l'association trouvée entre l'exposition et la maladie est nécessairement (logiquement) mais non empiriquement vraie (Vineis 1991).

        En conclusion, même si l'on considère sa nature observationnelle (non expérimentale), l'épidémiologie n'utilise pas de procédures inférentielles qui diffèrent substantiellement de la tradition des autres disciplines scientifiques (Hume 1978 ; Schaffner 1993).

        Questions éthiques dans la recherche épidémiologique

        En raison des subtilités impliquées dans l'inférence de la causalité, les épidémiologistes doivent être particulièrement prudents dans l'interprétation de leurs études. En effet, plusieurs préoccupations d'ordre éthique en découlent.

        Les questions éthiques dans la recherche épidémiologique sont devenues un sujet de discussion intense (Schulte 1989 ; Soskolne 1993 ; Beauchamp et al. 1991). La raison en est évidente : les épidémiologistes, en particulier les épidémiologistes du travail et de l'environnement, étudient souvent des questions ayant d'importantes implications économiques, sociales et politiques de santé. Les résultats négatifs et positifs concernant l'association entre des expositions chimiques spécifiques et la maladie peuvent affecter la vie de milliers de personnes, influencer les décisions économiques et donc sérieusement conditionner les choix politiques. Ainsi, l'épidémiologiste peut être sous pression, et être tenté voire incité par d'autres à modifier, marginalement ou substantiellement, l'interprétation des résultats de ses investigations.

        Parmi les nombreuses questions pertinentes, transparence de la collecte, du codage, de l'informatisation et de l'analyse des données est essentielle en tant que défense contre les allégations de partialité de la part du chercheur. Également crucial, et potentiellement en conflit avec une telle transparence, est le droit des sujets inscrits à la recherche épidémiologique d'être protégés contre la divulgation d'informations personnelles
        (confidentialité problèmes).

        Du point de vue de l'inconduite qui peut survenir en particulier dans le contexte de l'inférence causale, les questions qui devraient être abordées par les lignes directrices en matière d'éthique sont :

        • À qui appartiennent les données et pendant combien de temps les données doivent-elles être conservées ?
        • Qu'est-ce qui constitue un dossier crédible du travail accompli ?
        • Les subventions publiques prévoient-elles dans le budget les coûts associés à une documentation adéquate, à l'archivage et à la réanalyse des données ?
        • L'investigateur principal a-t-il un rôle à jouer dans la réanalyse de ses données par un tiers ?
        • Existe-t-il des normes de pratique pour le stockage des données ?
        • Les épidémiologistes du travail et de l'environnement devraient-ils établir un climat normatif dans lequel l'examen ou l'audit des données peut être réalisé ?
        • Comment les bonnes pratiques de stockage des données servent-elles à prévenir non seulement les fautes, mais aussi les allégations de faute ?
        • Qu'est-ce qui constitue une faute en épidémiologie professionnelle et environnementale en matière de gestion des données, d'interprétation des résultats et de plaidoyer ?
        • Quel est le rôle de l'épidémiologiste et/ou des organismes professionnels dans l'élaboration de normes de pratique et d'indicateurs/résultats pour leur évaluation, et dans l'apport d'expertise dans tout rôle de plaidoyer ?
        • Quel est le rôle de l'organisme/de l'organisation professionnelle dans le traitement des préoccupations relatives à l'éthique et à la loi ? (Soskolne 1993)

         

        D'autres questions cruciales, dans le cas de l'épidémiologie professionnelle et environnementale, concernent l'implication des travailleurs dans les phases préliminaires des études, et la diffusion des résultats d'une étude aux sujets qui ont été enrôlés et sont directement concernés (Schulte 1989 ). Malheureusement, il n'est pas courant que les travailleurs inscrits à des études épidémiologiques soient impliqués dans des discussions collaboratives sur les objectifs de l'étude, son interprétation et les utilisations potentielles des résultats (ce qui peut être à la fois avantageux et préjudiciable au travailleur).

        Des réponses partielles à ces questions ont été fournies par des recommandations récentes (Beauchamp et al. 1991 ; CIOMS 1991). Cependant, dans chaque pays, les associations professionnelles d'épidémiologistes du travail devraient engager une discussion approfondie sur les questions éthiques et, éventuellement, adopter un ensemble de lignes directrices éthiques adaptées au contexte local tout en reconnaissant les normes de pratique normatives acceptées au niveau international.

         

        Retour

        La documentation des maladies professionnelles dans un pays comme Taïwan est un défi pour un médecin du travail. Faute d'un système comprenant des fiches de données de sécurité (FDS), les travailleurs n'étaient généralement pas au courant des produits chimiques avec lesquels ils travaillaient. Étant donné que de nombreuses maladies professionnelles ont de longues latences et ne présentent aucun symptôme ou signe spécifique jusqu'à ce qu'elles soient cliniquement évidentes, la reconnaissance et l'identification de l'origine professionnelle sont souvent très difficiles.

        Pour mieux contrôler les maladies professionnelles, nous avons accédé à des bases de données qui fournissent une liste relativement complète de produits chimiques industriels et un ensemble de signes et/ou symptômes spécifiques. Combiné à l'approche épidémiologique des conjectures et des réfutations (c'est-à-dire considérer et écarter toutes les explications alternatives possibles), nous avons documenté plus d'une dizaine de types de maladies professionnelles et une épidémie de botulisme. Nous recommandons qu'une approche similaire soit appliquée à tout autre pays dans une situation similaire, et qu'un système impliquant une fiche d'identification (par exemple, MSDS) pour chaque produit chimique soit préconisé et mis en œuvre comme un moyen de permettre une reconnaissance rapide et donc la prévention des accidents du travail. maladies.

        Hépatite dans une usine d'impression couleur

        Trois travailleurs d'une imprimerie couleur ont été admis dans des hôpitaux communautaires en 1985 avec des manifestations d'hépatite aiguë. L'un des trois présentait une insuffisance rénale aiguë superposée. L'hépatite virale ayant une prévalence élevée à Taïwan, il convient de considérer une origine virale parmi les étiologies les plus probables. La consommation d'alcool et de drogues, ainsi que les solvants organiques sur le lieu de travail, doivent également être inclus. Parce qu'il n'y avait pas de système de FDS à Taïwan, ni les employés ni l'employeur n'étaient au courant de tous les produits chimiques utilisés dans l'usine (Wang 1991).

        Nous avons dû compiler une liste d'agents hépatotoxiques et néphrotoxiques à partir de plusieurs bases de données toxicologiques. Ensuite, nous avons déduit toutes les inférences possibles des hypothèses ci-dessus. Par exemple, si le virus de l'hépatite A (VHA) était l'étiologie, on devrait observer des anticorps (VHA-IgM) chez les travailleurs touchés ; si le virus de l'hépatite B était l'étiologie, on devrait observer plus de porteurs d'antigènes de surface de l'hépatite B (HBsAg) parmi les travailleurs atteints que chez les travailleurs non atteints ; si l'alcool était l'étiologie principale, on devrait observer plus d'alcooliques ou d'alcooliques chroniques parmi les travailleurs concernés ; si un solvant toxique (par exemple, le chloroforme) était l'étiologie, nous devrions le trouver sur le lieu de travail.

        Nous avons effectué une évaluation médicale complète pour chaque travailleur. L'étiologie virale a été facilement réfutée, ainsi que l'hypothèse de l'alcool, car elles ne pouvaient pas être étayées par des preuves.

        Au lieu de cela, 17 des 25 travailleurs de l'usine avaient des tests anormaux de la fonction hépatique, et une association significative a été trouvée entre la présence d'une fonction hépatique anormale et des antécédents de travail récent dans l'une des trois pièces dans lesquelles un système de climatisation interconnecté avait été installé. installé pour refroidir les machines d'impression. L'association est restée après stratification selon le statut de porteur de l'hépatite B. Il a été déterminé plus tard que l'incident s'était produit à la suite de l'utilisation par inadvertance d'un «agent de nettoyage» (qui était du tétrachlorure de carbone) pour nettoyer une pompe dans la machine à imprimer. De plus, un test de simulation de l'opération de nettoyage de la pompe a révélé des niveaux de tétrachlorure de carbone dans l'air ambiant de 115 à 495 ppm, ce qui pourrait entraîner des lésions hépatiques. Dans une autre tentative de réfutation, en éliminant le tétrachlorure de carbone sur le lieu de travail, nous avons constaté qu'aucun nouveau cas ne s'est produit et que tous les travailleurs concernés se sont améliorés après avoir été retirés du lieu de travail pendant 20 jours. Par conséquent, nous avons conclu que l'éclosion était due à l'utilisation de tétrachlorure de carbone.

        Symptômes neurologiques dans une usine d'impression couleur

        En septembre 1986, un apprenti dans une usine d'impression couleur à Chang-Hwa a soudainement développé une faiblesse bilatérale aiguë et une paralysie respiratoire. Le père de la victime a allégué au téléphone qu'il y avait plusieurs autres travailleurs présentant des symptômes similaires. Étant donné que les ateliers d'impression couleur étaient autrefois documentés pour avoir des maladies professionnelles résultant d'expositions aux solvants organiques, nous nous sommes rendus sur le lieu de travail pour déterminer l'étiologie avec une hypothèse d'intoxication possible aux solvants à l'esprit (Wang 1991).

        Notre pratique courante, cependant, consistait à considérer toutes les conjectures alternatives, y compris d'autres problèmes médicaux, notamment la fonction altérée des motoneurones supérieurs, des motoneurones inférieurs, ainsi que la jonction neuromusculaire. Encore une fois, nous avons déduit des déclarations de résultats à partir des hypothèses ci-dessus. Par exemple, si un solvant signalé comme produisant une polyneuropathie (par exemple, le n-hexane, le méthylbutylcétone, l'acrylamide) en était la cause, il altérerait également la vitesse de conduction nerveuse (NCV) ; s'il s'agissait d'autres problèmes médicaux impliquant les motoneurones supérieurs, il y aurait des signes d'altération de la conscience et/ou de mouvement involontaire.

        Les observations sur le terrain ont révélé que tous les travailleurs concernés avaient une conscience claire tout au long de l'évolution clinique. Une étude NCV de trois travailleurs affectés a montré des motoneurones inférieurs intacts. Il n'y avait aucun mouvement involontaire, aucun antécédent de médication ou de morsures avant l'apparition des symptômes, et le test à la néostigmine était négatif. Une association significative entre la maladie et le petit-déjeuner pris à la cafétéria de l'usine les 26 ou 27 septembre a été trouvée ; sept des sept travailleurs touchés contre sept des 32 travailleurs non touchés ont pris le petit déjeuner à l'usine ces deux jours. Un effort de test supplémentaire a montré que la toxine botulique de type A a été détectée dans des arachides en conserve fabriquées par une société non autorisée, et son échantillon a également montré une croissance complète de Clostridium botulinum. Un dernier procès de réfutation a été le retrait de ces produits du marché commercial, qui n'a abouti à aucun nouveau cas. Cette enquête a documenté les premiers cas de botulisme provenant d'un produit alimentaire commercial à Taïwan.

        Lésions cutanées précancéreuses chez les fabricants de paraquat

        En juin 1983, deux travailleurs d'une usine de fabrication de paraquat se sont rendus dans une clinique de dermatologie pour se plaindre de nombreuses macules hyperpigmentées bilatérales avec des modifications hyperkératosiques sur les parties des mains, du cou et du visage exposées au soleil. Certains spécimens de peau ont également montré des changements Bowenoid. Étant donné que des lésions cutanées malignes et précancéreuses ont été signalées chez les travailleurs de la fabrication de bipyridyle, une cause professionnelle a été fortement suspectée. Cependant, nous avons également dû considérer d'autres causes (ou hypothèses) alternatives de cancer de la peau telles que l'exposition aux rayonnements ionisants, au goudron de houille, au brai, à la suie ou à tout autre hydrocarbure polyaromatique (HAP). Pour écarter toutes ces conjectures, nous avons mené une étude en 1985, visitant toutes les 28 usines qui se sont jamais engagées dans la fabrication ou l'emballage de paraquat et examinant les processus de fabrication ainsi que les travailleurs (Wang et al. 1987; Wang 1993).

        Nous avons examiné 228 travailleurs et aucun d'entre eux n'avait jamais été exposé aux carcinogènes cutanés susmentionnés, à l'exception de la lumière du soleil et de la 4'-4'-bipyridine et de ses isomères. Après avoir exclu les travailleurs ayant subi des expositions multiples, nous avons constaté qu'un administrateur sur sept et deux sur 82 travailleurs du conditionnement du paraquat ont développé des lésions cutanées hyperpigmentées, contre trois travailleurs sur trois impliqués uniquement dans la cristallisation et la centrifugation de la bipyridine. De plus, les 17 travailleurs atteints d'hyperkératose ou de lésions de Bowen avaient des antécédents d'exposition directe au bipyridyle et à ses isomères. Plus l'exposition aux bipyridyles est longue, plus le développement de lésions cutanées est probable, et cette tendance ne peut être expliquée par la lumière du soleil ou l'âge, comme le démontrent la stratification et l'analyse de régression logistique. Par conséquent, la lésion cutanée a été provisoirement attribuée à une combinaison d'expositions au bipyridyle et à la lumière du soleil. Nous avons fait d'autres tentatives de réfutation pour suivre si un nouveau cas se produisait après avoir inclus tous les processus impliquant une exposition aux bipyridyles. Aucun nouveau cas n'a été découvert.

        Discussion et conclusions

        Les trois exemples ci-dessus ont illustré l'importance d'adopter une approche réfutationnelle et une base de données des maladies professionnelles. La première nous fait toujours considérer des hypothèses alternatives de la même manière que l'hypothèse intuitionnelle initiale, tandis que la seconde fournit une liste détaillée d'agents chimiques qui peuvent nous guider vers la véritable étiologie. Une limitation possible de cette approche est que nous ne pouvons considérer que les explications alternatives que nous pouvons imaginer. Si notre liste d'alternatives est incomplète, il se peut que nous nous retrouvions sans réponse ou avec une mauvaise réponse. Par conséquent, une base de données complète sur les maladies professionnelles est cruciale pour le succès de cette stratégie.

        Nous avions l'habitude de construire notre propre base de données de manière laborieuse. Cependant, les bases de données OSH-ROM récemment publiées, qui contiennent la base de données NIOSHTIC de plus de 160,000 XNUMX résumés, peuvent être l'une des plus complètes à cette fin, comme indiqué ailleurs dans le Encyclopédie. De plus, si une nouvelle maladie professionnelle survenait, nous pourrions rechercher une telle base de données et exclure tous les agents étiologiques connus, et n'en laisser aucun non réfuté. Dans une telle situation, nous pouvons essayer d'identifier ou de définir le nouvel agent (ou cadre professionnel) aussi précisément que possible afin que le problème puisse d'abord être atténué, puis tester d'autres hypothèses. Le cas des lésions cutanées précancéreuses chez les fabricants de paraquat en est un bon exemple.

         

        Retour

        Rôle des questionnaires dans la recherche épidémiologique

        La recherche épidémiologique est généralement menée afin de répondre à une question de recherche spécifique qui concerne les expositions des individus à des substances dangereuses ou à des situations ayant des effets ultérieurs sur la santé, comme le cancer ou la mort. Au cœur de presque toutes ces enquêtes se trouve un questionnaire qui constitue l'outil de collecte de données de base. Même lorsque des mesures physiques doivent être effectuées dans un environnement de travail, et en particulier lorsque des matériaux biologiques tels que le sérum doivent être prélevés sur des sujets d'étude exposés ou non exposés, un questionnaire est essentiel afin de développer une image adéquate de l'exposition en recueillant systématiquement des données personnelles et autres caractéristiques de manière organisée et uniforme.

        Le questionnaire remplit un certain nombre de fonctions de recherche essentielles :

        • Il fournit des données sur les individus qui peuvent ne pas être disponibles à partir d'une autre source, y compris les dossiers du lieu de travail ou les mesures environnementales.
        • Il permet des études ciblées sur des problèmes spécifiques en milieu de travail.
        • Il fournit des informations de base par rapport auxquelles les effets futurs sur la santé peuvent être évalués.
        • Il fournit des informations sur les caractéristiques des participants qui sont nécessaires pour une analyse et une interprétation correctes des relations exposition-résultat, en particulier des variables éventuellement confondantes comme l'âge et l'éducation, et d'autres variables de style de vie qui peuvent affecter le risque de maladie, comme le tabagisme et l'alimentation.

         

        Place de la conception du questionnaire dans les objectifs généraux de l'étude

        Alors que le questionnaire est souvent la partie la plus visible d'une étude épidémiologique, en particulier pour les travailleurs ou les autres participants à l'étude, il n'est qu'un outil et est souvent appelé « instrument » par les chercheurs. La figure 1 décrit de manière très générale les étapes de la conception de l'enquête, de la conception à la collecte et à l'analyse des données. La figure montre quatre niveaux ou niveaux d'opération d'étude qui se déroulent en parallèle tout au long de la vie de l'étude : échantillonnage, questionnaire, opérations et analyse. La figure montre assez clairement la manière dont les étapes de l'élaboration du questionnaire sont liées au plan d'étude global, allant d'une ébauche initiale à une première ébauche du questionnaire et de ses codes associés, suivie d'un prétest au sein d'une sous-population sélectionnée, d'un ou plusieurs révisions dictées par les expériences de pré-test, et préparation du document final pour la collecte effective des données sur le terrain. Ce qui est le plus important, c'est le contexte : chaque étape de l'élaboration du questionnaire est réalisée en conjonction avec une étape correspondante de création et de raffinement du plan d'échantillonnage global, ainsi que la conception opérationnelle pour l'administration du questionnaire.

        Figure 1. Les étapes d'une enquête

        EPI110F1

        Types d'études et de questionnaires

        Les objectifs de recherche de l'étude elle-même déterminent la structure, la longueur et le contenu du questionnaire. Ces attributs du questionnaire sont invariablement tempérés par la méthode de collecte des données, qui relève généralement de l'un des trois modes suivants : en personne, par la poste et par téléphone. Chacun d'entre eux a ses avantages et ses inconvénients qui peuvent affecter non seulement la qualité des données mais aussi la validité de l'étude globale.

        A questionnaire envoyé par la poste est le format le moins coûteux et peut couvrir les travailleurs d'une vaste zone géographique. Cependant, dans la mesure où les taux de réponse globaux sont souvent faibles (généralement de 45 à 75 %), cela ne peut pas être trop complexe car il y a peu ou pas de possibilité de clarifier les questions, et il peut être difficile de déterminer si les réponses potentielles à une exposition critique ou à d'autres les questions diffèrent systématiquement entre les répondants et les non-répondants. L'agencement physique et la langue doivent s'adapter aux participants potentiels à l'étude les moins instruits et doivent pouvoir être achevés dans un laps de temps assez court, généralement de 20 à 30 minutes.

        Questionnaires téléphoniques peuvent être utilisées dans des études basées sur la population, c'est-à-dire des enquêtes dans lesquelles un échantillon d'une population géographiquement définie est sondé, et constituent une méthode pratique pour mettre à jour les informations dans les fichiers de données existants. Ils peuvent être plus longs et plus complexes que les questionnaires envoyés par courrier en termes de langue et de contenu, et comme ils sont administrés par des enquêteurs formés, le coût plus élevé d'une enquête téléphonique peut être partiellement compensé en structurant physiquement le questionnaire pour une administration efficace (par exemple par des modèles de saut). Les taux de réponse sont généralement meilleurs qu'avec les questionnaires postés, mais sont sujets à des biais liés à l'utilisation croissante des répondeurs téléphoniques, aux refus, aux non-contacts et aux problèmes des populations peu desservies par le téléphone. Ces biais sont généralement liés au plan d'échantillonnage lui-même et pas spécialement au questionnaire. Bien que les questionnaires téléphoniques soient utilisés depuis longtemps en Amérique du Nord, leur faisabilité dans d'autres parties du monde n'a pas encore été établie.

        Face à face les entretiens offrent la meilleure opportunité de collecter des données complexes et précises ; ils sont aussi les plus coûteux à administrer, car ils nécessitent à la fois une formation et des déplacements pour le personnel professionnel. La disposition physique et l'ordre des questions peuvent être aménagés pour optimiser le temps d'administration. Les études qui utilisent des entretiens en personne ont généralement les taux de réponse les plus élevés et sont sujettes au moins de biais de réponse. C'est aussi le type d'entretien dans lequel l'enquêteur est le plus susceptible de savoir si le participant est un cas ou non (dans une étude cas-témoin) ou le statut d'exposition du participant (dans une étude de cohorte). Il faut donc veiller à préserver l'objectivité de l'intervieweur en l'entraînant à éviter les questions suggestives et le langage corporel qui pourraient susciter des réponses biaisées.

        Il est de plus en plus courant d'utiliser un conception d'étude hybride dans laquelle des situations d'exposition complexes sont évaluées lors d'un entretien personnel ou téléphonique qui permet un maximum d'approfondissement et de clarification, suivi d'un questionnaire envoyé par courrier pour saisir des données sur le mode de vie comme le tabagisme et l'alimentation.

        Confidentialité et problèmes des participants à la recherche

        Étant donné que le but d'un questionnaire est d'obtenir des données sur des individus, la conception du questionnaire doit être guidée par des normes établies pour le traitement éthique des sujets humains. Ces lignes directrices s'appliquent à l'acquisition des données du questionnaire tout comme elles s'appliquent aux échantillons biologiques tels que le sang et l'urine, ou aux tests génétiques. Aux États-Unis et dans de nombreux autres pays, aucune étude impliquant des êtres humains ne peut être menée avec des fonds publics à moins que l'approbation de la langue et du contenu du questionnaire ne soit d'abord obtenue auprès d'un comité d'examen institutionnel approprié. Cette approbation vise à garantir que les questions sont limitées à des fins d'étude légitimes et qu'elles ne violent pas les droits des participants à l'étude de répondre volontairement aux questions. Les participants doivent être assurés que leur participation à l'étude est entièrement volontaire et que le refus de répondre aux questions ou même de participer ne les exposera à aucune sanction ni n'altérera leur relation avec leur employeur ou leur médecin.

        Les participants doivent également être assurés que les informations qu'ils fournissent seront traitées de manière strictement confidentielle par l'enquêteur, qui doit bien entendu prendre des mesures pour maintenir la sécurité physique et l'inviolabilité des données. Cela implique souvent une séparation physique des informations concernant l'identité des participants des fichiers de données informatisés. Il est courant d'informer les participants à l'étude que leurs réponses aux questions du questionnaire ne seront utilisées qu'en agrégation avec les réponses d'autres participants dans les rapports statistiques et ne seront pas divulguées à l'employeur, au médecin ou à d'autres parties.

        Aspects de mesure de la conception du questionnaire

        L'une des fonctions les plus importantes d'un questionnaire est d'obtenir des données sur un aspect ou un attribut d'une personne sous forme qualitative ou quantitative. Certains éléments peuvent être aussi simples que le poids, la taille ou l'âge, tandis que d'autres peuvent être considérablement plus compliqués, comme la réponse d'un individu au stress. Les réponses qualitatives, comme le sexe, seront habituellement converties en variables numériques. Toutes ces mesures peuvent être caractérisées par leur validité et leur fiabilité. La validité est le degré auquel un nombre dérivé du questionnaire s'approche de sa valeur réelle, mais peut-être inconnue. La fiabilité mesure la probabilité qu'une mesure donnée produise le même résultat à répétition, que ce résultat soit proche de la « vérité » ou non. La figure 2 montre comment ces concepts sont liés. Il démontre qu'une mesure peut être valide mais non fiable, fiable mais non valide, ou à la fois valide et fiable.

        Figure 2. Relation validité et fiabilité

        EPI110F2

        Au fil des ans, de nombreux questionnaires ont été élaborés par des chercheurs afin de répondre à des questions de recherche d'intérêt général. Les exemples incluent le Scholastic Aptitude Test, qui mesure le potentiel d'un élève pour la réussite scolaire future, et le Minnesota Multiphasic Personality Inventory (MMPI), qui mesure certaines caractéristiques psychosociales. Une variété d'autres indicateurs psychologiques sont discutés dans le chapitre sur la psychométrie. Il existe également des échelles physiologiques établies, telles que le questionnaire du British Medical Research Council (BMRC) pour la fonction pulmonaire. Ces instruments présentent un certain nombre d'avantages importants. Parmi ceux-ci, le plus important est le fait qu'ils ont déjà été développés et testés, généralement dans de nombreuses populations, et que leur fiabilité et leur validité sont connues. Toute personne construisant un questionnaire est bien avisée d'utiliser de telles échelles si elles correspondent à l'objectif de l'étude. Non seulement ils épargnent l'effort de « réinventer la roue », mais ils augmentent la probabilité que les résultats de l'étude soient acceptés comme valides par la communauté des chercheurs. Cela permet également des comparaisons plus valables des résultats de différentes études à condition qu'ils aient été correctement utilisés.

        Les échelles précédentes sont des exemples de deux types importants de mesures qui sont couramment utilisées dans les questionnaires pour quantifier des concepts qui peuvent ne pas être entièrement mesurables objectivement comme le sont la taille et le poids, ou qui nécessitent de nombreuses questions similaires pour « exploiter pleinement le domaine » de un modèle de comportement spécifique. Plus généralement, les indices et les échelles sont deux techniques de réduction de données qui fournissent un résumé numérique de groupes de questions. Les exemples ci-dessus illustrent des indices physiologiques et psychologiques, et ils sont également fréquemment utilisés pour mesurer les connaissances, l'attitude et le comportement. Bref, un indice est généralement construit comme un score obtenu en comptant, parmi un groupe de questions connexes, le nombre d'items qui s'appliquent à un participant à l'étude. Par exemple, si un questionnaire présente une liste de maladies, un indice d'antécédents de maladies pourrait être le nombre total de celles qu'un répondant déclare avoir eues. UNE escaliers est une mesure composite basée sur l'intensité avec laquelle un participant répond à une ou plusieurs questions connexes. Par exemple, l'échelle de Likert, qui est fréquemment utilisée dans la recherche sociale, est généralement construite à partir d'énoncés avec lesquels on peut être fortement d'accord, faiblement d'accord, n'exprimer aucune opinion, être légèrement en désaccord ou fortement en désaccord, la réponse étant notée comme un nombre de 1 à 5. Les échelles et les indices peuvent être additionnés ou autrement combinés pour former une image assez complexe des caractéristiques physiques, psychologiques, sociales ou comportementales des participants à l'étude.

        La validité mérite une attention particulière en raison de son reflet de la « vérité ». Trois types importants de validité souvent discutés sont la validité apparente, de contenu et de critère. Validité faciale est une qualité subjective d'un indicateur qui assure que la formulation d'une question est claire et sans ambiguïté. Validité du contenu assure que les questions serviront à exploiter cette dimension de réponse qui intéresse le chercheur. Critère (ou prédictif) validité est dérivée d'une évaluation objective de la proximité d'une mesure par questionnaire avec une quantité mesurable séparément, comme par exemple dans quelle mesure une évaluation par questionnaire de l'apport alimentaire en vitamine A correspond à la consommation réelle de vitamine A, sur la base de la consommation alimentaire documentée par les registres alimentaires.

        Contenu, qualité et longueur du questionnaire

        Wording. La formulation des questions est à la fois un art et une compétence professionnelle. Par conséquent, seules les lignes directrices les plus générales peuvent être présentées. Il est généralement admis qu'il faut concevoir des questions qui :

        1. motiver le participant à répondre
        2. faire appel aux connaissances personnelles du participant
        3. tenir compte de ses limites et de son cadre de référence personnel, afin que le but et le sens des questions soient facilement compris et
        4. suscitent une réponse basée sur les propres connaissances du participant et ne nécessitent pas de devinettes, sauf peut-être pour les questions d'attitude et d'opinion.

         

        Séquence et structure des questions. L'ordre et la présentation des questions peuvent affecter la qualité des informations recueillies. Un questionnaire typique, qu'il soit auto-administré ou lu par un enquêteur, contient un prologue qui présente l'étude et son sujet au répondant, fournit toute information supplémentaire dont il aura besoin et tente de motiver le répondant à répondre aux questions. La plupart des questionnaires contiennent une section conçue pour recueillir des informations démographiques, telles que l'âge, le sexe, l'origine ethnique et d'autres variables sur l'origine du participant, y compris éventuellement des variables confusionnelles. Le sujet principal de la collecte de données, comme la nature du lieu de travail et l'exposition à des substances spécifiques, est généralement une section distincte du questionnaire, et est souvent précédé d'un prologue introductif qui pourrait d'abord rappeler au participant des aspects spécifiques du travail. ou le lieu de travail afin de créer un contexte pour des questions détaillées. La disposition des questions qui visent à établir des chronologies de vie au travail devrait être organisée de manière à minimiser le risque d'omissions chronologiques. Enfin, il est d'usage de remercier le répondant pour sa participation.

        Types de questions. Le concepteur doit décider d'utiliser des questions ouvertes dans lesquelles les participants composent leurs propres réponses, ou des questions fermées qui nécessitent une réponse précise ou un choix parmi un petit menu de réponses possibles. Les questions fermées ont l'avantage de clarifier les alternatives pour le répondant, d'éviter les réponses brusques et de minimiser les longues divagations qui peuvent être impossibles à interpréter. Cependant, ils exigent que le concepteur anticipe l'éventail des réponses possibles afin d'éviter de perdre des informations, en particulier pour les situations inattendues qui surviennent dans de nombreux lieux de travail. Cela nécessite à son tour des essais pilotes bien planifiés. L'enquêteur doit décider si et dans quelle mesure il autorise une catégorie de réponse « ne sait pas ».

        Longueur. Déterminer la longueur finale d'un questionnaire nécessite de trouver un équilibre entre le désir d'obtenir autant d'informations détaillées que possible pour atteindre les objectifs de l'étude et le fait que si un questionnaire est trop long, à un moment donné, de nombreux répondants perdront tout intérêt et cesseront de répondre ou répondre à la hâte, de manière inexacte et sans réfléchir afin de mettre fin à la session. En revanche, un questionnaire très court peut obtenir un taux de réponse élevé mais ne pas atteindre les objectifs de l'étude. Étant donné que la motivation des répondants dépend souvent de leur intérêt personnel dans le résultat, comme l'amélioration des conditions de travail, la tolérance à un long questionnaire peut varier considérablement, en particulier lorsque certains participants (comme les travailleurs d'une usine particulière) peuvent percevoir leur intérêt comme étant plus élevé que autres (telles que les personnes contactées par numérotation téléphonique aléatoire). Cet équilibre ne peut être atteint que grâce à des essais pilotes et à l'expérience. Les questionnaires administrés par l'enquêteur doivent enregistrer l'heure de début et de fin pour permettre le calcul de la durée de l'entretien. Ces informations sont utiles pour évaluer le niveau de qualité des données.

        La langue. Il est essentiel d'utiliser le langage de la population pour faire comprendre les questions à tous. Cela peut nécessiter de se familiariser avec la langue vernaculaire locale qui peut varier dans un même pays. Même dans les pays où la même langue est théoriquement parlée, comme la Grande-Bretagne et les États-Unis, ou les pays hispanophones d'Amérique latine, les idiomes et l'usage locaux peuvent varier d'une manière qui peut obscurcir l'interprétation. Par exemple, aux États-Unis, le «thé» n'est qu'une boisson, alors qu'en Grande-Bretagne, il peut signifier «une théière», «un thé» ou «le principal repas du soir», selon le lieu et le contexte. Il est particulièrement important d'éviter le jargon scientifique, sauf lorsque l'on peut s'attendre à ce que les participants à l'étude possèdent des connaissances techniques spécifiques.

        Clarté et questions orientées. S'il arrive souvent que des questions plus courtes soient plus claires, il existe des exceptions, en particulier lorsqu'un sujet complexe doit être introduit. Néanmoins, des questions courtes clarifient la pensée et réduisent les mots inutiles. Ils réduisent également le risque de surcharger le répondant avec trop d'informations à digérer. Si l'objectif de l'étude est d'obtenir des informations objectives sur la situation de travail du participant, il est important de formuler les questions de manière neutre et d'éviter les questions « suggestives » susceptibles de favoriser une réponse particulière, telles que « Êtes-vous d'accord que votre lieu de travail les conditions sont nocives pour votre santé ? »

        Mise en page du questionnaire. La disposition physique d'un questionnaire peut affecter le coût et l'efficacité d'une étude. Elle est plus importante pour les questionnaires auto-administrés que pour ceux qui sont réalisés par les enquêteurs. Un questionnaire qui est conçu pour être rempli par le répondant mais qui est trop complexe ou difficile à lire peut être rempli avec désinvolture ou même jeté. Même les questionnaires conçus pour être lus à haute voix par des enquêteurs formés doivent être imprimés en caractères clairs et lisibles, et les schémas de saut de questions doivent être indiqués de manière à maintenir un flux constant de questions et à minimiser le nombre de pages à tourner et la recherche de la prochaine question applicable. question.

        Problèmes de validité

        Préjugé

        L'ennemi de la collecte de données objectives est le biais, qui résulte de différences systématiques mais non planifiées entre des groupes de personnes : cas et témoins dans une étude cas-témoins ou exposés et non exposés dans une étude de cohorte. Biais informationnel peut être introduit lorsque deux groupes de participants comprennent ou répondent différemment à la même question. Cela peut se produire, par exemple, si les questions sont posées de manière à exiger une connaissance technique particulière d'un lieu de travail ou de ses expositions qui serait comprise par les travailleurs exposés mais pas nécessairement par le grand public à partir duquel les contrôles sont effectués.

        L'utilisation de substituts pour les travailleurs malades ou décédés peut être biaisée, car les proches sont susceptibles de se souvenir des informations de différentes manières et avec moins de précision que le travailleur lui-même. L'introduction d'un tel biais est particulièrement probable dans les études dans lesquelles certains entretiens sont menés directement avec les participants à l'étude tandis que d'autres entretiens sont menés avec des parents ou des collègues d'autres participants à la recherche. Dans l'une ou l'autre situation, il faut veiller à réduire tout effet pouvant découler de la connaissance par l'intervieweur de la maladie ou de l'état d'exposition du travailleur concerné. Puisqu'il n'est pas toujours possible de garder les enquêteurs "aveugles", il est important de mettre l'accent sur l'objectivité et d'éviter les questions suggestives ou suggestives ou le langage corporel inconscient pendant la formation, et de surveiller les performances pendant la réalisation de l'étude.

        Biais de rappel résultats lorsque les cas et les témoins « se souviennent » différemment des expositions ou des situations de travail. Les cas hospitalisés avec une maladie potentiellement liée au travail peuvent être plus capables de se souvenir des détails de leurs antécédents médicaux ou de leurs expositions professionnelles que les personnes contactées au hasard par téléphone. Un type de ce biais qui devient de plus en plus courant a été étiqueté biais de désirabilité sociale. Il décrit la tendance de nombreuses personnes à sous-estimer, consciemment ou non, leur indulgence dans les « mauvaises habitudes » telles que le tabagisme ou la consommation d'aliments riches en graisses et en cholestérol, et à exagérer les « bonnes habitudes » comme l'exercice.

        Biais de réponse désigne une situation dans laquelle un groupe de participants à l'étude, tels que les travailleurs exposés à une exposition professionnelle particulière, peut être plus susceptible de remplir des questionnaires ou de participer autrement à une étude que les personnes non exposées. Une telle situation peut entraîner une estimation biaisée de l'association entre l'exposition et la maladie. Un biais de réponse peut être suspecté si les taux de réponse ou le temps nécessaire pour remplir un questionnaire ou un entretien diffèrent considérablement entre les groupes (par exemple, cas vs témoins, exposés vs non exposés). Le biais de réponse diffère généralement selon le mode d'administration du questionnaire. Les questionnaires envoyés par la poste sont généralement plus susceptibles d'être retournés par des personnes qui voient un intérêt personnel dans les résultats de l'étude, et sont plus susceptibles d'être ignorés ou rejetés par des personnes choisies au hasard dans la population générale. De nombreux enquêteurs qui utilisent les enquêtes par courrier intègrent également un mécanisme de suivi qui peut inclure des deuxième et troisième envois ainsi que des contacts téléphoniques ultérieurs avec les non-répondants afin de maximiser les taux de réponse.

        Les études qui utilisent des enquêtes téléphoniques, y compris celles qui utilisent la composition aléatoire des chiffres pour identifier les témoins, ont généralement un ensemble de règles ou un protocole définissant le nombre de tentatives pour contacter les répondants potentiels, y compris l'heure de la journée, et si le soir ou les appels du week-end doivent être tentés. Ceux qui mènent des études en milieu hospitalier enregistrent généralement le nombre de patients qui refusent de participer et les raisons de leur non-participation. Dans tous ces cas, diverses mesures de taux de réponse sont enregistrés afin de fournir une évaluation de la mesure dans laquelle la population cible a effectivement été atteinte.

        Biais de séléction résultats lorsqu'un groupe de participants répond préférentiellement ou participe autrement à une étude, et peut entraîner une estimation biaisée de la relation entre l'exposition et la maladie. Afin d'évaluer le biais de sélection et s'il conduit à une sous-estimation ou à une surestimation de l'exposition, des informations démographiques telles que le niveau d'éducation peuvent être utilisées pour comparer les répondants aux non-répondants. Par exemple, si les participants peu instruits ont des taux de réponse inférieurs à ceux des participants plus instruits, et si une profession particulière ou une habitude de fumer est connue pour être plus fréquente dans les groupes moins instruits, alors biais de sélection avec sous-estimation de l'exposition pour cette profession ou catégorie de tabagisme est susceptible d'avoir eu lieu.

        La confusion est un type important de biais de sélection qui se produit lorsque la sélection des répondants (cas et témoins dans une étude cas-témoins, ou exposés et non exposés dans une étude de cohorte) dépend d'une certaine manière d'une troisième variable, parfois d'une manière inconnue du enquêteur. S'il n'est pas identifié et contrôlé, il peut conduire de manière imprévisible à des sous-estimations ou des surestimations des risques de maladie associés aux expositions professionnelles. La confusion est généralement traitée soit en manipulant la conception de l'étude elle-même (par exemple, en appariant des cas à des témoins sur l'âge et d'autres variables) ou à l'étape de l'analyse. Les détails de ces techniques sont présentés dans d'autres articles de ce chapitre.

        Documentation

        Dans toute étude de recherche, toutes les procédures d'étude doivent être soigneusement documentées afin que tout le personnel, y compris les enquêteurs, le personnel de supervision et les chercheurs, connaisse bien ses tâches respectives. Dans la plupart des études basées sur des questionnaires, un manuel de codage est préparé et décrit question par question tout ce que l'intervieweur doit savoir au-delà de la formulation littérale des questions. Cela inclut des instructions pour coder les réponses catégorielles et peut contenir des instructions explicites sur l'approfondissement, énumérant les questions pour lesquelles cela est autorisé et celles pour lesquelles cela ne l'est pas. Dans de nombreuses études, de nouveaux choix de réponse imprévus à certaines questions sont parfois rencontrés sur le terrain ; ceux-ci doivent être consignés dans le livre de codes principal et des copies des ajouts, modifications ou nouvelles instructions doivent être distribuées à tous les enquêteurs en temps opportun.

        Planification, test et révision

        Comme le montre la figure 1, l'élaboration du questionnaire nécessite beaucoup de réflexion et la planification de votre patrimoine. Chaque questionnaire doit être testé en plusieurs étapes afin de s'assurer que les questions « fonctionnent », c'est-à-dire qu'elles sont compréhensibles et produisent des réponses de la qualité voulue. Il est utile de tester de nouvelles questions sur des volontaires, puis de les interroger longuement pour déterminer dans quelle mesure des questions spécifiques ont été comprises et quels types de problèmes ou d'ambiguïtés ont été rencontrés. Les résultats peuvent ensuite être utilisés pour réviser le questionnaire, et la procédure peut être répétée si nécessaire. Les bénévoles sont parfois appelés « groupes de discussion ».

        Toutes les études épidémiologiques nécessitent Test de pilotage, non seulement pour les questionnaires, mais aussi pour les procédures d'étude. Un questionnaire bien conçu n'atteint son but que s'il peut être livré efficacement aux participants à l'étude, et cela ne peut être déterminé qu'en testant les procédures sur le terrain et en faisant des ajustements si nécessaire.

        Formation et supervision des enquêteurs

        Dans les études menées par téléphone ou par entretien en face-à-face, l'intervieweur joue un rôle essentiel. Cette personne est chargée non seulement de poser des questions aux participants à l'étude et d'enregistrer leurs réponses, mais également d'interpréter ces réponses. Même avec l'étude d'entretien la plus rigidement structurée, les répondants demandent parfois des éclaircissements sur des questions ou offrent des réponses qui ne correspondent pas aux catégories de réponses disponibles. Dans de tels cas, le travail de l'intervieweur consiste à interpréter la question ou la réponse d'une manière conforme à l'intention du chercheur. Pour le faire de manière efficace et cohérente, il faut une formation et une supervision par un chercheur ou un gestionnaire expérimenté. Lorsque plusieurs enquêteurs sont employés pour une étude, la formation des enquêteurs est particulièrement importante pour s'assurer que les questions sont présentées et les réponses interprétées de manière uniforme. Dans de nombreux projets de recherche, cela se fait dans le cadre d'une formation de groupe et est répété périodiquement (par exemple, chaque année) afin de maintenir à jour les compétences des enquêteurs. Les séminaires de formation couvrent généralement les sujets suivants de manière très détaillée :

        • introduction générale à l'étude
        • consentement éclairé et problèmes de confidentialité
        • comment introduire l'entretien et comment interagir avec les répondants
        • le sens voulu de chaque question
        • des instructions pour approfondir, c'est-à-dire offrir au répondant une occasion supplémentaire de clarifier ou d'embellir les réponses
        • discussion des problèmes typiques qui surgissent lors des entretiens.

         

        La supervision de l'étude implique souvent une observation sur place, qui peut inclure l'enregistrement sur bande des entretiens pour une dissection ultérieure. Il est courant que le superviseur examine personnellement chaque questionnaire avant de l'approuver et de le soumettre à la saisie des données. Le superviseur établit et applique également des normes de performance pour les enquêteurs et, dans certaines études, mène des réinterviews indépendantes avec des participants sélectionnés à titre de vérification de la fiabilité.

        Collecte de données

        La distribution proprement dite des questionnaires aux participants à l'étude et la collecte subséquente pour analyse s'effectuent selon l'un des trois modes décrits ci-dessus : par courrier, par téléphone ou en personne. Certains chercheurs organisent et même assurent eux-mêmes cette fonction au sein de leurs propres institutions. Bien qu'il y ait un intérêt considérable à ce qu'un enquêteur principal se familiarise avec la dynamique de l'entretien de première main, il est plus rentable et propice au maintien d'une qualité élevée des données pour les enquêteurs professionnels formés et bien supervisés d'être inclus dans l'équipe de recherche. .

        Certains chercheurs concluent des ententes contractuelles avec des entreprises spécialisées dans la recherche par sondage. Les contractants peuvent fournir une gamme de services pouvant inclure une ou plusieurs des tâches suivantes : distribution et collecte de questionnaires, réalisation d'entretiens téléphoniques ou en face à face, obtention d'échantillons biologiques tels que sang ou urine, gestion des données, analyse statistique et la rédaction de rapports. Quel que soit le niveau de soutien, les sous-traitants sont généralement chargés de fournir des informations sur les taux de réponse et la qualité des données. Néanmoins, c'est le chercheur qui porte la responsabilité finale de l'intégrité scientifique de l'étude.

        Fiabilité et ré-interviews

        La qualité des données peut être évaluée en réinterrogeant un échantillon des participants à l'étude initiale. Cela fournit un moyen de déterminer la fiabilité des entretiens initiaux et une estimation de la répétabilité des réponses. L'ensemble du questionnaire n'a pas besoin d'être ré-administré ; un sous-ensemble de questions suffit généralement. Des tests statistiques sont disponibles pour évaluer la fiabilité d'un ensemble de questions posées au même participant à différents moments, ainsi que pour évaluer la fiabilité des réponses fournies par différents participants et même pour celles interrogées par différents enquêteurs (c. -évaluations des évaluateurs).

        Technologie de traitement des questionnaires

        Les progrès de la technologie informatique ont créé de nombreuses façons différentes de saisir les données des questionnaires et de les mettre à la disposition du chercheur pour analyse informatique. Il existe trois manières fondamentalement différentes d'informatiser les données : en temps réel (c'est-à-dire au fur et à mesure que le participant répond pendant une entrevue), par les méthodes traditionnelles d'entrée au clavier et par les méthodes de saisie optique des données.

        Saisie de données assistée par ordinateur

        De nombreux chercheurs utilisent désormais des ordinateurs pour collecter les réponses aux questions posées lors des entretiens en face à face et par téléphone. Les chercheurs sur le terrain trouvent pratique d'utiliser des ordinateurs portables qui ont été programmés pour afficher les questions séquentiellement et qui permettent à l'intervieweur d'entrer la réponse immédiatement. Les entreprises de recherche par sondage qui effectuent des interviews téléphoniques ont développé des systèmes analogues appelés systèmes d'interview téléphonique assistée par ordinateur (CATI). Ces méthodes présentent deux avantages importants par rapport aux questionnaires papier plus traditionnels. Premièrement, les réponses peuvent être instantanément vérifiées par rapport à une gamme de réponses autorisées et pour la cohérence avec les réponses précédentes, et les divergences peuvent être immédiatement portées à l'attention de l'intervieweur et du répondant. Cela réduit considérablement le taux d'erreur. Deuxièmement, des modèles de saut peuvent être programmés pour minimiser le temps d'administration.

        La méthode la plus courante d'informatisation des données reste la méthode traditionnelle entrée de clé par un opérateur qualifié. Pour les très grandes études, les questionnaires sont généralement envoyés à une entreprise sous contrat professionnelle spécialisée dans la saisie de données. Ces entreprises utilisent souvent un équipement spécialisé qui permet à un opérateur de saisir un questionnaire (une procédure parfois appelée frappe au clavier pour des raisons historiques) et un deuxième opérateur pour ressaisir les mêmes données, un processus appelé vérification des clés. Les résultats de la seconde saisie sont comparés à la première pour s'assurer que les données ont été saisies correctement. Des procédures d'assurance qualité peuvent être programmées pour garantir que chaque réponse se situe dans une plage autorisée et qu'elle est cohérente avec les autres réponses. Les fichiers de données qui en résultent peuvent être transmis au chercheur sur disque, bande ou électroniquement par téléphone ou autre réseau informatique.

        Pour les petites études, il existe de nombreux programmes commerciaux basés sur PC qui ont des fonctionnalités de saisie de données qui émulent celles de systèmes plus spécialisés. Ceux-ci incluent des programmes de base de données tels que dBase, Foxpro et Microsoft Access, ainsi que des tableurs tels que Microsoft Excel et Lotus 1-2-3. De plus, des fonctionnalités de saisie de données sont incluses dans de nombreux progiciels informatiques dont le but principal est l'analyse de données statistiques, tels que SPSS, BMDP et EPI INFO.

        Une méthode répandue de saisie de données qui fonctionne bien pour certains questionnaires spécialisés utilise des systèmes optiques. Lecture optique de marques ou la détection optique est utilisée pour lire les réponses sur des questionnaires spécialement conçus pour que les participants saisissent des données en marquant de petits rectangles ou cercles (parfois appelés « codes à bulles »). Ceux-ci fonctionnent plus efficacement lorsque chaque individu remplit son propre questionnaire. Des équipements plus sophistiqués et coûteux peuvent lire des caractères manuscrits, mais à l'heure actuelle, ce n'est pas une technique efficace pour capturer des données dans des études à grande échelle.

        Archivage des questionnaires et des manuels de codage

        Étant donné que l'information est une ressource précieuse et est sujette à interprétation et à d'autres influences, on demande parfois aux chercheurs de partager leurs données avec d'autres chercheurs. La demande de partage de données peut être motivée par diverses raisons, qui peuvent aller d'un intérêt sincère à reproduire un rapport à la crainte que les données n'aient peut-être pas été analysées ou interprétées correctement.

        En cas de suspicion ou d'allégation de falsification ou de fabrication de données, il devient essentiel que les enregistrements originaux sur lesquels reposent les constatations signalées soient disponibles à des fins d'audit. En plus des questionnaires originaux et/ou des fichiers informatiques de données brutes, le chercheur doit être en mesure de fournir pour examen le(s) manuel(s) de codage élaboré(s) pour l'étude et le(s) journal(s) de toutes les modifications de données qui ont été apportées au cours de codage, d'informatisation et d'analyse des données. Par exemple, si une valeur de données avait été modifiée parce qu'elle était initialement apparue comme une valeur aberrante, un enregistrement de la modification et les raisons de la modification auraient dû être enregistrés dans le journal à des fins éventuelles d'audit des données. Ces informations sont également utiles au moment de la préparation du rapport car elles servent de rappel sur la manière dont les données qui ont donné lieu aux conclusions rapportées ont été effectivement traitées.

        Pour ces raisons, à la fin d'une étude, le chercheur a l'obligation de s'assurer que toutes les données de base sont correctement archivées pendant une période de temps raisonnable et qu'elles pourront être récupérées si le chercheur était appelé à les fournir.

         

        Retour

        Lundi, Mars 07 2011 18: 13

        Amiante : perspective historique

        Plusieurs exemples de dangers sur le lieu de travail sont souvent cités pour illustrer non seulement les effets néfastes possibles sur la santé associés aux expositions sur le lieu de travail, mais aussi pour révéler comment une approche systématique de l'étude des populations de travailleurs peut découvrir d'importantes relations exposition-maladie. Un tel exemple est celui de l'amiante. L'élégance simple avec laquelle le regretté Dr Irving J. Selikoff a démontré le risque élevé de cancer chez les travailleurs de l'amiante a été documentée dans un article de Lawrence Garfinkel. Il est reproduit ici avec seulement de légères modifications et avec la permission du CA-A Cancer Journal for Clinicians (Garfinkel 1984). Les tableaux proviennent de l'article original du Dr Selikoff et de ses collaborateurs (1964).

        L'exposition à l'amiante est devenue un problème de santé publique d'une ampleur considérable, avec des ramifications qui s'étendent au-delà du domaine immédiat des professionnels de la santé jusqu'aux domaines desservis par les législateurs, les juges, les avocats, les éducateurs et d'autres dirigeants communautaires concernés. Par conséquent, les maladies liées à l'amiante préoccupent de plus en plus les cliniciens et les autorités sanitaires, ainsi que les consommateurs et le grand public.

        Contexte historique

        L'amiante est un minéral très utile qui a été utilisé de diverses manières pendant de nombreux siècles. Des études archéologiques en Finlande ont montré des preuves de fibres d'amiante incorporées dans la poterie dès 2500 av. Au Ve siècle av. J.-C., il servait de mèche pour les lampes. Hérodote a commenté l'utilisation de tissu d'amiante pour la crémation vers 5 av. L'amiante était utilisé dans les gilets pare-balles au XVe siècle et dans la fabrication de textiles, de gants, de chaussettes et de sacs à main en Russie. c. 1720. Bien que l'on ne sache pas quand l'art du tissage de l'amiante s'est développé, nous savons que les anciens tissaient souvent l'amiante avec du lin. La production commerciale d'amiante a commencé en Italie vers 1850, dans la fabrication de papier et de tissu.

        Le développement de l'extraction de l'amiante au Canada et en Afrique du Sud vers 1880 a réduit les coûts et stimulé la fabrication de produits en amiante. L'exploitation minière et la production d'amiante aux États-Unis, en Italie et en Russie ont suivi peu de temps après. Aux États-Unis, le développement de l'amiante comme isolant des tuyaux a augmenté la production et a été suivi peu de temps après par d'autres utilisations variées, notamment les garnitures de frein, les tuyaux en ciment, les vêtements de protection, etc.

        La production aux États-Unis est passée d'environ 6,000 1900 tonnes en 650,000 à 1975 1982 tonnes en 300,000, bien qu'en 1994, elle était d'environ 33,000 XNUMX tonnes et en XNUMX, la production était tombée à XNUMX XNUMX tonnes.

        Il est rapporté que Pline le Jeune (61-113 après JC) a commenté la maladie des esclaves qui travaillaient avec de l'amiante. La référence aux maladies professionnelles liées à l'exploitation minière apparaît au XVIe siècle, mais ce n'est qu'en 16 en Angleterre qu'apparaît la première référence à la fibrose pulmonaire chez un travailleur de l'amiante. Des décès excessifs chez les travailleurs impliqués dans des applications de fabrication d'amiante ont été signalés peu de temps après en France et en Italie, mais la reconnaissance majeure des maladies induites par l'amiante a commencé en Angleterre en 1906. En 1924, Wood et Gloyne avaient signalé 1930 cas de fibrose pulmonaire.

        La première référence à un carcinome du poumon chez un patient atteint d'« amiante-silicose » est apparue en 1935. Plusieurs autres rapports de cas ont suivi. Des rapports faisant état de pourcentages élevés de cancer du poumon chez des patients décédés d'asbestose sont apparus en 1947, 1949 et 1951. En 1955, Richard Doll en Angleterre a signalé un risque excessif de cancer du poumon chez les personnes qui avaient travaillé dans une usine d'amiante depuis 1935, avec un taux particulièrement élevé. risque chez ceux qui ont travaillé plus de 20 ans.

        Observations cliniques

        C'est dans ce contexte que les observations cliniques du Dr Irving Selikoff sur les maladies liées à l'amiante ont commencé. Le Dr Selikoff était déjà à cette époque un scientifique distingué. Ses réalisations antérieures comprenaient le développement et la première utilisation de l'isoniazide dans le traitement de la tuberculose, pour lequel il a reçu un prix Lasker en 1952.

        Au début des années 1960, en tant que pneumologue exerçant à Paterson, New Jersey , il avait observé de nombreux cas de cancer du poumon chez les travailleurs d'une usine d'amiante de la région. Il a décidé d'étendre ses observations à deux sections locales du syndicat des travailleurs de l'isolation de l'amiante, dont les membres avaient également été exposés aux fibres d'amiante. Il a reconnu qu'il y avait encore beaucoup de gens qui ne croyaient pas que le cancer du poumon était lié à l'exposition à l'amiante et que seule une étude approfondie d'une population totale exposée pouvait les convaincre. Il est possible que l'exposition à l'amiante dans la population soit liée à d'autres types de cancer, tels que le mésothéliome pleural et péritonéal, comme cela a été suggéré dans certaines études, et peut-être aussi à d'autres localisations. Dans le passé, la plupart des études sur les effets de l'amiante sur la santé concernaient les travailleurs exposés dans l'extraction et la production d'amiante. Il était important de savoir si l'inhalation d'amiante affectait également d'autres groupes exposés à l'amiante.

        Le Dr Selikoff avait entendu parler des réalisations du Dr E. Cuyler Hammond, alors directeur de la section de recherche statistique de l'American Cancer Society (ACS), et a décidé de lui demander de collaborer à la conception et à l'analyse d'une étude. C'est le Dr Hammond qui avait rédigé l'étude prospective historique sur le tabagisme et la santé publiée quelques années plus tôt.

        Le Dr Hammond a immédiatement vu l'importance potentielle d'une étude sur les travailleurs de l'amiante. Bien qu'il ait été activement engagé dans l'analyse des données de la nouvelle étude prospective de l'ACS, Cancer Prevention Study I (CPS I), qu'il avait commencée quelques années plus tôt, il a facilement accepté une collaboration pendant son "temps libre". Il a suggéré de limiter l'analyse aux travailleurs ayant au moins 20 ans d'expérience professionnelle, qui auraient donc été le plus exposés à l'amiante.

        L'équipe a été rejointe par Mme Janet Kaffenburgh, associée de recherche du Dr Selikoff à l'hôpital Mount Sinai, qui a travaillé avec le Dr Hammond pour préparer les listes des hommes participant à l'étude, y compris leurs âges et dates d'emploi et obtenir les données. sur les faits de décès et leurs causes tirés des registres du siège du syndicat. Ces informations ont ensuite été transférées sur des fiches qui ont été triées littéralement sur le sol du salon de la maison du Dr Hammond par le Dr Hammond et Mme Kaffenburgh.

        Le Dr Jacob Churg, pathologiste au Barnert Memorial Hospital Center de Paterson, New Jersey, a fourni une vérification pathologique de la cause du décès.

        Tableau 1. Années-homme d'expérience de 632 travailleurs de l'amiante exposés à la poussière d'amiante pendant 20 ans ou plus

        Âge

        Période de temps

         

        1943-47

        1948-52

        1953-57

        1958-62

        35-39

        85.0

        185.0

        7.0

        11.0

        40-44

        230.5

        486.5

        291.5

        70.0

        45-49

        339.5

        324.0

        530.0

        314.5

        50-54

        391.5

        364.0

        308.0

        502.5

        55-59

        382.0

        390.0

        316.0

        268.5

        60-64

        221.0

        341.5

        344.0

        255.0

        65-69

        139.0

        181.0

        286.0

        280.0

        70-74

        83.0

        115.5

        137.0

        197.5

        75-79

        31.5

        70.0

        70.5

        75.0

        80-84

        5.5

        18.5

        38.5

        23.5

        85+

        3.5

        2.0

        8.0

        13.5

        Total

        1,912.0

        2,478.0

        2,336.5

        2,011.0

         

        L'étude qui en a résulté était du type « étude prospective réalisée rétrospectivement ». La nature des dossiers syndicaux a permis d'effectuer une analyse d'une étude à long terme dans un laps de temps relativement court. Bien que seulement 632 hommes aient participé à l'étude, il y a eu 8,737 1 hommes-années d'exposition au risque (voir tableau 255) ; 20 décès sont survenus au cours de la période d'observation de 1943 ans de 1962 à 2 (voir tableau 28.17). C'est dans le tableau XNUMX que l'on peut voir que le nombre de décès observés dépasse invariablement le nombre attendu, démontrant l'association entre l'exposition à l'amiante sur le lieu de travail et un taux élevé de mortalité par cancer. 

        Tableau 2. Nombre de décès observés et attendus parmi 632 travailleurs de l'amiante exposés à la poussière d'amiante pendant 20 ans ou plus

        Cause de décès

        Période de temps

        Total

         

        1943-47

        1948-52

        1953-57

        1958-62

        1943-62

        Total, toutes causes

        Observé (travailleurs de l'amiante)

        28.0

        54.0

        85.0

        88.0

        255.0

        Attendu (hommes blancs américains)

        39.7

        50.8

        56.6

        54.4

        203.5

        Cancer total, tous sièges

        Observé (travailleurs de l'amiante)

        13.0

        17.0

        26.0

        39.0

        95.0

        Attendu (hommes blancs américains)

        5.7

        8.1

        13.0

        9.7

        36.5

        Cancer du poumon et de la plèvre

        Observé (travailleurs de l'amiante)

        6.0

        8.0

        13.0

        18.0

        45.0

        Attendu (hommes blancs américains)

        0.8

        1.4

        2.0

        2.4

        6.6

        Cancer de l'estomac, du côlon et du rectum

        Observé (travailleurs de l'amiante)

        4.0

        4.0

        7.0

        14.0

        29.0

        Attendu (hommes blancs américains)

        2.0

        2.5

        2.6

        2.3

        9.4

        Cancer de tous les autres sites combinés

        Observé (travailleurs de l'amiante)

        3.0

        5.0

        6.0

        7.0

        21.0

        Attendu (hommes blancs américains)

        2.9

        4.2

        8.4

        5.0

        20.5

         

        Importance de l'œuvre

        Cet article a constitué un tournant dans nos connaissances sur les maladies liées à l'amiante et a défini l'orientation des recherches futures. L'article a été cité dans des publications scientifiques au moins 261 fois depuis sa publication initiale. Avec le soutien financier de l'ACS et des National Institutes of Health, le Dr Selikoff et le Dr Hammond et leur équipe grandissante de minéralogistes, pneumologues, radiologues, pathologistes, hygiénistes et épidémiologistes ont continué à explorer diverses facettes de la maladie de l'amiante.

        Un article majeur de 1968 a signalé l'effet synergique du tabagisme sur l'exposition à l'amiante (Selikoff, Hammond et Churg 1968). Les études ont été élargies pour inclure les travailleurs de la production d'amiante, les personnes indirectement exposées à l'amiante dans leur travail (les travailleurs des chantiers navals, par exemple) et celles ayant une exposition familiale à l'amiante.

        Dans une analyse ultérieure, dans laquelle l'équipe a été rejointe par Herbert Seidman, MBA, vice-président adjoint pour l'épidémiologie et les statistiques de l'American Cancer Society, le groupe a démontré que même une exposition à court terme à l'amiante entraînait une augmentation significative du risque de cancer jusqu'à à 30 ans plus tard (Seidman, Selikoff et Hammond 1979). Il n'y avait que trois cas de mésothéliome dans cette première étude de 632 isolateurs, mais des enquêtes ultérieures ont montré que 8% de tous les décès parmi les travailleurs de l'amiante étaient dus à un mésothéliome pleural et péritonéal.

        Au fur et à mesure que les recherches scientifiques du Dr Selikoff se développaient, lui et ses collègues ont apporté des contributions remarquables à la réduction de l'exposition à l'amiante grâce à des innovations dans les techniques d'hygiène industrielle; en persuadant les législateurs de l'urgence du problème de l'amiante ; dans l'évaluation des problèmes des prestations d'invalidité liées à la maladie de l'amiante; et en étudiant la distribution générale des particules d'amiante dans les approvisionnements en eau et dans l'air ambiant.

        Le Dr Selikoff a également attiré l'attention de la communauté médicale et scientifique sur le problème de l'amiante en organisant des conférences sur le sujet et en participant à de nombreuses réunions scientifiques. Plusieurs de ses réunions d'orientation sur le problème de la maladie de l'amiante étaient structurées notamment pour les avocats, les juges, les présidents de grandes entreprises et les dirigeants d'assurances.

         

        Retour

        Page 3 de 7

        " AVIS DE NON-RESPONSABILITÉ : L'OIT n'assume aucune responsabilité pour le contenu présenté sur ce portail Web qui est présenté dans une langue autre que l'anglais, qui est la langue utilisée pour la production initiale et l'examen par les pairs du contenu original. Certaines statistiques n'ont pas été mises à jour depuis la production de la 4ème édition de l'Encyclopédie (1998)."

        Table des matières