4 bannière

 

28. Épidémiologie et statistiques

Éditeurs de chapitre :  Franco Merletti, Colin L. Soskolne et Paolo Vineis


Table des matières

Tableaux et figures

Méthode épidémiologique appliquée à la santé et à la sécurité au travail
Franco Merletti, Colin L. Soskolne et Paolo Vineis

Évaluation de l'exposition
M. Gérald Ott

Résumé des mesures d'exposition au travail
Colin L. Soskolné

Mesurer les effets des expositions
Shelia Hoar Zahm

     Étude de cas : Mesures
     Franco Merletti, Colin L. Soskolne et Paola Vineis

Options dans la conception de l'étude
Sven Hernberg

Problèmes de validité dans la conception de l'étude
Annie J.Sasco

Impact de l'erreur de mesure aléatoire
Paolo Vineis et Colin L. Soskolne

Méthodes statistiques
Annibale Biggeri et Mario Braga

Évaluation de la causalité et éthique dans la recherche épidémiologique
Paolo Vineis

Études de cas illustrant les enjeux méthodologiques de la surveillance des maladies professionnelles
Jung-Der Wang

Questionnaires en recherche épidémiologique
Steven D. Stellman et Colin L. Soskolne

Perspective historique de l'amiante
Laurent Garfinkel

Tables

Cliquez sur un lien ci-dessous pour afficher le tableau dans le contexte de l'article.

1. Cinq mesures sommaires sélectionnées de l'exposition au travail

2. Mesures de l'apparition de la maladie

3. Mesures d'association pour une étude de cohorte

4. Mesures d'association pour les études cas-témoins

5. Disposition générale du tableau de fréquence pour les données de cohorte

6. Exemple de mise en page des données cas-témoins

7. Mise en page des données cas-témoin - un contrôle par cas

8. Cohorte hypothétique de 1950 individus à T2

9. Indices de tendance centrale & dispersion

10. Une expérience binomiale & probabilités

11. Résultats possibles d'une expérience binomiale

12. Distribution binomiale, 15 succès/30 essais

13. Distribution binomiale, p = 0.25 ; 30 essais

14. Erreur de type II et alimentation ; x = 12, n = 30, a = 0.05

15. Erreur de type II et alimentation ; x = 12, n = 40, a = 0.05

16. 632 travailleurs exposés à l'amiante 20 ans ou plus

17. O/E nombre de décès parmi 632 travailleurs de l'amiante

Figures

Pointez sur une vignette pour voir la légende de la figure, cliquez pour voir la figure dans le contexte de l'article.

EPI110F1EPI110F2


Cliquez pour revenir en haut de la page

Épidémiologie

L'épidémiologie est reconnue à la fois comme la science fondamentale de la médecine préventive et celle qui éclaire le processus d'élaboration des politiques de santé publique. Plusieurs définitions opérationnelles de l'épidémiologie ont été proposées. La plus simple est que l'épidémiologie est l'étude de l'apparition de maladies ou d'autres caractéristiques liées à la santé chez les populations humaines et animales. Les épidémiologistes étudient non seulement la fréquence de la maladie, mais aussi si la fréquence diffère selon les groupes de personnes ; c'est-à-dire qu'ils étudient la relation de cause à effet entre l'exposition et la maladie. Les maladies ne surviennent pas au hasard; ils ont des causes, souvent d'origine humaine, qui sont évitables. Ainsi, de nombreuses maladies pourraient être évitées si les causes étaient connues. Les méthodes d'épidémiologie ont joué un rôle crucial dans l'identification de nombreux facteurs causaux qui, à leur tour, ont conduit à des politiques de santé conçues pour prévenir les maladies, les blessures et les décès prématurés.

Quelle est la tâche de l'épidémiologie et quelles sont ses forces et ses faiblesses lorsque les définitions et les concepts de l'épidémiologie sont appliqués à la santé au travail ? Ce chapitre traite de ces questions et de la manière dont les risques professionnels pour la santé peuvent être étudiés à l'aide de techniques épidémiologiques. Cet article introduit les idées trouvées dans les articles successifs de ce chapitre.

Épidémiologie professionnelle

L'épidémiologie professionnelle a été définie comme l'étude des effets des expositions professionnelles sur la fréquence et la distribution des maladies et des blessures dans la population. Il s'agit donc d'une discipline axée sur l'exposition et liée à la fois à l'épidémiologie et à la santé au travail (Checkoway et al. 1989). A ce titre, elle utilise des méthodes similaires à celles employées par l'épidémiologie en général.

L'objectif principal de l'épidémiologie professionnelle est la prévention par l'identification des conséquences des expositions professionnelles sur la santé. Cela souligne l'orientation préventive de l'épidémiologie professionnelle. En effet, toute recherche dans le domaine de la santé et de la sécurité au travail doit servir à des fins préventives. Par conséquent, les connaissances épidémiologiques peuvent et doivent être facilement applicables. Alors que l'intérêt de la santé publique devrait toujours être la principale préoccupation de la recherche épidémiologique, les intérêts acquis peuvent exercer une influence, et il faut veiller à minimiser cette influence dans la formulation, la conduite et/ou l'interprétation des études (Soskolne 1985 ; Soskolne 1989).

Un deuxième objectif de l'épidémiologie professionnelle est d'utiliser les résultats de contextes spécifiques pour réduire ou éliminer les risques dans l'ensemble de la population. Ainsi, en plus de fournir des informations sur les effets sur la santé des expositions en milieu de travail, les résultats des études d'épidémiologie professionnelle jouent également un rôle dans l'estimation du risque associé aux mêmes expositions mais à des niveaux inférieurs généralement subis par la population générale. La contamination de l'environnement par les processus et les produits industriels entraînerait généralement des niveaux d'exposition inférieurs à ceux rencontrés sur le lieu de travail.

Les niveaux d'application de l'épidémiologie professionnelle sont :

  • surveillance pour décrire l'apparition de maladies dans différentes catégories de travailleurs et ainsi fournir des signaux d'alerte précoce de risques professionnels non reconnus
  • génération et test d'une hypothèse selon laquelle une exposition donnée peut être nocive, et la quantification d'un effet
  • évaluation d'une intervention (par exemple, une action préventive telle que la réduction des niveaux d'exposition) en mesurant l'évolution de l'état de santé d'une population au fil du temps.

 

Le rôle causal que les expositions professionnelles peuvent jouer dans le développement de maladies, de blessures et de décès prématurés est identifié depuis longtemps et fait partie de l'histoire de l'épidémiologie. Il faut faire référence à Bernardino Ramazzini, fondateur de la médecine du travail et l'un des premiers à faire revivre et à compléter la tradition hippocratique de la dépendance de la santé à des facteurs externes naturels identifiables. En 1700, il écrit dans son « De Morbis Artificum Diatriba » (Ramazzini 1705 ; Saracci 1995) :

Le médecin doit poser de nombreuses questions aux patients. Hippocrate déclare dans De l'Affectionibus: "Lorsque vous faites face à une personne malade, vous devez lui demander de quoi il souffre, pour quelle raison, depuis combien de jours, ce qu'il mange, et quelles sont ses selles. A toutes ces questions il faut ajouter : 'Quel travail fait-il ?'.

Ce réveil de l'observation clinique et de l'attention portée aux circonstances entourant la survenue de la maladie, amena Ramazzini à identifier et décrire de nombreuses maladies professionnelles qui furent ensuite étudiées par les médecins du travail et les épidémiologistes.

En utilisant cette approche, Pott a été le premier à signaler en 1775 (Pott 1775) le lien possible entre le cancer et la profession (Clayson 1962). Ses observations sur le cancer du scrotum chez les ramoneurs commençaient par une description de la maladie et se poursuivaient :

Le sort de ces gens semble singulièrement dur : dans leur petite enfance, ils sont le plus souvent traités avec une grande brutalité, et presque affamés de froid et de faim ; ils sont poussés dans des cheminées étroites et parfois chaudes, où ils sont meurtris, brûlés et presque étouffés ; et quand ils arrivent à la puberté, ils deviennent particulièrement sujets à une maladie des plus nocives, douloureuses et mortelles.

De cette dernière circonstance il n'y a pas le moindre doute, quoique peut-être on n'y ait pas suffisamment prêté attention, pour la faire connaître à tous. D'autres personnes ont un cancer des mêmes parties; et ainsi ont d'autres, sans compter que des plomb-ouvriers, la colique de Poitou, et la paralysie conséquente ; mais c'est néanmoins une maladie à laquelle ils sont particulièrement exposés ; et ainsi sont les ramoneurs au cancer du scrotum et des testicules.

La maladie, chez ces personnes, semble tirer son origine d'un dépôt de suie dans les rugae du scrotum, et d'abord ne pas être une maladie de l'habitude... mais ici les sujets sont jeunes, en bonne santé générale, du moins d'abord; la maladie que leur apporte leur occupation, et selon toute vraisemblance locale ; laquelle dernière circonstance peut, je pense, être assez présumée du fait qu'elle saisit toujours les mêmes parties; tout cela en fait (au début) un cas très différent d'un cancer qui apparaît chez un homme âgé.

Ce premier récit d'un cancer professionnel reste encore un modèle de lucidité. La nature de la maladie, la profession concernée et l'agent causal probable sont clairement définis. Une augmentation de l'incidence du cancer du scrotum chez les ramoneurs est notée bien qu'aucune donnée quantitative ne soit donnée pour étayer l'allégation.

Cinquante autres années se sont écoulées avant qu'Ayrton-Paris ne remarque en 1822 (Ayrton-Paris 1822) le développement fréquent de cancers du scrotum parmi les fonderies de cuivre et d'étain de Cornouailles, et suppose que les vapeurs d'arsenic pourraient en être l'agent causal. Von Volkmann rapporta en 1874 des tumeurs cutanées chez des travailleurs de la paraffine en Saxe, et peu de temps après, Bell suggéra en 1876 que l'huile de schiste était responsable de cancers cutanés (Von Volkmann 1874 ; Bell 1876). Les déclarations d'origine professionnelle des cancers sont alors devenues relativement plus fréquentes (Clayson 1962).

Parmi les premières observations de maladies professionnelles figurait la fréquence accrue du cancer du poumon chez les mineurs de Schneeberg (Harting et Hesse 1879). Il est remarquable (et tragique) qu'une étude de cas récente montre que l'épidémie de cancer du poumon à Schneeberg est toujours un énorme problème de santé publique, plus d'un siècle après la première observation en 1879. Une approche pour identifier une "augmentation" de la maladie et même de le quantifier était présent dans l'histoire de la médecine du travail. Par exemple, comme Axelson (1994) l'a souligné, WA Guy en 1843 a étudié la « consommation pulmonaire » chez les imprimeurs typographiques et a trouvé un risque plus élevé chez les compositeurs que chez les pressiers ; cela a été fait en appliquant une conception similaire à l'approche cas-témoins (Lilienfeld et Lilienfeld 1979). Néanmoins, ce n'est peut-être qu'au début des années 1950 que l'épidémiologie professionnelle moderne et sa méthodologie ont commencé à se développer. Les principales contributions marquant ce développement ont été les études sur le cancer de la vessie chez les travailleurs de la teinture (Case et Hosker 1954) et le cancer du poumon chez les travailleurs du gaz (Doll 1952).

Problèmes d'épidémiologie professionnelle

Les articles de ce chapitre présentent à la fois la philosophie et les outils de l'investigation épidémiologique. Ils se concentrent sur l'évaluation de l'expérience d'exposition des travailleurs et sur les maladies qui surviennent dans ces populations. Les problèmes liés à l'élaboration de conclusions valables sur les liens de causalité possibles entre les expositions à des substances dangereuses et le développement de maladies sont abordés dans ce chapitre.

La détermination de l'expérience d'exposition d'un individu au travail constitue le cœur de l'épidémiologie professionnelle. Le caractère informatif d'une étude épidémiologique dépend, en premier lieu, de la qualité et de l'étendue des données d'exposition disponibles. Deuxièmement, les effets sur la santé (ou les maladies) qui préoccupent l'épidémiologiste du travail doivent pouvoir être déterminés avec précision parmi un groupe de travailleurs bien défini et accessible. Enfin, les données sur d'autres influences potentielles sur la maladie d'intérêt doivent être mises à la disposition de l'épidémiologiste afin que tout effet d'exposition professionnelle établi à partir de l'étude puisse être attribué à l'exposition professionnelle. per se plutôt qu'à d'autres causes connues de la maladie en question. Par exemple, dans un groupe de travailleurs susceptibles de travailler avec un produit chimique suspecté de provoquer le cancer du poumon, certains travailleurs peuvent également avoir des antécédents de tabagisme, une autre cause de cancer du poumon. Dans cette dernière situation, les épidémiologistes du travail doivent déterminer quelle exposition (ou quel facteur de risque - le produit chimique ou le tabac, voire les deux en combinaison) est responsable de toute augmentation du risque de cancer du poumon dans le groupe de travailleurs étudié.

Évaluation de l'exposition

Si une étude n'a accès qu'au fait qu'un travailleur était employé dans une industrie particulière, alors les résultats d'une telle étude ne peuvent lier les effets sur la santé qu'à cette industrie. De même, si des connaissances sur l'exposition existent pour les professions des travailleurs, des conclusions ne peuvent être directement tirées qu'en ce qui concerne les professions. Des inférences indirectes sur les expositions chimiques peuvent être faites, mais leur fiabilité doit être évaluée situation par situation. Si une étude a accès, cependant, à des informations sur le département et/ou le titre du poste de chaque travailleur, alors des conclusions pourront être tirées à ce niveau plus fin d'expérience en milieu de travail. Lorsque les informations sur les substances réelles avec lesquelles une personne travaille sont connues de l'épidémiologiste (en collaboration avec un hygiéniste industriel), il s'agirait alors du niveau le plus fin d'informations disponibles sur l'exposition en l'absence d'une dosimétrie rarement disponible. En outre, les résultats de ces études peuvent fournir des informations plus utiles à l'industrie pour créer des lieux de travail plus sûrs.

L'épidémiologie était jusqu'à présent une sorte de discipline « boîte noire », car elle étudiait la relation entre l'exposition et la maladie (les deux extrêmes de la chaîne causale), sans tenir compte des étapes mécanistes intermédiaires. Cette approche, malgré son manque apparent de raffinement, a été extrêmement utile : en fait, toutes les causes connues de cancer chez l'homme, par exemple, ont été découvertes avec les outils de l'épidémiologie.

La méthode épidémiologique s'appuie sur les dossiers disponibles — questionnaires, intitulés de poste ou autres « proxys » d'exposition ; cela rend la conduite des études épidémiologiques et l'interprétation de leurs résultats relativement simples.

Les limites de l'approche plus grossière de l'évaluation de l'exposition sont toutefois devenues évidentes ces dernières années, les épidémiologistes étant confrontés à des problèmes plus complexes. En limitant notre examen à l'épidémiologie du cancer professionnel, la plupart des facteurs de risque bien connus ont été découverts en raison de niveaux élevés d'exposition dans le passé; un nombre limité d'expositions pour chaque travail ; grandes populations de travailleurs exposés; et une correspondance claire entre les informations « proxy » et les expositions chimiques (par exemple, les cordonniers et le benzène, les chantiers navals et l'amiante, etc.). Aujourd'hui, la situation est sensiblement différente : les niveaux d'exposition sont considérablement plus faibles dans les pays occidentaux (cette réserve doit toujours être soulignée) ; les travailleurs sont exposés à de nombreux produits chimiques et mélanges différents dans le même titre d'emploi (par exemple, les travailleurs agricoles); les populations homogènes de travailleurs exposés sont plus difficiles à trouver et sont généralement peu nombreuses ; et la correspondance entre les informations « indirectes » et l'exposition réelle s'affaiblit progressivement. Dans ce contexte, les outils de l'épidémiologie ont une sensibilité réduite du fait d'une mauvaise classification des expositions.

De plus, l'épidémiologie s'est appuyée sur des paramètres « durs », comme le décès dans la plupart des études de cohorte. Cependant, les travailleurs pourraient préférer voir quelque chose de différent du « comptage des corps » lorsque les effets potentiels sur la santé des expositions professionnelles sont étudiés. Par conséquent, l'utilisation d'indicateurs plus directs de l'exposition et de la réponse précoce présenterait certains avantages. Les marqueurs biologiques peuvent ne fournir qu'un outil.

Marqueurs biologiques

L'utilisation de marqueurs biologiques, tels que les niveaux de plomb dans le sang ou les tests de la fonction hépatique, n'est pas nouvelle en épidémiologie professionnelle. Cependant, l'utilisation de techniques moléculaires dans les études épidémiologiques a rendu possible l'utilisation de biomarqueurs pour évaluer les expositions des organes cibles, pour déterminer la sensibilité et pour établir la maladie précoce.

Les utilisations potentielles des biomarqueurs dans le cadre de l'épidémiologie professionnelle sont :

  • évaluation de l'exposition dans les cas où les outils épidémiologiques traditionnels sont insuffisants (notamment pour les faibles doses et les faibles risques)
  • pour démêler le rôle causal d'agents ou de substances chimiques uniques dans des expositions multiples ou des mélanges
  • estimation de la charge totale d'exposition aux produits chimiques ayant la même cible mécaniste
  • étude des mécanismes pathogéniques
  • étude de la susceptibilité individuelle (p. ex. polymorphismes métaboliques, réparation de l'ADN) (Vineis 1992)
  • pour classer plus précisément l'exposition et/ou la maladie, augmentant ainsi la puissance statistique.

 

Un grand enthousiasme s'est manifesté dans la communauté scientifique à propos de ces utilisations, mais, comme indiqué ci-dessus, la complexité méthodologique de l'utilisation de ces nouveaux « outils moléculaires » doit servir à mettre en garde contre un optimisme excessif. Les biomarqueurs des expositions chimiques (tels que les adduits à l'ADN) présentent plusieurs lacunes :

  1. Ils reflètent généralement des expositions récentes et, par conséquent, sont d'une utilité limitée dans les études cas-témoins, alors qu'ils nécessitent des échantillonnages répétés sur des périodes prolongées pour être utilisés dans des enquêtes de cohorte.
  2. Bien qu'ils puissent être très spécifiques et ainsi améliorer la classification erronée de l'exposition, les résultats restent souvent difficiles à interpréter.
  3. Lorsque des expositions chimiques complexes sont étudiées (par exemple, la pollution de l'air ou la fumée de tabac ambiante), il est possible que le biomarqueur reflète un composant particulier du mélange, tandis que l'effet biologique pourrait être dû à un autre.
  4. Dans de nombreuses situations, il n'est pas clair si un biomarqueur reflète une exposition pertinente, un corrélat de l'exposition pertinente, une susceptibilité individuelle ou un stade précoce de la maladie, limitant ainsi l'inférence causale.
  5. La détermination de la plupart des biomarqueurs nécessite un test coûteux ou une procédure invasive ou les deux, créant ainsi des contraintes pour une taille d'étude et une puissance statistique adéquates.
  6. Un biomarqueur d'exposition n'est rien de plus qu'une approximation de l'objectif réel d'une enquête épidémiologique, qui, en règle générale, se concentre sur une exposition environnementale évitable (Trichopoulos 1995; Pearce et al. 1995).

 

Encore plus important que les lacunes méthodologiques est la considération que les techniques moléculaires pourraient nous amener à réorienter notre attention de l'identification des risques dans l'environnement exogène, à l'identification des individus à haut risque, puis à la réalisation d'évaluations personnalisées des risques en mesurant le phénotype, la charge des adduits et les mutations acquises. Cela orienterait notre attention, comme l'a noté McMichael, vers une forme d'évaluation clinique plutôt qu'une épidémiologie de la santé publique. Mettre l'accent sur les individus pourrait nous détourner de l'important objectif de santé publique de créer un environnement moins dangereux (McMichael 1994).

Deux autres questions importantes émergent concernant l'utilisation des biomarqueurs :

  1. L'utilisation des biomarqueurs en épidémiologie professionnelle doit s'accompagner d'une politique claire en matière de consentement éclairé. Le travailleur peut avoir plusieurs raisons de refuser de coopérer. Une raison très pratique est que l'identification, par exemple, d'une altération d'un marqueur de réponse précoce tel que l'échange de chromatides sœurs implique la possibilité d'une discrimination par les assureurs maladie et vie et par les employeurs qui pourraient éviter le travailleur parce qu'il ou elle peut être plus enclin à la maladie. Une seconde raison concerne le dépistage génétique : les distributions de génotypes et de phénotypes variant selon les groupes ethniques, les opportunités professionnelles des minorités pourraient être entravées par le dépistage génétique. Troisièmement, des doutes peuvent être émis quant à la prévisibilité des tests génétiques : puisque la valeur prédictive dépend de la prévalence de la condition que le test vise à identifier, si celle-ci est rare, la valeur prédictive sera faible et l'utilisation pratique du dépistage le test sera douteux. Jusqu'à présent, aucun des tests de dépistage génétique n'a été jugé applicable sur le terrain (Ashford et al. 1990).
  2. Des principes éthiques doivent être appliqués avant l'utilisation de biomarqueurs. Ces principes ont été évalués pour les biomarqueurs utilisés pour identifier la susceptibilité individuelle à la maladie par un groupe de travail interdisciplinaire de l'Office technique des syndicats européens, avec le soutien de la Commission des Communautés européennes (Van Damme et al. 1995) ; leur rapport a renforcé l'opinion selon laquelle les tests ne peuvent être effectués que dans le but de prévenir les maladies au sein d'une main-d'œuvre. Entre autres considérations, l'utilisation de tests doit n'allons jamais .

 

  • servir de moyen de "sélection du plus apte"
  • être utilisé pour éviter la mise en œuvre de mesures préventives efficaces, telles que l'identification et la substitution des facteurs de risque ou l'amélioration des conditions de travail
  • créer, confirmer ou renforcer les inégalités sociales
  • créer un fossé entre les principes éthiques suivis sur le lieu de travail et les principes éthiques qui doivent être respectés dans une société démocratique
  • obliger une personne à la recherche d'un emploi à divulguer des données personnelles autres que celles strictement nécessaires à l'obtention de l'emploi.

 

Enfin, les preuves s'accumulent que l'activation ou l'inactivation métabolique des substances dangereuses (et des cancérigènes en particulier) varie considérablement dans les populations humaines, et est en partie génétiquement déterminée. De plus, la variabilité interindividuelle de la sensibilité aux agents cancérigènes peut être particulièrement importante à de faibles niveaux d'exposition professionnelle et environnementale (Vineis et al. 1994). De tels résultats peuvent fortement affecter les décisions réglementaires qui concentrent le processus d'évaluation des risques sur les plus sensibles (Vineis et Martone 1995).

Conception et validité de l'étude

L'article d'Hernberg sur les plans d'études épidémiologiques et leurs applications en médecine du travail se concentre sur le concept de « base d'étude », défini comme l'expérience morbide (relative à une certaine exposition) d'une population alors qu'elle est suivie dans le temps. Ainsi, la base d'étude n'est pas seulement une population (c'est-à-dire un groupe de personnes), mais l'expérience d'apparition de la maladie de cette population pendant une certaine période de temps (Miettinen 1985, Hernberg 1992). Si ce concept unificateur de base d'étude est adopté, il est alors important de reconnaître que les différentes conceptions d'étude (par exemple, les conceptions de cas-témoins et de cohorte) sont simplement des façons différentes de « récolter » des informations sur l'exposition et la maladie à partir de la même étude. base; ce ne sont pas des approches diamétralement différentes.

L'article sur la validité dans la conception de l'étude par Sasco traite des définitions et de l'importance de la confusion. Les enquêteurs de l'étude doivent toujours tenir compte de la possibilité de confusion dans les études professionnelles, et on ne soulignera jamais suffisamment que l'identification des variables potentiellement confusionnelles fait partie intégrante de toute conception et analyse d'étude. Deux aspects de la confusion doivent être abordés en épidémiologie professionnelle :

  1. La confusion négative devrait être explorée : par exemple, certaines populations industrielles sont peu exposées aux facteurs de risque liés au mode de vie en raison d'un lieu de travail sans fumée ; les souffleurs de verre ont tendance à moins fumer que la population générale.
  2. Lorsque la confusion est envisagée, une estimation de sa direction et de son impact potentiel doit être évaluée. Cela est particulièrement vrai lorsque les données permettant de contrôler la confusion sont rares. Par exemple, le tabagisme est un important facteur de confusion en épidémiologie professionnelle et il faut toujours en tenir compte. Néanmoins, lorsque les données sur le tabagisme ne sont pas disponibles (comme c'est souvent le cas dans les études de cohorte), il est peu probable que le tabagisme puisse expliquer un excès de risque important constaté dans un groupe professionnel. Ceci est bien décrit dans un article d'Axelson (1978) et discuté plus en détail par Greenland (1987). Lorsque des données détaillées sur la profession et le tabagisme sont disponibles dans la littérature, la confusion ne semble pas fausser fortement les estimations concernant l'association entre le cancer du poumon et la profession (Vineis et Simonato 1991). De plus, la suspicion de confusion n'introduit pas toujours des associations non valides. Étant donné que les enquêteurs risquent également d'être induits en erreur par d'autres biais d'observation et de sélection non détectés, ceux-ci devraient recevoir autant d'attention que la question de la confusion lors de la conception d'une étude (Stellman 1987).

 

Le temps et les variables temporelles telles que l'âge à risque, la période calendaire, le temps depuis l'embauche, le temps depuis la première exposition, la durée de l'exposition et leur traitement au stade de l'analyse, font partie des questions méthodologiques les plus complexes en épidémiologie professionnelle. Ils ne sont pas abordés dans ce chapitre, mais deux références méthodologiques pertinentes et récentes sont signalées (Pearce 1992 ; Robins et al. 1992).

Statistique

L'article sur les statistiques de Biggeri et Braga, ainsi que le titre de ce chapitre, indiquent que les méthodes statistiques sont indissociables de la recherche épidémiologique. En effet : (a) une bonne compréhension des statistiques peut fournir des informations précieuses sur la conception appropriée d'une enquête et (b) les statistiques et l'épidémiologie partagent un héritage commun, et toute la base quantitative de l'épidémiologie est fondée sur la notion de probabilité ( Clayton 1992 ; Clayton et Hills 1993). Dans de nombreux articles qui suivent, les preuves empiriques et la preuve des relations causales hypothétiques sont évaluées à l'aide d'arguments probabilistes et de plans d'étude appropriés. Par exemple, l'accent est mis sur l'estimation de la mesure du risque d'intérêt, comme les taux ou les risques relatifs, et sur la construction d'intervalles de confiance autour de ces estimations au lieu de l'exécution de tests statistiques de probabilité (Poole 1987 ; Gardner et Altman 1989 ; Greenland 1990 ). Une brève introduction au raisonnement statistique utilisant la distribution binomiale est fournie. Les statistiques doivent accompagner le raisonnement scientifique. Mais cela ne vaut rien en l'absence de recherches correctement conçues et menées. Les statisticiens et les épidémiologistes sont conscients que le choix des méthodes détermine ce que nous faisons et dans quelle mesure nous faisons des observations. Le choix réfléchi des options de conception est donc d'une importance fondamentale pour garantir la validité des observations.

Ethique

Le dernier article, signé Vineis, aborde les enjeux éthiques de la recherche épidémiologique. Les points à mentionner dans cette introduction se réfèrent à l'épidémiologie comme une discipline qui implique par définition une action préventive. Les aspects éthiques spécifiques concernant la protection des travailleurs et de la population en général exigent la reconnaissance que :

  • Les études épidémiologiques en milieu professionnel ne doivent en aucun cas retarder les mesures de prévention en milieu de travail.
  • L'épidémiologie professionnelle ne fait pas référence à des facteurs liés au mode de vie, mais à des situations où généralement peu ou pas de rôle personnel est joué dans le choix de l'exposition. Cela implique un engagement particulier envers une prévention efficace et la transmission immédiate d'informations aux travailleurs et au public.
  • La recherche révèle les risques pour la santé et fournit les connaissances nécessaires à l'action préventive. Les problèmes éthiques liés à l'absence de recherche, lorsque c'est faisable, doivent être pris en compte.
  • La communication aux travailleurs des résultats des études épidémiologiques est à la fois un enjeu éthique et méthodologique dans la communication des risques. La recherche sur l'évaluation de l'impact potentiel et de l'efficacité de la notification devrait être hautement prioritaire (Schulte et al. 1993).

 

Formation en épidémiologie professionnelle

Des personnes d'horizons divers peuvent trouver leur chemin vers la spécialisation en épidémiologie professionnelle. La médecine, les soins infirmiers et les statistiques sont quelques-unes des formations les plus susceptibles d'être observées parmi les personnes spécialisées dans ce domaine. En Amérique du Nord, environ la moitié de tous les épidémiologistes formés ont une formation scientifique, tandis que l'autre moitié aura suivi la voie du doctorat en médecine. Dans les pays à l'extérieur de l'Amérique du Nord, la plupart des spécialistes en épidémiologie professionnelle auront gravi les échelons jusqu'au grade de docteur en médecine. En Amérique du Nord, ceux qui ont une formation médicale ont tendance à être considérés comme des « experts du contenu », tandis que ceux qui ont suivi une formation scientifique sont considérés comme des « experts en méthodologie ». Il est souvent avantageux pour un expert de contenu de s'associer à un expert méthodologique afin de concevoir et de mener la meilleure étude possible.

Non seulement la connaissance des méthodes épidémiologiques, des statistiques et des ordinateurs est nécessaire pour la spécialité épidémiologie professionnelle, mais aussi la connaissance de la toxicologie, de l'hygiène industrielle et des registres de maladies (Merletti et Comba 1992). Étant donné que les grandes études peuvent nécessiter un lien avec les registres de maladies, la connaissance des sources de données démographiques est utile. La connaissance de l'organisation du travail et de l'entreprise est également importante. Les thèses au niveau de la maîtrise et les mémoires au niveau de la formation doctorale dotent les étudiants des connaissances nécessaires pour mener de vastes études sur dossiers et sur entrevues auprès des travailleurs.

Proportion de maladies attribuables à la profession

La proportion de maladies attribuables à des expositions professionnelles, soit dans un groupe de travailleurs exposés, soit dans la population générale, est couverte au moins en ce qui concerne le cancer dans une autre partie de ce Encyclopédie. Ici, nous devons nous rappeler que si une estimation est calculée, elle doit être pour une maladie spécifique (et un site spécifique dans le cas du cancer), une période de temps spécifique et une zone géographique spécifique. En outre, elle doit être basée sur des mesures précises de la proportion de personnes exposées et du degré d'exposition. Cela implique que la proportion de maladies attribuables au travail peut varier de très faible ou nulle dans certaines populations à très élevée dans d'autres situées dans des zones industrielles où, par exemple, jusqu'à 40 % des cancers du poumon peuvent être attribuables à des expositions professionnelles (Vineis et Simonato 1991). Les estimations qui ne sont pas fondées sur un examen détaillé d'études épidémiologiques bien conçues peuvent, au mieux, être considérées comme des suppositions éclairées et ont une valeur limitée.

Transfert des industries dangereuses

La plupart des recherches épidémiologiques sont menées dans le monde développé, où la réglementation et le contrôle des risques professionnels connus ont réduit le risque de maladie au cours des dernières décennies. En même temps, cependant, il y a eu un transfert important d'industries dangereuses vers le monde en développement (Jeyaratnam 1994). Des produits chimiques auparavant interdits aux États-Unis ou en Europe sont maintenant produits dans les pays en développement. Par exemple, l'usinage de l'amiante a été transféré des États-Unis au Mexique et la production de benzidine des pays européens à l'ex-Yougoslavie et à la Corée (Simonato 1986 ; LaDou 1991 ; Pearce et al. 1994).

Un signe indirect du niveau de risque professionnel et des conditions de travail dans le monde en développement est l'épidémie d'intoxications aiguës qui sévit dans certains de ces pays. Selon une évaluation, il y a environ 20,000 1994 décès chaque année dans le monde dus à une intoxication aiguë aux pesticides, mais il s'agit probablement d'une sous-estimation substantielle (Kogevinas et al. 99). Il a été estimé que 20% de tous les décès dus à une intoxication aiguë aux pesticides surviennent dans les pays en développement, où seuls 1994% des produits agrochimiques mondiaux sont utilisés (Kogevinas et al. 1995). C'est-à-dire que même si la recherche épidémiologique semble indiquer une réduction des risques professionnels, cela pourrait simplement être dû au fait que la plupart de ces recherches sont menées dans le monde développé. Les risques professionnels peuvent simplement avoir été transférés au monde en développement et la charge mondiale totale d'exposition professionnelle peut avoir augmenté (Vineis et al. XNUMX).

Épidémiologie vétérinaire

Pour des raisons évidentes, l'épidémiologie vétérinaire n'est pas directement pertinente à la santé au travail et à l'épidémiologie du travail. Néanmoins, des indices sur les causes environnementales et professionnelles des maladies peuvent provenir des études épidémiologiques sur les animaux pour plusieurs raisons :

  1. La durée de vie des animaux est relativement courte par rapport à celle des humains, et la période de latence des maladies (par exemple, la plupart des cancers) est plus courte chez les animaux que chez les humains. Cela implique qu'une maladie qui survient chez un animal sauvage ou de compagnie peut servir d'événement sentinelle pour nous alerter de la présence d'un potentiel toxique environnemental ou cancérogène pour l'homme avant qu'il ne soit identifié par d'autres moyens (Glickman 1993).
  2. Les marqueurs d'exposition, comme les adduits à l'hémoglobine ou les niveaux d'absorption et d'excrétion de toxines, peuvent être mesurés chez les animaux sauvages et de compagnie pour évaluer la contamination environnementale par des sources industrielles (Blondin et Viau 1992; Reynolds et al. 1994; Hungerford et al. 1995) .
  3. Les animaux ne sont pas exposés à certains facteurs qui peuvent agir comme facteurs de confusion dans les études humaines, et les enquêtes sur les populations animales peuvent donc être menées sans tenir compte de ces facteurs de confusion potentiels. Par exemple, une étude sur le cancer du poumon chez les chiens de compagnie pourrait détecter des associations significatives entre la maladie et l'exposition à l'amiante (par exemple, via les professions liées à l'amiante des propriétaires et la proximité de sources industrielles d'amiante). De toute évidence, une telle étude éliminerait l'effet du tabagisme actif en tant que facteur de confusion.

 

Les vétérinaires parlent d'une révolution épidémiologique en médecine vétérinaire (Schwabe 1993) et des manuels sur la discipline sont apparus (Thrusfield 1986; Martin et al. 1987). Certes, des indices sur les risques environnementaux et professionnels sont venus des efforts conjoints des épidémiologistes humains et animaux. Entre autres, l'effet des phénoxyherbicides chez les moutons et les chiens (Newell et al. 1984; Hayes et al. 1990), des champs magnétiques (Reif et al. 1995) et des pesticides (notamment les préparations contre les puces) contaminés par des composés de type amiante chez les chiens (Glickman et al. 1983) sont des contributions notables.

Recherche participative, communication des résultats et prévention

Il est important de reconnaître que de nombreuses études épidémiologiques dans le domaine de la santé au travail sont initiées par l'expérience et les préoccupations des travailleurs eux-mêmes (Olsen et al. 1991). Souvent, les travailleurs – ceux historiquement et/ou actuellement exposés – croyaient que quelque chose n'allait pas bien avant que cela ne soit confirmé par la recherche. L'épidémiologie professionnelle peut être considérée comme un moyen de «donner du sens» à l'expérience des travailleurs, de collecter et de regrouper les données de manière systématique et de tirer des conclusions sur les causes professionnelles de leur mauvaise santé. De plus, les travailleurs eux-mêmes, leurs représentants et les personnes en charge de la santé des travailleurs sont les personnes les plus aptes à interpréter les données recueillies. Ils doivent donc toujours participer activement à toute enquête menée sur le lieu de travail. Seule leur implication directe garantira la sécurité du lieu de travail après le départ des chercheurs. Le but de toute étude est l'utilisation des résultats dans la prévention des maladies et des incapacités, et le succès de celle-ci dépend dans une large mesure de la participation des personnes exposées à l'obtention et à l'interprétation des résultats de l'étude. Le rôle et l'utilisation des résultats de la recherche dans le processus de litige alors que les travailleurs demandent une indemnisation pour les dommages causés par l'exposition sur le lieu de travail dépassent la portée de ce chapitre. Pour un aperçu à ce sujet, le lecteur est renvoyé ailleurs (Soskolne, Lilienfeld et Black 1994).

Les approches participatives visant à assurer la conduite de la recherche en épidémiologie professionnelle sont devenues, dans certains endroits, une pratique courante sous la forme de comités directeurs créés pour superviser l'initiative de recherche depuis son lancement jusqu'à son achèvement. Ces comités sont multipartites dans leur structure, y compris les syndicats, les scientifiques, la direction et/ou le gouvernement. Avec des représentants de tous les groupes d'intervenants dans le processus de recherche, la communication des résultats sera rendue plus efficace en raison de leur crédibilité accrue, car «l'un des leurs» aurait supervisé la recherche et aurait communiqué les résultats à ses collègues respectifs. circonscription électorale. De cette façon, le plus haut niveau de prévention efficace est probable.

Ces approches participatives et d'autres dans la recherche sur la santé au travail sont entreprises avec la participation de ceux qui éprouvent ou sont autrement touchés par le problème préoccupant lié à l'exposition. Cela devrait être observé plus fréquemment dans toutes les recherches épidémiologiques (Laurell et al. 1992). Il est pertinent de rappeler que si, dans le travail épidémiologique, l'objectif de l'analyse est l'estimation de l'ampleur et de la distribution du risque, dans la recherche participative, l'évitabilité du risque est également un objectif (Loewenson et Biocca 1995). Cette complémentarité de l'épidémiologie et de l'efficacité de la prévention fait partie du message de ce Encyclopédie et de ce chapitre.

Maintenir la pertinence en matière de santé publique

Bien que les nouveaux développements dans la méthodologie épidémiologique, dans l'analyse des données et dans l'évaluation et la mesure de l'exposition (comme les nouvelles techniques de biologie moléculaire) soient bienvenus et importants, ils peuvent également contribuer à une approche réductionniste axée sur les individus plutôt que sur les populations. Il a été dit que :

… l'épidémiologie a en grande partie cessé de fonctionner dans le cadre d'une approche multidisciplinaire pour comprendre la causalité des maladies dans les populations et est devenue un ensemble de méthodes génériques pour mesurer les associations d'exposition et de maladie chez les individus.… Il y a une négligence actuelle des facteurs sociaux, économiques, culturels , historiques, politiques et autres facteurs démographiques comme principales causes de maladies.… L'épidémiologie doit se réintégrer dans la santé publique et doit redécouvrir la perspective de la population (Pearce 1996).

Les épidémiologistes du travail et de l'environnement ont un rôle important à jouer, non seulement pour développer de nouvelles méthodes épidémiologiques et leurs applications, mais aussi pour s'assurer que ces méthodes sont toujours intégrées dans la bonne perspective populationnelle.

 

Retour

Lundi, Février 28 2011 21: 01

Évaluation de l'exposition

L'évaluation des expositions est une étape cruciale dans l'identification des dangers sur le lieu de travail par le biais d'une enquête épidémiologique. Le processus d'évaluation de l'exposition peut être subdivisé en une série d'activités. Ceux-ci inclus:

  1. dresser un inventaire des agents et mélanges potentiellement toxiques présents dans l'environnement de travail visé
  2. déterminer comment les expositions se produisent et quelle est la probabilité qu'elles varient d'un employé à l'autre
  3. sélectionner des mesures ou des indices appropriés pour quantifier les expositions
  4. la collecte de données qui permettront aux participants à l'étude de se voir attribuer des valeurs d'exposition qualitatives ou quantitatives pour chaque mesure. Dans la mesure du possible, ces activités doivent être menées sous la direction d'un hygiéniste industriel qualifié.

 

Les études de santé au travail sont souvent critiquées en raison des insuffisances dans l'évaluation des expositions. Des insuffisances peuvent entraîner une classification erronée différentielle ou non différentielle de l'exposition et un biais ou une perte de précision subséquente dans les analyses exposition-effet. Des efforts pour améliorer la situation sont attestés par plusieurs conférences internationales récentes et des textes consacrés à ce sujet (ACGIH 1991 ; Armstrong et al. 1992 ; Actes de la Conférence sur l'évaluation rétrospective des expositions professionnelles en épidémiologie 1995). De toute évidence, les développements techniques offrent de nouvelles opportunités pour faire progresser l'évaluation de l'exposition. Ces développements comprennent des améliorations dans l'instrumentation analytique, une meilleure compréhension des processus pharmacocinétiques et la découverte de nouveaux biomarqueurs d'exposition. Étant donné que les études de santé au travail dépendent souvent d'informations sur l'exposition historique pour lesquelles aucune surveillance spécifique n'aurait été entreprise, la nécessité d'une évaluation rétrospective de l'exposition ajoute une dimension supplémentaire de complexité à ces études. Cependant, des normes améliorées pour l'évaluation et pour assurer la fiabilité de ces évaluations continuent d'être développées (Siemiatycki et al. 1986). Les évaluations de l'exposition prospective, bien sûr, peuvent être plus facilement validées.

Le terme exposition fait référence à la concentration d'un agent à la frontière entre l'individu et l'environnement. L'exposition est normalement présumée lorsqu'un agent est connu pour être présent dans un environnement de travail et qu'il existe une attente raisonnable de contact de l'employé avec cet agent. Les expositions peuvent être exprimées sous la forme d'une concentration moyenne pondérée dans le temps (TWA) sur 8 heures, qui est une mesure de l'intensité d'exposition dont la moyenne a été calculée sur un quart de travail de 8 heures. Les concentrations maximales sont des intensités moyennées sur des périodes de temps plus courtes telles que 15 minutes. L'exposition cumulative est une mesure du produit de l'intensité et de la durée moyennes (par exemple, une concentration moyenne TWA sur 8 heures multipliée par les années travaillées à cette concentration moyenne). Selon la nature de l'étude et les effets sur la santé qui nous intéressent, l'évaluation des expositions de pointe, d'intensité moyenne, cumulatives ou décalées peut être souhaitable.

Par contraste, dose fait référence au dépôt ou à l'absorption d'un agent par unité de temps. La dose ou l'absorption quotidienne d'un agent peut être estimée en combinant des données de mesures environnementales avec des hypothèses standard concernant, entre autres facteurs, les rythmes respiratoires et la pénétration cutanée. Alternativement, l'apport peut être estimé sur la base des données de biosurveillance. La dose serait idéalement mesurée au niveau de l'organe cible d'intérêt.

Les facteurs importants d'évaluation de l'exposition comprennent :

  1. identification des agents concernés
  2. détermination de leur présence et de leurs concentrations dans les milieux environnementaux appropriés (p. ex. air, surfaces de contact)
  3. évaluation des voies de pénétration probables (inhalation, absorption cutanée, ingestion), de la durée d'exposition (variation quotidienne) et de la durée cumulée d'exposition exprimée en semaines, mois ou années
  4. évaluation de l'efficacité des contrôles techniques et personnels (p. ex., l'utilisation de vêtements de protection et de protection respiratoire peut atténuer les expositions) et, enfin
  5. l'hôte et d'autres considérations susceptibles de moduler les concentrations dans les organes cibles.

 

Il s'agit notamment du niveau physique d'activité professionnelle et de l'état de santé antérieur des individus. Une attention particulière doit être portée à l'évaluation de l'exposition à des agents persistants ou ayant tendance à se bioaccumuler (par exemple, certains métaux, radionucléides ou composés organiques stables). Avec ces matériaux, les charges corporelles internes peuvent augmenter insidieusement même lorsque les concentrations environnementales semblent faibles.

Bien que la situation puisse être assez complexe, elle ne l'est souvent pas. Certes, de nombreuses contributions précieuses à l'identification des risques professionnels sont venues d'études utilisant des approches de bon sens pour l'évaluation de l'exposition. Les sources d'information qui peuvent être utiles pour identifier et catégoriser les expositions comprennent :

  1. entretiens avec les employés
  2. les dossiers du personnel et de la production de l'employeur (ceux-ci comprennent les dossiers de travail, les descriptions de poste, les historiques des installations et des processus et les inventaires de produits chimiques)
  3. jugement d'expert
  4. registres d'hygiène industrielle (surveillance de la zone, des personnes et de la conformité, et échantillons d'essuyage de surface, ainsi que des rapports sur les risques pour la santé ou des rapports d'enquête complets)
  5. entretiens avec des employés de longue date ou retraités et
  6. données de biosurveillance.

 

Il y a plusieurs avantages à catégoriser les expositions individuelles avec autant de détails que possible. De toute évidence, le caractère informatif d'une étude sera amélioré dans la mesure où les expositions pertinentes ont été adéquatement décrites. Deuxièmement, la crédibilité des résultats peut être accrue car le potentiel de confusion peut être traité de manière plus satisfaisante. Par exemple, les référents et les personnes exposées différeront quant au statut d'exposition, mais peuvent également différer par rapport à d'autres facteurs explicatifs mesurés et non mesurés pour la maladie d'intérêt. Cependant, si un gradient d'exposition peut être établi au sein de la population étudiée, il est moins probable que le même degré de confusion persiste au sein des sous-groupes d'exposition, renforçant ainsi les résultats globaux de l'étude.

Matrices d'exposition professionnelle

L'une des approches les plus pratiques et les plus fréquemment utilisées pour l'évaluation de l'exposition consiste à estimer indirectement les expositions sur la base des intitulés de poste. L'utilisation de matrices d'exposition professionnelle peut être efficace lorsque des antécédents professionnels complets sont disponibles et qu'il existe une constance raisonnable dans les tâches et les expositions associées aux emplois à l'étude. À l'échelle la plus large, des regroupements standard d'industries et de titres d'emploi ont été conçus à partir de données de recensement recueillies régulièrement ou de données professionnelles fournies sur les certificats de décès. Malheureusement, les informations conservées dans ces grands systèmes d'enregistrement sont souvent limitées à la profession « actuelle » ou « habituelle ». De plus, étant donné que les regroupements standard ne tiennent pas compte des conditions présentes sur des lieux de travail spécifiques, ils doivent généralement être considérés comme des substituts bruts de l'exposition.

Pour les études cas-témoins basées sur la communauté et les registres, une évaluation plus détaillée de l'exposition a été réalisée en utilisant l'opinion d'experts pour traduire les données sur les antécédents professionnels obtenues par le biais d'entretiens personnels en évaluations semi-quantitatives des expositions probables à des agents spécifiques (Siemiatycki et al. 1986 ). Des experts, tels que des chimistes et des hygiénistes industriels, sont choisis pour participer à l'évaluation de l'exposition en raison de leurs connaissances et de leur familiarité avec divers procédés industriels. En combinant les données détaillées du questionnaire avec la connaissance des processus industriels, cette approche a été utile pour caractériser les différences d'exposition entre les installations de travail.

L'approche de la matrice emploi-exposition a également été utilisée avec succès dans des études spécifiques à l'industrie et à l'entreprise (Gamble et Spirtas 1976). Les historiques de travail individuels (une liste chronologique des anciens départements et des affectations de travail pour chaque employé) sont souvent conservés dans les dossiers du personnel de l'entreprise et, lorsqu'ils sont disponibles, fournissent un historique de travail complet pour les employés pendant qu'ils travaillent dans cette installation. Ces données peuvent être complétées par des entretiens personnels avec les participants à l'étude. L'étape suivante consiste à répertorier tous les titres d'emploi et les désignations de département ou de domaine de travail utilisés pendant la période d'étude. Celles-ci peuvent facilement atteindre des centaines, voire des milliers, dans de grandes installations multi-procédés ou dans des entreprises d'une industrie, lorsque la production, la maintenance, la recherche, l'ingénierie, les services de support d'usine et les emplois administratifs sont tous pris en compte dans le temps (souvent plusieurs décennies), permettre des changements dans les processus industriels. La consolidation des données peut être facilitée en créant un fichier informatique de tous les enregistrements d'historique de travail, puis en utilisant des routines d'édition pour normaliser la terminologie des titres de poste. Ces emplois impliquant des expositions relativement homogènes peuvent être combinés pour simplifier le processus de liaison des expositions à des emplois individuels. Cependant, le regroupement des emplois et des lieux de travail devrait être étayé dans la mesure du possible par des données de mesure recueillies selon une stratégie d'échantillonnage solide.

Même avec des antécédents de travail informatisés, le couplage rétrospectif des données d'exposition aux individus peut être une tâche difficile. Certes, les conditions de travail seront modifiées à mesure que les technologies changent, que la demande de produits évolue et que de nouvelles réglementations sont mises en place. Il peut également y avoir des changements dans les formulations des produits et les modèles de production saisonniers dans de nombreuses industries. Des enregistrements permanents peuvent être conservés concernant certains changements. Cependant, il est moins probable que des dossiers soient conservés concernant les changements saisonniers et autres changements marginaux de processus et de production. Les employés peuvent également être formés pour effectuer plusieurs tâches, puis faire l'objet d'une rotation entre les tâches à mesure que les demandes de production changent. Toutes ces circonstances ajoutent à la complexité des profils d'exposition des employés. Néanmoins, il existe également des cadres de travail qui sont restés relativement inchangés pendant de nombreuses années. En dernière analyse, chaque milieu de travail doit être évalué à part entière.

En fin de compte, il sera nécessaire de résumer les antécédents d'exposition au travail de chaque personne dans une étude. Une influence considérable sur les mesures finales d'exposition et d'effet du risque a été démontrée (Suarez-Almazor et al. 1992), et il faut donc être très prudent dans le choix de la mesure sommaire d'exposition la plus appropriée.

Hygiène industrielle—Mesure environnementale

La surveillance des expositions professionnelles est une activité permanente fondamentale dans la protection de la santé des employés. Ainsi, les dossiers d'hygiène industrielle peuvent déjà exister au moment où une étude épidémiologique est planifiée. Si tel est le cas, ces données doivent être examinées pour déterminer dans quelle mesure la population cible a été couverte, combien d'années de données sont représentées dans les fichiers et avec quelle facilité les mesures peuvent être liées aux emplois, aux zones de travail et aux individus. Ces déterminations seront utiles à la fois pour évaluer la faisabilité de l'étude épidémiologique et pour identifier les lacunes dans les données qui pourraient être comblées par un échantillonnage d'exposition supplémentaire.

La question de savoir comment relier au mieux les données de mesure à des emplois et à des individus spécifiques est particulièrement importante. L'échantillonnage des zones et des zones respiratoires peut être utile aux hygiénistes industriels pour identifier les sources d'émissions pour des mesures correctives, mais pourrait être moins utile pour caractériser les expositions réelles des employés à moins que des études temporelles minutieuses des activités de travail des employés aient été réalisées. Par exemple, la surveillance continue de la zone peut identifier les expositions par excursion à certains moments de la journée, mais la question demeure de savoir si les employés se trouvaient ou non dans la zone de travail à ce moment-là.

Les données d'échantillonnage personnel fournissent généralement des estimations plus précises de l'exposition des employés tant que l'échantillonnage est effectué dans des conditions représentatives, que l'utilisation d'équipements de protection individuelle est correctement prise en compte et que les tâches et les conditions de traitement sont relativement constantes d'un jour à l'autre. Les échantillons personnels peuvent être facilement liés à l'employé individuel grâce à l'utilisation d'identificateurs personnels. Ces données peuvent être généralisées à d'autres employés dans les mêmes emplois et à d'autres périodes de temps, le cas échéant. Cependant, sur la base de leur propre expérience, Rappaport et al. (1993) ont averti que les concentrations d'exposition peuvent être très variables même parmi les employés affectés à ce qui est considéré comme des groupes d'exposition homogènes. Encore une fois, un jugement d'expert est nécessaire pour décider si oui ou non des groupes d'exposition homogènes peuvent être présumés.

Les chercheurs ont réussi à combiner une approche de matrice emploi-exposition avec l'utilisation de données de mesure environnementale pour estimer les expositions dans les cellules de la matrice. Lorsqu'il s'avère que les données de mesure font défaut, il peut être possible de combler les lacunes dans les données en utilisant la modélisation de l'exposition. Généralement, cela implique de développer un modèle pour relier les concentrations environnementales à des déterminants plus facilement évalués des concentrations d'exposition (par exemple, les volumes de production, les caractéristiques physiques de l'installation, y compris l'utilisation de systèmes de ventilation par aspiration, la volatilité de l'agent et la nature de l'activité de travail). Le modèle est construit pour des environnements de travail avec des concentrations environnementales connues, puis utilisé pour estimer les concentrations dans des environnements de travail similaires dépourvus de données de mesure mais disposant d'informations sur des paramètres tels que les ingrédients constitutifs et les volumes de production. Cette approche peut être particulièrement utile pour l'estimation rétrospective des expositions.

Une autre question d'évaluation importante est la gestion de l'exposition aux mélanges. Premièrement, d'un point de vue analytique, la détection séparée de composés chimiquement apparentés et l'élimination des interférences provenant d'autres substances présentes dans l'échantillon peuvent ne pas être dans les limites de la capacité de la procédure analytique. Les diverses limites des procédures analytiques utilisées pour fournir des données de mesure doivent être évaluées et les objectifs de l'étude modifiés en conséquence. Deuxièmement, il se peut que certains agents soient presque toujours utilisés ensemble et donc présents à peu près dans les mêmes proportions relatives dans tout l'environnement de travail étudié. Dans cette situation, les analyses statistiques internes per se ne seront pas utiles pour distinguer si les effets sont dus ou non à l'un ou l'autre des agents ou dus à une combinaison des agents. De tels jugements ne seraient possibles que sur la base de l'examen d'études externes dans lesquelles les mêmes combinaisons d'agents n'avaient pas eu lieu. Enfin, dans les situations où différents matériaux sont utilisés de manière interchangeable selon les spécifications du produit (par exemple, l'utilisation de différents colorants pour obtenir les contrastes de couleurs souhaités), il peut être impossible d'attribuer des effets à un agent spécifique.

Surveillance biologique

Les biomarqueurs sont des altérations moléculaires, biochimiques ou cellulaires qui peuvent être mesurées dans des milieux biologiques tels que des tissus, des cellules ou des fluides humains. L'une des principales raisons de développer des biomarqueurs d'exposition est de fournir une estimation de la dose interne pour un agent particulier. Cette approche est particulièrement utile lorsque plusieurs voies d'exposition sont probables (par exemple, inhalation et absorption cutanée), lorsque l'équipement de protection est porté par intermittence ou lorsque les conditions d'exposition sont imprévisibles. La biosurveillance peut être particulièrement avantageuse lorsque les agents d'intérêt sont connus pour avoir des demi-vies biologiques relativement longues. D'un point de vue statistique, un avantage de la surveillance biologique par rapport à la surveillance de l'air peut être observé avec des agents ayant une demi-vie aussi courte que dix heures, selon le degré de variabilité environnementale (Droz et Wu 1991). Les demi-vies extrêmement longues de matériaux tels que les dioxines chlorées (mesurées en années) font de ces composés des candidats idéaux pour la surveillance biologique. Comme pour les méthodes analytiques de mesure des concentrations dans l'air, il faut être conscient des interférences potentielles. Par exemple, avant d'utiliser un métabolite particulier comme biomarqueur, il convient de déterminer si d'autres substances courantes, telles que celles contenues dans certains médicaments et dans la fumée de cigarette, pourraient être métabolisées vers le même point final. En général, une connaissance de base de la pharmacocinétique d'un agent est nécessaire avant que la surveillance biologique ne soit utilisée comme base pour l'évaluation de l'exposition.

Les points de mesure les plus fréquents sont l'air alvéolaire, l'urine et le sang. Les échantillons d'air alvéolaire peuvent être utiles pour caractériser les fortes expositions à court terme aux solvants qui se sont produites dans les minutes ou les heures suivant le prélèvement de l'échantillon. Des échantillons urinaires sont généralement prélevés pour déterminer les taux d'excrétion des métabolites du composé d'intérêt. Des échantillons de sang peuvent être prélevés pour une mesure directe du composé, pour la mesure de métabolites ou pour la détermination d'adduits de protéines ou d'ADN (par exemple, des adduits d'albumine ou d'hémoglobine et des adduits d'ADN dans les lymphocytes circulants). Les cellules tissulaires accessibles, telles que les cellules épithéliales de la zone buccale de la bouche, peuvent également être échantillonnées pour l'identification des adduits d'ADN.

La détermination de l'activité de la cholinestérase dans les globules rouges et le plasma illustre l'utilisation des altérations biochimiques comme mesure de l'exposition. Les pesticides organophosphorés inhibent l'activité de la cholinestérase et, par conséquent, la mesure de cette activité avant et après une exposition probable à ces composés peut être un indicateur utile de l'intensité de l'exposition. Cependant, à mesure que l'on progresse dans le spectre des altérations biologiques, il devient plus difficile de faire la distinction entre les biomarqueurs d'exposition et ceux d'effet. En général, les mesures d'effet ont tendance à être non spécifiques à la substance d'intérêt et, par conséquent, d'autres explications potentielles de l'effet peuvent devoir être évaluées afin de soutenir l'utilisation de ce paramètre comme mesure d'exposition. Les mesures d'exposition doivent soit être directement liées à l'agent d'intérêt, soit il doit y avoir une base solide pour lier toute mesure indirecte à l'agent. Malgré ces réserves, la surveillance biologique est très prometteuse comme moyen d'améliorer l'évaluation de l'exposition à l'appui des études épidémiologiques.

Conclusions

En faisant des comparaisons dans les études d'épidémiologie professionnelle, il est nécessaire d'avoir un groupe de travailleurs exposés à comparer avec un groupe de travailleurs non exposés. De telles distinctions sont grossières, mais peuvent être utiles pour identifier les zones problématiques. Il est clair cependant que plus la mesure de l'exposition sera fine, plus l'étude sera utile, notamment en termes de capacité à identifier et à développer des programmes d'intervention bien ciblés.

 

Retour

Lundi, Février 28 2011 21: 03

Résumé des mesures d'exposition au travail

Les chercheurs ont de la chance lorsqu'ils ont à leur disposition une chronologie détaillée de l'expérience de vie professionnelle des travailleurs qui fournit un aperçu historique des emplois qu'ils ont occupés au fil du temps. Pour ces travailleurs un matrice d'exposition professionnelle peut ensuite être configuré pour permettre à chaque changement d'emploi qu'un travailleur a subi d'être associé à des informations d'exposition spécifiques.

Les antécédents d'exposition détaillés doivent être résumés à des fins d'analyse afin de déterminer s'il existe des tendances évidentes qui pourraient être liées à des problèmes de santé et de sécurité au travail. Nous pouvons visualiser une liste de, disons, 20 changements d'emploi qu'un travailleur a subis au cours de sa vie professionnelle. Il existe alors plusieurs manières alternatives de résumer les détails de l'exposition (pour chacun des 20 changements d'emploi dans cet exemple), en tenant compte de la durée et/ou de la concentration/dose/niveau d'exposition.

Il est important de noter, cependant, que des conclusions différentes d'une étude pourraient être tirées selon la méthode choisie (Suarez-Almazor et al. 1992). Un exemple de cinq mesures récapitulatives de l'exposition au travail est présenté dans le tableau 1.

Tableau 1. Formules et dimensions ou unités des cinq mesures sommaires sélectionnées de l'exposition au travail

Mesure d'exposition

Laits en poudre

Dimensions/Unités

Indice d'exposition cumulée (IEC)

Σ (grade x temps d'exposition)

classe et temps

Note moyenne (MG)

Σ (grade x temps d'exposition)/temps total d'exposition

grade

Note la plus élevée jamais enregistrée (HG)

grade le plus élevé auquel il a été exposé pendant ≥ 7 jours

grade

Note moyenne pondérée dans le temps (TWA)

Σ (grade x temps d'exposition)/temps total employé

grade

Temps total d'exposition (TTE)

Σ temps d'exposition

fiable

Adapté de Suarez-Almazor et al. 1992.

Indice d'exposition cumulée. L'indice d'exposition cumulée (IEC) équivaut à la « dose » dans les études toxicologiques et représente la somme, sur une vie active, des produits du degré d'exposition et de la durée d'exposition pour chaque titre d'emploi successif. Il inclut le temps dans ses unités.

Note moyenne. Le grade moyen (MG) cumule les produits du grade d'exposition et de la durée d'exposition pour chaque titre d'emploi successif (c'est-à-dire le CEI) et divise par le temps total d'exposition à tout grade supérieur à zéro. MG est indépendant du temps dans ses unités ; la mesure sommaire pour une personne exposée pendant une longue période à une concentration élevée sera similaire à celle pour une personne exposée pendant une courte période à une concentration élevée. Dans n'importe quel ensemble apparié dans une étude cas-témoins, MG est un degré moyen d'exposition par unité de temps d'exposition. Il s'agit d'une note moyenne pour le temps effectivement exposé à l'agent considéré.

La note la plus élevée de tous les temps. Le grade le plus élevé de tous les temps (HG) est déterminé à partir de l'analyse des antécédents de travail pour l'affectation au grade le plus élevé au cours de la période d'observation à laquelle le travailleur a été exposé pendant au moins sept jours. Le HG pourrait déformer l'exposition professionnelle d'une personne car, de par sa formulation même, il est basé sur une procédure de maximisation plutôt que sur une moyenne et est donc indépendant de la durée d'exposition dans ses unités.

Note moyenne pondérée dans le temps. La note moyenne pondérée dans le temps (TWA) est l'indice d'exposition cumulée (IEC) divisé par le temps total employé. Dans n'importe quel ensemble apparié dans une étude cas-témoin, la note TWA est moyenne sur le temps total employé. Il diffère de MG, qui calcule la moyenne uniquement sur le temps total réellement exposé. Ainsi, le grade TWA peut être considéré comme une exposition moyenne par unité de temps pendant toute la durée de l'emploi, quelle que soit l'exposition. per se.

Temps total exposé. Le temps total d'exposition (TTE) accumule toutes les périodes de temps associées à l'exposition en unités de temps. TTE séduit par sa simplicité. Cependant, il est bien admis que les effets sur la santé doivent être liés non seulement à la durée de l'exposition chimique, mais aussi à l'intensité de cette exposition (c'est-à-dire la concentration ou la qualité).

De toute évidence, l'utilité d'une mesure d'exposition sommaire est déterminée par le poids respectif qu'elle attribue soit à la durée, soit à la concentration d'exposition, soit aux deux. Ainsi, différentes mesures peuvent produire des résultats différents (Walker et Blettner 1985). Idéalement, la mesure sommaire choisie devrait être basée sur un ensemble d'hypothèses défendables concernant le mécanisme biologique postulé pour l'agent ou l'association de maladies à l'étude (Smith 1987). Cette procédure n'est cependant pas toujours possible. Très souvent, l'effet biologique de la durée d'exposition ou de la concentration de l'agent étudié est inconnu. Dans ce contexte, l'utilisation de différentes mesures d'exposition peut être utile pour suggérer un mécanisme par lequel l'exposition exerce son effet.

Il est recommandé qu'en l'absence de modèles éprouvés d'évaluation de l'exposition, diverses mesures sommaires de l'exposition au travail soient utilisées pour estimer le risque. Cette approche faciliterait la comparaison des résultats entre les études.

 

Retour

Mardi 01 Mars 2011 01: 58

Mesurer les effets des expositions

L'épidémiologie consiste à mesurer l'occurrence des maladies et à quantifier les associations entre les maladies et les expositions.

Mesures de l'occurrence de la maladie

La survenue de la maladie peut être mesurée par fréquences (compte) mais est mieux décrit par les taux, qui sont composés de trois éléments : le nombre de personnes touchées (numérateur), le nombre de personnes dans la population source ou de base (c'est-à-dire la population à risque) dont sont issues les personnes touchées et la période couverte. Le dénominateur du taux est le temps-personne total vécu par la population source. Les taux permettent des comparaisons plus informatives entre des populations de tailles différentes que les décomptes seuls. Analyse, la probabilité qu'un individu développe une maladie au cours d'une période de temps spécifiée, est une proportion, allant de 0 à 1, et n'est pas un taux per se. Taux d'attaque, la proportion de personnes dans une population qui sont touchées au cours d'une période donnée, est techniquement une mesure du risque, pas un taux.

La morbidité spécifique à la maladie comprend incidence, qui fait référence au nombre de personnes nouvellement diagnostiquées avec la maladie d'intérêt. Prévalence fait référence au nombre de cas existants. Mortalité fait référence au nombre de personnes décédées.

Incidence est défini comme le nombre de cas nouvellement diagnostiqués au cours d'une période donnée, alors que le taux d'incidence est ce nombre divisé par le temps-personne total vécu par la population source (tableau 1). Pour le cancer, les taux sont généralement exprimés en taux annuels pour 100,000 1,000 personnes. Les taux d'autres maladies plus courantes peuvent être exprimés pour un plus petit nombre de personnes. Par exemple, les taux de malformations congénitales sont généralement exprimés pour XNUMX XNUMX naissances vivantes. Incidence cumulée, la proportion de personnes qui deviennent des cas au cours d'une période donnée, est une mesure du risque moyen pour une population. 

Tableau 1. Mesures de l'occurrence de la maladie : population hypothétique observée pendant une période de cinq ans

Cas nouvellement diagnostiqués

10

Cas vivants précédemment diagnostiqués

12

Décès, toutes causes*

5

Décès, maladie d'intérêt

3

Personnes dans la population

100

Années observées

5

Incidence

10 personnes

Taux d'incidence annuel

Prévalence ponctuelle (à la fin de la 5e année)

(10 + 12 - 3) = 19 personnes

Prévalence de la période (période de cinq ans)

(10 + 12) = 22 personnes

Taux de mortalité annuel

Taux de mortalité annuel

*Pour simplifier les calculs, cet exemple suppose que tous les décès sont survenus à la fin de la période de cinq ans, de sorte que les 100 personnes de la population étaient en vie pendant les cinq années complètes.

Prévalence inclut prévalence ponctuelle, le nombre de cas de maladie à un moment donné, et prévalence de la période, le nombre total de cas d'une maladie dont on sait qu'elle a existé à un moment donné au cours d'une période donnée.

Mortalité, qui concerne les décès plutôt que les nouveaux cas de maladie diagnostiqués, reflète les facteurs qui causent la maladie ainsi que les facteurs liés à la qualité des soins médicaux, tels que le dépistage, l'accès aux soins médicaux et la disponibilité de traitements efficaces. Par conséquent, les efforts de génération d'hypothèses et la recherche étiologique peuvent être plus informatifs et plus faciles à interpréter lorsqu'ils sont basés sur l'incidence plutôt que sur les données de mortalité. Cependant, les données sur la mortalité sont souvent plus facilement disponibles sur de grandes populations que les données sur l'incidence.

Le terme taux de mortalité désigne généralement le taux de décès toutes causes confondues, alors que taux de mortalité est le taux de décès dû à une cause spécifique. Pour une maladie donnée, la taux de létalité (techniquement une proportion, pas un taux) est le nombre de personnes qui meurent de la maladie au cours d'une période donnée divisé par le nombre de personnes atteintes de la maladie. Le complément du taux de létalité est le taux de survie. Le taux de survie à cinq ans est une référence commune pour les maladies chroniques telles que le cancer.

La survenue d'une maladie peut varier selon les sous-groupes de la population ou dans le temps. Une mesure de la maladie pour une population entière, sans tenir compte d'aucun sous-groupe, est appelée une taux brut. Par exemple, un taux d'incidence pour tous les groupes d'âge combinés est un taux brut. Les taux pour les différents groupes d'âge sont les taux selon l'âge. Pour comparer deux ou plusieurs populations avec des distributions d'âge différentes, ajusté selon l'âge (ou, normalisé selon l'âge) les taux doivent être calculés pour chaque population en multipliant chaque taux spécifique à l'âge par le pourcentage de la population type (par exemple, l'une des populations à l'étude, la population des États-Unis de 1970) dans ce groupe d'âge, puis en additionnant tous les groupes d'âge pour obtenir produire un taux global ajusté selon l'âge. Les taux peuvent être ajustés en fonction de facteurs autres que l'âge, tels que la race, le sexe ou le statut de fumeur, si les taux spécifiques à la catégorie sont connus.

La surveillance et l'évaluation des données descriptives peuvent fournir des indices sur l'étiologie de la maladie, identifier les sous-groupes à haut risque qui pourraient convenir à des programmes d'intervention ou de dépistage et fournir des données sur l'efficacité de ces programmes. Les sources d'information qui ont été utilisées pour les activités de surveillance comprennent les certificats de décès, les dossiers médicaux, les registres du cancer, d'autres registres de maladies (p. enregistrements.

Mesures d'association

L'épidémiologie tente d'identifier et de quantifier les facteurs qui influencent la maladie. Dans l'approche la plus simple, l'occurrence de la maladie chez les personnes exposées à un facteur suspect est comparée à l'occurrence chez les personnes non exposées. L'ampleur d'une association entre l'exposition et la maladie peut être exprimée soit en absolu or relatif termes. (Voir aussi « Étude de cas : Mesures »).

Les effets absolus sont mesurés par différences de taux et différences de risque (Tableau 2). UNE différence de taux est un taux moins un deuxième taux. Par exemple, si le taux d'incidence de la leucémie chez les travailleurs exposés au benzène est de 72 pour 100,000 12 années-personnes et que le taux chez les travailleurs non exposés est de 100,000 pour 60 100,000 années-personnes, alors la différence de taux est de XNUMX pour XNUMX XNUMX années-personnes. UNE différence de risque est une différence de risques ou d'incidence cumulée et peut aller de -1 à 1. 

 


Tableau 2. Mesures d'association pour une étude de cohorte

 

 

Étuis

Personnes-années à risque

Taux pour 100,000 XNUMX

Exposé

100

20,000

500

Non exposé

200

80,000

250

Total

300

100,000

300

Différence de taux (DR) = 500/100,000 250 - 100,000/XNUMX XNUMX

= 250/100,000 XNUMX par an

(146.06/100,000 353.94 - 100,000/XNUMX XNUMX)*

Ratio de taux (ou risque relatif) (RR) =  

Risque attribuable aux personnes exposées (ARe) = 100/20,000 200 - 80,000/XNUMX XNUMX

= 250/100,000 XNUMX par an

Pourcentage de risque attribuable chez les personnes exposées (ARe%) =

 Risque attribuable à la population (PAR) = 300/100,000 200 - 80,000/XNUMX XNUMX

= 50/100,000 XNUMX par an

Pourcentage de risque attribuable à la population (PAR%) =

 * Entre parenthèses Intervalles de confiance à 95 % calculés à l'aide des formules dans les encadrés.


 

Effets relatifs sont basés sur des ratios de taux ou des mesures de risque, plutôt que sur des différences. UNE rapport de taux est le rapport d'un taux dans une population au taux dans une autre. Le ratio de taux a également été appelé le rapport de risque, risque relatif, taux relatifet incidence (ou mortalité) rapport de taux. La mesure est sans dimension et va de 0 à l'infini. Lorsque le taux dans deux groupes est similaire (c'est-à-dire qu'il n'y a pas d'effet de l'exposition), le rapport de taux est égal à l'unité (1). Une exposition qui augmente le risque donnerait un rapport de taux supérieur à l'unité, tandis qu'un facteur de protection donnerait un rapport compris entre 0 et 1. excès de risque relatif est le risque relatif moins 1. Par exemple, un risque relatif de 1.4 peut également être exprimé comme un excès de risque relatif de 40 %.

Dans les études cas-témoins (également appelées études cas-témoins), les personnes atteintes de la maladie sont identifiées (cas) et les personnes non malades sont identifiées (témoins ou référents). Les expositions passées des deux groupes sont comparées. La probabilité d'être un cas exposé est comparée à la probabilité d'être un témoin exposé. Les décomptes complets des populations sources de personnes exposées et non exposées ne sont pas disponibles, de sorte que les taux de maladie ne peuvent pas être calculés. Au lieu de cela, les cas exposés peuvent être comparés aux témoins exposés en calculant chances relativesou de la rapport de cotes (tableau 3). 

 


Tableau 3. Mesures d'association pour les études cas-témoins : exposition à la poussière de bois et adénocarcinome des fosses nasales et des sinus paranasaux

 

 

Étuis

Contrôles

Exposé

18

55

Non exposé

5

140

Total

23

195

 

Cotes relatives (rapport de cotes) (OR) =

Pourcentage de risque attribuable chez les personnes exposées () =

Pourcentage de risque attribuable à la population (PAR%) =

De = proportion de témoins exposés = 55/195 = 0.28

 

* Entre parenthèses Intervalles de confiance à 95 % calculés à l'aide des formules de l'encadré au verso.

Source : Adapté de Hayes et al. 1986.


 

Les mesures relatives de l'effet sont utilisées plus fréquemment que les mesures absolues pour rendre compte de la force d'une association. Cependant, des mesures absolues peuvent fournir une meilleure indication de l'impact d'une association sur la santé publique. Une petite augmentation relative d'une maladie courante, telle qu'une maladie cardiaque, peut affecter davantage de personnes (grande différence de risque) et avoir plus d'impact sur la santé publique qu'une forte augmentation relative (mais petite différence absolue) d'une maladie rare, telle que angiosarcome du foie.

Test de signification

Les tests de signification statistique sont souvent effectués sur des mesures d'effet pour évaluer la probabilité que l'effet observé diffère de l'hypothèse nulle (c'est-à-dire aucun effet). Alors que de nombreuses études, en particulier dans d'autres domaines de la recherche biomédicale, peuvent exprimer leur importance en valeurs p, les études épidémiologiques présentent généralement intervalles de confiance (CI) (aussi appelé limites de confiance). Un intervalle de confiance à 95 %, par exemple, est une plage de valeurs pour la mesure de l'effet qui comprend la mesure estimée obtenue à partir des données de l'étude et celle qui a une probabilité de 95 % d'inclure la valeur réelle. Les valeurs en dehors de l'intervalle sont considérées comme peu susceptibles d'inclure la véritable mesure de l'effet. Si l'IC d'un rapport de taux inclut l'unité, il n'y a pas de différence statistiquement significative entre les groupes comparés.

Les intervalles de confiance sont plus informatifs que les valeurs de p seules. La taille d'une valeur de p est déterminée par l'une ou les deux raisons. Soit la mesure de l'association (p. ex., rapport des taux, différence de risque) est importante, soit les populations étudiées sont importantes. Par exemple, une petite différence dans les taux de maladie observés dans une grande population peut produire une valeur de p hautement significative. Les raisons de la grande valeur de p ne peuvent pas être identifiées à partir de la seule valeur de p. Les intervalles de confiance nous permettent cependant de démêler les deux facteurs. Premièrement, l'ampleur de l'effet est perceptible par les valeurs de la mesure de l'effet et les nombres englobés par l'intervalle. Des ratios de risque plus élevés, par exemple, indiquent un effet plus fort. Deuxièmement, la taille de la population affecte la largeur de l'intervalle de confiance. Les petites populations avec des estimations statistiquement instables génèrent des intervalles de confiance plus larges que les grandes populations.

Le niveau de confiance choisi pour exprimer la variabilité des résultats (la « signification statistique ») est arbitraire, mais a traditionnellement été de 95 %, ce qui correspond à une valeur de p de 0.05. Un intervalle de confiance à 95 % a une probabilité de 95 % de contenir la vraie mesure de l'effet. D'autres niveaux de confiance, comme 90 %, sont parfois utilisés.

Les expositions peuvent être dichotomiques (p. ex., exposées et non exposées) ou peuvent impliquer plusieurs niveaux d'exposition. Les mesures des effets (c.-à-d. la réponse) peuvent varier selon le niveau d'exposition. Évaluation exposition-réponse relations est une partie importante de l'interprétation des données épidémiologiques. L'analogue de l'exposition-réponse dans les études animales est la « dose-réponse ». Si la réponse augmente avec le niveau d'exposition, une association est plus susceptible d'être causale que si aucune tendance n'est observée. Les tests statistiques pour évaluer les relations exposition-réponse comprennent le test d'extension de Mantel et le test de tendance du chi carré.

Standardisation

Pour tenir compte de facteurs autres que l'exposition primaire d'intérêt et la maladie, des mesures d'association peuvent être standardisé grâce à des techniques de stratification ou de régression. La stratification consiste à diviser les populations en groupes homogènes par rapport au facteur (p. ex., groupes de sexe, groupes d'âge, groupes de fumeurs). Les rapports de risque ou les rapports de cotes sont calculés pour chaque strate et les moyennes globales pondérées des rapports de risque ou des rapports de cotes sont calculées. Ces valeurs globales reflètent l'association entre l'exposition primaire et la maladie, ajustée du facteur de stratification, c'est-à-dire l'association avec les effets du facteur de stratification supprimé.

A ratio de taux standardisé (SRR) est le rapport de deux taux standardisés. En d'autres termes, un SRR est une moyenne pondérée des ratios de taux spécifiques à la strate où les pondérations pour chaque strate sont la distribution personne-temps du groupe non exposé ou référent. Les SRR de deux groupes ou plus peuvent être comparés si les mêmes poids sont utilisés. Des intervalles de confiance peuvent être construits pour les SRR comme pour les ratios de taux.

La taux de mortalité standardisé (SMR) est une moyenne pondérée des ratios de taux spécifiques à l'âge où les pondérations (par exemple, personne-temps à risque) proviennent du groupe à l'étude et les taux proviennent de la population de référence, à l'opposé de la situation dans un SRR. La population de référence habituelle est la population générale, dont les taux de mortalité peuvent être facilement disponibles et basés sur de grands nombres et sont donc plus stables que l'utilisation des taux d'une cohorte non exposée ou d'un sous-groupe de la population professionnelle étudiée. L'utilisation des poids de la cohorte au lieu de la population de référence est appelée standardisation indirecte. Le SMR est le rapport du nombre observé de décès dans la cohorte au nombre attendu, basé sur les taux de la population de référence (le rapport est généralement multiplié par 100 pour la présentation). S'il n'y a pas d'association, le SMR est égal à 100. Il convient de noter qu'étant donné que les taux proviennent de la population de référence et que les pondérations proviennent du groupe d'étude, deux SMR ou plus ont tendance à ne pas être comparables. Cette non-comparabilité est souvent oubliée dans l'interprétation des données épidémiologiques et des conclusions erronées peuvent être tirées.

Effet travailleur en bonne santé

Il est très courant que les cohortes professionnelles aient une mortalité totale inférieure à celle de la population générale, même si les travailleurs courent un risque accru pour certaines causes de décès dues à des expositions sur le lieu de travail. Ce phénomène, appelé le effet travailleur en bonne santé, reflète le fait que tout groupe de personnes employées est susceptible d'être en meilleure santé, en moyenne, que la population générale, qui comprend les travailleurs et les personnes incapables de travailler en raison de maladies et d'incapacités. Le taux de mortalité global dans la population générale a tendance à être plus élevé que celui des travailleurs. L'effet varie en intensité selon la cause du décès. Par exemple, il semble être moins important pour le cancer en général que pour la maladie pulmonaire obstructive chronique. L'une des raisons en est qu'il est probable que la plupart des cancers ne se seraient pas développés à partir d'une prédisposition au cancer sous-jacente à la sélection d'emploi/de carrière à un plus jeune âge. L'effet du travailleur en bonne santé dans un groupe de travailleurs donné a tendance à diminuer avec le temps.

Mortalité proportionnelle

Parfois, un tableau complet d'une cohorte (c'est-à-dire le temps-personne à risque) n'est pas disponible et il n'y a d'informations que sur les décès ou un sous-ensemble de décès subis par la cohorte (par exemple, les décès parmi les retraités et les employés actifs, mais pas parmi les travailleurs qui ont quitté leur emploi avant d'avoir droit à une pension). Le calcul des années-personnes nécessite des méthodes spéciales pour traiter l'évaluation du temps-personne, y compris les méthodes des tables de mortalité. Sans informations sur le temps-personne total de tous les membres de la cohorte, quel que soit le statut de la maladie, les SMR et les SRR ne peuvent pas être calculés. Au lieu, taux de mortalité proportionnels (PMR) peuvent être utilisés. Un TMP est le rapport du nombre observé de décès dus à une cause spécifique par rapport au nombre attendu, basé sur la proportion du nombre total de décès dus à la cause spécifique dans la population de référence, multiplié par le nombre total de décès dans l'étude groupe, multiplié par 100.

Comme la proportion de décès toutes causes confondues doit être égale à 1 (TMP=100), certains TMP peuvent sembler excédentaires, mais sont en réalité artificiellement gonflés en raison des déficits réels des autres causes de décès. De même, certains déficits apparents peuvent simplement refléter des excès réels d'autres causes de décès. Par exemple, si les épandeurs aériens de pesticides ont un grand excédent réel de décès dus à des accidents, l'exigence mathématique selon laquelle le PMR pour toutes les causes combinées est égal à 100 peut faire apparaître une ou d'autres causes de décès comme déficientes même si la mortalité est excessive. Pour remédier à ce problème potentiel, les chercheurs qui s'intéressent principalement au cancer peuvent calculer ratios proportionnels de mortalité par cancer (PCMR). Les PCMR comparent le nombre observé de décès par cancer au nombre attendu en fonction de la proportion du nombre total de décès par cancer (plutôt que de tous les décès) pour le cancer d'intérêt dans la population de référence multiplié par le nombre total de décès par cancer dans le groupe d'étude, multiplié par 100. Ainsi, le PCMR ne sera pas affecté par une aberration (excès ou déficit) dans une cause de décès non cancéreuse, comme les accidents, les maladies cardiaques ou les maladies pulmonaires non malignes.

Les études PMR peuvent être mieux analysées en utilisant rapports de cotes de mortalité (MORs), analysant essentiellement les données comme si elles provenaient d'une étude cas-témoin. Les « témoins » sont les décès d'un sous-ensemble de tous les décès que l'on pense être sans rapport avec l'exposition à l'étude. Par exemple, si l'intérêt principal de l'étude était le cancer, les rapports de cotes de mortalité pourraient être calculés en comparant l'exposition parmi les décès par cancer à l'exposition parmi les décès cardiovasculaires. Cette approche, comme le PCMR, évite les problèmes avec le PMR qui surviennent lorsqu'une fluctuation d'une cause de décès affecte le risque apparent d'une autre simplement parce que le PMR global doit être égal à 100. Le choix des causes de décès de contrôle est cependant critique. . Comme mentionné ci-dessus, ils ne doivent pas être liés à l'exposition, mais la relation possible entre l'exposition et la maladie peut ne pas être connue pour de nombreuses maladies de contrôle potentielles.

Risque attribuable

Il existe des mesures disponibles qui expriment la quantité de maladie qui serait attribuable à une exposition si l'association observée entre l'exposition et la maladie était causale. Le risque attribuable chez les personnes exposées (A.R.e) est le taux de maladie chez les personnes exposées moins le taux chez les personnes non exposées. Étant donné que les taux de maladie ne peuvent pas être mesurés directement dans les études cas-témoins, le RAe est calculable uniquement pour les études de cohorte. Une mesure connexe, plus intuitive, la pourcentage de risque attribuable chez les personnes exposées (A.R.e%), peut être obtenu à partir de l'un ou l'autre plan d'étude. La RAe% est la proportion de cas survenant dans la population exposée qui est attribuable à l'exposition (voir les tableaux 2 et 3 pour la formule). La RAe% est le rapport de taux (ou rapport de cotes) moins 1, divisé par le rapport de taux (ou rapport de cotes), multiplié par 100.

La risque attribuable à la population (PAR) et le risque attribuable à la population % (PAR%), ou fraction étiologique, expriment la quantité de maladies dans la population totale, composée de personnes exposées et non exposées, qui sont dues à l'exposition si l'association observée est causale. Le PAR peut être obtenu à partir d'études de cohorte (tableau 28.3 ) et le PAR% peut être calculé à la fois dans des études de cohorte et des études cas-témoins (tableau 2 et tableau 3).

Représentativité

Plusieurs mesures de risque ont été décrites. Chacun suppose des méthodes sous-jacentes pour compter les événements et dans les représentants de ces événements à un groupe défini. Lorsque les résultats sont comparés entre les études, une compréhension des méthodes utilisées est essentielle pour expliquer les différences observées.

 

Retour

L'épidémiologiste s'intéresse aux relations entre les variables, principalement les variables d'exposition et de résultat. Généralement, les épidémiologistes veulent déterminer si l'apparition d'une maladie est liée à la présence d'un agent particulier (exposition) dans la population. Les façons dont ces relations sont étudiées peuvent varier considérablement. On peut identifier toutes les personnes qui sont exposées à cet agent et les suivre pour mesurer l'incidence de la maladie, en comparant cette incidence avec l'apparition de la maladie dans une population non exposée appropriée. Alternativement, on peut simplement échantillonner parmi les exposés et les non exposés, sans en avoir une énumération complète. Ou, comme troisième alternative, on peut identifier toutes les personnes qui développent une maladie d'intérêt dans une période de temps définie ("cas") et un groupe approprié d'individus indemnes de la maladie (un échantillon de la population source de cas), et déterminer si les schémas d'exposition diffèrent entre les deux groupes. Le suivi des participants à l'étude est une option (dans les études dites longitudinales) : dans cette situation, un décalage temporel existe entre la survenue de l'exposition et l'apparition de la maladie. Une option alternative est un échantillon représentatif de la population, où l'exposition et la maladie sont mesurées au même moment.

Dans cet article, l'attention est portée sur les modèles d'étude communs - cohorte, cas-référent (cas-témoin) et transversal. Pour préparer le terrain pour cette discussion, considérons une grande usine de rayonne viscose dans une petite ville. Une enquête visant à déterminer si l'exposition au sulfure de carbone augmente le risque de maladie cardiovasculaire est lancée. L'enquête a plusieurs choix de conception, certains plus et d'autres moins évidents. Une première stratégie consiste à identifier tous les travailleurs qui ont été exposés au sulfure de carbone et à les suivre pour la mortalité cardiovasculaire.

Etudes de cohorte

Une étude de cohorte englobe les participants à la recherche partageant un événement commun, l'exposition. Une étude de cohorte classique identifie un groupe défini de personnes exposées, puis chacune est suivie et son expérience de morbidité et/ou de mortalité est enregistrée. Outre une exposition qualitative commune, la cohorte doit également être définie sur d'autres critère d'éligibilité, tels que la tranche d'âge, le sexe (homme ou femme ou les deux), la durée et l'intensité minimales de l'exposition, l'absence d'autres expositions, etc., afin d'améliorer la validité et l'efficacité de l'étude. À l'entrée, tous les membres de la cohorte doivent être indemnes de la maladie à l'étude, selon l'ensemble empirique de critères utilisés pour mesurer la maladie.

Si, par exemple, dans l'étude de cohorte sur les effets du sulfure de carbone sur la morbidité coronarienne, les maladies coronariennes sont empiriquement mesurées comme des infarctus cliniques, ceux qui, au départ, ont eu des antécédents d'infarctus coronarien doivent être exclus de la cohorte. En revanche, des anomalies électrocardiographiques sans antécédent d'infarctus peuvent être acceptées. Cependant, si l'apparition de nouveaux changements électrocardiographiques est la mesure de résultat empirique, les membres de la cohorte devraient également avoir des électrocardiogrammes normaux au départ.

Pour déterminer le risque relatif de la maladie ou la mort par exposition. L'utilisation d'une cohorte similaire mais non exposée comme fournisseur de l'expérience de référence est préférable à la (mauvaise) pratique courante consistant à comparer la morbidité ou la mortalité de la cohorte exposée à des chiffres nationaux normalisés selon l'âge, car la population générale ne parvient même pas à remplir les critères les plus exigences élémentaires pour la validité de la comparaison. Le ratio standardisé de morbidité (ou mortalité) (SMR), résultant d'une telle comparaison, génère généralement une sous-estimation du vrai risque relatif en raison d'un biais opérant dans la cohorte exposée, conduisant à l'absence de comparabilité entre les deux populations. Ce biais de comparaison a été nommé « l'effet du travailleur en bonne santé ». Cependant, ce n'est vraiment pas un véritable "effet", mais un biais de confusion négative, qui à son tour découle du roulement sélectif en matière de santé dans une population active. (Les personnes en mauvaise santé ont tendance à quitter ou à ne jamais entrer dans les cohortes « exposées », leur destination finale étant souvent la section des chômeurs de la population générale.)

Étant donné qu'une cohorte « exposée » est définie comme ayant une certaine exposition, seuls effets causés par cette exposition unique (ou mélange d'expositions) peuvent être étudiés simultanément. D'autre part, le plan de cohorte permet d'étudier plusieurs maladies à la fois. On peut également étudier simultanément différentes manifestations de la même maladie, par exemple l'angor, les modifications de l'ECG, les infarctus du myocarde cliniques et la mortalité coronarienne. Bien qu'elle soit bien adaptée pour tester des hypothèses spécifiques (par exemple, « l'exposition au sulfure de carbone provoque des maladies coronariennes »), une étude de cohorte fournit également des réponses à la question plus générale : « Quelles maladies sont causées par cette exposition ? »

Par exemple, dans une étude de cohorte portant sur le risque pour les travailleurs de la fonderie de mourir d'un cancer du poumon, les données sur la mortalité sont tirées du registre national des causes de décès. Bien que l'étude visait à déterminer si la poussière de fonderie cause le cancer du poumon, la source de données, avec le même effort, donne également des informations sur toutes les autres causes de décès. Par conséquent, d'autres risques possibles pour la santé peuvent être étudiés en même temps.

Le calendrier d'une étude de cohorte peut être rétrospectif (historique) ou prospectif (simultané). Dans les deux cas, la structure de conception est la même. Un dénombrement complet des personnes exposées a lieu à un moment donné ou à une certaine période, et le résultat est mesuré pour tous les individus jusqu'à un point final défini dans le temps. La différence entre prospective et rétrospective réside dans le moment de l'étude. S'il est rétrospectif, le point final s'est déjà produit ; s'il est prospectif, il faut l'attendre.

Dans le plan rétrospectif, la cohorte est définie à un moment donné dans le passé (par exemple, les personnes exposées le 1er janvier 1961, ou celles qui ont entrepris un travail exposé entre 1961 et 1970). La morbidité et/ou la mortalité de tous les membres de la cohorte est ensuite suivi jusqu'au présent. Bien que « tous » signifie que ceux qui ont quitté leur emploi doivent également être retrouvés, dans la pratique, une couverture de 100 % peut rarement être atteinte. Cependant, plus le suivi est complet, plus l'étude est valide.

Dans la conception prospective, la cohorte est définie au présent ou au cours d'une période future, et la morbidité est ensuite suivie dans le futur.

Lors des études de cohorte, il faut prévoir suffisamment de temps pour le suivi afin que les points finaux préoccupants aient suffisamment de temps pour se manifester. Parfois, étant donné que les enregistrements historiques peuvent n'être disponibles que pour une courte période dans le passé, il est néanmoins souhaitable de tirer parti de cette source de données, car cela signifie qu'une période plus courte de suivi prospectif serait nécessaire avant que les résultats de l'étude puissent être disponible. Dans ces situations, une combinaison des plans d'étude de cohorte rétrospective et prospective peut être efficace. La présentation générale des tableaux de fréquence présentant les données de cohorte est présentée dans le tableau 1.

Tableau 1. Présentation générale des tableaux de fréquence présentant les données de cohorte

Composante du taux de maladie

Cohorte exposée

Cohorte non exposée

Cas de maladie ou de décès

c1

c0

Nombre de personnes dans la cohorte

N1

N0

 

La proportion observée de malades dans la cohorte exposée est calculée comme suit :

et celle de la cohorte de référence comme :

Le rapport de taux s'exprime alors par :

N0 et N1 sont généralement exprimés en unités de temps-personne au lieu du nombre de personnes dans les populations. Les années-personnes sont calculées séparément pour chaque individu. Différentes personnes entrent souvent dans la cohorte pendant une période de temps, pas à la même date. Par conséquent, leurs périodes de suivi commencent à des dates différentes. De même, après leur décès ou après que l'événement d'intérêt s'est produit, ils ne sont plus « à risque » et ne devraient pas continuer à contribuer des années-personnes au dénominateur.

Si le RR est supérieur à 1, la morbidité de la cohorte exposée est supérieure à celle de la cohorte de référence, et inversement. Le RR est une estimation ponctuelle et un intervalle de confiance (IC) doit être calculé pour celui-ci. Plus l'étude est grande, plus l'intervalle de confiance se rétrécit. Si RR = 1 n'est pas inclus dans l'intervalle de confiance (par exemple, l'IC à 95 % est de 1.4 à 5.8), le résultat peut être considéré comme « statistiquement significatif » au niveau de probabilité choisi (dans cet exemple, α = 0.05).

Si la population générale est utilisée comme population de référence, c0 est remplacé par le chiffre "attendu", E(c1 ), dérivé des taux de morbidité ou de mortalité normalisés selon l'âge de cette population (c.-à-d. le nombre de cas qui se seraient produits dans la cohorte si l'exposition d'intérêt n'avait pas eu lieu). Cela donne le rapport standardisé de mortalité (ou de morbidité), SMR. Ainsi,

Pour le SMR également, un intervalle de confiance doit être calculé. Il est préférable de donner cette mesure dans une publication plutôt qu'une valeur de p, car les tests de signification statistique n'ont aucun sens si la population générale est la catégorie de référence. Une telle comparaison comporte un biais considérable (le effet travailleur en bonne santé noté ci-dessus), et les tests de signification statistique, développés à l'origine pour la recherche expérimentale, sont trompeurs en présence d'erreurs systématiques.

Supposons que la question soit de savoir si la poussière de quartz cause le cancer du poumon. Habituellement, la poussière de quartz se produit avec d'autres agents cancérigènes, tels que les produits de filiation du radon et les gaz d'échappement diesel dans les mines, ou les hydrocarbures polyaromatiques dans les fonderies. Les carrières de granit n'exposent pas les travailleurs de la pierre à ces autres agents cancérigènes. Par conséquent, le problème est mieux étudié parmi les travailleurs de la pierre employés dans les carrières de granit.

Supposons alors que les 2,000 20 travailleurs, ayant été employés par 1951 carrières entre 1960 et 1990, soient inscrits dans la cohorte et que leur incidence de cancer (ou seulement la mortalité) soit suivie à partir de dix ans après la première exposition (pour tenir compte d'un temps d'induction) et se terminant en 20. Il s'agit d'un suivi de 30 à 25 ans (selon l'année d'entrée) ou, disons, de 1,000 ans en moyenne, de la mortalité (ou de la morbidité) par cancer chez XNUMX XNUMX ouvriers de la carrière qui étaient spécifiquement des ouvriers du granit. L'historique d'exposition de chaque membre de la cohorte doit être enregistré. Ceux qui ont quitté les carrières doivent être retrouvés et leur historique d'exposition ultérieur enregistré. Dans les pays où tous les habitants ont un numéro d'enregistrement unique, il s'agit d'une procédure simple, régie principalement par les lois nationales sur la protection des données. Lorsqu'aucun système de ce type n'existe, il peut être extrêmement difficile de retrouver les employés à des fins de suivi. Lorsqu'il existe des registres appropriés des décès ou des maladies, la mortalité toutes causes confondues, tous cancers et localisations spécifiques du cancer peut être obtenue à partir du registre national des causes de décès. (Pour la mortalité par cancer, le registre national du cancer est une meilleure source car il contient des diagnostics plus précis. En outre, des données sur l'incidence (ou la morbidité) peuvent également être obtenues.) Les taux de mortalité (ou taux d'incidence du cancer) peuvent être comparés à " nombres attendus », calculés à partir des taux nationaux en utilisant les années-personnes de la cohorte exposée comme base.

Supposons que 70 cas mortels de cancer du poumon soient trouvés dans la cohorte, alors que le nombre attendu (le nombre qui se serait produit s'il n'y avait pas eu d'exposition) est de 35. Alors :

c1 = 70, E(c1) = 35

Ainsi, le SMR = 200, ce qui indique une multiplication par deux du risque de mourir d'un cancer du poumon chez les personnes exposées. Si des données d'exposition détaillées sont disponibles, la mortalité par cancer peut être étudiée en fonction de différents temps de latence (par exemple, 10, 15, 20 ans), du travail dans différents types de carrières (différents types de granit), de différentes périodes historiques, de différentes expositions intensités et ainsi de suite. Cependant, 70 cas ne peuvent pas être subdivisés en trop de catégories, car le nombre entrant dans chacune devient rapidement trop petit pour une analyse statistique.

Les deux types de plans de cohorte présentent des avantages et des inconvénients. Une étude rétrospective ne peut, en règle générale, mesurer que la mortalité, car les données sur les manifestations plus bénignes font généralement défaut. Les registres du cancer sont une exception, et peut-être quelques autres, tels que les registres des accidents vasculaires cérébraux et les registres des sorties d'hôpitaux, dans la mesure où des données sur l'incidence sont également disponibles. L'évaluation de l'exposition passée est toujours un problème et les données d'exposition sont généralement assez faibles dans les études rétrospectives. Cela peut conduire à un effet de masquage. D'autre part, puisque les cas se sont déjà produits, les résultats de l'étude deviennent disponibles beaucoup plus tôt ; dans, disons, deux à trois ans.

Une étude de cohorte prospective peut être mieux planifiée pour se conformer aux besoins du chercheur, et les données d'exposition peuvent être recueillies de manière précise et systématique. Plusieurs manifestations différentes d'une maladie peuvent être mesurées. Les mesures de l'exposition et des résultats peuvent être répétées, et toutes les mesures peuvent être standardisées et leur validité peut être vérifiée. Cependant, si la maladie a une longue latence (comme le cancer), il faudra beaucoup de temps, voire 20 à 30 ans, avant que les résultats de l'étude puissent être obtenus. Il peut se passer beaucoup de choses pendant cette période. Par exemple, le roulement des chercheurs, l'amélioration des techniques de mesure de l'exposition, le remodelage ou la fermeture des plantes choisies pour l'étude, etc. Toutes ces circonstances compromettent le succès de l'étude. Les coûts d'une étude prospective sont également généralement plus élevés que ceux d'une étude rétrospective, mais cela est principalement dû au nombre beaucoup plus élevé de mesures (surveillance d'expositions répétées, examens cliniques, etc.), et non à un enregistrement des décès plus coûteux. Par conséquent, la coûts par unité d'information ne dépassent pas nécessairement ceux d'une étude rétrospective. Au vu de tout cela, les études prospectives sont plus adaptées aux maladies à latence assez courte, nécessitant un suivi court, alors que les études rétrospectives sont plus adaptées aux maladies à latence longue.

Études cas-témoins (ou cas-référents)

Revenons à l'usine de rayonne viscose. Une étude de cohorte rétrospective peut ne pas être réalisable si les listes des travailleurs exposés ont été perdues, alors qu'une étude de cohorte prospective donnerait des résultats solides à très long terme. Une alternative serait alors la comparaison entre les personnes décédées d'une maladie coronarienne dans la ville, au cours d'une période de temps définie, et un échantillon de la population totale du même groupe d'âge.

La conception classique cas-témoin (ou cas-référent) est basée sur un échantillonnage à partir d'une population dynamique (ouverte, caractérisée par une rotation des membres). Cette population peut être celle de tout un pays, d'un district ou d'une commune (comme dans notre exemple), ou bien il peut s'agir de la population administrativement définie à partir de laquelle les patients sont admis dans un hôpital. La population définie fournit à la fois les cas et les témoins (ou référents).

La technique consiste à rassembler tous les cas de la maladie en question qui existent à un point dans le temps (cas prévalents), ou survenus au cours d'une période de temps (cas incidents). Les cas peuvent ainsi être tirés des registres de morbidité ou de mortalité, ou être recueillis directement auprès des hôpitaux ou d'autres sources ayant des diagnostics valides. Les contrôles sont dessinés comme un échantillon de la même population, soit parmi les non-cas, soit dans l'ensemble de la population. Une autre option consiste à Sélectionner des patients atteints d'une autre maladie comme témoins, mais ces patients doivent alors être représentatifs de la population d'où proviennent les cas. Il peut y avoir un ou plusieurs témoins (c'est-à-dire des référents) pour chaque cas. L'approche d'échantillonnage diffère des études de cohorte, qui examinent l'ensemble de la population. Il va sans dire que les gains en termes de moindre coût des plans cas-témoins sont considérables, mais il est important que l'échantillon soit représentant de l'ensemble de la population d'où proviennent les cas (c'est-à-dire la « base de l'étude »), sinon l'étude peut être biaisée.

Lorsque des cas et des témoins ont été identifiés, leurs antécédents d'exposition sont recueillis par des questionnaires, des entretiens ou, dans certains cas, à partir de dossiers existants (par exemple, les registres de paie à partir desquels les antécédents de travail peuvent être déduits). Les données peuvent être obtenues soit auprès des participants eux-mêmes, soit, s'ils sont décédés, auprès de parents proches. Pour assurer un rappel symétrique, il est important que la proportion de cas et de référents morts et vivants soit égale, car les proches parents donnent généralement un historique d'exposition moins détaillé que les participants eux-mêmes. Les informations sur le schéma d'exposition des cas sont comparées à celles des témoins, fournissant une estimation de la rapport de cotes (OR), une mesure indirecte de la risque parmi les personnes exposées de contracter la maladie par rapport à celui des non exposés.

Étant donné que la conception cas-témoin repose sur les informations sur l'exposition obtenues auprès de patients atteints d'une certaine maladie (c'est-à-dire les cas) ainsi que sur un échantillon de personnes non malades (c'est-à-dire les témoins) de la population d'où proviennent les cas, le lien avec les expositions ne peut être étudié que pour une maladie. En revanche, ce design permet l'étude concomitante de l'effet de plusieurs expositions différentes. L'étude cas-témoin est bien adaptée pour répondre à des questions de recherche spécifiques (par exemple, « La maladie coronarienne est-elle causée par l'exposition au sulfure de carbone ? »), mais elle peut également aider à répondre à la question plus générale : « Quelles expositions peuvent causer cette maladie ? » ?"

La question de savoir si l'exposition aux solvants organiques provoque le cancer primitif du foie est posée (à titre d'exemple) en Europe. Les cas de cancer primitif du foie, une maladie relativement rare en Europe, sont mieux recueillis à partir d'un registre national du cancer. Supposons que tous les cas de cancer survenus pendant trois ans forment la série de cas. La population de base de l'étude est alors un suivi de trois ans de l'ensemble de la population du pays européen en question. Les témoins sont tirés comme un échantillon de personnes sans cancer du foie de la même population. Pour des raisons de commodité (c'est-à-dire que la même source peut être utilisée pour l'échantillonnage des témoins), des patients atteints d'un autre type de cancer, non lié à l'exposition aux solvants, peuvent être utilisés comme témoins. Le cancer du côlon n'a aucun lien connu avec l'exposition aux solvants ; par conséquent, ce type de cancer peut être inclus parmi les témoins. (L'utilisation de témoins de cancer minimise le biais de rappel dans la mesure où la précision de l'historique donné par les cas et les témoins est, en moyenne, symétrique. Cependant, si un lien actuellement inconnu entre le cancer du côlon et l'exposition aux solvants était révélé plus tard, ce type de contrôle entraînerait une sous-estimation du vrai risque, et non une exagération de celui-ci.)

Pour chaque cas de cancer du foie, deux témoins sont tirés afin d'obtenir une plus grande puissance statistique. (On pourrait dessiner encore plus de contrôles, mais les fonds disponibles peuvent être un facteur limitant. Si les fonds n'étaient pas limités, peut-être jusqu'à quatre contrôles seraient optimaux. Au-delà de quatre, la loi des rendements décroissants s'applique.) Après avoir obtenu l'autorisation appropriée des données les autorités de protection, les cas et les témoins, ou leurs proches, sont approchés, généralement au moyen d'un questionnaire postal, demandant un historique professionnel détaillé avec un accent particulier sur une liste chronologique des noms de tous les employeurs, les départements de travail, les tâches dans différents emplois et la période d'emploi dans chaque tâche respective. Ces données peuvent être obtenues auprès de proches avec quelques difficultés ; cependant, les produits chimiques ou les noms commerciaux spécifiques ne sont généralement pas bien rappelés par les proches. Le questionnaire devrait également inclure des questions sur d'éventuelles données confusionnelles, telles que la consommation d'alcool, l'exposition à des aliments contenant des aflatoxines et l'infection par les hépatites B et C. Afin d'obtenir un taux de réponse suffisamment élevé, deux relances sont envoyées aux non-répondants à 70 semaines d'intervalle. Cela se traduit généralement par un taux de réponse final supérieur à XNUMX %. Les antécédents professionnels sont ensuite examinés par un hygiéniste industriel, sans connaissance du statut de cas ou de contrôle du répondant, et l'exposition est classée en exposition élevée, moyenne, faible, nulle et inconnue aux solvants. Les dix années d'exposition précédant immédiatement le diagnostic de cancer ne sont pas prises en compte, car il n'est pas biologiquement plausible que des cancérogènes de type initiateur puissent être la cause du cancer si le temps de latence est si court (bien que les promoteurs le puissent en fait). A ce stade, il est également possible de différencier les différents types d'exposition aux solvants. Étant donné qu'un historique professionnel complet a été fourni, il est également possible d'explorer d'autres expositions, bien que l'hypothèse initiale de l'étude ne les inclue pas. Les rapports de cotes peuvent ensuite être calculés pour l'exposition à n'importe quel solvant, à des solvants spécifiques, à des mélanges de solvants, à différentes catégories d'intensité d'exposition et pour différentes fenêtres temporelles en relation avec le diagnostic de cancer. Il est conseillé d'exclure de l'analyse ceux dont l'exposition est inconnue.

Les cas et les témoins peuvent être échantillonnés et analysés soit comme série indépendante or groupes appariés. L'appariement signifie que les contrôles sont sélectionnés pour chaque cas en fonction de certaines caractéristiques ou attributs, pour former des paires (ou des ensembles, si plus d'un contrôle est choisi pour chaque cas). L'appariement est généralement effectué sur la base d'un ou de plusieurs facteurs tels que l'âge, le statut vital, les antécédents de tabagisme, l'heure du diagnostic du cas, etc. Dans notre exemple, les cas et les témoins sont ensuite appariés sur l'âge et le statut vital. (Le statut vital est important, car les patients eux-mêmes donnent généralement un historique d'exposition plus précis que les parents proches, et la symétrie est essentielle pour des raisons de validité.) Aujourd'hui, la recommandation est d'être restrictif avec l'appariement, car cette procédure peut introduire des effets ) confondant.

Si un contrôle correspond à un cas, le plan est appelé un conception à paires assorties. À condition que les coûts d'étude de plusieurs contrôles ne soient pas prohibitifs, plus d'un référent par cas améliore la stabilité de l'estimation de l'OR, ce qui rend l'étude plus efficace en termes de taille.

La disposition des résultats d'une étude cas-témoin non appariée est présentée dans le tableau 2.

Tableau 2. Exemple de mise en page des données cas-témoins

Classification de l'exposition

 

Exposé

Non exposé

Étuis

c1

c0

Non-cas

n1

n0

 

À partir de ce tableau, les probabilités d'exposition parmi les cas et les probabilités d'exposition parmi la population (les témoins) peuvent être calculées et divisées pour donner le rapport de cotes d'exposition, OR. Pour les cas, la probabilité d'exposition est c1 / c0, et pour les contrôles c'est n1 / n0. L'estimation de l'OR est alors :

Si relativement plus de cas que de témoins ont été exposés, l'OR est supérieur à 1 et vice versa. Les intervalles de confiance doivent être calculés et fournis pour l'OR, de la même manière que pour le RR.

A titre d'exemple supplémentaire, un centre de santé au travail d'une grande entreprise dessert 8,000 100 salariés exposés à diverses poussières et autres agents chimiques. Nous nous intéressons au lien entre l'exposition aux poussières mixtes et la bronchite chronique. L'étude consiste à suivre cette population pendant un an. Nous avons défini les critères diagnostiques de la bronchite chronique comme étant « la toux matinale et la production de mucosités pendant trois mois pendant deux années consécutives ». Les critères d'exposition « positive » aux poussières sont définis avant le début de l'étude. Chaque patient visitant le centre de santé et répondant à ces critères pendant une période d'un an est un cas, et le patient suivant demandant un avis médical pour des problèmes non pulmonaires est défini comme un témoin. Supposons que 100 cas et 40 témoins soient inscrits pendant la période d'étude. Soit 15 cas et XNUMX témoins classés comme ayant été exposés à la poussière. Alors

c1 = 40, c0 = 60, n1 = 15, et n0 = 85.

En conséquence,

Dans l'exemple précédent, aucune considération n'a été donnée à la possibilité de confusion, ce qui peut conduire à une distorsion de l'OR en raison de différences systématiques entre les cas et les témoins dans une variable comme l'âge. Une façon de réduire ce biais consiste à faire correspondre les témoins aux cas en fonction de l'âge ou d'autres facteurs suspects. Il en résulte une disposition des données illustrée dans le tableau 3.

Tableau 3. Présentation des données cas-témoins si un témoin est apparié à chaque cas

Référents

Étuis

Exposition (+)

Exposition (-)

Exposition (+)

f+ +

f+ -

Exposition (-)

f- +

f- -

 

L'analyse se concentre sur les paires discordantes : c'est-à-dire « cas exposé, témoin non exposé » (f+–); et « cas non exposé, témoin exposé » (f–+). Lorsque les deux membres d'une paire sont exposés ou non exposés, la paire est ignorée. L'OR dans une conception d'étude à paires appariées est défini comme

Dans une étude sur l'association entre le cancer du nez et l'exposition à la poussière de bois, il y avait au total 164 paires cas-témoins. Dans une seule paire, le cas et le témoin avaient été exposés, et dans 150 paires, ni le cas ni le témoin n'avaient été exposés. Ces paires ne sont pas davantage considérées. Le cas, mais pas le témoin, avait été exposé en 12 paires, et le témoin, mais pas le cas, en une paire. D'où,

et comme l'unité n'est pas incluse dans cet intervalle, le résultat est statistiquement significatif, c'est-à-dire qu'il existe une association statistiquement significative entre le cancer du nez et l'exposition à la poussière de bois.

Les études cas-témoins sont plus efficaces que les études de cohorte lorsque la maladie est rare; ils peuvent en fait fournir la seule option. Cependant, des maladies courantes peuvent également être étudiées par cette méthode. Si la l'exposition est rare, une cohorte basée sur l'exposition est la conception épidémiologique préférable ou la seule réalisable. Bien entendu, des études de cohorte peuvent également être menées sur des expositions courantes. Le choix entre les conceptions de cohorte et de cas-témoins lorsque l'exposition et la maladie sont communes est généralement décidé en tenant compte de considérations de validité.

Étant donné que les études cas-témoins s'appuient sur des données d'exposition rétrospectives, généralement basées sur le souvenir des participants, leur point faible est l'inexactitude et la grossièreté des informations sur l'exposition, ce qui entraîne un masquage des effets par non différentiel classification erronée (symétrique) du statut d'exposition. De plus, le rappel peut parfois être asymétrique entre les cas et les témoins, les cas étant généralement considérés comme se souvenant « mieux » (c'est-à-dire, biais de rappel).

Le rappel sélectif peut provoquer un biais d'amplification de l'effet par différentiel classification erronée (asymétrique) du statut d'exposition. Les avantages des études cas-témoins résident dans leur rapport coût-efficacité et leur capacité à fournir une solution à un problème relativement rapidement. En raison de la stratégie d'échantillonnage, ils permettent l'investigation de très larges populations cibles (par exemple, via les registres nationaux du cancer), augmentant ainsi la puissance statistique de l'étude. Dans les pays où la législation sur la protection des données ou l'absence de bons registres de population et de morbidité entravent la réalisation d'études de cohorte, les études cas-témoins en milieu hospitalier peuvent être le seul moyen pratique de mener des recherches épidémiologiques.

Échantillonnage cas-témoins au sein d'une cohorte (conceptions d'études cas-témoins imbriquées)

Une étude de cohorte peut également être conçue pour un échantillonnage au lieu d'un suivi complet. Cette conception était auparavant appelée une étude cas-témoins « nichée ». Une approche d'échantillonnage au sein de la cohorte fixe des exigences différentes en matière d'admissibilité de la cohorte, car les comparaisons sont désormais effectuées au sein de la même cohorte. Cela devrait donc inclure non seulement les travailleurs fortement exposés, mais aussi les travailleurs moins exposés et même non exposés, afin de fournir contrastes d'exposition en lui-même. Il est important de réaliser cette différence dans les critères d'admissibilité lors de l'assemblage de la cohorte. Si une analyse de cohorte complète est d'abord effectuée sur une cohorte dont les critères d'éligibilité étaient sur une « grande » exposition, et qu'une étude cas-témoin « nichée » est effectuée plus tard sur la même cohorte, l'étude devient insensible. Cela introduit un effet de masquage parce que les contrastes d'exposition sont insuffisants « par conception » en raison d'un manque de variabilité dans l'expérience d'exposition parmi les membres de la cohorte.

Cependant, à condition que la cohorte ait une large gamme d'expériences d'exposition, l'approche cas-témoin nichée est très attrayante. On rassemble tous les cas survenus dans la cohorte au cours de la période de suivi pour former la série de cas, tandis que seulement un échantillon des non-cas est tiré pour la série témoin. Ensuite, comme dans le modèle cas-témoins traditionnel, les chercheurs recueillent des informations détaillées sur l'expérience d'exposition en interrogeant les cas et les témoins (ou leurs proches parents), en examinant les listes du personnel des employeurs, en construisant un matrice d'exposition professionnelle, ou en combinant deux ou plusieurs de ces approches. Les témoins peuvent soit être appariés aux cas, soit être traités comme une série indépendante.

L'approche par échantillonnage peut être moins coûteuse par rapport à l'obtention d'informations exhaustives sur chaque membre de la cohorte. En particulier, étant donné que seul un échantillon de témoins est étudié, davantage de ressources peuvent être consacrées à une évaluation détaillée et précise de l'exposition pour chaque cas et témoin. Cependant, les mêmes problèmes de puissance statistique prévalent que dans les études de cohorte classiques. Pour atteindre une puissance statistique suffisante, la cohorte doit toujours comprendre un nombre « adéquat » de cas exposés en fonction de l'importance du risque à détecter.

Conceptions d'études transversales

Au sens scientifique, un plan transversal est un échantillon représentatif de la population étudiée, sans aucune considération de temps. L'exposition et la morbidité (prévalence) sont mesurées au même moment.

Du point de vue étiologique, cette conception de l'étude est faible, en partie parce qu'elle traite de la prévalence par opposition à l'incidence. La prévalence est une mesure composite, qui dépend à la fois de l'incidence et de la durée de la maladie. Cela restreint également le recours aux études transversales aux maladies de longue durée. Plus grave encore est le fort biais négatif causé par l'élimination, liée à la santé, du groupe exposé des personnes les plus sensibles aux effets de l'exposition. Par conséquent, les problèmes étiologiques sont mieux résolus par des conceptions longitudinales. En effet, les études transversales ne permettent pas de tirer des conclusions quant à savoir si l'exposition a précédé la maladie, ou vice versa. La section transversale n'a de sens étiologique que s'il existe une véritable relation temporelle entre l'exposition et le résultat, ce qui signifie que l'exposition actuelle doit avoir des effets immédiats. Cependant, l'exposition peut être mesurée transversalement de sorte qu'elle représente une période passée plus longue (par exemple, la plombémie), tandis que la mesure du résultat est celle de la prévalence (par exemple, les vitesses de conduction nerveuse). L'étude est alors un mélange d'une conception longitudinale et d'une conception transversale plutôt qu'une simple section transversale de la population étudiée.

Enquêtes descriptives transversales

Les enquêtes transversales sont souvent utiles à des fins pratiques et administratives plutôt qu'à des fins scientifiques. Les principes épidémiologiques peuvent être appliqués aux activités de surveillance systématique dans le cadre de la santé au travail, telles que :

  • observation de la morbidité liée à la profession, à la zone de travail ou à certaines expositions
  • enquêtes régulières auprès des travailleurs exposés à des risques professionnels connus
  • examen des travailleurs entrant en contact avec de nouveaux risques pour la santé
  • programmes de surveillance biologique
  • enquêtes d'exposition pour identifier et quantifier les dangers
  • programmes de dépistage de différents groupes de travailleurs
  • évaluer la proportion de travailleurs nécessitant une prévention ou un contrôle régulier (p. ex. tension artérielle, maladie coronarienne).

 

Il est important de choisir des indicateurs de morbidité représentatifs, valides et spécifiques pour tous les types d'enquêtes. Une enquête ou un programme de dépistage ne peut utiliser qu'un assez petit nombre de tests, contrairement aux diagnostics cliniques, et par conséquent la valeur prédictive du test de dépistage est importante. Les méthodes insensibles ne parviennent pas à détecter la maladie d'intérêt, tandis que les méthodes très sensibles produisent trop de résultats faussement positifs. Il n'est pas intéressant de dépister les maladies rares en milieu professionnel. Toutes les activités de recherche de cas (c'est-à-dire de dépistage) nécessitent également un mécanisme de prise en charge des personnes ayant des résultats « positifs », à la fois en termes de diagnostic et de thérapie. Sinon, seule la frustration en résultera avec un potentiel de plus de mal que de bien émergeant.

 

Retour

Le besoin de validité

L'épidémiologie vise à fournir une compréhension de l'expérience de la maladie dans les populations. En particulier, il peut être utilisé pour mieux comprendre les causes professionnelles de la mauvaise santé. Ces connaissances proviennent d'études menées sur des groupes de personnes atteintes d'une maladie en les comparant à des personnes sans cette maladie. Une autre approche consiste à examiner quelles maladies contractent les personnes qui travaillent dans certains emplois avec des expositions particulières et à comparer ces schémas de maladie à ceux de personnes non exposées de la même manière. Ces études fournissent des estimations du risque de maladie pour des expositions spécifiques. Pour que les informations issues de ces études soient utilisées pour établir des programmes de prévention, pour la reconnaissance des maladies professionnelles et pour que les travailleurs affectés par des expositions soient convenablement indemnisés, ces études doivent être valides.

Validité peut être défini comme la capacité d'une étude à refléter l'état réel des choses. Une étude valide est donc celle qui mesure correctement l'association (qu'elle soit positive, négative ou absente) entre une exposition et une maladie. Il décrit la direction et l'ampleur d'un risque réel. Deux types de validité sont distingués : la validité interne et la validité externe. La validité interne est la capacité d'une étude à refléter ce qui s'est réellement passé entre les sujets de l'étude ; la validité externe reflète ce qui pourrait se produire dans la population.

La validité concerne la véracité d'une mesure. La validité doit être distinguée de la précision de la mesure, qui est fonction de la taille de l'étude et de l'efficacité de la conception de l'étude.

Validité interne

Une étude est dite valide en interne lorsqu'elle est exempte de biais et reflète donc fidèlement l'association entre l'exposition et la maladie qui existe parmi les participants à l'étude. Un risque observé de maladie associé à une exposition peut en effet résulter d'une association réelle et donc être valide, mais il peut aussi refléter l'influence de biais. Un biais donnera une image déformée de la réalité.

Trois grands types de biais, également appelés erreurs systématiques, se distinguent généralement :

  • biais de séléction
  • biais d'information ou d'observation
  • déroutant

 

Ils seront brièvement présentés ci-dessous, à l'aide d'exemples tirés du milieu de la santé au travail.

Biais de séléction

Un biais de sélection se produira lorsque l'entrée dans l'étude est influencée par la connaissance du statut d'exposition du participant potentiel à l'étude. Ce problème n'est donc rencontré que lorsque la maladie a déjà eu lieu au moment (avant) que la personne entre dans l'étude. En règle générale, dans le cadre épidémiologique, cela se produit dans des études cas-témoins ou dans des études de cohorte rétrospectives. Cela signifie qu'une personne sera plus susceptible d'être considérée comme un cas si l'on sait qu'elle a été exposée. Trois séries de circonstances peuvent conduire à un tel événement, qui dépendra également de la gravité de la maladie.

Biais d'autosélection

Cela peut se produire lorsque des personnes qui savent qu'elles ont été exposées à des produits nocifs connus ou présumés dans le passé et qui sont convaincues que leur maladie est le résultat de l'exposition consulteront un médecin pour des symptômes que d'autres personnes, moins exposées, auraient pu ignorer. Cela est particulièrement susceptible de se produire pour les maladies qui présentent peu de symptômes perceptibles. Un exemple peut être une perte de grossesse précoce ou un avortement spontané chez les infirmières manipulant des médicaments utilisés pour le traitement du cancer. Ces femmes sont plus conscientes que la plupart de la physiologie de la reproduction et, en étant préoccupées par leur capacité à avoir des enfants, elles peuvent être plus susceptibles de reconnaître ou de qualifier d'avortement spontané ce que d'autres femmes ne considéreraient que comme un retard dans l'apparition des menstruations. Un autre exemple tiré d'une étude de cohorte rétrospective, cité par Rothman (1986), concerne une étude des Centers for Disease Control sur la leucémie parmi les troupes qui avaient été présentes lors d'un essai atomique américain au Nevada. Parmi les troupes présentes sur le site test, 76% ont été tracées et ont constitué la cohorte. Parmi ceux-ci, 82% ont été trouvés par les enquêteurs, mais 18% supplémentaires ont contacté les enquêteurs eux-mêmes après avoir entendu parler de l'étude. Quatre cas de leucémie étaient présents parmi les 82 % suivis par les CDC et quatre cas étaient présents parmi les 18 % auto-référés. Cela suggère fortement que la capacité des enquêteurs à identifier les personnes exposées était liée au risque de leucémie.

Biais diagnostique

Cela se produira lorsque les médecins sont plus susceptibles de diagnostiquer une maladie donnée une fois qu'ils savent à quoi le patient a été exposé précédemment. Par exemple, lorsque la plupart des peintures étaient à base de plomb, un symptôme de maladie des nerfs périphériques appelé névrite périphérique avec paralysie était également connu sous le nom de « chute de poignet » des peintres. Connaître la profession du patient facilitait le diagnostic de la maladie même à ses débuts, alors que l'identification de l'agent causal serait beaucoup plus difficile chez les participants à la recherche dont on ne savait pas qu'ils étaient professionnellement exposés au plomb.

Biais résultant du refus de participer à une étude

Lorsque des personnes, en bonne santé ou malades, sont invitées à participer à une étude, plusieurs facteurs jouent un rôle pour déterminer si elles seront d'accord ou non. La volonté de répondre à des questionnaires plus ou moins longs, qui portent parfois sur des questions sensibles, et plus encore de donner du sang ou d'autres échantillons biologiques, peut être déterminée par le degré d'intérêt personnel de la personne. Quelqu'un qui est conscient d'une exposition potentielle passée peut être prêt à se conformer à cette enquête dans l'espoir qu'elle aidera à trouver la cause de la maladie, tandis que quelqu'un qui considère qu'il n'a été exposé à rien de dangereux, ou qui n'est pas intéressé en sachant, peut décliner l'invitation à participer à l'étude. Cela peut conduire à une sélection des personnes qui seront finalement les participants à l'étude par rapport à toutes celles qui auraient pu l'être.

Biais informationnel

Ceci est également appelé biais d'observation et concerne l'issue de la maladie dans les études de suivi et l'évaluation de l'exposition dans les études cas-témoins.

Évaluation différentielle des résultats dans les études de suivi prospectives (de cohorte)

Deux groupes sont définis au début de l'étude : un groupe exposé et un groupe non exposé. Des problèmes de biais diagnostiques se poseront si la recherche de cas diffère entre ces deux groupes. Par exemple, considérons une cohorte de personnes exposées à un rejet accidentel de dioxine dans une industrie donnée. Pour le groupe très exposé, un système de suivi actif est mis en place avec des examens médicaux et une surveillance biologique à intervalles réguliers, alors que le reste de la population active ne reçoit que des soins de routine. Il est fort probable que davantage de maladies soient identifiées dans le groupe sous surveillance étroite, ce qui conduirait à une surestimation potentielle du risque.

Pertes différentielles dans les études de cohorte rétrospectives

Le mécanisme inverse de celui décrit au paragraphe précédent peut se produire dans les études de cohorte rétrospectives. Dans ces études, la façon habituelle de procéder est de partir des dossiers de toutes les personnes qui ont été employées dans une industrie donnée dans le passé, et d'évaluer la maladie ou la mortalité consécutive à l'emploi. Malheureusement, dans presque toutes les études, les dossiers sont incomplets, et le fait qu'une personne soit portée disparue peut être lié soit au statut d'exposition, soit au statut de la maladie, soit aux deux. Par exemple, dans une étude récente menée dans l'industrie chimique auprès de travailleurs exposés aux amines aromatiques, huit tumeurs ont été retrouvées dans un groupe de 777 travailleurs ayant subi un dépistage cytologique des tumeurs urinaires. Au total, seuls 34 enregistrements ont été trouvés manquants, correspondant à une perte de 4.4 % du fichier d'évaluation de l'exposition, mais pour les cas de cancer de la vessie, les données d'exposition manquaient pour deux cas sur huit, soit 25 %. Cela montre que les dossiers des personnes qui sont devenues des cas étaient plus susceptibles d'être perdus que les dossiers des autres travailleurs. Cela peut se produire en raison de changements d'emploi plus fréquents au sein de l'entreprise (qui peuvent être liés à des effets d'exposition), de démissions, de licenciements ou d'un simple hasard.

Évaluation différentielle de l'exposition dans les études cas-témoins

Dans les études cas-témoins, la maladie est déjà survenue au début de l'étude et des informations seront recherchées sur les expositions passées. Le biais peut résulter de l'attitude de l'intervieweur ou du participant à l'étude à l'égard de l'enquête. Les informations sont généralement recueillies par des enquêteurs formés qui peuvent ou non être au courant de l'hypothèse sous-jacente à la recherche. Par exemple, dans une étude cas-témoins basée sur la population sur le cancer de la vessie menée dans une région hautement industrialisée, le personnel de l'étude pourrait bien être conscient du fait que certains produits chimiques, tels que les amines aromatiques, sont des facteurs de risque du cancer de la vessie. S'ils savent également qui a développé la maladie et qui ne l'a pas fait, ils peuvent être susceptibles de mener des entretiens plus approfondis avec les participants atteints d'un cancer de la vessie qu'avec les témoins. Ils peuvent exiger des informations plus détaillées sur les occupations passées, en recherchant systématiquement l'exposition aux amines aromatiques, alors que pour les témoins, ils peuvent enregistrer les occupations de manière plus routinière. Le biais qui en résulte est appelé biais de suspicion d'exposition.

Les participants eux-mêmes peuvent également être responsables de ce biais. C'est appelé biais de rappel pour le distinguer du biais de l'intervieweur. Dans les deux cas, la suspicion d'exposition est le mécanisme du biais. Les personnes malades peuvent suspecter une origine professionnelle à leur maladie et vont donc essayer de se souvenir le plus précisément possible de tous les agents dangereux auxquels elles ont pu être exposées. En cas de manipulation de produits non définis, ils peuvent être enclins à rappeler les noms de produits chimiques précis, notamment si une liste de produits suspects est mise à leur disposition. En revanche, les contrôles peuvent être moins susceptibles de passer par le même processus de pensée.

La confusion

Il y a confusion lorsque l'association observée entre exposition et maladie résulte en partie d'un mélange de l'effet de l'exposition étudiée et d'un autre facteur. Disons, par exemple, qu'on constate un risque accru de cancer du poumon chez les soudeurs. On est tenté de conclure immédiatement qu'il existe une association causale entre l'exposition aux fumées de soudage et le cancer du poumon. Cependant, nous savons aussi que le tabagisme est de loin le principal facteur de risque du cancer du poumon. Par conséquent, si des informations sont disponibles, nous commençons à vérifier le statut tabagique des soudeurs et des autres participants à l'étude. Nous pouvons constater que les soudeurs sont plus susceptibles de fumer que les non-soudeurs. Dans cette situation, le tabagisme est connu pour être associé au cancer du poumon et, en même temps, dans notre étude, le tabagisme est également associé au fait d'être soudeur. En termes épidémiologiques, cela signifie que le tabagisme, lié à la fois au cancer du poumon et à la soudure, brouille l'association entre la soudure et le cancer du poumon.

Interaction ou modification d'effet

Contrairement à tous les problèmes énumérés ci-dessus, à savoir la sélection, l'information et la confusion, qui sont des biais, l'interaction n'est pas un biais dû à des problèmes de conception ou d'analyse de l'étude, mais reflète la réalité et sa complexité. Un exemple de ce phénomène est le suivant : l'exposition au radon est un facteur de risque de cancer du poumon, tout comme le tabagisme. De plus, le tabagisme et l'exposition au radon ont des effets différents sur le risque de cancer du poumon selon qu'ils agissent ensemble ou isolément. La plupart des études professionnelles sur ce sujet ont été menées auprès de mineurs de fond et ont parfois fourni des résultats contradictoires. Dans l'ensemble, il semble y avoir des arguments en faveur d'une interaction du tabagisme et de l'exposition au radon dans la production du cancer du poumon. Cela signifie que le risque de cancer du poumon est augmenté par l'exposition au radon, même chez les non-fumeurs, mais que l'ampleur de l'augmentation du risque due au radon est beaucoup plus importante chez les fumeurs que chez les non-fumeurs. En termes épidémiologiques, on dit que l'effet est multiplicatif. Contrairement à la confusion décrite ci-dessus, l'interaction doit être soigneusement analysée et décrite dans l'analyse plutôt que simplement contrôlée, car elle reflète ce qui se passe au niveau biologique et n'est pas simplement une conséquence d'une mauvaise conception de l'étude. Son explication conduit à une interprétation plus valable des résultats d'une étude.

Validité externe

Ce problème ne peut être résolu qu'après s'être assuré que la validité interne est garantie. Si l'on est convaincu que les résultats observés dans l'étude reflètent des associations réelles, on peut se demander si l'on peut ou non extrapoler ces résultats à la population plus large dont sont eux-mêmes issus les participants à l'étude, voire à d'autres populations identiques ou du moins très similaires. La question la plus fréquente est de savoir si les résultats obtenus pour les hommes s'appliquent également aux femmes. Pendant des années, les études et surtout les enquêtes d'épidémiologie professionnelle ont été menées exclusivement auprès des hommes. Des études menées auprès de chimistes dans les années 1960 et 1970 aux États-Unis, au Royaume-Uni et en Suède ont toutes révélé des risques accrus de cancers spécifiques, à savoir la leucémie, le lymphome et le cancer du pancréas. Sur la base de ce que nous savions des effets de l'exposition aux solvants et à certains autres produits chimiques, nous pouvions déjà en déduire à l'époque que le travail en laboratoire comportait également un risque cancérogène pour les femmes. Cela s'est d'ailleurs avéré être le cas lorsque la première étude menée auprès de femmes chimistes a finalement été publiée au milieu des années 1980, qui a trouvé des résultats similaires à ceux des hommes. Il est à noter que d'autres cancers en excès retrouvés étaient des tumeurs du sein et de l'ovaire, traditionnellement considérées comme n'étant liées qu'à des facteurs endogènes ou à la reproduction, mais pour lesquelles des facteurs environnementaux nouvellement suspectés comme les pesticides peuvent jouer un rôle. Il reste encore beaucoup à faire sur les déterminants professionnels des cancers féminins.

Stratégies pour une étude valide

Une étude parfaitement valide ne peut jamais exister, mais il incombe au chercheur d'essayer d'éviter, ou du moins de minimiser, autant de biais que possible. Cela peut souvent être fait au stade de la conception de l'étude, mais peut également être effectué pendant l'analyse.

Conception de l'étude

Les biais de sélection et d'information ne peuvent être évités que par la conception minutieuse d'une étude épidémiologique et la mise en œuvre scrupuleuse de toutes les directives quotidiennes qui en découlent, y compris une attention méticuleuse à l'assurance qualité, pour la conduite de l'étude dans les conditions de terrain. La confusion peut être traitée au stade de la conception ou de l'analyse.

Sélection

Les critères pour considérer un participant comme un cas doivent être explicitement définis. On ne peut pas, ou du moins on ne doit pas, tenter d'étudier des conditions cliniques mal définies. Une façon de minimiser l'impact que la connaissance de l'exposition peut avoir sur l'évaluation de la maladie est de n'inclure que les cas graves qui auraient été diagnostiqués indépendamment de toute information sur l'histoire du patient. Dans le domaine du cancer, les études seront souvent limitées aux cas avec preuve histologique de la maladie pour éviter l'inclusion de lésions borderline. Cela signifie également que les groupes à l'étude sont bien définis. Par exemple, il est bien connu en épidémiologie du cancer que les cancers de différents types histologiques au sein d'un organe donné peuvent avoir des facteurs de risque différents. Si le nombre de cas est suffisant, il est préférable de séparer l'adénocarcinome du poumon du carcinome épidermoïde du poumon. Quels que soient les critères définitifs d'admission à l'étude, ils doivent toujours être clairement définis et décrits. Par exemple, le code exact de la maladie doit être indiqué en utilisant la Classification Internationale des Maladies (CIM) et aussi, pour le cancer, la Classification Internationale des Maladies-Oncologie (CIM-O).

Des efforts devraient être faits une fois les critères précisés pour maximiser la participation à l'étude. La décision de refuser de participer n'est presque jamais prise au hasard et conduit donc à des préjugés. Les études doivent d'abord être présentées aux cliniciens qui voient les patients. Leur approbation est nécessaire pour approcher les patients, et il faudra donc les convaincre de soutenir l'étude. Un argument souvent convaincant est que l'étude est dans l'intérêt de la santé publique. Cependant, à ce stade, il est préférable de ne pas discuter de l'hypothèse exacte à évaluer afin d'éviter d'influencer indûment les cliniciens impliqués. On ne devrait pas demander aux médecins d'assumer des tâches supplémentaires; il est plus facile de convaincre le personnel de santé d'apporter son soutien à une étude si les moyens sont fournis par les investigateurs de l'étude pour effectuer toutes les tâches supplémentaires, en plus des soins de routine, nécessitées par l'étude. Les enquêteurs et les personnes chargées de l'analyse des données ne doivent pas être au courant de l'état pathologique de leurs patients.

Une attention similaire doit être accordée aux informations fournies aux participants. L'objectif de l'étude doit être décrit en termes généraux et neutres, mais doit également être convaincant et persuasif. Il est important que les questions de confidentialité et d'intérêt pour la santé publique soient bien comprises tout en évitant le jargon médical. Dans la plupart des contextes, l'utilisation d'incitations financières ou autres n'est pas considérée comme appropriée, bien qu'une compensation doive être prévue pour toute dépense encourue par un participant. Enfin, et ce n'est pas le moins important, la population générale devrait être suffisamment instruite sur le plan scientifique pour comprendre l'importance de telles recherches. Les avantages et les risques de la participation doivent être expliqués à chaque participant potentiel lorsqu'il doit remplir des questionnaires et/ou fournir des échantillons biologiques pour le stockage et/ou l'analyse. Aucune coercition ne doit être appliquée pour obtenir un consentement préalable et pleinement informé. Lorsque les études sont exclusivement fondées sur des dossiers, l'approbation préalable des organismes chargés d'assurer la confidentialité de ces dossiers doit être obtenue. Dans ces cas, le consentement individuel des participants peut généralement être annulé. Au lieu de cela, l'approbation des dirigeants syndicaux et gouvernementaux suffira. Les enquêtes épidémiologiques ne constituent pas une menace pour la vie privée d'un individu, mais sont une aide potentielle pour améliorer la santé de la population. L'approbation d'un comité d'examen institutionnel (ou comité d'examen éthique) sera nécessaire avant la conduite d'une étude, et une grande partie de ce qui est indiqué ci-dessus sera attendue par eux pour leur examen.

Informations

Dans les études de suivi prospectives, les moyens d'évaluation de l'état de la maladie ou de la mortalité doivent être identiques pour les participants exposés et non exposés. En particulier, différentes sources ne doivent pas être utilisées, telles que la vérification dans un registre central de mortalité uniquement pour les participants non exposés et l'utilisation d'une surveillance active intensive pour les participants exposés. De même, la cause du décès doit être obtenue par des moyens strictement comparables. Cela signifie que si un système est utilisé pour accéder à des documents officiels pour la population non exposée, qui est souvent la population générale, il ne faut jamais envisager d'obtenir des informations encore plus précises par le biais de dossiers médicaux ou d'entretiens sur les participants eux-mêmes ou sur leurs familles pour le sous-groupe exposé.

Dans les études de cohorte rétrospectives, des efforts doivent être faits pour déterminer dans quelle mesure la population étudiée est comparée à la population d'intérêt. Il faut se méfier des pertes différentielles potentielles dans les groupes exposés et non exposés en utilisant diverses sources concernant la composition de la population. Par exemple, il peut être utile de comparer les listes de paie avec les listes de membres des syndicats ou d'autres listes professionnelles. Les divergences doivent être conciliées et le protocole adopté pour l'étude doit être suivi de près.

Dans les études cas-témoins, d'autres options existent pour éviter les biais. Les enquêteurs, le personnel de l'étude et les participants à l'étude n'ont pas besoin d'être au courant de l'hypothèse précise à l'étude. S'ils ne connaissent pas l'association testée, ils sont moins susceptibles d'essayer de fournir la réponse attendue. Garder le personnel de l'étude dans l'ignorance quant à l'hypothèse de recherche est en fait souvent très peu pratique. L'enquêteur connaîtra presque toujours les expositions présentant le plus grand intérêt potentiel ainsi que qui est un cas et qui est un témoin. Il faut donc compter sur leur honnêteté et aussi sur leur formation en méthodologie fondamentale de la recherche, qui devrait faire partie de leur parcours professionnel ; l'objectivité est la marque de fabrique à toutes les étapes de la science.

Il est plus facile de ne pas informer les participants à l'étude de l'objet exact de la recherche. De bonnes explications de base sur la nécessité de collecter des données pour mieux comprendre la santé et la maladie sont généralement suffisantes et satisferont les besoins de l'examen éthique.

La confusion

La confusion est le seul biais qui peut être traité soit au stade de la conception de l'étude, soit, à condition que des informations adéquates soient disponibles, au stade de l'analyse. Si, par exemple, l'âge est considéré comme un facteur de confusion potentiel de l'association d'intérêt parce que l'âge est associé au risque de maladie (c'est-à-dire que le cancer devient plus fréquent chez les personnes âgées) et également à l'exposition (les conditions d'exposition varient avec l'âge ou avec des facteurs liés à l'âge tels que la qualification, le poste et la durée de l'emploi), plusieurs solutions existent. Le plus simple est de limiter l'étude à une tranche d'âge précise - par exemple, ne recruter que des hommes caucasiens âgés de 40 à 50 ans. Cela fournira des éléments d'analyse simple, mais aura aussi l'inconvénient de limiter l'application des résultats à une seule sexe âge/groupe racial. Une autre solution consiste à faire correspondre l'âge. Cela signifie que pour chaque cas, un référent du même âge est nécessaire. C'est une idée intéressante, mais il faut garder à l'esprit la difficulté éventuelle de satisfaire à cette exigence à mesure que le nombre de facteurs d'appariement augmente. De plus, une fois qu'un facteur a été apparié, il devient impossible d'évaluer son rôle dans la survenue de la maladie. La dernière solution consiste à disposer de suffisamment d'informations sur les facteurs de confusion potentiels dans la base de données de l'étude afin de les vérifier dans l'analyse. Cela peut être fait soit par une simple analyse stratifiée, soit avec des outils plus sophistiqués tels que l'analyse multivariée. Cependant, il convient de rappeler que l'analyse ne pourra jamais compenser une étude mal conçue ou mal menée.

Conclusion

La possibilité que des biais se produisent dans la recherche épidémiologique est établie depuis longtemps. Cela n'était pas trop préoccupant lorsque les associations étudiées étaient fortes (comme c'est le cas pour le tabagisme et le cancer du poumon) et, par conséquent, certaines inexactitudes ne causaient pas de problème trop grave. Cependant, maintenant que le moment est venu d'évaluer les facteurs de risque les plus faibles, le besoin de meilleurs outils devient primordial. Cela comprend la nécessité d'excellents modèles d'étude et la possibilité de combiner les avantages de divers modèles traditionnels tels que les études cas-témoins ou de cohorte avec des approches plus innovantes telles que les études cas-témoins imbriquées dans une cohorte. En outre, l'utilisation de biomarqueurs peut fournir les moyens d'obtenir des évaluations plus précises des expositions actuelles et éventuellement passées, ainsi que pour les premiers stades de la maladie.

 

Retour

Les erreurs de mesure de l'exposition peuvent avoir des impacts différents sur la relation exposition-maladie étudiée, selon la manière dont les erreurs sont réparties. Si une étude épidémiologique a été menée à l'aveugle (c'est-à-dire que des mesures ont été prises sans connaître la maladie ou l'état de santé des participants à l'étude), nous nous attendons à ce que l'erreur de mesure soit répartie uniformément entre les strates de la maladie ou de l'état de santé.

Le tableau 1 donne un exemple : supposons que nous recrutions une cohorte de personnes exposées au travail à un toxique, afin d'investiguer une maladie fréquente. Nous déterminons le statut d'exposition uniquement au recrutement (T0), et non à d'autres moments du suivi. Disons cependant qu'un certain nombre d'individus changent effectivement de statut d'exposition l'année suivante : au temps T1, 250 des 1,200 150 personnes exposées à l'origine ont cessé d'être exposées, tandis que 750 des XNUMX personnes non exposées à l'origine ont commencé à être exposées au toxique. Ainsi, à l'instant T1, 1,100 850 personnes sont exposées et XNUMX ne le sont pas. En conséquence, nous avons une « erreur de classification » de l'exposition, basée sur notre mesure initiale de l'état de l'exposition au temps T0. Ces individus sont ensuite retrouvés après 20 ans (au temps T2) et le risque cumulé de maladie est évalué. (L'hypothèse faite dans l'exemple est que seule une exposition de plus d'un an est préoccupante.)


Tableau 1. Cohorte hypothétique de 1950 individus (exposés et non exposés au travail), recrutés au temps T0 et dont le statut pathologique est déterminé au temps T2

Time Freak

 

T0

T1

T2

Travailleurs exposés 1200 250 abandonnent l'exposition 1100 (1200-250+150)

Cas de maladie au temps T2 = 220 parmi les travailleurs exposés

Travailleurs non exposés 750 150 commencent l'exposition 850 (750-150+250)

Cas de maladie au temps T2 = 85 chez les travailleurs non exposés

La vrai risque de la maladie au temps T2 est de 20% chez les travailleurs exposés (220/1100),
et 10 % chez les travailleurs non exposés (85/850) (risque relatif = 2.0).

Risque estimé à T2 de la maladie parmi les personnes classées comme exposées à T0:% 20
(c.-à-d. risque réel chez les personnes exposées) ´ 950 (c.-à-d. 1200-250)+ 10 %
(c'est-à-dire, risque réel chez les non-exposés) ´ 250 = (190+25)/1200 = 17.9 %

Risque estimé à T2 de la maladie parmi ceux classés comme non exposés à
T0: 20 % (c'est-à-dire le risque réel chez les personnes exposées) ´ 150 +10 %
(c'est-à-dire le risque réel chez les personnes non exposées) ´ 600 (c'est-à-dire 750-150) = (30+60)/750 = 12 %

Risque relatif estimé = 17.9 % / 12 % = 1.49


Les erreurs de classification dépendent, dans cet exemple, de la conception de l'étude et des caractéristiques de la population, plutôt que des limites techniques de la mesure de l'exposition. L'effet d'une mauvaise classification est tel que le « vrai » rapport de 2.0 entre le risque cumulé chez les personnes exposées et les personnes non exposées devient un rapport « observé » de 1.49 (tableau 1). Cette sous-estimation du rapport de risque découle d'un « brouillage » de la relation entre l'exposition et la maladie, qui se produit lorsque la classification erronée de l'exposition, comme dans ce cas, est uniformément répartie en fonction de la maladie ou de l'état de santé (c'est-à-dire que la mesure de l'exposition est pas influencé par le fait que la personne souffrait ou non de la maladie que nous étudions).

En revanche, une sous-estimation ou une surestimation de l'association d'intérêt peut se produire lorsque la classification erronée de l'exposition n'est pas uniformément répartie sur le résultat d'intérêt. Dans l'exemple, on peut avoir biais, et pas seulement un brouillage de la relation étiologique, si la classification de l'exposition dépend de la maladie ou de l'état de santé des travailleurs. Cela pourrait se produire, par exemple, si l'on décide de prélever des échantillons biologiques sur un groupe de travailleurs exposés et sur un groupe de travailleurs non exposés, afin d'identifier les changements précoces liés à l'exposition au travail. Les échantillons prélevés sur les travailleurs exposés pourraient alors être analysés de manière plus précise que les échantillons prélevés sur les travailleurs non exposés; la curiosité scientifique pourrait conduire le chercheur à mesurer des biomarqueurs supplémentaires parmi les personnes exposées (y compris, par exemple, des adduits à l'ADN dans les lymphocytes ou des marqueurs urinaires de dommages oxydatifs à l'ADN), en supposant que ces personnes sont scientifiquement "plus intéressantes". Il s'agit d'une attitude assez courante qui, cependant, pourrait conduire à de sérieux préjugés.

 

Retour

Mercredi, Mars 02 2011 03: 15

Méthodes statistiques

Il y a beaucoup de débats sur le rôle des statistiques dans la recherche épidémiologique sur les relations causales. En épidémiologie, la statistique est avant tout un ensemble de méthodes d'évaluation de données basées sur des populations humaines (et aussi animales). En particulier, la statistique est une technique de quantification et de mesure de phénomènes incertains. Toutes les investigations scientifiques qui traitent d'aspects non déterministes et variables de la réalité pourraient bénéficier d'une méthodologie statistique. En épidémiologie, la variabilité est intrinsèque à l'unité d'observation – une personne n'est pas une entité déterministe. Alors que les conceptions expérimentales seraient améliorées pour mieux répondre aux hypothèses des statistiques en termes de variation aléatoire, pour des raisons éthiques et pratiques, cette approche n'est pas trop courante. Au lieu de cela, l'épidémiologie est engagée dans la recherche observationnelle qui lui est associée à la fois des sources aléatoires et d'autres sources de variabilité.

La théorie statistique s'intéresse à la manière de contrôler la variabilité non structurée des données afin de tirer des conclusions valables à partir d'observations empiriques. En l'absence d'explication du comportement variable du phénomène étudié, la statistique le suppose comme aléatoire— c'est-à-dire des écarts non systématiques par rapport à un état moyen de la nature (voir Greenland 1990 pour une critique de ces hypothèses).

La science s'appuie sur l'empirique preuve pour démontrer si ses modèles théoriques d'événements naturels ont une quelconque validité. En effet, les méthodes utilisées à partir de la théorie statistique déterminent dans quelle mesure les observations dans le monde réel sont conformes à la vision des scientifiques, sous forme de modèle mathématique, d'un phénomène. Les méthodes statistiques, basées sur les mathématiques, doivent donc être soigneusement sélectionnées ; il y a plein d'exemples sur "comment mentir avec les statistiques". Par conséquent, les épidémiologistes doivent être conscients de la pertinence des techniques qu'ils appliquent pour mesurer le risque de maladie. En particulier, une grande prudence est nécessaire lors de l'interprétation des résultats statistiquement significatifs et statistiquement non significatifs.

Le premier sens du mot statistiques concerne toute quantité récapitulative calculée sur un ensemble de valeurs. Les indices descriptifs ou statistiques tels que la moyenne arithmétique, la médiane ou le mode sont largement utilisés pour résumer les informations d'une série d'observations. Historiquement, ces descripteurs sommaires étaient utilisés à des fins administratives par les États, et par conséquent ils ont été nommés statistiques. En épidémiologie, les statistiques que l'on voit couramment dérivent des comparaisons inhérentes à la nature de l'épidémiologie, qui pose des questions telles que : « Une population est-elle plus à risque de maladie qu'une autre ? » En faisant de telles comparaisons, le risque relatif est une mesure populaire de la force de l'association entre une caractéristique individuelle et la probabilité de tomber malade, et il est le plus couramment appliqué dans la recherche étiologique ; Le risque attribuable est aussi une mesure de l'association entre les caractéristiques individuelles et la survenue de la maladie, mais il met l'accent sur le gain en nombre de cas épargnés par une intervention qui supprime le facteur en question - il est surtout appliqué en santé publique et en médecine préventive.

Le deuxième sens du mot statistiques concerne l'ensemble des techniques et la théorie sous-jacente de l'inférence statistique. Il s'agit d'une forme particulière de logique inductive qui spécifie les règles permettant d'obtenir une généralisation valide à partir d'un ensemble particulier d'observations empiriques. Cette généralisation serait valide à condition que certaines hypothèses soient satisfaites. C'est la deuxième façon dont une utilisation peu éduquée des statistiques peut nous tromper : en épidémiologie observationnelle, il est très difficile d'être sûr des hypothèses qu'impliquent les techniques statistiques. Par conséquent, une analyse de sensibilité et des estimateurs robustes devraient accompagner toute analyse de données correctement menée. Les conclusions finales doivent également être basées sur des connaissances globales et ne doivent pas reposer exclusivement sur les résultats de tests d'hypothèses statistiques.

Définitions

A unité statistique est l'élément sur lequel les observations empiriques sont faites. Il peut s'agir d'une personne, d'un spécimen biologique ou d'un morceau de matière première à analyser. Habituellement, les unités statistiques sont choisies indépendamment par le chercheur, mais parfois des conceptions plus complexes peuvent être mises en place. Par exemple, dans les études longitudinales, une série de déterminations est faite sur un ensemble de personnes au fil du temps ; les unités statistiques de cette étude sont l'ensemble des déterminations, qui ne sont pas indépendantes, mais structurées par leurs liens respectifs à chaque personne étudiée. Le manque d'indépendance ou de corrélation entre les unités statistiques mérite une attention particulière dans l'analyse statistique.

A variable est une caractéristique individuelle mesurée sur une unité statistique donnée. Il doit être mis en contraste avec un constant, une caractéristique individuelle fixe - par exemple, dans une étude sur des êtres humains, avoir une tête ou un thorax sont des constantes, tandis que le sexe d'un seul membre de l'étude est une variable.

Les variables sont évaluées à l'aide de différents échelles de mesure. La première distinction est entre les échelles qualitatives et quantitatives. Les variables qualitatives fournissent différentes modalités or catégories. Si chaque modalité ne peut pas être classée ou ordonnée par rapport aux autres - par exemple, la couleur des cheveux ou les modalités de genre - nous notons la variable comme nominal. Si les catégories peuvent être ordonnées, comme le degré de gravité d'une maladie, la variable est appelée ordinal. Lorsqu'une variable est constituée d'une valeur numérique, on dit que l'échelle est quantitative. UNE discret L'échelle indique que la variable ne peut prendre que certaines valeurs définies, par exemple, des valeurs entières pour le nombre de cas de maladie. UNE continu l'échelle est utilisée pour les mesures qui aboutissent à réal Nombres. On dit que les échelles continues sont intervalle échelles lorsque la valeur nulle a une signification purement conventionnelle. Autrement dit, une valeur de zéro ne signifie pas une quantité nulle - par exemple, une température de zéro degré Celsius ne signifie pas une énergie thermique nulle. Dans ce cas, seules les différences entre les valeurs ont un sens (c'est la raison du terme échelle « d'intervalle »). Une vraie valeur nulle dénote un rapport échelle. Pour une variable mesurée sur cette échelle, les rapports de valeurs ont également un sens : en effet, un rapport double signifie une quantité double. Par exemple, dire qu'un corps a une température deux fois supérieure à un deuxième corps signifie qu'il a deux fois l'énergie thermique du deuxième corps, à condition que la température est mesurée sur une échelle de rapport (par exemple, en degrés Kelvin). L'ensemble des valeurs autorisées pour une variable donnée est appelé le domaine de la variable.

Paradigmes statistiques

La statistique traite de la manière de généraliser à partir d'un ensemble d'observations particulières. Cet ensemble de mesures empiriques est appelé un échantillon. A partir d'un échantillon, nous calculons quelques statistiques descriptives afin de synthétiser les informations recueillies.

Les informations de base généralement requises pour caractériser un ensemble de mesures concernent sa tendance centrale et sa variabilité. Le choix entre plusieurs alternatives dépend de l'échelle utilisée pour mesurer un phénomène et des objectifs pour lesquels les statistiques sont calculées. Dans le tableau 1, différentes mesures de tendance centrale et de variabilité (ou dispersion) sont décrites et associées à l'échelle de mesure appropriée.

Tableau 1. Indices de tendance centrale et de dispersion par échelle de mesure

 

Échelle de mesure

 

Qualitative

 

Quantitatif

Indices

Définition

Capacité

Ordinal

Intervalle/rapport

Moyenne arithmétique

Somme des valeurs observées divisée par le nombre total d'observations

 

x

Moyenne

Valeur médiane de la distribution observée

 

x

x

Mode

Valeur la plus fréquente

x

x

x

Catégorie

Valeurs les plus basses et les plus hautes de la distribution

 

x

x

Variance

Somme de la différence au carré de chaque valeur par rapport à la moyenne divisée par le nombre total d'observations moins 1

 

 

x

 

Les statistiques descriptives calculées sont appelées estimations lorsque nous les utilisons comme substitut de la quantité analogue de la population à partir de laquelle l'échantillon a été sélectionné. Les contreparties de population des estimations sont des constantes appelées paramètres. Des estimations d'un même paramètre peuvent être obtenues à l'aide de différentes méthodes statistiques. Une estimation doit être à la fois valide et précise.

Le paradigme population-échantillon implique que la validité peut être assurée par la manière dont l'échantillon est sélectionné dans la population. L'échantillonnage aléatoire ou probabiliste est la stratégie habituelle : si chaque membre de la population a la même probabilité d'être inclus dans l'échantillon, alors, en moyenne, notre échantillon devrait être représentatif de la population et, de plus, tout écart par rapport à notre attente pourrait être expliqué par hasard. La probabilité d'un écart donné par rapport à notre attente peut également être calculée, à condition qu'un échantillonnage aléatoire ait été effectué. Le même type de raisonnement s'applique aux estimations calculées pour notre échantillon en ce qui concerne les paramètres de la population. Nous prenons, par exemple, la moyenne arithmétique de notre échantillon comme estimation de la valeur moyenne pour la population. Toute différence, si elle existe, entre la moyenne de l'échantillon et la moyenne de la population est attribuée à des fluctuations aléatoires dans le processus de sélection des membres inclus dans l'échantillon. Nous pouvons calculer la probabilité de toute valeur de cette différence, à condition que l'échantillon ait été sélectionné au hasard. Si l'écart entre l'estimation de l'échantillon et le paramètre de la population ne peut être expliqué par le hasard, l'estimation est dite biaisé. La conception de l'observation ou de l'expérience assure la validité des estimations et le paradigme statistique fondamental est celui de l'échantillonnage aléatoire.

En médecine, un deuxième paradigme est adopté lorsqu'une comparaison entre différents groupes est le but de l'étude. Un exemple typique est l'essai clinique contrôlé : un ensemble de patients présentant des caractéristiques similaires est sélectionné sur la base de critères prédéfinis. Aucun souci de représentativité n'est fait à ce stade. Chaque patient inscrit à l'essai est affecté par une procédure aléatoire au groupe de traitement - qui recevra le traitement standard plus le nouveau médicament à évaluer - ou au groupe témoin - recevant le traitement standard et un placebo. Dans ce plan, l'attribution aléatoire des patients à chaque groupe remplace la sélection aléatoire des membres de l'échantillon. L'estimation de la différence entre les deux groupes peut être appréciée statistiquement car, sous l'hypothèse d'aucune efficacité du nouveau médicament, on peut calculer la probabilité de toute différence non nulle.

En épidémiologie, il nous manque la possibilité de rassembler aléatoirement des groupes de personnes exposées et non exposées. Dans ce cas, on peut toujours utiliser des méthodes statistiques, comme si les groupes analysés avaient été tirés au sort ou répartis. L'exactitude de cette hypothèse repose principalement sur la conception de l'étude. Ce point est particulièrement important et souligne l'importance de la conception des études épidémiologiques par rapport aux techniques statistiques dans la recherche biomédicale.

Signal et bruit

Le terme Variable aléatoire fait référence à une variable pour laquelle une probabilité définie est associée à chaque valeur qu'elle peut prendre. Les modèles théoriques de distribution de la probabilité d'une variable aléatoire sont des modèles de population. Les homologues de l'échantillon sont représentés par la distribution de fréquence d'échantillonnage. C'est un moyen utile de rapporter un ensemble de données ; il se compose d'un plan cartésien avec la variable d'intérêt le long de l'axe horizontal et la fréquence ou fréquence relative le long de l'axe vertical. Un affichage graphique permet de voir aisément quelle(s) est (sont) la (les) valeur(s) la plus fréquente(s) et comment la distribution se concentre autour de certaines valeurs centrales comme la moyenne arithmétique.

Pour les variables aléatoires et leurs distributions de probabilité, nous utilisons les termes paramètres, valeur moyenne attendue (au lieu de la moyenne arithmétique) et variance. Ces modèles théoriques décrivent la variabilité d'un phénomène donné. En théorie de l'information, le signal est représenté par la tendance centrale (par exemple, la valeur moyenne), tandis que le bruit est mesuré par un indice de dispersion (comme la variance).

Pour illustrer l'inférence statistique, nous utiliserons le modèle binomial. Dans les sections qui suivent, les notions d'estimations ponctuelles et d'intervalles de confiance, de tests d'hypothèses et de probabilité de décisions erronées, et de puissance d'une étude seront introduites.

Tableau 2. Résultats possibles d'une expérience binomiale (oui = 1, non = 0) et leurs probabilités (n = 3)

Ouvrier

Probabilité

A

B

C

 

0

0

0

1

0

0

0

1

0

0

0

1

0

1

1

1

0

1

1

1

0

1

1

1

 

Un exemple : la distribution binomiale

En recherche biomédicale et en épidémiologie, le modèle le plus important de variation stochastique est la distribution binomiale. Elle repose sur le fait que la plupart des phénomènes se comportent comme une variable nominale avec seulement deux catégories : par exemple, la présence/absence de maladie : vivant/mort, ou guéri/malade. Dans de telles circonstances, nous nous intéressons à la probabilité de succès, c'est-à-dire à l'événement qui nous intéresse (par exemple, présence d'une maladie, vivant ou guéri) et aux facteurs ou variables qui peuvent la modifier. Considérons n = 3 travailleurs, et supposons que nous nous intéressons à la probabilité, p, d'avoir une déficience visuelle (oui/non). Le résultat de notre observation pourrait être les résultats possibles du tableau 2.

Tableau 3. Résultats possibles d'une expérience binomiale (oui = 1, non = 0) et leurs probabilités (n = 3)

Nombre de succès

Probabilité

0

1

2

3

 

La probabilité de chacune de ces combinaisons d'événements est facilement obtenue en considérant p, la probabilité (individuelle) de succès, constante pour chaque sujet et indépendante des autres résultats. Puisque nous nous intéressons au nombre total de succès et non à une séquence ordonnée spécifique, nous pouvons réorganiser le tableau comme suit (voir tableau 3) et, en général, exprimer la probabilité de x succès P (x) comme:

De x est le nombre de succès et la notation x! désigne la factorielle de x, c'est à dire, x! = x×(x–1)×(x–2)…×1.

Lorsque l'on considère l'événement « être/ne pas être malade », la probabilité individuelle, désigne l'état dans lequel le sujet est présumé ; en épidémiologie, cette probabilité est appelée « prévalence ». Pour estimer p, nous utilisons la proportion d'échantillon :

p = x/n

avec écart :

Dans une hypothétique série infinie d'échantillons répliqués de même taille n, on obtiendrait des proportions d'échantillon différentes p = x/n, avec des probabilités données par la formule binomiale. La « vraie » valeur de  est estimé par chaque proportion d'échantillon, et un intervalle de confiance pour p, c'est-à-dire l'ensemble des valeurs probables pour p, compte tenu des données observées et d'un niveau de confiance prédéfini (disons 95%), est estimé à partir de la distribution binomiale comme l'ensemble des valeurs de p qui donne une probabilité de x supérieure à une valeur prédéfinie (disons 2.5 %). Pour une expérience hypothétique dans laquelle nous avons observé x = 15 succès en n = 30 essais, la probabilité estimée de succès est :

p = x/n = 15/30 = 0.5 

Tableau 4. Distribution binomiale. Probabilités pour différentes valeurs de  pour x = 15 succès en n = 30 essais

Probabilité

0.200

0.0002

0.300

0.0116

0.334

0.025

0.400

0.078

0.500

0.144

0.600

0.078

0.666

0.025

0.700

0.0116

 

L'intervalle de confiance à 95 % pour p, obtenu à partir du tableau 4, est de 0.334 à 0.666. Chaque entrée du tableau indique la probabilité de x = 15 succès en n = 30 essais calculés avec la formule binomiale ; par exemple, pour = 0.30, on obtient de :

Pour n grand et p proche de 0.5 on peut utiliser une approximation basée sur la distribution gaussienne :

De za /2 désigne la valeur de la distribution gaussienne standard pour une probabilité

P (|z| ³ za /2) = a/2;

1 – a étant le niveau de confiance choisi. Pour l'exemple considéré, = 15/30 = 0.5 ; n = 30 et de la table gaussienne standard z0.025 = 1.96. L'intervalle de confiance à 95 % donne l'ensemble de valeurs 0.321 - 0.679, obtenu en remplaçant p = 0.5, n = 30, et z0.025 = 1.96 dans l'équation ci-dessus pour la distribution gaussienne. Notez que ces valeurs sont proches des valeurs exactes calculées auparavant.

Les tests statistiques d'hypothèses comprennent une procédure de décision sur la valeur d'un paramètre de population. Supposons, dans l'exemple précédent, que nous voulions répondre à la proposition selon laquelle il existe un risque élevé de déficience visuelle chez les travailleurs d'une usine donnée. L'hypothèse scientifique à tester par nos observations empiriques est alors « il existe un risque élevé de déficience visuelle chez les travailleurs d'une usine donnée ». Les statisticiens démontrent de telles hypothèses en falsifiant l'hypothèse complémentaire « il n'y a pas d'élévation du risque de déficience visuelle ». Ceci suit la démonstration mathématique par absurde et, au lieu de vérifier une affirmation, les preuves empiriques ne servent qu'à la falsifier. L'hypothèse statistique est appelée hypothèse nulle. La deuxième étape consiste à spécifier une valeur pour le paramètre de cette distribution de probabilité utilisée pour modéliser la variabilité des observations. Dans nos exemples, le phénomène étant binaire (c'est-à-dire présence/absence de déficience visuelle), nous choisissons la distribution binomiale de paramètre p, la probabilité de déficience visuelle. L'hypothèse nulle affirme que = 0.25, disons. Cette valeur est choisie parmi l'ensemble des connaissances sur le sujet et la connaissance a priori de la prévalence habituelle de la déficience visuelle dans les populations non exposées (c'est-à-dire les non-travailleurs). Supposons que nos données produisent une estimation = 0.50, sur les 30 travailleurs examinés.

Peut-on rejeter l'hypothèse nulle ?

Si oui, en faveur de quoi alternative hypothèse?

Nous spécifions une hypothèse alternative comme candidate si les preuves dictent que l'hypothèse nulle soit rejetée. Les hypothèses alternatives non directionnelles (bilatérales) indiquent que le paramètre de population est différent de la valeur indiquée dans l'hypothèse nulle ; les hypothèses alternatives directionnelles (unilatérales) indiquent que le paramètre de population est supérieur (ou inférieur) à la valeur nulle.

Tableau 5. Distribution binomiale. Probabilités de succès pour  = 0.25 dans n = 30 essais

X

Probabilité

Probabilité cumulative

0

0.0002

0.0002

1

0.0018

0.0020

2

0.0086

0.0106

3

0.0269

0.0374

4

0.0604

0.0979

5

0.1047

0.2026

6

0.1455

0.3481

7

0.1662

0.5143

8

0.1593

0.6736

9

0.1298

0.8034

10

0.0909

0.8943

11

0.0551

0.9493

12

0.0291

0.9784

13

0.0134

0.9918

14

0.0054

0.9973

15

0.0019

0.9992

16

0.0006

0.9998

17

0.0002

1.0000

.

.

.

30

0.0000

1.0000

 

Sous l'hypothèse nulle, nous pouvons calculer la distribution de probabilité des résultats de notre exemple. Le tableau 5 montre, pour = 0.25 et n = 30, les probabilités (voir équation (1)) et les probabilités cumulées :

A partir de ce tableau, on obtient la probabilité d'avoir x ³15 travailleurs ayant une déficience visuelle

P(x ³15) = 1 - P(X15) = 1 - 0.9992 = 0.0008

Cela signifie qu'il est hautement improbable que nous observions 15 travailleurs ou plus ayant une déficience visuelle s'ils connaissaient la prévalence de la maladie des populations non exposées. Par conséquent, nous pourrions rejeter l'hypothèse nulle et affirmer qu'il existe une prévalence plus élevée de déficience visuelle dans la population de travailleurs étudiée.

Quand n×p ³ 5 et n×(1-) ³ 5, on peut utiliser l'approximation gaussienne :

À partir du tableau de la distribution gaussienne standard, nous obtenons :

P(|z|>2.95) = 0.0008

en accord étroit avec les résultats exacts. De cette approximation, nous pouvons voir que la structure de base d'un test statistique d'hypothèse consiste en le rapport signal sur bruit. Dans notre cas, le signal est (p-), l'écart observé par rapport à l'hypothèse nulle, tandis que le bruit est l'écart type de P:

Plus le rapport est grand, plus la probabilité de la valeur nulle est faible.

En prenant des décisions sur des hypothèses statistiques, nous pouvons encourir deux types d'erreurs : une erreur de type I, le rejet de l'hypothèse nulle lorsqu'elle est vraie ; soit une erreur de type II, acceptation de l'hypothèse nulle alors qu'elle est fausse. Le niveau de probabilité, ou valeur p, est la probabilité d'une erreur de type I, désignée par la lettre grecque a. Ceci est calculé à partir de la distribution de probabilité des observations sous l'hypothèse nulle. Il est d'usage de prédéfinir un niveau d'erreur a (par exemple, 5%, 1%) et de rejeter l'hypothèse nulle lorsque le résultat de notre observation a une probabilité égale ou inférieure à ce niveau dit critique.

La probabilité d'une erreur de type II est désignée par la lettre grecque β. Pour le calculer, il faut préciser, dans l'hypothèse alternative, la valeur α du paramètre à tester (dans notre exemple, la valeur α de ). Les hypothèses alternatives génériques (différent de, supérieur à, inférieur à) ne sont pas utiles. En pratique, la valeur β pour un ensemble d'hypothèses alternatives est intéressante, ou son complément, qui est appelé la puissance statistique du test. Par exemple, en fixant la valeur de l'erreur α à 5 %, à partir du tableau 5, nous trouvons :

P(x ³12) <0.05

sous l'hypothèse nulle = 0.25. Si nous devions observer au moins x = 12 succès, on rejetterait l'hypothèse nulle. Les valeurs β correspondantes et la puissance pour x = 12 sont donnés par le tableau 6. 

Tableau 6. Erreur de type II et puissance pour x = 12, n = 30, α = 0.05

β

Puissance

0.30

0.9155

0.0845

0.35

0.7802

0.2198

0.40

0.5785

0.4215

0.45

0.3592

0.6408

0.50

0.1808

0.8192

0.55

0.0714

0.9286

 

Dans ce cas, nos données ne peuvent pas discriminer si est supérieure à la valeur nulle de 0.25 mais inférieure à 0.50, car la puissance de l'étude est trop faible (<80%) pour ces valeurs de <0.50, c'est-à-dire que la sensibilité de notre étude est de 8 % pour = 0.3, 22 % pour = 0.35,…, 64% pour = 0.45.

La seule façon d'obtenir un β inférieur, ou un niveau de puissance supérieur, serait d'augmenter la taille de l'étude. Par exemple, dans le tableau 7, nous rapportons β et la puissance pour n = 40 ; comme prévu, nous devrions pouvoir détecter un  valeur supérieure à 0.40. 

Tableau 7. Erreur de type II et puissance pour x = 12, n = 40, α = 0.05

β

Puissance

0.30

0.5772

0.4228

0.35

0.3143

0.6857

0.40

0.1285

0.8715

0.45

0.0386

0.8614

0.50

0.0083

0.9917

0.55

0.0012

0.9988

 

La conception de l'étude est basée sur un examen minutieux de l'ensemble des hypothèses alternatives qui méritent considération et garantissent la puissance de l'étude en fournissant une taille d'échantillon adéquate.

Dans la littérature épidémiologique, la pertinence de fournir des estimations de risque fiables a été soulignée. Par conséquent, il est plus important de rapporter des intervalles de confiance (95 % ou 90 %) qu'un p-valeur d'un test d'une hypothèse. Suivant le même type de raisonnement, il convient d'être attentif à l'interprétation des résultats d'études de petite taille : du fait de la faible puissance, même des effets intermédiaires pourraient ne pas être détectés et, d'autre part, des effets de grande ampleur pourraient ne pas être répliqués par la suite.

Méthodes avancées

Le degré de complexité des méthodes statistiques utilisées dans le contexte de la médecine du travail s'est accru au cours des dernières années. Des développements majeurs peuvent être trouvés dans le domaine de la modélisation statistique. La famille de modèles non gaussiens de Nelder et Wedderburn (modèles linéaires généralisés) a été l'une des contributions les plus frappantes à l'augmentation des connaissances dans des domaines tels que l'épidémiologie professionnelle, où les variables de réponse pertinentes sont binaires (par exemple, survie/décès) ou comptages (par exemple, nombre d'accidents du travail).

Ce fut le point de départ d'une application extensive des modèles de régression comme alternative aux types d'analyse plus traditionnels basés sur des tableaux de contingence (analyse simple et stratifiée). Poisson, Cox et la régression logistique sont désormais couramment utilisés pour l'analyse des études longitudinales et cas-témoins, respectivement. Ces modèles sont le pendant de la régression linéaire pour les variables de réponse catégorielles et ont la particularité élégante de fournir directement la mesure épidémiologique pertinente de l'association. Par exemple, les coefficients de la régression de Poisson sont le logarithme des rapports de taux, tandis que ceux de la régression logistique sont le log des rapports de cotes.

En prenant cela comme référence, les développements ultérieurs dans le domaine de la modélisation statistique ont pris deux directions principales : les modèles pour les mesures catégorielles répétées et les modèles qui étendent les modèles linéaires généralisés (modèles additifs généralisés). Dans les deux cas, les objectifs sont axés sur l'augmentation de la flexibilité des outils statistiques afin de faire face à des problèmes plus complexes découlant de la réalité. Des modèles de mesures répétées sont nécessaires dans de nombreuses études professionnelles où les unités d'analyse se situent au niveau sous-individuel. Par exemple:

  1. L'étude de l'effet des conditions de travail sur le syndrome du canal carpien doit considérer les deux mains d'une personne, qui ne sont pas indépendantes l'une de l'autre.
  2. L'analyse des tendances temporelles des polluants environnementaux et de leur effet sur les systèmes respiratoires des enfants peut être évaluée à l'aide de modèles extrêmement flexibles car la forme fonctionnelle exacte de la relation dose-réponse est difficile à obtenir.

 

Un développement parallèle et probablement plus rapide a été observé dans le contexte des statistiques bayésiennes. La barrière pratique de l'utilisation des méthodes bayésiennes s'est effondrée après l'introduction des méthodes à forte intensité de calcul. Les procédures de Monte Carlo telles que les schémas d'échantillonnage de Gibbs nous ont permis d'éviter le besoin d'intégration numérique pour calculer les distributions postérieures qui représentaient la caractéristique la plus difficile des méthodes bayésiennes. Le nombre d'applications des modèles bayésiens dans des problèmes réels et complexes a trouvé de plus en plus d'espace dans les revues appliquées. Par exemple, les analyses géographiques et les corrélations écologiques au niveau des petites zones et les modèles de prédiction du SIDA sont de plus en plus souvent abordés à l'aide d'approches bayésiennes. Ces développements sont les bienvenus parce qu'ils représentent non seulement une augmentation du nombre de solutions statistiques alternatives qui pourraient être employées dans l'analyse des données épidémiologiques, mais aussi parce que l'approche bayésienne peut être considérée comme une stratégie plus solide.

 

Retour

Les articles précédents de ce chapitre ont montré la nécessité d'une évaluation minutieuse de la conception de l'étude afin de tirer des conclusions crédibles à partir des observations épidémiologiques. Bien qu'il ait été affirmé que les inférences en épidémiologie observationnelle sont faibles en raison de la nature non expérimentale de la discipline, il n'y a pas de supériorité intrinsèque des essais contrôlés randomisés ou d'autres types de conception expérimentale sur l'observation bien planifiée (Cornfield 1954). Cependant, tirer des conclusions valables implique une analyse approfondie de la conception de l'étude afin d'identifier les sources potentielles de biais et de confusion. Les résultats faux positifs et faux négatifs peuvent provenir de différents types de biais.

Dans cet article, certaines des lignes directrices qui ont été proposées pour évaluer la nature causale des observations épidémiologiques sont discutées. En outre, même si une bonne science est une prémisse pour une recherche épidémiologique éthiquement correcte, il existe d'autres questions qui sont pertinentes pour les préoccupations éthiques. Par conséquent, nous avons consacré une partie de la discussion à l'analyse des problèmes éthiques qui peuvent survenir lors de la réalisation d'études épidémiologiques.

Évaluation de la causalité

Plusieurs auteurs ont discuté de l'évaluation de la causalité en épidémiologie (Hill 1965 ; Buck 1975 ; Ahlbom 1984 ; Maclure 1985 ; Miettinen 1985 ; Rothman 1986 ; Weed 1986 ; Schlesselman 1987 ; Maclure 1988 ; Weed 1988 ; Karhausen 1995). L'un des principaux points de discussion est de savoir si l'épidémiologie utilise ou devrait utiliser les mêmes critères pour la détermination des relations de cause à effet que ceux utilisés dans d'autres sciences.

Les causes ne doivent pas être confondues avec les mécanismes. Par exemple, l'amiante est une cause de mésothéliome, tandis que la mutation oncogène est un mécanisme putatif. Sur la base des preuves existantes, il est probable que (a) différentes expositions externes peuvent agir aux mêmes stades mécanistes et (b) il n'y a généralement pas de séquence fixe et nécessaire d'étapes mécanistes dans le développement de la maladie. Par exemple, la carcinogenèse est interprétée comme une séquence de transitions stochastiques (probabilistes), de la mutation génique à la prolifération cellulaire, puis à nouveau à la mutation génique, qui finit par conduire au cancer. De plus, la cancérogenèse est un processus multifactoriel, c'est-à-dire que différentes expositions externes peuvent l'affecter et qu'aucune d'entre elles n'est nécessaire chez une personne sensible. Ce modèle est susceptible de s'appliquer à plusieurs maladies en plus du cancer.

Une telle nature multifactorielle et probabiliste de la plupart des relations exposition-maladie implique qu'il est difficile de démêler le rôle joué par une exposition spécifique. De plus, la nature observationnelle de l'épidémiologie nous empêche de mener des expériences qui pourraient clarifier les relations étiologiques par une altération volontaire du cours des événements. L'observation d'une association statistique entre l'exposition et la maladie ne signifie pas que l'association est causale. Par exemple, la plupart des épidémiologistes ont interprété l'association entre l'exposition aux gaz d'échappement diesel et le cancer de la vessie comme causale, mais d'autres ont affirmé que les travailleurs exposés aux gaz d'échappement diesel (principalement les chauffeurs de camions et de taxis) sont plus souvent des fumeurs de cigarettes que les personnes non exposées. . L'association observée, selon cette affirmation, serait donc « confondue » par un facteur de risque bien connu comme le tabagisme.

Compte tenu de la nature probabiliste et multifactorielle de la plupart des associations exposition-maladie, les épidémiologistes ont élaboré des lignes directrices pour reconnaître les relations susceptibles d'être causales. Voici les lignes directrices initialement proposées par Sir Bradford Hill pour les maladies chroniques (1965) :

  • force de l'association
  • effet dose-réponse
  • absence d'ambiguïté temporelle
  • cohérence des résultats
  • plausibilité biologique
  • cohérence des preuves
  • spécificité de l'association.

 

Ces critères doivent être considérés uniquement comme des lignes directrices générales ou des outils pratiques ; en fait, l'évaluation causale scientifique est un processus itératif centré sur la mesure de la relation exposition-maladie. Cependant, les critères de Hill sont souvent utilisés comme une description concise et pratique des procédures d'inférence causale en épidémiologie.

Prenons l'exemple de la relation entre l'exposition au chlorure de vinyle et l'angiosarcome du foie, en appliquant les critères de Hill.

L'expression usuelle des résultats d'une étude épidémiologique est une mesure du degré d'association entre exposition et maladie (premier critère de Hill). Un risque relatif (RR) supérieur à l'unité signifie qu'il existe une association statistique entre l'exposition et la maladie. Par exemple, si le taux d'incidence de l'angiosarcome du foie est généralement de 1 sur 10 millions, mais qu'il est de 1 sur 100,000 100 chez les personnes exposées au chlorure de vinyle, alors le RR est de 100 (c'est-à-dire que les personnes qui travaillent avec du chlorure de vinyle ont une augmentation de XNUMX fois risque de développer un angiosarcome par rapport aux personnes qui ne travaillent pas avec du chlorure de vinyle).

Il est plus probable qu'une association soit causale lorsque le risque augmente avec l'augmentation des niveaux d'exposition (effet dose-réponse, deuxième critère de Hill) et lorsque la relation temporelle entre l'exposition et la maladie a un sens biologique (l'exposition précède l'effet et la durée de cette période « d'induction » est compatible avec un modèle biologique de la maladie ; troisième critère de Hill). De plus, une association est plus susceptible d'être causale lorsque des résultats similaires sont obtenus par d'autres personnes qui ont pu reproduire les résultats dans des circonstances différentes (« cohérence », quatrième critère de Hill).

Une analyse scientifique des résultats nécessite une évaluation de la plausibilité biologique (cinquième critère de Hill). Ceci peut être réalisé de différentes manières. Par exemple, un critère simple consiste à évaluer si la « cause » alléguée est capable d'atteindre l'organe cible (par exemple, les substances inhalées qui n'atteignent pas les poumons ne peuvent pas circuler dans l'organisme). De plus, des preuves à l'appui provenant d'études animales sont utiles : l'observation d'angiosarcomes hépatiques chez des animaux traités au chlorure de vinyle renforce fortement l'association observée chez l'homme.

La cohérence interne des observations (par exemple, le RR est augmenté de manière similaire dans les deux sexes) est un critère scientifique important (sixième critère de Hill). La causalité est plus probable lorsque la relation est très spécifique, c'est-à-dire qu'elle implique des causes rares et/ou des maladies rares, ou un type/sous-groupe histologique spécifique de patients (septième critère de Hill).

« L'induction énumérative » (la simple énumération des cas d'association entre l'exposition et la maladie) est insuffisante pour décrire complètement les étapes inductives du raisonnement causal. Habituellement, le résultat de l'induction énumérative produit une observation complexe et encore confuse parce que différentes chaînes causales ou, plus fréquemment, une véritable relation causale et d'autres expositions non pertinentes, sont enchevêtrées. Les explications alternatives doivent être éliminées par «induction éliminatoire», montrant qu'une association est susceptible d'être causale parce qu'elle n'est pas «confondue» avec d'autres. Une définition simple d'une explication alternative est "un facteur étranger dont l'effet est mélangé à l'effet de l'exposition d'intérêt, faussant ainsi l'estimation du risque pour l'exposition d'intérêt" (Rothman 1986).

Le rôle de l'induction est d'élargir les connaissances, alors que le rôle de la déduction est de « transmettre la vérité » (Giere 1979). Le raisonnement déductif examine la conception de l'étude et identifie les associations qui ne sont pas empiriquement vraies, mais juste logiquement vraies. De telles associations ne sont pas une question de fait, mais des nécessités logiques. Par exemple, un biais de séléction se produit lorsque le groupe exposé est sélectionné parmi des personnes malades (comme lorsque nous commençons une étude de cohorte recrutant comme « exposés » au chlorure de vinyle un groupe de cas d'angiosarcome du foie) ou lorsque le groupe non exposé est sélectionné parmi des personnes en bonne santé. Dans les deux cas, l'association trouvée entre l'exposition et la maladie est nécessairement (logiquement) mais non empiriquement vraie (Vineis 1991).

En conclusion, même si l'on considère sa nature observationnelle (non expérimentale), l'épidémiologie n'utilise pas de procédures inférentielles qui diffèrent substantiellement de la tradition des autres disciplines scientifiques (Hume 1978 ; Schaffner 1993).

Questions éthiques dans la recherche épidémiologique

En raison des subtilités impliquées dans l'inférence de la causalité, les épidémiologistes doivent être particulièrement prudents dans l'interprétation de leurs études. En effet, plusieurs préoccupations d'ordre éthique en découlent.

Les questions éthiques dans la recherche épidémiologique sont devenues un sujet de discussion intense (Schulte 1989 ; Soskolne 1993 ; Beauchamp et al. 1991). La raison en est évidente : les épidémiologistes, en particulier les épidémiologistes du travail et de l'environnement, étudient souvent des questions ayant d'importantes implications économiques, sociales et politiques de santé. Les résultats négatifs et positifs concernant l'association entre des expositions chimiques spécifiques et la maladie peuvent affecter la vie de milliers de personnes, influencer les décisions économiques et donc sérieusement conditionner les choix politiques. Ainsi, l'épidémiologiste peut être sous pression, et être tenté voire incité par d'autres à modifier, marginalement ou substantiellement, l'interprétation des résultats de ses investigations.

Parmi les nombreuses questions pertinentes, transparence de la collecte, du codage, de l'informatisation et de l'analyse des données est essentielle en tant que défense contre les allégations de partialité de la part du chercheur. Également crucial, et potentiellement en conflit avec une telle transparence, est le droit des sujets inscrits à la recherche épidémiologique d'être protégés contre la divulgation d'informations personnelles
(confidentialité problèmes).

Du point de vue de l'inconduite qui peut survenir en particulier dans le contexte de l'inférence causale, les questions qui devraient être abordées par les lignes directrices en matière d'éthique sont :

  • À qui appartiennent les données et pendant combien de temps les données doivent-elles être conservées ?
  • Qu'est-ce qui constitue un dossier crédible du travail accompli ?
  • Les subventions publiques prévoient-elles dans le budget les coûts associés à une documentation adéquate, à l'archivage et à la réanalyse des données ?
  • L'investigateur principal a-t-il un rôle à jouer dans la réanalyse de ses données par un tiers ?
  • Existe-t-il des normes de pratique pour le stockage des données ?
  • Les épidémiologistes du travail et de l'environnement devraient-ils établir un climat normatif dans lequel l'examen ou l'audit des données peut être réalisé ?
  • Comment les bonnes pratiques de stockage des données servent-elles à prévenir non seulement les fautes, mais aussi les allégations de faute ?
  • Qu'est-ce qui constitue une faute en épidémiologie professionnelle et environnementale en matière de gestion des données, d'interprétation des résultats et de plaidoyer ?
  • Quel est le rôle de l'épidémiologiste et/ou des organismes professionnels dans l'élaboration de normes de pratique et d'indicateurs/résultats pour leur évaluation, et dans l'apport d'expertise dans tout rôle de plaidoyer ?
  • Quel est le rôle de l'organisme/de l'organisation professionnelle dans le traitement des préoccupations relatives à l'éthique et à la loi ? (Soskolne 1993)

 

D'autres questions cruciales, dans le cas de l'épidémiologie professionnelle et environnementale, concernent l'implication des travailleurs dans les phases préliminaires des études, et la diffusion des résultats d'une étude aux sujets qui ont été enrôlés et sont directement concernés (Schulte 1989 ). Malheureusement, il n'est pas courant que les travailleurs inscrits à des études épidémiologiques soient impliqués dans des discussions collaboratives sur les objectifs de l'étude, son interprétation et les utilisations potentielles des résultats (ce qui peut être à la fois avantageux et préjudiciable au travailleur).

Des réponses partielles à ces questions ont été fournies par des recommandations récentes (Beauchamp et al. 1991 ; CIOMS 1991). Cependant, dans chaque pays, les associations professionnelles d'épidémiologistes du travail devraient engager une discussion approfondie sur les questions éthiques et, éventuellement, adopter un ensemble de lignes directrices éthiques adaptées au contexte local tout en reconnaissant les normes de pratique normatives acceptées au niveau international.

 

Retour

La documentation des maladies professionnelles dans un pays comme Taïwan est un défi pour un médecin du travail. Faute d'un système comprenant des fiches de données de sécurité (FDS), les travailleurs n'étaient généralement pas au courant des produits chimiques avec lesquels ils travaillaient. Étant donné que de nombreuses maladies professionnelles ont de longues latences et ne présentent aucun symptôme ou signe spécifique jusqu'à ce qu'elles soient cliniquement évidentes, la reconnaissance et l'identification de l'origine professionnelle sont souvent très difficiles.

Pour mieux contrôler les maladies professionnelles, nous avons accédé à des bases de données qui fournissent une liste relativement complète de produits chimiques industriels et un ensemble de signes et/ou symptômes spécifiques. Combiné à l'approche épidémiologique des conjectures et des réfutations (c'est-à-dire considérer et écarter toutes les explications alternatives possibles), nous avons documenté plus d'une dizaine de types de maladies professionnelles et une épidémie de botulisme. Nous recommandons qu'une approche similaire soit appliquée à tout autre pays dans une situation similaire, et qu'un système impliquant une fiche d'identification (par exemple, MSDS) pour chaque produit chimique soit préconisé et mis en œuvre comme un moyen de permettre une reconnaissance rapide et donc la prévention des accidents du travail. maladies.

Hépatite dans une usine d'impression couleur

Trois travailleurs d'une imprimerie couleur ont été admis dans des hôpitaux communautaires en 1985 avec des manifestations d'hépatite aiguë. L'un des trois présentait une insuffisance rénale aiguë superposée. L'hépatite virale ayant une prévalence élevée à Taïwan, il convient de considérer une origine virale parmi les étiologies les plus probables. La consommation d'alcool et de drogues, ainsi que les solvants organiques sur le lieu de travail, doivent également être inclus. Parce qu'il n'y avait pas de système de FDS à Taïwan, ni les employés ni l'employeur n'étaient au courant de tous les produits chimiques utilisés dans l'usine (Wang 1991).

Nous avons dû compiler une liste d'agents hépatotoxiques et néphrotoxiques à partir de plusieurs bases de données toxicologiques. Ensuite, nous avons déduit toutes les inférences possibles des hypothèses ci-dessus. Par exemple, si le virus de l'hépatite A (VHA) était l'étiologie, on devrait observer des anticorps (VHA-IgM) chez les travailleurs touchés ; si le virus de l'hépatite B était l'étiologie, on devrait observer plus de porteurs d'antigènes de surface de l'hépatite B (HBsAg) parmi les travailleurs atteints que chez les travailleurs non atteints ; si l'alcool était l'étiologie principale, on devrait observer plus d'alcooliques ou d'alcooliques chroniques parmi les travailleurs concernés ; si un solvant toxique (par exemple, le chloroforme) était l'étiologie, nous devrions le trouver sur le lieu de travail.

Nous avons effectué une évaluation médicale complète pour chaque travailleur. L'étiologie virale a été facilement réfutée, ainsi que l'hypothèse de l'alcool, car elles ne pouvaient pas être étayées par des preuves.

Au lieu de cela, 17 des 25 travailleurs de l'usine avaient des tests anormaux de la fonction hépatique, et une association significative a été trouvée entre la présence d'une fonction hépatique anormale et des antécédents de travail récent dans l'une des trois pièces dans lesquelles un système de climatisation interconnecté avait été installé. installé pour refroidir les machines d'impression. L'association est restée après stratification selon le statut de porteur de l'hépatite B. Il a été déterminé plus tard que l'incident s'était produit à la suite de l'utilisation par inadvertance d'un «agent de nettoyage» (qui était du tétrachlorure de carbone) pour nettoyer une pompe dans la machine à imprimer. De plus, un test de simulation de l'opération de nettoyage de la pompe a révélé des niveaux de tétrachlorure de carbone dans l'air ambiant de 115 à 495 ppm, ce qui pourrait entraîner des lésions hépatiques. Dans une autre tentative de réfutation, en éliminant le tétrachlorure de carbone sur le lieu de travail, nous avons constaté qu'aucun nouveau cas ne s'est produit et que tous les travailleurs concernés se sont améliorés après avoir été retirés du lieu de travail pendant 20 jours. Par conséquent, nous avons conclu que l'éclosion était due à l'utilisation de tétrachlorure de carbone.

Symptômes neurologiques dans une usine d'impression couleur

En septembre 1986, un apprenti dans une usine d'impression couleur à Chang-Hwa a soudainement développé une faiblesse bilatérale aiguë et une paralysie respiratoire. Le père de la victime a allégué au téléphone qu'il y avait plusieurs autres travailleurs présentant des symptômes similaires. Étant donné que les ateliers d'impression couleur étaient autrefois documentés pour avoir des maladies professionnelles résultant d'expositions aux solvants organiques, nous nous sommes rendus sur le lieu de travail pour déterminer l'étiologie avec une hypothèse d'intoxication possible aux solvants à l'esprit (Wang 1991).

Notre pratique courante, cependant, consistait à considérer toutes les conjectures alternatives, y compris d'autres problèmes médicaux, notamment la fonction altérée des motoneurones supérieurs, des motoneurones inférieurs, ainsi que la jonction neuromusculaire. Encore une fois, nous avons déduit des déclarations de résultats à partir des hypothèses ci-dessus. Par exemple, si un solvant signalé comme produisant une polyneuropathie (par exemple, le n-hexane, le méthylbutylcétone, l'acrylamide) en était la cause, il altérerait également la vitesse de conduction nerveuse (NCV) ; s'il s'agissait d'autres problèmes médicaux impliquant les motoneurones supérieurs, il y aurait des signes d'altération de la conscience et/ou de mouvement involontaire.

Les observations sur le terrain ont révélé que tous les travailleurs concernés avaient une conscience claire tout au long de l'évolution clinique. Une étude NCV de trois travailleurs affectés a montré des motoneurones inférieurs intacts. Il n'y avait aucun mouvement involontaire, aucun antécédent de médication ou de morsures avant l'apparition des symptômes, et le test à la néostigmine était négatif. Une association significative entre la maladie et le petit-déjeuner pris à la cafétéria de l'usine les 26 ou 27 septembre a été trouvée ; sept des sept travailleurs touchés contre sept des 32 travailleurs non touchés ont pris le petit déjeuner à l'usine ces deux jours. Un effort de test supplémentaire a montré que la toxine botulique de type A a été détectée dans des arachides en conserve fabriquées par une société non autorisée, et son échantillon a également montré une croissance complète de Clostridium botulinum. Un dernier procès de réfutation a été le retrait de ces produits du marché commercial, qui n'a abouti à aucun nouveau cas. Cette enquête a documenté les premiers cas de botulisme provenant d'un produit alimentaire commercial à Taïwan.

Lésions cutanées précancéreuses chez les fabricants de paraquat

En juin 1983, deux travailleurs d'une usine de fabrication de paraquat se sont rendus dans une clinique de dermatologie pour se plaindre de nombreuses macules hyperpigmentées bilatérales avec des modifications hyperkératosiques sur les parties des mains, du cou et du visage exposées au soleil. Certains spécimens de peau ont également montré des changements Bowenoid. Étant donné que des lésions cutanées malignes et précancéreuses ont été signalées chez les travailleurs de la fabrication de bipyridyle, une cause professionnelle a été fortement suspectée. Cependant, nous avons également dû considérer d'autres causes (ou hypothèses) alternatives de cancer de la peau telles que l'exposition aux rayonnements ionisants, au goudron de houille, au brai, à la suie ou à tout autre hydrocarbure polyaromatique (HAP). Pour écarter toutes ces conjectures, nous avons mené une étude en 1985, visitant toutes les 28 usines qui se sont jamais engagées dans la fabrication ou l'emballage de paraquat et examinant les processus de fabrication ainsi que les travailleurs (Wang et al. 1987; Wang 1993).

Nous avons examiné 228 travailleurs et aucun d'entre eux n'avait jamais été exposé aux carcinogènes cutanés susmentionnés, à l'exception de la lumière du soleil et de la 4'-4'-bipyridine et de ses isomères. Après avoir exclu les travailleurs ayant subi des expositions multiples, nous avons constaté qu'un administrateur sur sept et deux sur 82 travailleurs du conditionnement du paraquat ont développé des lésions cutanées hyperpigmentées, contre trois travailleurs sur trois impliqués uniquement dans la cristallisation et la centrifugation de la bipyridine. De plus, les 17 travailleurs atteints d'hyperkératose ou de lésions de Bowen avaient des antécédents d'exposition directe au bipyridyle et à ses isomères. Plus l'exposition aux bipyridyles est longue, plus le développement de lésions cutanées est probable, et cette tendance ne peut être expliquée par la lumière du soleil ou l'âge, comme le démontrent la stratification et l'analyse de régression logistique. Par conséquent, la lésion cutanée a été provisoirement attribuée à une combinaison d'expositions au bipyridyle et à la lumière du soleil. Nous avons fait d'autres tentatives de réfutation pour suivre si un nouveau cas se produisait après avoir inclus tous les processus impliquant une exposition aux bipyridyles. Aucun nouveau cas n'a été découvert.

Discussion et conclusions

Les trois exemples ci-dessus ont illustré l'importance d'adopter une approche réfutationnelle et une base de données des maladies professionnelles. La première nous fait toujours considérer des hypothèses alternatives de la même manière que l'hypothèse intuitionnelle initiale, tandis que la seconde fournit une liste détaillée d'agents chimiques qui peuvent nous guider vers la véritable étiologie. Une limitation possible de cette approche est que nous ne pouvons considérer que les explications alternatives que nous pouvons imaginer. Si notre liste d'alternatives est incomplète, il se peut que nous nous retrouvions sans réponse ou avec une mauvaise réponse. Par conséquent, une base de données complète sur les maladies professionnelles est cruciale pour le succès de cette stratégie.

Nous avions l'habitude de construire notre propre base de données de manière laborieuse. Cependant, les bases de données OSH-ROM récemment publiées, qui contiennent la base de données NIOSHTIC de plus de 160,000 XNUMX résumés, peuvent être l'une des plus complètes à cette fin, comme indiqué ailleurs dans le Encyclopédie. De plus, si une nouvelle maladie professionnelle survenait, nous pourrions rechercher une telle base de données et exclure tous les agents étiologiques connus, et n'en laisser aucun non réfuté. Dans une telle situation, nous pouvons essayer d'identifier ou de définir le nouvel agent (ou cadre professionnel) aussi précisément que possible afin que le problème puisse d'abord être atténué, puis tester d'autres hypothèses. Le cas des lésions cutanées précancéreuses chez les fabricants de paraquat en est un bon exemple.

 

Retour

" AVIS DE NON-RESPONSABILITÉ : L'OIT n'assume aucune responsabilité pour le contenu présenté sur ce portail Web qui est présenté dans une langue autre que l'anglais, qui est la langue utilisée pour la production initiale et l'examen par les pairs du contenu original. Certaines statistiques n'ont pas été mises à jour depuis la production de la 4ème édition de l'Encyclopédie (1998)."

Table des matières