27. Monitoraggio biologico
Editor del capitolo: Robert Lauwerys
Sommario
Principi generali
Vito Foà e Lorenzo Alessio
Certificazione di qualità
D.Gompertz
Metalli e Composti Organometallici
P.Hoet e Robert Lauwerys
Solventi organici
Masayuki Ikeda
Sostanze chimiche genotossiche
Marja Sorsa
Pesticidi
Marco Maroni e Adalberto Ferioli
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. ACGIH, DFG e altri valori limite per i metalli
2. Esempi di monitoraggio chimico e biologico
3. Monitoraggio biologico per solventi organici
4. Genotossicità delle sostanze chimiche valutata da IARC
5. Biomarcatori e alcuni campioni di cellule/tessuti e genotossicità
6. Agenti cancerogeni per l'uomo, esposizione professionale e endpoint citogenetici
8. Esposizione da produzione e uso di pesticidi
9. Tossicità OP acuta a diversi livelli di inibizione ACHE
10 Variazioni di ACHE e PCHE e condizioni di salute selezionate
11 Attività della colinesterasi di persone sane non esposte
12 Alchilfosfati urinari e pesticidi OP
13 Misurazioni di alchilfosfati urinari e OP
14 Metaboliti carbammati urinari
15 Metaboliti urinari del ditiocarbammato
16 Indici proposti per il monitoraggio biologico dei pesticidi
17 Valori limite biologici raccomandati (a partire dal 1996)
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
28. Epidemiologia e statistica
Redattori di capitoli: Franco Merletti, Colin L. Soskolne e Paolo Vineis
Metodo epidemiologico applicato alla salute e sicurezza sul lavoro
Franco Merletti, Colin L. Soskolne e Paolo Vineis
Valutazione dell'esposizione
Sig. Gerald Ott
Sommario Misure di esposizione durante la vita lavorativa
Colin L. Soskolne
Misurazione degli effetti delle esposizioni
Shelia Hoar Zahm
Caso di studio: Misure
Franco Merletti, Colin L. Soskolne e Paola Vineis
Opzioni nella progettazione dello studio
Sven Hernberg
Problemi di validità nella progettazione dello studio
Annie J.Sasco
Impatto dell'errore di misurazione casuale
Paolo Vineis e Colin L. Soskolne
Metodi statistici
Annibale Biggeri e Mario Braga
Valutazione della causalità ed etica nella ricerca epidemiologica
Paolo Vineis
Casi di studio che illustrano questioni metodologiche nella sorveglianza delle malattie professionali
Jung-Der Wang
Questionari nella ricerca epidemiologica
Steven D. Stellman e Colin L. Soskolne
Prospettiva storica dell'amianto
Lorenzo Garfinkel
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. Cinque misure riassuntive selezionate dell'esposizione durante la vita lavorativa
2. Misure di insorgenza della malattia
3. Misure di associazione per uno studio di coorte
4. Misure di associazione per studi caso-controllo
5. Layout generale della tabella delle frequenze per i dati di coorte
6. Esempio di layout dei dati caso-controllo
7. Disporre i dati caso-controllo: un controllo per caso
8. Ipotetica coorte di 1950 individui a T2
9. Indici di tendenza centrale e dispersione
10 Un esperimento binomiale e probabilità
11 Possibili esiti di un esperimento binomiale
12 Distribuzione binomiale, 15 successi/30 prove
13 Distribuzione binomiale, p = 0.25; 30 prove
14 Errore e alimentazione di tipo II; x = 12, n = 30, a = 0.05
15 Errore e alimentazione di tipo II; x = 12, n = 40, a = 0.05
16 632 lavoratori esposti all'amianto da 20 anni o più
17 O/E numero di morti tra 632 lavoratori dell'amianto
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
29. Ergonomia
Redattori di capitoli: Wolfgang Laurig e Joachim Vedder
Sommario
Panoramica
Wolfgang Laurig e Joachim Vedder
La natura e gli scopi dell'ergonomia
William T. Singleton
Analisi delle attività, dei compiti e dei sistemi di lavoro
Veronica De Keyser
Ergonomia e standardizzazione
Friedhelm Nachreiner
Liste di controllo
Pranab Kumar Nag
Antropometria
Melchiorre Masali
Lavoro muscolare
Juhani Smolander e Veikko Louhevaara
Posture sul lavoro
Ilkka Kuorinka
Biomeccanica
Franco Darby
Fatica Generale
Etienne Grandjean
Fatica e recupero
Rolf Helbig e Walter Rohmert
Carico di lavoro mentale
Winfried Hacker
vigilanza
Herbert Heuer
Affaticamento mentale
Pietro Richter
Organizzazione del lavoro
Eberhard Ulich e Gudela Grote
Privazione del sonno
Kazutaka Kogi
workstation
Roland Kadefors
Strumenti
TM Fraser
Comandi, indicatori e pannelli
Karl SE Kroemer
Elaborazione e progettazione delle informazioni
Andries F. Sanders
Progettare per gruppi specifici
Scherzo H. Grady-van den Nieuwboer
Caso di studio: la classificazione internazionale della limitazione funzionale nelle persone
Differenze culturali
Hushang Shahnavaz
Lavoratori anziani
Antoine Laville e Serge Volkoff
Lavoratori con Bisogni Speciali
Scherzo H. Grady-van den Nieuwboer
Progettazione di sistemi nella produzione di diamanti
Issacar Gilad
Ignorando i principi di progettazione ergonomica: Chernobyl
Vladimir M. Munipov
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. Elenco dei nuclei antropometrici di base
2. Fatica e recupero dipendono dai livelli di attività
3. Regole di combinazione degli effetti di due fattori di stress sulla deformazione
4. Differenza tra diverse conseguenze negative della tensione mentale
5. Principi orientati al lavoro per la strutturazione della produzione
6. Partecipazione al contesto organizzativo
7. Partecipazione degli utenti al processo tecnologico
8. Orario di lavoro irregolare e privazione del sonno
9. Aspetti dell'anticipo, dell'ancora e del sonno ritardato
10 Controlla i movimenti e gli effetti attesi
11 Relazioni controllo-effetto dei comandi manuali comuni
12 Regole per la disposizione dei controlli
13 Linee guida per le etichette
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
30. Igiene del lavoro
Editor del capitolo: Robert F.Herrick
Sommario
Obiettivi, definizioni e informazioni generali
Berenice I. Ferrari Goelzer
Riconoscimento dei pericoli
Linnea Lillienberg
Valutazione dell'ambiente di lavoro
Lori A.Todd
Igiene del lavoro: controllo delle esposizioni attraverso l'intervento
James Stewart
La base biologica per la valutazione dell'esposizione
Dick Heederik
Limiti di esposizione professionale
Dennis J. Paustenbach
1. Rischi chimici; agenti biologici e fisici
2. Limiti di esposizione professionale (OEL) - vari paesi
31. Protezione personale
Editor del capitolo: Robert F.Herrick
Sommario
Panoramica e filosofia della protezione personale
Robert F.Herrick
Protettori per occhi e viso
Kikuzi Kimura
Protezione del piede e della gamba
Toohiko Miura
Protezione della testa
Isabelle Balty e Alain Mayer
Protezione dell'udito
John R. Franchi e Elliott H. Berger
Abbigliamento protettivo
S. Zack Mansdorf
Protezione respiratoria
Thomas J. Nelson
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. Requisiti di trasmittanza (ISO 4850-1979)
2. Bilance di protezione - saldatura a gas e saldobrasatura
3. Scale di protezione - taglio dell'ossigeno
4. Scale di protezione - taglio ad arco plasma
5. Scale di protezione - saldatura ad arco elettrico o scriccatura
6. Scale di protezione - saldatura ad arco diretto al plasma
7. Elmetto di sicurezza: norma ISO 3873-1977
8. Classificazione di riduzione del rumore di una protezione acustica
9. Calcolo della riduzione del rumore ponderata A
10 Esempi di categorie di rischio dermico
11 Requisiti di prestazione fisica, chimica e biologica
12 Pericoli materiali associati a particolari attività
13 Fattori di protezione assegnati da ANSI Z88 2 (1992)
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
32. Sistemi di registrazione e sorveglianza
Editor del capitolo: Steven D. Stellmann
Sommario
Sistemi di sorveglianza e segnalazione delle malattie professionali
Steven B. Markowitz
Sorveglianza sui rischi professionali
David H. Wegman e Steven D. Stellman
Sorveglianza nei paesi in via di sviluppo
David Koh e Kee-Seng Chia
Sviluppo e applicazione di un sistema di classificazione degli infortuni e delle malattie professionali
Elyce Biddle
Analisi del rischio di lesioni e malattie non mortali sul posto di lavoro
John W. Ruser
Caso di studio: protezione dei lavoratori e statistiche sugli infortuni e le malattie professionali - HVBG, Germania
Martin Butz e Burkhard Hoffmann
Caso di studio: Wismut - Un'esposizione all'uranio rivisitata
Heinz Otten e Horst Schulz
Strategie e tecniche di misurazione per la valutazione dell'esposizione professionale in epidemiologia
Frank Bochmann e Helmut Blomé
Caso di studio: Indagini sulla salute sul lavoro in Cina
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. Angiosarcoma del fegato - registro mondiale
2. Malattia professionale, Stati Uniti, 1986 contro 1992
3. Morti negli Stati Uniti per pneumoconiosi e mesotelioma pleurico
4. Esempio di elenco delle malattie professionali soggette a denuncia
5. Struttura del codice di segnalazione di malattie e infortuni, Stati Uniti
6. Infortuni e malattie professionali non mortali, Stati Uniti 1993
7. Rischio di infortuni e malattie professionali
8. Rischio relativo per condizioni di movimento ripetitivo
9. Infortuni sul lavoro, Germania, 1981-93
10 Rettificatrici in incidenti di lavorazione dei metalli, Germania, 1984-93
11 Malattia professionale, Germania, 1980-93
12 Malattie infettive, Germania, 1980-93
13 Esposizione alle radiazioni nelle miniere di Wismut
14 Malattie professionali nelle miniere di uranio di Wismut 1952-90
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
33. Tossicologia
Redattore del capitolo: Ellen K. Silbergeld
Introduzione
Ellen K. Silbergeld, caporedattore
Definizioni e Concetti
Bo Holmberg, Johan Hogberg e Gunnar Johanson
Tossicocinetica
Dušan Djuric
Organo bersaglio ed effetti critici
Marek Jakubowski
Effetti dell'età, del sesso e di altri fattori
Spomenka Telisman
Determinanti genetici della risposta tossica
Daniel W. Nebert e Ross A. McKinnon
Introduzione e concetti
Philip G. Watanabe
Danno cellulare e morte cellulare
Benjamin F. Trump e Irene K. Berezesky
Tossicologia genetica
R. Rita Misra e Michael P. Waalkes
Immunotossicologia
Joseph G. Vos e Henk van Loveren
Tossicologia dell'organo bersaglio
Ellen K. Silbergeld
biomarkers
Filippo Grandjean
Valutazione della tossicità genetica
David M. De Marini e James Huff
Test di tossicità in vitro
Giovanna Zurlo
Relazioni struttura attività
Ellen K. Silbergeld
Tossicologia nel regolamento sulla salute e la sicurezza
Ellen K. Silbergeld
Principi di identificazione dei pericoli - L'approccio giapponese
Masayuki Ikeda
L'approccio degli Stati Uniti alla valutazione del rischio di sostanze tossiche per la riproduzione e agenti neurotossici
Ellen K. Silbergeld
Approcci all'identificazione dei pericoli - IARC
Harri Vainio e Julian Wilbourn
Appendice - Valutazioni complessive di cancerogenicità per l'uomo: Monografie IARC Volumi 1-69 (836)
Valutazione del rischio cancerogeno: altri approcci
Cees A. van der Heijden
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
Questo articolo è tratto dalla terza edizione dell'Encyclopaedia of Occupational Health and Safety.
I due concetti di fatica e riposo sono familiari a tutti per esperienza personale. La parola "fatica" è usata per indicare condizioni molto diverse, tutte causano una riduzione della capacità di lavoro e della resistenza. L'uso molto vario del concetto di fatica ha portato ad una confusione quasi caotica ed è necessaria una precisazione delle idee correnti. Per molto tempo, la fisiologia ha distinto tra affaticamento muscolare e affaticamento generale. Il primo è un fenomeno doloroso acuto localizzato nei muscoli: la stanchezza generale è caratterizzata da un senso di diminuzione della disponibilità al lavoro. Questo articolo si occupa solo della stanchezza generale, che può anche essere chiamata "stanchezza psichica" o "stanchezza nervosa" e il resto che richiede.
La stanchezza generale può essere dovuta a cause molto diverse, le più importanti delle quali sono mostrate nella figura 1. L'effetto è come se, durante il corso della giornata, tutte le varie sollecitazioni sperimentate si accumulassero all'interno dell'organismo, producendo gradualmente una sensazione di crescente fatica. Questa sensazione spinge alla decisione di interrompere il lavoro; il suo effetto è quello di un fisiologico preludio al sonno.
Figura 1. Rappresentazione schematica dell'effetto cumulativo delle cause quotidiane della fatica
La stanchezza è una sensazione salutare se ci si può sdraiare e riposare. Tuttavia, se si ignora questa sensazione e ci si costringe a continuare a lavorare, la sensazione di stanchezza aumenta fino a diventare angosciante e infine travolgente. Questa esperienza quotidiana dimostra chiaramente il significato biologico della fatica che svolge un ruolo nel sostentamento della vita, simile a quello svolto da altre sensazioni come, ad esempio, la sete, la fame, la paura, ecc.
Il riposo è rappresentato nella figura 1 come lo svuotamento di un barile. Il fenomeno del riposo può avvenire normalmente se l'organismo rimane indisturbato o se almeno una parte essenziale del corpo non è sottoposta a stress. Questo spiega il ruolo decisivo svolto nelle giornate lavorative da tutte le pause lavorative, dalla breve sosta durante il lavoro al sonno notturno. La similitudine del barile illustra quanto sia necessario per la vita normale raggiungere un certo equilibrio tra il carico totale sopportato dall'organismo e la somma delle possibilità di riposo.
Interpretazione neurofisiologica della fatica
I progressi della neurofisiologia degli ultimi decenni hanno notevolmente contribuito a una migliore comprensione dei fenomeni innescati dalla fatica nel sistema nervoso centrale.
Il fisiologo Hess fu il primo ad osservare che la stimolazione elettrica di alcune strutture diencefaliche, e più specialmente di alcune strutture del nucleo mediale del talamo, produceva gradualmente un effetto inibitore che si manifestava in un deterioramento della capacità di reazione e nella tendenza a dormire. Se la stimolazione si prolungava per un certo tempo, il rilassamento generale era seguito dalla sonnolenza e infine dal sonno. Successivamente è stato dimostrato che a partire da queste strutture un'inibizione attiva può estendersi alla corteccia cerebrale dove si concentrano tutti i fenomeni coscienti. Ciò si riflette non solo nel comportamento, ma anche nell'attività elettrica della corteccia cerebrale. Anche altri esperimenti sono riusciti ad avviare inibizioni da altre regioni sottocorticali.
La conclusione che si può trarre da tutti questi studi è che esistono strutture localizzate nel diencefalo e nel mesencefalo che rappresentano un efficace sistema di inibizione e che scatenano la fatica con tutti i fenomeni che l'accompagnano.
Inibizione e attivazione
Numerosi esperimenti condotti sull'animale e sull'uomo hanno mostrato che la disposizione generale di entrambi alla reazione dipende non solo da questo sistema di inibizione ma essenzialmente anche da un sistema funzionante in modo antagonistico, noto come sistema reticolare ascendente di attivazione. Sappiamo sperimentalmente che la formazione reticolare contiene strutture che controllano il grado di veglia, e di conseguenza le disposizioni generali a una reazione. Esistono collegamenti nervosi tra queste strutture e la corteccia cerebrale dove si esercitano gli influssi attivatori sulla coscienza. Inoltre, il sistema di attivazione riceve stimoli dagli organi sensoriali. Altre connessioni nervose trasmettono impulsi dalla corteccia cerebrale, l'area della percezione e del pensiero, al sistema di attivazione. Sulla base di questi concetti neurofisiologici si può stabilire che gli stimoli esterni, così come gli influssi originati nelle aree della coscienza, possono, passando attraverso il sistema attivante, stimolare una disposizione ad una reazione.
Inoltre, molte altre indagini permettono di concludere che la stimolazione del sistema attivante si propaga frequentemente anche dai centri vegetativi, e induce l'organismo ad orientarsi verso il dispendio di energie, verso il lavoro, la lotta, la fuga, ecc. (conversione ergotropica di gli organi interni). Viceversa, sembra che la stimolazione del sistema inibente nell'ambito del sistema nervoso vegetativo provochi nell'organismo una tendenza al riposo, alla ricostituzione delle sue riserve di energia, fenomeni di assimilazione (conversione trofotropica).
Dalla sintesi di tutte queste scoperte neurofisiologiche, si può stabilire la seguente concezione della fatica: lo stato e la sensazione di fatica sono condizionati dalla reazione funzionale della coscienza nella corteccia cerebrale, che è, a sua volta, governata da due sistemi reciprocamente antagonisti: il sistema inibente e il sistema attivante. Pertanto, la disposizione degli esseri umani al lavoro dipende in ogni momento dal grado di attivazione dei due sistemi: se il sistema inibitorio è dominante, l'organismo sarà in uno stato di affaticamento; quando il sistema di attivazione è dominante, mostrerà una maggiore predisposizione al lavoro.
Questa concezione psicofisiologica della fatica permette di comprendere alcuni dei suoi sintomi talvolta difficili da spiegare. Così, ad esempio, una sensazione di stanchezza può scomparire improvvisamente quando si verifica un evento esterno inaspettato o quando si sviluppa una tensione emotiva. È chiaro in entrambi questi casi che il sistema di attivazione è stato stimolato. Al contrario, se l'ambiente è monotono o il lavoro sembra noioso, il funzionamento del sistema attivante diminuisce e il sistema inibente diventa dominante. Questo spiega perché la fatica si manifesta in una situazione monotona senza che l'organismo sia sottoposto ad alcun carico di lavoro.
La figura 2 illustra schematicamente la nozione dei sistemi reciprocamente antagonisti di inibizione e attivazione.
Figura 2. Rappresentazione schematica del controllo della disposizione al lavoro mediante sistemi di inibizione e attivazione
Stanchezza clinica
È esperienza comune che la stanchezza pronunciata che si manifesta giorno dopo giorno produrrà gradualmente uno stato di stanchezza cronica. La sensazione di affaticamento si intensifica quindi e si manifesta non solo la sera dopo il lavoro ma già durante il giorno, a volte anche prima dell'inizio del lavoro. Un sentimento di malessere, spesso di natura emotiva, accompagna questo stato. Nelle persone affette da affaticamento si osservano spesso i seguenti sintomi: emotività psichica accentuata (comportamento antisociale, incompatibilità), tendenza alla depressione (ansia immotivata), mancanza di energia con perdita di iniziativa. Questi effetti psichici sono spesso accompagnati da un malessere non specifico e si manifestano con sintomi psicosomatici: mal di testa, vertigini, disturbi funzionali cardiaci e respiratori, perdita di appetito, disturbi digestivi, insonnia, ecc.
In considerazione della tendenza ai sintomi morbosi che accompagnano la stanchezza cronica, si può giustamente chiamarla stanchezza clinica. C'è una tendenza all'aumento dell'assenteismo, e in particolare a più assenze per brevi periodi. Ciò sembrerebbe essere causato sia dalla necessità di riposo sia dall'aumento della morbilità. Lo stato di affaticamento cronico si verifica in particolare tra le persone esposte a conflitti o difficoltà psichiche. A volte è molto difficile distinguere le cause esterne e interne. Infatti, è quasi impossibile distinguere causa ed effetto nella fatica clinica: un atteggiamento negativo nei confronti del lavoro, dei superiori o del posto di lavoro può essere la causa della fatica clinica tanto quanto il risultato.
La ricerca ha dimostrato che gli operatori di centralino e il personale di supervisione impiegati nei servizi di telecomunicazione hanno mostrato un aumento significativo dei sintomi fisiologici di affaticamento dopo il loro lavoro (tempo di reazione visiva, frequenza di fusione del flicker, test di destrezza). Indagini mediche hanno rivelato che in questi due gruppi di lavoratori vi era un aumento significativo degli stati nevrotici, dell'irritabilità, della difficoltà a dormire e del senso cronico di spossatezza, rispetto ad un gruppo simile di donne impiegate nei rami tecnici delle poste, telefoniche e servizi telegrafici. L'accumulo di sintomi non è sempre stato dovuto ad un atteggiamento negativo da parte delle donne che hanno influenzato il loro lavoro o le loro condizioni di lavoro.
Misure preventive
Non esiste una panacea per la fatica, ma si può fare molto per alleviare il problema prestando attenzione alle condizioni generali di lavoro e all'ambiente fisico sul posto di lavoro. Ad esempio, si può ottenere molto con la corretta organizzazione dell'orario di lavoro, prevedendo periodi di riposo adeguati e mense e servizi igienici adeguati; anche ai lavoratori dovrebbero essere concesse ferie retribuite adeguate. Lo studio ergonomico del posto di lavoro può anche aiutare nella riduzione della fatica, garantendo che sedili, tavoli e banchi da lavoro siano di dimensioni adeguate e che il flusso di lavoro sia organizzato correttamente. Inoltre, il controllo del rumore, l'aria condizionata, il riscaldamento, la ventilazione e l'illuminazione possono avere tutti un effetto benefico nel ritardare l'insorgere della fatica nei lavoratori.
La monotonia e la tensione possono anche essere alleviate da un uso controllato del colore e della decorazione dell'ambiente, intervalli di musica e talvolta pause per esercizi fisici per i lavoratori sedentari. Anche la formazione dei lavoratori e in particolare del personale di controllo e dirigenza svolge un ruolo importante.
Lo studio e la caratterizzazione di sostanze chimiche e altri agenti per le proprietà tossiche viene spesso intrapreso sulla base di organi e sistemi di organi specifici. In questo capitolo, sono stati selezionati due bersagli per una discussione approfondita: il sistema immunitario e il gene. Questi esempi sono stati scelti per rappresentare un complesso sistema di organi bersaglio e un bersaglio molecolare all'interno delle cellule. Per una discussione più completa sulla tossicologia degli organi bersaglio, il lettore può fare riferimento a testi di tossicologia standard come Casarett e Doull e Hayes. Anche il Programma internazionale sulla sicurezza chimica (IPCS) ha pubblicato diversi documenti sui criteri sulla tossicologia degli organi bersaglio, per sistema di organi.
Gli studi di tossicologia sugli organi bersaglio sono di solito intrapresi sulla base di informazioni che indicano il potenziale di effetti tossici specifici di una sostanza, o da dati epidemiologici o da studi generali di tossicità acuta o cronica, o sulla base di preoccupazioni particolari per proteggere determinate funzioni di organi, come come riproduzione o sviluppo fetale. In alcuni casi, test specifici di tossicità per organi bersaglio sono espressamente richiesti dalle autorità statutarie, come i test di neurotossicità ai sensi della legge statunitense sui pesticidi (vedere "L'approccio degli Stati Uniti alla valutazione del rischio di sostanze tossiche per la riproduzione e agenti neurotossici" e i test di mutagenicità ai sensi del Japanese Chemical Chemical Legge sul controllo delle sostanze (vedi “Principi di identificazione dei pericoli: l'approccio giapponese”).
Come discusso in "Organo bersaglio ed effetti critici", l'identificazione di un organo critico si basa sul rilevamento dell'organo o del sistema di organi che per primo risponde negativamente o alle dosi o esposizioni più basse. Queste informazioni vengono quindi utilizzate per progettare indagini tossicologiche specifiche o test di tossicità più definiti progettati per suscitare indicazioni più sensibili di intossicazione nell'organo bersaglio. Gli studi di tossicologia degli organi bersaglio possono anche essere utilizzati per determinare i meccanismi di azione, di utilizzo nella valutazione del rischio (vedere "L'approccio degli Stati Uniti alla valutazione del rischio di sostanze tossiche per la riproduzione e agenti neurotossici").
Metodi di studi sulla tossicità dell'organo bersaglio
Gli organi bersaglio possono essere studiati mediante l'esposizione di organismi intatti e un'analisi dettagliata della funzione e dell'istopatologia nell'organo bersaglio, o mediante l'esposizione in vitro di cellule, sezioni di tessuto o organi interi mantenuti per periodi di breve o lungo termine in coltura (vedere "Meccanismi di tossicologia: introduzione e concetti”). In alcuni casi, i tessuti di soggetti umani possono anche essere disponibili per studi di tossicità sugli organi bersaglio, e questi possono fornire l'opportunità di convalidare ipotesi di estrapolazione tra specie. Tuttavia, va tenuto presente che tali studi non forniscono informazioni sulla tossicocinetica relativa.
In generale, gli studi sulla tossicità dell'organo bersaglio condividono le seguenti caratteristiche comuni: esame istopatologico dettagliato dell'organo bersaglio, compreso l'esame post mortem, il peso del tessuto e l'esame dei tessuti fissati; studi biochimici di percorsi critici nell'organo bersaglio, come importanti sistemi enzimatici; studi funzionali della capacità dell'organo e dei costituenti cellulari di svolgere le funzioni metaboliche e di altro tipo previste; e analisi dei biomarcatori dell'esposizione e degli effetti precoci nelle cellule degli organi bersaglio.
La conoscenza dettagliata della fisiologia degli organi bersaglio, della biochimica e della biologia molecolare può essere incorporata negli studi sugli organi bersaglio. Ad esempio, poiché la sintesi e la secrezione di proteine di piccolo peso molecolare è un aspetto importante della funzione renale, gli studi di nefrotossicità spesso prestano particolare attenzione a questi parametri (IPCS 1991). Poiché la comunicazione cellula-cellula è un processo fondamentale della funzione del sistema nervoso, gli studi sugli organi bersaglio nella neurotossicità possono includere misurazioni neurochimiche e biofisiche dettagliate della sintesi, dell'assorbimento, dell'immagazzinamento, del rilascio e del legame dei neurotrasmettitori, nonché misurazioni elettrofisiologiche dei cambiamenti nella membrana potenziale associato a questi eventi.
Viene posto un alto grado di enfasi sullo sviluppo di metodi in vitro per la tossicità degli organi bersaglio, per sostituire o ridurre l'uso di animali interi. Progressi sostanziali in questi metodi sono stati ottenuti per le sostanze tossiche per la riproduzione (Heindel e Chapin 1993).
In sintesi, gli studi di tossicità sugli organi bersaglio sono generalmente intrapresi come test di ordine superiore per determinare la tossicità. La selezione di specifici organi bersaglio per un'ulteriore valutazione dipende dai risultati dei test a livello di screening, come i test acuti o subcronici utilizzati dall'OCSE e dall'Unione Europea; alcuni organi bersaglio e sistemi di organi possono essere candidati a priori per indagini speciali a causa delle preoccupazioni per prevenire alcuni tipi di effetti avversi sulla salute.
Il bisogno di validità
L'epidemiologia mira a fornire una comprensione dell'esperienza della malattia nelle popolazioni. In particolare, può essere utilizzato per ottenere informazioni sulle cause professionali della malattia. Questa conoscenza deriva da studi condotti su gruppi di persone che hanno una malattia confrontandoli con persone senza quella malattia. Un altro approccio consiste nell'esaminare quali malattie acquisiscono le persone che svolgono determinati lavori con particolari esposizioni e confrontare questi modelli di malattia con quelli di persone non esposte in modo simile. Questi studi forniscono stime del rischio di malattia per esposizioni specifiche. Affinché le informazioni di tali studi possano essere utilizzate per stabilire programmi di prevenzione, per il riconoscimento delle malattie professionali e affinché i lavoratori colpiti da esposizioni siano adeguatamente indennizzati, tali studi devono essere validi.
Validità può essere definita come la capacità di uno studio di riflettere il vero stato delle cose. Uno studio valido è quindi quello che misura correttamente l'associazione (positiva, negativa o assente) tra un'esposizione e una malattia. Descrive la direzione e l'entità di un vero rischio. Si distinguono due tipi di validità: validità interna ed esterna. La validità interna è la capacità di uno studio di riflettere ciò che è realmente accaduto tra i soggetti dello studio; la validità esterna riflette ciò che potrebbe accadere nella popolazione.
La validità si riferisce alla veridicità di una misurazione. La validità deve essere distinta dalla precisione della misurazione, che è funzione della dimensione dello studio e dell'efficienza del disegno dello studio.
Validità interna
Si dice che uno studio è internamente valido quando è privo di pregiudizi e quindi riflette veramente l'associazione tra esposizione e malattia che esiste tra i partecipanti allo studio. Un rischio di malattia osservato in associazione con un'esposizione può effettivamente derivare da un'associazione reale e quindi essere valido, ma può anche riflettere l'influenza di pregiudizi. Un pregiudizio darà un'immagine distorta della realtà.
Tre principali tipi di pregiudizi, chiamati anche errori sistematici, si distinguono solitamente:
Saranno presentati brevemente di seguito, utilizzando esempi tratti dal contesto della salute sul lavoro.
Bias di selezione
Il bias di selezione si verificherà quando l'ingresso nello studio è influenzato dalla conoscenza dello stato di esposizione del potenziale partecipante allo studio. Questo problema si riscontra quindi solo quando la malattia è già in atto nel momento (prima) che la persona entri nello studio. Tipicamente, nel contesto epidemiologico, ciò avverrà in studi caso-controllo o in studi di coorte retrospettivi. Ciò significa che una persona avrà maggiori probabilità di essere considerata un caso se è noto che è stata esposta. Tre serie di circostanze possono portare a un tale evento, che dipenderà anche dalla gravità della malattia.
Bias di autoselezione
Ciò può verificarsi quando persone che sanno di essere state esposte in passato a prodotti noti o ritenuti dannosi e che sono convinte che la loro malattia sia il risultato dell'esposizione consulteranno un medico per sintomi che altre persone, non così esposte, potrebbero aver ignorato. Ciò è particolarmente probabile che accada per le malattie che hanno pochi sintomi evidenti. Un esempio può essere la perdita precoce della gravidanza o l'aborto spontaneo tra le infermiere che maneggiano farmaci usati per il trattamento del cancro. Queste donne sono più consapevoli della maggior parte della fisiologia riproduttiva e, essendo preoccupate della loro capacità di avere figli, possono essere più propense a riconoscere o etichettare come aborto spontaneo ciò che altre donne considererebbero solo un ritardo nell'inizio delle mestruazioni. Un altro esempio tratto da uno studio di coorte retrospettivo, citato da Rothman (1986), coinvolge uno studio del Centers for Disease Control sulla leucemia tra le truppe che erano state presenti durante un test atomico statunitense in Nevada. Delle truppe presenti sul luogo del test, il 76% è stato rintracciato e ha costituito la coorte. Di questi, l'82% è stato trovato dagli investigatori, ma un ulteriore 18% ha contattato gli stessi investigatori dopo aver sentito la pubblicità sullo studio. Quattro casi di leucemia erano presenti tra l'82% tracciato dal CDC e quattro casi erano presenti tra il 18% auto-riferito. Ciò suggerisce fortemente che la capacità degli investigatori di identificare le persone esposte era collegata al rischio di leucemia.
Pregiudizio diagnostico
Ciò si verificherà quando è più probabile che i medici diagnostichino una determinata malattia una volta che sanno a cosa è stato precedentemente esposto il paziente. Ad esempio, quando la maggior parte delle vernici era a base di piombo, un sintomo di malattia dei nervi periferici chiamato neurite periferica con paralisi era noto anche come "goccia del polso" dei pittori. Conoscere l'occupazione del paziente ha reso più facile diagnosticare la malattia anche nelle sue fasi iniziali, mentre l'identificazione dell'agente causale sarebbe molto più difficile nei partecipanti alla ricerca non noti per essere esposti professionalmente al piombo.
Bias derivante dal rifiuto di partecipare a uno studio
Quando a persone, sane o malate, viene chiesto di partecipare a uno studio, diversi fattori giocano un ruolo nel determinare se saranno d'accordo o meno. La disponibilità a rispondere a questionari più o meno lunghi, che a volte riguardano temi delicati, e ancor più a donare sangue o altri campioni biologici, può essere determinata dal grado di interesse personale della persona. Qualcuno che è a conoscenza di una potenziale esposizione passata potrebbe essere pronto a soddisfare questa richiesta nella speranza che aiuti a trovare la causa della malattia, mentre qualcuno che ritiene di non essere stato esposto a nulla di pericoloso o che non è interessato nel saperlo, potrà declinare l'invito a partecipare allo studio. Ciò può portare a una selezione di quelle persone che alla fine saranno i partecipanti allo studio rispetto a tutti coloro che avrebbero potuto esserlo.
Bias informativo
Questo è anche chiamato errore di osservazione e riguarda l'esito della malattia negli studi di follow-up e la valutazione dell'esposizione negli studi caso-controllo.
Valutazione del risultato differenziale in studi prospettici di follow-up (di coorte).
All'inizio dello studio vengono definiti due gruppi: un gruppo esposto e un gruppo non esposto. Se la ricerca dei casi differisce tra questi due gruppi, sorgeranno problemi di bias diagnostico. Ad esempio, si consideri una coorte di persone esposte a un rilascio accidentale di diossina in un dato settore. Per il gruppo altamente esposto viene istituito un sistema di follow-up attivo con visite mediche e monitoraggio biologico a intervalli regolari, mentre il resto della popolazione attiva riceve solo cure di routine. È molto probabile che nel gruppo sottoposto a stretta sorveglianza vengano identificate più malattie, il che porterebbe a una potenziale sovrastima del rischio.
Perdite differenziali in studi di coorte retrospettivi
Il meccanismo inverso a quello descritto nel paragrafo precedente può verificarsi negli studi di coorte retrospettivi. In questi studi, il modo usuale di procedere è quello di partire dalle schede di tutte le persone che sono state impiegate in un dato settore in passato, e valutare la malattia o la mortalità successiva all'occupazione. Sfortunatamente, in quasi tutti gli studi i file sono incompleti e il fatto che una persona sia scomparsa può essere correlato o allo stato di esposizione o allo stato di malattia o ad entrambi. Ad esempio, in un recente studio condotto nell'industria chimica su lavoratori esposti ad ammine aromatiche, sono stati riscontrati otto tumori in un gruppo di 777 lavoratori sottoposti a screening citologico per tumori urinari. Complessivamente, sono risultate mancanti solo 34 record, corrispondenti a una perdita del 4.4% dal file di valutazione dell'esposizione, ma per i casi di cancro alla vescica, i dati sull'esposizione mancavano per due casi su otto, ovvero il 25%. Ciò dimostra che i file delle persone che sono diventate casi avevano maggiori probabilità di perdersi rispetto ai file di altri lavoratori. Ciò può verificarsi a causa di cambi di lavoro più frequenti all'interno dell'azienda (che possono essere collegati agli effetti dell'esposizione), dimissioni, licenziamento o mera casualità.
Valutazione differenziale dell'esposizione negli studi caso-controllo
Negli studi caso-controllo, la malattia si è già manifestata all'inizio dello studio e si cercheranno informazioni sulle esposizioni passate. Il pregiudizio può derivare dall'atteggiamento dell'intervistatore o del partecipante allo studio nei confronti dell'indagine. Le informazioni vengono solitamente raccolte da intervistatori qualificati che possono o meno essere a conoscenza dell'ipotesi alla base della ricerca. Ad esempio, in uno studio caso-controllo basato sulla popolazione sul cancro alla vescica condotto in una regione altamente industrializzata, il personale dello studio potrebbe essere ben consapevole del fatto che alcune sostanze chimiche, come le ammine aromatiche, sono fattori di rischio per il cancro alla vescica. Se sanno anche chi ha sviluppato la malattia e chi no, è probabile che conducano interviste più approfondite con i partecipanti che hanno il cancro alla vescica rispetto ai controlli. Possono insistere su informazioni più dettagliate sulle occupazioni passate, ricercando sistematicamente l'esposizione alle ammine aromatiche, mentre per i controlli possono registrare le occupazioni in modo più sistematico. Il pregiudizio risultante è noto come Bias da sospetto di esposizione.
Anche i partecipanti stessi possono essere responsabili di tale pregiudizio. Questo è chiamato distorsioni della memoria per distinguerlo dal pregiudizio dell'intervistatore. Entrambi hanno il sospetto di esposizione come meccanismo per il bias. Le persone malate possono sospettare un'origine professionale della loro malattia e quindi cercheranno di ricordare il più accuratamente possibile tutti gli agenti pericolosi a cui potrebbero essere state esposte. Nel caso di manipolazione di prodotti indefiniti, possono essere inclini a ricordare i nomi di sostanze chimiche precise, in particolare se viene loro messo a disposizione un elenco di prodotti sospetti. Al contrario, è meno probabile che i controlli passino attraverso lo stesso processo di pensiero.
confondendo
Il confondimento esiste quando l'associazione osservata tra esposizione e malattia è in parte il risultato di una combinazione dell'effetto dell'esposizione in esame e di un altro fattore. Diciamo, ad esempio, che riscontriamo un aumento del rischio di cancro ai polmoni tra i saldatori. Siamo tentati di concludere subito che esiste un nesso causale tra l'esposizione ai fumi di saldatura e il cancro ai polmoni. Tuttavia, sappiamo anche che il fumo è di gran lunga il principale fattore di rischio per il cancro ai polmoni. Pertanto, se le informazioni sono disponibili, iniziamo a controllare lo stato di fumo dei saldatori e di altri partecipanti allo studio. Potremmo scoprire che i saldatori hanno maggiori probabilità di fumare rispetto ai non saldatori. In quella situazione, il fumo è noto per essere associato al cancro ai polmoni e, allo stesso tempo, nel nostro studio risulta che anche il fumo è associato all'essere un saldatore. In termini epidemiologici, ciò significa che il fumo, collegato sia al cancro del polmone che alla saldatura, sta confondendo l'associazione tra saldatura e cancro al polmone.
Modifica dell'interazione o dell'effetto
Contrariamente a tutte le questioni sopra elencate, vale a dire selezione, informazione e confusione, che sono pregiudizi, l'interazione non è un pregiudizio dovuto a problemi nella progettazione o nell'analisi dello studio, ma riflette la realtà e la sua complessità. Un esempio di questo fenomeno è il seguente: l'esposizione al radon è un fattore di rischio per il cancro ai polmoni, così come il fumo. Inoltre, il fumo e l'esposizione al radon hanno effetti diversi sul rischio di cancro ai polmoni a seconda che agiscano insieme o isolatamente. La maggior parte degli studi occupazionali su questo argomento sono stati condotti tra i minatori sotterranei ea volte hanno fornito risultati contrastanti. Nel complesso, sembrano esserci argomenti a favore di un'interazione tra fumo ed esposizione al radon nella produzione di cancro ai polmoni. Ciò significa che il rischio di cancro al polmone è aumentato dall'esposizione al radon, anche nei non fumatori, ma che l'entità dell'aumento del rischio dovuto al radon è molto maggiore tra i fumatori che tra i non fumatori. In termini epidemiologici, diciamo che l'effetto è moltiplicativo. Contrariamente al confondimento, descritto sopra, l'interazione deve essere attentamente analizzata e descritta nell'analisi piuttosto che semplicemente controllata, in quanto riflette ciò che sta accadendo a livello biologico e non è semplicemente una conseguenza di una cattiva progettazione dello studio. La sua spiegazione porta a un'interpretazione più valida dei risultati di uno studio.
Validità esterna
Questo problema può essere risolto solo dopo aver assicurato che la validità interna sia assicurata. Se siamo convinti che i risultati osservati nello studio riflettano associazioni che sono reali, possiamo chiederci se possiamo o meno estrapolare questi risultati alla popolazione più ampia da cui sono stati tratti gli stessi partecipanti allo studio, o anche ad altre popolazioni che sono identiche o almeno molto simile. La domanda più frequente è se i risultati ottenuti per gli uomini valgano anche per le donne. Per anni gli studi e, in particolare, le indagini epidemiologiche occupazionali sono state condotte esclusivamente tra gli uomini. Gli studi tra i chimici condotti negli anni '1960 e '1970 negli Stati Uniti, nel Regno Unito e in Svezia hanno tutti riscontrato un aumento del rischio di tumori specifici, vale a dire leucemia, linfoma e cancro al pancreas. Sulla base di ciò che sapevamo degli effetti dell'esposizione ai solventi e ad alcune altre sostanze chimiche, potevamo già dedurre all'epoca che il lavoro di laboratorio comportava anche un rischio cancerogeno per le donne. Questo infatti è stato dimostrato quando il primo studio tra le donne chimiche è stato finalmente pubblicato a metà degli anni '1980, che ha trovato risultati simili a quelli tra gli uomini. Vale la pena notare che altri tumori in eccesso riscontrati erano tumori della mammella e dell'ovaio, tradizionalmente considerati correlati solo a fattori endogeni o alla riproduzione, ma per i quali possono svolgere un ruolo fattori ambientali recentemente sospettati come i pesticidi. Molto più lavoro deve essere fatto sui determinanti occupazionali dei tumori femminili.
Strategie per uno studio valido
Uno studio perfettamente valido non può mai esistere, ma spetta al ricercatore cercare di evitare, o almeno minimizzare, il maggior numero possibile di pregiudizi. Questo spesso può essere fatto meglio nella fase di progettazione dello studio, ma può anche essere eseguito durante l'analisi.
Disegno di studio
La selezione e il pregiudizio informativo possono essere evitati solo attraverso l'attenta progettazione di uno studio epidemiologico e la scrupolosa attuazione di tutte le linee guida quotidiane che ne derivano, inclusa la meticolosa attenzione alla garanzia della qualità, per la conduzione dello studio in condizioni di campo. Il confondimento può essere affrontato sia in fase di progettazione che di analisi.
Selezione
I criteri per considerare un partecipante come un caso devono essere definiti in modo esplicito. Non si può, o almeno non si dovrebbe, tentare di studiare condizioni cliniche mal definite. Un modo per ridurre al minimo l'impatto che la conoscenza dell'esposizione può avere sulla valutazione della malattia consiste nell'includere solo i casi gravi che sarebbero stati diagnosticati indipendentemente da qualsiasi informazione sulla storia del paziente. Nel campo del cancro, gli studi saranno spesso limitati a casi con prova istologica della malattia per evitare l'inclusione di lesioni borderline. Ciò significherà anche che i gruppi oggetto di studio sono ben definiti. Ad esempio, è ben noto nell'epidemiologia del cancro che tumori di diversi tipi istologici all'interno di un dato organo possono avere fattori di rischio diversi. Se il numero di casi è sufficiente, è meglio separare l'adenocarcinoma del polmone dal carcinoma a cellule squamose del polmone. Qualunque siano i criteri finali per l'ingresso nello studio, dovrebbero sempre essere chiaramente definiti e descritti. Ad esempio, il codice esatto della malattia dovrebbe essere indicato utilizzando la Classificazione Internazionale delle Malattie (ICD) e anche, per il cancro, la Classificazione Internazionale delle Malattie-Oncologiche (ICD-O).
Una volta specificati i criteri, dovrebbero essere compiuti sforzi per massimizzare la partecipazione allo studio. La decisione di rifiutarsi di partecipare non è quasi mai presa a caso e quindi porta a parzialità. Gli studi dovrebbero prima di tutto essere presentati ai medici che stanno vedendo i pazienti. La loro approvazione è necessaria per avvicinare i pazienti, e quindi dovranno essere convinti a sostenere lo studio. Un argomento spesso convincente è che lo studio è nell'interesse della salute pubblica. Tuttavia, in questa fase è meglio non discutere l'esatta ipotesi che si sta valutando per evitare di influenzare indebitamente i clinici coinvolti. Ai medici non dovrebbe essere chiesto di assumere compiti supplementari; è più facile convincere il personale sanitario a prestare il proprio sostegno a uno studio se i ricercatori dello studio forniscono i mezzi per svolgere eventuali compiti aggiuntivi, oltre alle cure di routine, richiesti dallo studio. Gli intervistatori e gli estrattori di dati dovrebbero non essere consapevoli dello stato della malattia dei loro pazienti.
Analoga attenzione dovrebbe essere prestata alle informazioni fornite ai partecipanti. L'obiettivo dello studio deve essere descritto in termini ampi e neutri, ma deve anche essere convincente e persuasivo. È importante che le questioni di riservatezza e interesse per la salute pubblica siano pienamente comprese evitando il gergo medico. Nella maggior parte dei contesti, l'uso di incentivi finanziari o di altro tipo non è considerato appropriato, anche se dovrebbe essere previsto un compenso per qualsiasi spesa che un partecipante potrebbe sostenere. Ultimo, ma non meno importante, la popolazione generale dovrebbe essere sufficientemente scientificamente istruita per comprendere l'importanza di tale ricerca. Sia i benefici che i rischi della partecipazione devono essere spiegati a ciascun potenziale partecipante qualora sia necessario completare i questionari e/o fornire campioni biologici per la conservazione e/o l'analisi. Nessuna coercizione dovrebbe essere applicata per ottenere il consenso preventivo e pienamente informato. Laddove gli studi siano esclusivamente basati su documenti, deve essere assicurata l'approvazione preventiva delle agenzie responsabili di garantire la riservatezza di tali documenti. In questi casi, il consenso del singolo partecipante di solito può essere revocato. Sarà invece sufficiente l'approvazione dei funzionari sindacali e governativi. Le indagini epidemiologiche non rappresentano una minaccia per la vita privata di un individuo, ma un potenziale aiuto per migliorare la salute della popolazione. L'approvazione di un comitato di revisione istituzionale (o comitato di revisione etica) sarà necessaria prima della conduzione di uno studio, e gran parte di ciò che è stato affermato sopra sarà atteso da loro per la loro revisione.
Informazioni
Negli studi prospettici di follow-up, i mezzi per la valutazione della malattia o dello stato di mortalità devono essere identici per i partecipanti esposti e non esposti. In particolare, non dovrebbero essere utilizzate fonti diverse, come il solo controllo in un registro centrale di mortalità per i partecipanti non esposti e l'utilizzo di una sorveglianza attiva intensiva per i partecipanti esposti. Allo stesso modo, la causa della morte deve essere ottenuta in modi strettamente comparabili. Ciò significa che se si utilizza un sistema per ottenere l'accesso ai documenti ufficiali per la popolazione non esposta, che spesso è la popolazione generale, non si dovrebbe mai pensare di ottenere informazioni ancora più precise attraverso cartelle cliniche o interviste sui partecipanti stessi o sulle loro famiglie per il sottogruppo esposto.
Negli studi di coorte retrospettivi, dovrebbero essere compiuti sforzi per determinare quanto la popolazione in studio sia vicina alla popolazione di interesse. Si dovrebbe fare attenzione alle potenziali perdite differenziali nei gruppi esposti e non esposti utilizzando varie fonti riguardanti la composizione della popolazione. Ad esempio, può essere utile confrontare gli elenchi delle buste paga con gli elenchi di appartenenza ai sindacati o altri elenchi professionali. Le discrepanze devono essere riconciliate e il protocollo adottato per lo studio deve essere seguito scrupolosamente.
Negli studi caso-controllo, esistono altre opzioni per evitare pregiudizi. Intervistatori, personale dello studio e partecipanti allo studio non devono essere a conoscenza dell'ipotesi precisa oggetto di studio. Se non conoscono l'associazione in fase di test, è meno probabile che provino a fornire la risposta attesa. Tenere il personale dello studio all'oscuro dell'ipotesi di ricerca è infatti spesso poco pratico. L'intervistatore conoscerà quasi sempre le esposizioni di maggiore potenziale interesse, nonché chi è un caso e chi è un controllo. Dobbiamo quindi fare affidamento sulla loro onestà e anche sulla loro formazione in metodologia della ricerca di base, che dovrebbe far parte del loro bagaglio professionale; l'obiettività è il segno distintivo in tutte le fasi della scienza.
È più facile non informare i partecipanti allo studio dell'esatto oggetto della ricerca. Buone spiegazioni di base sulla necessità di raccogliere dati per avere una migliore comprensione della salute e della malattia sono generalmente sufficienti e soddisferanno le esigenze della revisione etica.
confondendo
Il confondimento è l'unico bias che può essere affrontato nella fase di progettazione dello studio o, a condizione che siano disponibili informazioni adeguate, nella fase di analisi. Se, per esempio, l'età è considerata un potenziale confondente dell'associazione di interesse perché l'età è associata al rischio di malattia (cioè, il cancro diventa più frequente in età avanzata) e anche con l'esposizione (le condizioni di esposizione variano con l'età o con fattori legati all'età come la qualifica, la posizione lavorativa e la durata dell'impiego), esistono diverse soluzioni. Il più semplice è limitare lo studio a una fascia di età specifica, ad esempio arruolare solo uomini caucasici di età compresa tra 40 e 50 anni. Ciò fornirà elementi per una semplice analisi, ma avrà anche l'inconveniente di limitare l'applicazione dei risultati a un singolo sesso età/gruppo razziale. Un'altra soluzione è la corrispondenza in base all'età. Ciò significa che per ogni caso è necessario un referente della stessa età. Questa è un'idea allettante, ma bisogna tenere presente la possibile difficoltà di soddisfare questo requisito con l'aumentare del numero di fattori di corrispondenza. Inoltre, una volta che un fattore è stato abbinato, diventa impossibile valutarne il ruolo nell'insorgenza della malattia. L'ultima soluzione è disporre di informazioni sufficienti sui potenziali fattori confondenti nel database dello studio al fine di controllarli nell'analisi. Questo può essere fatto sia attraverso una semplice analisi stratificata, sia con strumenti più sofisticati come l'analisi multivariata. Tuttavia, va ricordato che l'analisi non sarà mai in grado di compensare uno studio mal progettato o condotto.
Conclusione
La possibilità che si verifichino distorsioni nella ricerca epidemiologica è consolidata da tempo. Questo non era troppo preoccupante quando le associazioni studiate erano forti (come nel caso del fumo e del cancro ai polmoni) e quindi qualche imprecisione non causava un problema troppo grave. Tuttavia, ora che è giunto il momento di valutare i fattori di rischio più deboli, la necessità di strumenti migliori diventa fondamentale. Ciò include la necessità di eccellenti disegni di studio e la possibilità di combinare i vantaggi di vari disegni tradizionali come gli studi caso-controllo o di coorte con approcci più innovativi come gli studi caso-controllo nidificati all'interno di una coorte. Inoltre, l'uso di biomarcatori può fornire i mezzi per ottenere valutazioni più accurate delle esposizioni attuali e possibilmente passate, nonché per le prime fasi della malattia.
La fatica e il recupero sono processi periodici in ogni organismo vivente. La fatica può essere descritta come uno stato caratterizzato da una sensazione di stanchezza combinata con una riduzione o una variazione indesiderata nell'esecuzione dell'attività (Rohmert 1973).
Non tutte le funzioni dell'organismo umano si affaticano a causa dell'uso. Anche quando dormiamo, per esempio, respiriamo e il nostro cuore batte senza sosta. Ovviamente le funzioni fondamentali della respirazione e dell'attività cardiaca sono possibili per tutta la vita senza fatica e senza pause di recupero.
D'altra parte, troviamo dopo un lavoro pesante abbastanza prolungato che c'è una riduzione della capacità, che noi chiamiamo fatica. Questo non si applica alla sola attività muscolare. Anche gli organi sensoriali oi centri nervosi si stancano. Tuttavia, lo scopo di ogni cellula è bilanciare la capacità persa dalla sua attività, un processo che chiamiamo recupero.
Stress, tensione, affaticamento e recupero
I concetti di affaticamento e recupero durante il lavoro umano sono strettamente correlati ai concetti ergonomici di stress e deformazione (Rohmert 1984) (figura 1).
Figura 1. Stress, deformazione e affaticamento
Per stress si intende la somma di tutti i parametri del lavoro nel sistema lavorativo che influenzano le persone al lavoro, che sono percepiti o percepiti principalmente attraverso il sistema recettore o che pongono richieste al sistema effettore. I parametri dello stress derivano dal compito lavorativo (lavoro muscolare, lavoro non muscolare - dimensioni e fattori orientati al compito) e dalle condizioni fisiche, chimiche e sociali in cui il lavoro deve essere svolto (rumore, clima, illuminazione, vibrazioni , lavoro a turni, ecc. - dimensioni e fattori orientati alla situazione).
L'intensità/difficoltà, la durata e la composizione (cioè la distribuzione simultanea e successiva di queste esigenze specifiche) dei fattori di stress si traduce in uno stress combinato, che tutti gli effetti esogeni di un sistema lavorativo esercitano sulla persona che lavora. Questo stress combinato può essere affrontato attivamente o sopportato passivamente, in particolare a seconda del comportamento della persona che lavora. Il caso attivo comporterà attività dirette all'efficienza del sistema di lavoro, mentre il caso passivo indurrà reazioni (volontarie o involontarie), che riguardano principalmente la minimizzazione dello stress. La relazione tra lo stress e l'attività è influenzata in modo decisivo dalle caratteristiche individuali e dai bisogni della persona che lavora. I principali fattori di influenza sono quelli che determinano le prestazioni e sono legati alla motivazione e alla concentrazione e quelli legati alla disposizione, che possono essere indicati come capacità e competenze.
Le sollecitazioni relative al comportamento, che si manifestano in determinate attività, provocano tensioni individuali diverse. Gli sforzi possono essere indicati dalla reazione di indicatori fisiologici o biochimici (ad esempio, aumento della frequenza cardiaca) o possono essere percepiti. Pertanto, le sollecitazioni sono suscettibili di "scalatura psicofisica", che stima la sollecitazione sperimentata dalla persona che lavora. In un approccio comportamentale, l'esistenza della tensione può anche essere derivata da un'analisi dell'attività. L'intensità con cui reagiscono gli indicatori di stress (fisiologico-biochimici, comportamentali o psico-fisici) dipende dall'intensità, dalla durata e dalla combinazione dei fattori di stress nonché dalle caratteristiche individuali, capacità, abilità e bisogni della persona che lavora.
Nonostante le continue sollecitazioni, gli indicatori derivati dai campi di attività, prestazione e sforzo possono variare nel tempo (effetto temporale). Tali variazioni temporali sono da interpretare come processi di adattamento dei sistemi organici. Gli effetti positivi provocano una riduzione dello sforzo/miglioramento dell'attività o delle prestazioni (ad es. attraverso l'allenamento). In caso negativo, tuttavia, si tradurrà in un aumento dello sforzo/riduzione dell'attività o delle prestazioni (ad es. affaticamento, monotonia).
Gli effetti positivi possono entrare in azione se le capacità e le competenze disponibili vengono migliorate nel processo lavorativo stesso, ad esempio, quando la soglia di stimolazione dell'allenamento viene leggermente superata. È probabile che gli effetti negativi si manifestino se i cosiddetti limiti di resistenza (Rohmert 1984) vengono superati nel corso del processo lavorativo. Questa stanchezza porta ad una riduzione delle funzioni fisiologiche e psicologiche, che può essere compensata dal recupero.
Per ripristinare le prestazioni originarie sono necessarie indennità di riposo o almeno periodi di minor stress (Luczak 1993).
Quando il processo di adattamento viene portato oltre soglie definite, il sistema organico impiegato può subire danni tali da provocare una deficienza parziale o totale delle sue funzioni. Una riduzione irreversibile delle funzioni può manifestarsi quando lo stress è troppo elevato (danno acuto) o quando il recupero è impossibile per lungo tempo (danno cronico). Un tipico esempio di tale danno è la perdita dell'udito indotta dal rumore.
Modelli di fatica
La fatica può essere multiforme, a seconda della forma e della combinazione della deformazione, e una sua definizione generale non è ancora possibile. I processi biologici della fatica in genere non sono misurabili in modo diretto, per cui le definizioni sono principalmente orientate verso i sintomi della fatica. Questi sintomi di affaticamento possono essere suddivisi, ad esempio, nelle seguenti tre categorie.
Nel processo di affaticamento tutti e tre questi sintomi possono svolgere un ruolo, ma possono comparire in momenti diversi nel tempo.
Le reazioni fisiologiche nei sistemi organici, in particolare quelli coinvolti nel lavoro, possono apparire per prime. Successivamente, le sensazioni di sforzo possono essere influenzate. I cambiamenti nella prestazione si manifestano generalmente in una regolarità decrescente del lavoro o in una quantità crescente di errori, sebbene la media della prestazione possa non essere ancora influenzata. Al contrario, con un'adeguata motivazione, la persona che lavora può anche cercare di mantenere le prestazioni attraverso la forza di volontà. Il passo successivo potrebbe essere una chiara riduzione delle prestazioni che termina con un crollo delle prestazioni. I sintomi fisiologici possono portare a un collasso dell'organismo, compresi i cambiamenti della struttura della personalità e l'esaurimento. Il processo di affaticamento è spiegato nella teoria della successiva destabilizzazione (Luczak 1983).
L'andamento principale della fatica e del recupero è mostrato nella figura 2.
Figura 2. Andamento principale della fatica e del recupero
Prognosi di affaticamento e recupero
Nel campo dell'ergonomia c'è un particolare interesse nel prevedere la fatica in funzione dell'intensità, della durata e della composizione dei fattori di stress e nel determinare il tempo di recupero necessario. La tabella 1 mostra i diversi livelli di attività ei periodi di considerazione e le possibili ragioni dell'affaticamento e le diverse possibilità di recupero.
Tabella 1. Fatica e recupero dipendenti dai livelli di attività
Livello di attività |
Periodo |
Fatica da |
Recupero di |
Vita lavorativa |
decenni |
Sforzo eccessivo per |
Pensionamento |
Fasi della vita lavorativa |
Anni |
Sforzo eccessivo per |
Solo |
Sequenze di |
Mesi/settimane |
Spostamento sfavorevole |
Fine settimana, gratis |
Un turno di lavoro |
Un giorno |
Stress sopra |
Tempo libero, riposo |
Compiti |
Ore |
Stress sopra |
Periodo di riposo |
Parte di un compito |
Minuti |
Stress sopra |
Cambio di stress |
Nell'analisi ergonomica dello stress e della fatica per determinare il tempo di recupero necessario, considerare il periodo di una giornata lavorativa è il più importante. I metodi di tali analisi iniziano con la determinazione dei diversi fattori di stress in funzione del tempo (Laurig 1992) (figura 3).
Figura 3. Stress in funzione del tempo
I fattori di stress sono determinati dal contenuto specifico del lavoro e dalle condizioni di lavoro. Il contenuto del lavoro potrebbe essere la produzione di forza (ad esempio, durante la movimentazione di carichi), il coordinamento delle funzioni motorie e sensoriali (ad esempio, durante il montaggio o il funzionamento della gru), la conversione di informazioni in reazione (ad esempio, durante il controllo), le trasformazioni da input produrre informazioni (ad es. durante la programmazione, la traduzione) e la produzione di informazioni (ad es. durante la progettazione, la risoluzione di problemi). Le condizioni di lavoro comprendono aspetti fisici (ad es. rumore, vibrazioni, calore), chimici (agenti chimici) e sociali (ad es. colleghi, lavoro a turni).
Nel caso più semplice ci sarà un solo importante fattore di stress mentre gli altri possono essere trascurati. In questi casi, soprattutto quando i fattori di stress derivano dal lavoro muscolare, è spesso possibile calcolare le indennità di riposo necessarie, perché i concetti di base sono noti.
Ad esempio, l'indennità di riposo sufficiente nel lavoro muscolare statico dipende dalla forza e dalla durata della contrazione muscolare come in una funzione esponenziale legata dalla moltiplicazione secondo la formula:
con
RA = Indennità di riposo in percentuale di t
t = durata della contrazione (periodo lavorativo) in minuti
T = durata massima possibile della contrazione in minuti
f = la forza necessaria per la forza statica e
F = forza massima.
La connessione tra forza, tempo di mantenimento e indennità di riposo è mostrata nella figura 4.
Figura 4. Indennità di riposo in percentuale per varie combinazioni di forze di tenuta e tempo
Leggi simili esistono per lavoro muscolare dinamico pesante (Rohmert 1962), lavoro muscolare leggero attivo (Laurig 1974) o diverso lavoro muscolare industriale (Schmidtke 1971). Più raramente si trovano leggi comparabili per il lavoro non fisico, ad esempio per l'informatica (Schmidtke 1965). Laurig (1981) e Luczak (1982) forniscono una panoramica dei metodi esistenti per determinare l'indennità di riposo per il lavoro muscolare e non muscolare principalmente isolato.
Più difficile è la situazione in cui esiste una combinazione di diversi fattori di stress, come mostrato nella figura 5, che colpiscono simultaneamente la persona che lavora (Laurig 1992).
Figura 5. La combinazione di due fattori di stress
La combinazione di due fattori di sollecitazione, ad esempio, può portare a diverse reazioni di deformazione a seconda delle leggi di combinazione. L'effetto combinato di diversi fattori di stress può essere indifferente, compensativo o cumulativo.
Nel caso di leggi di combinazione indifferenti, i diversi fattori di stress hanno effetto su diversi sottosistemi dell'organismo. Ciascuno di questi sottosistemi può compensare la deformazione senza che la deformazione venga inserita in un sottosistema comune. La deformazione complessiva dipende dal fattore di sollecitazione più elevato e quindi non sono necessarie leggi di sovrapposizione.
Si ha un effetto compensatorio quando la combinazione di diversi fattori di stress porta a una deformazione inferiore rispetto a ciascun fattore di stress da solo. La combinazione di lavoro muscolare e basse temperature può ridurre lo sforzo complessivo, perché le basse temperature permettono al corpo di disperdere il calore prodotto dal lavoro muscolare.
Un effetto cumulativo si verifica se si sovrappongono diversi fattori di stress, ovvero devono passare attraverso un "collo di bottiglia" fisiologico. Un esempio è la combinazione di lavoro muscolare e stress da calore. Entrambi i fattori di stress influenzano il sistema circolatorio come un comune collo di bottiglia con conseguente sforzo cumulativo.
Possibili effetti combinati tra lavoro muscolare e condizioni fisiche sono descritti in Bruder (1993) (vedi tabella 2).
Tabella 2. Regole degli effetti combinati di due fattori di sollecitazione sulla deformazione
Freddo |
Vibrazione |
Illuminazione |
Rumore |
|
Lavoro dinamico pesante |
- |
+ |
0 |
0 |
Lavoro muscolare leggero attivo |
+ |
+ |
0 |
0 |
Lavoro muscolare statico |
+ |
+ |
0 |
0 |
0 effetto indifferente; + effetto cumulativo; – effetto compensativo.
Fonte: adattato da Bruder 1993.
Per il caso della combinazione di più di due fattori di stress, che nella pratica è la situazione normale, sono disponibili solo conoscenze scientifiche limitate. Lo stesso vale per la combinazione successiva di fattori di stress (cioè l'effetto di deformazione di diversi fattori di stress che colpiscono successivamente il lavoratore). Per tali casi, in pratica, il tempo di recupero necessario viene determinato misurando parametri fisiologici o psicologici e utilizzandoli come valori integrativi.
Gli errori nella misurazione dell'esposizione possono avere impatti diversi sulla relazione esposizione-malattia studiata, a seconda di come sono distribuiti gli errori. Se uno studio epidemiologico è stato condotto alla cieca (ovvero, le misurazioni sono state effettuate senza alcuna conoscenza della malattia o dello stato di salute dei partecipanti allo studio) ci aspettiamo che l'errore di misurazione sia distribuito uniformemente tra gli strati della malattia o dello stato di salute.
La tabella 1 fornisce un esempio: supponiamo di reclutare una coorte di persone esposte sul lavoro a una sostanza tossica, per indagare su una malattia frequente. Determiniamo lo stato di esposizione solo al momento del reclutamento (T0), e non in altri momenti durante il follow-up. Diciamo però che un certo numero di individui cambia effettivamente il proprio stato di esposizione nell'anno successivo: al tempo T1, 250 delle 1,200 persone originariamente esposte hanno cessato di essere esposte, mentre 150 delle 750 persone originariamente non esposte hanno iniziato a essere esposte alla sostanza tossica. Pertanto, al tempo T1, 1,100 individui sono esposti e 850 non sono esposti. Di conseguenza, abbiamo una "classificazione errata" dell'esposizione, basata sulla nostra misurazione iniziale dello stato dell'esposizione al tempo T0. Questi individui vengono poi rintracciati dopo 20 anni (al tempo T2) e viene valutato il rischio cumulativo di malattia. (L'ipotesi fatta nell'esempio è che solo l'esposizione di più di un anno è una preoccupazione.)
Tabella 1. Ipotetica coorte di 1950 individui (esposti e non esposti al lavoro), reclutati al tempo T0 e il cui stato di malattia è accertato al tempo T2
Ora |
|||
T0 |
T1 |
T2 |
Lavoratori esposti 1200 250 cessazione esposizione 1100 (1200-250+150)
Casi di malattia al tempo T2 = 220 tra i lavoratori esposti
Lavoratori non esposti 750 150 inizio esposizione 850 (750-150+250)
Casi di malattia al tempo T2 = 85 tra i lavoratori non esposti
I vero rischio di malattia al tempo T2 è del 20% tra i lavoratori esposti (220/1100),
e il 10% nei lavoratori non esposti (85/850) (rapporto di rischio = 2.0).
Rischio stimato a T2 di malattia tra quelli classificati come esposti a T0: 20%
(ovvero rischio reale in soggetti esposti) ´ 950 (ovvero 1200-250)+ 10%
(ossia, rischio reale nei non esposti) ´ 250 = (190+25)/1200 = 17.9%
Rischio stimato a T2 di malattia tra quelli classificati come non esposti a
T0: 20% (ovvero, rischio vero negli esposti) ´ 150 +10%
(ovvero, rischio reale in non esposti) ´ 600 (ovvero 750-150) = (30+60)/750 = 12%
Rapporto di rischio stimato = 17.9% / 12% = 1.49
L'errata classificazione dipende, in questo esempio, dal disegno dello studio e dalle caratteristiche della popolazione, piuttosto che dai limiti tecnici della misurazione dell'esposizione. L'effetto dell'errata classificazione è tale che il rapporto “vero” di 2.0 tra il rischio cumulativo tra le persone esposte e le persone non esposte diventa un rapporto “osservato” di 1.49 (tabella 1). Questa sottostima del rapporto di rischio deriva da un "offuscamento" del rapporto tra esposizione e malattia, che si verifica quando l'errata classificazione dell'esposizione, come in questo caso, è uniformemente distribuita in base alla malattia o allo stato di salute (ovvero, la misurazione dell'esposizione è non influenzato dal fatto che la persona soffrisse o meno della malattia che stiamo studiando).
Al contrario, può verificarsi una sottostima o una sopravvalutazione dell'associazione degli interessi quando l'errata classificazione dell'esposizione non è distribuita uniformemente sul risultato degli interessi. Nell'esempio, potremmo avere pregiudizio, e non solo un offuscamento della relazione eziologica, se la classificazione dell'esposizione dipende dalla malattia o dallo stato di salute dei lavoratori. Ciò potrebbe verificarsi, ad esempio, se decidiamo di prelevare campioni biologici da un gruppo di lavoratori esposti e da un gruppo di lavoratori non esposti, al fine di identificare i primi cambiamenti legati all'esposizione sul lavoro. I campioni dei lavoratori esposti potrebbero quindi essere analizzati in modo più accurato rispetto ai campioni dei lavoratori non esposti; la curiosità scientifica potrebbe portare il ricercatore a misurare ulteriori biomarcatori tra le persone esposte (tra cui, ad esempio, addotti al DNA nei linfociti o marcatori urinari di danno ossidativo al DNA), nell'ipotesi che queste persone siano scientificamente “più interessanti”. Si tratta di un atteggiamento piuttosto comune che, tuttavia, potrebbe portare a gravi pregiudizi.
Si discute molto sul ruolo della statistica nella ricerca epidemiologica sulle relazioni causali. In epidemiologia, la statistica è principalmente una raccolta di metodi per valutare i dati basati sulle popolazioni umane (e anche animali). In particolare, la statistica è una tecnica per la quantificazione e la misurazione di fenomeni incerti. Tutte le indagini scientifiche che si occupano di aspetti non deterministici e variabili della realtà potrebbero beneficiare della metodologia statistica. In epidemiologia, la variabilità è intrinseca all'unità di osservazione: una persona non è un'entità deterministica. Mentre i disegni sperimentali sarebbero migliorati in termini di migliore corrispondenza con le ipotesi della statistica in termini di variazione casuale, per ragioni etiche e pratiche questo approccio non è molto comune. Invece, l'epidemiologia è impegnata nella ricerca osservazionale che ha associato ad essa sia fonti casuali che altre fonti di variabilità.
La teoria statistica si occupa di come controllare la variabilità non strutturata nei dati al fine di trarre valide inferenze da osservazioni empiriche. In mancanza di qualsiasi spiegazione per il comportamento variabile del fenomeno studiato, la statistica lo assume come casuale- cioè, deviazioni non sistematiche da uno stato di natura medio (vedi Groenlandia 1990 per una critica a questi presupposti).
La scienza si basa sull'esperienza prova per dimostrare se i suoi modelli teorici di eventi naturali hanno una qualche validità. In effetti, i metodi utilizzati dalla teoria statistica determinano il grado in cui le osservazioni nel mondo reale sono conformi alla visione degli scienziati, in forma di modello matematico, di un fenomeno. I metodi statistici, basati sulla matematica, devono quindi essere accuratamente selezionati; ci sono molti esempi su "come mentire con le statistiche". Pertanto, gli epidemiologi dovrebbero essere consapevoli dell'adeguatezza delle tecniche che applicano per misurare il rischio di malattia. In particolare, è necessaria grande attenzione nell'interpretazione sia dei risultati statisticamente significativi che di quelli statisticamente non significativi.
Il primo significato della parola statistica si riferisce a qualsiasi quantità di riepilogo calcolata su un insieme di valori. Indici descrittivi o statistici come la media aritmetica, la mediana o la moda, sono ampiamente utilizzati per sintetizzare le informazioni in una serie di osservazioni. Storicamente, questi descrittori sommari sono stati utilizzati per scopi amministrativi dagli stati, e quindi sono stati nominati statistica. In epidemiologia, le statistiche che si vedono comunemente derivano dai confronti inerenti alla natura dell'epidemiologia, che pone domande come: "Una popolazione è a maggior rischio di malattia rispetto a un'altra?" Nel fare tali confronti, il rischio relativo è una misura popolare della forza dell'associazione tra una caratteristica individuale e la probabilità di ammalarsi, ed è più comunemente applicato nella ricerca eziologica; il rischio attribuibile è anche una misura dell'associazione tra caratteristiche individuali e insorgenza della malattia, ma sottolinea il guadagno in termini di numero di casi risparmiati da un intervento che rimuove il fattore in questione: è applicato principalmente nella sanità pubblica e nella medicina preventiva.
Il secondo significato della parola statistica si riferisce alla raccolta di tecniche e alla sottostante teoria dell'inferenza statistica. Questa è una particolare forma di logica induttiva che specifica le regole per ottenere una valida generalizzazione da un particolare insieme di osservazioni empiriche. Questa generalizzazione sarebbe valida a condizione che siano soddisfatte alcune ipotesi. Questo è il secondo modo in cui un uso non istruito della statistica può ingannarci: nell'epidemiologia osservazionale, è molto difficile essere sicuri delle assunzioni implicite nelle tecniche statistiche. Pertanto, analisi di sensibilità e stimatori robusti dovrebbero accompagnare qualsiasi analisi dei dati condotta correttamente. Anche le conclusioni finali dovrebbero basarsi sulla conoscenza generale e non dovrebbero basarsi esclusivamente sui risultati della verifica di ipotesi statistiche.
Definizioni
A unità statistica è l'elemento su cui vengono fatte le osservazioni empiriche. Potrebbe essere una persona, un campione biologico o un pezzo di materia prima da analizzare. Di solito le unità statistiche sono scelte indipendentemente dal ricercatore, ma a volte possono essere impostati disegni più complessi. Ad esempio, negli studi longitudinali, viene effettuata una serie di determinazioni su un insieme di persone nel tempo; le unità statistiche in questo studio sono l'insieme delle determinazioni, che non sono indipendenti, ma strutturate dalle rispettive connessioni a ciascuna persona studiata. La mancanza di indipendenza o correlazione tra le unità statistiche merita un'attenzione speciale nell'analisi statistica.
A variabile è una caratteristica individuale misurata su una data unità statistica. Dovrebbe essere contrastato con a costante, una caratteristica individuale fissa: ad esempio, in uno studio sugli esseri umani, avere una testa o un torace sono costanti, mentre il sesso di un singolo membro dello studio è una variabile.
Le variabili vengono valutate utilizzando differenti scale di misura. La prima distinzione è tra scale qualitative e quantitative. Le variabili qualitative forniscono diversi modalità or categoria. Se ciascuna modalità non può essere classificata o ordinata in relazione ad altre, ad esempio il colore dei capelli o le modalità di genere, denotiamo la variabile come nominale. Se le categorie possono essere ordinate, come il grado di gravità di una malattia, viene chiamata la variabile ordinale. Quando una variabile è costituita da un valore numerico, diciamo che la scala è quantitativa. UN distinto scala indica che la variabile può assumere solo alcuni valori definiti, ad esempio valori interi per il numero di casi di malattia. UN continuo scala viene utilizzata per quelle misure che risultano in di rose numeri. Si dice che le scale continue siano intervallo scala quando il valore nullo ha un significato puramente convenzionale. Cioè, un valore pari a zero non significa quantità zero, ad esempio una temperatura di zero gradi Celsius non significa zero energia termica. In questo caso hanno senso solo le differenze tra i valori (questo è il motivo del termine scala “intervalli”). Un valore nullo reale denota a rapporto scala. Per una variabile misurata su quella scala, anche i rapporti di valori hanno senso: infatti, un rapporto doppio significa il doppio della quantità. Ad esempio, dire che un corpo ha una temperatura due volte maggiore di un secondo corpo significa che ha due volte l'energia termica del secondo corpo, purché la temperatura è misurata su una scala di rapporti (ad esempio, in gradi Kelvin). L'insieme di valori consentiti per una data variabile è chiamato dominio della variabile.
Paradigmi statistici
La statistica si occupa del modo di generalizzare da un insieme di osservazioni particolari. Questo insieme di misurazioni empiriche è chiamato a campione. Da un campione, calcoliamo alcune statistiche descrittive per sintetizzare le informazioni raccolte.
Le informazioni di base generalmente richieste per caratterizzare un insieme di misure sono relative alla sua tendenza centrale e alla sua variabilità. La scelta tra diverse alternative dipende dalla scala utilizzata per misurare un fenomeno e dagli scopi per i quali vengono calcolate le statistiche. Nella tabella 1 sono descritte diverse misure di tendenza centrale e di variabilità (o dispersione) associate alla scala di misurazione appropriata.
Tabella 1. Indici di tendenza centrale e dispersione per scala di misura
Scala di misura |
||||
Qualitative |
quantitativo |
|||
Indici |
Definizione |
Nominale |
ordinale |
Intervallo/rapporto |
Significato aritmetico |
Somma dei valori osservati divisa per il numero totale di osservazioni |
|
|
x |
Mediano |
Valore medio della distribuzione osservata |
|
x |
x |
Moda |
Valore più frequente |
x |
x |
x |
Escursione |
Valori minimo e massimo della distribuzione |
|
x |
x |
Varianza |
Somma della differenza al quadrato di ciascun valore rispetto alla media divisa per il numero totale di osservazioni meno 1 |
|
|
x |
Vengono chiamate le statistiche descrittive calcolate stime quando li usiamo come sostituto dell'analoga quantità della popolazione da cui il campione è stato selezionato. Le controparti della popolazione delle stime sono chiamate costanti parametri. Le stime dello stesso parametro possono essere ottenute utilizzando diversi metodi statistici. Una stima dovrebbe essere valida e precisa.
Il paradigma popolazione-campione implica che la validità può essere assicurata dal modo in cui il campione viene selezionato dalla popolazione. Il campionamento casuale o probabilistico è la strategia abituale: se ogni membro della popolazione ha la stessa probabilità di essere incluso nel campione, allora, in media, il nostro campione dovrebbe essere rappresentativo della popolazione e, inoltre, qualsiasi deviazione dalle nostre aspettative potrebbe essere spiegato per caso. Anche la probabilità di una data deviazione dalla nostra aspettativa può essere calcolata, a condizione che sia stato eseguito un campionamento casuale. Lo stesso ragionamento vale per le stime calcolate per il nostro campione relativamente ai parametri della popolazione. Prendiamo, ad esempio, la media aritmetica del nostro campione come stima del valore medio per la popolazione. Qualsiasi differenza, se esiste, tra la media del campione e la media della popolazione è attribuita a fluttuazioni casuali nel processo di selezione dei membri inclusi nel campione. Possiamo calcolare la probabilità di qualsiasi valore di questa differenza, a condizione che il campione sia stato selezionato in modo casuale. Se lo scostamento tra la stima campionaria e il parametro della popolazione non può essere spiegato per caso, si dice che la stima lo sia parziale. Il disegno dell'osservazione o dell'esperimento fornisce validità alle stime e il paradigma statistico fondamentale è quello del campionamento casuale.
In medicina, un secondo paradigma viene adottato quando il confronto tra diversi gruppi è l'obiettivo dello studio. Un tipico esempio è lo studio clinico controllato: un insieme di pazienti con caratteristiche simili viene selezionato sulla base di criteri predefiniti. In questa fase non viene fatta alcuna preoccupazione per la rappresentatività. Ogni paziente arruolato nello studio viene assegnato con una procedura casuale al gruppo di trattamento, che riceverà la terapia standard più il nuovo farmaco da valutare, o al gruppo di controllo, che riceverà la terapia standard e un placebo. In questo disegno, l'assegnazione casuale dei pazienti a ciascun gruppo sostituisce la selezione casuale dei membri del campione. La stima della differenza tra i due gruppi può essere valutata statisticamente perché, nell'ipotesi di non efficacia del nuovo farmaco, si può calcolare la probabilità di un'eventuale differenza diversa da zero.
In epidemiologia, ci manca la possibilità di assemblare gruppi di persone esposte e non esposte in modo casuale. In questo caso possiamo ancora utilizzare metodi statistici, come se i gruppi analizzati fossero stati selezionati o assegnati casualmente. La correttezza di questa ipotesi si basa principalmente sul disegno dello studio. Questo punto è particolarmente importante e sottolinea l'importanza del disegno dello studio epidemiologico rispetto alle tecniche statistiche nella ricerca biomedica.
Segnale e rumore
Il termine variabile casuale si riferisce a una variabile per la quale una probabilità definita è associata a ciascun valore che può assumere. I modelli teorici per la distribuzione della probabilità di una variabile casuale sono modelli di popolazione. Le controparti campionarie sono rappresentate dalla distribuzione della frequenza campionaria. Questo è un modo utile per segnalare una serie di dati; è costituito da un piano cartesiano con la variabile di interesse lungo l'asse orizzontale e la frequenza o frequenza relativa lungo l'asse verticale. Un display grafico ci consente di vedere facilmente qual è (sono) il valore o i valori più frequenti e come la distribuzione è concentrata attorno a determinati valori centrali come la media aritmetica.
Per le variabili casuali e le loro distribuzioni di probabilità, usiamo i termini parametri, valore medio atteso (invece della media aritmetica) e varianza. Questi modelli teorici descrivono la variabilità in un dato fenomeno. Nella teoria dell'informazione, il segnale è rappresentato dalla tendenza centrale (ad esempio, il valore medio), mentre il rumore è misurato da un indice di dispersione (come la varianza).
Per illustrare l'inferenza statistica, useremo il modello binomiale. Nelle sezioni che seguono verranno introdotti i concetti di stime puntuali e intervalli di confidenza, test di ipotesi e probabilità di decisioni errate e potenza di uno studio.
Tabella 2. Possibili risultati di un esperimento binomiale (sì = 1, no = 0) e loro probabilità (n = 3)
Lavoratore |
Probabilità |
||
A |
B |
C |
|
0 |
0 |
0 |
|
1 |
0 |
0 |
|
0 |
1 |
0 |
|
0 |
0 |
1 |
|
0 |
1 |
1 |
|
1 |
0 |
1 |
|
1 |
1 |
0 |
|
1 |
1 |
1 |
Un esempio: la distribuzione binomiale
Nella ricerca biomedica e nell'epidemiologia, il modello più importante di variazione stocastica è la distribuzione binomiale. Si basa sul fatto che la maggior parte dei fenomeni si comporta come una variabile nominale con solo due categorie: ad esempio, la presenza/assenza di malattia: vivo/morto o guarito/malato. In tali circostanze, siamo interessati alla probabilità di successo, cioè all'evento di interesse (ad esempio, presenza di malattia, vivo o guarigione) e ai fattori o variabili che possono alterarlo. Lasciaci considerare n = 3 lavoratori, e supponiamo di essere interessati alla probabilità, p, di avere una disabilità visiva (sì/no). Il risultato della nostra osservazione potrebbe essere i possibili esiti nella tabella 2.
Tabella 3. Possibili risultati di un esperimento binomiale (sì = 1, no = 0) e loro probabilità (n = 3)
Numero di successi |
Probabilità |
0 |
|
1 |
|
2 |
|
3 |
La probabilità di una qualsiasi di queste combinazioni di eventi si ottiene facilmente considerando p, la probabilità (individuale) di successo, costante per ogni soggetto e indipendente da altri risultati. Poiché siamo interessati al numero totale di successi e non a una specifica sequenza ordinata, possiamo riordinare la tabella come segue (vedi tabella 3) e, in generale, esprimere la probabilità di x successi P (x) come:
where x è il numero di successi e la notazione x! denota il fattoriale di x, Cioè, x! = x×(x–1)×(x–2)…×1.
Quando consideriamo l'evento “essere/non essere malato”, la probabilità individuale, si riferisce allo stato in cui si presume il soggetto; in epidemiologia, questa probabilità è chiamata “prevalenza”. Per stimare p, usiamo la proporzione campionaria:
p = x/n
con varianza:
In un'ipotetica serie infinita di campioni replicati della stessa dimensione n, otterremmo proporzioni campionarie diverse p = x/n, con probabilità data dalla formula binomiale. Il “vero” valore di è stimato da ciascuna proporzione campionaria e un intervallo di confidenza per p, ovvero l'insieme dei valori probabili per p, dati i dati osservati e un livello di confidenza predefinito (diciamo 95%), è stimato dalla distribuzione binomiale come l'insieme di valori per p che dà una probabilità di x maggiore di un valore pre-specificato (diciamo 2.5%). Per un ipotetico esperimento in cui abbiamo osservato x = 15 successi in n = 30 prove, la probabilità stimata di successo è:
Tabella 4. Distribuzione binomiale. Probabilità per diversi valori di per x = 15 successi in n = 30 prove
Probabilità |
|
0.200 |
0.0002 |
0.300 |
0.0116 |
0.334 |
0.025 |
0.400 |
0.078 |
0.500 |
0.144 |
0.600 |
0.078 |
0.666 |
0.025 |
0.700 |
0.0116 |
L'intervallo di confidenza al 95% per p, ottenuto dalla tabella 4, è 0.334 – 0.666. Ogni voce della tabella mostra la probabilità di x = 15 successi in n = 30 prove calcolate con la formula binomiale; ad esempio, per = 0.30, si ottiene da:
Nel n grande e p vicino a 0.5 possiamo usare un'approssimazione basata sulla distribuzione gaussiana:
where za /2 denota il valore della distribuzione gaussiana standard per una probabilità
P (|z| ³ za /2) = a/2;
1 – a è il livello di confidenza scelto. Per l'esempio considerato, = 15/30 = 0.5; n = 30 e dalla tabella gaussiana standard z0.025 = 1.96. L'intervallo di confidenza al 95% risulta nell'insieme di valori 0.321 – 0.679, ottenuto sostituendo p = 0.5, n = 30 e z0.025 = 1.96 nell'equazione precedente per la distribuzione gaussiana. Si noti che questi valori sono vicini ai valori esatti calcolati in precedenza.
I test statistici di ipotesi comprendono una procedura decisionale sul valore di un parametro della popolazione. Supponiamo, nell'esempio precedente, di voler affrontare la proposizione secondo cui esiste un elevato rischio di disabilità visiva tra i lavoratori di un dato impianto. L'ipotesi scientifica da verificare con le nostre osservazioni empiriche è quindi “c'è un elevato rischio di disabilità visiva tra i lavoratori di un dato impianto”. Gli statistici dimostrano tali ipotesi falsificando l'ipotesi complementare “non c'è aumento del rischio di disabilità visiva”. Questo segue la dimostrazione matematica per assurdo e, invece di verificare un'affermazione, l'evidenza empirica viene utilizzata solo per falsificarla. L'ipotesi statistica si chiama ipotesi nulla. Il secondo passo consiste nello specificare un valore per il parametro di quella distribuzione di probabilità usata per modellare la variabilità nelle osservazioni. Nei nostri esempi, poiché il fenomeno è binario (cioè presenza/assenza di disabilità visiva), scegliamo la distribuzione binomiale con parametro p, la probabilità di disabilità visiva. L'ipotesi nulla lo afferma = 0.25, diciamo. Questo valore è scelto dalla raccolta di conoscenze sull'argomento e dalla conoscenza a priori della consueta prevalenza della disabilità visiva nelle popolazioni non esposte (cioè non lavoratrici). Supponiamo che i nostri dati producano una stima = 0.50, dai 30 lavoratori esaminati.
Possiamo rifiutare l'ipotesi nulla?
Se sì, a favore di cosa alternativa ipotesi?
Specifichiamo un'ipotesi alternativa come candidata nel caso in cui l'evidenza imponga di rifiutare l'ipotesi nulla. Le ipotesi alternative non direzionali (bilaterali) affermano che il parametro della popolazione è diverso dal valore indicato nell'ipotesi nulla; ipotesi alternative direzionali (unilaterali) affermano che il parametro della popolazione è maggiore (o minore) del valore nullo.
Tabella 5. Distribuzione binomiale. Probabilità di successo per = 0.25 in n = 30 prove
X |
Probabilità |
Probabilità cumulativa |
0 |
0.0002 |
0.0002 |
1 |
0.0018 |
0.0020 |
2 |
0.0086 |
0.0106 |
3 |
0.0269 |
0.0374 |
4 |
0.0604 |
0.0979 |
5 |
0.1047 |
0.2026 |
6 |
0.1455 |
0.3481 |
7 |
0.1662 |
0.5143 |
8 |
0.1593 |
0.6736 |
9 |
0.1298 |
0.8034 |
10 |
0.0909 |
0.8943 |
11 |
0.0551 |
0.9493 |
12 |
0.0291 |
0.9784 |
13 |
0.0134 |
0.9918 |
14 |
0.0054 |
0.9973 |
15 |
0.0019 |
0.9992 |
16 |
0.0006 |
0.9998 |
17 |
0.0002 |
1.0000 |
. |
. |
. |
30 |
0.0000 |
1.0000 |
Sotto l'ipotesi nulla, possiamo calcolare la distribuzione di probabilità dei risultati del nostro esempio. La tabella 5 mostra, per = 0.25 e n = 30, le probabilità (vedi equazione (1)) e le probabilità cumulative:
Da questa tabella otteniamo la probabilità di avere x ³15 lavoratori con disabilità visiva
P(x ³15) = 1 - P(X15) = 1 - 0.9992 0.0008 =
Ciò significa che è altamente improbabile che osserveremmo 15 o più lavoratori con disabilità visiva se sperimentassero la prevalenza della malattia delle popolazioni non esposte. Pertanto, potremmo respingere l'ipotesi nulla e affermare che esiste una maggiore prevalenza di disabilità visiva nella popolazione di lavoratori studiata.
Quando n× p ³ 5 e n×(1-) ³ 5, possiamo usare l'approssimazione gaussiana:
Dalla tabella della distribuzione gaussiana standard otteniamo:
P(|z|>2.95) = 0.0008
in stretto accordo con i risultati esatti. Da questa approssimazione possiamo vedere che la struttura di base di un test statistico di ipotesi consiste nel rapporto tra segnale e rumore. Nel nostro caso, il segnale è (p-), la deviazione osservata dall'ipotesi nulla, mentre il rumore è la deviazione standard di P:
Maggiore è il rapporto, minore è la probabilità del valore nullo.
Nel prendere decisioni su ipotesi statistiche, possiamo incorrere in due tipi di errori: un errore di tipo I, rifiuto dell'ipotesi nulla quando è vera; o un errore di tipo II, accettazione dell'ipotesi nulla quando è falsa. Il livello di probabilità, o valore p, è la probabilità di un errore di tipo I, indicata dalla lettera greca a. Questo è calcolato dalla distribuzione di probabilità delle osservazioni sotto l'ipotesi nulla. È consuetudine predefinire un livello di errore (es. 5%, 1%) e rifiutare l'ipotesi nulla quando il risultato della nostra osservazione ha una probabilità uguale o inferiore a questo cosiddetto livello critico.
La probabilità di un errore di tipo II è indicata dalla lettera greca β. Per calcolarlo occorre specificare, nell'ipotesi alternativa, il valore α per il parametro da testare (nel nostro esempio, valore α per ). Le ipotesi alternative generiche (diverse da, maggiori di, minori di) non sono utili. In pratica, interessa il valore β per un insieme di ipotesi alternative, o il suo complemento, che è chiamato potenza statistica del test. Ad esempio, fissando il valore dell'errore α al 5%, dalla tabella 5, troviamo:
P(x ³12) <0.05
sotto l'ipotesi nulla = 0.25. Se almeno dovessimo osservare x = 12 successi, rifiuteremmo l'ipotesi nulla. I corrispondenti valori β e la potenza per x = 12 sono dati dalla tabella 6.
Tabella 6. Errore di tipo II e potenza per x = 12, n = 30, α = 0.05
β |
Potenza |
|
0.30 |
0.9155 |
0.0845 |
0.35 |
0.7802 |
0.2198 |
0.40 |
0.5785 |
0.4215 |
0.45 |
0.3592 |
0.6408 |
0.50 |
0.1808 |
0.8192 |
0.55 |
0.0714 |
0.9286 |
In questo caso i nostri dati non possono discriminare se è maggiore del valore nullo di 0.25 ma minore di 0.50, perché la potenza dello studio è troppo bassa (<80%) per quei valori di <0.50, ovvero la sensibilità del nostro studio è dell'8% per = 0.3, 22% per = 0.35,…, 64% per = 0.45.
L'unico modo per ottenere un β inferiore, o un livello di potenza superiore, sarebbe quello di aumentare le dimensioni dello studio. Ad esempio, nella tabella 7 riportiamo β e potenza per n = 40; come previsto, dovremmo essere in grado di rilevare a valore maggiore di 0.40.
Tabella 7. Errore di tipo II e potenza per x = 12, n = 40, α = 0.05
β |
Potenza |
|
0.30 |
0.5772 |
0.4228 |
0.35 |
0.3143 |
0.6857 |
0.40 |
0.1285 |
0.8715 |
0.45 |
0.0386 |
0.8614 |
0.50 |
0.0083 |
0.9917 |
0.55 |
0.0012 |
0.9988 |
Il disegno dello studio si basa su un attento esame dell'insieme di ipotesi alternative che meritano considerazione e garantiscono potere allo studio fornendo un'adeguata dimensione del campione.
Nella letteratura epidemiologica è stata sottolineata l'importanza di fornire stime di rischio affidabili. Pertanto, è più importante riportare gli intervalli di confidenza (95% o 90%) piuttosto che a p-valore di un test di un'ipotesi. Seguendo lo stesso tipo di ragionamento, occorre prestare attenzione all'interpretazione dei risultati di studi di piccole dimensioni: a causa della bassa potenza, anche effetti intermedi potrebbero non essere rilevati e, d'altra parte, effetti di grande entità potrebbero non essere replicati successivamente.
Metodi avanzati
Il grado di complessità dei metodi statistici utilizzati nell'ambito della medicina del lavoro è andato crescendo negli ultimi anni. Importanti sviluppi si riscontrano nell'area della modellazione statistica. La famiglia di modelli non gaussiani di Nelder e Wedderburn (modelli lineari generalizzati) è stato uno dei contributi più sorprendenti all'aumento delle conoscenze in aree come l'epidemiologia occupazionale, dove le variabili di risposta rilevanti sono binarie (ad esempio, sopravvivenza/morte) o conteggi (ad esempio, il numero di incidenti sul lavoro).
Questo è stato il punto di partenza per un'ampia applicazione dei modelli di regressione in alternativa alle più tradizionali tipologie di analisi basate su tabelle di contingenza (analisi semplice e stratificata). Poisson, Cox e la regressione logistica sono ora abitualmente utilizzate rispettivamente per l'analisi di studi longitudinali e caso-controllo. Questi modelli sono la controparte della regressione lineare per le variabili di risposta categoriale e hanno l'elegante caratteristica di fornire direttamente la misura epidemiologica rilevante dell'associazione. Ad esempio, i coefficienti della regressione di Poisson sono il logaritmo dei rapporti di tasso, mentre quelli della regressione logistica sono il logaritmo degli odds ratio.
Prendendo questo come punto di riferimento, gli ulteriori sviluppi nell'area della modellazione statistica hanno preso due direzioni principali: modelli per misure categoriche ripetute e modelli che estendono i Modelli Lineari Generalizzati (Modelli Additivi Generalizzati). In entrambi i casi, gli obiettivi sono focalizzati sull'aumento della flessibilità degli strumenti statistici per far fronte a problemi più complessi derivanti dalla realtà. I modelli a misure ripetute sono necessari in molti studi occupazionali in cui le unità di analisi sono a livello sub-individuale. Per esempio:
Uno sviluppo parallelo e probabilmente più rapido è stato osservato nel contesto della statistica bayesiana. La barriera pratica dell'uso dei metodi bayesiani è crollata dopo l'introduzione di metodi ad alta intensità di computer. Le procedure Monte Carlo come gli schemi di campionamento di Gibbs ci hanno permesso di evitare la necessità di integrazione numerica per calcolare le distribuzioni a posteriori che rappresentavano la caratteristica più impegnativa dei metodi bayesiani. Il numero di applicazioni dei modelli bayesiani a problemi reali e complessi ha trovato sempre più spazio nelle riviste applicate. Ad esempio, le analisi geografiche e le correlazioni ecologiche a livello di piccola area ei modelli di previsione dell'AIDS sono sempre più spesso affrontati utilizzando approcci bayesiani. Questi sviluppi sono accolti favorevolmente perché rappresentano non solo un aumento del numero di soluzioni statistiche alternative che potrebbero essere impiegate nell'analisi dei dati epidemiologici, ma anche perché l'approccio bayesiano può essere considerato una strategia più solida.
Gli articoli precedenti di questo capitolo hanno mostrato la necessità di un'attenta valutazione del disegno dello studio al fine di trarre conclusioni credibili dalle osservazioni epidemiologiche. Sebbene sia stato affermato che le deduzioni nell'epidemiologia osservazionale sono deboli a causa della natura non sperimentale della disciplina, non vi è alcuna superiorità intrinseca di studi controllati randomizzati o altri tipi di disegno sperimentale rispetto all'osservazione ben pianificata (Cornfield 1954). Tuttavia, trarre valide deduzioni implica un'analisi approfondita del disegno dello studio al fine di identificare potenziali fonti di distorsione e confusione. Sia i risultati falsi positivi che quelli falsi negativi possono provenire da diversi tipi di bias.
In questo articolo vengono discusse alcune delle linee guida che sono state proposte per valutare la natura causale delle osservazioni epidemiologiche. Inoltre, sebbene la buona scienza sia una premessa per una ricerca epidemiologica eticamente corretta, ci sono ulteriori questioni che sono rilevanti per le preoccupazioni etiche. Pertanto, abbiamo dedicato alcune discussioni all'analisi dei problemi etici che possono sorgere nel fare studi epidemiologici.
Valutazione di causalità
Diversi autori hanno discusso la valutazione della causalità in epidemiologia (Hill 1965; Buck 1975; Ahlbom 1984; Maclure 1985; Miettinen 1985; Rothman 1986; Weed 1986; Schlesselman 1987; Maclure 1988; Weed 1988; Karhausen 1995). Uno dei principali punti di discussione è se l'epidemiologia utilizzi o debba utilizzare gli stessi criteri per l'accertamento delle relazioni causa-effetto utilizzati in altre scienze.
Le cause non devono essere confuse con i meccanismi. Ad esempio, l'amianto è una causa del mesotelioma, mentre la mutazione dell'oncogene è un meccanismo putativo. Sulla base delle prove esistenti, è probabile che (a) diverse esposizioni esterne possano agire negli stessi stadi meccanicistici e (b) di solito non vi sia una sequenza fissa e necessaria di passaggi meccanicistici nello sviluppo della malattia. Ad esempio, la carcinogenesi viene interpretata come una sequenza di transizioni stocastiche (probabilistiche), dalla mutazione genica alla proliferazione cellulare e di nuovo alla mutazione genica, che alla fine porta al cancro. Inoltre, la carcinogenesi è un processo multifattoriale, cioè diverse esposizioni esterne sono in grado di influenzarlo e nessuna di esse è necessaria in una persona suscettibile. È probabile che questo modello si applichi a diverse malattie oltre al cancro.
Tale natura multifattoriale e probabilistica della maggior parte delle relazioni esposizione-malattia implica che è problematico districare il ruolo svolto da una specifica esposizione. Inoltre, la natura osservativa dell'epidemiologia ci impedisce di condurre esperimenti che potrebbero chiarire relazioni eziologiche attraverso un'alterazione volontaria del corso degli eventi. L'osservazione di un'associazione statistica tra esposizione e malattia non significa che l'associazione sia causale. Ad esempio, la maggior parte degli epidemiologi ha interpretato l'associazione tra l'esposizione ai gas di scarico diesel e il cancro alla vescica come causale, ma altri hanno affermato che i lavoratori esposti ai gas di scarico diesel (principalmente camionisti e tassisti) sono più spesso fumatori di sigarette rispetto alle persone non esposte. . L'associazione osservata, secondo questa affermazione, sarebbe quindi “confusa” da un noto fattore di rischio come il fumo.
Data la natura probabilistico-multifattoriale della maggior parte delle associazioni esposizione-malattia, gli epidemiologi hanno sviluppato linee guida per riconoscere le relazioni che possono essere causali. Queste sono le linee guida originariamente proposte da Sir Bradford Hill per le malattie croniche (1965):
Questi criteri dovrebbero essere considerati solo come linee guida generali o strumenti pratici; infatti, la valutazione causale scientifica è un processo iterativo incentrato sulla misurazione della relazione esposizione-malattia. Tuttavia, i criteri di Hill sono spesso usati come descrizione concisa e pratica delle procedure di inferenza causale in epidemiologia.
Consideriamo l'esempio della relazione tra esposizione al cloruro di vinile e angiosarcoma epatico, applicando i criteri di Hill.
L'usuale espressione dei risultati di uno studio epidemiologico è una misura del grado di associazione tra esposizione e malattia (primo criterio di Hill). Un rischio relativo (RR) maggiore dell'unità significa che esiste un'associazione statistica tra esposizione e malattia. Per esempio, se il tasso di incidenza dell'angiosarcoma epatico è di solito 1 su 10 milioni, ma è 1 su 100,000 tra quelli esposti al cloruro di vinile, allora il RR è 100 (ovvero, le persone che lavorano con il cloruro di vinile hanno un aumento di 100 volte rischio di sviluppare angiosarcoma rispetto alle persone che non lavorano con cloruro di vinile).
È più probabile che un'associazione sia causale quando il rischio aumenta con l'aumentare dei livelli di esposizione (effetto dose-risposta, secondo criterio di Hill) e quando la relazione temporale tra esposizione e malattia ha senso su basi biologiche (l'esposizione precede l'effetto e la la durata di questo periodo di “induzione” è compatibile con un modello biologico di malattia; terzo criterio di Hill). Inoltre, è più probabile che un'associazione sia causale quando risultati simili sono ottenuti da altri che sono stati in grado di replicare i risultati in circostanze diverse (“coerenza”, quarto criterio di Hill).
Un'analisi scientifica dei risultati richiede una valutazione di plausibilità biologica (quinto criterio di Hill). Ciò può essere ottenuto in diversi modi. Ad esempio, un semplice criterio è quello di valutare se la presunta “causa” è in grado di raggiungere l'organo bersaglio (es. sostanze inalate che non raggiungono il polmone non possono circolare nell'organismo). Inoltre, le prove a sostegno degli studi sugli animali sono utili: l'osservazione di angiosarcomi epatici negli animali trattati con cloruro di vinile rafforza fortemente l'associazione osservata nell'uomo.
La coerenza interna delle osservazioni (ad esempio, l'RR è aumentato in modo simile in entrambi i sessi) è un importante criterio scientifico (sesto criterio di Hill). La causalità è più probabile quando la relazione è molto specifica, cioè coinvolge cause rare e/o malattie rare, o un tipo/sottogruppo istologico specifico di pazienti (settimo criterio di Hill).
L'"induzione enumerativa" (la semplice enumerazione di casi di associazione tra esposizione e malattia) non è sufficiente per descrivere completamente i passaggi induttivi nel ragionamento causale. Di solito, il risultato dell'induzione enumerativa produce un'osservazione complessa e ancora confusa perché si intrecciano diverse catene causali o, più frequentemente, una vera e propria relazione causale e altre esposizioni irrilevanti. Le spiegazioni alternative devono essere eliminate attraverso l'“induzione eliminativa”, mostrando che un'associazione è probabile che sia causale perché non è “confusa” con altre. Una semplice definizione di spiegazione alternativa è “un fattore estraneo il cui effetto si mescola con l'effetto dell'esposizione per interessi, distorcendo così la stima del rischio per l'esposizione per interessi” (Rothman 1986).
Il ruolo dell'induzione è espandere la conoscenza, mentre il ruolo della deduzione è “trasmettere la verità” (Giere 1979). Il ragionamento deduttivo scruta il disegno dello studio e identifica associazioni che non sono empiricamente vere, ma solo logicamente vere. Tali associazioni non sono un dato di fatto, ma necessità logiche. Ad esempio, A bias di selezione avviene quando il gruppo degli esposti viene selezionato tra i malati (come quando iniziamo uno studio di coorte reclutando come “esposti” al cloruro di vinile un cluster di casi di angiosarcoma epatico) o quando il gruppo dei non esposti viene selezionato tra i sani. In entrambi i casi l'associazione che si riscontra tra esposizione e malattia è necessariamente (logicamente) ma non empiricamente vera (Vineis 1991).
In conclusione, anche se si considera la sua natura osservativa (non sperimentale), l'epidemiologia non utilizza procedure inferenziali che differiscono sostanzialmente dalla tradizione di altre discipline scientifiche (Hume 1978; Schaffner 1993).
Questioni etiche nella ricerca epidemiologica
A causa delle sottigliezze coinvolte nell'inferire la causalità, gli epidemiologi devono prestare particolare attenzione nell'interpretazione dei loro studi. Ne derivano, infatti, diverse preoccupazioni di natura etica.
Le questioni etiche nella ricerca epidemiologica sono diventate oggetto di intense discussioni (Schulte 1989; Soskolne 1993; Beauchamp et al. 1991). Il motivo è evidente: gli epidemiologi, in particolare gli epidemiologi del lavoro e dell'ambiente, spesso studiano questioni che hanno implicazioni economiche, sociali e di politica sanitaria significative. Sia i risultati negativi che quelli positivi riguardanti l'associazione tra specifiche esposizioni chimiche e malattie possono influenzare la vita di migliaia di persone, influenzare le decisioni economiche e quindi condizionare seriamente le scelte politiche. Pertanto, l'epidemiologo può trovarsi sotto pressione ed essere tentato o addirittura incoraggiato da altri a modificare, marginalmente o sostanzialmente, l'interpretazione dei risultati delle sue indagini.
Tra le numerose questioni rilevanti, trasparenza della raccolta, della codifica, dell'informatizzazione e dell'analisi dei dati è centrale come difesa contro le accuse di parzialità da parte del ricercatore. Altrettanto cruciale, e potenzialmente in contrasto con tale trasparenza, è il diritto dei soggetti arruolati nella ricerca epidemiologica di essere protetti dal rilascio di informazioni personali
(riservatezza questioni).
Dal punto di vista della cattiva condotta che può sorgere soprattutto nel contesto dell'inferenza causale, le questioni che dovrebbero essere affrontate dalle linee guida etiche sono:
Altre questioni cruciali, nel caso dell'epidemiologia occupazionale e ambientale, riguardano il coinvolgimento dei lavoratori nelle fasi preliminari degli studi, e la diffusione dei risultati di uno studio ai soggetti che sono stati arruolati e ne sono direttamente interessati (Schulte 1989 ). Sfortunatamente, non è pratica comune che i lavoratori iscritti a studi epidemiologici siano coinvolti in discussioni collaborative sulle finalità dello studio, sulla sua interpretazione e sui potenziali usi dei risultati (che possono essere sia vantaggiosi che dannosi per il lavoratore).
Risposte parziali a queste domande sono state fornite da recenti linee guida (Beauchamp et al. 1991; CIOMS 1991). Tuttavia, in ogni paese, le associazioni professionali di epidemiologi occupazionali dovrebbero impegnarsi in un'approfondita discussione sulle questioni etiche e, possibilmente, adottare una serie di linee guida etiche appropriate al contesto locale, pur riconoscendo gli standard normativi di pratica accettati a livello internazionale.
La documentazione delle malattie professionali in un paese come Taiwan è una sfida per un medico del lavoro. In mancanza di un sistema che includa le schede di dati sulla sicurezza dei materiali (MSDS), i lavoratori di solito non erano a conoscenza delle sostanze chimiche con cui lavorano. Poiché molte malattie professionali hanno lunghe latenze e non mostrano sintomi e segni specifici fino a quando non sono clinicamente evidenti, il riconoscimento e l'identificazione dell'origine professionale sono spesso molto difficili.
Per controllare meglio le malattie professionali, abbiamo avuto accesso a banche dati che forniscono un elenco relativamente completo di sostanze chimiche industriali e una serie di segni e/o sintomi specifici. In combinazione con l'approccio epidemiologico di congetture e confutazioni (vale a dire, considerando ed escludendo tutte le possibili spiegazioni alternative), abbiamo documentato più di dieci tipi di malattie professionali e un focolaio di botulismo. Raccomandiamo che un approccio simile sia applicato a qualsiasi altro paese in una situazione simile, e che un sistema che preveda un foglio di identificazione (ad esempio, MSDS) per ogni sostanza chimica sia sostenuto e implementato come un mezzo per consentire un riconoscimento tempestivo e quindi la prevenzione di occupazioni malattie.
Epatite in una fabbrica di stampa a colori
Nel 1985 tre lavoratori di una tipografia a colori furono ricoverati negli ospedali della comunità con manifestazioni di epatite acuta. Uno dei tre aveva un'insufficienza renale acuta sovrapposta. Poiché l'epatite virale ha un'alta prevalenza a Taiwan, dovremmo considerare un'origine virale tra le eziologie più probabili. Dovrebbero essere inclusi anche l'uso di alcol e droghe, nonché solventi organici sul posto di lavoro. Poiché a Taiwan non esisteva un sistema di MSDS, né i dipendenti né il datore di lavoro erano a conoscenza di tutte le sostanze chimiche utilizzate nella fabbrica (Wang 1991).
Abbiamo dovuto compilare un elenco di agenti epatotossici e nefrotossici da diversi database tossicologici. Quindi, abbiamo dedotto tutte le possibili inferenze dalle ipotesi di cui sopra. Ad esempio, se il virus dell'epatite A (HAV) fosse l'eziologia, dovremmo osservare anticorpi (HAV-IgM) tra i lavoratori colpiti; se il virus dell'epatite B fosse l'eziologia, dovremmo osservare più portatori di antigeni di superficie dell'epatite B (HBsAg) tra i lavoratori affetti rispetto ai lavoratori non affetti; se l'alcol fosse l'eziologia principale, dovremmo osservare più alcolisti o alcolisti cronici tra i lavoratori colpiti; se qualche solvente tossico (es. cloroformio) fosse l'eziologia, dovremmo trovarlo sul posto di lavoro.
Abbiamo eseguito una valutazione medica completa per ogni lavoratore. L'eziologia virale è stata facilmente confutata, così come l'ipotesi dell'alcol, perché non potevano essere supportate dalle prove.
Invece, 17 lavoratori su 25 dello stabilimento presentavano test di funzionalità epatica anormali ed è stata trovata un'associazione significativa tra la presenza di funzionalità epatica anormale e una storia di aver lavorato di recente all'interno di una delle tre stanze in cui era stato installato un sistema di aria condizionata interconnesso. installati per raffreddare le macchine da stampa. L'associazione è rimasta dopo la stratificazione in base allo stato di portatore di epatite B. Successivamente è stato determinato che l'incidente si è verificato a seguito dell'uso involontario di un "agente detergente" (che era tetracloruro di carbonio) per pulire una pompa nella macchina da stampa. Inoltre, un test di simulazione dell'operazione di pulizia della pompa ha rivelato livelli nell'aria ambiente di tetracloruro di carbonio da 115 a 495 ppm, che potrebbero causare danni epatici. In un ulteriore tentativo di confutazione, eliminando il tetracloruro di carbonio sul posto di lavoro, abbiamo scoperto che non si sono verificati più nuovi casi e che tutti i lavoratori interessati sono migliorati dopo essere stati allontanati dal posto di lavoro per 20 giorni. Pertanto, abbiamo concluso che l'epidemia era dovuta all'uso di tetracloruro di carbonio.
Sintomi neurologici in una fabbrica di stampe a colori
Nel settembre 1986, un apprendista in una fabbrica di stampa a colori a Chang-Hwa sviluppò improvvisamente debolezza bilaterale acuta e paralisi respiratoria. Il padre della vittima ha affermato al telefono che c'erano molti altri lavoratori con sintomi simili. Poiché una volta era documentato che le tipografie a colori avevano malattie professionali derivanti dall'esposizione a solventi organici, ci siamo recati sul posto di lavoro per determinare l'eziologia con un'ipotesi di possibile intossicazione da solventi in mente (Wang 1991).
La nostra pratica comune, tuttavia, era quella di considerare tutte le congetture alternative, inclusi altri problemi medici tra cui la funzione compromessa dei motoneuroni superiori, dei motoneuroni inferiori e della giunzione neuromuscolare. Ancora una volta, abbiamo dedotto dichiarazioni di risultato dalle ipotesi di cui sopra. Per esempio, se la causa fosse qualsiasi solvente segnalato per produrre polineuropatia (p. es., n-esano, metil butilchetone, acrilammide), comprometterebbe anche la velocità di conduzione nervosa (NCV); se si trattasse di altri problemi medici che coinvolgono i motoneuroni superiori, ci sarebbero segni di alterazione della coscienza e/o movimento involontario.
Le osservazioni sul campo hanno rivelato che tutti i lavoratori interessati avevano una chiara coscienza durante tutto il decorso clinico. Uno studio NCV su tre lavoratori affetti ha mostrato neuroni motori inferiori intatti. Non c'erano movimenti involontari, nessuna storia di farmaci o morsi prima della comparsa dei sintomi e il test della neostigmina era negativo. È stata riscontrata un'associazione significativa tra la malattia e il consumo della colazione nella mensa aziendale il 26 o 27 settembre; sette dei sette lavoratori interessati contro sette dei 32 lavoratori non interessati hanno fatto colazione in fabbrica in questi due giorni. Un ulteriore sforzo di test ha dimostrato che la tossina botulinica di tipo A è stata rilevata nelle arachidi in scatola prodotte da un'azienda senza licenza e il suo campione ha anche mostrato una crescita completa di Clostridium botulinum. Un'ultima prova di confutazione è stata la rimozione di tali prodotti dal mercato commerciale, che non ha portato a nuovi casi. Questa indagine ha documentato i primi casi di botulismo da un prodotto alimentare commerciale a Taiwan.
Lesioni cutanee precancerose tra i produttori di paraquat
Nel giugno 1983, due operai di una fabbrica di produzione di paraquat visitarono una clinica dermatologica lamentando numerose macule iperpigmentate bilaterali con alterazioni ipercheratosiche su parti delle mani, del collo e del viso esposte al sole. Alcuni campioni di pelle mostravano anche cambiamenti di Bowenoid. Poiché sono state segnalate lesioni cutanee maligne e precancerose tra i lavoratori della produzione di bipiridile, si sospettava fortemente una causa professionale. Tuttavia, abbiamo dovuto considerare anche altre cause alternative (o ipotesi) di cancro della pelle come l'esposizione a radiazioni ionizzanti, catrame di carbone, pece, fuliggine o altri idrocarburi poliaromatici (IPA). Per escludere tutte queste congetture, abbiamo condotto uno studio nel 1985, visitando tutte le 28 fabbriche che si sono mai impegnate nella produzione o confezionamento di paraquat ed esaminando i processi di produzione così come i lavoratori (Wang et al. 1987; Wang 1993).
Abbiamo esaminato 228 lavoratori e nessuno di loro era mai stato esposto ai suddetti agenti cancerogeni della pelle, ad eccezione della luce solare e della 4'-4'-bipiridina e dei suoi isomeri. Dopo aver escluso i lavoratori con esposizioni multiple, abbiamo scoperto che un amministratore su sette e due addetti all'imballaggio del paraquat su 82 hanno sviluppato lesioni cutanee iperpigmentate, rispetto a tre lavoratori su tre coinvolti solo nella cristallizzazione e centrifugazione della bipiridina. Inoltre, tutti i 17 lavoratori con lesioni ipercheratosiche o di Bowen avevano una storia di esposizione diretta al bipiridile e ai suoi isomeri. Più lunga è l'esposizione ai bipiridili, più è probabile lo sviluppo di lesioni cutanee e questa tendenza non può essere spiegata dalla luce solare o dall'età, come dimostrato dalla stratificazione e dall'analisi di regressione logistica. Quindi, la lesione cutanea è stata provvisoriamente attribuita a una combinazione di esposizioni al bipiridile e luce solare. Abbiamo fatto ulteriori tentativi di confutazione per seguire se si fosse verificato un nuovo caso dopo aver incluso tutti i processi che comportano l'esposizione ai bipiridili. Non è stato trovato alcun nuovo caso.
Discussione e conclusioni
I tre esempi precedenti hanno illustrato l'importanza di adottare un approccio confutativo e una banca dati delle malattie professionali. Il primo ci fa considerare ipotesi alternative sempre allo stesso modo dell'ipotesi intuitiva iniziale, mentre il secondo fornisce un elenco dettagliato di agenti chimici che possono guidarci verso la vera eziologia. Una possibile limitazione di questo approccio è che possiamo considerare solo quelle spiegazioni alternative che possiamo immaginare. Se il nostro elenco di alternative è incompleto, potremmo rimanere senza risposta o con una risposta sbagliata. Pertanto, un database completo delle malattie professionali è fondamentale per il successo di questa strategia.
Costruivamo il nostro database in modo laborioso. Tuttavia, i database OSH-ROM recentemente pubblicati, che contengono il database NIOSHTIC di oltre 160,000 abstract, possono essere uno dei più completi a tale scopo, come discusso altrove nel Enciclopedia. Inoltre, se si verifica una nuova malattia professionale, potremmo cercare in tale database ed escludere tutti gli agenti eziologici noti, senza lasciarne nessuno senza confutazione. In una situazione del genere, possiamo cercare di identificare o definire il nuovo agente (o contesto occupazionale) nel modo più specifico possibile in modo che il problema possa essere prima mitigato e quindi testare ulteriori ipotesi. Il caso delle lesioni cutanee precancerose tra i produttori di paraquat è un buon esempio di questo tipo.
Ruolo dei questionari nella ricerca epidemiologica
La ricerca epidemiologica viene generalmente svolta per rispondere a una specifica domanda di ricerca che riguarda l'esposizione di individui a sostanze o situazioni pericolose con conseguenti esiti per la salute, come il cancro o la morte. Al centro di quasi tutte le indagini di questo tipo c'è un questionario che costituisce lo strumento di base per la raccolta dei dati. Anche quando le misurazioni fisiche devono essere effettuate in un ambiente di lavoro, e specialmente quando i materiali biologici come il siero devono essere raccolti da soggetti di studio esposti o non esposti, un questionario è essenziale per sviluppare un quadro di esposizione adeguato raccogliendo sistematicamente dati personali e di altro tipo caratteristiche in modo organizzato e uniforme.
Il questionario svolge una serie di funzioni di ricerca critiche:
Luogo della progettazione del questionario all'interno degli obiettivi generali dello studio
Sebbene il questionario sia spesso la parte più visibile di uno studio epidemiologico, in particolare per i lavoratori o altri partecipanti allo studio, è solo uno strumento e in effetti viene spesso definito uno "strumento" dai ricercatori. La figura 1 illustra in modo molto generale le fasi della progettazione dell'indagine, dall'ideazione alla raccolta e all'analisi dei dati. La figura mostra quattro livelli o livelli di operazioni dello studio che procedono in parallelo per tutta la durata dello studio: campionamento, questionario, operazioni e analisi. La figura mostra abbastanza chiaramente il modo in cui le fasi di sviluppo del questionario sono correlate al piano di studi complessivo, procedendo da una bozza iniziale a una prima bozza sia del questionario che dei codici associati, seguita dal pretest all'interno di una sottopopolazione selezionata, uno o più revisioni dettate da esperienze pre-test, e preparazione del documento finale per la vera e propria raccolta dati sul campo. Ciò che è più importante è il contesto: ogni fase dello sviluppo del questionario viene eseguita in concomitanza con una fase corrispondente di creazione e perfezionamento del piano di campionamento complessivo, nonché del progetto operativo per la somministrazione del questionario.
Immagine 1. Le fasi di un sondaggio
Tipi di studi e questionari
Gli obiettivi di ricerca dello studio stesso determinano la struttura, la lunghezza e il contenuto del questionario. Questi attributi del questionario sono invariabilmente temperati dal metodo di raccolta dei dati, che di solito rientra in una delle tre modalità: di persona, per posta e per telefono. Ognuno di questi ha i suoi vantaggi e svantaggi che possono influenzare non solo la qualità dei dati ma anche la validità dello studio complessivo.
A questionario spedito è il formato meno costoso e può coprire i lavoratori in un'ampia area geografica. Tuttavia, poiché i tassi di risposta complessivi sono spesso bassi (in genere dal 45 al 75%), non può essere eccessivamente complesso poiché vi è poca o nessuna possibilità di chiarire le domande e può essere difficile accertare se le potenziali risposte all'esposizione critica o ad altri le domande differiscono sistematicamente tra rispondenti e non rispondenti. La disposizione fisica e la lingua devono soddisfare i potenziali partecipanti allo studio meno istruiti e devono essere in grado di completarsi in un periodo di tempo abbastanza breve, in genere da 20 a 30 minuti.
Questionari telefonici possono essere utilizzati negli studi basati sulla popolazione, ovvero sondaggi in cui viene esaminato un campione di una popolazione geograficamente definita, e rappresentano un metodo pratico per aggiornare le informazioni nei file di dati esistenti. Possono essere più lunghi e più complessi dei questionari inviati per posta in termini di lingua e contenuto e, poiché sono somministrati da intervistatori qualificati, il maggior costo di un sondaggio telefonico può essere parzialmente compensato strutturando fisicamente il questionario per un'amministrazione efficiente (ad esempio attraverso schemi di salto). I tassi di risposta sono generalmente migliori rispetto ai questionari inviati per posta, ma sono soggetti a distorsioni legate all'uso crescente di segreterie telefoniche, rifiuti, mancati contatti e problemi delle popolazioni con un servizio telefonico limitato. Tali distorsioni generalmente si riferiscono al disegno di campionamento stesso e non in particolare al questionario. Sebbene i questionari telefonici siano in uso da tempo in Nord America, la loro fattibilità in altre parti del mondo deve ancora essere stabilita.
Faccia a faccia le interviste offrono la più grande opportunità per raccogliere dati accurati e complessi; sono anche i più costosi da amministrare, poiché richiedono sia la formazione che gli spostamenti del personale professionale. La disposizione fisica e l'ordine delle domande possono essere organizzati per ottimizzare i tempi di amministrazione. Gli studi che utilizzano interviste di persona generalmente hanno i tassi di risposta più elevati e sono soggetti al minor bias di risposta. Questo è anche il tipo di intervista in cui è più probabile che l'intervistatore apprenda se il partecipante è o meno un caso (in uno studio caso-controllo) o lo stato di esposizione del partecipante (in uno studio di coorte). Pertanto, occorre prestare attenzione a preservare l'obiettività dell'intervistatore addestrandolo a evitare domande guida e linguaggio del corpo che potrebbero evocare risposte distorte.
Sta diventando sempre più comune usare a disegno di studio ibrido in cui le situazioni di esposizione complesse vengono valutate in un colloquio personale o telefonico che consente il massimo sondaggio e chiarimento, seguito da un questionario inviato per posta per acquisire dati sullo stile di vita come il fumo e la dieta.
Riservatezza e problemi dei partecipanti alla ricerca
Poiché lo scopo di un questionario è ottenere dati sugli individui, la progettazione del questionario deve essere guidata da standard stabiliti per il trattamento etico dei soggetti umani. Queste linee guida si applicano all'acquisizione dei dati del questionario proprio come fanno per i campioni biologici come il sangue e l'urina, o per i test genetici. Negli Stati Uniti e in molti altri paesi, nessuno studio che coinvolga esseri umani può essere condotto con fondi pubblici a meno che non si ottenga prima l'approvazione del linguaggio e del contenuto del questionario da parte di un comitato di revisione istituzionale appropriato. Tale approvazione ha lo scopo di assicurare che le domande siano limitate a legittimi scopi di studio e che non violino i diritti dei partecipanti allo studio di rispondere volontariamente alle domande. I partecipanti devono essere certi che la loro partecipazione allo studio è interamente volontaria e che il rifiuto di rispondere alle domande o addirittura di partecipare non li sottoporrà ad alcuna sanzione né altererà il loro rapporto con il datore di lavoro o il medico.
I partecipanti devono inoltre essere certi che le informazioni che forniscono saranno mantenute strettamente riservate dall'investigatore, che deve ovviamente adottare misure per mantenere la sicurezza fisica e l'inviolabilità dei dati. Ciò comporta spesso la separazione fisica delle informazioni riguardanti l'identità dei partecipanti dai file di dati informatici. È pratica comune avvisare i partecipanti allo studio che le loro risposte agli elementi del questionario saranno utilizzate solo in aggregazione con le risposte di altri partecipanti nei rapporti statistici e non saranno divulgate al datore di lavoro, al medico o ad altre parti.
Aspetti di misurazione della progettazione del questionario
Una delle funzioni più importanti di un questionario è ottenere dati su alcuni aspetti o attributi di una persona in forma qualitativa o quantitativa. Alcuni elementi possono essere semplici come il peso, l'altezza o l'età, mentre altri possono essere considerevolmente più complicati, come la risposta di un individuo allo stress. Le risposte qualitative, come il genere, saranno normalmente convertite in variabili numeriche. Tutte queste misure possono essere caratterizzate dalla loro validità e affidabilità. La validità è il grado in cui un numero derivato da un questionario si avvicina al suo valore vero, ma possibilmente sconosciuto. L'affidabilità misura la probabilità che una data misurazione produca lo stesso risultato in caso di ripetizione, indipendentemente dal fatto che tale risultato sia vicino alla "verità" o meno. La Figura 2 mostra come questi concetti sono correlati. Dimostra che una misurazione può essere valida ma non affidabile, affidabile ma non valida o sia valida che affidabile.
Figura 2. Relazione di validità e affidabilità
Nel corso degli anni, molti questionari sono stati sviluppati dai ricercatori per rispondere a domande di ricerca di ampio interesse. Gli esempi includono lo Scholastic Aptitude Test, che misura il potenziale di uno studente per i futuri risultati accademici, e il Minnesota Multiphasic Personality Inventory (MMPI), che misura alcune caratteristiche psicosociali. Una varietà di altri indicatori psicologici è discussa nel capitolo sulla psicometria. Esistono anche scale fisiologiche stabilite, come il questionario del British Medical Research Council (BMRC) per la funzione polmonare. Questi strumenti presentano una serie di importanti vantaggi. Il principale tra questi è il fatto che sono già stati sviluppati e testati, di solito in molte popolazioni, e che la loro affidabilità e validità sono note. Si consiglia a chiunque costruisca un questionario di utilizzare tali scale se si adattano allo scopo dello studio. Non solo risparmiano lo sforzo di "reinventare la ruota", ma rendono più probabile che i risultati dello studio vengano accettati come validi dalla comunità di ricerca. Consente inoltre confronti più validi dei risultati di diversi studi, a condizione che siano stati utilizzati correttamente.
Le scale precedenti sono esempi di due importanti tipi di misure che vengono comunemente utilizzate nei questionari per quantificare concetti che potrebbero non essere completamente oggettivamente misurabili nel modo in cui lo sono altezza e peso, o che richiedono molte domande simili per "toccare completamente il dominio" di uno specifico modello comportamentale. Più in generale, indici e scale sono due tecniche di riduzione dei dati che forniscono un riepilogo numerico di gruppi di domande. Gli esempi sopra riportati illustrano indici fisiologici e psicologici e sono spesso utilizzati anche per misurare la conoscenza, l'atteggiamento e il comportamento. In breve, un Index è solitamente costruito come un punteggio ottenuto contando, all'interno di un gruppo di domande correlate, il numero di elementi che si applicano a un partecipante allo studio. Ad esempio, se un questionario presenta un elenco di malattie, un indice di storia della malattia potrebbe essere il numero totale di quelle che un intervistato afferma di aver avuto. UN scala è una misura composita basata sull'intensità con cui un partecipante risponde a una o più domande correlate. Ad esempio, la scala Likert, che è frequentemente utilizzata nella ricerca sociale, è tipicamente costruita da affermazioni con le quali si può essere fortemente d'accordo, debolmente d'accordo, non esprimere alcuna opinione, debolmente in disaccordo o fortemente in disaccordo, la risposta viene valutata come un numero da 1 a 5. Le scale e gli indici possono essere sommati o altrimenti combinati per formare un quadro abbastanza complesso delle caratteristiche fisiche, psicologiche, sociali o comportamentali dei partecipanti allo studio.
La validità merita una considerazione speciale perché riflette la “verità”. Tre importanti tipi di validità spesso discussi sono la validità di facciata, di contenuto e di criterio. Validità del viso è una qualità soggettiva di un indicatore che assicura che la formulazione di una domanda sia chiara e non ambigua. La validità dei contenuti assicura che le domande serviranno a toccare quella dimensione di risposta a cui il ricercatore è interessato. Criterio (o predittivo) validità è derivato da una valutazione obiettiva di quanto la misurazione di un questionario si avvicini a una quantità misurabile separatamente, come ad esempio quanto bene una valutazione del questionario dell'assunzione di vitamina A nella dieta corrisponda al consumo effettivo di vitamina A, sulla base del consumo di cibo come documentato con le registrazioni dietetiche.
Contenuto, qualità e lunghezza del questionario
Formulazione. La formulazione delle domande è sia un'arte che un'abilità professionale. Pertanto, è possibile presentare solo le linee guida più generali. È generalmente accettato che dovrebbero essere ideate domande che:
Sequenza e struttura delle domande. Sia l'ordine che la presentazione delle domande possono influenzare la qualità delle informazioni raccolte. Un tipico questionario, auto-somministrato o letto da un intervistatore, contiene un prologo che introduce lo studio e il suo argomento all'intervistato, fornisce tutte le informazioni aggiuntive di cui avrà bisogno e cerca di motivare l'intervistato a rispondere alle domande. La maggior parte dei questionari contiene una sezione progettata per raccogliere informazioni demografiche, come età, sesso, origine etnica e altre variabili relative al background del partecipante, incluse variabili potenzialmente confondenti. L'oggetto principale della raccolta dei dati, come la natura del posto di lavoro e l'esposizione a sostanze specifiche, è solitamente una sezione distinta del questionario, ed è spesso preceduta da un proprio prologo introduttivo che potrebbe prima ricordare al partecipante aspetti specifici del lavoro o sul posto di lavoro per creare un contesto per domande dettagliate. La disposizione delle domande volte a stabilire le cronologie della vita lavorativa dovrebbe essere organizzata in modo da ridurre al minimo il rischio di omissioni cronologiche. Infine, è consuetudine ringraziare l'intervistato per la sua partecipazione.
Tipi di domande. Il progettista deve decidere se utilizzare domande aperte in cui i partecipanti compongono le proprie risposte, o domande chiuse che richiedono una risposta definita o una scelta da un breve menu di possibili risposte. Le domande chiuse hanno il vantaggio di chiarire alternative per il rispondente, evitare risposte improvvise e ridurre al minimo lunghe divagazioni che potrebbero essere impossibili da interpretare. Tuttavia, richiedono che il progettista anticipi la gamma di potenziali risposte per evitare di perdere informazioni, in particolare per situazioni impreviste che si verificano in molti luoghi di lavoro. Ciò a sua volta richiede test pilota ben pianificati. L'investigatore deve decidere se e in che misura consentire una categoria di risposta “non so”.
Lunghezza. Determinare la lunghezza finale di un questionario richiede di trovare un equilibrio tra il desiderio di ottenere quante più informazioni dettagliate possibile per raggiungere gli obiettivi dello studio con il fatto che se un questionario è troppo lungo, a un certo punto molti intervistati perderanno interesse e smetteranno di rispondere o rispondere frettolosamente, in modo impreciso e senza pensiero per portare a termine la sessione. D'altra parte, un questionario molto breve può ottenere un alto tasso di risposta ma non raggiungere gli obiettivi dello studio. Poiché la motivazione degli intervistati spesso dipende dall'interesse personale nel risultato, come il miglioramento delle condizioni di lavoro, la tolleranza per un questionario lungo può variare notevolmente, soprattutto quando alcuni partecipanti (come i lavoratori di un particolare impianto) possono percepire che il loro interesse è superiore a altri (come persone contattate tramite numeri telefonici casuali). Questo equilibrio può essere raggiunto solo attraverso test pilota ed esperienza. I questionari somministrati dall'intervistatore dovrebbero registrare l'ora di inizio e di fine per consentire il calcolo della durata dell'intervista. Queste informazioni sono utili per valutare il livello di qualità dei dati.
Lingua. È fondamentale usare il linguaggio della popolazione per far capire a tutti le domande. Ciò potrebbe richiedere di acquisire familiarità con il vernacolo locale che può variare all'interno di un paese. Anche nei paesi in cui si parla nominalmente la stessa lingua, come la Gran Bretagna e gli Stati Uniti, o i paesi di lingua spagnola dell'America Latina, gli idiomi e l'uso locali possono variare in un modo che può oscurare l'interpretazione. Ad esempio, negli Stati Uniti "tè" è semplicemente una bevanda, mentre in Gran Bretagna può significare "una tazza di tè", "high tea" o "il pasto serale principale", a seconda del luogo e del contesto. È particolarmente importante evitare il gergo scientifico, tranne nei casi in cui ci si può aspettare che i partecipanti allo studio possiedano conoscenze tecniche specifiche.
Chiarezza e domande guida. Anche se spesso le domande più brevi sono più chiare, ci sono delle eccezioni, soprattutto quando è necessario introdurre un argomento complesso. Tuttavia, brevi domande chiariscono il pensiero e riducono le parole inutili. Riducono anche la possibilità di sovraccaricare il rispondente con troppe informazioni da digerire. Se lo scopo dello studio è ottenere informazioni obiettive sulla situazione lavorativa del partecipante, è importante formulare le domande in modo neutrale ed evitare domande "guida" che potrebbero favorire una risposta particolare, come "Convenite che il vostro posto di lavoro condizioni sono dannose per la tua salute?”
Schema del questionario. Il layout fisico di un questionario può influire sul costo e sull'efficienza di uno studio. È più importante per i questionari autosomministrati rispetto a quelli condotti dagli intervistatori. Un questionario progettato per essere compilato dall'intervistato ma che è eccessivamente complesso o difficile da leggere può essere compilato casualmente o addirittura scartato. Anche i questionari progettati per essere letti ad alta voce da intervistatori qualificati devono essere stampati in caratteri chiari e leggibili e gli schemi di salto delle domande devono essere indicati in modo da mantenere un flusso costante di domande e ridurre al minimo il voltare pagina e la ricerca della domanda successiva applicabile. domanda.
Preoccupazioni per la validità
Pregiudizio
Il nemico della raccolta di dati oggettivi è il pregiudizio, che deriva da differenze sistematiche ma non pianificate tra gruppi di persone: casi e controlli in uno studio caso-controllo o esposti e non esposti in uno studio di coorte. Bias informativo può essere introdotto quando due gruppi di partecipanti comprendono o rispondono in modo diverso alla stessa domanda. Ciò può verificarsi, ad esempio, se le domande sono poste in modo tale da richiedere una conoscenza tecnica specifica di un luogo di lavoro o delle sue esposizioni che sarebbero comprese dai lavoratori esposti ma non necessariamente dal pubblico in generale da cui provengono i controlli.
L'uso di surrogati per lavoratori malati o deceduti ha il potenziale per parzialità perché è probabile che i parenti stretti richiamino le informazioni in modi diversi e con minore accuratezza rispetto al lavoratore stesso. L'introduzione di tale pregiudizio è particolarmente probabile negli studi in cui alcune interviste sono condotte direttamente con i partecipanti allo studio mentre altre interviste sono condotte con parenti o colleghi di altri partecipanti alla ricerca. In entrambe le situazioni, occorre prestare attenzione per ridurre qualsiasi effetto che potrebbe derivare dalla conoscenza da parte dell'intervistatore della malattia o dello stato di esposizione del lavoratore di interesse. Poiché non è sempre possibile mantenere gli intervistatori "ciechi", è importante enfatizzare l'obiettività e l'evitamento di domande guida o suggestive o linguaggio del corpo inconscio durante la formazione e monitorare le prestazioni mentre lo studio è in corso.
Distorsioni della memoria risultati quando casi e controlli “ricordano” esposizioni o situazioni lavorative in modo diverso. I casi ospedalizzati con una potenziale malattia professionale correlata possono essere maggiormente in grado di ricordare i dettagli della loro storia medica o esposizioni professionali rispetto alle persone contattate casualmente al telefono. Un tipo di questo pregiudizio che sta diventando più comune è stato etichettato pregiudizio di desiderabilità sociale. Descrive la tendenza di molte persone a sottovalutare, consapevolmente o meno, la loro indulgenza in "cattive abitudini" come il fumo di sigaretta o il consumo di cibi ricchi di grassi e colesterolo, e a sopravvalutare "buone abitudini" come l'esercizio fisico.
Bias di risposta denota una situazione in cui un gruppo di partecipanti allo studio, come i lavoratori con una particolare esposizione professionale, può avere maggiori probabilità di completare i questionari o partecipare in altro modo a uno studio rispetto alle persone non esposte. Una tale situazione può comportare una stima distorta dell'associazione tra esposizione e malattia. Il bias di risposta può essere sospettato se i tassi di risposta o il tempo impiegato per completare un questionario o un'intervista differiscono sostanzialmente tra i gruppi (p. es., casi vs. controlli, esposti vs. non esposti). Il bias di risposta generalmente differisce a seconda della modalità di somministrazione del questionario. È più probabile che i questionari inviati per posta vengano restituiti da individui che vedono un interesse personale nei risultati dello studio ed è più probabile che vengano ignorati o scartati da persone selezionate a caso dalla popolazione generale. Molti investigatori che utilizzano i sondaggi per posta costruiscono anche un meccanismo di follow-up che può includere un secondo e un terzo invio, nonché successivi contatti telefonici con i non intervistati al fine di massimizzare i tassi di risposta.
Gli studi che utilizzano sondaggi telefonici, compresi quelli che fanno uso di numeri casuali per identificare i controlli, di solito hanno una serie di regole o un protocollo che definisce quante volte devono essere effettuati i tentativi di contattare i potenziali intervistati, inclusa l'ora del giorno e se la sera o le chiamate del fine settimana dovrebbero essere tentate. Coloro che conducono studi ospedalieri di solito registrano il numero di pazienti che si rifiutano di partecipare e le ragioni della mancata partecipazione. In tutti questi casi, varie misure di tassi di risposta sono registrati al fine di fornire una valutazione della misura in cui la popolazione target è stata effettivamente raggiunta.
Bias di selezione risultati quando un gruppo di partecipanti risponde preferenzialmente o partecipa in altro modo a uno studio e può comportare una stima distorta della relazione tra esposizione e malattia. Al fine di valutare il bias di selezione e se porta a sotto o sopravvalutazione dell'esposizione, è possibile utilizzare informazioni demografiche come il livello di istruzione per confrontare gli intervistati con i non intervistati. Ad esempio, se i partecipanti con scarsa istruzione hanno tassi di risposta inferiori rispetto ai partecipanti con un'istruzione superiore e se è noto che una particolare occupazione o abitudine al fumo è più frequente nei gruppi meno istruiti, allora bias di selezione con sottostima dell'esposizione per tale occupazione o categoria di fumatori è probabile che si sia verificato.
confondendo è un tipo importante di bias di selezione che si verifica quando la selezione dei rispondenti (casi e controlli in uno studio caso-controllo, o esposti e non esposti in uno studio di coorte) dipende in qualche modo da una terza variabile, a volte in un modo sconosciuto al investigatore. Se non identificato e controllato, può portare in modo imprevedibile a sottostima o sovrastima dei rischi di malattia associati alle esposizioni professionali. Il confondimento viene solitamente affrontato manipolando il disegno dello studio stesso (ad esempio, confrontando i casi con i controlli in base all'età e ad altre variabili) o nella fase dell'analisi. I dettagli di queste tecniche sono presentati in altri articoli all'interno di questo capitolo.
Documentazione
In qualsiasi studio di ricerca, tutte le procedure dello studio devono essere accuratamente documentate in modo che tutto il personale, compresi gli intervistatori, il personale di supervisione e i ricercatori, siano chiari sui rispettivi doveri. Nella maggior parte degli studi basati su questionari, a manuale di codifica è preparato che descrive domanda per domanda tutto ciò che l'intervistatore deve sapere al di là della formulazione letterale delle domande. Ciò include istruzioni per la codifica di risposte categoriche e può contenere istruzioni esplicite sul sondaggio, elencando le domande per le quali è consentito e quelle per le quali non lo è. In molti studi si incontrano occasionalmente sul campo scelte di risposta nuove e impreviste per determinate domande; questi devono essere registrati nel master codebook e copie di integrazioni, modifiche o nuove istruzioni distribuite tempestivamente a tutti gli intervistatori.
Progettazione, test e revisione
Come si può vedere dalla figura 1, lo sviluppo del questionario richiede molta attenzione pianificazione. Ogni questionario deve essere testato in più fasi per assicurarsi che le domande “funzionino”, cioè che siano comprensibili e producano risposte della qualità desiderata. È utile testare nuove domande sui volontari e poi interrogarli a lungo per determinare quanto bene sono state comprese domande specifiche e quali tipi di problemi o ambiguità sono stati incontrati. I risultati possono quindi essere utilizzati per rivedere il questionario, e la procedura può essere ripetuta se necessario. I volontari sono talvolta indicati come un "focus group".
Tutti gli studi epidemiologici richiedono test pilota, non solo per i questionari, ma anche per le procedure di studio. Un questionario ben progettato serve al suo scopo solo se può essere consegnato in modo efficiente ai partecipanti allo studio, e questo può essere determinato solo testando le procedure sul campo e apportando modifiche quando necessario.
Formazione e supervisione degli intervistatori
Negli studi condotti tramite interviste telefoniche o faccia a faccia, l'intervistatore svolge un ruolo fondamentale. Questa persona è responsabile non solo di presentare domande ai partecipanti allo studio e di registrare le loro risposte, ma anche di interpretare tali risposte. Anche con lo studio dell'intervista più rigidamente strutturato, gli intervistati occasionalmente richiedono chiarimenti sulle domande o offrono risposte che non rientrano nelle categorie di risposta disponibili. In tali casi il compito dell'intervistatore è interpretare la domanda o la risposta in modo coerente con l'intento del ricercatore. Per farlo in modo efficace e coerente è necessaria la formazione e la supervisione di un ricercatore esperto o di un manager. Quando più di un intervistatore è impiegato in uno studio, la formazione dell'intervistatore è particolarmente importante per assicurare che le domande siano presentate e le risposte interpretate in modo uniforme. In molti progetti di ricerca ciò viene realizzato in contesti di formazione di gruppo e viene ripetuto periodicamente (ad esempio, annualmente) al fine di mantenere fresche le competenze degli intervistatori. I seminari di formazione trattano comunemente i seguenti argomenti in modo molto dettagliato:
La supervisione dello studio spesso comporta l'osservazione in loco, che può includere la registrazione su nastro di interviste per la successiva dissezione. È prassi comune che il supervisore esamini personalmente ogni questionario prima di approvarlo e sottoporlo all'inserimento dei dati. Il supervisore stabilisce e applica anche standard di prestazione per gli intervistatori e in alcuni studi conduce nuovamente interviste indipendenti con partecipanti selezionati come controllo di affidabilità.
Raccolta dei dati
La distribuzione vera e propria dei questionari ai partecipanti allo studio e la successiva raccolta per l'analisi viene effettuata utilizzando una delle tre modalità sopra descritte: per posta, per telefono o di persona. Alcuni ricercatori organizzano e svolgono anche loro stessi questa funzione all'interno delle proprie istituzioni. Sebbene vi sia un notevole merito per un investigatore senior che acquisisca familiarità con le dinamiche dell'intervista in prima persona, è più conveniente e favorevole al mantenimento di un'elevata qualità dei dati per intervistatori professionisti addestrati e ben controllati da includere come parte del gruppo di ricerca .
Alcuni ricercatori stipulano accordi contrattuali con società specializzate nella ricerca tramite sondaggi. Gli appaltatori possono fornire una gamma di servizi che possono includere uno o più dei seguenti compiti: distribuzione e raccolta di questionari, svolgimento di interviste telefoniche o faccia a faccia, ottenimento di campioni biologici come sangue o urina, gestione dei dati e analisi statistiche e scrittura del rapporto. Indipendentemente dal livello di supporto, gli appaltatori sono generalmente responsabili di fornire informazioni sui tassi di risposta e sulla qualità dei dati. Tuttavia, è il ricercatore che ha la responsabilità finale dell'integrità scientifica dello studio.
Affidabilità e re-interviste
La qualità dei dati può essere valutata intervistando nuovamente un campione dei partecipanti allo studio originale. Ciò fornisce un mezzo per determinare l'affidabilità delle interviste iniziali e una stima della ripetibilità delle risposte. Non è necessario somministrare nuovamente l'intero questionario; un sottoinsieme di domande di solito è sufficiente. Sono disponibili test statistici per valutare l'attendibilità di una serie di domande poste allo stesso partecipante in momenti diversi, nonché per valutare l'attendibilità delle risposte fornite da diversi partecipanti e anche per quelle poste da diversi intervistatori (ad es. valutazioni del valutatore).
Tecnologia di elaborazione del questionario
I progressi nella tecnologia informatica hanno creato molti modi diversi in cui i dati del questionario possono essere acquisiti e resi disponibili al ricercatore per l'analisi al computer. Ci sono tre modi fondamentalmente diversi in cui i dati possono essere informatizzati: in tempo reale (cioè, mentre il partecipante risponde durante un'intervista), con metodi tradizionali di inserimento chiave e con metodi di acquisizione ottica dei dati.
Acquisizione dati assistita da computer
Molti ricercatori ora usano i computer per raccogliere le risposte alle domande poste sia in interviste faccia a faccia che telefoniche. I ricercatori del settore trovano conveniente utilizzare computer portatili che sono stati programmati per visualizzare le domande in sequenza e che consentono all'intervistatore di inserire immediatamente la risposta. Le società di ricerca di sondaggi che effettuano interviste telefoniche hanno sviluppato sistemi analoghi chiamati sistemi di interviste telefoniche assistite da computer (CATI). Questi metodi hanno due importanti vantaggi rispetto ai più tradizionali questionari cartacei. In primo luogo, le risposte possono essere immediatamente confrontate con una gamma di risposte consentite e per coerenza con le risposte precedenti, e le discrepanze possono essere immediatamente portate all'attenzione sia dell'intervistatore che del rispondente. Ciò riduce notevolmente il tasso di errore. In secondo luogo, i modelli di salto possono essere programmati per ridurre al minimo i tempi di amministrazione.
Il metodo più diffuso per l'informatizzazione dei dati è ancora quello tradizionale ingresso chiave da un operatore addestrato. Per studi molto ampi, i questionari vengono solitamente inviati a una società a contratto professionale specializzata nell'acquisizione di dati. Queste aziende utilizzano spesso attrezzature specializzate che consentono a un operatore di digitare un questionario (una procedura talvolta chiamata keypunch per motivi storici) e un secondo operatore per reimpostare gli stessi dati, un processo chiamato verifica chiave. I risultati della seconda digitazione vengono confrontati con il primo per assicurare che i dati siano stati inseriti correttamente. È possibile programmare procedure di garanzia della qualità che assicurino che ciascuna risposta rientri in un intervallo consentito e che sia coerente con altre risposte. I file di dati risultanti possono essere trasmessi al ricercatore su disco, nastro o elettronicamente tramite telefono o altra rete di computer.
Per gli studi più piccoli, esistono numerosi programmi commerciali basati su PC dotati di funzionalità di immissione dati che emulano quelle di sistemi più specializzati. Questi includono programmi di database come dBase, Foxpro e Microsoft Access, nonché fogli di calcolo come Microsoft Excel e Lotus 1-2-3. Inoltre, le funzionalità di immissione dei dati sono incluse in molti pacchetti di programmi per computer il cui scopo principale è l'analisi dei dati statistici, come SPSS, BMDP e EPI INFO.
Un metodo diffuso di acquisizione dei dati che funziona bene per alcuni questionari specializzati utilizza sistemi ottici. Lettura ottica del segno o il rilevamento ottico viene utilizzato per leggere le risposte ai questionari appositamente progettati per consentire ai partecipanti di inserire dati contrassegnando piccoli rettangoli o cerchi (a volte chiamati "codici a bolle"). Questi funzionano in modo più efficiente quando ogni individuo completa il proprio questionario. Apparecchiature più sofisticate e costose possono leggere caratteri stampati a mano, ma al momento questa non è una tecnica efficiente per acquisire dati in studi su larga scala.
Archiviazione di questionari e manuali di codifica
Poiché le informazioni sono una risorsa preziosa ed è soggetta a interpretazione e altre influenze, ai ricercatori a volte viene chiesto di condividere i propri dati con altri ricercatori. La richiesta di condivisione dei dati può essere motivata da una serie di motivi, che possono variare da un sincero interesse a replicare un report alla preoccupazione che i dati potrebbero non essere stati analizzati o interpretati correttamente.
Laddove si sospetti o si presuma la falsificazione o la falsificazione dei dati, diventa essenziale che le registrazioni originali su cui si basano i risultati riportati siano disponibili ai fini dell'audit. Oltre ai questionari originali e/o ai file informatici dei dati grezzi, il ricercatore deve essere in grado di fornire per la revisione il/i manuale/i di codifica sviluppato/i per lo studio e il/i registro/i di tutte le modifiche ai dati apportate durante il corso di codifica, informatizzazione e analisi dei dati. Ad esempio, se un valore di dati era stato alterato perché inizialmente era apparso come un valore anomalo, allora una registrazione della modifica e le ragioni per effettuare la modifica avrebbero dovuto essere registrate nel registro per possibili scopi di controllo dei dati. Tali informazioni sono utili anche al momento della redazione del rapporto perché servono come promemoria su come sono stati effettivamente gestiti i dati che hanno dato origine ai rilievi riportati.
Per questi motivi, al termine di uno studio, il ricercatore ha l'obbligo di garantire che tutti i dati di base siano adeguatamente archiviati per un periodo di tempo ragionevole e che possano essere recuperati qualora il ricercatore fosse chiamato a fornirli.
Diversi esempi di pericoli sul luogo di lavoro sono spesso citati per esemplificare non solo i possibili effetti avversi sulla salute associati alle esposizioni sul luogo di lavoro, ma anche per rivelare come un approccio sistematico allo studio delle popolazioni lavoratrici possa scoprire importanti relazioni esposizione-malattia. Uno di questi esempi è quello dell'amianto. La semplice eleganza con cui il defunto dottor Irving J. Selikoff ha dimostrato l'elevato rischio di cancro tra i lavoratori dell'amianto è stata documentata in un articolo di Lawrence Garfinkel. Viene qui ristampato con solo lievi modifiche e con il permesso del CA-A Cancer Journal for Clinicians (Garfinkel 1984). Le tabelle provenivano dall'articolo originale del Dr. Selikoff e collaboratori (1964).
L'esposizione all'amianto è diventata un problema di salute pubblica di notevole entità, con ramificazioni che si estendono oltre il campo immediato degli operatori sanitari fino alle aree servite da legislatori, giudici, avvocati, educatori e altri leader della comunità interessati. Di conseguenza, le malattie legate all'amianto sono motivo di crescente preoccupazione per i medici e le autorità sanitarie, nonché per i consumatori e il pubblico in generale.
Sfondo storico
L'amianto è un minerale molto utile che è stato utilizzato in modi diversi per molti secoli. Studi archeologici in Finlandia hanno mostrato prove di fibre di amianto incorporate nella ceramica fin dal 2500 a.C. Nel V secolo a.C. veniva utilizzato come stoppino per le lampade. Erodoto commentò l'uso del panno di amianto per la cremazione intorno al 5 a.C. L'amianto è stato utilizzato nei giubbotti antiproiettile nel XV secolo e nella produzione di tessuti, guanti, calze e borsette in Russia c. 1720. Sebbene non sia chiaro quando si sviluppò l'arte della tessitura dell'amianto, sappiamo che gli antichi spesso tessevano l'amianto con il lino. La produzione commerciale di amianto iniziò in Italia intorno al 1850, nella fabbricazione di carta e stoffa.
Lo sviluppo dell'estrazione dell'amianto in Canada e Sud Africa intorno al 1880 ridusse i costi e stimolò la produzione di prodotti in amianto. Subito dopo sono seguite l'estrazione e la produzione di amianto negli Stati Uniti, in Italia e in Russia. Negli Stati Uniti, lo sviluppo dell'amianto come isolante dei tubi ha aumentato la produzione ed è stato seguito poco dopo da altri vari usi tra cui guarnizioni dei freni, tubi di cemento, indumenti protettivi e così via.
La produzione negli Stati Uniti è aumentata da circa 6,000 tonnellate nel 1900 a 650,000 tonnellate nel 1975, anche se nel 1982 era di circa 300,000 tonnellate e nel 1994 la produzione era scesa a 33,000 tonnellate.
Si narra che Plinio il Giovane (61-113 dC) commentò la malattia degli schiavi che lavoravano con l'amianto. Il riferimento alla malattia professionale associata all'attività mineraria apparve nel XVI secolo, ma fu solo nel 16 in Inghilterra che apparve il primo riferimento alla fibrosi polmonare in un lavoratore dell'amianto. L'eccesso di decessi nei lavoratori coinvolti nelle applicazioni di produzione dell'amianto fu segnalato poco dopo in Francia e in Italia, ma il principale riconoscimento della malattia indotta dall'amianto iniziò in Inghilterra nel 1906. Nel 1924, Wood e Gloyne avevano riferito di 1930 casi di fibrosi polmonare.
Il primo riferimento al carcinoma del polmone in un paziente con “asbestos-silicosis” apparve nel 1935. Seguirono diversi altri casi clinici. Nel 1947, 1949 e 1951 apparvero segnalazioni di alte percentuali di cancro al polmone in pazienti deceduti per asbestosi. rischio in coloro che sono stati impiegati più di 1955 anni.
Osservazioni cliniche
Fu in questo contesto che iniziarono le osservazioni cliniche del Dr. Irving Selikoff sulle malattie correlate all'amianto. Il dottor Selikoff era già a quel tempo un illustre scienziato. I suoi precedenti successi includevano lo sviluppo e il primo utilizzo dell'isoniazide nel trattamento della tubercolosi, per il quale ricevette un Lasker Award nel 1952.
All'inizio degli anni '1960, come medico del torace che esercitava a Paterson, nel New Jersey, aveva osservato molti casi di cancro ai polmoni tra i lavoratori in una fabbrica di amianto della zona. Decise di estendere le sue osservazioni a due membri locali del sindacato dei lavoratori degli isolatori di amianto, i cui membri erano stati anch'essi esposti alle fibre di amianto. Ha riconosciuto che c'erano ancora molte persone che non credevano che il cancro ai polmoni fosse correlato all'esposizione all'amianto e che solo uno studio approfondito di una popolazione totale esposta poteva convincerli. C'era la possibilità che l'esposizione all'amianto nella popolazione potesse essere correlata ad altri tipi di cancro, come il mesotelioma pleurico e peritoneale, come era stato suggerito in alcuni studi, e forse anche in altri siti. La maggior parte degli studi sugli effetti sulla salute dell'amianto in passato riguardava i lavoratori esposti nell'estrazione e nella produzione di amianto. Era importante sapere se l'inalazione di amianto colpisse anche altri gruppi esposti all'amianto.
Il dottor Selikoff aveva sentito parlare dei risultati del dottor E. Cuyler Hammond, allora direttore della sezione di ricerca statistica dell'American Cancer Society (ACS), e decise di chiedergli di collaborare alla progettazione e all'analisi di uno studio. Era stato il dottor Hammond a scrivere lo storico studio prospettico su fumo e salute pubblicato alcuni anni prima.
Il Dr. Hammond vide immediatamente la potenziale importanza di uno studio sui lavoratori dell'amianto. Sebbene fosse impegnato nell'analisi dei dati dell'allora nuovo studio prospettico ACS, Cancer Prevention Study I (CPS I), che aveva iniziato alcuni anni prima, accettò prontamente una collaborazione nel suo "tempo libero". Suggerisce di circoscrivere l'analisi a quei lavoratori con almeno 20 anni di esperienza lavorativa, che quindi avrebbero avuto la maggiore esposizione all'amianto.
Al team si è unita la signora Janet Kaffenburgh, una ricercatrice associata del dottor Selikoff al Mount Sinai Hospital, che ha lavorato con il dottor Hammond nella preparazione degli elenchi degli uomini nello studio, comprese le loro età e date di impiego e nell'ottenere i dati sui fatti e le cause di morte dagli atti delle sedi sindacali. Queste informazioni sono state successivamente trasferite su schede che sono state ordinate letteralmente sul pavimento del soggiorno della casa del dottor Hammond dal dottor Hammond e dalla signora Kaffenburgh.
Il dottor Jacob Churg, un patologo del Barnert Memorial Hospital Center di Paterson, nel New Jersey, ha fornito una verifica patologica della causa della morte.
Tabe 1. Anni-uomo di esperienza di 632 lavoratori dell'amianto esposti alla polvere di amianto 20 anni o più
Età |
Periodo di tempo |
|||
1943-47 |
1948-52 |
1953-57 |
1958-62 |
|
35-39 |
85.0 |
185.0 |
7.0 |
11.0 |
40-44 |
230.5 |
486.5 |
291.5 |
70.0 |
45-49 |
339.5 |
324.0 |
530.0 |
314.5 |
50-54 |
391.5 |
364.0 |
308.0 |
502.5 |
55-59 |
382.0 |
390.0 |
316.0 |
268.5 |
60-64 |
221.0 |
341.5 |
344.0 |
255.0 |
65-69 |
139.0 |
181.0 |
286.0 |
280.0 |
70-74 |
83.0 |
115.5 |
137.0 |
197.5 |
75-79 |
31.5 |
70.0 |
70.5 |
75.0 |
80-84 |
5.5 |
18.5 |
38.5 |
23.5 |
85+ |
3.5 |
2.0 |
8.0 |
13.5 |
Totale |
1,912.0 |
2,478.0 |
2,336.5 |
2,011.0 |
Lo studio risultante era del tipo classificato come “studio prospettico condotto retrospettivamente”. La natura dei registri sindacali ha permesso di realizzare un'analisi di uno studio a lungo raggio in un periodo di tempo relativamente breve. Anche se solo 632 uomini sono stati coinvolti nello studio, ci sono stati 8,737 anni-uomo di esposizione al rischio (vedi tabella 1); 255 decessi si sono verificati durante il periodo di osservazione di 20 anni dal 1943 al 1962 (vedi tabella 2). È nella tabella 28.17 che si può vedere che il numero osservato di decessi supera invariabilmente il numero previsto, dimostrando l'associazione tra l'esposizione all'amianto sul posto di lavoro e un elevato tasso di mortalità per cancro.
Tabella 2. Numero osservato e previsto di decessi tra 632 lavoratori dell'amianto esposti alla polvere di amianto per 20 anni o più
Causa di morte |
Periodo di tempo |
Totale |
|||
1943-47 |
1948-52 |
1953-57 |
1958-62 |
1943-62 |
|
Totale, tutte le cause |
|||||
Osservato (lavoratori dell'amianto) |
28.0 |
54.0 |
85.0 |
88.0 |
255.0 |
Previsto (maschi bianchi statunitensi) |
39.7 |
50.8 |
56.6 |
54.4 |
203.5 |
Cancro totale, tutti i siti |
|||||
Osservato (lavoratori dell'amianto) |
13.0 |
17.0 |
26.0 |
39.0 |
95.0 |
Previsto (maschi bianchi statunitensi) |
5.7 |
8.1 |
13.0 |
9.7 |
36.5 |
Cancro del polmone e della pleura |
|||||
Osservato (lavoratori dell'amianto) |
6.0 |
8.0 |
13.0 |
18.0 |
45.0 |
Previsto (maschi bianchi statunitensi) |
0.8 |
1.4 |
2.0 |
2.4 |
6.6 |
Cancro dello stomaco, del colon e del retto |
|||||
Osservato (lavoratori dell'amianto) |
4.0 |
4.0 |
7.0 |
14.0 |
29.0 |
Previsto (maschi bianchi statunitensi) |
2.0 |
2.5 |
2.6 |
2.3 |
9.4 |
Cancro di tutti gli altri siti combinati |
|||||
Osservato (lavoratori dell'amianto) |
3.0 |
5.0 |
6.0 |
7.0 |
21.0 |
Previsto (maschi bianchi statunitensi) |
2.9 |
4.2 |
8.4 |
5.0 |
20.5 |
Significato dell'opera
Questo documento ha costituito un punto di svolta nella nostra conoscenza delle malattie legate all'amianto e ha stabilito la direzione della ricerca futura. L'articolo è stato citato in pubblicazioni scientifiche almeno 261 volte da quando è stato originariamente pubblicato. Con il sostegno finanziario dell'ACS e del National Institutes of Health, il dottor Selikoff e il dottor Hammond e il loro crescente team di mineralogisti, medici del torace, radiologi, patologi, igienisti ed epidemiologi hanno continuato a esplorare vari aspetti della malattia dell'amianto.
Un importante articolo del 1968 riportava l'effetto sinergico del fumo di sigaretta sull'esposizione all'amianto (Selikoff, Hammond e Churg 1968). Gli studi sono stati ampliati per includere i lavoratori della produzione di amianto, le persone indirettamente esposte all'amianto nel loro lavoro (lavoratori dei cantieri navali, per esempio) e quelli con esposizione familiare all'amianto.
In un'analisi successiva, alla quale si è unito il team di Herbert Seidman, MBA, Assistant Vice President for Epidemiology and Statistics dell'American Cancer Society, il gruppo ha dimostrato che anche un'esposizione a breve termine all'amianto ha provocato un significativo aumento del rischio di cancro fino a 30 anni dopo (Seidman, Selikoff e Hammond 1979). C'erano solo tre casi di mesotelioma in questo primo studio su 632 isolanti, ma indagini successive hanno mostrato che l'8% di tutti i decessi tra i lavoratori dell'amianto era dovuto al mesotelioma pleurico e peritoneale.
Con l'espandersi delle indagini scientifiche del dottor Selikoff, lui ei suoi collaboratori hanno dato notevoli contributi alla riduzione dell'esposizione all'amianto attraverso innovazioni nelle tecniche di igiene industriale; convincendo i legislatori circa l'urgenza del problema dell'amianto; nella valutazione dei problemi dei pagamenti di invalidità in connessione con la malattia dell'amianto; e nello studio della distribuzione generale delle particelle di amianto nelle riserve idriche e nell'aria ambiente.
Il Dr. Selikoff ha anche richiamato l'attenzione della comunità medico-scientifica sul problema dell'amianto, organizzando convegni sull'argomento e partecipando a numerosi incontri scientifici. Molti dei suoi incontri di orientamento sul problema della malattia da amianto erano strutturati in particolare per avvocati, giudici, presidenti di grandi aziende e dirigenti assicurativi.
Carico di lavoro mentale contro fisico
Il concetto di carico di lavoro mentale (MWL) è diventato sempre più importante poiché le moderne tecnologie semiautomatiche e computerizzate possono imporre severi requisiti alle capacità mentali o di elaborazione delle informazioni umane all'interno di compiti sia di produzione che amministrativi. Pertanto, specialmente per i domini dell'analisi del lavoro, della valutazione dei requisiti del lavoro e della progettazione del lavoro, la concettualizzazione del carico di lavoro mentale è diventata ancora più importante di quella del tradizionale carico di lavoro fisico.
Definizioni di carico di lavoro mentale
Non esiste una definizione concordata di carico di lavoro mentale. Il motivo principale è che esistono almeno due approcci e definizioni teoricamente ben fondati: (1) MWL visto in termini di requisiti del compito come una variabile esterna indipendente con cui i soggetti che lavorano devono far fronte in modo più o meno efficiente, e (2) MWL come definito in termini di interazione tra requisiti del compito e capacità o risorse umane (Hancock e Chignell 1986; Welford 1986; Wieland-Eckelmann 1992).
Pur nascendo da contesti diversi, entrambi gli approcci offrono contributi necessari e fondati a problemi diversi.
I requisiti risorse interazione Questo approccio è stato sviluppato nel contesto delle teorie di adattamento/disadattamento personalità-ambiente che cercano di spiegare le diverse risposte interindividuali a condizioni e requisiti fisici e psicosociali identici. Pertanto, questo approccio può spiegare le differenze individuali nei modelli delle risposte soggettive ai requisiti e alle condizioni di carico, ad esempio, in termini di affaticamento, monotonia, avversione affettiva, esaurimento o malattie (Gopher e Donchin 1986; Hancock e Meshkati 1988).
I requisiti del compito approccio è stato sviluppato all'interno di quelle parti della psicologia del lavoro e dell'ergonomia che sono prevalentemente impegnate nella progettazione dei compiti, in particolare nella progettazione di compiti futuri nuovi e non sperimentati, o cosiddetti progettazione del compito prospettico. Lo sfondo qui è il concetto di stress-deformazione. I requisiti del compito costituiscono lo stress ei soggetti che lavorano cercano di adattarsi o di far fronte alle richieste proprio come farebbero con altre forme di stress (Hancock e Chignell 1986). Questo approccio ai requisiti delle attività cerca di rispondere alla domanda su come progettare le attività in anticipo al fine di ottimizzare il loro impatto successivo sui dipendenti, spesso ancora sconosciuti, che eseguiranno queste attività future.
Ci sono almeno alcune caratteristiche comuni di entrambe le concettualizzazioni di MWL.
Approcci teorici: approcci requisiti-risorse
Dal punto di vista dell'adattamento persona-ambiente, il MWL e le sue conseguenze possono essere approssimativamente classificati, come mostrato nella figura 1, in sottocarico, carico di adattamento appropriato e sovraccarico. Questa categorizzazione risulta dalle relazioni tra i requisiti del compito e le capacità o risorse mentali. I requisiti del compito possono superare, adattarsi o non essere soddisfatti dalle risorse. Entrambi i tipi di disadattamento possono derivare da modalità quantitative o qualitative di disadattamento e avranno conseguenze qualitativamente diverse, ma comunque negative (vedi figura 1).
Figura 1. Tipi e conseguenze delle relazioni requisiti-risorse
Alcune teorie tentano di definire MWL partendo dal lato delle risorse o delle capacità dei requisiti, vale a dire le relazioni delle risorse. Queste teorie sulle risorse potrebbero essere suddivise in teorie sul volume delle risorse e sull'allocazione delle risorse (Wieland-Eckelmann 1992). La quantità di capacità disponibile può provenire da un'unica fonte (singolo teorie delle risorse) che determina l'elaborazione. La disponibilità di questa risorsa varia con l'eccitazione (Kahneman 1973). Moderno multiplo le teorie delle risorse suppongono un insieme di risorse di elaborazione relativamente indipendenti. Pertanto, le prestazioni dipenderanno dalla condizione se la stessa risorsa o risorse diverse sono richieste simultaneamente e contemporaneamente. Risorse diverse sono, ad esempio, risorse di codifica, elaborazione o risposta (Gopher e Donchin 1986; Welford 1986). Il problema più critico per questi tipi di teorie è l'identificazione affidabile di una o più capacità ben definite per operazioni di elaborazione qualitativamente differenti.
Le teorie sull'allocazione delle risorse suppongono un'elaborazione che cambia qualitativamente in funzione di strategie diverse. A seconda delle strategie, diversi processi mentali e rappresentazioni possono essere applicati per la realizzazione del compito. Pertanto, non il volume delle risorse stabili, ma le strategie di allocazione flessibili diventano il punto chiave di interesse. Anche in questo caso, tuttavia, restano da rispondere questioni essenziali, soprattutto relative ai metodi di diagnosi delle strategie.
Valutazione del MWL: utilizzo di approcci requisito-risorsa
Una misurazione rigorosa del MWL al momento sarebbe impossibile in quanto mancano unità di misura ben definite. Ma, certo, la concettualizzazione e gli strumenti per una valutazione dovrebbero soddisfare i criteri generali di qualità degli approcci diagnostici, che hanno oggettività, affidabilità, validità e utilità. Tuttavia, al momento, si sa solo poco sulla qualità complessiva delle tecniche o degli strumenti proposti.
Esiste un numero considerevole di ragioni per le rimanenti difficoltà nel valutare il MWL secondo gli approcci requisito-risorsa (O'Donnell e Eggemeier 1986). Un tentativo di valutazione MWL deve far fronte a domande come le seguenti: il compito è autointenzionale, segue obiettivi prefissati o è diretto con riferimento a un ordine definito dall'esterno? Che tipo di capacità (elaborazione intellettuale cosciente, applicazione della conoscenza tacita, ecc.) sono richieste e sono richiamate simultaneamente o in sequenza? Sono disponibili diverse strategie e, in caso affermativo, quali? Quali meccanismi di coping di una persona che lavora potrebbero essere richiesti?
Gli approcci più spesso discussi cercano di valutare il MWL in termini di:
Entrambi gli approcci sono fortemente dipendenti dai presupposti delle teorie della singola risorsa e di conseguenza devono lottare con le domande sopra menzionate.
Valutazione dello sforzo. Tali tecniche di valutazione dello sforzo come, ad esempio, la procedura di scaling applicata a un correlato percepito del attivazione centrale generale, sviluppati e convalidati da Bartenwerfer (1970), offrono scale verbali che possono essere completate da scale grafiche e che valutano la parte unidimensionalmente variabile dello sforzo percepito richiesto durante l'esecuzione del compito. I soggetti sono invitati a descrivere il loro sforzo percepito mediante uno dei gradini della scala fornita.
I criteri di qualità sopra menzionati sono soddisfatti da questa tecnica. I suoi limiti includono l'unidimensionalità della scala, che copre una parte essenziale ma discutibile dello sforzo percepito; la possibilità limitata o assente di prevedere gli esiti percepiti del compito personale, ad esempio, in termini di stanchezza, noia o ansia; e in particolare il carattere altamente astratto o formale dello sforzo che identificherà e spiegherà quasi nulla degli aspetti dipendenti dal contenuto di MWL come, ad esempio, eventuali possibili applicazioni utili della qualifica o delle opzioni di apprendimento.
Valutazione della capacità mentale. La valutazione della capacità mentale consiste nelle tecniche del doppio compito e in una relativa procedura di interpretazione dei dati, chiamata caratteristica operativa delle prestazioni (POC). Le tecniche dual task coprono diverse procedure. La loro caratteristica comune è che ai soggetti viene richiesto di svolgere due compiti contemporaneamente. L'ipotesi cruciale è: meno un compito aggiuntivo o secondario nella situazione di compito doppio si deteriorerà rispetto alla situazione di compito singolo di base, minori saranno i requisiti di capacità mentale del compito primario e viceversa. L'approccio è ora ampliato e vengono studiate varie versioni dell'interferenza del compito in condizioni di doppio compito. Ad esempio, i soggetti sono istruiti a svolgere due compiti contemporaneamente con variazioni graduali delle priorità dei compiti. La curva POC illustra graficamente gli effetti di possibili combinazioni dual-task derivanti dalla condivisione di risorse limitate tra le attività eseguite contemporaneamente.
I presupposti critici dell'approccio consistono principalmente nel suggerire che ogni compito richiederà una certa quota di una capacità di elaborazione cosciente stabile e limitata (rispetto a inconscia, automatizzata, implicita o tacita), nell'ipotetica relazione additiva dei due requisiti di capacità, e nella restrizione dell'approccio ai soli dati sulle prestazioni. Quest'ultimo potrebbe essere fuorviante per diversi motivi. Innanzitutto ci sono differenze sostanziali nella sensibilità dei dati prestazionali e dei dati soggettivamente percepiti. Il carico percepito sembra essere determinato principalmente dalla quantità di risorse richieste, spesso operazionalizzate in termini di memoria di lavoro, mentre le misure di performance sembrano essere determinate prevalentemente dall'efficienza della condivisione delle risorse, a seconda delle strategie di allocazione (questo è teoria della dissociazione; vedi Wickens e Yeh 1983). Inoltre, le differenze individuali nelle capacità di elaborazione delle informazioni e nei tratti di personalità influenzano fortemente gli indicatori di MWL all'interno delle aree soggettive (percepite), prestazionali e psicofisiologiche.
Approcci teorici: approcci ai requisiti del compito
Come è stato mostrato, i requisiti del compito sono multidimensionali e, quindi, potrebbero non essere descritti sufficientemente mediante una sola dimensione, sia essa lo sforzo percepito o la residua capacità mentale cosciente. Una descrizione più approfondita potrebbe essere quella di un profilo, applicando un modello teoricamente selezionato di dimensioni graduate delle caratteristiche del compito. La questione centrale è quindi la concettualizzazione di "compito", soprattutto in termini di contenuto del compito, e di "compimento del compito", soprattutto in termini di struttura e fasi delle azioni finalizzate. Il ruolo del compito è sottolineato dal fatto che anche l'impatto delle condizioni contestuali (come la temperatura, il rumore o l'orario di lavoro) sulle persone sono dipendenti dal compito, poiché sono mediati dal compito che funge da dispositivo di accesso (Fisher 1986) . Vari approcci teorici concordano sufficientemente riguardo a quelle dimensioni critiche del compito, che offrono una previsione valida del risultato del compito. In ogni caso, il risultato del compito è duplice, poiché (1) il risultato previsto deve essere raggiunto, soddisfacendo i criteri di risultato della prestazione, e (2) emergeranno una serie di effetti collaterali personali non intenzionali a breve termine e cumulativi a lungo termine, per ad esempio stanchezza, noia (monotonia), malattie professionali o miglioramento della motivazione, delle conoscenze o delle abilità intrinseche.
Valutazione del MWL. Con gli approcci ai requisiti del compito, gli approcci orientati all'azione come quelli delle azioni complete rispetto a quelle parziali o il punteggio del potenziale di motivazione (per un'elaborazione di entrambi vedi Hacker 1986), propongono come caratteristiche del compito indispensabili per l'analisi e la valutazione almeno quanto segue:
L'identificazione di queste caratteristiche del compito richiede le procedure congiunte di analisi lavoro/compito, incluse analisi di documenti, osservazioni, interviste e discussioni di gruppo, che devono essere integrate in un disegno quasi sperimentale (Rudolph, Schönfelder e Hacker 1987). Sono disponibili strumenti di analisi dei compiti che possono guidare e assistere l'analisi. Alcuni di essi aiutano solo l'analisi (ad esempio, NASA-TLX Task Load Index, Hart e Staveland, 1988) mentre altri sono utili per la valutazione e la progettazione o riprogettazione. Un esempio qui è il TBS-GA (Tätigkeitsbewertungs System für geistige Arbeit [Task Diagnosis Survey—Mental Work]); vedi Rudolph, Schönfelder e Hacker (1987).
La parola biomarcatore è l'abbreviazione di marcatore biologico, un termine che si riferisce a un evento misurabile che si verifica in un sistema biologico, come il corpo umano. Questo evento viene quindi interpretato come riflesso, o marcatore, di uno stato più generale dell'organismo o dell'aspettativa di vita. Nella medicina del lavoro, un biomarcatore viene generalmente utilizzato come indicatore dello stato di salute o del rischio di malattia.
I biomarcatori sono utilizzati per studi in vitro e in vivo che possono includere esseri umani. Di solito vengono identificati tre tipi specifici di marcatori biologici. Sebbene alcuni biomarcatori possano essere difficili da classificare, di solito sono separati in biomarcatori di esposizione, biomarcatori di effetto o biomarcatori di suscettibilità (vedi tabella 1).
Tabella 1. Esempi di biomarcatori di esposizione o biomarcatori di effetto utilizzati negli studi tossicologici nella salute sul lavoro
Campione | Misurazione | Scopo |
Biomarcatori di esposizione | ||
Il tessuto adiposo | diossina | Esposizione alla diossina |
Sangue | Portare | Esposizione al piombo |
Bone | Alluminio | Esposizione di alluminio |
Respiro espirato | toluene | Esposizione al toluene |
Capelli | mercurio | Esposizione al metilmercurio |
Siero | Benzene | Esposizione al benzene |
Urina | Fenolo | Esposizione al benzene |
Effetto biomarcatori | ||
Sangue | Carbossiemoglobina | Esposizione al monossido di carbonio |
globuli rossi | Zinco-protoporfirina | Esposizione al piombo |
Siero | colinesterasi | Esposizione agli organofosfati |
Urina | Microglobuline | Esposizione nefrotossica |
I globuli bianchi | addotti del DNA | Esposizione mutagena |
Dato un grado accettabile di validità, i biomarcatori possono essere impiegati per diversi scopi. Su base individuale, un biomarcatore può essere utilizzato per supportare o confutare una diagnosi di un particolare tipo di avvelenamento o altri effetti avversi indotti chimicamente. In un soggetto sano, un biomarcatore può anche riflettere l'ipersensibilità individuale a specifiche esposizioni chimiche e può quindi servire come base per la previsione del rischio e la consulenza. In gruppi di lavoratori esposti, è possibile applicare alcuni biomarcatori di esposizione per valutare il grado di conformità alle normative sull'abbattimento dell'inquinamento o l'efficacia degli sforzi preventivi in generale.
Biomarcatori di esposizione
Un biomarcatore di esposizione può essere un composto esogeno (o un metabolita) all'interno del corpo, un prodotto interattivo tra il composto (o il metabolita) e un componente endogeno o un altro evento correlato all'esposizione. Più comunemente, i biomarcatori di esposizioni a composti stabili, come i metalli, comprendono misurazioni delle concentrazioni di metalli in campioni appropriati, come sangue, siero o urina. Con le sostanze chimiche volatili, può essere valutata la loro concentrazione nell'aria espirata (dopo l'inalazione di aria priva di contaminazioni). Se il composto viene metabolizzato nel corpo, uno o più metaboliti possono essere scelti come biomarcatore dell'esposizione; i metaboliti sono spesso determinati nei campioni di urina.
I moderni metodi di analisi possono consentire la separazione di isomeri o congeneri di composti organici e la determinazione della speciazione di composti metallici o dei rapporti isotopici di alcuni elementi. Analisi sofisticate consentono di determinare i cambiamenti nella struttura del DNA o di altre macromolecole causati dal legame con sostanze chimiche reattive. Tali tecniche avanzate acquisiranno senza dubbio un'importanza considerevole per le applicazioni negli studi sui biomarcatori, ed è probabile che limiti di rilevamento più bassi e una migliore validità analitica renderanno questi biomarcatori ancora più utili.
Sviluppi particolarmente promettenti si sono verificati con biomarcatori di esposizione a sostanze chimiche mutagene. Questi composti sono reattivi e possono formare addotti con macromolecole, come proteine o DNA. Gli addotti del DNA possono essere rilevati nei globuli bianchi o nelle biopsie tissutali e specifici frammenti di DNA possono essere escreti nelle urine. Ad esempio, l'esposizione all'ossido di etilene provoca reazioni con le basi del DNA e, dopo l'escissione della base danneggiata, l'N-7-(2-idrossietil)guanina verrà eliminata nelle urine. Alcuni addotti potrebbero non riferirsi direttamente a una particolare esposizione. Ad esempio, l'8-idrossi-2'-deossiguanosina riflette il danno ossidativo al DNA e questa reazione può essere innescata da diversi composti chimici, la maggior parte dei quali induce anche la perossidazione lipidica.
Altre macromolecole possono anche essere modificate dalla formazione di addotti o dall'ossidazione. Di particolare interesse, tali composti reattivi possono generare addotti di emoglobina che possono essere determinati come biomarcatori di esposizione ai composti. Il vantaggio è che si possono ottenere ampie quantità di emoglobina da un campione di sangue e, data la durata di quattro mesi dei globuli rossi, gli addotti formati con gli amminoacidi della proteina indicheranno l'esposizione totale durante questo periodo.
Gli addotti possono essere determinati mediante tecniche sensibili come la cromatografia lipidica ad alte prestazioni e sono disponibili anche alcuni metodi immunologici. In generale, i metodi analitici sono nuovi, costosi e necessitano di ulteriore sviluppo e validazione. Una migliore sensibilità può essere ottenuta utilizzando il 32P test di etichettatura post, che è un'indicazione non specifica che si è verificato un danno al DNA. Tutte queste tecniche sono potenzialmente utili per il monitoraggio biologico e sono state applicate in un numero crescente di studi. Tuttavia, sono necessari metodi analitici più semplici e più sensibili. Data la specificità limitata di alcuni metodi a bassi livelli di esposizione, il fumo di tabacco o altri fattori possono avere un impatto significativo sui risultati della misurazione, causando difficoltà di interpretazione.
L'esposizione a composti mutageni, oa composti che vengono metabolizzati in mutageni, può anche essere determinata valutando la mutagenicità dell'urina di un individuo esposto. Il campione di urina viene incubato con un ceppo batterico in cui una specifica mutazione puntiforme è espressa in modo facilmente misurabile. Se nel campione di urina sono presenti sostanze chimiche mutagene, si verificherà un aumento del tasso di mutazioni nei batteri.
I biomarcatori dell'esposizione devono essere valutati in relazione alla variazione temporale dell'esposizione e alla relazione con i diversi compartimenti. Pertanto, l'intervallo di tempo rappresentato dal biomarcatore, ovvero la misura in cui la misurazione del biomarcatore riflette l'esposizione o le esposizioni passate e/o il carico corporeo accumulato, deve essere determinato dai dati tossicocinetici per interpretare il risultato. In particolare, dovrebbe essere considerato il grado in cui il biomarcatore indica la ritenzione in specifici organi bersaglio. Sebbene i campioni di sangue siano spesso utilizzati per gli studi sui biomarcatori, il sangue periferico generalmente non è considerato un compartimento in quanto tale, sebbene funga da mezzo di trasporto tra i compartimenti. Il grado in cui la concentrazione nel sangue riflette i livelli nei diversi organi varia ampiamente tra le diverse sostanze chimiche e di solito dipende anche dalla durata dell'esposizione e dal tempo trascorso dall'esposizione.
A volte questo tipo di evidenza viene utilizzato per classificare un biomarcatore come un indicatore della dose (totale) assorbita o un indicatore della dose efficace (cioè la quantità che ha raggiunto il tessuto bersaglio). Ad esempio, l'esposizione a un particolare solvente può essere valutata dai dati sulla concentrazione effettiva del solvente nel sangue in un particolare momento dopo l'esposizione. Questa misurazione rifletterà la quantità di solvente che è stata assorbita nel corpo. Parte della quantità assorbita verrà espirata a causa della tensione di vapore del solvente. Mentre circola nel sangue, il solvente interagirà con vari componenti del corpo e alla fine sarà soggetto a degradazione da parte degli enzimi. L'esito dei processi metabolici può essere valutato determinando specifici acidi mercapturici prodotti per coniugazione con il glutatione. L'escrezione cumulativa degli acidi mercapturici può riflettere meglio la dose efficace rispetto alla concentrazione ematica.
Gli eventi della vita, come la riproduzione e la senescenza, possono influenzare la distribuzione di una sostanza chimica. La distribuzione delle sostanze chimiche all'interno del corpo è significativamente influenzata dalla gravidanza e molte sostanze chimiche possono attraversare la barriera placentare, causando così l'esposizione del feto. L'allattamento può comportare l'escrezione di sostanze chimiche liposolubili, portando così a una ridotta ritenzione nella madre insieme a un aumento dell'assorbimento da parte del bambino. Durante la perdita di peso o lo sviluppo dell'osteoporosi, possono essere rilasciate sostanze chimiche immagazzinate, che possono quindi provocare una rinnovata e prolungata esposizione "endogena" degli organi bersaglio. Altri fattori possono influenzare l'assorbimento individuale, il metabolismo, la ritenzione e la distribuzione di composti chimici e sono disponibili alcuni biomarcatori di suscettibilità (vedi sotto).
Biomarcatori di effetto
Un indicatore di effetto può essere un componente endogeno, o una misura della capacità funzionale, o qualche altro indicatore dello stato o dell'equilibrio del corpo o del sistema di organi, come influenzato dall'esposizione. Tali marcatori di effetto sono generalmente indicatori preclinici di anomalie.
Questi biomarcatori possono essere specifici o non specifici. I biomarcatori specifici sono utili perché indicano un effetto biologico di una particolare esposizione, fornendo quindi evidenze potenzialmente utilizzabili a scopo preventivo. I biomarcatori non specifici non indicano una singola causa dell'effetto, ma possono riflettere l'effetto totale e integrato dovuto a un'esposizione mista. Entrambi i tipi di biomarcatori possono quindi essere di notevole utilità nella salute sul lavoro.
Non esiste una chiara distinzione tra biomarcatori di esposizione e biomarcatori di effetto. Ad esempio, si potrebbe dire che la formazione di addotti riflette un effetto piuttosto che l'esposizione. Tuttavia, i biomarcatori dell'effetto di solito indicano cambiamenti nelle funzioni delle cellule, dei tessuti o di tutto il corpo. Alcuni ricercatori includono cambiamenti grossolani, come un aumento del peso del fegato degli animali da laboratorio esposti o una diminuzione della crescita nei bambini, come biomarcatori dell'effetto. Ai fini della salute sul lavoro, i biomarcatori degli effetti dovrebbero essere limitati a quelli che indicano cambiamenti biochimici subclinici o reversibili, come l'inibizione degli enzimi. L'effetto biomarcatore più frequentemente utilizzato è probabilmente l'inibizione della colinesterasi causata da alcuni insetticidi, cioè organofosfati e carbammati. Nella maggior parte dei casi, questo effetto è del tutto reversibile e l'inibizione enzimatica riflette l'esposizione totale a questo particolare gruppo di insetticidi.
Alcune esposizioni non provocano l'inibizione enzimatica ma piuttosto un aumento dell'attività di un enzima. Questo è il caso di diversi enzimi che appartengono alla famiglia P450 (vedi “Determinanti genetici della risposta tossica”). Possono essere indotti dall'esposizione a determinati solventi e idrocarburi poliaromatici (IPA). Poiché questi enzimi sono espressi principalmente in tessuti dai quali può essere difficile ottenere una biopsia, l'attività enzimatica viene determinata indirettamente in vivo somministrando un composto che viene metabolizzato da quel particolare enzima, e quindi il prodotto di degradazione viene misurato nelle urine o nel plasma.
Altre esposizioni possono indurre la sintesi di una proteina protettiva nel corpo. L'esempio migliore è probabilmente la metallotioneina, che lega il cadmio e favorisce l'escrezione di questo metallo; l'esposizione al cadmio è uno dei fattori che determinano un aumento dell'espressione del gene della metallotioneina. Potrebbero esistere proteine protettive simili, ma non sono state ancora esplorate a sufficienza per essere accettate come biomarcatori. Tra i candidati per un possibile utilizzo come biomarcatori ci sono le cosiddette proteine dello stress, originariamente chiamate proteine da shock termico. Queste proteine sono generate da una gamma di organismi diversi in risposta a una varietà di esposizioni avverse.
Il danno ossidativo può essere valutato determinando la concentrazione di malondialdeide nel siero o l'esalazione di etano. Allo stesso modo, l'escrezione urinaria di proteine con un piccolo peso molecolare, come l'albumina, può essere utilizzata come biomarcatore di danno renale precoce. Diversi parametri abitualmente utilizzati nella pratica clinica (ad esempio, ormoni sierici o livelli di enzimi) possono anche essere utili come biomarcatori. Tuttavia, molti di questi parametri potrebbero non essere sufficientemente sensibili per rilevare una compromissione precoce.
Un altro gruppo di parametri di effetto riguarda gli effetti genotossici (cambiamenti nella struttura dei cromosomi). Tali effetti possono essere rilevati mediante microscopia dei globuli bianchi che subiscono la divisione cellulare. Al microscopio si possono vedere gravi danni ai cromosomi - aberrazioni cromosomiche o formazione di micronuclei. Il danno può anche essere rivelato aggiungendo un colorante alle cellule durante la divisione cellulare. L'esposizione a un agente genotossico può quindi essere visualizzata come un aumento dello scambio del colorante tra i due cromatidi di ciascun cromosoma (scambio di cromatidi fratelli). Le aberrazioni cromosomiche sono correlate a un aumentato rischio di sviluppare il cancro, ma il significato di un aumento del tasso di scambio di cromatidi fratelli è meno chiaro.
Una valutazione più sofisticata della genotossicità si basa su particolari mutazioni puntiformi nelle cellule somatiche, cioè globuli bianchi o cellule epiteliali ottenute dalla mucosa orale. Una mutazione in un locus specifico può rendere le cellule capaci di crescere in una coltura che contiene una sostanza chimica altrimenti tossica (come la 6-tioguanina). In alternativa, può essere valutato uno specifico prodotto genico (p. es., concentrazioni sieriche o tissutali di oncoproteine codificate da particolari oncogeni). Ovviamente, queste mutazioni riflettono il danno genotossico totale subito e non indicano necessariamente nulla sull'esposizione causale. Questi metodi non sono ancora pronti per l'uso pratico nella medicina del lavoro, ma i rapidi progressi in questa linea di ricerca suggeriscono che tali metodi saranno disponibili entro pochi anni.
Biomarcatori di suscettibilità
Un marcatore di suscettibilità, ereditaria o indotta, è un indicatore che l'individuo è particolarmente sensibile all'effetto di uno xenobiotico o agli effetti di un gruppo di tali composti. La maggior parte dell'attenzione è stata focalizzata sulla suscettibilità genetica, sebbene altri fattori possano essere almeno altrettanto importanti. L'ipersensibilità può essere dovuta a un tratto ereditario, alla costituzione dell'individuo oa fattori ambientali.
La capacità di metabolizzare alcune sostanze chimiche è variabile ed è geneticamente determinata (vedi “Determinanti genetici della risposta tossica”). Diversi enzimi rilevanti sembrano essere controllati da un singolo gene. Ad esempio, l'ossidazione di sostanze chimiche estranee viene effettuata principalmente da una famiglia di enzimi appartenenti alla famiglia P450. Altri enzimi rendono i metaboliti più solubili in acqua per coniugazione (p. es., N-acetiltransferasi e μ-glutatione-S-transferasi). L'attività di questi enzimi è geneticamente controllata e varia considerevolmente. Come accennato in precedenza, l'attività può essere determinata somministrando una piccola dose di un farmaco e quindi determinando la quantità del metabolita nelle urine. Alcuni dei geni sono stati ora caratterizzati e sono disponibili tecniche per determinare il genotipo. Importanti studi suggeriscono che il rischio di sviluppare determinate forme tumorali è correlato alla capacità di metabolizzare composti estranei. Molte domande rimangono ancora senza risposta, limitando così in questo momento l'uso di questi potenziali biomarcatori di suscettibilità nella salute sul lavoro.
Altri tratti ereditari, come l'alfa1-la carenza di antitripsina o la carenza di glucosio-6-fosfato deidrogenasi, provocano anch'esse meccanismi di difesa carenti nell'organismo, causando in tal modo ipersuscettibilità a determinate esposizioni.
La maggior parte delle ricerche relative alla suscettibilità si è occupata della predisposizione genetica. Anche altri fattori giocano un ruolo e sono stati in parte trascurati. Ad esempio, gli individui con una malattia cronica possono essere più sensibili a un'esposizione professionale. Inoltre, se un processo patologico o una precedente esposizione a sostanze chimiche tossiche ha causato danni subclinici agli organi, è probabile che la capacità di resistere a una nuova esposizione tossica sia inferiore. Gli indicatori biochimici della funzione dell'organo possono in questo caso essere usati come biomarcatori di suscettibilità. Forse il miglior esempio di ipersuscettibilità riguarda le risposte allergiche. Se un individuo è diventato sensibilizzato a una particolare esposizione, nel siero possono essere rilevati anticorpi specifici. Anche se l'individuo non è diventato sensibilizzato, altre esposizioni attuali o passate possono aumentare il rischio di sviluppare un effetto avverso correlato a un'esposizione professionale.
Uno dei problemi principali è determinare l'effetto congiunto delle esposizioni miste sul lavoro. Inoltre, le abitudini personali e l'uso di droghe possono determinare un aumento della suscettibilità. Ad esempio, il fumo di tabacco di solito contiene una notevole quantità di cadmio. Pertanto, con l'esposizione professionale al cadmio, un forte fumatore che ha accumulato quantità sostanziali di questo metallo nel corpo sarà a maggior rischio di sviluppare malattie renali correlate al cadmio.
Applicazione in medicina del lavoro
I biomarcatori sono estremamente utili nella ricerca tossicologica e molti possono essere applicabili nel monitoraggio biologico. Tuttavia, anche i limiti devono essere riconosciuti. Molti biomarcatori sono stati finora studiati solo su animali da laboratorio. I modelli tossicocinetici in altre specie potrebbero non riflettere necessariamente la situazione negli esseri umani e l'estrapolazione potrebbe richiedere studi di conferma su volontari umani. Inoltre, si deve tener conto delle variazioni individuali dovute a fattori genetici o costituzionali.
In alcuni casi, i biomarcatori di esposizione potrebbero non essere affatto fattibili (ad esempio, per sostanze chimiche che hanno vita breve in vivo). Altre sostanze chimiche possono essere immagazzinate o influenzare organi a cui non è possibile accedere con procedure di routine, come il sistema nervoso. La via di esposizione può anche influenzare il modello di distribuzione e quindi anche la misurazione del biomarcatore e la sua interpretazione. Ad esempio, è probabile che l'esposizione diretta del cervello attraverso il nervo olfattivo sfugga al rilevamento mediante la misurazione dei biomarcatori dell'esposizione. Per quanto riguarda l'effetto sui biomarcatori, molti di essi non sono affatto specifici e il cambiamento può essere dovuto a una varietà di cause, inclusi i fattori dello stile di vita. Forse in particolare con i biomarcatori di suscettibilità, l'interpretazione deve essere molto cauta al momento, poiché rimangono molte incertezze sul significato generale per la salute dei singoli genotipi.
Nella medicina del lavoro, il biomarcatore ideale dovrebbe soddisfare diversi requisiti. Prima di tutto, la raccolta e l'analisi dei campioni devono essere semplici e affidabili. Per una qualità analitica ottimale è necessaria la standardizzazione, ma i requisiti specifici variano considerevolmente. Le principali aree di interesse includono: la preparazione dell'individuo, la procedura di campionamento e la manipolazione del campione e la procedura di misurazione; quest'ultimo comprende fattori tecnici, come le procedure di calibrazione e garanzia della qualità, e fattori individuali, come l'istruzione e la formazione degli operatori.
Per la documentazione della validità analitica e della tracciabilità, i materiali di riferimento dovrebbero essere basati su matrici pertinenti e con concentrazioni adeguate di sostanze tossiche o metaboliti rilevanti a livelli appropriati. Affinché i biomarcatori vengano utilizzati per il monitoraggio biologico o per scopi diagnostici, i laboratori responsabili devono disporre di procedure analitiche ben documentate con caratteristiche prestazionali definite e registrazioni accessibili per consentire la verifica dei risultati. Allo stesso tempo, tuttavia, devono essere considerati gli aspetti economici della caratterizzazione e dell'utilizzo di materiali di riferimento per integrare le procedure di garanzia della qualità in generale. Pertanto, la qualità ottenibile dei risultati e gli usi a cui sono destinati devono essere bilanciati con i costi aggiuntivi della garanzia della qualità, compresi i materiali di riferimento, la manodopera e la strumentazione.
Un altro requisito è che il biomarcatore sia specifico, almeno nelle circostanze dello studio, per un particolare tipo di esposizione, con una chiara relazione con il grado di esposizione. In caso contrario, il risultato della misurazione del biomarcatore potrebbe essere troppo difficile da interpretare. Per una corretta interpretazione del risultato della misurazione di un biomarcatore di esposizione, deve essere nota la validità diagnostica (ovvero, la traduzione del valore del biomarcatore nell'entità dei possibili rischi per la salute). In quest'area, i metalli fungono da paradigma per la ricerca sui biomarcatori. Recenti ricerche hanno dimostrato la complessità e la sottigliezza delle relazioni dose-risposta, con notevoli difficoltà nell'identificare i livelli senza effetto e quindi anche nel definire le esposizioni tollerabili. Tuttavia, questo tipo di ricerca ha anche illustrato i tipi di indagine e il perfezionamento necessari per scoprire le informazioni rilevanti. Per la maggior parte dei composti organici non sono ancora disponibili associazioni quantitative tra le esposizioni ei corrispondenti effetti avversi sulla salute; in molti casi, anche gli organi bersaglio primari non sono noti con certezza. Inoltre, la valutazione dei dati sulla tossicità e delle concentrazioni di biomarcatori è spesso complicata dall'esposizione a miscele di sostanze, piuttosto che dall'esposizione a un singolo composto in quel momento.
Prima che il biomarcatore venga applicato a fini di salute sul lavoro, sono necessarie alcune considerazioni aggiuntive. In primo luogo, il biomarcatore deve riflettere solo un cambiamento subclinico e reversibile. In secondo luogo, dato che i risultati del biomarcatore possono essere interpretati in relazione ai rischi per la salute, dovrebbero essere disponibili sforzi preventivi e dovrebbero essere considerati realistici nel caso in cui i dati del biomarcatore suggeriscano la necessità di ridurre l'esposizione. In terzo luogo, l'uso pratico del biomarcatore deve essere generalmente considerato eticamente accettabile.
Le misure di igiene industriale possono essere confrontate con i limiti di esposizione applicabili. Allo stesso modo, i risultati sui biomarcatori di esposizione o sui biomarcatori di effetto possono essere confrontati con i limiti di azione biologica, a volte indicati come indici di esposizione biologica. Tali limiti dovrebbero essere basati sui migliori consigli di clinici e scienziati di discipline appropriate, e gli amministratori responsabili come "gestori del rischio" dovrebbero quindi tenere conto di fattori etici, sociali, culturali ed economici rilevanti. La base scientifica dovrebbe, se possibile, includere rapporti dose-risposta integrati da informazioni sulle variazioni di suscettibilità all'interno della popolazione a rischio. In alcuni paesi, i lavoratori ei membri del pubblico in generale sono coinvolti nel processo di definizione degli standard e forniscono un contributo importante, in particolare quando l'incertezza scientifica è considerevole. Una delle maggiori incertezze è come definire un effetto avverso sulla salute che dovrebbe essere prevenuto, ad esempio se la formazione di addotti come biomarcatore di esposizione rappresenti di per sé un effetto avverso (cioè un biomarcatore di effetto) che dovrebbe essere prevenuto. È probabile che sorgano questioni difficili quando si decide se sia eticamente difendibile, per lo stesso composto, avere limiti diversi per l'esposizione avventizia, da un lato, e l'esposizione professionale, dall'altro.
Le informazioni generate dall'uso dei biomarcatori dovrebbero generalmente essere trasmesse agli individui esaminati all'interno del rapporto medico-paziente. Le preoccupazioni etiche devono essere considerate in particolare in relazione alle analisi di biomarcatori altamente sperimentali che attualmente non possono essere interpretate in dettaglio in termini di effettivi rischi per la salute. Per la popolazione generale, ad esempio, attualmente esistono orientamenti limitati per quanto riguarda l'interpretazione di biomarcatori di esposizione diversi dalla concentrazione di piombo nel sangue. Altrettanto importante è la fiducia nei dati generati (vale a dire, se è stato effettuato un campionamento appropriato e se nel laboratorio coinvolto sono state utilizzate valide procedure di garanzia della qualità). Un'ulteriore area di particolare preoccupazione riguarda l'ipersensibilità individuale. Questi problemi devono essere presi in considerazione quando si fornisce il feedback dallo studio.
Tutti i settori della società interessati o interessati alla realizzazione di uno studio sui biomarcatori devono essere coinvolti nel processo decisionale su come gestire le informazioni generate dallo studio. Procedure specifiche per prevenire o superare inevitabili conflitti etici dovrebbero essere sviluppate all'interno dei quadri legali e sociali della regione o del paese. Tuttavia, ogni situazione rappresenta una serie diversa di domande e insidie e non è possibile sviluppare un'unica procedura per il coinvolgimento del pubblico per coprire tutte le applicazioni dei biomarcatori di esposizione.
Il concetto di vigilanza si riferisce allo stato di allerta di un osservatore umano in attività che richiedono un'efficiente registrazione ed elaborazione dei segnali. Le caratteristiche principali dei compiti di vigilanza sono le durate relativamente lunghe e la necessità di rilevare stimoli target (segnali) poco frequenti e imprevedibili su uno sfondo di altri eventi di stimolo.
Compiti di vigilanza
Il compito prototipico per la ricerca sulla vigilanza era quello degli operatori radar. Storicamente, la loro prestazione apparentemente insoddisfacente durante la seconda guerra mondiale è stata un importante impulso per lo studio approfondito della vigilanza. Un altro compito importante che richiede vigilanza è un'ispezione industriale. Più in generale, tutti i tipi di attività di monitoraggio che richiedono il rilevamento di segnali relativamente poco frequenti comportano il rischio di errori nel rilevamento e nella risposta a questi eventi critici.
I compiti di vigilanza costituiscono un insieme eterogeneo e variano su più dimensioni, nonostante le loro caratteristiche comuni. Una dimensione ovviamente importante è il tasso di stimolo complessivo così come il tasso di stimoli bersaglio. Non è sempre possibile definire in modo univoco il tasso di stimolo. Questo è il caso delle attività che richiedono il rilevamento di eventi target rispetto a stimoli di sfondo continuamente presentati, come nel rilevamento di valori critici su una serie di quadranti in un'attività di monitoraggio. Una distinzione meno evidentemente importante è quella tra compiti di discriminazione successiva e compiti di discriminazione simultanea. Nei compiti di discriminazione simultanea, sono presenti contemporaneamente sia gli stimoli target che gli stimoli di sfondo, mentre nei compiti di discriminazione successiva uno viene presentato dopo l'altro in modo da richiedere alcune richieste alla memoria. Sebbene la maggior parte dei compiti di vigilanza richieda il rilevamento di stimoli visivi, sono stati studiati anche stimoli in altre modalità. Gli stimoli possono essere confinati in una singola posizione spaziale oppure possono esserci diverse fonti per gli stimoli bersaglio. Gli stimoli target possono differire dagli stimoli di fondo per caratteristiche fisiche, ma anche per caratteristiche più concettuali (come un certo schema di letture del contatore che può differire da altri schemi). Naturalmente, la visibilità dei bersagli può variare: alcuni possono essere rilevati facilmente, mentre altri possono essere difficili da discriminare dagli stimoli di fondo. Gli stimoli bersaglio possono essere unici o possono esserci insiemi di stimoli bersaglio senza confini ben definiti per distinguerli dagli stimoli di fondo, come nel caso di molte attività di ispezione industriale. Questo elenco di dimensioni su cui differiscono i compiti di vigilanza può essere ampliato, ma anche questa lunghezza dell'elenco è sufficiente a sottolineare l'eterogeneità dei compiti di vigilanza e quindi i rischi connessi alla generalizzazione di determinate osservazioni nell'insieme completo.
Variazioni delle prestazioni e diminuzione della vigilanza
La misura delle prestazioni più frequentemente utilizzata nei compiti di vigilanza è la proporzione di stimoli target, ad esempio prodotti difettosi nell'ispezione industriale, che sono stati rilevati; questa è una stima della probabilità del cosiddetto colpi. Vengono chiamati quegli stimoli bersaglio che rimangono inosservati miss. Sebbene il tasso di successo sia una misura conveniente, è alquanto incompleto. Esiste una banale strategia che permette di ottenere il 100% di hit: basta classificare tutti gli stimoli come target. Tuttavia, il tasso di successo del 100% è poi accompagnato da un tasso di falsi allarmi del 100%, ovvero non solo gli stimoli target vengono rilevati correttamente, ma anche gli stimoli di sfondo vengono "rilevati" in modo errato. Questa linea di ragionamento rende abbastanza chiaro che ogni volta che ci sono falsi allarmi, è importante conoscere la loro proporzione oltre al tasso di successo. Un'altra misura per le prestazioni in un compito di vigilanza è il tempo necessario per rispondere agli stimoli bersaglio (tempo di risposta).
Le prestazioni nei compiti di vigilanza presentano due attributi tipici. Il primo è il basso livello complessivo delle prestazioni di vigilanza. È basso rispetto a una situazione ideale per gli stessi stimoli (brevi periodi di osservazione, alta prontezza dell'osservatore per ogni discriminazione, ecc.). Il secondo attributo è il cosiddetto decremento della vigilanza, il declino delle prestazioni nel corso dell'orologio che può iniziare entro i primi minuti. Entrambe queste osservazioni si riferiscono alla proporzione di hit, ma sono state riportate anche per i tempi di risposta. Sebbene il decremento della vigilanza sia tipico dei compiti di vigilanza, non è universale.
Nell'indagare le cause delle scarse prestazioni complessive e dei decrementi della vigilanza, verrà fatta una distinzione tra concetti che sono correlati alle caratteristiche di base del compito e concetti che sono correlati a fattori situazionali organismici e non correlati al compito. Tra i fattori legati al compito si possono distinguere fattori strategici e non strategici.
Processi strategici nei compiti di vigilanza
Il rilevamento di un segnale come un prodotto difettoso è in parte una questione di strategia dell'osservatore e in parte una questione di discriminabilità del segnale. Questa distinzione si basa sul teoria del rilevamento del segnale (TSD), e alcune basi della teoria devono essere presentate per evidenziare l'importanza della distinzione. Si consideri una variabile ipotetica, definita come “prova della presenza di un segnale”. Ogni volta che viene presentato un segnale, questa variabile assume un certo valore, e ogni volta che viene presentato uno stimolo di fondo, assume un valore mediamente inferiore. Si presume che il valore della variabile di evidenza vari tra le presentazioni ripetute del segnale. Pertanto può essere caratterizzato da una cosiddetta funzione di densità di probabilità come illustrato nella figura 1. Un'altra funzione di densità caratterizza i valori della variabile di evidenza alla presentazione di uno stimolo di fondo. Quando i segnali sono simili agli stimoli di fondo, le funzioni si sovrapporranno, in modo che un certo valore della variabile di evidenza possa provenire o da un segnale o da uno stimolo di fondo. La particolare forma delle funzioni di densità della figura 1 non è essenziale per l'argomentazione.
Figura 1. Soglie e discriminabilità
La risposta di rilevamento dell'osservatore si basa sulla variabile evidenza. Si presume che sia impostata una soglia in modo che venga fornita una risposta di rilevamento ogni volta che il valore della variabile di prova è al di sopra della soglia. Come illustrato nella figura 1, le aree sotto le funzioni di densità a destra della soglia corrispondono alle probabilità di hit e falsi allarmi. In pratica, è possibile ricavare stime della separazione delle due funzioni e della posizione della soglia. La separazione delle due funzioni di densità caratterizza la discriminabilità degli stimoli target dagli stimoli di fondo, mentre la localizzazione della soglia caratterizza la strategia dell'osservatore. La variazione della soglia produce una variazione congiunta delle proporzioni degli accessi e dei falsi allarmi. Con una soglia alta, le proporzioni di hit e falsi allarmi saranno piccole, mentre con una soglia bassa le proporzioni saranno grandi. Pertanto, la selezione di una strategia (posizionamento della soglia) è essenzialmente la selezione di una certa combinazione di hit rate e false alarm rate tra le combinazioni possibili per una certa discriminabilità.
Due fattori principali che influenzano la posizione della soglia sono i payoff e la frequenza del segnale. La soglia sarà impostata su valori più bassi quando c'è molto da guadagnare da un hit e poco da perdere da un falso allarme, e sarà impostata su valori più alti quando i falsi allarmi sono costosi ei benefici da hit sono piccoli. Un'impostazione di soglia bassa può anche essere indotta da un'elevata percentuale di segnali, mentre una bassa percentuale di segnali tende a indurre impostazioni di soglia più elevate. L'effetto della frequenza del segnale sulle impostazioni di soglia è un fattore importante per le basse prestazioni complessive in termini di proporzione di hit nelle attività di vigilanza e per il decremento della vigilanza.
Un resoconto del decremento della vigilanza in termini di cambiamenti strategici (cambio di soglia) richiede che la riduzione della quota di colpi nel corso della vigilanza sia accompagnata da una riduzione della quota di falsi allarmi. Questo è, infatti, il caso di molti studi, ed è probabile che la scarsa performance complessiva nei compiti di vigilanza (rispetto alla situazione ottimale) derivi anche, almeno in parte, da un aggiustamento della soglia. Nel corso di un orologio, la frequenza relativa delle risposte di rilevamento arriva a corrispondere alla frequenza relativa dei bersagli, e questa regolazione implica una soglia elevata con una proporzione relativamente piccola di colpi e anche una proporzione relativamente piccola di falsi allarmi. Tuttavia, ci sono diminuzioni della vigilanza che derivano da cambiamenti nella discriminabilità piuttosto che da cambiamenti nelle impostazioni delle soglie. Questi sono stati osservati principalmente in compiti di discriminazione successiva con un tasso relativamente alto di eventi di stimolo.
Processi non strategici nei compiti di vigilanza
Sebbene parte delle scarse prestazioni complessive nei compiti di vigilanza e molti casi di decremento della vigilanza possano essere spiegati in termini di aggiustamenti strategici della soglia di rilevamento a bassi tassi di segnale, tale resoconto non è completo. Ci sono cambiamenti nell'osservatore durante l'osservazione che possono ridurre la discriminabilità degli stimoli o determinare apparenti spostamenti di soglia che non possono essere considerati un adattamento alle caratteristiche del compito. Negli oltre 40 anni di ricerca sulla vigilanza, sono stati identificati una serie di fattori non strategici che contribuiscono a scarse prestazioni complessive e al decremento della vigilanza.
Una risposta corretta a un obiettivo in un compito di vigilanza richiede una registrazione sensoriale sufficientemente precisa, un'appropriata posizione della soglia e un collegamento tra i processi percettivi ei processi associati alla risposta. Durante l'osservazione gli osservatori devono mantenere una certa serie di compiti, una certa prontezza a rispondere agli stimoli bersaglio in un certo modo. Questo è un requisito non banale perché senza un particolare compito impostato nessun osservatore risponderebbe agli stimoli target nel modo richiesto. Due delle principali fonti di fallimenti sono quindi una registrazione sensoriale imprecisa e la mancanza di prontezza a rispondere agli stimoli target. Le principali ipotesi per spiegare tali fallimenti saranno brevemente esaminate.
Il rilevamento e l'identificazione di uno stimolo sono più rapidi quando non vi è alcuna incertezza temporale o spaziale sul suo aspetto. È probabile che l'incertezza temporale e/o spaziale riduca le prestazioni di vigilanza. Questa è la previsione essenziale di teoria dell'aspettativa. La preparazione ottimale dell'osservatore richiede certezza temporale e spaziale; ovviamente i compiti di vigilanza sono tutt'altro che ottimali sotto questo aspetto. Sebbene l'obiettivo principale della teoria dell'aspettativa sia sulle basse prestazioni complessive, può anche servire a spiegare parti del decremento della vigilanza. Con segnali poco frequenti a intervalli casuali, inizialmente potrebbero esistere alti livelli di preparazione nei momenti in cui non viene presentato alcun segnale; inoltre, saranno presentati segnali a bassi livelli di preparazione. Ciò scoraggia gli alti livelli occasionali di preparazione in generale in modo che qualunque beneficio ne derivi svanirà nel corso di un orologio.
La teoria dell'aspettativa ha una stretta relazione con teorie attenzionali. Le varianti delle teorie attenzionali della vigilanza, ovviamente, sono correlate alle teorie dominanti dell'attenzione in generale. Considera una visione dell'attenzione come "selezione per l'elaborazione" o "selezione per l'azione". Secondo questo punto di vista, gli stimoli vengono selezionati dall'ambiente ed elaborati con alta efficienza ogni volta che servono il piano d'azione o l'insieme di attività attualmente dominante. Come già detto, la selezione beneficerà di precise aspettative su quando e dove si verificheranno tali stimoli. Ma gli stimoli saranno selezionati solo se il piano d'azione, il set di attività, è attivo. (I conducenti di automobili, ad esempio, rispondono ai semafori, ad altro traffico, ecc.; i passeggeri non lo fanno normalmente, sebbene entrambi si trovino quasi nella stessa situazione. La differenza fondamentale è che tra le serie di compiti dei due: solo il set di compiti del conducente richiede risposte ai semafori.)
La selezione degli stimoli per l'elaborazione ne risentirà quando il piano d'azione è temporaneamente disattivato, cioè quando il task set è temporaneamente assente. I compiti di vigilanza incorporano una serie di caratteristiche che scoraggiano il mantenimento continuo del set di compiti, come tempi di ciclo brevi per l'elaborazione degli stimoli, mancanza di feedback e poca sfida motivazionale dovuta all'apparente difficoltà del compito. I cosiddetti blocchi possono essere osservati in quasi tutti i semplici compiti cognitivi con tempi di ciclo brevi come semplici aritmetiche mentali o rapide risposte seriali a segnali semplici. Blocchi simili si verificano anche nel mantenimento del compito impostato in un compito di vigilanza. Non sono immediatamente riconoscibili come risposte ritardate perché le risposte sono poco frequenti e gli obiettivi che vengono presentati durante un periodo di assenza del set di attività potrebbero non essere più presenti quando l'assenza è finita, quindi si osserverà una mancata risposta invece di una risposta ritardata. I blocchi diventano più frequenti con il tempo dedicato all'attività. Questo può dar luogo al decremento della vigilanza. Potrebbero esserci ulteriori motivi per interruzioni temporanee nella disponibilità del set di attività appropriato, ad esempio, distrazione.
Certi stimoli non sono selezionati al servizio del piano d'azione attuale, ma in virtù delle loro caratteristiche. Questi sono stimoli intensi, nuovi, che si muovono verso l'osservatore, hanno un inizio improvviso o per qualsiasi altra ragione potrebbero richiedere un'azione immediata, indipendentemente dal piano d'azione attuale dell'osservatore. C'è poco rischio di non rilevare tali stimoli. Attirano automaticamente l'attenzione, come indicato, ad esempio, dalla risposta di orientamento, che include uno spostamento della direzione dello sguardo verso la fonte dello stimolo. Tuttavia, rispondere a un campanello d'allarme non è normalmente considerato un compito di vigilanza. Oltre agli stimoli che attirano l'attenzione per le loro caratteristiche, ci sono stimoli che vengono elaborati automaticamente come conseguenza della pratica. Sembrano "saltare fuori" dall'ambiente. Questo tipo di elaborazione automatica richiede una pratica estesa con una cosiddetta mappatura coerente, ovvero un'assegnazione coerente delle risposte agli stimoli. È probabile che il decremento della vigilanza sia piccolo o addirittura assente una volta sviluppata l'elaborazione automatica degli stimoli.
Infine, le prestazioni di vigilanza soffrono di una mancanza di eccitazione. Questo concetto si riferisce in modo piuttosto globale all'intensità dell'attività neurale, che va dal sonno alla normale veglia fino all'eccitazione elevata. Uno dei fattori che si ritiene influisca sull'eccitazione è la stimolazione esterna, e questa è piuttosto bassa e uniforme nella maggior parte dei compiti di vigilanza. Pertanto, l'intensità dell'attività del sistema nervoso centrale può diminuire complessivamente nel corso di un orologio. Un aspetto importante della teoria dell'eccitazione è che collega le prestazioni di vigilanza a vari fattori situazionali non correlati al compito e fattori legati all'organismo.
L'influenza dei fattori situazionali e organismici
Un basso livello di eccitazione contribuisce a scarse prestazioni nei compiti di vigilanza. Così le prestazioni possono essere migliorate da fattori situazionali che tendono a migliorare l'eccitazione, e possono essere ridotte da tutte le misure che riducono il livello di eccitazione. A conti fatti, questa generalizzazione è per lo più corretta per il livello di prestazione generale nei compiti di vigilanza, ma gli effetti sul decremento della vigilanza sono assenti o osservati in modo meno affidabile attraverso diversi tipi di manipolazione dell'eccitazione.
Un modo per aumentare il livello di eccitazione è l'introduzione di ulteriore rumore. Tuttavia, il decremento della vigilanza è generalmente inalterato e, rispetto alla performance complessiva, i risultati sono incoerenti: sono stati tutti osservati livelli di performance migliorati, invariati e ridotti. Forse la complessa natura del rumore è rilevante. Ad esempio, può essere affettivamente neutro o fastidioso; non può solo suscitare, ma anche distrarre. Più consistenti sono gli effetti della privazione del sonno, che è “disattivante”. In genere riduce le prestazioni di vigilanza e talvolta è stato visto aumentare il decremento della vigilanza. Appropriati cambiamenti nelle prestazioni di vigilanza sono stati osservati anche con farmaci depressivi come benzodiazepine o alcol e droghe stimolanti come anfetamine, caffeina o nicotina.
Le differenze individuali sono una caratteristica cospicua delle prestazioni nei compiti di vigilanza. Sebbene le differenze individuali non siano coerenti in tutti i tipi di attività di vigilanza, sono abbastanza coerenti tra compiti simili. C'è solo poco o nessun effetto del sesso e dell'intelligenza generale. Rispetto all'età, la prestazione di vigilanza aumenta durante l'infanzia e tende a diminuire oltre i sessant'anni. Inoltre, ci sono buone probabilità che gli introversi mostrino prestazioni migliori rispetto agli estroversi.
Il miglioramento delle prestazioni di vigilanza
Le teorie ei dati esistenti suggeriscono alcuni mezzi per migliorare le prestazioni di vigilanza. A seconda della quantità di specificità dei suggerimenti, non è difficile compilare elenchi di varia lunghezza. Di seguito vengono forniti alcuni suggerimenti piuttosto ampi che devono essere adattati ai requisiti specifici del compito. Sono legati alla facilità delle discriminazioni percettive, agli opportuni aggiustamenti strategici, alla riduzione dell'incertezza, all'evitamento degli effetti dei vuoti di attenzione e al mantenimento dell'arousal.
I compiti di vigilanza richiedono discriminazioni in condizioni non ottimali. Quindi si è ben consigliati nel rendere le discriminazioni il più semplici possibile, oi segnali il più evidenti possibile. Le misure relative a questo obiettivo generale possono essere semplici (come un'adeguata illuminazione o tempi di ispezione più lunghi per prodotto) o più sofisticate, compresi dispositivi speciali per migliorare la visibilità degli obiettivi. I confronti simultanei sono più facili di quelli successivi, quindi la disponibilità di uno standard di riferimento può essere utile. Mediante accorgimenti tecnici, è talvolta possibile presentare lo standard e l'oggetto da esaminare in rapida alternanza, in modo che le differenze appaiano come movimenti nel display o altri cambiamenti per i quali il sistema visivo è particolarmente sensibile.
Per contrastare le modifiche strategiche della soglia che portano a una percentuale relativamente bassa di rilevamenti corretti dei bersagli (e per rendere il compito meno noioso in termini di frequenza delle azioni da intraprendere) è stato suggerito di introdurre falsi bersagli. Tuttavia, questa non sembra essere una buona raccomandazione. Obiettivi falsi aumenteranno la percentuale di colpi complessivi, ma a costo di falsi allarmi più frequenti. Inoltre, la proporzione di obiettivi non rilevati tra tutti gli stimoli a cui non si risponde (il materiale difettoso in uscita in un'attività di ispezione industriale) non sarà necessariamente ridotta. Più adatta sembra essere la conoscenza esplicita dell'importanza relativa di hit e falsi allarmi e forse altre misure per ottenere un posizionamento appropriato della soglia per decidere tra "buono" e "cattivo".
L'incertezza temporale e spaziale sono importanti fattori determinanti di scarse prestazioni di vigilanza. Per alcuni compiti, l'incertezza spaziale può essere ridotta definendo una certa posizione dell'oggetto da ispezionare. Tuttavia, si può fare poco sull'incertezza temporale: l'osservatore non sarebbe necessario in un compito di vigilanza se il verificarsi di un obiettivo potesse essere segnalato prima della sua presentazione. Una cosa che si può fare in linea di principio, però, è mescolare gli oggetti da ispezionare se i difetti tendono a presentarsi a grappolo; questo serve ad evitare intervalli molto lunghi senza obiettivi così come intervalli molto brevi.
Ci sono alcuni ovvi suggerimenti per la riduzione dei vuoti di attenzione o almeno il loro impatto sulle prestazioni. Con un addestramento adeguato, si può forse ottenere una sorta di elaborazione automatica degli obiettivi, a condizione che lo sfondo e gli stimoli dell'obiettivo non siano troppo variabili. L'obbligo di mantenimento prolungato del set di compiti può essere evitato per mezzo di frequenti brevi pause, rotazione del lavoro, ampliamento del lavoro o arricchimento del lavoro. L'introduzione della varietà può essere semplice come chiedere all'ispettore stesso di ottenere il materiale da ispezionare da una scatola o da un altro luogo. Ciò introduce anche l'autoritmo, che può aiutare a evitare presentazioni di segnali durante le disattivazioni temporanee del set di attività. Il mantenimento prolungato del set di attività può essere supportato mediante feedback, interesse indicato da parte dei supervisori e consapevolezza dell'operatore dell'importanza dell'attività. Naturalmente, nei tipici compiti di vigilanza non è possibile un feedback accurato del livello delle prestazioni; tuttavia, anche un feedback impreciso o incompleto può essere utile per quanto riguarda la motivazione dell'osservatore.
Ci sono alcune misure che possono essere prese per mantenere un livello sufficiente di eccitazione. L'uso continuo di droghe può esistere nella pratica, ma non si trova mai tra le raccomandazioni. Un po' di musica di sottofondo può essere utile, ma può anche avere un effetto opposto. L'isolamento sociale durante le attività di vigilanza dovrebbe essere per lo più evitato e durante le ore del giorno con bassi livelli di eccitazione come le ore tarde della notte, le misure di supporto come i turni di guardia brevi sono particolarmente importanti.
La valutazione della tossicità genetica è la valutazione degli agenti per la loro capacità di indurre uno dei tre tipi generali di cambiamenti (mutazioni) nel materiale genetico (DNA): genico, cromosomico e genomico. In organismi come gli esseri umani, i geni sono composti da DNA, che consiste di singole unità chiamate basi nucleotidiche. I geni sono disposti in strutture fisiche discrete chiamate cromosomi. La genotossicità può provocare effetti significativi e irreversibili sulla salute umana. Il danno genotossico è un passaggio critico nell'induzione del cancro e può anche essere coinvolto nell'induzione di difetti alla nascita e morte fetale. Le tre classi di mutazioni sopra menzionate possono verificarsi all'interno di uno dei due tipi di tessuti posseduti da organismi come gli esseri umani: spermatozoi o uova (cellule germinali) e il tessuto rimanente (cellule somatiche).
I test che misurano la mutazione genica sono quelli che rilevano la sostituzione, l'aggiunta o la delezione di nucleotidi all'interno di un gene. I test che misurano la mutazione cromosomica sono quelli che rilevano rotture o riarrangiamenti cromosomici che coinvolgono uno o più cromosomi. I test che misurano la mutazione genomica sono quelli che rilevano i cambiamenti nel numero di cromosomi, una condizione chiamata aneuploidia. La valutazione della tossicità genetica è cambiata notevolmente dallo sviluppo da parte di Herman Muller nel 1927 del primo test per rilevare agenti genotossici (mutageni). Da allora sono stati sviluppati più di 200 test che misurano le mutazioni nel DNA; tuttavia, oggi vengono utilizzati comunemente meno di dieci test per la valutazione della tossicità genetica. Questo articolo esamina questi test, descrive ciò che misurano ed esplora il ruolo di questi test nella valutazione della tossicità.
Identificazione dei rischi di cancroPrima dello sviluppo del Campo di tossicologia genetica
La tossicologia genetica è diventata parte integrante del processo complessivo di valutazione del rischio e negli ultimi tempi ha guadagnato importanza come predittore affidabile dell'attività cancerogena. Tuttavia, prima dello sviluppo della tossicologia genetica (prima del 1970), altri metodi erano e sono tuttora utilizzati per identificare potenziali rischi di cancro per l'uomo. Esistono sei principali categorie di metodi attualmente utilizzati per identificare i rischi di cancro nell'uomo: studi epidemiologici, saggi biologici in vivo a lungo termine, saggi biologici in vivo a medio termine, saggi biologici in vivo e in vitro a breve termine, intelligenza artificiale (struttura-attività), e inferenza basata sui meccanismi.
La tabella 1 fornisce vantaggi e svantaggi per questi metodi.
Tabella 1. Vantaggi e svantaggi dei metodi attuali per l'identificazione dei rischi di cancro nell'uomo
Vantaggi | Svantaggi | |
Studi epidemiologici | (1) gli esseri umani sono i massimi indicatori di malattia; (2) valutare le popolazioni sensibili o suscettibili; (3) coorti di esposizione professionale; (4) allarmi sentinella ambientale |
(1) generalmente retrospettivo (certificati di morte, bias di richiamo, ecc.); (2) insensibile, costoso, lungo; (3) dati affidabili sull'esposizione a volte non disponibili o difficili da ottenere; (4) esposizioni combinate, multiple e complesse; mancanza di adeguate coorti di controllo; (5) esperimenti sugli esseri umani non fatti; (6) rilevamento del cancro, non prevenzione |
Saggi biologici in vivo a lungo termine | (1) valutazioni prospettiche e retrospettive (convalida); (2) eccellente correlazione con cancerogeni umani identificati; (3) livelli e condizioni di esposizione noti; (4) identifica la tossicità chimica e gli effetti cancerogeni; (5) risultati ottenuti in tempi relativamente brevi; (6) confronti qualitativi tra classi chimiche; (7) sistemi biologici integrativi e interattivi strettamente legati all'uomo | (1) raramente replicato, ad alta intensità di risorse; (3) strutture limitate adatte a tali esperimenti; (4) dibattito sull'estrapolazione delle specie; (5) le esposizioni utilizzate sono spesso a livelli di gran lunga superiori a quelli sperimentati dall'uomo; (6) l'esposizione a una singola sostanza chimica non imita l'esposizione umana, che generalmente avviene a più sostanze chimiche contemporaneamente |
Saggi biologici in vivo e in vitro a medio e breve termine | (1) più rapido e meno costoso di altri test; (2) grandi campioni facilmente replicabili; (3) vengono misurati i punti finali biologicamente significativi (mutazione, ecc.); (4) può essere utilizzato come analisi di screening per selezionare sostanze chimiche per analisi biologiche a lungo termine |
(1) in vitro non completamente predittivo di in vivo; (2) solitamente organismo o organo specifico; (3) potenze non paragonabili a animali interi o umani |
Associazioni struttura chimica-attività biologica | (1) relativamente facile, rapido e poco costoso; (2) affidabile per alcune classi chimiche (ad esempio, nitrosammine e coloranti benzidinici); (3) sviluppato da dati biologici ma non dipendente da ulteriori sperimentazioni biologiche | (1) non "biologico"; (2) molte eccezioni alle regole formulate; (3) retrospettiva e raramente (ma diventa) prospettica |
Inferenze basate sui meccanismi | (1) ragionevolmente accurato per determinate classi di sostanze chimiche; (2) consente di perfezionare le ipotesi; (3) può orientare le valutazioni del rischio verso popolazioni sensibili | (1) meccanismi di cancerogenesi chimica indefiniti, multipli e probabilmente chimici o specifici per classe; (2) può non evidenziare eccezioni ai meccanismi generali |
Basi razionali e concettuali per saggi di tossicologia genetica
Sebbene i tipi e i numeri esatti dei test utilizzati per la valutazione della tossicità genetica siano in continua evoluzione e varino da paese a paese, i più comuni includono test per (1) mutazione genica in batteri e/o cellule di mammifero in coltura e (2) mutazione cromosomica in cellule di mammifero in coltura e/o midollo osseo all'interno di topi viventi. Alcuni dei test all'interno di questa seconda categoria possono anche rilevare l'aneuploidia. Sebbene questi test non rilevino mutazioni nelle cellule germinali, vengono utilizzati principalmente a causa del costo aggiuntivo e della complessità dell'esecuzione dei test delle cellule germinali. Tuttavia, i test delle cellule germinali nei topi vengono utilizzati quando si desiderano informazioni sugli effetti delle cellule germinali.
Studi sistematici su un periodo di 25 anni (1970-1995), in particolare presso il National Toxicology Program degli Stati Uniti nella Carolina del Nord, hanno portato all'uso di un numero discreto di test per rilevare l'attività mutagena degli agenti. Il fondamento logico per valutare l'utilità dei saggi si basava sulla loro capacità di rilevare agenti che causano il cancro nei roditori e che si sospetta causino il cancro nell'uomo (cioè agenti cancerogeni). Questo perché gli studi degli ultimi decenni hanno indicato che le cellule tumorali contengono mutazioni in alcuni geni e che molti agenti cancerogeni sono anche mutageni. Pertanto, le cellule tumorali sono viste come contenenti mutazioni delle cellule somatiche e la cancerogenesi è vista come un tipo di mutagenesi delle cellule somatiche.
I test di tossicità genetica utilizzati più comunemente oggi sono stati selezionati non solo per il loro ampio database, il costo relativamente basso e la facilità di esecuzione, ma perché hanno dimostrato di rilevare molti roditori e, presumibilmente, agenti cancerogeni per l'uomo. Di conseguenza, i test di tossicità genetica vengono utilizzati per prevedere la potenziale cancerogenicità degli agenti.
Un importante sviluppo concettuale e pratico nel campo della tossicologia genetica è stato il riconoscimento che molti cancerogeni sono stati modificati dagli enzimi all'interno del corpo, creando forme alterate (metaboliti) che erano spesso la forma cancerogena e mutagena definitiva della sostanza chimica madre. Per duplicare questo metabolismo in una capsula di Petri, Heinrich Malling ha dimostrato che l'inclusione di un preparato di fegato di roditore conteneva molti degli enzimi necessari per eseguire questa conversione o attivazione metabolica. Pertanto, molti test di tossicità genetica eseguiti in piastre o provette (in vitro) impiegano l'aggiunta di preparazioni enzimatiche simili. Le preparazioni semplici sono chiamate mix S9 e le preparazioni purificate sono chiamate microsomi. Alcune cellule batteriche e di mammifero sono state ora geneticamente modificate per contenere alcuni dei geni di roditori o umani che producono questi enzimi, riducendo la necessità di aggiungere mix S9 o microsomi.
Saggi e tecniche di tossicologia genetica
I principali sistemi batterici utilizzati per lo screening della tossicità genetica sono il saggio di mutagenicità Salmonella (Ames) e, in misura molto minore, il ceppo WP2 di Escherichia coli. Gli studi della metà degli anni '1980 hanno indicato che l'uso di soli due ceppi del sistema Salmonella (TA98 e TA100) era sufficiente per rilevare circa il 90% dei mutageni conosciuti di Salmonella. Pertanto, questi due ceppi vengono utilizzati per la maggior parte degli scopi di screening; tuttavia, sono disponibili vari altri ceppi per test più approfonditi.
Questi saggi vengono eseguiti in vari modi, ma due procedure generali sono i saggi di incorporazione su piastra e di sospensione liquida. Nel saggio di incorporazione su piastra, le cellule, la sostanza chimica in esame e (se desiderato) l'S9 vengono aggiunti insieme in un agar liquefatto e versati sulla superficie di una piastra di agar petri. L'agar superiore si indurisce in pochi minuti e le piastre vengono incubate per due o tre giorni, dopodiché le cellule mutanti sono cresciute per formare gruppi di cellule visivamente rilevabili chiamate colonie, che vengono poi contate. Il terreno di agar contiene agenti selettivi o è composto da ingredienti tali che cresceranno solo le cellule appena mutate. Il test di incubazione con liquido è simile, tranne per il fatto che le cellule, l'agente del test e l'S9 vengono incubati insieme in un liquido che non contiene agar liquefatto, quindi le cellule vengono lavate via dall'agente del test e dall'S9 e seminate sull'agar.
Le mutazioni nelle cellule di mammifero in coltura vengono rilevate principalmente in uno dei due geni: hprt ed tk. Analogamente ai saggi batterici, le linee cellulari di mammifero (sviluppate da roditori o cellule umane) vengono esposte all'agente di prova in piastre o provette di coltura di plastica e quindi vengono seminate in piastre di coltura che contengono terreno con un agente selettivo che consente solo alle cellule mutanti di crescere . I saggi utilizzati a questo scopo includono il CHO/HPRT, il TK6 e il linfoma di topo L5178Y/TK+/- saggi. Vengono utilizzate anche altre linee cellulari contenenti varie mutazioni di riparazione del DNA e contenenti alcuni geni umani coinvolti nel metabolismo. Questi sistemi consentono il recupero di mutazioni all'interno del gene (mutazione genica) così come mutazioni che coinvolgono regioni del cromosoma che fiancheggiano il gene (mutazione cromosomica). Tuttavia, quest'ultimo tipo di mutazione viene recuperato in misura molto maggiore dal tk sistemi genici che dal hprt sistemi genici a causa della posizione del tk scomodo.
Analogamente al saggio di incubazione in liquido per la mutagenicità batterica, i saggi di mutagenicità su cellule di mammifero comportano generalmente l'esposizione delle cellule in piastre o provette di coltura in presenza dell'agente in esame e S9 per diverse ore. Le cellule vengono quindi lavate, coltivate per diversi giorni per consentire la degradazione dei prodotti genici normali (wild-type) e l'espressione e l'accumulo dei nuovi prodotti genici mutanti, quindi vengono seminate in un terreno contenente un agente selettivo che consente solo le cellule mutanti a crescere. Come i test batterici, le cellule mutanti crescono in colonie visivamente rilevabili che vengono poi contate.
La mutazione cromosomica è identificata principalmente mediante analisi citogenetiche, che comportano l'esposizione di roditori e/o cellule di roditori o umane in piastre di coltura a una sostanza chimica in esame, consentendo il verificarsi di una o più divisioni cellulari, la colorazione dei cromosomi e quindi l'esame visivo dei cromosomi attraverso un microscopio per rilevare alterazioni nella struttura o nel numero di cromosomi. Sebbene sia possibile esaminare una varietà di endpoint, i due attualmente accettati dalle agenzie di regolamentazione come i più significativi sono le aberrazioni cromosomiche e una sottocategoria chiamata micronuclei.
Sono necessarie una notevole formazione ed esperienza per valutare le cellule per la presenza di aberrazioni cromosomiche, rendendo questa procedura costosa in termini di tempo e denaro. Al contrario, i micronuclei richiedono poco addestramento e il loro rilevamento può essere automatizzato. I micronuclei appaiono come piccoli punti all'interno della cellula che sono distinti dal nucleo, che contiene i cromosomi. I micronuclei derivano dalla rottura del cromosoma o dall'aneuploidia. A causa della facilità di scoring dei micronuclei rispetto alle aberrazioni cromosomiche, e poiché studi recenti indicano che gli agenti che inducono aberrazioni cromosomiche nel midollo osseo di topi viventi generalmente inducono micronuclei in questo tessuto, i micronuclei sono ora comunemente misurati come un'indicazione della capacità di un agente per indurre la mutazione cromosomica.
Sebbene i test sulle cellule germinali siano utilizzati molto meno frequentemente rispetto agli altri test sopra descritti, sono indispensabili per determinare se un agente rappresenta un rischio per le cellule germinali, le cui mutazioni possono portare a effetti sulla salute nelle generazioni successive. I test delle cellule germinali più comunemente usati sono nei topi e coinvolgono sistemi che rilevano (1) traslocazioni ereditabili (scambi) tra i cromosomi (test di traslocazione ereditaria), (2) mutazioni geniche o cromosomiche che coinvolgono geni specifici (specifico visibile o biochimico-locus saggi) e (3) mutazioni che influenzano la vitalità (dosaggio letale dominante). Come per i saggi sulle cellule somatiche, il presupposto di lavoro con i saggi sulle cellule germinali è che si presume che gli agenti positivi in questi saggi siano potenziali mutageni delle cellule germinali umane.
Stato attuale e prospettive future
Studi recenti hanno indicato che erano necessarie solo tre informazioni per rilevare circa il 90% di un insieme di 41 cancerogeni per roditori (cioè presunti cancerogeni per l'uomo e mutageni delle cellule somatiche). Questi includevano (1) la conoscenza della struttura chimica dell'agente, specialmente se contiene frazioni elettrofile (vedere la sezione sulle relazioni struttura-attività); (2) dati sulla mutagenicità della Salmonella; e (3) dati da un test di tossicità cronica di 90 giorni nei roditori (topi e ratti). In effetti, essenzialmente tutti gli agenti cancerogeni per l'uomo dichiarati dalla IARC sono rilevabili come mutageni utilizzando solo il test Salmonella e il test del micronucleo del midollo osseo di topo. L'uso di questi test di mutagenicità per rilevare potenziali agenti cancerogeni per l'uomo è ulteriormente supportato dalla scoperta che la maggior parte degli agenti cancerogeni per l'uomo è cancerogena sia nei ratti che nei topi (cancerogeni transspecie) e che la maggior parte degli agenti cancerogeni transspecie è mutagena nella Salmonella e/o induce micronuclei nel midollo osseo del topo.
Con i progressi nella tecnologia del DNA, il progetto sul genoma umano e una migliore comprensione del ruolo della mutazione nel cancro, si stanno sviluppando nuovi test di genotossicità che saranno probabilmente incorporati nelle procedure di screening standard. Tra questi c'è l'uso di cellule transgeniche e di roditori. I sistemi transgenici sono quelli in cui un gene di un'altra specie è stato introdotto in una cellula o in un organismo. Ad esempio, i topi transgenici sono ora in uso sperimentale che consentono il rilevamento della mutazione in qualsiasi organo o tessuto dell'animale, sulla base dell'introduzione di un gene batterico nel topo. Sono ora disponibili cellule batteriche, come Salmonella, e cellule di mammifero (comprese linee cellulari umane) che contengono geni coinvolti nel metabolismo di agenti cancerogeni/mutageni, come i geni P450. Analisi molecolare delle effettive mutazioni indotte nel transgene all'interno di roditori transgenici o all'interno di geni nativi come hprt, oppure è ora possibile analizzare i geni bersaglio all'interno della Salmonella, in modo da poter determinare l'esatta natura delle mutazioni indotte dalle sostanze chimiche, fornendo informazioni sul meccanismo d'azione della sostanza chimica e consentendo confronti con le mutazioni negli esseri umani presumibilmente esposti all'agente .
I progressi molecolari nella citogenetica ora consentono una valutazione più dettagliata delle mutazioni cromosomiche. Questi includono l'uso di sonde (piccoli pezzi di DNA) che si attaccano (ibridano) a geni specifici. I riarrangiamenti dei geni sul cromosoma possono quindi essere rivelati dalla posizione alterata delle sonde, che sono fluorescenti e facilmente visualizzabili come settori colorati sui cromosomi. Il test di elettroforesi su gel a singola cellula per la rottura del DNA (comunemente chiamato test "cometa") consente il rilevamento di rotture del DNA all'interno di singole cellule e può diventare uno strumento estremamente utile in combinazione con tecniche citogenetiche per rilevare il danno cromosomico.
Dopo molti anni di utilizzo e la generazione di un database ampio e sviluppato in modo sistematico, la valutazione della tossicità genetica può ora essere eseguita con pochi test a costi relativamente ridotti in un breve periodo di tempo (poche settimane). I dati prodotti possono essere utilizzati per prevedere la capacità di un agente di essere un roditore e, presumibilmente, cancerogeno per l'uomo/mutageno di cellule somatiche. Tale capacità consente di limitare l'introduzione nell'ambiente di agenti mutageni e cancerogeni e di sviluppare agenti alternativi non mutageni. Gli studi futuri dovrebbero portare a metodi ancora migliori con una maggiore predittività rispetto ai test attuali.
" DISCLAIMER: L'ILO non si assume alcuna responsabilità per i contenuti presentati su questo portale Web presentati in una lingua diversa dall'inglese, che è la lingua utilizzata per la produzione iniziale e la revisione tra pari del contenuto originale. Alcune statistiche non sono state aggiornate da allora la produzione della 4a edizione dell'Enciclopedia (1998)."