27. Monitoraggio biologico
Editor del capitolo: Robert Lauwerys
Sommario
Principi generali
Vito Foà e Lorenzo Alessio
Certificazione di qualità
D.Gompertz
Metalli e Composti Organometallici
P.Hoet e Robert Lauwerys
Solventi organici
Masayuki Ikeda
Sostanze chimiche genotossiche
Marja Sorsa
Pesticidi
Marco Maroni e Adalberto Ferioli
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. ACGIH, DFG e altri valori limite per i metalli
2. Esempi di monitoraggio chimico e biologico
3. Monitoraggio biologico per solventi organici
4. Genotossicità delle sostanze chimiche valutata da IARC
5. Biomarcatori e alcuni campioni di cellule/tessuti e genotossicità
6. Agenti cancerogeni per l'uomo, esposizione professionale e endpoint citogenetici
8. Esposizione da produzione e uso di pesticidi
9. Tossicità OP acuta a diversi livelli di inibizione ACHE
10 Variazioni di ACHE e PCHE e condizioni di salute selezionate
11 Attività della colinesterasi di persone sane non esposte
12 Alchilfosfati urinari e pesticidi OP
13 Misurazioni di alchilfosfati urinari e OP
14 Metaboliti carbammati urinari
15 Metaboliti urinari del ditiocarbammato
16 Indici proposti per il monitoraggio biologico dei pesticidi
17 Valori limite biologici raccomandati (a partire dal 1996)
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
28. Epidemiologia e statistica
Redattori di capitoli: Franco Merletti, Colin L. Soskolne e Paolo Vineis
Metodo epidemiologico applicato alla salute e sicurezza sul lavoro
Franco Merletti, Colin L. Soskolne e Paolo Vineis
Valutazione dell'esposizione
Sig. Gerald Ott
Sommario Misure di esposizione durante la vita lavorativa
Colin L. Soskolne
Misurazione degli effetti delle esposizioni
Shelia Hoar Zahm
Caso di studio: Misure
Franco Merletti, Colin L. Soskolne e Paola Vineis
Opzioni nella progettazione dello studio
Sven Hernberg
Problemi di validità nella progettazione dello studio
Annie J.Sasco
Impatto dell'errore di misurazione casuale
Paolo Vineis e Colin L. Soskolne
Metodi statistici
Annibale Biggeri e Mario Braga
Valutazione della causalità ed etica nella ricerca epidemiologica
Paolo Vineis
Casi di studio che illustrano questioni metodologiche nella sorveglianza delle malattie professionali
Jung-Der Wang
Questionari nella ricerca epidemiologica
Steven D. Stellman e Colin L. Soskolne
Prospettiva storica dell'amianto
Lorenzo Garfinkel
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. Cinque misure riassuntive selezionate dell'esposizione durante la vita lavorativa
2. Misure di insorgenza della malattia
3. Misure di associazione per uno studio di coorte
4. Misure di associazione per studi caso-controllo
5. Layout generale della tabella delle frequenze per i dati di coorte
6. Esempio di layout dei dati caso-controllo
7. Disporre i dati caso-controllo: un controllo per caso
8. Ipotetica coorte di 1950 individui a T2
9. Indici di tendenza centrale e dispersione
10 Un esperimento binomiale e probabilità
11 Possibili esiti di un esperimento binomiale
12 Distribuzione binomiale, 15 successi/30 prove
13 Distribuzione binomiale, p = 0.25; 30 prove
14 Errore e alimentazione di tipo II; x = 12, n = 30, a = 0.05
15 Errore e alimentazione di tipo II; x = 12, n = 40, a = 0.05
16 632 lavoratori esposti all'amianto da 20 anni o più
17 O/E numero di morti tra 632 lavoratori dell'amianto
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
29. Ergonomia
Redattori di capitoli: Wolfgang Laurig e Joachim Vedder
Sommario
Panoramica
Wolfgang Laurig e Joachim Vedder
La natura e gli scopi dell'ergonomia
William T. Singleton
Analisi delle attività, dei compiti e dei sistemi di lavoro
Veronica De Keyser
Ergonomia e standardizzazione
Friedhelm Nachreiner
Liste di controllo
Pranab Kumar Nag
Antropometria
Melchiorre Masali
Lavoro muscolare
Juhani Smolander e Veikko Louhevaara
Posture sul lavoro
Ilkka Kuorinka
Biomeccanica
Franco Darby
Fatica Generale
Etienne Grandjean
Fatica e recupero
Rolf Helbig e Walter Rohmert
Carico di lavoro mentale
Winfried Hacker
vigilanza
Herbert Heuer
Affaticamento mentale
Pietro Richter
Organizzazione del lavoro
Eberhard Ulich e Gudela Grote
Privazione del sonno
Kazutaka Kogi
workstation
Roland Kadefors
Strumenti
TM Fraser
Comandi, indicatori e pannelli
Karl SE Kroemer
Elaborazione e progettazione delle informazioni
Andries F. Sanders
Progettare per gruppi specifici
Scherzo H. Grady-van den Nieuwboer
Caso di studio: la classificazione internazionale della limitazione funzionale nelle persone
Differenze culturali
Hushang Shahnavaz
Lavoratori anziani
Antoine Laville e Serge Volkoff
Lavoratori con Bisogni Speciali
Scherzo H. Grady-van den Nieuwboer
Progettazione di sistemi nella produzione di diamanti
Issacar Gilad
Ignorando i principi di progettazione ergonomica: Chernobyl
Vladimir M. Munipov
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. Elenco dei nuclei antropometrici di base
2. Fatica e recupero dipendono dai livelli di attività
3. Regole di combinazione degli effetti di due fattori di stress sulla deformazione
4. Differenza tra diverse conseguenze negative della tensione mentale
5. Principi orientati al lavoro per la strutturazione della produzione
6. Partecipazione al contesto organizzativo
7. Partecipazione degli utenti al processo tecnologico
8. Orario di lavoro irregolare e privazione del sonno
9. Aspetti dell'anticipo, dell'ancora e del sonno ritardato
10 Controlla i movimenti e gli effetti attesi
11 Relazioni controllo-effetto dei comandi manuali comuni
12 Regole per la disposizione dei controlli
13 Linee guida per le etichette
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
30. Igiene del lavoro
Editor del capitolo: Robert F.Herrick
Sommario
Obiettivi, definizioni e informazioni generali
Berenice I. Ferrari Goelzer
Riconoscimento dei pericoli
Linnea Lillienberg
Valutazione dell'ambiente di lavoro
Lori A.Todd
Igiene del lavoro: controllo delle esposizioni attraverso l'intervento
James Stewart
La base biologica per la valutazione dell'esposizione
Dick Heederik
Limiti di esposizione professionale
Dennis J. Paustenbach
1. Rischi chimici; agenti biologici e fisici
2. Limiti di esposizione professionale (OEL) - vari paesi
31. Protezione personale
Editor del capitolo: Robert F.Herrick
Sommario
Panoramica e filosofia della protezione personale
Robert F.Herrick
Protettori per occhi e viso
Kikuzi Kimura
Protezione del piede e della gamba
Toohiko Miura
Protezione della testa
Isabelle Balty e Alain Mayer
Protezione dell'udito
John R. Franchi e Elliott H. Berger
Abbigliamento protettivo
S. Zack Mansdorf
Protezione respiratoria
Thomas J. Nelson
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. Requisiti di trasmittanza (ISO 4850-1979)
2. Bilance di protezione - saldatura a gas e saldobrasatura
3. Scale di protezione - taglio dell'ossigeno
4. Scale di protezione - taglio ad arco plasma
5. Scale di protezione - saldatura ad arco elettrico o scriccatura
6. Scale di protezione - saldatura ad arco diretto al plasma
7. Elmetto di sicurezza: norma ISO 3873-1977
8. Classificazione di riduzione del rumore di una protezione acustica
9. Calcolo della riduzione del rumore ponderata A
10 Esempi di categorie di rischio dermico
11 Requisiti di prestazione fisica, chimica e biologica
12 Pericoli materiali associati a particolari attività
13 Fattori di protezione assegnati da ANSI Z88 2 (1992)
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
32. Sistemi di registrazione e sorveglianza
Editor del capitolo: Steven D. Stellmann
Sommario
Sistemi di sorveglianza e segnalazione delle malattie professionali
Steven B. Markowitz
Sorveglianza sui rischi professionali
David H. Wegman e Steven D. Stellman
Sorveglianza nei paesi in via di sviluppo
David Koh e Kee-Seng Chia
Sviluppo e applicazione di un sistema di classificazione degli infortuni e delle malattie professionali
Elyce Biddle
Analisi del rischio di lesioni e malattie non mortali sul posto di lavoro
John W. Ruser
Caso di studio: protezione dei lavoratori e statistiche sugli infortuni e le malattie professionali - HVBG, Germania
Martin Butz e Burkhard Hoffmann
Caso di studio: Wismut - Un'esposizione all'uranio rivisitata
Heinz Otten e Horst Schulz
Strategie e tecniche di misurazione per la valutazione dell'esposizione professionale in epidemiologia
Frank Bochmann e Helmut Blomé
Caso di studio: Indagini sulla salute sul lavoro in Cina
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
1. Angiosarcoma del fegato - registro mondiale
2. Malattia professionale, Stati Uniti, 1986 contro 1992
3. Morti negli Stati Uniti per pneumoconiosi e mesotelioma pleurico
4. Esempio di elenco delle malattie professionali soggette a denuncia
5. Struttura del codice di segnalazione di malattie e infortuni, Stati Uniti
6. Infortuni e malattie professionali non mortali, Stati Uniti 1993
7. Rischio di infortuni e malattie professionali
8. Rischio relativo per condizioni di movimento ripetitivo
9. Infortuni sul lavoro, Germania, 1981-93
10 Rettificatrici in incidenti di lavorazione dei metalli, Germania, 1984-93
11 Malattia professionale, Germania, 1980-93
12 Malattie infettive, Germania, 1980-93
13 Esposizione alle radiazioni nelle miniere di Wismut
14 Malattie professionali nelle miniere di uranio di Wismut 1952-90
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
33. Tossicologia
Redattore del capitolo: Ellen K. Silbergeld
Introduzione
Ellen K. Silbergeld, caporedattore
Definizioni e Concetti
Bo Holmberg, Johan Hogberg e Gunnar Johanson
Tossicocinetica
Dušan Djuric
Organo bersaglio ed effetti critici
Marek Jakubowski
Effetti dell'età, del sesso e di altri fattori
Spomenka Telisman
Determinanti genetici della risposta tossica
Daniel W. Nebert e Ross A. McKinnon
Introduzione e concetti
Philip G. Watanabe
Danno cellulare e morte cellulare
Benjamin F. Trump e Irene K. Berezesky
Tossicologia genetica
R. Rita Misra e Michael P. Waalkes
Immunotossicologia
Joseph G. Vos e Henk van Loveren
Tossicologia dell'organo bersaglio
Ellen K. Silbergeld
biomarkers
Filippo Grandjean
Valutazione della tossicità genetica
David M. De Marini e James Huff
Test di tossicità in vitro
Giovanna Zurlo
Relazioni struttura attività
Ellen K. Silbergeld
Tossicologia nel regolamento sulla salute e la sicurezza
Ellen K. Silbergeld
Principi di identificazione dei pericoli - L'approccio giapponese
Masayuki Ikeda
L'approccio degli Stati Uniti alla valutazione del rischio di sostanze tossiche per la riproduzione e agenti neurotossici
Ellen K. Silbergeld
Approcci all'identificazione dei pericoli - IARC
Harri Vainio e Julian Wilbourn
Appendice - Valutazioni complessive di cancerogenicità per l'uomo: Monografie IARC Volumi 1-69 (836)
Valutazione del rischio cancerogeno: altri approcci
Cees A. van der Heijden
Fare clic su un collegamento sottostante per visualizzare la tabella nel contesto dell'articolo.
Punta su una miniatura per vedere la didascalia della figura, fai clic per vedere la figura nel contesto dell'articolo.
Concetti e definizioni di base
In cantiere, le metodologie di igiene industriale possono misurare e controllare solo le sostanze chimiche aerodisperse, mentre altri aspetti del problema dei possibili agenti nocivi nell'ambiente dei lavoratori, come l'assorbimento cutaneo, l'ingestione e l'esposizione non lavorativa, rimangono non rilevati e quindi incontrollata. Il monitoraggio biologico aiuta a colmare questa lacuna.
Monitoraggio biologico è stato definito in un seminario del 1980, sponsorizzato congiuntamente dalla Comunità economica europea (CEE), dall'Istituto nazionale per la sicurezza e la salute sul lavoro (NIOSH) e dall'Associazione per la sicurezza e la salute sul lavoro (OSHA) (Berlino, Yodaiken e Henman 1984) a Lussemburgo come "il misurazione e valutazione degli agenti o dei loro metaboliti nei tessuti, nelle secrezioni, negli escrementi, nell'aria espirata o in qualsiasi combinazione di questi per valutare l'esposizione e il rischio per la salute rispetto a un riferimento appropriato”. Il monitoraggio è un'attività ripetitiva, regolare e preventiva volta a portare, se necessario, ad azioni correttive; non deve essere confuso con le procedure diagnostiche.
Il monitoraggio biologico è uno dei tre strumenti importanti nella prevenzione delle malattie dovute ad agenti tossici nell'ambiente generale o lavorativo, gli altri due sono il monitoraggio ambientale e la sorveglianza sanitaria.
La sequenza nel possibile sviluppo di tale malattia può essere rappresentata schematicamente come segue: fonte-agente chimico esposto-dose interna-effetto biochimico o cellulare (reversibile)-effetti sulla salute-malattia. Le relazioni tra monitoraggio ambientale, biologico, dell'esposizione e sorveglianza sanitaria sono mostrate in figura 1.
Figura 1. La relazione tra monitoraggio ambientale, biologico e dell'esposizione e sorveglianza sanitaria
Quando una sostanza tossica (ad esempio un prodotto chimico industriale) è presente nell'ambiente, contamina l'aria, l'acqua, il cibo o le superfici a contatto con la pelle; la quantità di agente tossico in questi terreni viene valutata tramite monitoraggio ambientale.
Come risultato di assorbimento, distribuzione, metabolismo ed escrezione, un certo dose interna dell'agente tossico (la quantità netta di un inquinante assorbito o passato attraverso l'organismo in un intervallo di tempo specifico) viene effettivamente erogato al corpo e diventa rilevabile nei fluidi corporei. Come risultato della sua interazione con un recettore nel organo critico (l'organo che, in determinate condizioni di esposizione, manifesta il primo o il più importante effetto avverso), si verificano eventi biochimici e cellulari. Sia la dose interna che gli effetti biochimici e cellulari provocati possono essere misurati attraverso il monitoraggio biologico.
Sorveglianza sanitaria è stato definito nel suddetto seminario EEC/NIOSH/OSHA del 1980 come “l'esame medico-fisiologico periodico dei lavoratori esposti con l'obiettivo di proteggere la salute e prevenire le malattie”.
Il monitoraggio biologico e la sorveglianza sanitaria sono parti di un continuum che può variare dalla misurazione degli agenti o dei loro metaboliti nell'organismo attraverso la valutazione degli effetti biochimici e cellulari, all'individuazione di segni di compromissione precoce e reversibile dell'organo critico. L'individuazione della malattia accertata esula dall'ambito di queste valutazioni.
Obiettivi del monitoraggio biologico
Il monitoraggio biologico può essere suddiviso in (a) monitoraggio dell'esposizione e (b) monitoraggio dell'effetto, per i quali vengono utilizzati rispettivamente indicatori di dose interna e di effetto.
Lo scopo del monitoraggio biologico dell'esposizione è valutare il rischio per la salute attraverso la valutazione della dose interna, ottenendo una stima del carico corporeo biologicamente attivo della sostanza chimica in questione. La sua logica è garantire che l'esposizione dei lavoratori non raggiunga livelli in grado di suscitare effetti negativi. Un effetto è definito "avverso" se c'è una compromissione della capacità funzionale, una ridotta capacità di compensare lo stress aggiuntivo, una ridotta capacità di mantenere l'omeostasi (uno stato di equilibrio stabile) o una maggiore suscettibilità ad altre influenze ambientali.
A seconda del parametro chimico e biologico analizzato, il termine dose interna può avere significati diversi (Bernard e Lauwerys 1987). In primo luogo, può significare la quantità di una sostanza chimica recentemente assorbita, ad esempio, durante un singolo turno di lavoro. La determinazione della concentrazione dell'inquinante nell'aria alveolare o nel sangue può essere effettuata durante il turno di lavoro stesso o fino al giorno successivo (i campioni di sangue o aria alveolare possono essere prelevati fino a 16 ore dopo la fine del periodo di esposizione) . In secondo luogo, nel caso in cui la sostanza chimica abbia una lunga emivita biologica, ad esempio i metalli nel flusso sanguigno, la dose interna potrebbe riflettere la quantità assorbita in un periodo di pochi mesi.
In terzo luogo, il termine può anche indicare la quantità di sostanza chimica immagazzinata. In questo caso rappresenta un indicatore di accumulo che può fornire una stima della concentrazione della sostanza chimica in organi e/o tessuti dai quali, una volta depositata, viene rilasciata solo lentamente. Ad esempio, le misurazioni di DDT o PCB nel sangue potrebbero fornire tale stima.
Infine, un valore di dose interno può indicare la quantità della sostanza chimica nel sito in cui esercita i suoi effetti, fornendo così informazioni sulla dose biologicamente efficace. Uno degli usi più promettenti e importanti di questa capacità, ad esempio, è la determinazione degli addotti formati da sostanze chimiche tossiche con le proteine nell'emoglobina o con il DNA.
Il monitoraggio biologico degli effetti ha lo scopo di identificare alterazioni precoci e reversibili che si sviluppano nell'organo critico e che, allo stesso tempo, possono identificare individui con segni di effetti avversi sulla salute. In questo senso, il monitoraggio biologico degli effetti rappresenta lo strumento principale per la sorveglianza sanitaria dei lavoratori.
Principali metodi di monitoraggio
Il monitoraggio biologico dell'esposizione si basa sulla determinazione di indicatori di dose interna misurando:
Di seguito verranno discussi i fattori che influenzano la concentrazione della sostanza chimica e dei suoi metaboliti nel sangue o nelle urine.
Per quanto riguarda la concentrazione nell'aria alveolare, oltre al livello di esposizione ambientale, i fattori più importanti coinvolti sono la solubilità e il metabolismo della sostanza inalata, la ventilazione alveolare, la gittata cardiaca e la durata dell'esposizione (Brugnone et al. 1980).
L'uso di addotti del DNA e dell'emoglobina nel monitoraggio dell'esposizione umana a sostanze con potenziale cancerogeno è una tecnica molto promettente per la misurazione di esposizioni di basso livello. (Va notato, tuttavia, che non tutte le sostanze chimiche che si legano alle macromolecole nell'organismo umano sono genotossiche, cioè potenzialmente cancerogene.) La formazione di addotti è solo una fase del complesso processo di carcinogenesi. Altri eventi cellulari, come la promozione e la progressione della riparazione del DNA, modificano indubbiamente il rischio di sviluppare una malattia come il cancro. Pertanto, allo stato attuale, la misurazione degli addotti dovrebbe essere considerata limitata al solo monitoraggio dell'esposizione a sostanze chimiche. Questo è discusso più ampiamente nell'articolo "Sostanze chimiche genotossiche" più avanti in questo capitolo.
Il monitoraggio biologico degli effetti viene effettuato attraverso la determinazione di indicatori di effetto, cioè quelli che possono identificare alterazioni precoci e reversibili. Questo approccio può fornire una stima indiretta della quantità di sostanza chimica legata ai siti di azione e offre la possibilità di valutare le alterazioni funzionali nell'organo critico in una fase iniziale.
Sfortunatamente, possiamo elencare solo alcuni esempi dell'applicazione di questo approccio, vale a dire (1) l'inibizione della pseudocolinesterasi da parte di insetticidi organofosfati, (2) l'inibizione dell'acido d-aminolevulinico deidratasi (ALA-D) da parte del piombo inorganico, e (3) l'aumento dell'escrezione urinaria di d-acido glucarico e porfirine in soggetti esposti a sostanze chimiche induttrici di enzimi microsomiali e/o ad agenti porfirogenici (es. idrocarburi clorurati).
Vantaggi e limiti del monitoraggio biologico
Per le sostanze che esercitano la loro tossicità dopo essere entrate nell'organismo umano, il monitoraggio biologico fornisce una valutazione più mirata e mirata del rischio per la salute rispetto al monitoraggio ambientale. Un parametro biologico che riflette la dose interna ci avvicina di un passo alla comprensione degli effetti avversi sistemici rispetto a qualsiasi misurazione ambientale.
Il monitoraggio biologico offre numerosi vantaggi rispetto al monitoraggio ambientale ed in particolare permette di valutare:
Nonostante questi vantaggi, il monitoraggio biologico soffre ancora oggi di notevoli limiti, i più significativi dei quali sono i seguenti:
Informazioni necessarie per lo sviluppo di metodi e criteri per la selezione dei test biologici
La programmazione del monitoraggio biologico richiede le seguenti condizioni di base:
In questo contesto, la validità di un test è il grado in cui il parametro in esame predice la situazione così com'è (cioè, come dimostrerebbero strumenti di misura più accurati). La validità è determinata dalla combinazione di due proprietà: sensibilità e specificità. Se un test possiede un'elevata sensibilità, significa che darà pochi falsi negativi; se possiede un'elevata specificità, darà pochi falsi positivi (CEC 1985-1989).
Relazione tra esposizione, dose interna ed effetti
Lo studio della concentrazione di una sostanza nell'ambiente di lavoro e la contestuale determinazione degli indicatori di dose e di effetto nei soggetti esposti consente di ottenere informazioni sulla relazione tra l'esposizione professionale e la concentrazione della sostanza nei campioni biologici, e tra la quest'ultimo e i primi effetti dell'esposizione.
La conoscenza delle relazioni tra la dose di una sostanza e l'effetto che produce è un requisito essenziale per l'attuazione di un programma di monitoraggio biologico. La valutazione di questo relazione dose-effetto si basa sull'analisi del grado di associazione esistente tra l'indicatore di dose e l'indicatore di effetto e sullo studio delle variazioni quantitative dell'indicatore di effetto ad ogni variazione di indicatore di dose. (Vedi anche il cap Tossicologia, per ulteriori discussioni sulle relazioni dose-correlate).
Con lo studio della relazione dose-effetto è possibile individuare la concentrazione della sostanza tossica alla quale l'indicatore di effetto supera i valori attualmente considerati non nocivi. Inoltre, in questo modo potrebbe anche essere possibile esaminare quale potrebbe essere il livello senza effetto.
Poiché non tutti gli individui di un gruppo reagiscono allo stesso modo, è necessario esaminare il relazione dose-risposta, in altre parole, studiare come il gruppo risponde all'esposizione valutando la comparsa dell'effetto rispetto alla dose interna. Il termine risposta denota la percentuale di soggetti nel gruppo che mostrano una variazione quantitativa specifica di un indicatore di effetto a ciascun livello di dose.
Applicazioni pratiche del monitoraggio biologico
L'applicazione pratica di un programma di monitoraggio biologico richiede informazioni su (1) il comportamento degli indicatori utilizzati in relazione all'esposizione, in particolare quelli relativi al grado, alla continuità e alla durata dell'esposizione, (2) l'intervallo di tempo tra la fine dell'esposizione e la misurazione del gli indicatori e (3) tutti i fattori fisiologici e patologici diversi dall'esposizione che possono alterare i livelli degli indicatori.
Nei seguenti articoli verrà presentato il comportamento di una serie di indicatori biologici di dose ed effetto utilizzati per monitorare l'esposizione professionale a sostanze ampiamente utilizzate nell'industria. Per ogni sostanza saranno valutati l'utilità pratica ei limiti, con particolare attenzione al momento del campionamento e ai fattori interferenti. Tali considerazioni saranno utili per stabilire i criteri per la selezione di un test biologico.
Tempo di campionamento
Nella scelta del momento del campionamento, devono essere tenuti presenti i diversi aspetti cinetici della sostanza chimica; in particolare è fondamentale sapere come la sostanza viene assorbita per via polmonare, gastrointestinale e cutanea, successivamente distribuita nei diversi compartimenti dell'organismo, biotrasformata ed infine eliminata. È anche importante sapere se la sostanza chimica può accumularsi nel corpo.
Rispetto all'esposizione a sostanze organiche, il tempo di prelievo dei campioni biologici diventa tanto più importante in considerazione della diversa velocità dei processi metabolici coinvolti e conseguentemente della più o meno rapida escrezione della dose assorbita.
Fattori interferenti
Il corretto utilizzo degli indicatori biologici richiede una conoscenza approfondita di quei fattori che, pur indipendenti dall'esposizione, possono comunque influenzare i livelli degli indicatori biologici. Di seguito le tipologie più importanti di fattori interferenti (Alessio, Berlin e Foà 1987).
Fattori fisiologici tra cui dieta, sesso ed età, ad esempio, possono influenzare i risultati. Il consumo di pesce e crostacei può aumentare i livelli di arsenico urinario e di mercurio nel sangue. In soggetti di sesso femminile con gli stessi livelli ematici di piombo dei maschi, i valori di protoporfirina eritrocitaria sono significativamente più alti rispetto a quelli dei soggetti di sesso maschile. I livelli di cadmio urinario aumentano con l'età.
Tra le abitudini personali che possono falsare i livelli dell'indicatore, il fumo e il consumo di alcol rivestono particolare importanza. Il fumo può provocare l'assorbimento diretto di sostanze naturalmente presenti nelle foglie di tabacco (es. cadmio), o di inquinanti presenti nell'ambiente di lavoro che si sono depositati sulle sigarette (es. piombo), o di prodotti della combustione (es. monossido di carbonio).
Il consumo di alcol può influenzare i livelli degli indicatori biologici, poiché sostanze come il piombo sono naturalmente presenti nelle bevande alcoliche. I forti bevitori, ad esempio, mostrano livelli di piombo nel sangue più elevati rispetto ai soggetti di controllo. L'ingestione di alcol può interferire con la biotrasformazione e l'eliminazione di composti industriali tossici: con una singola dose, l'alcol può inibire il metabolismo di molti solventi, ad esempio tricloroetilene, xilene, stirene e toluene, a causa della loro competizione con l'alcol etilico per gli enzimi che sono essenziali per la scomposizione sia dell'etanolo che dei solventi. L'ingestione regolare di alcol può anche influenzare il metabolismo dei solventi in modo totalmente diverso accelerando il metabolismo dei solventi, presumibilmente a causa dell'induzione del sistema ossidante dei microsomi. Poiché l'etanolo è la sostanza più importante in grado di indurre interferenza metabolica, è opportuno determinare indicatori di esposizione ai solventi solo nei giorni in cui non si è consumato alcol.
Sono disponibili meno informazioni sui possibili effetti dei farmaci sui livelli degli indicatori biologici. È stato dimostrato che l'aspirina può interferire con la trasformazione biologica dello xilene in acido metilippurico e il fenilsalicilato, farmaco largamente utilizzato come analgesico, può aumentare significativamente i livelli di fenoli urinari. Il consumo di preparati antiacidi a base di alluminio può determinare un aumento dei livelli di alluminio nel plasma e nelle urine.
Differenze marcate sono state osservate in diversi gruppi etnici nel metabolismo di solventi ampiamente utilizzati come toluene, xilene, tricloroetilene, tetracloroetilene e metilcloroformio.
Gli stati patologici acquisiti possono influenzare i livelli degli indicatori biologici. L'organo critico può comportarsi in modo anomalo rispetto ai test di monitoraggio biologico a causa dell'azione specifica dell'agente tossico nonché per altri motivi. Un esempio di situazioni del primo tipo è l'andamento dei livelli di cadmio urinario: quando insorge la malattia tubulare da cadmio, l'escrezione urinaria aumenta notevolmente ei livelli del test non riflettono più il grado di esposizione. Un esempio del secondo tipo di situazione è l'aumento dei livelli di protoporfirina eritrocitaria osservato in soggetti carenti di ferro che non mostrano un assorbimento anomalo del piombo.
I cambiamenti fisiologici nei mezzi biologici, ad esempio l'urina, su cui si basano le determinazioni degli indicatori biologici, possono influenzare i valori del test. Per scopi pratici, durante il lavoro è possibile ottenere solo campioni urinari puntuali da individui e la densità variabile di questi campioni significa che i livelli dell'indicatore possono fluttuare ampiamente nel corso di un solo giorno.
Per ovviare a questa difficoltà, è consigliabile eliminare i campioni troppo diluiti o troppo concentrati in base ai valori di peso specifico o creatinina selezionati. In particolare, le urine con un peso specifico inferiore a 1010 o superiore a 1030 o con una concentrazione di creatinina inferiore a 0.5 g/l o superiore a 3.0 g/l devono essere scartate. Diversi autori suggeriscono inoltre di aggiustare i valori degli indicatori in base al peso specifico o di esprimere i valori in base al contenuto di creatinina urinaria.
I cambiamenti patologici nei mezzi biologici possono anche influenzare notevolmente i valori degli indicatori biologici. Ad esempio, in soggetti anemici esposti a metalli (mercurio, cadmio, piombo, ecc.) i livelli ematici del metallo possono essere inferiori a quanto ci si aspetterebbe in base all'esposizione; ciò è dovuto al basso livello di globuli rossi che trasportano il metallo tossico nella circolazione sanguigna.
Pertanto, quando si effettuano determinazioni di sostanze tossiche o metaboliti legati ai globuli rossi su sangue intero, è sempre consigliabile determinare l'ematocrito, che dà una misura della percentuale di globuli nel sangue intero.
Esposizione multipla a sostanze tossiche presenti nell'ambiente di lavoro
In caso di esposizione combinata a più sostanze tossiche presenti nell'ambiente di lavoro, possono verificarsi interferenze metaboliche che possono alterare il comportamento degli indicatori biologici e quindi creare seri problemi di interpretazione. Negli studi sull'uomo sono state dimostrate interferenze, ad esempio, nell'esposizione combinata a toluene e xilene, xilene ed etilbenzene, toluene e benzene, esano e metiletilchetone, tetracloroetilene e tricloroetilene.
In particolare, va notato che quando la biotrasformazione di un solvente è inibita, l'escrezione urinaria del suo metabolita è ridotta (possibile sottostima del rischio) mentre aumentano i livelli del solvente nel sangue e nell'aria espirata (possibile sovrastima del rischio).
Pertanto, nelle situazioni in cui è possibile misurare contemporaneamente le sostanze e i loro metaboliti per interpretare il grado di interferenza inibitoria, sarebbe utile verificare se i livelli dei metaboliti urinari sono inferiori a quelli attesi e allo stesso tempo se la concentrazione dei solventi nel sangue e/o nell'aria espirata è maggiore.
Sono state descritte interferenze metaboliche per esposizioni dove le singole sostanze sono presenti in livelli prossimi e talvolta inferiori ai valori limite attualmente accettati. Le interferenze, tuttavia, di solito non si verificano quando l'esposizione a ciascuna sostanza presente nell'ambiente di lavoro è bassa.
Uso pratico degli indicatori biologici
Gli indicatori biologici possono essere utilizzati per vari scopi nella pratica della medicina del lavoro, in particolare per (1) controllo periodico dei singoli lavoratori, (2) analisi dell'esposizione di un gruppo di lavoratori e (3) valutazioni epidemiologiche. I test utilizzati devono possedere caratteristiche di precisione, accuratezza, buona sensibilità e specificità al fine di ridurre al minimo il possibile numero di false classificazioni.
Valori di riferimento e gruppi di riferimento
Un valore di riferimento è il livello di un indicatore biologico nella popolazione generale non esposta professionalmente alla sostanza tossica oggetto di studio. A questi valori è necessario fare riferimento per confrontare i dati ottenuti attraverso programmi di monitoraggio biologico in una popolazione che si presume esposta. I valori di riferimento non devono essere confusi con i valori limite, che generalmente sono i limiti legali o le linee guida per l'esposizione professionale e ambientale (Alessio et al. 1992).
Quando è necessario confrontare i risultati delle analisi di gruppo, è necessario conoscere la distribuzione dei valori nel gruppo di riferimento e nel gruppo in studio perché solo così si può effettuare un confronto statistico. In questi casi è fondamentale cercare di abbinare la popolazione generale (gruppo di riferimento) con il gruppo esposto per caratteristiche simili quali sesso, età, stile di vita e abitudini alimentari.
Per ottenere valori di riferimento attendibili è necessario accertarsi che i soggetti che compongono il gruppo di riferimento non siano mai stati esposti alle sostanze tossiche, né per motivi professionali né per particolari condizioni di inquinamento ambientale.
Nella valutazione dell'esposizione a sostanze tossiche bisogna fare attenzione a non includere soggetti che, pur non essendo direttamente esposti alla sostanza tossica in questione, lavorano nello stesso posto di lavoro, poiché se tali soggetti sono, di fatto, indirettamente esposti, l'esposizione del gruppo può essere di conseguenza sottovalutato.
Un'altra pratica da evitare, sebbene ancora diffusa, è l'uso a scopo di riferimento di valori riportati in letteratura che derivano da elenchi di casi di altri paesi e che spesso possono essere stati raccolti in regioni in cui esistono diverse situazioni di inquinamento ambientale.
Monitoraggio periodico dei singoli lavoratori
Il monitoraggio periodico dei singoli lavoratori è obbligatorio quando i livelli della sostanza tossica nell'atmosfera dell'ambiente di lavoro si avvicinano al valore limite. Ove possibile, si consiglia di controllare contemporaneamente un indicatore di esposizione e un indicatore di effetto. I dati così ottenuti vanno confrontati con i valori di riferimento ei valori limite suggeriti per la sostanza in esame (ACGIH 1993).
Analisi di un gruppo di lavoratori
L'analisi di gruppo diventa obbligatoria quando i risultati degli indicatori biologici utilizzati possono essere fortemente influenzati da fattori indipendenti dall'esposizione (dieta, concentrazione o diluizione delle urine, ecc.) e per i quali esiste un'ampia gamma di valori “normali”.
Affinché lo studio di gruppo fornisca risultati utili, il gruppo deve essere sufficientemente numeroso ed omogeneo per quanto riguarda l'esposizione, il sesso e, nel caso di alcuni agenti tossici, l'anzianità lavorativa. Più i livelli di esposizione sono costanti nel tempo, più affidabili saranno i dati. Un'indagine svolta in un luogo di lavoro in cui i lavoratori cambiano frequentemente reparto o mansione avrà poco valore. Per una corretta valutazione di uno studio di gruppo non è sufficiente esprimere i dati solo come valori medi e range. Occorre inoltre tenere conto della distribuzione di frequenza dei valori dell'indicatore biologico in esame.
Valutazioni epidemiologiche
I dati ottenuti dal monitoraggio biologico di gruppi di lavoratori possono essere utilizzati anche in studi epidemiologici trasversali o prospettici.
Gli studi trasversali possono essere utilizzati per confrontare le situazioni esistenti in diversi reparti della fabbrica o in diverse industrie al fine di impostare mappe di rischio per i processi di produzione. Una difficoltà che si può incontrare in questo tipo di applicazione dipende dal fatto che i controlli di qualità interlaboratorio non sono ancora sufficientemente diffusi; pertanto non è possibile garantire che laboratori diversi producano risultati comparabili.
Gli studi prospettici servono a valutare l'andamento nel tempo dei livelli di esposizione per verificare, ad esempio, l'efficacia di miglioramenti ambientali o per correlare il comportamento degli indicatori biologici negli anni con lo stato di salute dei soggetti monitorati. I risultati di tali studi a lungo termine sono molto utili per risolvere problemi che comportano cambiamenti nel tempo. Attualmente, il monitoraggio biologico è utilizzato principalmente come procedura idonea a valutare se l'esposizione attuale è giudicata “sicura”, ma non è ancora valida per valutare le situazioni nel tempo. Un dato livello di esposizione considerato oggi sicuro potrebbe non essere più considerato tale in futuro.
Aspetti etici
Alcune considerazioni etiche sorgono in relazione all'uso del monitoraggio biologico come strumento per valutare la potenziale tossicità. Uno degli obiettivi di tale monitoraggio è raccogliere informazioni sufficienti per decidere quale livello di un dato effetto costituisce un effetto indesiderabile; in assenza di dati sufficienti, qualsiasi perturbazione sarà considerata indesiderabile. Le implicazioni normative e legali di questo tipo di informazioni devono essere valutate. Pertanto, dovremmo cercare la discussione sociale e il consenso sui modi in cui gli indicatori biologici dovrebbero essere utilizzati al meglio. In altre parole, è richiesta educazione ai lavoratori, ai datori di lavoro, alle comunità e alle autorità di regolamentazione sul significato dei risultati ottenuti dal monitoraggio biologico in modo che nessuno sia indebitamente allarmato o compiaciuto.
Ci deve essere un'adeguata comunicazione con la persona su cui è stato eseguito il test in merito ai risultati e alla loro interpretazione. Inoltre, il fatto che l'uso di alcuni indicatori sia o meno sperimentale dovrebbe essere comunicato chiaramente a tutti i partecipanti.
Il Codice internazionale di etica per i professionisti della medicina del lavoro, emanato dalla Commissione internazionale per la salute sul lavoro nel 1992, affermava che "i test biologici e le altre indagini devono essere scelti dal punto di vista della loro validità per la protezione della salute del lavoratore interessato, tenendo conto della loro sensibilità, della loro specificità e del loro valore predittivo”. Non devono essere utilizzati test “che non sono attendibili o che non hanno un sufficiente valore predittivo in relazione alle esigenze dell'incarico di lavoro”. (Vedi il cap Problemi etici per ulteriori discussioni e il testo del Codice.)
Tendenze nella regolamentazione e nell'applicazione
Il monitoraggio biologico può essere effettuato solo per un numero limitato di inquinanti ambientali a causa della limitata disponibilità di dati di riferimento adeguati. Ciò impone importanti limiti all'uso del monitoraggio biologico nella valutazione dell'esposizione.
L'Organizzazione mondiale della sanità (OMS), ad esempio, ha proposto valori di riferimento basati sulla salute solo per piombo, mercurio e cadmio. Questi valori sono definiti come livelli nel sangue e nelle urine non collegati ad alcun effetto avverso rilevabile. La Conferenza americana degli igienisti industriali governativi (ACGIH) ha stabilito indici di esposizione biologica (BEI) per circa 26 composti; Gli IBE sono definiti come “valori per determinanti che sono indicatori del grado di esposizione integrata a sostanze chimiche industriali” (ACGIH 1995).
Definizione e ambito
Ergonomia significa letteralmente lo studio o la misurazione del lavoro. In questo contesto, il termine lavoro indica una funzione umana mirata; si estende oltre il concetto più ristretto di lavoro come lavoro per guadagno monetario per incorporare tutte le attività con cui un operatore umano razionale persegue sistematicamente un obiettivo. Include quindi lo sport e altre attività ricreative, il lavoro domestico come l'assistenza all'infanzia e la manutenzione della casa, l'istruzione e la formazione, i servizi sanitari e sociali e il controllo di sistemi ingegnerizzati o l'adattamento ad essi, ad esempio, come passeggero in un veicolo.
L'operatore umano, oggetto di studio, può essere un professionista esperto che aziona una macchina complessa in un ambiente artificiale, un cliente che ha acquistato casualmente una nuova attrezzatura per uso personale, un bambino seduto in un'aula o una persona disabile in una sedia a rotelle. L'essere umano è altamente adattabile ma non infinitamente. Ci sono gamme di condizioni ottimali per qualsiasi attività. Uno dei compiti dell'ergonomia è definire quali sono questi intervalli ed esplorare gli effetti indesiderati che si verificano se i limiti vengono trasgrediti, ad esempio se si prevede che una persona lavori in condizioni di calore, rumore o vibrazioni eccessivi, o se il fisico o il carico di lavoro mentale è troppo alto o troppo basso.
L'ergonomia esamina non solo la situazione ambientale passiva, ma anche i vantaggi unici dell'operatore umano e i contributi che possono essere apportati se una situazione lavorativa è progettata per consentire e incoraggiare la persona a utilizzare al meglio le proprie capacità. Le capacità umane possono essere caratterizzate non solo con riferimento al generico operatore umano, ma anche rispetto a quelle capacità più particolari che vengono richiamate in situazioni specifiche in cui è essenziale un'elevata prestazione. Ad esempio, un produttore di automobili considererà la gamma di dimensioni fisiche e forza della popolazione di conducenti che dovrebbero utilizzare un particolare modello per garantire che i sedili siano comodi, che i comandi siano facilmente identificabili e a portata di mano, che vi sia una chiara visibilità anteriore e posteriore e che gli strumenti interni siano di facile lettura. Verrà presa in considerazione anche la facilità di ingresso e uscita. Al contrario, il progettista di un'auto da corsa presupporrà che il guidatore sia atletico, quindi la facilità di salire e scendere, ad esempio, non è importante e, infatti, le caratteristiche del design nel loro insieme in relazione al guidatore potrebbero essere su misura per le dimensioni e le preferenze di un particolare conducente per garantire che possa esercitare il suo pieno potenziale e abilità come conducente.
In tutte le situazioni, attività e compiti il fulcro è la persona o le persone coinvolte. Si presume che la struttura, l'ingegneria e qualsiasi altra tecnologia sia al servizio dell'operatore, non viceversa.
Storia e Stato
Circa un secolo fa si riconosceva che gli orari e le condizioni di lavoro in alcune miniere e fabbriche non erano tollerabili in termini di sicurezza e salute, ed era evidente la necessità di varare leggi che fissassero limiti ammissibili in tal senso. La determinazione e l'affermazione di quei limiti può essere considerata come l'inizio dell'ergonomia. Furono, per inciso, l'inizio di tutte le attività che ora trovano espressione attraverso il lavoro dell'Organizzazione Internazionale del Lavoro (ILO).
La ricerca, lo sviluppo e l'applicazione procedettero lentamente fino alla seconda guerra mondiale. Ciò ha innescato uno sviluppo notevolmente accelerato di macchine e strumentazione come veicoli, aerei, carri armati, pistole e dispositivi di rilevamento e navigazione notevolmente migliorati. Con l'avanzare della tecnologia, era disponibile una maggiore flessibilità per consentire l'adattamento all'operatore, un adattamento che divenne tanto più necessario perché le prestazioni umane limitavano le prestazioni del sistema. Se un veicolo a motore può viaggiare a una velocità di pochi chilometri all'ora non c'è bisogno di preoccuparsi delle prestazioni del conducente, ma quando la velocità massima del veicolo viene aumentata di un fattore dieci o cento, allora il conducente ha per reagire più rapidamente e non c'è tempo per correggere gli errori per evitare il disastro. Allo stesso modo, man mano che la tecnologia migliora, c'è meno bisogno di preoccuparsi di guasti meccanici o elettrici (ad esempio) e l'attenzione viene liberata per pensare alle esigenze del conducente.
Così l'ergonomia, nel senso di adattare la tecnologia ingegneristica alle esigenze dell'operatore, diventa contemporaneamente più necessaria e più fattibile man mano che l'ingegneria avanza.
Il termine ergonomia è entrato in uso intorno al 1950, quando le priorità dell'industria in via di sviluppo stavano prendendo il sopravvento sulle priorità dell'esercito. Lo sviluppo della ricerca e dell'applicazione per i successivi trent'anni è descritto in dettaglio in Singleton (1982). Le agenzie delle Nazioni Unite, in particolare l'ILO e l'Organizzazione mondiale della sanità (OMS), sono diventate attive in questo campo negli anni '1960.
Nell'industria dell'immediato dopoguerra l'obiettivo prioritario, condiviso dall'ergonomia, era una maggiore produttività. Questo era un obiettivo fattibile per l'ergonomia perché tanta produttività industriale era determinata direttamente dallo sforzo fisico dei lavoratori coinvolti: la velocità di assemblaggio e la velocità di sollevamento e movimento determinavano l'entità della produzione. A poco a poco, la potenza meccanica ha sostituito la forza muscolare umana. Più potere, tuttavia, porta a più incidenti in base al semplice principio che un incidente è la conseguenza del potere nel posto sbagliato al momento sbagliato. Quando le cose accadono più velocemente, il rischio di incidenti aumenta ulteriormente. Così la preoccupazione dell'industria e l'obiettivo dell'ergonomia si spostarono gradualmente dalla produttività alla sicurezza. Ciò è avvenuto negli anni '1960 e all'inizio degli anni '1970. Circa e dopo questo periodo, gran parte dell'industria manifatturiera è passata dalla produzione in lotti alla produzione a flusso e processo. Il ruolo dell'operatore è passato di conseguenza dalla partecipazione diretta al monitoraggio e all'ispezione. Ciò ha comportato una minore frequenza di incidenti perché l'operatore era più distante dalla scena dell'azione, ma talvolta una maggiore gravità degli incidenti a causa della velocità e della potenza inerenti al processo.
Quando l'output è determinato dalla velocità di funzionamento delle macchine, allora la produttività diventa una questione di mantenere il sistema in funzione: in altre parole, l'affidabilità è l'obiettivo. Così l'operatore diventa un monitor, un risolutore di problemi e un manutentore piuttosto che un manipolatore diretto.
Questo abbozzo storico dei cambiamenti del dopoguerra nell'industria manifatturiera potrebbe suggerire che l'ergonomista abbia regolarmente abbandonato una serie di problemi e ne abbia affrontata un'altra, ma non è così per diverse ragioni. Come spiegato in precedenza, le preoccupazioni dell'ergonomia sono molto più ampie di quelle dell'industria manifatturiera. Oltre all'ergonomia della produzione, esiste l'ergonomia del prodotto o del design, ovvero l'adattamento della macchina o del prodotto all'utente. Nell'industria automobilistica, ad esempio, l'ergonomia è importante non solo per la produzione di componenti e le linee di produzione, ma anche per l'eventuale conducente, passeggero e manutentore. È ormai routine nella commercializzazione delle auto e nella loro valutazione critica da parte di terzi rivedere la qualità dell'ergonomia, considerando la guida, il comfort del sedile, la maneggevolezza, i livelli di rumore e vibrazioni, la facilità d'uso dei comandi, la visibilità all'interno e all'esterno, ecc. Su.
È stato suggerito in precedenza che le prestazioni umane sono generalmente ottimizzate all'interno di un intervallo di tolleranza di una variabile rilevante. Gran parte dell'ergonomia iniziale tentava di ridurre sia la potenza muscolare che l'estensione e la varietà dei movimenti, assicurando che tali tolleranze non venissero superate. Il più grande cambiamento nella situazione lavorativa, l'avvento dei computer, ha creato il problema opposto. A meno che non sia ben progettato dal punto di vista ergonomico, uno spazio di lavoro al computer può indurre una postura troppo fissa, movimenti del corpo troppo limitati e ripetizioni eccessive di particolari combinazioni di movimenti articolari.
Questa breve rassegna storica ha lo scopo di indicare che, sebbene ci sia stato un continuo sviluppo dell'ergonomia, ha assunto la forma di aggiungere sempre più problemi piuttosto che cambiare i problemi. Tuttavia, il corpus di conoscenze cresce e diventa più affidabile e valido, le norme sul dispendio energetico non dipendono da come o perché l'energia viene spesa, i problemi posturali sono gli stessi sui sedili degli aerei e davanti agli schermi dei computer, gran parte dell'attività umana ora comporta l'utilizzo schermi video e ci sono principi ben consolidati basati su un mix di prove di laboratorio e studi sul campo.
Ergonomia e discipline affini
Lo sviluppo di un'applicazione basata sulla scienza che è intermedia tra le tecnologie consolidate dell'ingegneria e della medicina si sovrappone inevitabilmente a molte discipline correlate. In termini di base scientifica, gran parte della conoscenza ergonomica deriva dalle scienze umane: anatomia, fisiologia e psicologia. Anche le scienze fisiche contribuiscono, ad esempio, alla soluzione di problemi di illuminazione, riscaldamento, rumore e vibrazioni.
La maggior parte dei pionieri europei dell'ergonomia erano lavoratori tra le scienze umane ed è per questo motivo che l'ergonomia è ben bilanciata tra fisiologia e psicologia. Un orientamento fisiologico è necessario come sfondo per problemi come il dispendio energetico, la postura e l'applicazione di forze, compreso il sollevamento. È necessario un orientamento psicologico per studiare problemi come la presentazione delle informazioni e la soddisfazione sul lavoro. Naturalmente ci sono molti problemi che richiedono un approccio misto di scienze umane come lo stress, la fatica e il lavoro a turni.
La maggior parte dei pionieri americani in questo campo erano coinvolti nella psicologia sperimentale o nell'ingegneria ed è per questo motivo che i loro titoli professionali tipici:ingegneria umana ed fattori umani—riflettere una differenza di enfasi (ma non di interessi fondamentali) rispetto all'ergonomia europea. Questo spiega anche perché l'igiene del lavoro, per la sua stretta relazione con la medicina, in particolare la medicina del lavoro, è considerata negli Stati Uniti come molto diversa dai fattori umani o dall'ergonomia. La differenza in altre parti del mondo è meno marcata. L'ergonomia si concentra sull'operatore umano in azione, l'igiene del lavoro si concentra sui pericoli per l'operatore umano presenti nell'ambiente. Pertanto l'interesse centrale dell'igienista del lavoro sono i rischi tossici, che sono al di fuori dell'ambito dell'ergonomista. L'igienista del lavoro è preoccupato per gli effetti sulla salute, sia a lungo che a breve termine; l'ergonomista è, ovviamente, preoccupato per la salute, ma è anche preoccupato per altre conseguenze, come la produttività, la progettazione del lavoro e la progettazione dello spazio di lavoro. La sicurezza e la salute sono i temi generici che attraversano l'ergonomia, l'igiene del lavoro, la medicina del lavoro e la medicina del lavoro. Non sorprende, quindi, scoprire che in una grande istituzione di ricerca, progettazione o produzione, queste materie sono spesso raggruppate. Ciò rende possibile un approccio basato su un gruppo di esperti in queste diverse materie, ognuno dei quali apporta un contributo specialistico al problema generale della salute, non solo dei lavoratori dell'istituzione ma anche di coloro che sono interessati dalle sue attività e dai suoi prodotti. Al contrario, nelle istituzioni che si occupano di progettazione o fornitura di servizi, l'ergonomo potrebbe essere più vicino agli ingegneri e ad altri tecnologi.
Risulterà chiaro da questa discussione che poiché l'ergonomia è interdisciplinare ed è ancora abbastanza nuova, c'è un importante problema di come dovrebbe essere meglio inserita in un'organizzazione esistente. Si sovrappone a tanti altri campi perché si occupa delle persone e le persone sono la risorsa fondamentale e onnipervadente di ogni organizzazione. Ci sono molti modi in cui può essere inserito, a seconda della storia e degli obiettivi della particolare organizzazione. I criteri principali sono che gli obiettivi ergonomici siano compresi e apprezzati e che i meccanismi per l'attuazione delle raccomandazioni siano integrati nell'organizzazione.
Obiettivi dell'ergonomia
Sarà già chiaro che i vantaggi dell'ergonomia possono manifestarsi in molte forme diverse, nella produttività e nella qualità, nella sicurezza e nella salute, nell'affidabilità, nella soddisfazione sul lavoro e nello sviluppo personale.
La ragione di questa ampiezza di scopo è che il suo obiettivo fondamentale è l'efficienza nell'attività mirata: efficienza nel senso più ampio di raggiungere il risultato desiderato senza input dispendiosi, senza errori e senza danni alla persona coinvolta o ad altri. Non è efficiente spendere energie o tempo non necessari perché non si è prestata sufficiente attenzione alla progettazione dell'opera, allo spazio di lavoro, all'ambiente di lavoro e alle condizioni di lavoro. Non è efficiente raggiungere il risultato desiderato nonostante la progettazione della situazione piuttosto che con il supporto da essa.
L'obiettivo dell'ergonomia è garantire che la situazione lavorativa sia in armonia con le attività del lavoratore. Questo obiettivo è evidentemente valido ma raggiungerlo è tutt'altro che facile per una serie di motivi. L'operatore umano è flessibile e adattabile e c'è un apprendimento continuo, ma ci sono differenze individuali piuttosto grandi. Alcune differenze, come le dimensioni fisiche e la forza, sono evidenti, ma altre, come le differenze culturali e le differenze nello stile e nel livello di abilità, sono meno facili da identificare.
Alla luce di queste complessità potrebbe sembrare che la soluzione sia quella di fornire una situazione flessibile in cui l'operatore umano possa ottimizzare un modo specificamente appropriato di fare le cose. Purtroppo un simile approccio a volte è impraticabile perché il modo più efficiente spesso non è ovvio, con il risultato che un lavoratore può continuare a fare qualcosa nel modo sbagliato o nelle condizioni sbagliate per anni.
Pertanto è necessario adottare un approccio sistematico: partire da una solida teoria, fissare obiettivi misurabili e verificare il successo rispetto a questi obiettivi. Di seguito vengono considerati i vari obiettivi possibili.
Sicurezza e salute
Non ci può essere disaccordo sulla desiderabilità degli obiettivi di sicurezza e salute. La difficoltà deriva dal fatto che nessuno dei due è direttamente misurabile: il loro raggiungimento è valutato dalla loro assenza piuttosto che dalla loro presenza. I dati in questione riguardano sempre le partenze dalla sicurezza e salute.
Nel caso della salute, gran parte delle prove è a lungo termine poiché si basa sulle popolazioni piuttosto che sugli individui. È quindi necessario mantenere registrazioni accurate per lunghi periodi e adottare un approccio epidemiologico attraverso il quale identificare e misurare i fattori di rischio. Ad esempio, quale dovrebbe essere il numero massimo di ore giornaliere o annue richieste a un lavoratore su una postazione di lavoro? Dipende dal design della postazione di lavoro, dal tipo di lavoro e dal tipo di persona (età, visione, capacità e così via). Gli effetti sulla salute possono essere diversi, dai problemi al polso all'apatia mentale, quindi è necessario effettuare studi completi che coprano popolazioni piuttosto ampie tenendo contemporaneamente traccia delle differenze all'interno delle popolazioni.
La sicurezza è più direttamente misurabile in senso negativo in termini di tipologia e frequenza di incidenti e danni. Ci sono problemi nel definire diversi tipi di incidenti e nell'identificare i fattori causali, spesso molteplici, e c'è spesso una lontana relazione tra il tipo di incidente e il grado di danno, da nessuno a mortale.
Tuttavia, negli ultimi cinquant'anni è stato accumulato un enorme corpus di prove riguardanti la sicurezza e la salute e sono state scoperte consistenze che possono essere ricondotte alla teoria, alle leggi e alle norme e ai principi operativi in particolari tipi di situazioni.
Produttività ed efficienza
La produttività è solitamente definita in termini di output per unità di tempo, mentre l'efficienza incorpora altre variabili, in particolare il rapporto tra output e input. L'efficienza incorpora il costo di ciò che viene fatto in relazione al risultato, e in termini umani ciò richiede la considerazione delle sanzioni per l'operatore umano.
Nelle situazioni industriali, la produttività è relativamente facile da misurare: la quantità prodotta può essere contata e il tempo impiegato per produrla è semplice da registrare. I dati sulla produttività sono spesso utilizzati nei confronti prima/dopo di metodi, situazioni o condizioni di lavoro. Implica ipotesi sull'equivalenza dello sforzo e di altri costi perché si basa sul principio che l'operatore umano si esibirà così come è fattibile nelle circostanze. Se la produttività è maggiore, allora le circostanze devono essere migliori. C'è molto da raccomandare questo semplice approccio, a condizione che venga utilizzato tenendo in debito conto i molti possibili fattori di complicazione che possono mascherare ciò che sta realmente accadendo. La migliore salvaguardia è cercare di assicurarsi che nulla sia cambiato tra le situazioni prima e dopo, tranne gli aspetti studiati.
L'efficienza è una misura più completa ma sempre più difficile. Di solito deve essere definito in modo specifico per una situazione particolare e nel valutare i risultati di qualsiasi studio la definizione dovrebbe essere verificata per la sua pertinenza e validità in termini di conclusioni tratte. Ad esempio, andare in bicicletta è più efficiente che camminare? Andare in bicicletta è molto più produttivo in termini di distanza che può essere percorsa su una strada in un dato tempo, ed è più efficiente in termini di dispendio energetico per unità di distanza o, per l'esercizio indoor, perché l'attrezzo richiesto è più economico e semplice . D'altra parte, lo scopo dell'esercizio potrebbe essere il dispendio energetico per motivi di salute o per scalare una montagna su un terreno difficile; in queste circostanze camminare sarà più efficiente. Pertanto, una misura di efficienza ha significato solo in un contesto ben definito.
Affidabilità e qualità
Come spiegato in precedenza, l'affidabilità piuttosto che la produttività diventa la misura chiave nei sistemi ad alta tecnologia (ad esempio, aerei da trasporto, raffinazione del petrolio e generazione di energia). I controllori di tali sistemi monitorano le prestazioni e danno il loro contributo alla produttività e alla sicurezza effettuando regolazioni di messa a punto per garantire che le macchine automatiche rimangano in linea e funzionino entro i limiti. Tutti questi sistemi sono nei loro stati più sicuri quando sono quiescenti o quando funzionano stabilmente all'interno dell'inviluppo delle prestazioni progettato. Diventano più pericolosi quando si spostano o vengono spostati tra stati di equilibrio, ad esempio quando un aereo sta decollando o un sistema di processo viene spento. L'elevata affidabilità è la caratteristica chiave non solo per motivi di sicurezza, ma anche perché l'arresto o l'arresto imprevisto è estremamente costoso. L'affidabilità è semplice da misurare dopo le prestazioni, ma è estremamente difficile da prevedere se non facendo riferimento alle prestazioni passate di sistemi simili. Quando o se qualcosa va storto l'errore umano è invariabilmente una concausa, ma non è necessariamente un errore da parte del controllore: gli errori umani possono originarsi in fase di progettazione e durante la messa a punto e la manutenzione. È ormai accettato che sistemi così complessi ad alta tecnologia richiedano un notevole e continuo input ergonomico dalla progettazione alla valutazione di eventuali guasti che si verificano.
La qualità è correlata all'affidabilità ma è molto difficile se non impossibile da misurare. Tradizionalmente, nei sistemi di produzione a lotti ea flusso, la qualità veniva controllata mediante ispezione dopo l'uscita, ma il principio attualmente stabilito è quello di combinare produzione e mantenimento della qualità. Ogni operatore ha quindi responsabilità parallele come ispettore. Questo di solito si rivela più efficace, ma può significare abbandonare gli incentivi al lavoro basati semplicemente sul tasso di produzione. In termini ergonomici ha senso trattare l'operatore come una persona responsabile piuttosto che come una sorta di robot programmato per prestazioni ripetitive.
Soddisfazione lavorativa e sviluppo personale
Dal principio che il lavoratore o l'operatore umano debba essere riconosciuto come una persona e non come un robot, ne consegue che devono essere presi in considerazione responsabilità, atteggiamenti, convinzioni e valori. Questo non è facile perché ci sono molte variabili, per lo più rilevabili ma non quantificabili, e ci sono grandi differenze individuali e culturali. Ciononostante, un grande impegno viene ora profuso nella progettazione e nella gestione dei lavori con l'obiettivo di garantire che la situazione sia il più soddisfacente possibile dal punto di vista dell'operatore. Alcune misurazioni sono possibili utilizzando tecniche di indagine e alcuni principi sono disponibili sulla base di caratteristiche operative come l'autonomia e l'empowerment.
Anche accettando che questi sforzi richiedano tempo e denaro, possono ancora esserci notevoli dividendi ascoltando i suggerimenti, le opinioni e gli atteggiamenti delle persone che svolgono effettivamente il lavoro. Il loro approccio potrebbe non essere lo stesso di quello del progettista del lavoro esterno e non lo stesso delle ipotesi formulate dal progettista del lavoro o dal manager. Queste differenze di opinione sono importanti e possono fornire un rinfrescante cambiamento di strategia da parte di tutti i soggetti coinvolti.
È ben noto che l'essere umano è uno studente continuo o può esserlo, date le condizioni appropriate. La condizione chiave è fornire feedback sulle prestazioni passate e presenti che possono essere utilizzate per migliorare le prestazioni future. Inoltre, tale feedback stesso funge da incentivo alla performance. Così ci guadagnano tutti, l'esecutore ei responsabili in senso lato della performance. Ne consegue che c'è molto da guadagnare dal miglioramento delle prestazioni, compreso lo sviluppo personale. Il principio secondo cui lo sviluppo personale dovrebbe essere un aspetto dell'applicazione dell'ergonomia richiede maggiori capacità di designer e manager ma, se può essere applicato con successo, può migliorare tutti gli aspetti delle prestazioni umane discussi sopra.
L'applicazione riuscita dell'ergonomia spesso deriva dal non fare altro che sviluppare l'atteggiamento o il punto di vista appropriato. Le persone coinvolte sono inevitabilmente il fattore centrale in ogni sforzo umano e la considerazione sistematica dei loro vantaggi, limiti, bisogni e aspirazioni è intrinsecamente importante.
Conclusione
L'ergonomia è lo studio sistematico delle persone al lavoro con l'obiettivo di migliorare la situazione lavorativa, le condizioni di lavoro e le mansioni svolte. L'accento è posto sull'acquisizione di prove pertinenti e affidabili su cui basare la raccomandazione per i cambiamenti in situazioni specifiche e sullo sviluppo di teorie, concetti, linee guida e procedure più generali che contribuiranno allo sviluppo continuo delle competenze disponibili dall'ergonomia.
Esposizione, dose e risposta
Tossicità è la capacità intrinseca di un agente chimico di influenzare negativamente un organismo.
xenobiotici è un termine per "sostanze estranee", cioè estranee all'organismo. Il suo opposto sono i composti endogeni. Gli xenobiotici includono farmaci, prodotti chimici industriali, veleni presenti in natura e inquinanti ambientali.
Pericolo è il potenziale per la tossicità da realizzare in un ambiente o situazione specifica.
Rischio è la probabilità che si verifichi uno specifico effetto avverso. È spesso espresso come percentuale di casi in una data popolazione e durante un periodo di tempo specifico. Una stima del rischio può basarsi su casi effettivi o su una proiezione di casi futuri, basata su estrapolazioni.
Valutazione della tossicità ed classificazione della tossicità può essere utilizzato a fini normativi. La valutazione della tossicità è una classificazione arbitraria delle dosi o dei livelli di esposizione che causano effetti tossici. La classificazione può essere "supertossica", "altamente tossica", "moderatamente tossica" e così via. Le valutazioni più comuni riguardano la tossicità acuta. La classificazione della tossicità riguarda il raggruppamento delle sostanze chimiche in categorie generali in base al loro effetto tossico più importante. Tali categorie possono includere allergeni, neurotossici, cancerogeni e così via. Questa classificazione può avere valore amministrativo come avvertimento e come informazione.
I relazione dose-effetto è la relazione tra dose ed effetto a livello individuale. Un aumento della dose può aumentare l'intensità di un effetto o può determinarne un effetto più grave. Una curva dose-effetto può essere ottenuta a livello dell'intero organismo, della cellula o della molecola bersaglio. Alcuni effetti tossici, come la morte o il cancro, non sono classificati ma sono effetti "tutti o nessuno".
I relazione dose-risposta è il rapporto tra la dose e la percentuale di individui che mostrano un effetto specifico. Con l'aumentare della dose, di solito sarà colpito un numero maggiore di individui nella popolazione esposta.
Per la tossicologia è essenziale stabilire le relazioni dose-effetto e dose-risposta. Negli studi medici (epidemiologici) un criterio spesso utilizzato per accettare una relazione causale tra un agente e una malattia è che l'effetto o la risposta è proporzionale alla dose.
È possibile tracciare diverse curve dose-risposta per una sostanza chimica, una per ciascun tipo di effetto. La curva dose-risposta per la maggior parte degli effetti tossici (quando studiata in grandi popolazioni) ha una forma sigmoidea. Di solito esiste un intervallo di basse dosi in cui non viene rilevata alcuna risposta; all'aumentare della dose, la risposta segue una curva ascendente che di solito raggiunge un plateau con una risposta del 100%. La curva dose-risposta riflette le variazioni tra gli individui in una popolazione. La pendenza della curva varia da sostanza chimica a chimica e tra diversi tipi di effetti. Per alcune sostanze chimiche con effetti specifici (agenti cancerogeni, iniziatori, mutageni) la curva dose-risposta potrebbe essere lineare dalla dose zero entro un certo intervallo di dose. Ciò significa che non esiste una soglia e che anche piccole dosi rappresentano un rischio. Al di sopra di tale intervallo di dose, il rischio può aumentare a una velocità superiore a quella lineare.
La variazione dell'esposizione durante il giorno e la durata totale dell'esposizione durante la vita di una persona possono essere tanto importanti per l'esito (risposta) quanto il livello di dose medio o medio o anche integrato. Le esposizioni di picco elevate possono essere più dannose di un livello di esposizione più uniforme. Questo è il caso di alcuni solventi organici. D'altra parte, per alcuni agenti cancerogeni, è stato sperimentalmente dimostrato che il frazionamento di una singola dose in più esposizioni con la stessa dose totale può essere più efficace nella produzione di tumori.
A dose è spesso espresso come la quantità di uno xenobiotico che entra in un organismo (in unità come mg/kg di peso corporeo). La dose può essere espressa in modi diversi (più o meno informativi): dose di esposizione, che è la concentrazione nell'aria dell'inquinante inalato durante un certo periodo di tempo (in igiene del lavoro di solito otto ore), o il mantenuto or dose assorbita (in igiene industriale chiamato anche il carico corporeo), che è la quantità presente nel corpo in un determinato momento durante o dopo l'esposizione. Il dose tissutale è la quantità di sostanza in un tessuto specifico e il dose target è la quantità di sostanza (solitamente un metabolita) legata alla molecola critica. La dose target può essere espressa come mg di sostanza chimica legata per mg di una specifica macromolecola nel tessuto. Per applicare questo concetto sono necessarie informazioni sul meccanismo dell'azione tossica a livello molecolare. La dose target è più esattamente associata all'effetto tossico. La dose di esposizione o il carico corporeo possono essere più facilmente disponibili, ma questi sono meno precisamente correlati all'effetto.
Nel concetto di dose è spesso compreso un aspetto temporale, anche se non sempre espresso. La dose teorica secondo la legge di Haber è D = t, where D è la dose, c è la concentrazione dello xenobiotico nell'aria e t la durata dell'esposizione alla sostanza chimica. Se questo concetto viene utilizzato a livello di organo bersaglio o molecolare, può essere utilizzata la quantità per mg di tessuto o molecola in un certo periodo di tempo. L'aspetto temporale è solitamente più importante per comprendere le esposizioni ripetute e gli effetti cronici che per le singole esposizioni e gli effetti acuti.
Effetti additivi si verificano a seguito dell'esposizione a una combinazione di sostanze chimiche, in cui le singole tossicità sono semplicemente sommate l'una all'altra (1+1= 2). Quando le sostanze chimiche agiscono attraverso lo stesso meccanismo, si presume l'additività dei loro effetti, anche se non sempre è così nella realtà. L'interazione tra sostanze chimiche può provocare un'inibizione (antagonismo), con un effetto minore di quello atteso dalla somma degli effetti delle singole sostanze chimiche (1+1 2). In alternativa, una combinazione di sostanze chimiche può produrre un effetto più pronunciato di quanto ci si aspetterebbe dall'aggiunta (aumento della risposta tra gli individui o aumento della frequenza della risposta in una popolazione), questo è chiamato sinergismo (1+1 >2).
Tempo di latenza è il tempo che intercorre tra la prima esposizione e la comparsa di un effetto o di una risposta rilevabile. Il termine è spesso usato per gli effetti cancerogeni, in cui i tumori possono comparire molto tempo dopo l'inizio dell'esposizione e talvolta molto tempo dopo la cessazione dell'esposizione.
A soglia di dose è un livello di dose al di sotto del quale non si verifica alcun effetto osservabile. Si ritiene che esistano soglie per determinati effetti, come gli effetti tossici acuti; ma non per altri, come gli effetti cancerogeni (da parte di iniziatori che formano addotti del DNA). La semplice assenza di una risposta in una data popolazione non dovrebbe, tuttavia, essere considerata come prova dell'esistenza di una soglia. L'assenza di risposta potrebbe essere dovuta a semplici fenomeni statistici: un effetto avverso che si verifica a bassa frequenza potrebbe non essere rilevabile in una piccola popolazione.
LD50 (dose efficace) è la dose che causa il 50% di letalità in una popolazione animale. Il D.L50 è spesso indicato nella letteratura più antica come misura della tossicità acuta delle sostanze chimiche. Maggiore è il LD50, minore è la tossicità acuta. Una sostanza chimica altamente tossica (con un basso LD50) si dice che sia potente. Non esiste una correlazione necessaria tra tossicità acuta e cronica. ED50 (dose efficace) è la dose che provoca un effetto specifico diverso dalla letalità nel 50% degli animali.
NOEL (NOAEL) indica il livello senza effetto (avverso) osservato o la dose più alta che non provoca un effetto tossico. Per stabilire un NOEL sono necessarie dosi multiple, un'ampia popolazione e informazioni aggiuntive per garantire che l'assenza di una risposta non sia un mero fenomeno statistico. LOEL è la dose efficace più bassa osservata su una curva dose-risposta, o la dose più bassa che provoca un effetto.
A fattore sicurezza è un numero formale e arbitrario con cui si divide il NOEL o il LOEL derivato da esperimenti su animali per ottenere una dose ammissibile provvisoria per l'uomo. Questo è spesso utilizzato nell'area della tossicologia alimentare, ma può essere utilizzato anche nella tossicologia occupazionale. Un fattore di sicurezza può anche essere utilizzato per l'estrapolazione dei dati da piccole popolazioni a popolazioni più grandi. I fattori di sicurezza vanno da 100 a 103. Un fattore di sicurezza pari a due può in genere essere sufficiente per proteggere da un effetto meno grave (come l'irritazione) e un fattore pari a 1,000 può essere utilizzato per effetti molto gravi (come il cancro). Il termine fattore sicurezza potrebbe essere meglio sostituito dal termine protezione fattore o anche, fattore di incertezza. L'uso di quest'ultimo termine riflette incertezze scientifiche, ad esempio se i dati dose-risposta esatti possono essere trasferiti dagli animali all'uomo per la particolare sostanza chimica, effetto tossico o situazione di esposizione.
estrapolazioni sono stime teoriche qualitative o quantitative della tossicità (estrapolazioni del rischio) derivate dalla traduzione di dati da una specie a un'altra o da una serie di dati dose-risposta (tipicamente nell'intervallo di dosi elevate) a regioni di dose-risposta in cui non esistono dati. Di solito devono essere effettuate estrapolazioni per prevedere le risposte tossiche al di fuori dell'intervallo di osservazione. La modellazione matematica viene utilizzata per estrapolazioni basate sulla comprensione del comportamento della sostanza chimica nell'organismo (modellazione tossicocinetica) o sulla base della comprensione delle probabilità statistiche che si verificheranno eventi biologici specifici (modelli basati sulla biologia o sulla meccanica). Alcune agenzie nazionali hanno sviluppato sofisticati modelli di estrapolazione come metodo formalizzato per prevedere i rischi a fini normativi. (Vedere la discussione sulla valutazione del rischio più avanti nel capitolo.)
Effetti sistemici sono effetti tossici nei tessuti distanti dalla via di assorbimento.
Organo bersaglio è l'organo principale o più sensibile colpito dopo l'esposizione. La stessa sostanza chimica che entra nel corpo attraverso diverse vie di esposizione dose, rateo di dose, sesso e specie può influenzare diversi organi bersaglio. L'interazione tra sostanze chimiche o tra sostanze chimiche e altri fattori può influenzare anche diversi organi bersaglio.
Effetti acuti si verificano dopo un'esposizione limitata e poco (ore, giorni) dopo l'esposizione e possono essere reversibili o irreversibili.
Effetti cronici si verificano dopo un'esposizione prolungata (mesi, anni, decenni) e/o persistono dopo che l'esposizione è cessata.
acuto esposizione è un'esposizione di breve durata, mentre esposizione cronica è un'esposizione a lungo termine (a volte per tutta la vita).
Tolleranza a una sostanza chimica può verificarsi quando le esposizioni ripetute determinano una risposta inferiore a quella che ci si sarebbe aspettati senza pretrattamento.
Assorbimento e disposizione
Processi di trasporto
Emittente. Per entrare nell'organismo e raggiungere un sito in cui si produce un danno, una sostanza estranea deve superare diverse barriere, comprese le cellule e le loro membrane. La maggior parte delle sostanze tossiche passa attraverso le membrane passivamente per diffusione. Ciò può avvenire per piccole molecole idrosolubili per passaggio attraverso canali acquosi o, per quelle liposolubili, per dissoluzione e diffusione attraverso la parte lipidica della membrana. L'etanolo, una piccola molecola solubile in acqua e grasso, si diffonde rapidamente attraverso le membrane cellulari.
Diffusione di acidi e basi deboli. Gli acidi e le basi deboli possono facilmente attraversare le membrane nella loro forma liposolubile non ionizzata mentre le forme ionizzate sono troppo polari per passare. Il grado di ionizzazione di queste sostanze dipende dal pH. Se esiste un gradiente di pH attraverso una membrana, si accumuleranno quindi su un lato. L'escrezione urinaria di acidi e basi deboli dipende fortemente dal pH urinario. Il pH fetale o embrionale è un po' più alto del pH materno, causando un leggero accumulo di acidi deboli nel feto o nell'embrione.
Diffusione facilitata. Il passaggio di una sostanza può essere facilitato dai trasportatori nella membrana. La diffusione facilitata è simile ai processi enzimatici in quanto è mediata da proteine, altamente selettiva e saturabile. Altre sostanze possono inibire il trasporto facilitato di xenobiotici.
Trasporto attivo. Alcune sostanze vengono trasportate attivamente attraverso le membrane cellulari. Questo trasporto è mediato da proteine trasportatrici in un processo analogo a quello degli enzimi. Il trasporto attivo è simile alla diffusione facilitata, ma può verificarsi contro un gradiente di concentrazione. Richiede apporto di energia e un inibitore metabolico può bloccare il processo. La maggior parte degli inquinanti ambientali non viene trasportata attivamente. Un'eccezione è la secrezione tubulare attiva e il riassorbimento dei metaboliti acidi nei reni.
fagocitosi è un processo in cui cellule specializzate come i macrofagi inghiottono particelle per la successiva digestione. Questo processo di trasporto è importante, ad esempio, per la rimozione di particelle negli alveoli.
Flusso di massa. Le sostanze vengono anche trasportate nel corpo insieme al movimento dell'aria nel sistema respiratorio durante la respirazione e ai movimenti del sangue, della linfa o dell'urina.
Filtrazione. A causa della pressione idrostatica o osmotica, l'acqua scorre alla rinfusa attraverso i pori dell'endotelio. Qualsiasi soluto sufficientemente piccolo verrà filtrato insieme all'acqua. La filtrazione si verifica in una certa misura nel letto capillare di tutti i tessuti, ma è particolarmente importante nella formazione dell'urina primaria nei glomeruli renali.
Assorbimento
L'assorbimento è l'assorbimento di una sostanza dall'ambiente nell'organismo. Il termine di solito include non solo l'ingresso nel tessuto barriera, ma anche l'ulteriore trasporto nel sangue circolante.
Assorbimento polmonare. I polmoni sono la principale via di deposizione e assorbimento di piccole particelle sospese nell'aria, gas, vapori e aerosol. Per gas e vapori altamente solubili in acqua una parte significativa dell'assorbimento avviene nel naso e nell'albero respiratorio, ma per le sostanze meno solubili avviene principalmente negli alveoli polmonari. Gli alveoli hanno una superficie molto ampia (circa 100 m2 negli umani). Inoltre, la barriera di diffusione è estremamente piccola, con solo due sottili strati cellulari e una distanza nell'ordine dei micrometri dall'aria alveolare alla circolazione sanguigna sistemica. Questo rende i polmoni molto efficienti non solo nello scambio di ossigeno e anidride carbonica ma anche di altri gas e vapori. In generale, la diffusione attraverso la parete alveolare è così rapida da non limitare l'assorbimento. La velocità di assorbimento è invece dipendente dal flusso (ventilazione polmonare, gittata cardiaca) e dalla solubilità (sangue:coefficiente di ripartizione dell'aria). Un altro fattore importante è l'eliminazione metabolica. L'importanza relativa di questi fattori per l'assorbimento polmonare varia notevolmente per le diverse sostanze. L'attività fisica comporta un aumento della ventilazione polmonare e della gittata cardiaca e una diminuzione del flusso sanguigno epatico (e, quindi, del tasso di biotrasformazione). Per molte sostanze inalate ciò comporta un marcato aumento dell'assorbimento polmonare.
Assorbimento percutaneo. La pelle è una barriera molto efficiente. Oltre al suo ruolo termoregolatore, ha lo scopo di proteggere l'organismo da microrganismi, radiazioni ultraviolette e altri agenti deleteri, nonché da un'eccessiva perdita di acqua. La distanza di diffusione nel derma è dell'ordine dei decimi di millimetro. Inoltre, lo strato di cheratina ha un'altissima resistenza alla diffusione per la maggior parte delle sostanze. Tuttavia, per alcune sostanze può verificarsi un significativo assorbimento cutaneo con conseguente tossicità, ad esempio sostanze liposolubili altamente tossiche come insetticidi organofosforici e solventi organici. È probabile che si verifichi un assorbimento significativo dopo l'esposizione a sostanze liquide. L'assorbimento percutaneo del vapore può essere importante per i solventi con una tensione di vapore molto bassa e un'elevata affinità per l'acqua e la pelle.
Assorbimento gastrointestinale si verifica dopo l'ingestione accidentale o intenzionale. Le particelle più grandi originariamente inalate e depositate nel tratto respiratorio possono essere ingerite dopo il trasporto mucociliare alla faringe. Praticamente tutte le sostanze solubili vengono efficacemente assorbite nel tratto gastrointestinale. Il basso pH dell'intestino può facilitare l'assorbimento, per esempio, dei metalli.
Altri percorsi. Nei test di tossicità e in altri esperimenti, vengono spesso utilizzate vie di somministrazione speciali per comodità, sebbene queste siano rare e di solito non rilevanti in ambito lavorativo. Queste vie includono iniezioni endovenose (IV), sottocutanee (sc), intraperitoneali (ip) e intramuscolari (im). In generale, le sostanze vengono assorbite a una velocità maggiore e in modo più completo attraverso queste vie, soprattutto dopo l'iniezione endovenosa. Ciò porta a picchi di concentrazione di breve durata ma elevati che possono aumentare la tossicità di una dose.
Distribuzione
La distribuzione di una sostanza all'interno dell'organismo è un processo dinamico che dipende dai tassi di assorbimento ed eliminazione, nonché dal flusso sanguigno ai diversi tessuti e dalle loro affinità per la sostanza. Le molecole idrosolubili, piccole e prive di carica, i cationi univalenti e la maggior parte degli anioni si diffondono facilmente e alla fine raggiungeranno una distribuzione relativamente uniforme nel corpo.
Volume di distribuzione è la quantità di una sostanza nel corpo in un dato momento, divisa per la concentrazione nel sangue, nel plasma o nel siero in quel momento. Il valore non ha significato come volume fisico, poiché molte sostanze non sono distribuite uniformemente nell'organismo. Un volume di distribuzione inferiore a un l/kg di peso corporeo indica una distribuzione preferenziale nel sangue (o siero o plasma), mentre un valore superiore a uno indica una preferenza per i tessuti periferici come il tessuto adiposo per le sostanze liposolubili.
accumulazione è l'accumulo di una sostanza in un tessuto o organo a livelli più elevati che nel sangue o nel plasma. Può anche riferirsi a un graduale accumulo nel tempo nell'organismo. Molti xenobiotici sono altamente liposolubili e tendono ad accumularsi nel tessuto adiposo, mentre altri hanno una speciale affinità per le ossa. Ad esempio, il calcio nelle ossa può essere scambiato con i cationi di piombo, stronzio, bario e radio, e i gruppi idrossilici nelle ossa possono essere scambiati con il fluoruro.
Barriere. I vasi sanguigni nel cervello, nei testicoli e nella placenta hanno caratteristiche anatomiche speciali che inibiscono il passaggio di grandi molecole come le proteine. Queste caratteristiche, spesso chiamate barriere sangue-cervello, sangue-testicoli e sangue-placenta, possono dare la falsa impressione che impediscano il passaggio di qualsiasi sostanza. Queste barriere hanno poca o nessuna importanza per gli xenobiotici che possono diffondersi attraverso le membrane cellulari.
Legatura del sangue. Le sostanze possono essere legate ai globuli rossi o ai componenti del plasma, oppure possono essere presenti non legate nel sangue. Il monossido di carbonio, l'arsenico, il mercurio organico e il cromo esavalente hanno un'elevata affinità per i globuli rossi, mentre il mercurio inorganico e il cromo trivalente mostrano una preferenza per le proteine plasmatiche. Anche numerose altre sostanze si legano alle proteine plasmatiche. Solo la frazione non legata è disponibile per la filtrazione o la diffusione negli organi eliminatori. Il legame con il sangue può quindi aumentare il tempo di permanenza nell'organismo ma diminuire l'assorbimento da parte degli organi bersaglio.
Eliminazione
Eliminazione è la scomparsa di una sostanza nel corpo. L'eliminazione può comportare l'escrezione dal corpo o la trasformazione in altre sostanze non catturate da uno specifico metodo di misurazione. La velocità di scomparsa può essere espressa dalla costante di velocità di eliminazione, dall'emivita biologica o dalla clearance.
Curva concentrazione-tempo. La curva della concentrazione nel sangue (o nel plasma) rispetto al tempo è un modo conveniente per descrivere l'assorbimento e la disposizione di uno xenobiotico.
Area sotto la curva (AUC) è l'integrale della concentrazione nel sangue (plasma) nel tempo. Quando la saturazione metabolica e altri processi non lineari sono assenti, l'AUC è proporzionale alla quantità di sostanza assorbita.
Intervallo biologico (o emivita) è il tempo necessario dopo la fine dell'esposizione per dimezzare la quantità nell'organismo. Poiché è spesso difficile valutare la quantità totale di una sostanza, vengono utilizzate misure come la concentrazione nel sangue (plasma). L'intervallo deve essere utilizzato con cautela, in quanto può cambiare, ad esempio, con la dose e la durata dell'esposizione. Inoltre, molte sostanze hanno curve di decadimento complesse con diversi tempi di dimezzamento.
biodisponibilità è la frazione di una dose somministrata che entra nella circolazione sistemica. In assenza di clearance presistemica, o metabolismo di primo passaggio, la frazione è uno. Nell'esposizione orale la clearance presistemica può essere dovuta al metabolismo all'interno del contenuto gastrointestinale, della parete intestinale o del fegato. Il metabolismo di primo passaggio ridurrà l'assorbimento sistemico della sostanza e aumenterà invece l'assorbimento dei metaboliti. Questo può portare a un diverso modello di tossicità.
Autorizzazione è il volume di sangue (plasma) per unità di tempo completamente ripulito da una sostanza. Per distinguere dalla clearance renale, ad esempio, viene spesso aggiunto il prefisso total, metabolic o blood (plasma).
Gioco intrinseco è la capacità degli enzimi endogeni di trasformare una sostanza, ed è espressa anche in volume per unità di tempo. Se la clearance intrinseca in un organo è molto inferiore al flusso sanguigno, si dice che il metabolismo è a capacità limitata. Al contrario, se la clearance intrinseca è molto più elevata del flusso sanguigno, il metabolismo è limitato dal flusso.
Escrezione
L'escrezione è l'uscita di una sostanza e dei suoi prodotti di biotrasformazione dall'organismo.
Escrezione nelle urine e nella bile. I reni sono gli organi escretori più importanti. Alcune sostanze, in particolare gli acidi ad alto peso molecolare, vengono escrete con la bile. Una frazione delle sostanze escrete dalle vie biliari può essere riassorbita nell'intestino. Questo processo, circolazione enteroepatica, è comune per le sostanze coniugate dopo l'idrolisi intestinale del coniugato.
Altre vie di escrezione. Alcune sostanze, come i solventi organici ei prodotti di decomposizione come l'acetone, sono sufficientemente volatili da poter essere espulse per espirazione dopo l'inalazione in una frazione considerevole. Piccole molecole idrosolubili così come quelle liposolubili vengono prontamente secrete nel feto attraverso la placenta e nel latte nei mammiferi. Per la madre, l'allattamento può essere una via escretoria quantitativamente importante per sostanze chimiche liposolubili persistenti. La prole può essere secondariamente esposta attraverso la madre durante la gravidanza e durante l'allattamento. I composti idrosolubili possono in una certa misura essere escreti nel sudore e nella saliva. Questi percorsi sono generalmente di minore importanza. Tuttavia, poiché viene prodotto e ingerito un grande volume di saliva, l'escrezione salivare può contribuire al riassorbimento del composto. Alcuni metalli come il mercurio vengono escreti legandosi permanentemente ai gruppi sulfidrilici della cheratina nei capelli.
Modelli tossicocinetici
I modelli matematici sono strumenti importanti per comprendere e descrivere l'assorbimento e la disposizione di sostanze estranee. La maggior parte dei modelli sono compartimentali, cioè l'organismo è rappresentato da uno o più compartimenti. Un compartimento è un volume chimicamente e fisicamente teorico in cui si presume che la sostanza si distribuisca in modo omogeneo e istantaneo. I modelli semplici possono essere espressi come somma di termini esponenziali, mentre quelli più complicati richiedono procedure numeriche su un computer per la loro soluzione. I modelli possono essere suddivisi in due categorie, descrittivi e fisiologici.
In descrittivo modelli, l'adattamento ai dati misurati viene eseguito modificando i valori numerici dei parametri del modello o anche la struttura del modello stesso. La struttura del modello normalmente ha poco a che fare con la struttura dell'organismo. I vantaggi dell'approccio descrittivo sono che vengono fatte poche assunzioni e che non sono necessari dati aggiuntivi. Uno svantaggio dei modelli descrittivi è la loro limitata utilità per le estrapolazioni.
Modelli fisiologici sono costruiti da dati fisiologici, anatomici e altri dati indipendenti. Il modello viene quindi perfezionato e validato confrontandolo con i dati sperimentali. Un vantaggio dei modelli fisiologici è che possono essere utilizzati per scopi di estrapolazione. Ad esempio, l'influenza dell'attività fisica sull'assorbimento e la disposizione delle sostanze inalate può essere prevista da aggiustamenti fisiologici noti nella ventilazione e nella gittata cardiaca. Uno svantaggio dei modelli fisiologici è che richiedono una grande quantità di dati indipendenti.
biotrasformazione
biotrasformazione è un processo che porta a una conversione metabolica di composti estranei (xenobiotici) nel corpo. Il processo è spesso indicato come metabolismo degli xenobiotici. Come regola generale, il metabolismo converte gli xenobiotici liposolubili in grandi metaboliti idrosolubili che possono essere efficacemente escreti.
Il fegato è il principale sito di biotrasformazione. Tutti gli xenobiotici prelevati dall'intestino vengono trasportati al fegato da un singolo vaso sanguigno (vena porta). Se assorbita in piccole quantità, una sostanza estranea può essere completamente metabolizzata nel fegato prima di raggiungere la circolazione generale e altri organi (effetto di primo passaggio). Gli xenobiotici inalati vengono distribuiti attraverso la circolazione generale al fegato. In tal caso solo una frazione della dose viene metabolizzata nel fegato prima di raggiungere altri organi.
Le cellule del fegato contengono diversi enzimi che ossidano gli xenobiotici. Questa ossidazione generalmente attiva il composto: diventa più reattivo della molecola madre. Nella maggior parte dei casi il metabolita ossidato viene ulteriormente metabolizzato da altri enzimi in una seconda fase. Questi enzimi coniugano il metabolita con un substrato endogeno, in modo che la molecola diventi più grande e più polare. Questo facilita l'escrezione.
Gli enzimi che metabolizzano gli xenobiotici sono presenti anche in altri organi come polmoni e reni. In questi organi possono svolgere ruoli specifici e qualitativamente importanti nel metabolismo di alcuni xenobiotici. I metaboliti formati in un organo possono essere ulteriormente metabolizzati in un secondo organo. Anche i batteri nell'intestino possono partecipare alla biotrasformazione.
I metaboliti degli xenobiotici possono essere escreti dai reni o attraverso la bile. Possono anche essere espirati attraverso i polmoni o legati a molecole endogene nel corpo.
La relazione tra biotrasformazione e tossicità è complessa. La biotrasformazione può essere vista come un processo necessario per la sopravvivenza. Protegge l'organismo dalla tossicità prevenendo l'accumulo di sostanze nocive nel corpo. Tuttavia, durante la biotrasformazione possono formarsi metaboliti intermedi reattivi e questi sono potenzialmente dannosi. Questo si chiama attivazione metabolica. Pertanto, la biotrasformazione può anche indurre tossicità. I metaboliti intermedi ossidati che non sono coniugati possono legarsi e danneggiare le strutture cellulari. Se, per esempio, un metabolita xenobiotico si lega al DNA, può essere indotta una mutazione (vedi “Tossicologia genetica”). Se il sistema di biotrasformazione è sovraccarico, può verificarsi una massiccia distruzione delle proteine essenziali o delle membrane lipidiche. Ciò può provocare la morte cellulare (vedere "Danno cellulare e morte cellulare").
Metabolismo è una parola spesso usata in modo intercambiabile con biotrasformazione. Denota la rottura chimica o le reazioni di sintesi catalizzate dagli enzimi nel corpo. I nutrienti del cibo, i composti endogeni e gli xenobiotici sono tutti metabolizzati nel corpo.
Attivazione metabolica significa che un composto meno reattivo viene convertito in una molecola più reattiva. Questo di solito si verifica durante le reazioni di Fase 1.
Inattivazione metabolica significa che una molecola attiva o tossica viene convertita in un metabolita meno attivo. Questo di solito si verifica durante le reazioni di fase 2. In alcuni casi un metabolita inattivato potrebbe essere riattivato, ad esempio mediante scissione enzimatica.
Reazione 1 di fase si riferisce al primo passo nel metabolismo xenobiotico. Di solito significa che il composto è ossidato. L'ossidazione di solito rende il composto più solubile in acqua e facilita ulteriori reazioni.
Enzimi del citocromo P450 sono un gruppo di enzimi che ossidano preferenzialmente gli xenobiotici nelle reazioni di fase 1. I diversi enzimi sono specializzati per la gestione di gruppi specifici di xenobiotici con determinate caratteristiche. Anche le molecole endogene sono substrati. Gli enzimi del citocromo P450 sono indotti dagli xenobiotici in modo specifico. L'ottenimento di dati di induzione sul citocromo P450 può essere informativo sulla natura delle esposizioni precedenti (vedere "Determinanti genetici della risposta tossica").
Reazione 2 di fase si riferisce alla seconda fase del metabolismo xenobiotico. Di solito significa che il composto ossidato è coniugato con (accoppiato a) una molecola endogena. Questa reazione aumenta ulteriormente la solubilità in acqua. Molti metaboliti coniugati vengono attivamente escreti attraverso i reni.
Transferasi sono un gruppo di enzimi che catalizzano le reazioni di fase 2. Coniugano gli xenobiotici con composti endogeni come il glutatione, gli amminoacidi, l'acido glucuronico o il solfato.
Glutatione è una molecola endogena, un tripeptide, che viene coniugato con xenobiotici nelle reazioni di Fase 2. È presente in tutte le cellule (e nelle cellule del fegato in alte concentrazioni) e di solito protegge dagli xenobiotici attivati. Quando il glutatione è esaurito, possono verificarsi reazioni tossiche tra metaboliti xenobiotici attivati e proteine, lipidi o DNA.
Induzione significa che gli enzimi coinvolti nella biotrasformazione sono aumentati (in attività o quantità) come risposta all'esposizione xenobiotica. In alcuni casi in pochi giorni l'attività enzimatica può essere aumentata di diverse volte. L'induzione è spesso bilanciata in modo che entrambe le reazioni di Fase 1 e Fase 2 siano aumentate simultaneamente. Ciò può portare a una biotrasformazione più rapida e può spiegare la tolleranza. Al contrario, l'induzione sbilanciata può aumentare la tossicità.
Inibizione di biotrasformazione può verificarsi se due xenobiotici vengono metabolizzati dallo stesso enzima. I due substrati devono competere e di solito uno dei substrati è preferito. In tal caso il secondo substrato non viene metabolizzato o viene metabolizzato solo lentamente. Come con l'induzione, l'inibizione può aumentare così come diminuire la tossicità.
Attivazione dell'ossigeno può essere innescato dai metaboliti di alcuni xenobiotici. Possono auto-ossidarsi sotto la produzione di specie di ossigeno attivato. Queste specie derivate dall'ossigeno, che includono il superossido, il perossido di idrogeno e il radicale idrossile, possono danneggiare il DNA, i lipidi e le proteine nelle cellule. L'attivazione dell'ossigeno è anche coinvolta nei processi infiammatori.
Variabilità genetica tra gli individui è visto in molti geni che codificano per enzimi di fase 1 e fase 2. La variabilità genetica può spiegare perché alcuni individui sono più suscettibili agli effetti tossici degli xenobiotici rispetto ad altri.
Le decisioni che riguardano la salute, il benessere e l'occupabilità dei singoli lavoratori o l'approccio di un datore di lavoro alle questioni di salute e sicurezza devono basarsi su dati di buona qualità. Ciò è particolarmente vero nel caso dei dati di monitoraggio biologico ed è quindi responsabilità di qualsiasi laboratorio che intraprenda un lavoro analitico su campioni biologici provenienti da popolazioni attive garantire l'affidabilità, l'accuratezza e la precisione dei suoi risultati. Questa responsabilità si estende dal fornire metodi e linee guida adeguati per la raccolta dei campioni fino a garantire che i risultati vengano restituiti all'operatore sanitario responsabile della cura del singolo lavoratore in una forma adeguata. Tutte queste attività sono coperte dall'espressione di garanzia della qualità.
L'attività centrale in un programma di garanzia della qualità è il controllo e il mantenimento dell'accuratezza e della precisione analitiche. I laboratori di monitoraggio biologico si sono spesso sviluppati in un ambiente clinico e hanno adottato tecniche e filosofie di garanzia della qualità dalla disciplina della chimica clinica. In effetti, le misurazioni delle sostanze chimiche tossiche e degli indicatori di effetti biologici nel sangue e nelle urine non sono essenzialmente diverse da quelle effettuate nei laboratori di chimica clinica e di farmacologia clinica presenti in qualsiasi grande ospedale.
Un programma di garanzia della qualità per un singolo analista inizia con la selezione e la definizione di un metodo adeguato. La fase successiva è lo sviluppo di una procedura interna di controllo della qualità per mantenere la precisione; il laboratorio deve quindi accertarsi dell'accuratezza dell'analisi, e questo può comportare una valutazione esterna della qualità (vedi sotto). È importante riconoscere, tuttavia, che la garanzia della qualità include più di questi aspetti del controllo della qualità analitica.
Selezione del metodo
Esistono diversi testi che presentano metodi analitici nel monitoraggio biologico. Sebbene questi forniscano una guida utile, molto deve essere fatto dal singolo analista prima che possano essere prodotti dati di qualità adeguata. Fondamentale per qualsiasi programma di garanzia della qualità è la produzione di un protocollo di laboratorio che deve specificare in dettaglio quelle parti del metodo che hanno la maggiore influenza sulla sua affidabilità, accuratezza e precisione. In effetti, l'accreditamento nazionale dei laboratori di chimica clinica, tossicologia e scienze forensi dipende solitamente dalla qualità dei protocolli del laboratorio. Lo sviluppo di un protocollo adatto è solitamente un processo che richiede tempo. Se un laboratorio desidera stabilire un nuovo metodo, spesso è più conveniente ottenere da un laboratorio esistente un protocollo che abbia dimostrato le sue prestazioni, ad esempio, attraverso la convalida in un programma internazionale stabilito di garanzia della qualità. Se il nuovo laboratorio è impegnato in una tecnica analitica specifica, ad esempio la gascromatografia piuttosto che la cromatografia liquida ad alta prestazione, è spesso possibile identificare un laboratorio che ha un buon record di prestazioni e che utilizza lo stesso approccio analitico. I laboratori possono spesso essere identificati tramite articoli di riviste o organizzatori di vari schemi nazionali di valutazione della qualità.
Controllo di qualità interno
La qualità dei risultati analitici dipende dalla precisione del metodo raggiunto nella pratica, e questo a sua volta dipende dalla stretta aderenza a un protocollo definito. La precisione viene valutata al meglio includendo "campioni di controllo qualità" a intervalli regolari durante un ciclo analitico. Ad esempio, per il controllo delle analisi del piombo nel sangue, i campioni di controllo della qualità vengono introdotti nella corsa ogni sei o otto campioni di lavoratori effettivi. Metodi analitici più stabili possono essere monitorati con meno campioni di controllo qualità per ciclo. I campioni di controllo qualità per l'analisi della piombemia vengono preparati da 500 ml di sangue (umano o bovino) addizionato di piombo inorganico; singole aliquote vengono conservate a bassa temperatura (Bullock, Smith e Whitehead 1986). Prima che ogni nuovo lotto venga utilizzato, 20 aliquote vengono analizzate in corse separate in diverse occasioni per stabilire il risultato medio per questo lotto di campioni di controllo di qualità, nonché la sua deviazione standard (Whitehead 1977). Queste due figure vengono utilizzate per impostare una carta di controllo di Shewhart (figura 27.2). I risultati dell'analisi dei campioni di controllo di qualità inclusi nelle esecuzioni successive vengono tracciati sul grafico. L'analista utilizza quindi regole per l'accettazione o il rifiuto di un ciclo analitico a seconda che i risultati di questi campioni rientrino in due o tre deviazioni standard (SD) della media. Una sequenza di regole, convalidata dalla modellazione al computer, è stata suggerita da Westgard et al. (1981) per l'applicazione ai campioni di controllo. Questo approccio al controllo di qualità è descritto nei libri di testo di chimica clinica e un semplice approccio all'introduzione della garanzia di qualità è esposto in Whitehead (1977). Va sottolineato che queste tecniche di controllo qualità dipendono dalla preparazione e dall'analisi di campioni di controllo qualità separatamente dai campioni di calibrazione che vengono utilizzati in ogni occasione analitica.
Figura 27.2 Carta di controllo di Shewhart per campioni di controllo qualità
Questo approccio può essere adattato a una serie di analisi di monitoraggio biologico o di monitoraggio degli effetti biologici. È possibile preparare lotti di campioni di sangue o di urina aggiungendo il materiale tossico o il metabolita da misurare. Allo stesso modo, il sangue, il siero, il plasma o l'urina possono essere aliquotati e conservati surgelati o liofilizzati per la misurazione di enzimi o proteine. Tuttavia, occorre prestare attenzione per evitare il rischio infettivo per l'analista da campioni basati su sangue umano.
L'attenta osservanza di un protocollo ben definito e di regole per l'accettabilità è una prima fase essenziale in un programma di garanzia della qualità. Qualsiasi laboratorio deve essere preparato a discutere il controllo di qualità e le prestazioni di valutazione della qualità con gli operatori sanitari che lo utilizzano e ad indagare su risultati sorprendenti o insoliti.
Valutazione esterna della qualità
Una volta che un laboratorio ha stabilito di poter produrre risultati con adeguata precisione, la fase successiva è quella di confermare l'accuratezza ("esattezza") dei valori misurati, cioè la relazione delle misurazioni effettuate con la quantità effettiva presente. Questo è un esercizio difficile da svolgere da solo per un laboratorio, ma può essere ottenuto partecipando a un regolare programma esterno di valutazione della qualità. Questi sono stati una parte essenziale della pratica chimica clinica per qualche tempo, ma non sono stati ampiamente disponibili per il monitoraggio biologico. L'eccezione è l'analisi del piombo nel sangue, dove gli schemi sono disponibili dagli anni '1970 (ad esempio, Bullock, Smith e Whitehead 1986). Il confronto dei risultati analitici con quelli riportati da altri laboratori che analizzano campioni dello stesso lotto consente la valutazione delle prestazioni di un laboratorio rispetto ad altri, nonché una misura della sua accuratezza. Sono disponibili diversi schemi di valutazione della qualità nazionali e internazionali. Molti di questi schemi accolgono nuovi laboratori, poiché la validità della media dei risultati di un analita di tutti i laboratori partecipanti (presa come misura della concentrazione effettiva) aumenta con il numero di partecipanti. I programmi con molti partecipanti sono anche maggiormente in grado di analizzare le prestazioni di laboratorio secondo il metodo analitico e quindi consigliare alternative ai metodi con caratteristiche di prestazioni scadenti. In alcuni paesi, la partecipazione a tale schema è una parte essenziale dell'accreditamento del laboratorio. Le linee guida per la progettazione e il funzionamento del sistema di valutazione esterna della qualità sono state pubblicate dall'OMS (1981).
In assenza di schemi di valutazione esterna della qualità stabiliti, l'accuratezza può essere verificata utilizzando materiali di riferimento certificati che sono disponibili su base commerciale per una gamma limitata di analiti. I vantaggi dei campioni distribuiti da schemi esterni di valutazione della qualità sono che (1) l'analista non ha una conoscenza anticipata del risultato, (2) viene presentato un intervallo di concentrazioni e (3) poiché i metodi analitici definitivi non devono essere impiegati, i materiali coinvolti sono più economici.
Controllo di qualità pre-analitico
Lo sforzo speso per ottenere una buona accuratezza e precisione di laboratorio è sprecato se i campioni presentati al laboratorio non sono stati prelevati al momento giusto, se hanno subito contaminazione, si sono deteriorati durante il trasporto o sono stati etichettati in modo inadeguato o errato. È anche una cattiva pratica professionale sottoporre individui a campionamenti invasivi senza prendersi cura adeguata dei materiali campionati. Sebbene il campionamento spesso non sia sotto il diretto controllo dell'analista di laboratorio, un programma di monitoraggio biologico di qualità completa deve tenere conto di questi fattori e il laboratorio dovrebbe garantire che le siringhe e i contenitori dei campioni forniti siano privi di contaminazione, con chiare istruzioni sulla tecnica di campionamento e conservazione e trasporto del campione. L'importanza del corretto tempo di campionamento all'interno del turno o della settimana lavorativa e la sua dipendenza dalla tossicocinetica del materiale campionato sono ormai riconosciute (ACGIH 1993; HSE 1992), e queste informazioni dovrebbero essere messe a disposizione degli operatori sanitari responsabili della raccolta dei campioni .
Controllo qualità post-analitico
Risultati analitici di alta qualità possono essere di scarsa utilità per l'individuo o per il professionista sanitario se non vengono comunicati al professionista in una forma interpretabile e al momento giusto. Ogni laboratorio di monitoraggio biologico dovrebbe sviluppare procedure di refertazione per avvisare l'operatore sanitario che presenta i campioni di risultati anomali, inaspettati o sconcertanti in tempo per consentire l'adozione di misure appropriate. L'interpretazione dei risultati di laboratorio, in particolare le variazioni di concentrazione tra campioni successivi, dipende spesso dalla conoscenza della precisione del test. Nell'ambito della gestione totale della qualità, dalla raccolta del campione alla restituzione dei risultati, agli operatori sanitari dovrebbero essere fornite informazioni sulla precisione e l'accuratezza del laboratorio di monitoraggio biologico, nonché sugli intervalli di riferimento e sui limiti indicativi e legali, al fine di aiutarli nell'interpretazione dei risultati.
È difficile parlare di analisi del lavoro senza inquadrarla nella prospettiva dei recenti mutamenti del mondo industriale, perché la natura delle attività e le condizioni in cui si svolgono hanno subito negli ultimi anni una notevole evoluzione. I fattori che hanno dato origine a questi cambiamenti sono stati numerosi, ma ce ne sono due il cui impatto si è rivelato decisivo. Da un lato, il progresso tecnologico con i suoi ritmi sempre più rapidi e gli sconvolgimenti provocati dalle tecnologie dell'informazione hanno rivoluzionato il lavoro (De Keyser 1986). D'altra parte, l'incertezza del mercato economico ha richiesto maggiore flessibilità nella gestione del personale e nell'organizzazione del lavoro. Se gli operai hanno acquisito una visione più ampia del processo produttivo, meno routinaria e indubbiamente più sistematica, hanno allo stesso tempo perso i legami esclusivi con un ambiente, una squadra, uno strumento produttivo. È difficile guardare con serenità a questi cambiamenti, ma dobbiamo affrontare il fatto che si è creato un nuovo panorama industriale, a volte più arricchente per quei lavoratori che vi possono trovare posto, ma anche pieno di insidie e preoccupazioni per coloro che sono emarginati o esclusi. Tuttavia, un'idea viene ripresa nelle aziende ed è stata confermata da esperimenti pilota in molti paesi: dovrebbe essere possibile guidare i cambiamenti e attenuarne gli effetti negativi con l'uso di analisi pertinenti e utilizzando tutte le risorse per la negoziazione tra le diverse attività attori. È in questo contesto che vanno collocate oggi le analisi del lavoro, quali strumenti che consentono di meglio descrivere compiti e attività per orientare interventi di diverso tipo, come la formazione, la messa a punto di nuove modalità organizzative o la progettazione di strumenti e strumenti di lavoro sistemi. Parliamo di analisi, e non di una sola analisi, poiché ne esiste un gran numero, a seconda dei contesti teorici e culturali in cui vengono sviluppate, degli obiettivi particolari che perseguono, delle prove che raccolgono o della preoccupazione dell'analista per l'una o l'altra specificità o generalità. In questo articolo ci limiteremo a presentare alcune caratteristiche dell'analisi del lavoro ea sottolineare l'importanza del lavoro collettivo. Le nostre conclusioni evidenzieranno altri percorsi che i limiti di questo testo ci impediscono di approfondire.
Alcune caratteristiche delle analisi del lavoro
Il contesto
Se l'obiettivo principale di qualsiasi analisi del lavoro è descrivere ciò che l'operatore effettua, o dovresti ... dovrebbe, collocarlo più precisamente nel suo contesto è spesso sembrato indispensabile ai ricercatori. Menzionano, secondo le loro opinioni, ma in modo sostanzialmente simile, i concetti di contesto, situazione, ambiente, dominio di lavoro, mondo del lavoro or ambiente di lavoro. Il problema sta meno nelle sfumature tra questi termini che nella selezione delle variabili che devono essere descritte per dare loro un significato utile. Il mondo, infatti, è vasto e il settore è complesso e le caratteristiche a cui si potrebbe fare riferimento sono innumerevoli. Si possono notare due tendenze tra gli autori del settore. La prima vede la descrizione del contesto come un mezzo per catturare l'interesse del lettore e fornirgli un quadro semantico adeguato. La seconda ha una diversa prospettiva teorica: tenta di abbracciare sia il contesto che l'attività, descrivendo solo quegli elementi del contesto che sono in grado di influenzare il comportamento degli operatori.
Il quadro semantico
Il contesto ha potere evocativo. Basta, per un lettore informato, leggere di un operatore in una sala di controllo impegnato in un processo continuo per richiamare un quadro del lavoro attraverso comandi e sorveglianza a distanza, dove predominano i compiti di rilevamento, diagnosi e regolazione. Quali variabili devono essere descritte per creare un contesto sufficientemente significativo? Tutto dipende dal lettore. Tuttavia, vi è un consenso in letteratura su alcune variabili chiave. Il natura del settore economico, il tipo di produzione o servizio, la dimensione e la localizzazione geografica del sito sono utili.
I processi produttivi, il strumenti o macchine e loro livello di automazione consentono di indovinare certi vincoli e certe qualifiche necessarie. Il struttura del personale, insieme all'età e al livello di qualificazione e di esperienza sono dati cruciali ogniqualvolta l'analisi riguardi aspetti di formazione o di flessibilità organizzativa. Il organizzazione del lavoro stabilito dipende più dalla filosofia dell'azienda che dalla tecnologia. La sua descrizione include, in particolare, gli orari di lavoro, il grado di centralizzazione delle decisioni e le tipologie di controllo esercitato sui lavoratori. Altri elementi possono essere aggiunti in casi diversi. Sono legati alla storia e alla cultura dell'azienda, alla sua situazione economica, alle condizioni di lavoro, ad eventuali ristrutturazioni, fusioni e investimenti. Esistono almeno tanti sistemi di classificazione quanti sono gli autori e sono in circolazione numerosi elenchi descrittivi. In Francia, uno sforzo particolare è stato compiuto per generalizzare semplici metodi descrittivi, consentendo in particolare di classificare alcuni fattori a seconda che siano o meno soddisfacenti per l'operatore (RNUR 1976; Guelaud et al. 1977).
La descrizione dei fattori rilevanti per quanto riguarda l'attività
La tassonomia dei sistemi complessi descritta da Rasmussen, Pejtersen e Schmidts (1990) rappresenta uno dei tentativi più ambiziosi di coprire allo stesso tempo il contesto e la sua influenza sull'operatore. La sua idea principale è quella di integrare, in modo sistematico, i diversi elementi che lo compongono e di far emergere i gradi di libertà ei vincoli entro i quali possono essere sviluppate le strategie individuali. Il suo scopo esaustivo lo rende difficile da manipolare, ma l'uso di molteplici modalità di rappresentazione, compresi i grafici, per illustrare i vincoli ha un valore euristico che è destinato ad attrarre molti lettori. Altri approcci sono più mirati. Ciò che gli autori cercano è la selezione dei fattori che possono influenzare una precisa attività. Quindi, con un interesse per il controllo dei processi in un ambiente mutevole, Brehmer (1990) propone una serie di caratteristiche temporali del contesto che influenzano il controllo e l'anticipazione dell'operatore (vedi figura 1). La tipologia di questo autore è stata sviluppata da "micromondi", simulazioni computerizzate di situazioni dinamiche, ma l'autore stesso, insieme a molti altri da allora, l'ha utilizzata per l'industria a processo continuo (Van Daele 1992). Per alcune attività, l'influenza dell'ambiente è ben nota e la selezione dei fattori non è troppo difficile. Così, se siamo interessati alla frequenza cardiaca nell'ambiente di lavoro, spesso ci limitiamo a descrivere le temperature dell'aria, i vincoli fisici del compito o l'età e l'allenamento del soggetto, anche se sappiamo che così facendo forse lasciamo elementi rilevanti. Per altri, la scelta è più difficile. Gli studi sull'errore umano, ad esempio, mostrano che i fattori in grado di produrli sono numerosi (Reason 1989). A volte, quando le conoscenze teoriche sono insufficienti, solo l'elaborazione statistica, combinando l'analisi del contesto e dell'attività, permette di far emergere i fattori contestuali rilevanti (Fadier 1990).
Figura 1. Criteri e sottocriteri della tassonomia dei micromondi proposta da Brehmer (1990)
Il compito o l'attività?
L'obiettivo
Il compito è definito dai suoi obiettivi, dai suoi vincoli e dai mezzi che richiede per il suo conseguimento. Una funzione all'interno dell'azienda è generalmente caratterizzata da un insieme di compiti. Il compito realizzato differisce dal compito prescritto programmato dall'azienda per un gran numero di ragioni: le strategie degli operatori variano all'interno e tra gli individui, l'ambiente fluttua ed eventi casuali richiedono risposte che sono spesso al di fuori del quadro prescritto. Infine il compito non sempre è programmato con la corretta conoscenza delle sue condizioni di esecuzione, da qui la necessità di adattamenti in tempo reale. Ma anche se il compito si aggiorna durante l'attività, a volte fino a trasformarsi, rimane comunque il riferimento centrale.
Questionari, inventari e tassonomie di compiti sono numerosi, specialmente nella letteratura in lingua inglese: il lettore troverà eccellenti recensioni in Fleishman e Quaintance (1984) e in Greuter e Algera (1989). Alcuni di questi strumenti sono semplici liste di elementi - per esempio, i verbi d'azione per illustrare compiti - che vengono spuntati in base alla funzione studiata. Altri hanno adottato un principio gerarchico, caratterizzando un compito come elementi interconnessi, ordinati dal globale al particolare. Questi metodi sono standardizzati e possono essere applicati a un gran numero di funzioni; sono semplici da usare e la fase analitica è molto ridotta. Ma dove si tratta di definire un lavoro specifico, sono troppo statiche e troppo generiche per essere utili.
Poi ci sono quegli strumenti che richiedono più abilità da parte del ricercatore; poiché gli elementi di analisi non sono predefiniti, spetta al ricercatore caratterizzarli. Appartiene a questo gruppo la già superata tecnica dell'incidente critico di Flanagan (1954), dove l'osservatore descrive una funzione facendo riferimento alle sue difficoltà e individua gli incidenti che l'individuo dovrà affrontare.
È anche la via adottata dall'analisi del compito cognitivo (Roth e Woods 1988). Questa tecnica mira a portare alla luce i requisiti conoscitivi di un lavoro. Un modo per farlo è suddividere il lavoro in obiettivi, vincoli e mezzi. La figura 2 mostra come il compito di un anestesista, caratterizzato in primo luogo da un obiettivo molto globale di sopravvivenza del paziente, possa essere scomposto in una serie di sotto-obiettivi, che possono essere a loro volta classificati come azioni e mezzi da impiegare. Per ottenere questa “fotografia” sinottica dei requisiti della funzione sono state necessarie oltre 100 ore di osservazione in sala operatoria e successivi colloqui con gli anestesisti. Questa tecnica, sebbene piuttosto laboriosa, è tuttavia utile in ergonomia per determinare se tutti gli obiettivi di un compito sono dotati dei mezzi per raggiungerli. Consente inoltre di comprendere la complessità di un compito (le sue particolari difficoltà e gli obiettivi contrastanti, ad esempio) e facilita l'interpretazione di alcuni errori umani. Ma soffre, come altri metodi, dell'assenza di un linguaggio descrittivo (Grant e Mayes 1991). Inoltre, non consente di formulare ipotesi sulla natura dei processi cognitivi messi in atto per raggiungere gli scopi in questione.
Figura 2. Analisi cognitiva del compito: anestesia generale
Altri approcci hanno analizzato i processi cognitivi associati a determinati compiti elaborando ipotesi sull'elaborazione delle informazioni necessarie per realizzarli. Un modello cognitivo di questo tipo frequentemente impiegato è quello di Rasmussen (1986), che prevede, a seconda della natura del compito e della sua familiarità per il soggetto, tre possibili livelli di attività basati sia su abitudini e riflessi basati sull'abilità, sia su regole acquisite procedure basate sulla conoscenza o sulle procedure basate sulla conoscenza. Ma altri modelli o teorie che hanno raggiunto l'apice della loro popolarità durante gli anni '1970 rimangono in uso. Pertanto, la teoria del controllo ottimale, che considera l'uomo come un controllore delle discrepanze tra obiettivi assegnati e obiettivi osservati, è talvolta ancora applicata ai processi cognitivi. E la modellazione per mezzo di reti di compiti interconnessi e diagrammi di flusso continua a ispirare gli autori dell'analisi dei compiti cognitivi; la figura 3 fornisce una descrizione semplificata delle sequenze comportamentali in un compito di controllo energetico, costruendo un'ipotesi su alcune operazioni mentali. Tutti questi tentativi riflettono la preoccupazione dei ricercatori di riunire nella stessa descrizione non solo elementi del contesto, ma anche il compito stesso ei processi cognitivi che ne sono alla base, e di riflettere anche il carattere dinamico del lavoro.
Figura 3. Una descrizione semplificata delle determinanti di una sequenza di comportamento nei compiti di controllo energetico: un caso di consumo di energia inaccettabile
Dall'arrivo dell'organizzazione scientifica del lavoro, il concetto di compito prescritto è stato criticato negativamente perché è stato visto come comportante l'imposizione ai lavoratori di compiti che non solo sono progettati senza consultarne le esigenze, ma sono spesso accompagnati da tempi di esecuzione specifici , una restrizione non accolta da molti lavoratori. Anche se l'aspetto dell'imposizione è diventato oggi un po' più flessibile e anche se i lavoratori contribuiscono più spesso alla progettazione dei compiti, un tempo assegnato per i compiti rimane necessario per la pianificazione del programma e rimane una componente essenziale dell'organizzazione del lavoro. La quantificazione del tempo non deve sempre essere percepita in maniera negativa. Costituisce un prezioso indicatore del carico di lavoro. Un metodo semplice ma comune per misurare la pressione temporale esercitata su un lavoratore consiste nel determinare il quoziente del tempo necessario per l'esecuzione di un compito diviso per il tempo disponibile. Più questo quoziente è vicino all'unità, maggiore è la pressione (Wickens 1992). Inoltre, la quantificazione può essere utilizzata in una gestione del personale flessibile ma appropriata. Prendiamo il caso degli infermieri dove la tecnica dell'analisi predittiva dei compiti è stata generalizzata, ad esempio, nella normativa canadese Pianificazione dell'assistenza infermieristica richiesta (PRN 80) (Kepenne 1984) o una delle sue varianti europee. Grazie a tali graduatorie, corredate dal relativo iter di esecuzione, è possibile, ogni mattina, tenuto conto del numero dei pazienti e delle loro condizioni mediche, stabilire un piano di cura e una distribuzione del personale. Lungi dall'essere un vincolo, il PRN 80 ha, in alcuni ospedali, dimostrato che esiste una carenza di personale infermieristico, poiché la tecnica consente di stabilire una differenza (vedi figura 4) tra il desiderato e l'osservato, cioè tra il numero di personale necessario e il numero disponibile, e anche tra i compiti pianificati e i compiti svolti. I tempi calcolati sono solo delle medie e le fluttuazioni della situazione non sempre li rendono applicabili, ma questo aspetto negativo è minimizzato da un'organizzazione flessibile che accetta aggiustamenti e consente al personale di partecipare all'effettuazione di tali aggiustamenti.
Figura 4. Discrepanze tra i numeri di personale presente e richiesto sulla base del PRN80
L'attività, le prove e la performance
Un'attività è definita come l'insieme dei comportamenti e delle risorse utilizzate dall'operatore affinché avvenga il lavoro, cioè la trasformazione o produzione di beni o la prestazione di un servizio. Questa attività può essere compresa attraverso l'osservazione in diversi modi. Faverge (1972) ha descritto quattro forme di analisi. La prima è un'analisi in termini di gesti ed posture, dove l'osservatore individua, all'interno dell'attività visibile dell'operatore, classi di comportamento riconoscibili e ripetute durante il lavoro. Queste attività sono spesso abbinate a una risposta precisa: ad esempio la frequenza cardiaca, che ci consente di valutare il carico fisico associato a ciascuna attività. La seconda forma di analisi è in termini di assorbimento delle informazioni. Ciò che viene scoperto, attraverso l'osservazione diretta – o con l'ausilio di telecamere o registratori di movimenti oculari – è l'insieme dei segnali captati dall'operatore nel campo informativo che lo circonda. Questa analisi è particolarmente utile in ergonomia cognitiva per cercare di comprendere meglio l'elaborazione delle informazioni effettuata dall'operatore. Il terzo tipo di analisi è in termini di regolamento. L'idea è quella di identificare gli adattamenti dell'attività svolta dall'operatore per far fronte alle fluttuazioni dell'ambiente o ai cambiamenti della propria condizione. Qui troviamo l'intervento diretto del contesto all'interno dell'analisi. Uno dei progetti di ricerca più citati in questo campo è quello di Sperandio (1972). Questo autore ha studiato l'attività dei controllori del traffico aereo e ha identificato importanti cambiamenti di strategia durante un aumento del traffico aereo. Li ha interpretati come un tentativo di semplificare l'attività mirando a mantenere un livello di carico accettabile, continuando allo stesso tempo a soddisfare i requisiti del compito. Il quarto è un'analisi in termini di processi mentali. Questo tipo di analisi è stato ampiamente utilizzato nell'ergonomia dei posti altamente automatizzati. Infatti, la progettazione di ausili informatici e soprattutto di ausili intelligenti per l'operatore richiede una conoscenza approfondita del modo in cui l'operatore ragiona per risolvere determinati problemi. Il ragionamento coinvolto nella programmazione, nell'anticipazione e nella diagnosi è stato oggetto di analisi, un esempio del quale può essere trovato nella figura 5. Tuttavia, l'evidenza dell'attività mentale può essere solo dedotta. A parte alcuni aspetti osservabili del comportamento, come i movimenti degli occhi e il tempo di risoluzione dei problemi, la maggior parte di queste analisi ricorre alla risposta verbale. Particolare enfasi è stata posta, negli ultimi anni, sulle conoscenze necessarie per realizzare determinate attività, con i ricercatori che cercano di non postularle all'inizio ma di renderle evidenti attraverso l'analisi stessa.
Figura 5. Analisi dell'attività mentale. Strategie nel controllo di processi con lunghi tempi di risposta: la necessità di un supporto informatico nella diagnosi
Tali sforzi hanno portato alla luce il fatto che si possono ottenere prestazioni quasi identiche con livelli di conoscenza molto diversi, purché gli operatori siano consapevoli dei propri limiti e applichino strategie adeguate alle proprie capacità. Quindi, nel nostro studio sull'avviamento di una centrale termoelettrica (De Keyser e Housiaux 1989), gli avviamenti sono stati eseguiti sia da ingegneri che da operatori. Le conoscenze teoriche e procedurali che questi due gruppi possedevano, elicitate attraverso interviste e questionari, erano molto diverse. Gli operatori, in particolare, a volte hanno avuto un'errata comprensione delle variabili nei legami funzionali del processo. Nonostante ciò, le prestazioni dei due gruppi sono state molto ravvicinate. Ma gli operatori hanno tenuto conto di più variabili per verificare il controllo dell'avviamento e hanno effettuato verifiche più frequenti. Tali risultati sono stati ottenuti anche da Amalberti (1991), che ha menzionato l'esistenza di metaconoscenze che consentono agli esperti di gestire le proprie risorse.
Che prove di attività è opportuno suscitare? La sua natura, come abbiamo visto, dipende strettamente dalla forma di analisi prevista. La sua forma varia a seconda del grado di cura metodologica esercitata dall'osservatore. Provocato le prove si distinguono da spontaneo prove e concomitante da successivo evidenza. In generale, quando la natura del lavoro lo consente, sono da preferire testimonianze concomitanti e spontanee. Sono esenti da vari inconvenienti come l'inaffidabilità della memoria, l'interferenza dell'osservatore, l'effetto della ricostruzione razionalizzante da parte del soggetto, e così via. Per illustrare queste distinzioni, prenderemo l'esempio delle verbalizzazioni. Le verbalizzazioni spontanee sono scambi verbali, o monologhi espressi spontaneamente senza essere richiesti dall'osservatore; le verbalizzazioni provocate sono quelle effettuate su specifica richiesta dell'osservatore, come la richiesta fatta al soggetto di “pensare ad alta voce”, ben nota nella letteratura conoscitiva. Entrambi i tipi possono essere eseguiti in tempo reale, durante il lavoro, e sono quindi concomitanti.
Possono anche essere successive, come nelle interviste, o verbalizzazioni dei soggetti quando visionano le videocassette del loro lavoro. Quanto alla validità delle verbalizzazioni, non si deve ignorare il dubbio sollevato al riguardo dalla polemica tra Nisbett e De Camp Wilson (1977) e White (1988) e le cautele suggerite da numerosi autori consapevoli della loro importanza nello studio dell'attività mentale in considerazione delle difficoltà metodologiche incontrate (Ericson e Simon 1984; Savoyant e Leplat 1983; Caverni 1988; Bainbridge 1986).
L'organizzazione di questa evidenza, la sua elaborazione e la sua formalizzazione richiedono linguaggi descrittivi e talvolta analisi che vanno oltre l'osservazione sul campo. Quelle attività mentali dedotte dalle prove, ad esempio, rimangono ipotetiche. Oggi vengono spesso descritti utilizzando linguaggi derivati dall'intelligenza artificiale, avvalendosi di rappresentazioni in termini di schemi, regole di produzione e reti di connessione. Inoltre, si è diffuso l'uso di simulazioni computerizzate - di micromondi - per individuare determinate attività mentali, anche se la validità dei risultati ottenuti da tali simulazioni computerizzate, vista la complessità del mondo industriale, è oggetto di dibattito. Infine, dobbiamo menzionare i modelli cognitivi di alcune attività mentali estratte dal campo. Tra le più note la diagnosi del gestore di una centrale nucleare, effettuata in ISPRA (Decortis e Cacciabue 1990), e la pianificazione del pilota da combattimento perfezionata in Centre d'études et de recherches de médecine aérospatiale (CERMA) (Amalberti et al. 1989).
La misurazione delle discrepanze tra le prestazioni di questi modelli e quella di operatori viventi reali è un campo fruttuoso nell'analisi delle attività. Prestazione è l'esito dell'attività, la risposta finale data dal soggetto alle esigenze del compito. Si esprime a livello di produzione: produttività, qualità, errore, incidente, incidente e persino, a un livello più globale, assenteismo o turnover. Ma va individuato anche a livello individuale: l'espressione soggettiva di soddisfazione, stress, fatica o carico di lavoro, e molte risposte fisiologiche sono anche indicatori di performance. Solo l'intero set di dati consente l'interpretazione dell'attività, vale a dire, giudicare se promuove o meno gli obiettivi desiderati pur rimanendo entro i limiti umani. Esiste un insieme di norme che, fino a un certo punto, guidano l'osservatore. Ma queste norme non lo sono situato—non tengono conto del contesto, delle sue fluttuazioni e della condizione del lavoratore. Ecco perché nell'ergonomia del design, anche quando esistono regole, norme e modelli, si consiglia ai progettisti di testare il prodotto utilizzando i prototipi il prima possibile e di valutare l'attività e le prestazioni degli utenti.
Lavoro individuale o collettivo?
Mentre nella stragrande maggioranza dei casi il lavoro è un atto collettivo, la maggior parte delle analisi del lavoro si concentra su compiti o attività individuali. Tuttavia, il fatto è che l'evoluzione tecnologica, così come l'organizzazione del lavoro, oggi enfatizza il lavoro distribuito, sia esso tra lavoratori e macchine o semplicemente all'interno di un gruppo. Quali percorsi sono stati esplorati dagli autori per tener conto di questa distribuzione (Rasmussen, Pejtersen e Schmidts 1990)? Si concentrano su tre aspetti: la struttura, la natura degli scambi e la labilità strutturale.
Structure
Sia che si consideri la struttura come elementi di analisi delle persone, o dei servizi, o anche dei diversi rami di un'azienda che lavorano in rete, la descrizione dei legami che le uniscono rimane un problema. Conosciamo molto bene gli organigrammi all'interno delle imprese che indicano la struttura dell'autorità e le cui varie forme riflettono la filosofia organizzativa dell'azienda - molto gerarchicamente organizzata per una struttura tayloriana, o appiattita come un rastrello, addirittura a matrice, per una struttura più flessibile. Sono possibili altre descrizioni di attività distribuite: un esempio è riportato nella figura 6. Più di recente, la necessità per le imprese di rappresentare i propri scambi di informazioni a livello globale ha portato a un ripensamento dei sistemi informativi. Grazie ad alcuni linguaggi descrittivi – ad esempio gli schemi progettuali, o le matrici entità-relazioni-attributo – la struttura delle relazioni a livello collettivo può oggi essere descritta in maniera molto astratta e può servire da trampolino per la creazione di sistemi di gestione informatizzati .
Figura 6. Progettazione integrata del ciclo di vita
La natura degli scambi
La semplice descrizione dei legami che uniscono le entità dice poco sul contenuto stesso degli scambi; naturalmente la natura della relazione può essere specificata - spostamento da un luogo all'altro, trasferimenti di informazioni, dipendenza gerarchica e così via - ma questo è spesso del tutto inadeguato. L'analisi delle comunicazioni all'interno dei team è diventata un mezzo privilegiato per catturare la natura stessa del lavoro collettivo, comprendendo gli argomenti menzionati, la creazione di un linguaggio comune in un team, la modifica delle comunicazioni quando le circostanze sono critiche e così via (Tardieu, Nanci e Pascot 1985; Rolland 1986; Navarro 1990; Van Daele 1992; Lacoste 1983; Moray, Sanderson e Vincente 1989). La conoscenza di queste interazioni è particolarmente utile per la creazione di strumenti informatici, in particolare ausili decisionali per la comprensione degli errori. Le diverse fasi e le difficoltà metodologiche legate all'utilizzo di queste evidenze sono state ben descritte da Falzon (1991).
Labilità strutturale
È il lavoro sulle attività piuttosto che sui compiti che ha aperto il campo della labilità strutturale, cioè delle continue riconfigurazioni del lavoro collettivo sotto l'influenza di fattori contestuali. Studi come quelli di Rogalski (1991), che ha a lungo analizzato le attività collettive che si occupano di incendi boschivi in Francia, e Bourdon e Weill Fassina (1994), che hanno studiato la struttura organizzativa predisposta per fronteggiare gli incidenti ferroviari, sono entrambi molto informativo. Mostrano chiaramente come il contesto plasma la struttura degli scambi, il numero e il tipo di attori coinvolti, la natura delle comunicazioni e il numero di parametri essenziali per il lavoro. Più questo contesto fluttua, più le descrizioni fisse del compito vengono allontanate dalla realtà. La conoscenza di questa labilità, e una migliore comprensione dei fenomeni che si svolgono al suo interno, sono essenziali per pianificare l'imprevedibile e per fornire una migliore formazione a coloro che sono coinvolti nel lavoro collettivo in una situazione di crisi.
Conclusioni
Le varie fasi dell'analisi del lavoro che sono state descritte sono una parte iterativa di qualsiasi ciclo di progettazione dei fattori umani (vedi figura 6). In questa progettazione di qualsiasi oggetto tecnico, sia esso uno strumento, una postazione di lavoro o una fabbrica, in cui i fattori umani sono una considerazione, alcune informazioni sono necessarie nel tempo. In generale, l'inizio del ciclo progettuale è caratterizzato dalla necessità di dati relativi ai vincoli ambientali, alle tipologie di lavori da svolgere, alle diverse caratteristiche degli utenti. Queste prime informazioni consentono di redigere le specifiche dell'oggetto in modo da tenere conto delle esigenze di lavoro. Ma questo è, in un certo senso, solo un modello grossolano rispetto alla reale situazione lavorativa. Questo spiega perché sono necessari modelli e prototipi che, fin dalla loro nascita, permettano di valutare non i lavori in sé, ma le attività dei futuri utenti. Di conseguenza, mentre la progettazione delle immagini su un monitor in una sala di controllo può essere basata su un'approfondita analisi conoscitiva del lavoro da svolgere, solo un'analisi basata sui dati dell'attività consentirà di determinare con precisione se il prototipo sarà effettivamente essere utili nella situazione lavorativa reale (Van Daele 1988). Una volta messo in funzione l'oggetto tecnico finito, viene posta maggiore enfasi sulle prestazioni degli utenti e su situazioni disfunzionali, come incidenti o errori umani. La raccolta di questo tipo di informazioni consente di apportare le correzioni finali che aumenteranno l'affidabilità e la fruibilità dell'oggetto completato. Sia l'industria nucleare che quella aeronautica servono da esempio: il feedback operativo implica la segnalazione di ogni incidente che si verifica. In questo modo, il ciclo di progettazione chiude il cerchio.
L'organismo umano rappresenta un sistema biologico complesso su vari livelli di organizzazione, dal livello molecolare-cellulare ai tessuti e agli organi. L'organismo è un sistema aperto, che scambia materia ed energia con l'ambiente attraverso numerose reazioni biochimiche in equilibrio dinamico. L'ambiente può essere inquinato o contaminato da varie sostanze tossiche.
La penetrazione di molecole o ioni di sostanze tossiche dall'ambiente di lavoro o di vita in un sistema biologico così fortemente coordinato può disturbare in modo reversibile o irreversibile i normali processi biochimici cellulari, o addirittura danneggiare e distruggere la cellula (vedere "Danno cellulare e morte cellulare").
La penetrazione di una sostanza tossica dall'ambiente ai siti del suo effetto tossico all'interno dell'organismo può essere suddivisa in tre fasi:
Qui focalizzeremo la nostra attenzione esclusivamente sui processi tossicocinetici all'interno dell'organismo umano in seguito all'esposizione a sostanze tossiche nell'ambiente.
Le molecole o gli ioni di sostanze tossiche presenti nell'ambiente penetreranno nell'organismo attraverso la pelle e le mucose, o le cellule epiteliali del tratto respiratorio e gastrointestinale, a seconda del punto di ingresso. Ciò significa che le molecole e gli ioni delle sostanze tossiche devono penetrare attraverso le membrane cellulari di questi sistemi biologici, nonché attraverso un intricato sistema di endomembrane all'interno della cellula.
Tutti i processi tossicocinetici e tossicodinamici avvengono a livello molecolare-cellulare. Numerosi fattori influenzano questi processi e questi possono essere suddivisi in due gruppi fondamentali:
Proprietà fisico-chimiche delle sostanze tossiche
Nel 1854 il tossicologo russo EV Pelikan iniziò gli studi sulla relazione tra la struttura chimica di una sostanza e la sua attività biologica: la relazione struttura-attività (SAR). La struttura chimica determina direttamente le proprietà fisico-chimiche, alcune delle quali sono responsabili dell'attività biologica.
Per definire la struttura chimica si possono selezionare numerosi parametri come descrittori, che possono essere suddivisi in vari gruppi:
1. Fisico-chimico:
2. Sterico: volume molecolare, forma e superficie, forma della sottostruttura, reattività molecolare, ecc.
3. Strutturale: numero di legami numero di anelli (nei composti policiclici), estensione della ramificazione, ecc.
Per ogni sostanza tossica è necessario selezionare un insieme di descrittori relativi a un particolare meccanismo di attività. Tuttavia, dal punto di vista tossicocinetico due parametri sono di importanza generale per tutti i tossici:
Per le polveri e gli aerosol inalati, anche la dimensione delle particelle, la forma, l'area superficiale e la densità influenzano la tossicocinetica e la tossicodinamica.
Struttura e proprietà delle membrane
La cellula eucariotica degli organismi umani e animali è circondata da una membrana citoplasmatica che regola il trasporto di sostanze e mantiene l'omeostasi cellulare. Anche gli organelli cellulari (nucleo, mitocondri) possiedono membrane. Il citoplasma cellulare è suddiviso in compartimenti da intricate strutture membranose, il reticolo endoplasmatico e il complesso del Golgi (endomembrane). Tutte queste membrane sono strutturalmente simili, ma variano nel contenuto di lipidi e proteine.
La struttura strutturale delle membrane è un doppio strato di molecole lipidiche (fosfolipidi, sfingolipidi, colesterolo). La spina dorsale di una molecola fosfolipidica è il glicerolo con due dei suoi gruppi -OH esterificati da acidi grassi alifatici con 16-18 atomi di carbonio e il terzo gruppo esterificato da un gruppo fosfato e un composto azotato (colina, etanolamina, serina). Negli sfingolipidi, la sfingosina è la base.
La molecola lipidica è anfipatica perché è costituita da una “testa” idrofila polare (aminoalcol, fosfato, glicerolo) e da una “coda” gemella non polare (acidi grassi). Il doppio strato lipidico è disposto in modo che le teste idrofile costituiscano la superficie esterna e interna della membrana e le code lipofile siano tese verso l'interno della membrana, che contiene acqua, vari ioni e molecole.
Le proteine e le glicoproteine sono inserite nel doppio strato lipidico (proteine intrinseche) o attaccate alla superficie della membrana (proteine estrinseche). Queste proteine contribuiscono all'integrità strutturale della membrana, ma possono anche fungere da enzimi, trasportatori, pareti dei pori o recettori.
La membrana rappresenta una struttura dinamica che può essere disintegrata e ricostruita con una diversa proporzione di lipidi e proteine, a seconda delle esigenze funzionali.
La regolazione del trasporto di sostanze all'interno e all'esterno della cellula rappresenta una delle funzioni fondamentali delle membrane esterne ed interne.
Alcune molecole lipofile passano direttamente attraverso il doppio strato lipidico. Le molecole e gli ioni idrofili vengono trasportati attraverso i pori. Le membrane rispondono alle mutevoli condizioni aprendo o sigillando determinati pori di varie dimensioni.
I seguenti processi e meccanismi sono coinvolti nel trasporto di sostanze, comprese le sostanze tossiche, attraverso le membrane:
Processi attivi:
Emittente
Questo rappresenta il movimento di molecole e ioni attraverso il doppio strato lipidico oi pori da una regione ad alta concentrazione, o ad alto potenziale elettrico, a una regione a bassa concentrazione o potenziale ("downhill"). La differenza di concentrazione o carica elettrica è la forza motrice che influenza l'intensità del flusso in entrambe le direzioni. Nello stato di equilibrio, l'afflusso sarà uguale all'efflusso. La velocità di diffusione segue la legge di Ficke, affermando che è direttamente proporzionale alla superficie disponibile della membrana, alla differenza nel gradiente di concentrazione (carica) e al coefficiente di diffusione caratteristico, e inversamente proporzionale allo spessore della membrana.
Piccole molecole lipofile passano facilmente attraverso lo strato lipidico della membrana, secondo il coefficiente di partizione di Nernst.
Grandi molecole lipofile, molecole idrosolubili e ioni utilizzeranno i canali dei pori acquosi per il loro passaggio. Le dimensioni e la stereoconfigurazione influenzeranno il passaggio delle molecole. Per gli ioni, oltre alle dimensioni, sarà determinante il tipo di carica. Le molecole proteiche delle pareti dei pori possono acquisire carica positiva o negativa. I pori stretti tendono ad essere selettivi: i ligandi caricati negativamente consentiranno il passaggio solo per i cationi e i ligandi caricati positivamente consentiranno il passaggio solo per gli anioni. Con l'aumento del diametro dei pori il flusso idrodinamico è dominante, consentendo il libero passaggio di ioni e molecole, secondo la legge di Poiseuille. Questa filtrazione è una conseguenza del gradiente osmotico. In alcuni casi gli ioni possono penetrare attraverso molecole complesse specifiche:ionofori—che possono essere prodotti da microrganismi con effetti antibiotici (nonactina, valinomicina, gramacidina, ecc.).
Diffusione facilitata o catalizzata
Ciò richiede la presenza di un trasportatore nella membrana, solitamente una molecola proteica (permeasi). Il vettore lega selettivamente le sostanze, assomigliando a un complesso substrato-enzima. Molecole simili (incluse le sostanze tossiche) possono competere per il vettore specifico fino al raggiungimento del suo punto di saturazione. I tossici possono competere per il vettore e quando sono irreversibilmente legati ad esso il trasporto viene bloccato. Il tasso di trasporto è caratteristico per ogni tipo di vettore. Se il trasporto avviene in entrambe le direzioni, si parla di diffusione di scambio.
Trasporto attivo
Per il trasporto di alcune sostanze vitali per la cellula, viene utilizzato un tipo speciale di vettore, che trasporta contro il gradiente di concentrazione o il potenziale elettrico ("in salita"). Il vettore è molto stereospecifico e può essere saturato.
Per il trasporto in salita è necessaria energia. L'energia necessaria è ottenuta dalla scissione catalitica delle molecole di ATP in ADP da parte dell'enzima adenosina trifosfatasi (ATP-asi).
I tossici possono interferire con questo trasporto mediante inibizione competitiva o non competitiva del portatore o mediante inibizione dell'attività ATP-asi.
Endocitosi
Endocitosi è definito come un meccanismo di trasporto in cui la membrana cellulare circonda il materiale avvolgendosi per formare una vescicola che lo trasporta attraverso la cellula. Quando il materiale è liquido, il processo è definito pinocitosi. In alcuni casi il materiale è legato a un recettore e questo complesso è trasportato da una vescicola di membrana. Questo tipo di trasporto è particolarmente utilizzato dalle cellule epiteliali del tratto gastrointestinale e dalle cellule del fegato e dei reni.
Assorbimento di sostanze tossiche
Le persone sono esposte a numerose sostanze tossiche presenti nell'ambiente di lavoro e di vita, che possono penetrare nell'organismo umano attraverso tre principali porte di ingresso:
Nel caso dell'esposizione nell'industria, l'inalazione rappresenta la via dominante di ingresso delle sostanze tossiche, seguita dalla penetrazione cutanea. In agricoltura, l'esposizione ai pesticidi tramite assorbimento cutaneo è quasi uguale ai casi di inalazione combinata e penetrazione cutanea. La popolazione generale è maggiormente esposta per ingestione di cibo, acqua e bevande contaminati, quindi per inalazione e meno spesso per penetrazione cutanea.
Assorbimento attraverso le vie respiratorie
L'assorbimento nei polmoni rappresenta la principale via di assorbimento di numerosi agenti tossici aerodispersi (gas, vapori, fumi, nebbie, fumi, polveri, aerosol, ecc.).
Il tratto respiratorio (RT) rappresenta un ideale sistema di scambio gassoso in possesso di una membrana con una superficie di 30 m2 (scadenza) a 100m2 (ispirazione profonda), dietro la quale si trova una rete di circa 2,000 km di capillari. Il sistema, sviluppato attraverso l'evoluzione, è alloggiato in uno spazio relativamente piccolo (cavità toracica) protetto da costole.
Anatomicamente e fisiologicamente il RT può essere suddiviso in tre compartimenti:
I tossici idrofili sono facilmente assorbiti dall'epitelio della regione nasofaringea. L'intero epitelio delle regioni NP e TB è ricoperto da una pellicola d'acqua. I tossici lipofili sono parzialmente assorbiti nelle NP e TB, ma soprattutto negli alveoli per diffusione attraverso le membrane alveolo-capillari. Il tasso di assorbimento dipende dalla ventilazione polmonare, dalla gittata cardiaca (flusso sanguigno attraverso i polmoni), dalla solubilità del tossico nel sangue e dal suo tasso metabolico.
Negli alveoli avviene lo scambio di gas. La parete alveolare è costituita da un epitelio, una struttura interstiziale di membrana basale, tessuto connettivo e l'endotelio capillare. La diffusione delle sostanze tossiche è molto rapida attraverso questi strati, che hanno uno spessore di circa 0.8 μm. Negli alveoli, il tossico viene trasferito dalla fase aerea alla fase liquida (sangue). La velocità di assorbimento (distribuzione aria-sangue) di una sostanza tossica dipende dalla sua concentrazione nell'aria alveolare e dal coefficiente di partizione di Nernst per il sangue (coefficiente di solubilità).
Nel sangue il tossico può essere disciolto in fase liquida mediante semplici processi fisici oppure legato alle cellule del sangue e/o ai costituenti del plasma secondo affinità chimica o per adsorbimento. Il contenuto di acqua nel sangue è del 75% e, pertanto, gas e vapori idrofili mostrano un'elevata solubilità nel plasma (p. es., alcoli). Le sostanze tossiche lipofile (p. es., il benzene) sono solitamente legate a cellule o macromolecole come l'albume.
Fin dall'inizio dell'esposizione nei polmoni, si verificano due processi opposti: assorbimento e desorbimento. L'equilibrio tra questi processi dipende dalla concentrazione di sostanza tossica nell'aria alveolare e nel sangue. All'inizio dell'esposizione la concentrazione di sostanze tossiche nel sangue è 0 e la ritenzione nel sangue è quasi del 100%. Con il proseguimento dell'esposizione si raggiunge un equilibrio tra assorbimento e desorbimento. I tossici idrofili raggiungeranno rapidamente l'equilibrio e la velocità di assorbimento dipende dalla ventilazione polmonare piuttosto che dal flusso sanguigno. Le sostanze tossiche lipofile hanno bisogno di più tempo per raggiungere l'equilibrio, e qui il flusso di sangue insaturo regola la velocità di assorbimento.
La deposizione di particelle e aerosol nell'RT dipende da fattori fisici e fisiologici, nonché dalla dimensione delle particelle. In breve, più piccola è la particella, più in profondità penetrerà nell'RT.
Una ritenzione relativamente bassa e costante di particelle di polvere nei polmoni di persone altamente esposte (ad esempio, minatori) suggerisce l'esistenza di un sistema molto efficiente per l'eliminazione delle particelle. Nella parte superiore del RT (tracheo-bronchiale) un velo mucociliare compie lo sgombero. Nella parte polmonare sono all'opera tre diversi meccanismi: (1) mantello mucociliare, (2) fagocitosi e (3) penetrazione diretta di particelle attraverso la parete alveolare.
Le prime 17 delle 23 ramificazioni dell'albero tracheo-bronchiale possiedono cellule epiteliali ciliate. Con i loro colpi queste ciglia spostano costantemente una coltre mucosa verso la bocca. Le particelle depositate su questa coltre mucociliare saranno inghiottite in bocca (ingestione). Una coperta mucosa copre anche la superficie dell'epitelio alveolare, spostandosi verso la coperta mucociliare. Inoltre le cellule specializzate in movimento, i fagociti, inghiottono particelle e microrganismi negli alveoli e migrano in due possibili direzioni:
Assorbimento attraverso il tratto gastrointestinale
Le sostanze tossiche possono essere ingerite in caso di ingestione accidentale, assunzione di cibi e bevande contaminati o ingestione di particelle eliminate dall'RT.
L'intero canale alimentare, dall'esofago all'ano, è sostanzialmente costruito allo stesso modo. Uno strato mucoso (epitelio) è sostenuto dal tessuto connettivo e quindi da una rete di capillari e muscoli lisci. L'epitelio superficiale dello stomaco è molto rugoso per aumentare la superficie di assorbimento/secrezione. L'area intestinale contiene numerose piccole sporgenze (villi), che sono in grado di assorbire materiale per “pompaggio”. L'area attiva per l'assorbimento nell'intestino è di circa 100 m2.
Nel tratto gastrointestinale (GIT) tutti i processi di assorbimento sono molto attivi:
Alcuni ioni metallici tossici utilizzano sistemi di trasporto specializzati per elementi essenziali: tallio, cobalto e manganese utilizzano il sistema del ferro, mentre il piombo sembra utilizzare il sistema del calcio.
Molti fattori influenzano il tasso di assorbimento delle sostanze tossiche in varie parti del GIT:
È inoltre necessario menzionare la circolazione enteroepatica. Tossici polari e/o metaboliti (glucuronidi e altri coniugati) vengono escreti con la bile nel duodeno. Qui gli enzimi della microflora effettuano l'idrolisi ei prodotti liberati possono essere riassorbiti e trasportati dalla vena porta nel fegato. Questo meccanismo è molto pericoloso nel caso di sostanze epatotossiche, consentendone l'accumulo temporaneo nel fegato.
Nel caso di sostanze tossiche biotrasformate nel fegato in metaboliti meno tossici o non tossici, l'ingestione può rappresentare una porta di ingresso meno pericolosa. Dopo l'assorbimento nel GIT, queste sostanze tossiche saranno trasportate dalla vena porta al fegato, dove potranno essere parzialmente disintossicate mediante biotrasformazione.
Assorbimento attraverso la pelle (cutanea, percutanea)
La pelle (1.8 m2 di superficie in un essere umano adulto) insieme alle mucose degli orifizi del corpo, ricopre la superficie del corpo. Rappresenta una barriera contro gli agenti fisici, chimici e biologici, mantenendo l'integrità e l'omeostasi del corpo e svolgendo molti altri compiti fisiologici.
Fondamentalmente la pelle è composta da tre strati: epidermide, vera pelle (derma) e tessuto sottocutaneo (ipoderma). Dal punto di vista tossicologico l'epidermide è qui di maggior interesse. È costituito da molti strati di cellule. Una superficie cornea di cellule morte appiattite (strato corneo) è lo strato superiore, sotto il quale si trova uno strato continuo di cellule vive (strato corneo compatto), seguito da una tipica membrana lipidica, e quindi da strato lucido, strato grammoso e strato mucoso. La membrana lipidica rappresenta una barriera protettiva, ma nelle parti pelose della pelle penetrano sia i follicoli piliferi che i canali delle ghiandole sudoripare. Pertanto, l'assorbimento cutaneo può avvenire mediante i seguenti meccanismi:
Il tasso di assorbimento attraverso la pelle dipenderà da molti fattori:
Trasporto di sostanze tossiche da sangue e linfa
Dopo l'assorbimento da parte di uno qualsiasi di questi portali di ingresso, le sostanze tossiche raggiungeranno il sangue, la linfa o altri fluidi corporei. Il sangue rappresenta il principale veicolo di trasporto delle sostanze tossiche e dei loro metaboliti.
Il sangue è un organo a circolazione fluida, che trasporta l'ossigeno necessario e le sostanze vitali alle cellule e rimuove i prodotti di scarto del metabolismo. Il sangue contiene anche componenti cellulari, ormoni e altre molecole coinvolte in molte funzioni fisiologiche. Il sangue scorre all'interno di un sistema circolatorio di vasi sanguigni relativamente ben chiuso e ad alta pressione, spinto dall'attività del cuore. A causa dell'alta pressione, si verifica una perdita di fluido. Il sistema linfatico rappresenta il sistema di drenaggio, sotto forma di una maglia fine di piccoli capillari linfatici a parete sottile che si diramano attraverso i tessuti molli e gli organi.
Il sangue è una miscela di una fase liquida (plasma, 55%) e globuli solidi (45%). Il plasma contiene proteine (albumine, globuline, fibrinogeno), acidi organici (lattico, glutammico, citrico) e molte altre sostanze (lipidi, lipoproteine, glicoproteine, enzimi, sali, xenobiotici, ecc.). Gli elementi delle cellule del sangue includono eritrociti (Er), leucociti, reticolociti, monociti e piastrine.
Le sostanze tossiche vengono assorbite come molecole e ioni. Alcune sostanze tossiche al pH del sangue formano particelle colloidali come terza forma in questo liquido. Molecole, ioni e colloidi di sostanze tossiche hanno varie possibilità di trasporto nel sangue:
La maggior parte delle sostanze tossiche nel sangue esiste parzialmente allo stato libero nel plasma e parzialmente legata agli eritrociti e ai costituenti del plasma. La distribuzione dipende dall'affinità delle sostanze tossiche a questi costituenti. Tutte le frazioni sono in equilibrio dinamico.
Alcune sostanze tossiche sono trasportate dagli elementi del sangue, principalmente dagli eritrociti, molto raramente dai leucociti. Le sostanze tossiche possono essere adsorbite sulla superficie di Er o possono legarsi ai ligandi dello stroma. Se penetrano in Er possono legarsi all'eme (es. monossido di carbonio e selenio) o alla globina (Sb111, Po210). Alcuni tossici trasportati da Er sono arsenico, cesio, torio, radon, piombo e sodio. Il cromo esavalente è legato esclusivamente all'Er e il cromo trivalente alle proteine del plasma. Per lo zinco si verifica competizione tra Er e plasma. Circa il 96% del piombo viene trasportato da Er. Il mercurio organico è principalmente legato a Er e il mercurio inorganico è trasportato principalmente dall'albumina plasmatica. Piccole frazioni di berillio, rame, tellurio e uranio sono trasportate da Er.
La maggior parte delle sostanze tossiche viene trasportata dal plasma o dalle proteine plasmatiche. Molti elettroliti sono presenti come ioni in equilibrio con molecole non dissociate libere o legate alle frazioni plasmatiche. Questa frazione ionica di sostanze tossiche è molto diffusibile, penetrando attraverso le pareti dei capillari nei tessuti e negli organi. Gas e vapori possono essere disciolti nel plasma.
Le proteine plasmatiche possiedono una superficie totale di circa 600-800 km2 offerto per l'assorbimento di sostanze tossiche. Le molecole di albumina possiedono circa 109 ligandi cationici e 120 anionici a disposizione degli ioni. Molti ioni sono parzialmente trasportati dall'albumina (ad es. rame, zinco e cadmio), così come composti come dinitro- e orto-cresoli, derivati nitro e alogenati di idrocarburi aromatici e fenoli.
Le molecole di globuline (alfa e beta) trasportano piccole molecole di sostanze tossiche così come alcuni ioni metallici (rame, zinco e ferro) e particelle colloidali. Il fibrinogeno mostra affinità per alcune piccole molecole. Molti tipi di legami possono essere coinvolti nel legame di sostanze tossiche alle proteine plasmatiche: forze di Van der Waals, attrazione di cariche, associazione tra gruppi polari e apolari, ponti a idrogeno, legami covalenti.
Le lipoproteine plasmatiche trasportano sostanze tossiche lipofile come i PCB. Anche le altre frazioni plasmatiche fungono da veicolo di trasporto. L'affinità delle sostanze tossiche per le proteine plasmatiche suggerisce la loro affinità per le proteine nei tessuti e negli organi durante la distribuzione.
Gli acidi organici (lattico, glutammico, citrico) formano complessi con alcune sostanze tossiche. Le terre alcaline e le terre rare, così come alcuni elementi pesanti sotto forma di cationi, sono complessate anche con ossi- e amminoacidi organici. Tutti questi complessi sono generalmente diffusibili e facilmente distribuibili nei tessuti e negli organi.
Gli agenti chelanti fisiologicamente nel plasma come la transferrina e la metallotioneina competono con gli acidi organici e gli amminoacidi per i cationi per formare chelati stabili.
Gli ioni liberi diffusibili, alcuni complessi e alcune molecole libere vengono facilmente eliminati dal sangue nei tessuti e negli organi. La frazione libera di ioni e molecole è in equilibrio dinamico con la frazione legata. La concentrazione di una sostanza tossica nel sangue governerà la velocità della sua distribuzione nei tessuti e negli organi, o la sua mobilitazione da essi nel sangue.
Distribuzione delle sostanze tossiche nell'organismo
L'organismo umano può essere suddiviso in quanto segue scomparti. (1) organi interni, (2) pelle e muscoli, (3) tessuti adiposi, (4) tessuto connettivo e ossa. Questa classificazione si basa principalmente sul grado di perfusione vascolare (sangue) in ordine decrescente. Ad esempio gli organi interni (incluso il cervello), che rappresentano solo il 12% del peso corporeo totale, ricevono circa il 75% del volume totale del sangue. D'altra parte, i tessuti connettivi e le ossa (15% del peso corporeo totale) ricevono solo l'XNUMX% del volume totale del sangue.
Gli organi interni ben irrorati generalmente raggiungono la più alta concentrazione di sostanze tossiche nel minor tempo, così come un equilibrio tra sangue e questo compartimento. L'assorbimento di sostanze tossiche da parte dei tessuti meno perfusi è molto più lento, ma la ritenzione è maggiore e la durata della degenza molto più lunga (accumulo) a causa della bassa perfusione.
Tre componenti sono di grande importanza per la distribuzione intracellulare delle sostanze tossiche: contenuto di acqua, lipidi e proteine nelle cellule di vari tessuti e organi. Il suddetto ordine di compartimenti segue anche da vicino un contenuto d'acqua decrescente nelle loro cellule. I tossici idrofili saranno distribuiti più rapidamente ai fluidi corporei e alle cellule con un elevato contenuto di acqua e i tossici lipofili alle cellule con un contenuto lipidico più elevato (tessuto adiposo).
L'organismo possiede alcune barriere che ostacolano la penetrazione di alcuni gruppi di sostanze tossiche, per lo più idrofile, in determinati organi e tessuti, quali:
Come notato in precedenza, solo le forme libere di sostanze tossiche nel plasma (molecole, ioni, colloidi) sono disponibili per la penetrazione attraverso le pareti dei capillari che partecipano alla distribuzione. Questa frazione libera è in equilibrio dinamico con la frazione legata. La concentrazione di sostanze tossiche nel sangue è in equilibrio dinamico con la loro concentrazione negli organi e nei tessuti, regolandone la ritenzione (accumulo) o la mobilizzazione.
La condizione dell'organismo, lo stato funzionale degli organi (in particolare la regolazione neuro-umorale), l'equilibrio ormonale e altri fattori giocano un ruolo nella distribuzione.
La ritenzione di sostanze tossiche in un particolare compartimento è generalmente temporanea e può verificarsi la ridistribuzione in altri tessuti. La ritenzione e l'accumulo si basano sulla differenza tra i tassi di assorbimento ed eliminazione. La durata della ritenzione in un compartimento è espressa dall'emivita biologica. Questo è l'intervallo di tempo in cui il 50% del tossico viene eliminato dal tessuto o dall'organo e ridistribuito, traslocato o eliminato dall'organismo.
I processi di biotrasformazione si verificano durante la distribuzione e la ritenzione in vari organi e tessuti. La biotrasformazione produce metaboliti più polari, più idrofili, che vengono eliminati più facilmente. Un basso tasso di biotrasformazione di un tossico lipofilo causerà generalmente il suo accumulo in un compartimento.
Le sostanze tossiche possono essere suddivise in quattro gruppi principali in base alla loro affinità, ritenzione predominante e accumulo in un particolare compartimento:
Accumulo nei tessuti ricchi di lipidi
L '"uomo standard" di 70 kg di peso corporeo contiene circa il 15% del peso corporeo sotto forma di tessuto adiposo, che aumenta con l'obesità fino al 50%. Tuttavia, questa frazione lipidica non è distribuita uniformemente. Il cervello (SNC) è un organo ricco di lipidi e i nervi periferici sono avvolti da una guaina mielinica ricca di lipidi e cellule di Schwann. Tutti questi tessuti offrono possibilità di accumulo di sostanze tossiche lipofile.
In questo compartimento verranno distribuiti numerosi non elettroliti e tossici non polari con un opportuno coefficiente di ripartizione di Nernst, nonché numerosi solventi organici (alcoli, aldeidi, chetoni, ecc.), idrocarburi clorurati (inclusi insetticidi organoclorurati come il DDT), alcuni gas inerti (radon), ecc.
Il tessuto adiposo accumulerà sostanze tossiche a causa della sua bassa vascolarizzazione e del minor tasso di biotrasformazione. Qui l'accumulo di sostanze tossiche può rappresentare una sorta di “neutralizzazione” temporanea a causa della mancanza di bersagli per l'effetto tossico. Tuttavia, il potenziale pericolo per l'organismo è sempre presente a causa della possibilità di mobilizzazione di sostanze tossiche da questo compartimento verso la circolazione.
La deposizione di sostanze tossiche nel cervello (SNC) o nel tessuto ricco di lipidi della guaina mielinica del sistema nervoso periferico è molto pericolosa. I neurotossici vengono depositati qui direttamente accanto ai loro bersagli. Le sostanze tossiche trattenute nel tessuto ricco di lipidi delle ghiandole endocrine possono produrre disturbi ormonali. Nonostante la barriera emato-encefalica giungono al cervello (SNC) numerose sostanze neurotossiche di natura lipofila: anestetici, solventi organici, pesticidi, piombo tetraetile, organomercuriali, ecc.
Ritenzione nel sistema reticoloendoteliale
In ogni tessuto e organo una certa percentuale di cellule è specializzata per l'attività fagocitica, fagocitando microrganismi, particelle, particelle colloidali e così via. Questo sistema è chiamato sistema reticoloendoteliale (RES), comprendente cellule fisse e cellule mobili (fagociti). Queste cellule sono presenti in forma non attiva. Un aumento dei suddetti microbi e particelle attiverà le cellule fino a un punto di saturazione.
I tossici sotto forma di colloidi saranno catturati dalle RES di organi e tessuti. La distribuzione dipende dalla dimensione delle particelle colloidali. Per particelle più grandi, sarà favorita la ritenzione nel fegato. Con particelle colloidali più piccole, si verificherà una distribuzione più o meno uniforme tra milza, midollo osseo e fegato. L'eliminazione dei colloidi dalle RES è molto lenta, sebbene le piccole particelle vengano eliminate relativamente più rapidamente.
Accumulo nelle ossa
Circa 60 elementi possono essere identificati come elementi osteotropi o cercatori di ossa.
Gli elementi osteotropi possono essere suddivisi in tre gruppi:
Lo scheletro di un uomo standard rappresenta dal 10 al 15% del peso corporeo totale, rappresentando un grande deposito potenziale di sostanze tossiche osteotropiche. L'osso è un tessuto altamente specializzato costituito in volume dal 54% di minerali e dal 38% di matrice organica. La matrice minerale dell'osso è idrossiapatite, Ca10(PO4)6(OH)2 , in cui il rapporto tra Ca e P è di circa 1.5 a uno. La superficie di minerale disponibile per l'adsorbimento è di circa 100 m2 per g di osso.
L'attività metabolica delle ossa dello scheletro può essere suddivisa in due categorie:
Nel feto, l'osso metabolico del neonato e del bambino piccolo (vedi “scheletro disponibile”) rappresenta quasi il 100% dello scheletro. Con l'età questa percentuale di osso metabolico diminuisce. L'incorporazione di sostanze tossiche durante l'esposizione appare nell'osso metabolico e nei compartimenti a rotazione più lenta.
L'incorporazione di sostanze tossiche nell'osso avviene in due modi:
Reazioni di scambio ionico
Il minerale osseo, l'idrossiapatite, rappresenta un complesso sistema di scambio ionico. I cationi di calcio possono essere scambiati da vari cationi. Gli anioni presenti nell'osso possono essere scambiati anche da anioni: fosfato con citrati e carbonati, ossidrile con fluoro. Gli ioni che non sono scambiabili possono essere adsorbiti sulla superficie del minerale. Quando gli ioni tossici vengono incorporati nel minerale, un nuovo strato di minerale può ricoprire la superficie del minerale, seppellendo il tossico nella struttura ossea. Lo scambio ionico è un processo reversibile, a seconda della concentrazione di ioni, pH e volume del fluido. Così, per esempio, un aumento del calcio nella dieta può diminuire la deposizione di ioni tossici nel reticolo dei minerali. È stato detto che con l'età la percentuale di osso metabolico diminuisce, sebbene lo scambio ionico continui. Con l'invecchiamento, si verifica il riassorbimento minerale osseo, in cui la densità ossea diminuisce effettivamente. A questo punto, possono essere rilasciate sostanze tossiche nelle ossa (p. es., piombo).
Circa il 30% degli ioni incorporati nei minerali ossei sono debolmente legati e possono essere scambiati, catturati da agenti chelanti naturali ed escreti, con un'emivita biologica di 15 giorni. L'altro 70% è legato più saldamente. La mobilizzazione e l'escrezione di questa frazione mostra un'emivita biologica di 2.5 anni e più a seconda del tipo di osso (processi di rimodellamento).
Gli agenti chelanti (Ca-EDTA, penicillamina, BAL, ecc.) possono mobilizzare quantità considerevoli di alcuni metalli pesanti e la loro escrezione nelle urine aumenta notevolmente.
Adsorbimento colloidale
Le particelle colloidali vengono adsorbite come una pellicola sulla superficie minerale (100 m2 per g) da forze di Van der Waals o chemisorbimento. Questo strato di colloidi sulle superfici minerali è ricoperto dallo strato successivo di minerali formati e le sostanze tossiche sono maggiormente sepolte nella struttura ossea. Il tasso di mobilizzazione ed eliminazione dipende dai processi di rimodellamento.
Accumulo nei capelli e nelle unghie
I capelli e le unghie contengono cheratina, con gruppi sulfidrilici in grado di chelare cationi metallici come mercurio e piombo.
Distribuzione del tossico all'interno della cellula
Recentemente è diventata importante la distribuzione di sostanze tossiche, in particolare alcuni metalli pesanti, all'interno delle cellule di tessuti e organi. Con le tecniche di ultracentrifugazione è possibile separare varie frazioni della cellula per determinarne il contenuto di ioni metallici e altre sostanze tossiche.
Studi sugli animali hanno rivelato che dopo la penetrazione nella cellula, alcuni ioni metallici si legano a una proteina specifica, la metallotioneina. Questa proteina a basso peso molecolare è presente nelle cellule del fegato, dei reni e di altri organi e tessuti. I suoi gruppi sulfidrilici possono legare sei ioni per molecola. L'aumentata presenza di ioni metallici induce la biosintesi di questa proteina. Gli ioni di cadmio sono l'induttore più potente. La metallotioneina serve anche a mantenere l'omeostasi degli ioni vitali rame e zinco. La metallotioneina può legare zinco, rame, cadmio, mercurio, bismuto, oro, cobalto e altri cationi.
Biotrasformazione ed eliminazione di sostanze tossiche
Durante la ritenzione nelle cellule di vari tessuti e organi, le sostanze tossiche sono esposte a enzimi che possono biotrasformarle (metabolizzarle), producendo metaboliti. Ci sono molte vie per l'eliminazione di sostanze tossiche e/o metaboliti: dall'aria espirata attraverso i polmoni, dall'urina attraverso i reni, dalla bile attraverso il GIT, dal sudore attraverso la pelle, dalla saliva attraverso la mucosa della bocca, dal latte attraverso il ghiandole mammarie e da capelli e unghie attraverso la normale crescita e il ricambio cellulare.
L'eliminazione di un tossico assorbito dipende dal portale di ingresso. Nei polmoni il processo di assorbimento/desorbimento inizia immediatamente e le sostanze tossiche vengono parzialmente eliminate dall'aria espirata. L'eliminazione delle sostanze tossiche assorbite da altre vie di ingresso è prolungata e inizia dopo il trasporto attraverso il sangue, per poi essere completata dopo la distribuzione e la biotrasformazione. Durante l'assorbimento esiste un equilibrio tra le concentrazioni di una sostanza tossica nel sangue e nei tessuti e negli organi. L'escrezione diminuisce la concentrazione ematica tossica e può indurre la mobilizzazione di una sostanza tossica dai tessuti nel sangue.
Molti fattori possono influenzare il tasso di eliminazione delle sostanze tossiche e dei loro metaboliti dal corpo:
Qui distinguiamo due gruppi di compartimenti: (1) il sistema di cambio rapido— in questi compartimenti, la concentrazione tissutale di sostanza tossica è simile a quella del sangue; e (2) il sistema di scambio lento, dove la concentrazione tissutale di sostanze tossiche è superiore a quella del sangue a causa del legame e dell'accumulo: il tessuto adiposo, lo scheletro ei reni possono trattenere temporaneamente alcune sostanze tossiche, ad esempio arsenico e zinco.
Una sostanza tossica può essere espulsa simultaneamente da due o più vie di escrezione. Tuttavia, di solito un percorso è dominante.
Gli scienziati stanno sviluppando modelli matematici che descrivono l'escrezione di un particolare tossico. Questi modelli si basano sul movimento da uno o entrambi i compartimenti (sistemi di scambio), biotrasformazione e così via.
Eliminazione dall'aria espirata attraverso i polmoni
L'eliminazione attraverso i polmoni (desorbimento) è tipica delle sostanze tossiche ad alta volatilità (ad es. solventi organici). Gas e vapori a bassa solubilità nel sangue verranno eliminati rapidamente in questo modo, mentre le sostanze tossiche ad alta solubilità nel sangue verranno eliminate per altre vie.
I solventi organici assorbiti dal GIT o dalla pelle vengono escreti parzialmente dall'aria espirata in ogni passaggio di sangue attraverso i polmoni, se hanno una tensione di vapore sufficiente. Il test dell'etilometro utilizzato per i guidatori sospetti in stato di ebbrezza si basa su questo fatto. La concentrazione di CO nell'aria espirata è in equilibrio con il contenuto di CO-Hb nel sangue. Il gas radioattivo radon appare nell'aria espirata a causa del decadimento del radio accumulato nello scheletro.
L'eliminazione di una sostanza tossica dall'aria espirata in relazione al periodo di tempo post-esposizione è generalmente espressa da una curva a tre fasi. La prima fase rappresenta l'eliminazione del tossico dal sangue, mostrando una breve emivita. La seconda fase, più lenta, rappresenta l'eliminazione dovuta allo scambio di sangue con tessuti e organi (sistema di scambio rapido). La terza fase, molto lenta, è dovuta allo scambio di sangue con tessuto adiposo e scheletro. Se in tali compartimenti non si accumula una sostanza tossica, la curva sarà bifase. In alcuni casi è anche possibile una curva a quattro fasi.
La determinazione dei gas e dei vapori nell'aria espirata nel periodo post-esposizione viene talvolta utilizzata per la valutazione delle esposizioni nei lavoratori.
Escrezione renale
Il rene è un organo specializzato nell'escrezione di numerosi tossici e metaboliti idrosolubili, mantenendo l'omeostasi dell'organismo. Ogni rene possiede circa un milione di nefroni in grado di eseguire l'escrezione. L'escrezione renale rappresenta un evento molto complesso che comprende tre diversi meccanismi:
L'escrezione di una sostanza tossica attraverso i reni nelle urine dipende dal coefficiente di partizione di Nernst, dalla costante di dissociazione e dal pH dell'urina, dalla dimensione e forma molecolare, dalla velocità del metabolismo verso metaboliti più idrofili, nonché dallo stato di salute dei reni.
La cinetica dell'escrezione renale di un tossico o del suo metabolita può essere espressa da una curva di escrezione a due, tre o quattro fasi, a seconda della distribuzione del particolare tossico nei vari compartimenti corporei che differiscono nella velocità di scambio con il sangue.
saliva
Alcuni farmaci e ioni metallici possono essere escreti attraverso la mucosa della bocca dalla saliva, ad esempio piombo ("linea di piombo"), mercurio, arsenico, rame, nonché bromuri, ioduri, alcol etilico, alcaloidi e così via. Le sostanze tossiche vengono quindi ingerite, raggiungendo il GIT, dove possono essere riassorbite o eliminate con le feci.
Sudare
Molti non elettroliti possono essere parzialmente eliminati attraverso la pelle attraverso il sudore: alcol etilico, acetone, fenoli, solfuro di carbonio e idrocarburi clorurati.
latte
Molti metalli, solventi organici e alcuni pesticidi organoclorurati (DDT) vengono secreti attraverso la ghiandola mammaria nel latte materno. Questo percorso può rappresentare un pericolo per i lattanti.
Capelli
L'analisi dei capelli può essere utilizzata come indicatore dell'omeostasi di alcune sostanze fisiologiche. Anche l'esposizione ad alcune sostanze tossiche, in particolare metalli pesanti, può essere valutata mediante questo tipo di saggio biologico.
L'eliminazione delle sostanze tossiche dal corpo può essere aumentata da:
Determinazioni dell'esposizione
La determinazione delle sostanze tossiche e dei metaboliti nel sangue, nell'aria espirata, nelle urine, nel sudore, nelle feci e nei capelli è sempre più utilizzata per la valutazione dell'esposizione umana (test di esposizione) e/o la valutazione del grado di intossicazione. Pertanto sono stati recentemente stabiliti i limiti di esposizione biologica (Biological MAC Values, Biological Exposure Indices—BEI). Questi biodosaggi mostrano "l'esposizione interna" dell'organismo, cioè l'esposizione totale del corpo sia negli ambienti di lavoro che in quelli di vita da tutte le porte di ingresso (vedi "Metodi di test tossicologici: biomarcatori").
Effetti combinati dovuti all'esposizione multipla
Le persone nell'ambiente di lavoro e/o di vita sono solitamente esposte contemporaneamente o consecutivamente a vari agenti fisici e chimici. Inoltre è necessario tenere in considerazione che alcune persone fanno uso di farmaci, fumano, consumano alcolici e cibi contenenti additivi e così via. Ciò significa che di solito si sta verificando un'esposizione multipla. Agenti fisici e chimici possono interagire in ogni fase dei processi tossicocinetici e/o tossicodinamici, producendo tre possibili effetti:
Tuttavia, gli studi sugli effetti combinati sono rari. Questo tipo di studio è molto complesso a causa della combinazione di vari fattori e agenti.
Possiamo concludere che quando l'organismo umano è esposto a due o più sostanze tossiche simultaneamente o consecutivamente, è necessario considerare la possibilità di alcuni effetti combinati, che possono aumentare o diminuire la velocità dei processi tossicocinetici.
Metalli tossici e composti organometallici come alluminio, antimonio, arsenico inorganico, berillio, cadmio, cromo, cobalto, piombo, piombo alchilico, mercurio metallico e suoi sali, composti organici del mercurio, nichel, selenio e vanadio sono da tempo riconosciuti come comportare potenziali rischi per la salute delle persone esposte. In alcuni casi sono stati studiati studi epidemiologici sulle relazioni tra dose interna e conseguente effetto/risposta nei lavoratori professionalmente esposti, consentendo così di proporre valori limite biologici sanitari (vedi tabella 1).
Tabella 1. Metalli: valori di riferimento e valori limite biologici proposti dalla Conferenza americana degli igienisti industriali governativi (ACGIH), dalla Deutsche Forschungsgemeinschaft (DFG) e da Lauwerys e Hoet (L e H)
Metallo |
Campione |
Riferimento1 i valori* |
Limite ACGIH (BEI).2 |
Limite DFG (BAT).3 |
Limite L e H4 (TMC) |
Alluminio |
Siero/plasma Urina |
<1μg/100ml <30μg/g |
200 μg/l (fine turno) |
150 μg/g (fine turno) |
|
Antimonio |
Urina |
<1μg/g |
35 μg/g (fine turno) |
||
Arsenico |
Urina (somma di arsenico inorganico e metaboliti metilati) |
<10μg/g |
50 μg/g (fine della settimana lavorativa) |
50 μg/g (se TWA: 0.05 mg/m3 ); 30 μg/g (se TWA: 0.01 mg/m3 ) (fine turno) |
|
Berillio |
Urina |
<2μg/g |
|||
Cadmio |
Sangue Urina |
<0.5μg/100ml <2μg/g |
0.5 mg/100 ml 5 mg/g |
1.5 mg/100 ml 15 μg / l |
0.5 mg/100 ml 5 mg/g |
cromo (composti solubili) |
Siero/plasma Urina |
<0.05μg/100ml <5μg/g |
30 μg/g (fine turno, fine settimana lavorativa); 10 μg/g (aumento durante il turno) |
30 μg/g (fine turno) |
|
Cobalto |
Siero/plasma Sangue Urina |
<0.05μg/100ml <0.2μg/100ml <2μg/g |
0.1 μg/100 ml (fine turno, fine settimana lavorativa) 15 μg/l (fine turno, fine settimana lavorativa) |
0.5 μg/100 ml (EKA)** 60 μg/l (EKA)** |
30 μg/g (fine turno, fine settimana lavorativa) |
Portare |
Sangue (piombo) ZPP nel sangue Urina (piombo) ALA urina |
<25μg/100ml <40 μg/100 ml di sangue <2.5μg/gHb <50μg/g <4.5 mg / g |
30 μg/100 ml (non critico) |
femmina <45 anni: 30 mg/100 ml maschio: 70 μg/100 ml femmina <45 anni: 6mg/l; maschio: 15 mg/l |
40 mg/100 ml 40 μg/100 ml di sangue o 3 μg/g Hb 50 mg/g 5 mg / g |
Manganese |
Sangue Urina |
<1μg/100ml <3μg/g |
|||
Mercurio inorganico |
Sangue Urina |
<1μg/100ml <5μg/g |
1.5 μg/100 ml (fine turno, fine settimana lavorativa) 35 μg/g (preturno) |
5 mg/100 ml 200 μg / l |
2 μg/100 ml (fine turno) 50 μg/g (fine turno) |
Nichel, Ni free (composti solubili) |
Siero/plasma Urina |
<0.05μg/100ml <2μg/g |
45 μg/l (EKA)** |
30 mg/g |
|
Selenio |
Siero/plasma Urina |
<15μg/100ml <25μg/g |
|||
Vanadio |
Siero/plasma Sangue Urina |
<0.2μg/100ml <0.1μg/100ml <1μg/g |
70 μg/g di creatinina |
50 mg/g |
* I valori delle urine sono per grammo di creatinina.
** EKA = Equivalenti di esposizione per materiali cancerogeni.
1 Preso con alcune modifiche da Lauwerys e Hoet 1993.
2 Dall'ACGIH 1996-97.
3 Da DFG 1996.
4 Concentrazioni massime ammissibili provvisorie (TMPC) tratte da Lauwerys e Hoet 1993.
Un problema nella ricerca di misurazioni precise e accurate dei metalli nei materiali biologici è che le sostanze metalliche di interesse sono spesso presenti nei mezzi a livelli molto bassi. Quando il monitoraggio biologico consiste nel prelievo e nell'analisi delle urine, come spesso accade, di solito viene eseguito su campioni “spot”; la correzione dei risultati per la diluizione delle urine è quindi generalmente consigliabile. L'espressione dei risultati per grammo di creatinina è il metodo di standardizzazione più utilizzato. Le analisi eseguite su campioni di urina troppo diluiti o troppo concentrati non sono affidabili e devono essere ripetute.
Alluminio
Nell'industria, i lavoratori possono essere esposti a composti inorganici di alluminio per inalazione ed eventualmente anche per ingestione di polvere contenente alluminio. L'alluminio è scarsamente assorbito per via orale, ma il suo assorbimento è aumentato dalla contemporanea assunzione di citrati. Il tasso di assorbimento dell'alluminio depositato nel polmone è sconosciuto; la biodisponibilità dipende probabilmente dalle caratteristiche fisico-chimiche della particella. L'urina è la principale via di escrezione dell'alluminio assorbito. La concentrazione di alluminio nel siero e nelle urine è determinata sia dall'intensità di una recente esposizione sia dal carico corporeo di alluminio. Nelle persone non professionalmente esposte, la concentrazione di alluminio nel siero è generalmente inferiore a 1 μg/100 ml e nelle urine raramente supera i 30 μg/g di creatinina. Nei soggetti con funzione renale normale, l'escrezione urinaria di alluminio è un indicatore più sensibile dell'esposizione all'alluminio rispetto alla sua concentrazione nel siero/plasma.
I dati sui saldatori suggeriscono che la cinetica dell'escrezione di alluminio nelle urine comporta un meccanismo a due fasi, la prima con un'emivita biologica di circa otto ore. Nei lavoratori che sono stati esposti per diversi anni, si verifica effettivamente un certo accumulo del metallo nel corpo e anche le concentrazioni di alluminio nel siero e nelle urine sono influenzate dal carico corporeo di alluminio. L'alluminio è immagazzinato in diversi compartimenti del corpo ed espulso da questi compartimenti a velocità diverse nel corso di molti anni. Elevato accumulo di alluminio nel corpo (ossa, fegato, cervello) è stato riscontrato anche in pazienti affetti da insufficienza renale. I pazienti sottoposti a dialisi sono a rischio di tossicità ossea e/o encefalopatia quando la loro concentrazione sierica di alluminio supera cronicamente i 20 μg/100 ml, ma è possibile rilevare segni di tossicità anche a concentrazioni inferiori. La Commissione delle Comunità Europee ha raccomandato che, per prevenire la tossicità dell'alluminio, la concentrazione di alluminio nel plasma non dovrebbe mai superare i 20 μg/100 ml; un livello superiore a 10 μg/100 ml dovrebbe comportare un aumento della frequenza dei controlli e della sorveglianza sanitaria, e una concentrazione superiore a 6 μg/100 ml dovrebbe essere considerata una prova di un accumulo eccessivo del carico corporeo di alluminio.
Antimonio
L'antimonio inorganico può entrare nell'organismo per ingestione o inalazione, ma la velocità di assorbimento è sconosciuta. I composti pentavalenti assorbiti sono principalmente escreti con l'urina e i composti trivalenti attraverso le feci. La ritenzione di alcuni composti di antimonio è possibile dopo un'esposizione a lungo termine. Le concentrazioni normali di antimonio nel siero e nelle urine sono probabilmente inferiori rispettivamente a 0.1 μg/100 ml e 1 μg/g di creatinina.
Uno studio preliminare sui lavoratori esposti all'antimonio pentavalente indica che un'esposizione media ponderata nel tempo a 0.5 mg/m3 porterebbe ad un aumento della concentrazione di antimonio urinario di 35 μg/g di creatinina durante il turno.
Arsenico inorganico
L'arsenico inorganico può entrare nell'organismo attraverso il tratto gastrointestinale e respiratorio. L'arsenico assorbito viene eliminato principalmente attraverso i reni immodificato o dopo metilazione. L'arsenico inorganico è anche escreto nella bile come complesso di glutatione.
A seguito di una singola esposizione orale a una bassa dose di arseniato, il 25 e il 45% della dose somministrata viene escreta nelle urine rispettivamente entro uno e quattro giorni.
In seguito all'esposizione ad arsenico inorganico trivalente o pentavalente, l'escrezione urinaria è costituita dal 10-20% di arsenico inorganico, dal 10 al 20% di acido monometilarsonico e dal 60 all'80% di acido cacodilico. Dopo l'esposizione professionale all'arsenico inorganico, la proporzione delle specie di arsenico nelle urine dipende dal momento del campionamento.
Gli organoarsenicali presenti negli organismi marini sono anch'essi facilmente assorbiti dal tratto gastrointestinale ma vengono escreti per la maggior parte inalterati.
Gli effetti tossici a lungo termine dell'arsenico (compresi gli effetti tossici sui geni) derivano principalmente dall'esposizione all'arsenico inorganico. Pertanto, il monitoraggio biologico mira a valutare l'esposizione ai composti inorganici dell'arsenico. A tal fine, la specifica determinazione dell'arsenico inorganico (Asi), l'acido monometilarsonico (MMA) e l'acido cacodilico (DMA) nelle urine è il metodo di scelta. Tuttavia, poiché il consumo di pesce potrebbe ancora influenzare il tasso di escrezione di DMA, i lavoratori sottoposti a test dovrebbero astenersi dal mangiare pesce durante le 48 ore precedenti la raccolta delle urine.
Nelle persone non professionalmente esposte all'arsenico inorganico e che non hanno consumato di recente un organismo marino, la somma di queste tre specie di arsenico di solito non supera i 10 μg/g di creatinina urinaria. Valori più elevati si riscontrano in aree geografiche dove l'acqua potabile contiene quantità significative di arsenico.
È stato stimato che in assenza di consumo di pesce, un'esposizione media ponderata nel tempo a 50 e 200 μg/m3 l'arsenico inorganico porta a concentrazioni urinarie medie della somma dei metaboliti (Asi, MMA, DMA) in campioni di urina post-turno rispettivamente di 54 e 88 μg/g di creatinina.
In caso di esposizione a composti di arsenico inorganico meno solubili (ad es. arseniuro di gallio), la determinazione dell'arsenico nelle urine rifletterà la quantità assorbita ma non la dose totale erogata all'organismo (polmone, tratto gastrointestinale).
L'arsenico nei capelli è un buon indicatore della quantità di arsenico inorganico assorbito durante il periodo di crescita dei capelli. L'arsenico organico di origine marina non sembra essere assorbito dai capelli nella stessa misura dell'arsenico inorganico. La determinazione della concentrazione di arsenico lungo la lunghezza dei capelli può fornire preziose informazioni sul tempo di esposizione e sulla durata del periodo di esposizione. Tuttavia, la determinazione dell'arsenico nei capelli è sconsigliata quando l'aria ambiente è contaminata da arsenico, in quanto non sarà possibile distinguere tra arsenico endogeno e arsenico depositato esternamente sui capelli. I livelli di arsenico nei capelli sono generalmente inferiori a 1 mg/kg. L'arsenico nelle unghie ha lo stesso significato dell'arsenico nei capelli.
Come per i livelli nelle urine, i livelli di arsenico nel sangue possono riflettere la quantità di arsenico recentemente assorbita, ma la relazione tra l'intensità dell'esposizione all'arsenico e la sua concentrazione nel sangue non è stata ancora valutata.
Berillio
L'inalazione è la via principale di assorbimento del berillio per le persone professionalmente esposte. L'esposizione a lungo termine può provocare l'immagazzinamento di quantità apprezzabili di berillio nei tessuti polmonari e nello scheletro, l'ultimo sito di immagazzinamento. L'eliminazione del berillio assorbito avviene principalmente attraverso le urine e solo in misura minore nelle feci.
I livelli di berillio possono essere determinati nel sangue e nelle urine, ma al momento queste analisi possono essere utilizzate solo come test qualitativi per confermare l'esposizione al metallo, poiché non è noto in che misura le concentrazioni di berillio nel sangue e nelle urine possano essere influenzate da recenti esposizione e dalla quantità già immagazzinata nel corpo. Inoltre, è difficile interpretare i limitati dati pubblicati sull'escrezione di berillio nei lavoratori esposti, perché solitamente l'esposizione esterna non è stata adeguatamente caratterizzata ei metodi analitici hanno sensibilità e precisione diverse. I normali livelli urinari e sierici di berillio sono probabilmente inferiori
rispettivamente 2 μg/g di creatinina e 0.03 μg/100 ml.
Tuttavia, il riscontro di una normale concentrazione di berillio nelle urine non è una prova sufficiente per escludere la possibilità di una passata esposizione al berillio. Non sempre, infatti, nei lavoratori è stata riscontrata un'aumentata escrezione urinaria di berillio, anche se questi sono stati esposti in passato al berillio e hanno conseguentemente sviluppato la granulomatosi polmonare, una malattia caratterizzata da granulomi multipli, cioè noduli di tessuto infiammatorio, riscontrati in i polmoni.
Cadmio
Nell'ambiente lavorativo, l'assorbimento del cadmio avviene principalmente per inalazione. Tuttavia, l'assorbimento gastrointestinale può contribuire in modo significativo alla dose interna di cadmio. Una caratteristica importante del cadmio è la sua lunga emivita biologica nel corpo, che supera
10 anni. Nei tessuti, il cadmio è principalmente legato alla metallotioneina. Nel sangue, è principalmente legato ai globuli rossi. In considerazione della proprietà di accumulo del cadmio, qualsiasi programma di monitoraggio biologico di gruppi di popolazione esposti cronicamente al cadmio dovrebbe tentare di valutare sia l'esposizione attuale che quella integrata.
Per mezzo dell'attivazione dei neutroni, è attualmente possibile eseguire in vivo misurazioni delle quantità di cadmio accumulate nei principali siti di stoccaggio, i reni e il fegato. Tuttavia, queste tecniche non vengono utilizzate di routine. Finora, nella sorveglianza sanitaria dei lavoratori dell'industria o in studi su larga scala sulla popolazione generale, l'esposizione al cadmio è stata solitamente valutata indirettamente misurando il metallo nelle urine e nel sangue.
La cinetica dettagliata dell'azione del cadmio nell'uomo non è ancora del tutto chiarita, ma per scopi pratici si possono formulare le seguenti conclusioni riguardo al significato del cadmio nel sangue e nelle urine. Nei lavoratori di nuova esposizione, i livelli di cadmio nel sangue aumentano progressivamente e dopo XNUMX-XNUMX mesi raggiungono una concentrazione corrispondente all'intensità dell'esposizione. Nelle persone con esposizione continua al cadmio per un lungo periodo, la concentrazione di cadmio nel sangue riflette principalmente l'assunzione media negli ultimi mesi. L'influenza relativa del carico corporeo di cadmio sul livello di cadmio nel sangue può essere più importante nelle persone che hanno accumulato una grande quantità di cadmio e sono state allontanate dall'esposizione. Dopo la cessazione dell'esposizione, il livello di cadmio nel sangue diminuisce in modo relativamente rapido, con un tempo di dimezzamento iniziale di due o tre mesi. Tuttavia, a seconda del carico corporeo, il livello può rimanere più elevato rispetto ai soggetti di controllo. Diversi studi sull'uomo e sugli animali hanno indicato che il livello di cadmio nelle urine può essere interpretato come segue: in assenza di sovraesposizione acuta al cadmio e fintanto che la capacità di immagazzinamento della corteccia renale non viene superata o la nefropatia indotta da cadmio non è stata superata non ancora verificatosi, il livello di cadmio nelle urine aumenta progressivamente con la quantità di cadmio immagazzinata nei reni. In tali condizioni, che prevalgono principalmente nella popolazione generale e nei lavoratori moderatamente esposti al cadmio, esiste una correlazione significativa tra cadmio urinario e cadmio nei reni. Se l'esposizione al cadmio è stata eccessiva, i siti di legame del cadmio nell'organismo si saturano progressivamente e, nonostante l'esposizione continua, la concentrazione di cadmio nella corteccia renale si stabilizza.
Da questo stadio in poi, il cadmio assorbito non può più essere trattenuto in quell'organo ed è rapidamente escreto nelle urine. Quindi, in questa fase, la concentrazione di cadmio urinario è influenzata sia dal carico corporeo che dalla recente assunzione. Se l'esposizione continua, alcuni soggetti possono sviluppare danno renale, che provoca un ulteriore aumento del cadmio urinario come risultato del rilascio di cadmio immagazzinato nel rene e depresso riassorbimento del cadmio circolante. Tuttavia, dopo un episodio di esposizione acuta, i livelli di cadmio nelle urine possono aumentare rapidamente e brevemente senza riflettere un aumento del carico corporeo.
Studi recenti indicano che la metallotioneina nelle urine ha lo stesso significato biologico. Sono state osservate buone correlazioni tra la concentrazione urinaria di metallotioneina e quella di cadmio, indipendentemente dall'intensità dell'esposizione e dallo stato della funzione renale.
I livelli normali di cadmio nel sangue e nelle urine sono generalmente inferiori a 0.5 μg/100 ml e
2 μg/g di creatinina, rispettivamente. Sono più alti nei fumatori che nei non fumatori. Nei lavoratori cronicamente esposti al cadmio, il rischio di insufficienza renale è trascurabile quando i livelli di cadmio urinario non superano mai i 10 μg/g di creatinina. Dovrebbe essere prevenuto un accumulo di cadmio nel corpo che porterebbe a un'escrezione urinaria superiore a questo livello. Tuttavia, alcuni dati suggeriscono che alcuni marcatori renali (il cui significato sanitario è ancora sconosciuto) possono diventare anormali per valori di cadmio urinario compresi tra 3 e 5 μg/g creatinina, quindi sembra ragionevole proporre un valore limite biologico inferiore di 5 μg/g creatinina . Per il sangue è stato proposto un limite biologico di 0.5 μg/100 ml per l'esposizione a lungo termine. È possibile, tuttavia, che nel caso della popolazione generale esposta al cadmio attraverso il cibo o il tabacco o negli anziani, che normalmente soffrono di un declino della funzione renale, il livello critico nella corteccia renale possa essere inferiore.
cromo
La tossicità del cromo è attribuibile principalmente ai suoi composti esavalenti. L'assorbimento dei composti esavalenti è relativamente superiore all'assorbimento dei composti trivalenti. L'eliminazione avviene principalmente attraverso le urine.
Nelle persone non professionalmente esposte al cromo, la concentrazione di cromo nel siero e nelle urine di solito non supera rispettivamente 0.05 μg/100 ml e 2 μg/g di creatinina. L'esposizione recente a sali solubili di cromo esavalente (p. es., in elettroplaccatrici e saldatori di acciaio inossidabile) può essere valutata monitorando il livello di cromo nelle urine alla fine del turno di lavoro. Studi condotti da diversi autori suggeriscono la seguente relazione: un'esposizione TWA di 0.025 o 0.05 mg/m3 il cromo esavalente è associato a una concentrazione media alla fine del periodo di esposizione rispettivamente di 15 o 30 μg/g di creatinina. Questa relazione è valida solo su base di gruppo. Dopo l'esposizione a 0.025 mg/m3 cromo esavalente, il valore limite di confidenza inferiore al 95% è di circa 5 μg/g di creatinina. Un altro studio tra saldatori di acciaio inossidabile ha rilevato che una concentrazione urinaria di cromo dell'ordine di 40 μg/l corrisponde a un'esposizione media di 0.1 mg/m3 triossido di cromo.
Il cromo esavalente attraversa facilmente le membrane cellulari, ma una volta all'interno della cellula si riduce a cromo trivalente. La concentrazione di cromo negli eritrociti potrebbe essere un indicatore dell'intensità dell'esposizione al cromo esavalente durante la vita dei globuli rossi, ma ciò non si applica al cromo trivalente.
Rimane da valutare fino a che punto il monitoraggio del cromo nelle urine sia utile per la stima del rischio per la salute.
Cobalto
Una volta assorbito, per inalazione e in parte per via orale, il cobalto (con emivita biologica di pochi giorni) viene eliminato principalmente con le urine. L'esposizione a composti di cobalto solubili porta ad un aumento della concentrazione di cobalto nel sangue e nelle urine.
Le concentrazioni di cobalto nel sangue e nelle urine sono influenzate principalmente dalla recente esposizione. Nei soggetti non professionalmente esposti, il cobalto urinario è solitamente inferiore a 2 μg/g di creatinina e il cobalto sierico/plasmatico inferiore a 0.05 μg/100 ml.
Per esposizioni TWA di 0.1 mg/m3 e 0.05 mg/m3, sono stati riportati livelli urinari medi compresi tra circa 30 e 75 μg/l e tra 30 e 40 μg/l, rispettivamente (utilizzando campioni di fine turno). Il tempo di campionamento è importante in quanto vi è un progressivo aumento dei livelli urinari di cobalto durante la settimana lavorativa.
Nei lavoratori esposti a ossidi di cobalto, sali di cobalto o polvere metallica di cobalto in una raffineria, un TWA di 0.05 mg/m3 è stato riscontrato che porta a una concentrazione media di cobalto di 33 e 46 μg/g di creatinina nelle urine raccolte alla fine del turno di lunedì e venerdì, rispettivamente.
Portare
Il piombo inorganico, una tossina cumulativa assorbita dai polmoni e dal tratto gastrointestinale, è chiaramente il metallo che è stato più ampiamente studiato; pertanto, tra tutti i contaminanti metallici, l'affidabilità dei metodi per valutare l'esposizione recente o il carico corporeo mediante metodi biologici è maggiore per il piombo.
In una situazione di esposizione stazionaria, il piombo nel sangue intero è considerato il miglior indicatore della concentrazione di piombo nei tessuti molli e quindi dell'esposizione recente. Tuttavia, l'aumento dei livelli di piombo nel sangue (Pb-B) diminuisce progressivamente con l'aumentare dei livelli di esposizione al piombo. Quando l'esposizione professionale è stata prolungata, la cessazione dell'esposizione non è necessariamente associata a un ritorno di Pb-B a un valore pre-esposizione (di fondo) a causa del rilascio continuo di piombo dai depositi di tessuto. I normali livelli di piombo nel sangue e nelle urine sono generalmente inferiori rispettivamente a 20 μg/100 ml e 50 μg/g di creatinina. Tali livelli possono essere influenzati dalle abitudini alimentari e dal luogo di residenza dei soggetti. L'OMS ha proposto 40 μg/100 ml come massima concentrazione individuale tollerabile di piombo nel sangue per i lavoratori maschi adulti e 30 μg/100 ml per le donne in età fertile. Nei bambini, concentrazioni più basse di piombo nel sangue sono state associate ad effetti avversi sul sistema nervoso centrale. Il livello di piombo nelle urine aumenta in modo esponenziale con l'aumento di Pb-B e in una situazione di stato stazionario è principalmente un riflesso della recente esposizione.
La quantità di piombo escreta nelle urine dopo la somministrazione di un agente chelante (p. es., CaEDTA) riflette il pool di piombo mobilizzabile. Nei soggetti di controllo, la quantità di piombo escreta nelle urine entro 24 ore dalla somministrazione endovenosa di un grammo di EDTA di solito non supera i 600 μg. Sembra che in condizioni di esposizione costante, i valori di piombo chelabile riflettano principalmente il pool di piombo nel sangue e nei tessuti molli, con solo una piccola frazione derivata dalle ossa.
È stata sviluppata una tecnica di fluorescenza a raggi X per misurare la concentrazione di piombo nelle ossa (falangi, tibia, calcagno, vertebre), ma attualmente il limite di rilevamento della tecnica ne limita l'uso alle persone professionalmente esposte.
La determinazione del piombo nei capelli è stata proposta come metodo per valutare il pool di piombo mobilizzabile. Tuttavia, in ambito lavorativo, è difficile distinguere tra piombo incorporato endogeno nei capelli e quello semplicemente adsorbito sulla sua superficie.
La determinazione della concentrazione di piombo nella dentina circumpulpare dei denti decidui (denti da latte) è stata utilizzata per stimare l'esposizione al piombo durante la prima infanzia.
I parametri che riflettono l'interferenza del piombo con i processi biologici possono essere utilizzati anche per valutare l'intensità dell'esposizione al piombo. I parametri biologici attualmente utilizzati sono la coproporfirina urinaria (COPRO-U), l'acido delta-aminolevulinico urinario (ALA-U), la protoporfirina eritrocitaria (EP, o zinco protoporfirina), l'acido delta-aminolevulinico deidratasi (ALA-D), e pirimidina-5'-nucleotidasi (P5N) nei globuli rossi. In situazioni di stato stazionario, i cambiamenti di questi parametri sono correlati positivamente (COPRO-U, ALA-U, EP) o negativamente (ALA-D, P5N) con i livelli di piombo nel sangue. L'escrezione urinaria di COPRO (principalmente l'III isomero) e ALA inizia ad aumentare quando la concentrazione di piombo nel sangue raggiunge un valore di circa 40 μg/100 ml. La protoporfirina eritrocitaria inizia ad aumentare significativamente a livelli di piombo nel sangue di circa 35 μg/100 ml nei maschi e 25 μg/100 ml nelle femmine. Dopo la cessazione dell'esposizione professionale al piombo, la protoporfirina eritrocitaria rimane elevata in modo sproporzionato rispetto agli attuali livelli di piombo nel sangue. In questo caso, il livello EP è meglio correlato con la quantità di piombo chelabile escreto nelle urine che con il piombo nel sangue.
Una leggera carenza di ferro causerà anche un'elevata concentrazione di protoporfirina nei globuli rossi. Gli enzimi dei globuli rossi, ALA-D e P5N, sono molto sensibili all'azione inibitoria del piombo. Nell'intervallo dei livelli di piombo nel sangue da 10 a 40 μg/100 ml, esiste una stretta correlazione negativa tra l'attività di entrambi gli enzimi e il piombo nel sangue.
Piombo alchilico
In alcuni paesi, il piombo tetraetile e il piombo tetrametile sono usati come agenti antidetonanti nei carburanti per automobili. Il piombo nel sangue non è un buon indicatore dell'esposizione alle tetraalchillead, mentre il piombo nelle urine sembra essere utile per valutare il rischio di sovraesposizione.
Manganese
Nell'ambiente lavorativo, il manganese entra nel corpo principalmente attraverso i polmoni; l'assorbimento per via gastrointestinale è basso e probabilmente dipende da un meccanismo omeostatico. L'eliminazione del manganese avviene attraverso la bile, con solo piccole quantità escrete con l'urina.
Le normali concentrazioni di manganese nelle urine, nel sangue e nel siero o nel plasma sono generalmente inferiori a 3 μg/g di creatinina, 1 μg/100 ml e 0.1 μg/100 ml, rispettivamente.
Sembra che, su base individuale, né il manganese nel sangue né il manganese nelle urine siano correlati a parametri di esposizione esterna.
Apparentemente non esiste una relazione diretta tra la concentrazione di manganese nel materiale biologico e la gravità dell'avvelenamento cronico da manganese. È possibile che, in seguito all'esposizione professionale al manganese, si possano già rilevare effetti avversi precoci sul sistema nervoso centrale a livelli biologici vicini ai valori normali.
Mercurio metallico e suoi sali inorganici
L'inalazione rappresenta la principale via di assorbimento del mercurio metallico. L'assorbimento gastrointestinale del mercurio metallico è trascurabile. I sali di mercurio inorganico possono essere assorbiti attraverso i polmoni (inalazione di aerosol di mercurio inorganico) e attraverso il tratto gastrointestinale. È possibile l'assorbimento cutaneo del mercurio metallico e dei suoi sali inorganici.
L'emivita biologica del mercurio è dell'ordine di due mesi nel rene ma è molto più lunga nel sistema nervoso centrale.
Il mercurio inorganico viene escreto principalmente con le feci e l'urina. Piccole quantità vengono escrete attraverso le ghiandole salivari, lacrimali e sudoripare. Il mercurio può essere rilevato anche nell'aria espirata durante le poche ore successive all'esposizione ai vapori di mercurio. In condizioni di esposizione cronica esiste, almeno a livello di gruppo, una relazione tra l'intensità della recente esposizione ai vapori di mercurio e la concentrazione di mercurio nel sangue o nelle urine. Le prime indagini, durante le quali sono stati utilizzati campioni statici per monitorare l'aria generale del laboratorio, hanno mostrato che una concentrazione media di mercurio-aria, Hg-aria, di 100 μg/m3 corrisponde a livelli medi di mercurio nel sangue (Hg–B) e nelle urine (Hg–U) rispettivamente di 6 μg Hg/100 ml e 200-260 μg/l. Osservazioni più recenti, in particolare quelle che valutano il contributo del microambiente esterno a ridosso delle vie respiratorie dei lavoratori, indicano che l'aria (μg/m3)/urine (μg/g creatinina)/sangue (μg/100 ml) il rapporto mercurio è di circa 1/1.2/0.045. Diversi studi epidemiologici sui lavoratori esposti ai vapori di mercurio hanno dimostrato che per l'esposizione a lungo termine, i livelli di effetto critico di Hg-U e Hg-B sono rispettivamente di circa 50 μg/g di creatinina e 2 μg/100 ml.
Tuttavia, alcuni studi recenti sembrano indicare che i segni di effetti avversi sul sistema nervoso centrale o sul rene possono già essere osservati a un livello di mercurio urinario inferiore a 50 μg/g di creatinina.
I normali livelli urinari ed ematici sono generalmente inferiori rispettivamente a 5 μg/g di creatinina e 1 μg/100 ml. Questi valori possono essere influenzati dal consumo di pesce e dal numero di otturazioni in amalgama di mercurio nei denti.
Composti organici del mercurio
I composti organici del mercurio sono facilmente assorbiti da tutte le vie. Nel sangue si trovano principalmente nei globuli rossi (circa il 90%). Occorre però distinguere tra i composti alchilici a catena corta (principalmente metilmercurio), molto stabili e resistenti alla biotrasformazione, e i derivati arilici o alcossialchilici, che liberano mercurio inorganico in vivo. Per questi ultimi composti, la concentrazione di mercurio nel sangue, oltre che nelle urine, è probabilmente indicativa dell'intensità dell'esposizione.
In condizioni di stato stazionario, il mercurio nel sangue intero e nei capelli è correlato al carico corporeo di metilmercurio e al rischio di segni di avvelenamento da metilmercurio. Nelle persone cronicamente esposte all'alchil mercurio, i primi segni di intossicazione (parestesia, disturbi sensoriali) possono verificarsi quando il livello di mercurio nel sangue e nei capelli supera rispettivamente 20 μg/100 ml e 50 μg/g.
Nichel, Ni free
Il nichel non è una tossina cumulativa e quasi tutta la quantità assorbita viene escreta principalmente attraverso le urine, con un'emivita biologica di 17-39 ore. Nei soggetti non professionalmente esposti, le concentrazioni di nichel nelle urine e nel plasma sono generalmente inferiori rispettivamente a 2 μg/g di creatinina e 0.05 μg/100 ml.
Le concentrazioni di nichel nel plasma e nelle urine sono buoni indicatori di una recente esposizione al nichel metallico e ai suoi composti solubili (p. es., durante la galvanica del nichel o la produzione di batterie al nichel). I valori all'interno degli intervalli normali di solito indicano un'esposizione non significativa e valori aumentati sono indicativi di sovraesposizione.
Per i lavoratori esposti a composti di nichel solubili, è stato provvisoriamente proposto un valore limite biologico di 30 μg/g di creatinina (fine turno) per il nichel nelle urine.
Nei lavoratori esposti a composti di nichel poco solubili o insolubili, livelli aumentati nei fluidi corporei generalmente indicano un assorbimento significativo o un rilascio progressivo della quantità immagazzinata nei polmoni; tuttavia, quantità significative di nichel possono essere depositate nel tratto respiratorio (cavità nasali, polmoni) senza alcun aumento significativo della sua concentrazione plasmatica o urinaria. Pertanto, i valori “normali” devono essere interpretati con cautela e non indicano necessariamente assenza di rischio per la salute.
Selenio
Il selenio è un oligoelemento essenziale. I composti solubili del selenio sembrano essere facilmente assorbiti attraverso i polmoni e il tratto gastrointestinale. Il selenio viene escreto principalmente nelle urine, ma quando l'esposizione è molto elevata può anche essere escreto nell'aria espirata come vapore di dimetilseleniuro. Le normali concentrazioni di selenio nel siero e nelle urine dipendono dall'assunzione giornaliera, che può variare considerevolmente nelle diverse parti del mondo, ma di solito è inferiore rispettivamente a 15 μg/100 ml e 25 μg/g di creatinina. La concentrazione di selenio nelle urine è principalmente un riflesso della recente esposizione. La relazione tra l'intensità dell'esposizione e la concentrazione di selenio nelle urine non è stata ancora stabilita.
Sembra che la concentrazione nel plasma (o nel siero) e nelle urine rifletta principalmente un'esposizione a breve termine, mentre il contenuto di selenio degli eritrociti riflette un'esposizione più a lungo termine.
La misurazione del selenio nel sangue o nelle urine fornisce alcune informazioni sullo stato del selenio. Attualmente è più spesso utilizzato per rilevare una carenza piuttosto che una sovraesposizione. Poiché i dati disponibili riguardanti il rischio per la salute dell'esposizione a lungo termine al selenio e la relazione tra potenziale rischio per la salute e livelli nei mezzi biologici sono troppo limitati, non è possibile proporre alcun valore soglia biologico.
Vanadio
Nell'industria, il vanadio viene assorbito principalmente per via polmonare. L'assorbimento orale sembra basso (meno dell'1%). Il vanadio viene escreto nelle urine con un'emivita biologica di circa 20-40 ore e in misura minore nelle feci. Il vanadio urinario sembra essere un buon indicatore di esposizione recente, ma la relazione tra assorbimento e livelli di vanadio nelle urine non è stata ancora sufficientemente stabilita. È stato suggerito che la differenza tra le concentrazioni urinarie di vanadio post-turno e pre-turno consenta la valutazione dell'esposizione durante la giornata lavorativa, mentre il vanadio urinario due giorni dopo la cessazione dell'esposizione (lunedì mattina) rifletterebbe l'accumulo del metallo nel corpo . Nelle persone non professionalmente esposte, la concentrazione di vanadio nelle urine è generalmente inferiore a 1 μg/g di creatinina. È stato proposto un valore limite biologico provvisorio di 50 μg/g di creatinina (fine turno) per il vanadio nelle urine.
Origini
La standardizzazione nel campo dell'ergonomia ha una storia relativamente breve. Ha avuto inizio all'inizio degli anni '1970 quando sono stati istituiti i primi comitati a livello nazionale (ad esempio, in Germania all'interno dell'istituto di normazione DIN), ed è proseguito a livello internazionale dopo la fondazione dell'ISO (Organizzazione Internazionale per la Standardizzazione) TC (Comitato Tecnico) 159 “Ergonomia”, nel 1975. Nel frattempo la standardizzazione dell'ergonomia avviene anche a livello regionale, ad esempio a livello europeo all'interno del CEN (Commissione europea di normalizzazione), che ha istituito il suo TC 122 "Ergonomia" nel 1987. L'esistenza di quest'ultimo comitato sottolinea il fatto che una delle ragioni importanti per istituire comitati per la standardizzazione delle conoscenze e dei principi ergonomici può essere trovata nel diritto (e quasi-giuridico) normative, soprattutto in materia di sicurezza e salute, che impongono l'applicazione di principi e scoperte ergonomiche nella progettazione di prodotti e sistemi di lavoro. Le leggi nazionali che richiedono l'applicazione di conoscenze ergonomiche consolidate sono state la ragione per l'istituzione del comitato tedesco per l'ergonomia nel 1970, e le direttive europee, in particolare la direttiva macchine (relativa agli standard di sicurezza), sono state responsabili dell'istituzione di un comitato ergonomico per l'Unione europea livello. Poiché le normative legali di solito non sono, non possono e non devono essere molto specifiche, il compito di specificare quali principi e risultati ergonomici dovrebbero essere applicati è stato affidato o assunto dai comitati di standardizzazione dell'ergonomia. Soprattutto a livello europeo, si può riconoscere che la standardizzazione dell'ergonomia può contribuire al compito di fornire condizioni ampie e comparabili di sicurezza delle macchine, rimuovendo così le barriere al libero commercio delle macchine all'interno dello stesso continente.
Prospettive
La standardizzazione dell'ergonomia è quindi iniziata con un forte protettivo, sebbene preventiva, prospettiva, con standard di ergonomia in fase di sviluppo con l'obiettivo di proteggere i lavoratori dagli effetti negativi a diversi livelli di tutela della salute. Gli standard di ergonomia sono stati quindi preparati con i seguenti intenti in vista:
La normazione internazionale, che non era così strettamente legata alla legislazione, d'altra parte, ha sempre anche cercato di aprire una prospettiva nella direzione di produrre standard che andassero oltre la prevenzione e la protezione contro gli effetti negativi (ad esempio, specificando valori minimi/massimi valori) e invece in modo proattivo prevedere condizioni di lavoro ottimali per favorire il benessere e lo sviluppo personale del lavoratore, nonché l'efficacia, l'efficienza, l'affidabilità e la produttività del sistema di lavoro.
Questo è un punto in cui diventa evidente che l'ergonomia, e in particolare la standardizzazione dell'ergonomia, ha dimensioni sociali e politiche molto distinte. Mentre l'approccio protettivo nei confronti della sicurezza e della salute è generalmente accettato e concordato tra le parti coinvolte (datori di lavoro, sindacati, amministrazione ed esperti di ergonomia) per tutti i livelli di standardizzazione, l'approccio proattivo non è ugualmente accettato da tutte le parti allo stesso modo . Ciò potrebbe essere dovuto al fatto che, soprattutto laddove la legislazione richieda l'applicazione di principi ergonomici (e quindi l'applicazione esplicita o implicita di standard ergonomici), alcune parti ritengono che tali standard possano limitare la loro libertà di azione o negoziazione. Poiché gli standard internazionali sono meno vincolanti (il loro trasferimento nel corpo degli standard nazionali è a discrezione dei comitati nazionali di standardizzazione) l'approccio proattivo è stato sviluppato maggiormente a livello internazionale di standardizzazione dell'ergonomia.
Il fatto che talune norme limitassero effettivamente la discrezionalità di coloro ai quali si applicavano serviva a scoraggiare la normalizzazione in determinati settori, ad esempio in relazione alle direttive europee di cui all'articolo 118a dell'Atto unico europeo, relative alla sicurezza e alla salute nell'uso e funzionamento dei macchinari sul posto di lavoro, e nella progettazione dei sistemi di lavoro e nella progettazione del posto di lavoro. D'altro canto, ai sensi delle direttive emanate ai sensi dell'articolo 100a, relative alla sicurezza e alla salute nella progettazione di macchine per quanto riguarda il libero scambio di queste macchine all'interno dell'Unione europea (UE), la standardizzazione europea dell'ergonomia è imposta dalla Commissione europea.
Dal punto di vista dell'ergonomia, tuttavia, è difficile capire perché l'ergonomia nella progettazione delle macchine dovrebbe essere diversa da quella nell'uso e nel funzionamento delle macchine all'interno di un sistema di lavoro. È quindi auspicabile che la distinzione venga abbandonata in futuro, poiché sembra essere più dannosa che vantaggiosa per lo sviluppo di un corpus coerente di norme ergonomiche.
Tipi di standard di ergonomia
Il primo standard internazionale di ergonomia sviluppato (basato su uno standard nazionale tedesco DIN) è l'ISO 6385, “Principi ergonomici nella progettazione di sistemi di lavoro”, pubblicato nel 1981. È lo standard di base della serie di standard ergonomici e stabilisce le fase per gli standard che è seguita definendo i concetti di base e affermando i principi generali della progettazione ergonomica dei sistemi di lavoro, inclusi compiti, strumenti, macchinari, postazioni di lavoro, spazio di lavoro, ambiente di lavoro e organizzazione del lavoro. Questo standard internazionale, attualmente in fase di revisione, è a norma di orientamento, e come tale fornisce le linee guida da seguire. Tuttavia, non fornisce specifiche tecniche o fisiche che devono essere soddisfatte. Questi possono essere trovati in un diverso tipo di standard, cioè, standard di specifica, per esempio, quelli sull'antropometria o sulle condizioni termiche. Entrambi i tipi di standard svolgono funzioni diverse. Mentre gli standard di riferimento intendono mostrare ai propri utenti “cosa fare e come farlo” e indicare quei principi che devono o dovrebbero essere osservati, ad esempio, rispetto al carico di lavoro mentale, le norme di specifica forniscono agli utenti informazioni dettagliate sulle distanze di sicurezza o sulle procedure di misurazione, per esempio, che devono essere soddisfatte e in cui la conformità a tali prescrizioni può essere verificata mediante procedure specifiche. Questo non è sempre possibile con gli standard delle linee guida, anche se, nonostante la loro relativa mancanza di specificità, di solito può essere dimostrato quando e dove le linee guida sono state violate. Un sottoinsieme di standard di specifica sono standard di "database", che forniscono all'utente dati ergonomici rilevanti, ad esempio le dimensioni del corpo.
Le norme CEN sono classificate come norme di tipo A, B e C, a seconda del campo di applicazione e del campo di applicazione. Gli standard di tipo A sono standard generali e di base che si applicano a tutti i tipi di applicazioni, gli standard di tipo B sono specifici per un'area di applicazione (il che significa che la maggior parte degli standard di ergonomia all'interno del CEN sarà di questo tipo) e C- le norme di tipo sono specifiche per un certo tipo di macchinario, ad esempio i trapani manuali.
Comitati di standardizzazione
Gli standard di ergonomia, come altri standard, sono elaborati dai comitati tecnici appropriati (TC), dai loro sottocomitati (SC) o dai gruppi di lavoro (WG). Per l'ISO è il TC 159, per il CEN è il TC 122 e, a livello nazionale, i rispettivi comitati nazionali. Oltre ai comitati di ergonomia, l'ergonomia è trattata anche nei TC che lavorano sulla sicurezza delle macchine (ad es. CEN TC 114 e ISO TC 199) con i quali vengono mantenuti collegamenti e stretta collaborazione. Vengono inoltre stabiliti collegamenti con altri comitati per i quali l'ergonomia potrebbe essere rilevante. La responsabilità per gli standard di ergonomia, tuttavia, è riservata agli stessi comitati di ergonomia.
Numerose altre organizzazioni sono impegnate nella produzione di standard ergonomici, come l'IEC (International Electrotechnical Commission); CENELEC, oi rispettivi comitati nazionali in campo elettrotecnico; CCITT (Comité consultive international des organization téléphoniques et télégraphiques) o ETSI (European Telecommunication Standards Institute) nel campo delle telecomunicazioni; ECMA (European Computer Manufacturers Association) nel campo dei sistemi informatici; e CAMAC (Computer Assisted Measurement and Control Association) nel campo delle nuove tecnologie nella produzione, solo per citarne alcuni. Con alcuni di questi i comitati per l'ergonomia hanno contatti al fine di evitare duplicazioni di lavoro o specifiche incoerenti; con alcune organizzazioni (ad esempio, la CEI) vengono istituiti anche comitati tecnici paritetici per la cooperazione in aree di reciproco interesse. Con altri comitati, invece, non c'è alcun coordinamento o collaborazione. Lo scopo principale di questi comitati è quello di produrre standard (ergonomici) specifici per il loro campo di attività. Poiché il numero di tali organizzazioni ai diversi livelli è piuttosto elevato, diventa piuttosto complicato (se non impossibile) effettuare una panoramica completa della standardizzazione dell'ergonomia. La presente revisione sarà quindi limitata alla standardizzazione dell'ergonomia nei comitati internazionali ed europei per l'ergonomia.
Struttura dei comitati di normalizzazione
I comitati di standardizzazione dell'ergonomia sono abbastanza simili tra loro nella struttura. Di solito un TC all'interno di un'organizzazione di standardizzazione è responsabile dell'ergonomia. Questo comitato (es. ISO TC 159) ha principalmente a che fare con le decisioni su cosa dovrebbe essere standardizzato (es. elementi di lavoro) e come organizzare e coordinare la standardizzazione all'interno del comitato, ma di solito nessuno standard viene preparato a questo livello. Al di sotto del livello TC ci sono altri comitati. Ad esempio, l'ISO ha sottocomitati (SC), che sono responsabili di un campo definito di standardizzazione: SC 1 per i principi guida ergonomici generali, SC 3 per l'antropometria e la biomeccanica, SC 4 per l'interazione uomo-sistema e SC 5 per il lavoro fisico ambiente. CEN TC 122 dispone di gruppi di lavoro (WG) al di sotto del livello TC che sono costituiti in modo tale da occuparsi di campi specifici all'interno della standardizzazione dell'ergonomia. I SC all'interno dell'ISO TC 159 operano come comitati direttivi per il loro campo di responsabilità e fanno il primo voto, ma di solito non preparano anche gli standard. Ciò avviene nei loro gruppi di lavoro, che sono composti da esperti nominati dai loro comitati nazionali, mentre alle riunioni del comitato scientifico e del comitato tecnico partecipano delegazioni nazionali che rappresentano i punti di vista nazionali. All'interno del CEN, i compiti non sono nettamente distinti a livello di gruppo di lavoro; I gruppi di lavoro operano sia come comitati direttivi che di produzione, sebbene una buona parte del lavoro venga svolta in gruppi ad hoc, composti da membri del gruppo di lavoro (nominati dai loro comitati nazionali) e istituiti per preparare le bozze di uno standard. I gruppi di lavoro all'interno di un SC ISO sono istituiti per svolgere il lavoro pratico di standardizzazione, ovvero preparare bozze, lavorare sui commenti, identificare le esigenze di standardizzazione e preparare proposte per SC e TC, che prenderanno quindi le decisioni o le azioni appropriate.
Preparazione degli standard di ergonomia
La preparazione degli standard di ergonomia è cambiata in modo piuttosto marcato negli ultimi anni in considerazione della maggiore enfasi che ora viene posta sugli sviluppi europei e internazionali. All'inizio, le norme nazionali, che erano state preparate da esperti di un paese nel loro comitato nazionale e concordate dalle parti interessate tra il pubblico in generale di quel paese in una procedura di voto specificata, sono state trasferite come input al comitato di vigilanza e al gruppo di lavoro responsabili dell'ISO TC 159, dopo che era stata presa una votazione formale a livello di TC che tale norma internazionale dovesse essere preparata. Il gruppo di lavoro, composto da esperti di ergonomia (ed esperti di parti politicamente interessate) provenienti da tutti gli organismi membri partecipanti (ovvero le organizzazioni nazionali di normazione) del TC 159 disposti a collaborare a questo progetto di lavoro, lavorerà quindi su eventuali input e preparerà una bozza di lavoro (WD). Dopo che questa bozza di proposta è stata concordata nel gruppo di lavoro, diventa una bozza di comitato (CD), che viene distribuita agli organi membri del comitato di vigilanza per approvazione e commenti. Se la bozza riceve un sostegno sostanziale dagli organismi membri del comitato scientifico (ossia, se almeno i due terzi votano a favore) e dopo che i commenti dei comitati nazionali sono stati incorporati dal gruppo di lavoro nella versione migliorata, viene redatto un progetto di norma internazionale (DIS). sottoposto per il voto a tutti i membri del TC 159. Se in questa fase si ottiene un sostegno sostanziale da parte degli organi membri del TC (e forse dopo aver incorporato modifiche editoriali), questa versione sarà quindi pubblicata come standard internazionale (IS) da l'ISO. La votazione degli organi membri a livello di TC e SC si basa sulla votazione a livello nazionale e i commenti possono essere forniti tramite gli organi membri da esperti o parti interessate in ciascun paese. La procedura è più o meno equivalente in CEN TC 122, con l'eccezione che non ci sono SC al di sotto del livello TC e che il voto avviene con voti ponderati (secondo le dimensioni del paese) mentre all'interno dell'ISO la regola è un paese, uno votazione. Se una bozza fallisce in qualsiasi fase, ea meno che il gruppo di lavoro non decida che non è possibile ottenere una revisione accettabile, deve essere rivista e quindi deve passare nuovamente attraverso la procedura di voto.
Gli standard internazionali vengono poi trasferiti in standard nazionali se i comitati nazionali votano di conseguenza. Al contrario, le norme europee (EN) devono essere trasferite in norme nazionali dai membri del CEN e le norme nazionali contrastanti devono essere ritirate. Ciò significa che le EN armonizzate saranno efficaci in tutti i paesi CEN (e, a causa della loro influenza sul commercio, saranno rilevanti per i produttori di tutti gli altri paesi che intendono vendere merci a un cliente in un paese CEN).
Cooperazione ISO-CEN
Al fine di evitare standard contrastanti e duplicazioni di lavoro e per consentire ai non membri del CEN di prendere parte agli sviluppi del CEN, è stato raggiunto un accordo di cooperazione tra l'ISO e il CEN (il cosiddetto Accordo di Vienna) che disciplina le formalità e prevede una cosiddetta procedura di votazione parallela, che consente di votare parallelamente gli stessi progetti in seno al CEN e all'ISO, se le commissioni competenti acconsentono a farlo. Tra i comitati di ergonomia la tendenza è abbastanza chiara: evitare la duplicazione del lavoro (la forza lavoro e le risorse finanziarie sono troppo limitate), evitare specifiche contrastanti e cercare di raggiungere un corpus coerente di standard ergonomici basati su una divisione del lavoro. Mentre CEN TC 122 è vincolato dalle decisioni dell'amministrazione dell'UE e ottiene elementi di lavoro incaricati di stipulare le specifiche delle direttive europee, ISO TC 159 è libero di standardizzare tutto ciò che ritiene necessario o appropriato nel campo dell'ergonomia. Ciò ha portato a cambiamenti nell'enfasi di entrambi i comitati, con il CEN che si è concentrato su argomenti legati alla sicurezza e alle macchine e l'ISO che si è concentrato su aree in cui sono interessati interessi di mercato più ampi rispetto all'Europa (ad esempio, il lavoro con i videoterminali e la progettazione della sala di controllo per i processi e industrie connesse); su aree in cui è interessato il funzionamento di macchinari, come nella progettazione del sistema di lavoro; e anche su aree come l'ambiente di lavoro e l'organizzazione del lavoro. L'intenzione, tuttavia, è quella di trasferire i risultati del lavoro dal CEN all'ISO, e viceversa, al fine di costruire un corpus di standard ergonomici coerenti che di fatto siano efficaci in tutto il mondo.
La procedura formale di produzione degli standard è ancora la stessa oggi. Ma poiché l'enfasi si è spostata sempre più sul livello internazionale o europeo, sempre più attività vengono trasferite a questi comitati. Le bozze sono ora generalmente elaborate direttamente in questi comitati e non sono più basate su standard nazionali esistenti. Dopo che è stata presa la decisione di sviluppare uno standard, il lavoro inizia direttamente a uno di questi livelli sovranazionali, sulla base di qualunque input possa essere disponibile, a volte partendo da zero. Questo cambia radicalmente il ruolo dei comitati nazionali di ergonomia. Mentre prima sviluppavano formalmente i propri standard nazionali secondo le loro regole nazionali, ora hanno il compito di osservare e influenzare la standardizzazione a livello sovranazionale, tramite gli esperti che elaborano gli standard o tramite commenti fatti nelle diverse fasi del voto (all'interno il CEN, un progetto di normalizzazione nazionale verrà interrotto se si lavora contemporaneamente a un progetto analogo a livello di CEN). Ciò rende il compito ancora più complicato, poiché questa influenza può essere esercitata solo indirettamente e poiché la preparazione di norme ergonomiche non è solo una questione di pura scienza, ma una questione di contrattazione, consenso e accordo (anche per le implicazioni politiche che il standard potrebbe avere). Questo, ovviamente, è uno dei motivi per cui il processo di produzione di una norma ergonomica internazionale o europea richiede solitamente diversi anni e perché le norme ergonomiche non possono riflettere l'ultimo stato dell'arte in materia di ergonomia. Le norme internazionali in materia di ergonomia devono quindi essere esaminate ogni cinque anni e, se necessario, sottoposte a revisione.
Campi della standardizzazione dell'ergonomia
La standardizzazione internazionale dell'ergonomia è iniziata con le linee guida sui principi generali dell'ergonomia nella progettazione dei sistemi di lavoro; sono stati stabiliti nella norma ISO 6385, che è ora in fase di revisione per incorporare nuovi sviluppi. Il CEN ha prodotto una norma di base simile (EN 614, parte 1, 1994)—questa è più orientata alle macchine e alla sicurezza—e sta preparando una norma con linee guida sulla progettazione delle attività come seconda parte di questa norma di base. Il CEN sottolinea quindi l'importanza dei compiti dell'operatore nella progettazione di macchine o sistemi di lavoro, per i quali devono essere progettati strumenti o macchinari adeguati.
Un'altra area in cui sono stati stabiliti concetti e linee guida negli standard è il campo del carico di lavoro mentale. La ISO 10075, Parte 1, definisce termini e concetti (ad es. fatica, monotonia, vigilanza ridotta) e la Parte 2 (allo stadio di un DIS nella seconda metà degli anni '1990) fornisce linee guida per la progettazione di sistemi di lavoro rispetto a carico di lavoro mentale per evitare menomazioni.
SC 3 di ISO TC 159 e WG 1 di CEN TC 122 producono standard su antropometria e biomeccanica, coprendo, tra gli altri argomenti, metodi di misurazioni antropometriche, dimensioni del corpo, distanze di sicurezza e dimensioni di accesso, la valutazione delle posture di lavoro e la progettazione dei luoghi di lavoro in relazione ai macchinari, limiti raccomandati di forza fisica e problemi di movimentazione manuale.
SC 4 dell'ISO 159 mostra come i cambiamenti tecnologici e sociali influenzano la standardizzazione dell'ergonomia e il programma di tale sottocomitato. SC 4 è iniziato come "Segnali e controlli" standardizzando i principi per la visualizzazione delle informazioni e progettando attuatori di controllo, con uno dei suoi elementi di lavoro che è l'unità di visualizzazione visiva (VDU), utilizzata per le attività d'ufficio. Divenne presto evidente, tuttavia, che la standardizzazione dell'ergonomia dei videoterminali non sarebbe stata sufficiente e che la standardizzazione "intorno" a questa postazione di lavoro, nel senso di sistema di lavoro—era necessario, coprendo aree quali l'hardware (ad es. il videoterminale stesso, inclusi display, tastiere, dispositivi di input diversi dalla tastiera, postazioni di lavoro), l'ambiente di lavoro (ad es. l'illuminazione), l'organizzazione del lavoro (ad es. i requisiti delle attività) e il software ( ad esempio, principi di dialogo, menu e dialoghi di manipolazione diretta). Ciò ha portato a uno standard multiparte (ISO 9241) che copre i "requisiti ergonomici per il lavoro d'ufficio con videoterminali" con al momento 17 parti, 3 delle quali hanno già raggiunto lo stato di IS. Questo standard sarà trasferito al CEN (come EN 29241) che specificherà i requisiti per la direttiva VDU (90/270 EEC) dell'UE, sebbene si tratti di una direttiva ai sensi dell'articolo 118a dell'Atto unico europeo. Questa serie di standard fornisce linee guida e specifiche, a seconda dell'oggetto di una determinata parte dello standard, e introduce un nuovo concetto di standardizzazione, l'approccio delle prestazioni dell'utente, che potrebbe aiutare a risolvere alcuni dei problemi nella standardizzazione dell'ergonomia. Viene descritto più ampiamente nel capitolo Unità di visualizzazione visiva .
L'approccio basato sulle prestazioni dell'utente si basa sull'idea che l'obiettivo della standardizzazione è prevenire danni e fornire condizioni di lavoro ottimali per l'operatore, ma non stabilire specifiche tecniche di per sé. Le specifiche sono quindi considerate solo come un mezzo per ottenere prestazioni ottimali e inalterate per l'utente. L'importante è ottenere questa prestazione inalterata dell'operatore, indipendentemente dal fatto che una determinata specifica fisica sia soddisfatta. Ciò richiede che le prestazioni inalterate dell'operatore che devono essere raggiunte, ad esempio le prestazioni di lettura su un videoterminale, debbano essere specificate in primo luogo e, in secondo luogo, che siano sviluppate specifiche tecniche che consentano di ottenere le prestazioni desiderate, sulla base di le prove disponibili. Il produttore è quindi libero di seguire queste specifiche tecniche, che garantiranno che il prodotto sia conforme ai requisiti di ergonomia. Oppure può dimostrare, rispetto a un prodotto di cui è noto che soddisfa i requisiti (o per conformità alle specifiche tecniche della norma o per prestazioni comprovate), che con il nuovo prodotto i requisiti di prestazione sono soddisfatti in modo uguale o migliore rispetto al nuovo prodotto prodotto di riferimento, con o senza conformità alle specifiche tecniche della norma. Nello standard è specificata una procedura di test che deve essere seguita per dimostrare la conformità ai requisiti di prestazione dell'utente della norma.
Questo approccio aiuta a superare due problemi. Gli standard, in virtù delle loro specifiche, che si basano sullo stato dell'arte (e della tecnologia) al momento della preparazione dello standard, possono limitare i nuovi sviluppi. Le specifiche basate su una determinata tecnologia (ad es. tubi a raggi catodici) potrebbero non essere appropriate per altre tecnologie. Indipendentemente dalla tecnologia, tuttavia, l'utente di un dispositivo di visualizzazione (ad esempio) dovrebbe essere in grado di leggere e comprendere le informazioni visualizzate in modo efficace ed efficiente senza alcun impedimento, indipendentemente dalla tecnica utilizzata. Le prestazioni in questo caso, tuttavia, non devono essere limitate alla pura produzione (misurata in termini di velocità o precisione), ma devono includere anche considerazioni di comfort e sforzo.
Il secondo problema che può essere affrontato da questo approccio è il problema delle interazioni tra le condizioni. Le specifiche fisiche di solito sono unidimensionali, tralasciando altre condizioni. Nel caso di effetti interattivi, tuttavia, ciò può essere fuorviante o addirittura errato. Specificando i requisiti prestazionali, d'altra parte, e lasciando al produttore i mezzi per raggiungerli, qualsiasi soluzione che soddisfi questi requisiti prestazionali sarà accettabile. Trattare le specifiche come un mezzo per un fine rappresenta quindi una vera prospettiva ergonomica.
Un altro standard con un approccio di sistema di lavoro è in preparazione in SC 4, che si riferisce alla progettazione di sale di controllo, ad esempio, per industrie di processo o centrali elettriche. Di conseguenza, dovrebbe essere preparato uno standard multiparte (ISO 11064), con le diverse parti che si occupano di aspetti della progettazione della sala di controllo come layout, progettazione della postazione di lavoro dell'operatore e progettazione di display e dispositivi di input per il controllo del processo. Poiché questi elementi di lavoro e l'approccio adottato superano chiaramente i problemi della progettazione di "display e controlli", SC 4 è stato rinominato "Interazione uomo-sistema".
I problemi ambientali, in particolare quelli relativi alle condizioni termiche e alla comunicazione in ambienti rumorosi, sono trattati in SC 5, dove sono state o sono in corso di elaborazione norme su metodi di misura, metodi per la stima dello stress termico, condizioni di comfort termico, produzione di calore metabolico , e sui segnali di pericolo uditivi e visivi, sul livello di interferenza vocale e sulla valutazione della comunicazione vocale.
Il CEN TC 122 copre all'incirca gli stessi campi della standardizzazione dell'ergonomia, sebbene con un'enfasi diversa e una diversa struttura dei suoi gruppi di lavoro. Si intende, tuttavia, che mediante una divisione del lavoro tra i comitati di ergonomia e l'accettazione reciproca dei risultati del lavoro, sarà sviluppato un insieme generale e utilizzabile di standard di ergonomia.
L'obiettivo prioritario della tossicologia occupazionale e ambientale è quello di migliorare la prevenzione o la limitazione sostanziale degli effetti sulla salute dell'esposizione ad agenti pericolosi negli ambienti generali e occupazionali. A tal fine sono stati sviluppati sistemi per la valutazione quantitativa del rischio relativo ad una data esposizione (vedi paragrafo “Tossicologia normativa”).
Gli effetti di una sostanza chimica su particolari sistemi e organi sono correlati all'entità dell'esposizione e al fatto che l'esposizione sia acuta o cronica. In considerazione della diversità degli effetti tossici anche all'interno di un sistema o organo, è stata proposta una filosofia uniforme riguardante l'organo critico e l'effetto critico ai fini della valutazione del rischio e dello sviluppo di limiti di concentrazione raccomandati basati sulla salute di sostanze tossiche in diversi ambienti ambientali .
Dal punto di vista della medicina preventiva, è di particolare importanza identificare gli effetti avversi precoci, sulla base del presupposto generale che prevenire o limitare gli effetti precoci può impedire lo sviluppo di effetti più gravi sulla salute.
Tale approccio è stato applicato ai metalli pesanti. Sebbene i metalli pesanti, come piombo, cadmio e mercurio, appartengano a un gruppo specifico di sostanze tossiche in cui l'effetto cronico dell'attività dipende dal loro accumulo negli organi, le definizioni presentate di seguito sono state pubblicate dal Task Group on Metal Toxicity (Nordberg 1976).
La definizione di organo critico proposta dal Task Group on Metal Toxicity è stata adottata con una leggera modifica: la parola metallo è stata sostituita con l'espressione sostanza potenzialmente tossica (Duffus 1993).
Il fatto che un determinato organo o sistema sia considerato critico dipende non solo dalla tossicomeccanica dell'agente pericoloso, ma anche dalla via di assorbimento e dalla popolazione esposta.
Il significato biologico dell'effetto subcritico a volte non è noto; può indicare un biomarcatore di esposizione, un indice di adattamento o un precursore di un effetto critico (vedere “Metodi di test tossicologici: biomarcatori”). Quest'ultima possibilità può essere particolarmente significativa in vista delle attività profilattiche.
La tabella 1 mostra esempi di organi ed effetti critici per diverse sostanze chimiche. Nell'esposizione ambientale cronica al cadmio, dove la via di assorbimento è di minore importanza (le concentrazioni di cadmio nell'aria vanno da 10 a 20 μg/m3 in ambito urbano e da 1 a 2 μg/m3 nelle zone rurali), l'organo critico è il rene. Nell'ambiente lavorativo dove il TLV raggiunge i 50μg/m3 e l'inalazione costituisce la principale via di esposizione, due organi, polmone e rene, sono considerati critici.
Tabella 1. Esempi di organi critici ed effetti critici
Sostanza | Organo critico nell'esposizione cronica | Effetto critico |
Cadmio | Polmoni | Non soglia: Cancro ai polmoni (rischio unitario 4.6 x 10-3) |
Rene | Soglia: Aumento dell'escrezione di proteine a basso peso molecolare (β2 -M, RBP) nelle urine |
|
Polmoni | Enfisema lievi alterazioni funzionali | |
Portare | Adulti Sistema ematopoietico |
Aumento dell'escrezione di acido delta-aminolevulinico nelle urine (ALA-U); aumento della concentrazione di protoporfirina eritrocitaria libera (FEP) negli eritrociti |
Sistema nervoso periferico | Rallentamento delle velocità di conduzione delle fibre nervose più lente | |
Mercurio (elementale) | Bambini piccoli Sistema nervoso centrale |
Diminuzione del QI e altri effetti sottili; tremore mercuriale (dita, labbra, palpebre) |
Mercurio (mercurio) | Rene | La proteinuria |
Manganese | Adulti Sistema nervoso centrale |
Compromissione delle funzioni psicomotorie |
Bambini Polmoni |
Sintomi respiratori | |
Sistema nervoso centrale | Compromissione delle funzioni psicomotorie | |
toluene | Membrane mucose | Irritazione |
Cloruro di vinile | Fegato | Cancro (rischio unitario di angiosarcoma 1 x 10-6 ) |
Acetato di etile | Membrana mucosa | Irritazione |
Per il piombo, gli organi critici negli adulti sono il sistema emopoietico e il sistema nervoso periferico, dove gli effetti critici (p. es., elevata concentrazione di protoporfirina eritrocitaria libera (FEP), aumento dell'escrezione di acido delta-aminolevulinico nelle urine o ridotta conduzione nervosa periferica) si manifestano quando il livello di piombo nel sangue (un indice di assorbimento di piombo nel sistema) si avvicina a 200-300μg/l. Nei bambini piccoli l'organo critico è il sistema nervoso centrale (SNC), e i sintomi di disfunzione rilevati con l'uso di una batteria di test psicologici sono stati riscontrati nelle popolazioni esaminate anche a concentrazioni nell'ordine di circa 100μg/l Pb nel sangue.
Sono state formulate numerose altre definizioni che possono riflettere meglio il significato della nozione. Secondo l'OMS (1989), l'effetto critico è stato definito come “il primo effetto avverso che compare quando la concentrazione o la dose soglia (critica) viene raggiunta nell'organo critico. Gli effetti avversi, come il cancro, senza una concentrazione soglia definita sono spesso considerati critici. La decisione se un effetto è critico è una questione di giudizio di esperti. Nelle linee guida del programma internazionale sulla sicurezza chimica (IPCS) per lo sviluppo Documenti sui criteri di salute ambientale, l'effetto critico è descritto come "l'effetto avverso ritenuto più appropriato per determinare l'assunzione tollerabile". Quest'ultima definizione è stata formulata direttamente allo scopo di valutare i limiti di esposizione basati sulla salute nell'ambiente generale. In questo contesto, la cosa più essenziale sembra essere determinare quale effetto può essere considerato un effetto negativo. Secondo la terminologia corrente, l'effetto avverso è il "cambiamento nella morfologia, fisiologia, crescita, sviluppo o durata della vita di un organismo che si traduce in una compromissione della capacità di compensare lo stress aggiuntivo o un aumento della suscettibilità agli effetti dannosi di altre influenze ambientali. La decisione se un effetto sia negativo o meno richiede il giudizio di esperti.
La Figura 1 mostra ipotetiche curve dose-risposta per diversi effetti. In caso di esposizione al piombo, A può rappresentare un effetto subcritico (inibizione dell'ALA-deidratasi eritrocitaria), B l'effetto critico (aumento della protoporfirina di zinco eritrocitaria o aumento dell'escrezione di acido delta-aminolevulinico, C l'effetto clinico (anemia) e D l'effetto fatale (la morte). Per l'esposizione al piombo esistono abbondanti evidenze che illustrano come particolari effetti dell'esposizione siano dipendenti dalla concentrazione di piombo nel sangue (pratica controparte della dose), sia sotto forma di relazione dose-risposta sia in relazione a diverse variabili (sesso, età, ecc. .). Determinare gli effetti critici e la relazione dose-risposta per tali effetti nell'uomo rende possibile prevedere la frequenza di un dato effetto per una data dose o la sua controparte (concentrazione nel materiale biologico) in una certa popolazione.
Figura 1. Ipotetiche curve dose-risposta per vari effetti
Gli effetti critici possono essere di due tipi: quelli considerati di soglia e quelli per i quali può sussistere un certo rischio a qualsiasi livello di esposizione (senza soglia, cancerogeni genotossici e germi mutageni). Ove possibile, dovrebbero essere utilizzati dati umani appropriati come base per la valutazione del rischio. Al fine di determinare gli effetti soglia per la popolazione generale, le ipotesi relative al livello di esposizione (assunzione tollerabile, biomarcatori di esposizione) devono essere fatte in modo tale che la frequenza dell'effetto critico nella popolazione esposta a un determinato agente pericoloso corrisponda alla frequenza di tale effetto nella popolazione generale. Nell'esposizione al piombo, la concentrazione massima raccomandata di piombo nel sangue per la popolazione generale (200μg/l, mediana inferiore a 100μg/l) (WHO 1987) è praticamente al di sotto del valore soglia per l'effetto critico presunto: l'elevato livello di protoporfirina libera negli eritrociti, sebbene non sia inferiore al livello associato agli effetti sul sistema nervoso centrale nei bambini o alla pressione arteriosa negli adulti. In generale, se i dati provenienti da studi ben condotti sulla popolazione umana che definiscono un livello senza effetti avversi osservati sono la base per la valutazione della sicurezza, allora il fattore di incertezza di dieci è stato considerato appropriato. Nel caso di esposizione professionale gli effetti critici possono riguardare una certa parte della popolazione (es. 10%). Di conseguenza, nell'esposizione professionale al piombo, la concentrazione di piombo nel sangue raccomandata per la salute è stata adottata per essere di 400 mg/l negli uomini, dove un livello di risposta del 10% per ALA-U di 5 mg/l si è verificato a concentrazioni di PbB di circa 300-400 mg/l . Per l'esposizione professionale al cadmio (assumendo che l'aumento dell'escrezione urinaria di proteine a basso peso sia l'effetto critico), il livello di 200 ppm di cadmio nella corteccia renale è stato considerato come il valore ammissibile, poiché questo effetto è stato osservato nel 10% dei la popolazione esposta. Entrambi questi valori sono allo studio per l'abbassamento, in molti paesi, attualmente (es. 1996).
Non vi è un chiaro consenso sulla metodologia appropriata per la valutazione del rischio delle sostanze chimiche per le quali l'effetto critico potrebbe non avere una soglia, come le sostanze cancerogene genotossiche. Per la valutazione di tali effetti sono stati adottati numerosi approcci basati in gran parte sulla caratterizzazione della relazione dose-risposta. A causa della mancanza di accettazione socio-politica del rischio per la salute causato da agenti cancerogeni in documenti come il Linee guida sulla qualità dell'aria per l'Europa (WHO 1987), solo i valori come il rischio unitario nel corso della vita (ossia, il rischio associato all'esposizione nel corso della vita a 1μg/m3 dell'agente pericoloso) sono presentati per gli effetti senza soglia (vedi “Tossicologia normativa”).
Attualmente, il passo fondamentale nell'intraprendere attività per la valutazione del rischio è determinare l'organo critico e gli effetti critici. Le definizioni sia dell'effetto critico che di quello avverso riflettono la responsabilità di decidere quale degli effetti all'interno di un dato organo o sistema debba essere considerato critico, e ciò è direttamente correlato alla successiva determinazione dei valori raccomandati per una data sostanza chimica nell'ambiente generale -Per esempio, Linee guida sulla qualità dell'aria per l'Europa (WHO 1987) o limiti basati sulla salute nell'esposizione professionale (WHO 1980). Determinare l'effetto critico all'interno della gamma degli effetti subcritici può portare a una situazione in cui i limiti raccomandati sulla concentrazione di sostanze chimiche tossiche nell'ambiente generale o lavorativo possono essere in pratica impossibili da mantenere. Considerare come critico un effetto che può sovrapporsi agli effetti clinici precoci può portare all'adozione dei valori per i quali gli effetti avversi possono svilupparsi in una parte della popolazione. La decisione se un determinato effetto debba o meno essere considerato critico resta di competenza dei gruppi di esperti specializzati nella valutazione della tossicità e del rischio.
Introduzione
I solventi organici sono volatili e generalmente solubili nel grasso corporeo (lipofili), sebbene alcuni di essi, ad esempio metanolo e acetone, siano anche solubili in acqua (idrofili). Sono stati ampiamente impiegati non solo nell'industria ma anche nei prodotti di consumo, come vernici, inchiostri, diluenti, sgrassanti, agenti per la pulizia a secco, smacchiatori, repellenti e così via. Sebbene sia possibile applicare il monitoraggio biologico per rilevare gli effetti sulla salute, ad esempio effetti sul fegato e sui reni, ai fini della sorveglianza sanitaria dei lavoratori che sono professionalmente esposti a solventi organici, è preferibile utilizzare invece il monitoraggio biologico per " monitoraggio dell'esposizione” al fine di proteggere la salute dei lavoratori dalla tossicità di questi solventi, poiché si tratta di un approccio sufficientemente sensibile da fornire avvertimenti ben prima che si verifichino effetti sulla salute. Anche lo screening dei lavoratori per l'elevata sensibilità alla tossicità dei solventi può contribuire alla protezione della loro salute.
Riassunto di tossicocinetica
I solventi organici sono generalmente volatili in condizioni standard, sebbene la volatilità vari da solvente a solvente. Pertanto, la principale via di esposizione negli ambienti industriali è attraverso l'inalazione. Il tasso di assorbimento attraverso la parete alveolare dei polmoni è molto più alto di quello attraverso la parete del tubo digerente e un tasso di assorbimento polmonare di circa il 50% è considerato tipico per molti solventi comuni come il toluene. Alcuni solventi, ad esempio il solfuro di carbonio e l'N,N-dimetilformammide allo stato liquido, possono penetrare nella pelle umana intatta in quantità tali da risultare tossici.
Quando questi solventi vengono assorbiti, una parte viene espirata nel respiro senza alcuna biotrasformazione, ma la maggior parte viene distribuita negli organi e nei tessuti ricchi di lipidi per effetto della loro lipofilia. La biotrasformazione avviene principalmente nel fegato (e anche in altri organi in misura minore) e la molecola del solvente diventa più idrofila, tipicamente mediante un processo di ossidazione seguito da coniugazione, per essere escreta attraverso il rene nelle urine come metabolita(i) ). Una piccola parte può essere eliminata immodificata nelle urine.
Pertanto, tre materiali biologici, urina, sangue e respiro esalato, sono disponibili per il monitoraggio dell'esposizione ai solventi da un punto di vista pratico. Un altro fattore importante nella selezione dei materiali biologici per il monitoraggio dell'esposizione è la velocità di scomparsa della sostanza assorbita, per la quale l'emivita biologica, ovvero il tempo necessario a una sostanza per ridursi a metà della sua concentrazione originaria, è un parametro quantitativo. Ad esempio, i solventi scompaiono dal respiro espirato molto più rapidamente dei corrispondenti metaboliti dalle urine, il che significa che hanno un'emivita molto più breve. All'interno dei metaboliti urinari, l'emivita biologica varia a seconda della velocità con cui il composto progenitore viene metabolizzato, quindi il tempo di campionamento in relazione all'esposizione è spesso di fondamentale importanza (vedi sotto). Una terza considerazione nella scelta di un materiale biologico è la specificità della sostanza chimica target da analizzare in relazione all'esposizione. Ad esempio, l'acido ippurico è un indicatore di esposizione al toluene utilizzato da tempo, ma non solo è formato naturalmente dall'organismo, ma può anche essere derivato da fonti non professionali come alcuni additivi alimentari e non è più considerato un affidabile marker quando l'esposizione al toluene è bassa (meno di 50 cm3/m3). In generale, i metaboliti urinari sono stati ampiamente utilizzati come indicatori di esposizione a vari solventi organici. Il solvente nel sangue viene analizzato come misura qualitativa dell'esposizione perché di solito rimane nel sangue per un tempo più breve ed è più indicativo dell'esposizione acuta, mentre il solvente nel respiro esalato è difficile da usare per la stima dell'esposizione media perché la concentrazione nel respiro diminuisce così rapidamente dopo la cessazione dell'esposizione. Il solvente nelle urine è un candidato promettente come misura dell'esposizione, ma necessita di ulteriore convalida.
Test di esposizione biologica per solventi organici
Nell'applicare il monitoraggio biologico per l'esposizione ai solventi, il tempo di campionamento è importante, come indicato sopra. La tabella 1 mostra i tempi di campionamento raccomandati per i comuni solventi nel monitoraggio dell'esposizione professionale quotidiana. Quando si deve analizzare il solvente stesso, occorre prestare attenzione a prevenire possibili perdite (ad es. evaporazione nell'aria ambiente) e contaminazione (ad es. dissoluzione dall'aria ambiente nel campione) durante il processo di manipolazione del campione. Nel caso in cui i campioni debbano essere trasportati in un laboratorio distante o conservati prima dell'analisi, è necessario prestare attenzione per evitare perdite. Il congelamento è raccomandato per i metaboliti, mentre la refrigerazione (ma non il congelamento) in un contenitore ermetico senza intercapedine (o più preferibilmente, in una fiala con spazio di testa) è raccomandata per l'analisi del solvente stesso. Nell'analisi chimica, il controllo di qualità è essenziale per ottenere risultati affidabili (per i dettagli, vedere l'articolo "Garanzia di qualità" in questo capitolo). Nel riportare i risultati, dovrebbe essere rispettata l'etica (vedi cap Problemi etici altrove nel Enciclopedia).
Tabella 1. Alcuni esempi di sostanze chimiche bersaglio per il monitoraggio biologico e tempo di campionamento
Solvente |
Bersaglio chimico |
Urina/sangue |
Tempo di campionamento1 |
Disolfuro di carbonio |
Acido 2-tiotiazolidina-4-carbossilico |
Urina |
Th F |
N,N-Dimetil-formammide |
N-Metilformammide |
Urina |
Lun Ma Mer Gio F |
2-etossietanolo e suo acetato |
Acido etossiacetico |
Urina |
Th F (fine dell'ultimo turno di lavoro) |
Esano |
2,4-esanedione Esano |
Urina Sangue |
Lun Ma Mer Gio F conferma dell'esposizione |
Metanolo |
Metanolo |
Urina |
Lun Ma Mer Gio F |
Styrene |
Acido mandelico Acido fenilgliossilico Styrene |
Urina Urina Sangue |
Th F Th F conferma dell'esposizione |
toluene |
Acido ippurico o-Cresolo toluene toluene |
Urina Urina Sangue Urina |
Mar W Th F Mar W Th F conferma dell'esposizione Mar W Th F |
tricloroetilene |
Acido tricloroacetico (TCA) Triclorocomposti totali (somma di TCA e tricloroetanolo libero e coniugato) tricloroetilene |
Urina Urina Sangue |
Th F Th F conferma dell'esposizione |
Xilene2 |
Acidi metilippurici Xilene |
Urina Sangue |
Mar W Th F Mar W Th F |
1 Fine del turno di lavoro se non diversamente specificato: i giorni della settimana indicano i giorni di campionamento preferiti.
2 Tre isomeri, separatamente o in qualsiasi combinazione.
Fonte: Riassunto da OMS 1996.
Per molti solventi sono state stabilite numerose procedure analitiche. I metodi variano a seconda della sostanza chimica target, ma la maggior parte dei metodi recentemente sviluppati utilizza la gascromatografia (GC) o la cromatografia liquida ad alta prestazione (HPLC) per la separazione. Si consiglia l'uso di un campionatore automatico e di un elaboratore di dati per un buon controllo di qualità nell'analisi chimica. Quando si deve analizzare un solvente stesso nel sangue o nelle urine, l'applicazione della tecnica dello spazio di testa in GC (GC dello spazio di testa) è molto conveniente, specialmente quando il solvente è abbastanza volatile. La tabella 2 delinea alcuni esempi dei metodi stabiliti per i comuni solventi.
Tabella 2. Alcuni esempi di metodi analitici per il monitoraggio biologico dell'esposizione a solventi organici
Solvente |
Bersaglio chimico |
Sangue/urina |
Metodo analitico |
Disolfuro di carbonio |
2-tiotiazolidina-4- |
Urina |
Cromatografo liquido ad alte prestazioni con rilevamento ultravioletto (UV-HPLC) |
N, N-Dimetilformammide |
N-metilformammide |
Urina |
Gascromatografo con rivelazione termoionica a fiamma (FTD-GC) |
2-etossietanolo e suo acetato |
Acido etossiacetico |
Urina |
Estrazione, derivatizzazione e gascromatografo con rivelazione a ionizzazione di fiamma (FID-GC) |
Esano |
2,4-esanedione Esano |
Urina Sangue |
Estrazione, (idrolisi) e FID-GC FID-GC nello spazio di testa |
Metanolo |
Metanolo |
Urina |
FID-GC nello spazio di testa |
Styrene |
Acido mandelico Acido fenilgliossilico Styrene |
Urina Urina Sangue |
Dissalazione e UV-HPLC Dissalazione e UV-HPLC Spazio di testa FID-GC |
toluene |
Acido ippurico o-Cresolo toluene toluene |
Urina Urina Sangue Urina |
Dissalazione e UV-HPLC Idrolisi, estrazione e FID-GC Spazio di testa FID-GC Spazio di testa FID-GC |
tricloroetilene |
Acido tricloroacetico Tricloro-composti totali (somma di TCA e tricloroetanolo libero e coniugato) tricloroetilene |
Urina Urina Sangue |
Colorimetria o esterificazione e gascromatografo con rilevamento a cattura elettronica (ECD-GC) Ossidazione e colorimetria, o idrolisi, ossidazione, esterificazione e ECD-GC Spazio di testa ECD-GC |
Xilene |
Acidi metilippurici (tre isomeri, separatamente o in combinazione) |
Urina |
Spazio di testa FID-GC |
Fonte: Riassunto da OMS 1996.
Valutazione
Una relazione lineare degli indicatori di esposizione (elencati nella tabella 2) con l'intensità dell'esposizione ai solventi corrispondenti può essere stabilita sia attraverso un'indagine sui lavoratori esposti professionalmente ai solventi, sia attraverso l'esposizione sperimentale di volontari umani. Di conseguenza, l'ACGIH (1994) e il DFG (1994), ad esempio, hanno stabilito l'indice di esposizione biologica (BEI) e il valore di tolleranza biologica (BAT), rispettivamente, come i valori nei campioni biologici che sono equivalenti al valore occupazionale limite di esposizione per le sostanze chimiche disperse nell'aria, ovvero rispettivamente il valore limite di soglia (TLV) e la concentrazione massima sul posto di lavoro (MAK). È noto, tuttavia, che il livello della sostanza chimica target nei campioni ottenuti da persone non esposte può variare, riflettendo, ad esempio, le usanze locali (ad esempio, il cibo) e che possono esistere differenze etniche nel metabolismo dei solventi. È quindi auspicabile stabilire valori limite attraverso lo studio della popolazione locale interessata.
Nella valutazione dei risultati, l'esposizione non professionale al solvente (ad esempio, tramite l'uso di prodotti di consumo contenenti solventi o l'inalazione intenzionale) e l'esposizione a sostanze chimiche che danno origine agli stessi metaboliti (ad esempio, alcuni additivi alimentari) dovrebbero essere accuratamente escluse. Nel caso in cui vi sia un ampio divario tra l'intensità dell'esposizione al vapore ei risultati del monitoraggio biologico, la differenza può indicare la possibilità di assorbimento cutaneo. Il fumo di sigaretta sopprime il metabolismo di alcuni solventi (p. es., il toluene), mentre l'assunzione acuta di etanolo può sopprimere il metabolismo del metanolo in maniera competitiva.
I sistemi di lavoro comprendono variabili organizzative di livello macro come il sottosistema del personale, il sottosistema tecnologico e l'ambiente esterno. L'analisi dei sistemi di lavoro è, quindi, essenzialmente uno sforzo per comprendere l'allocazione delle funzioni tra il lavoratore e l'attrezzatura tecnica e la divisione del lavoro tra le persone in un ambiente sociotecnico. Tale analisi può aiutare a prendere decisioni informate per migliorare la sicurezza dei sistemi, l'efficienza nel lavoro, lo sviluppo tecnologico e il benessere fisico e mentale dei lavoratori.
I ricercatori esaminano i sistemi di lavoro secondo approcci divergenti (meccanicistici, biologici, percettivi/motori, motivazionali) con corrispondenti esiti individuali e organizzativi (Campion e Thayer 1985). La selezione dei metodi nell'analisi dei sistemi di lavoro è dettata dagli specifici approcci adottati e dal particolare obiettivo prefissato, dal contesto organizzativo, dal lavoro e dalle caratteristiche umane, e dalla complessità tecnologica del sistema in esame (Drury 1987). Liste di controllo e questionari sono i mezzi comuni per assemblare database per i pianificatori organizzativi nella definizione delle priorità dei piani d'azione nelle aree di selezione e collocamento del personale, valutazione delle prestazioni, gestione della sicurezza e della salute, progettazione lavoratore-macchina e progettazione o riprogettazione del lavoro. Metodi di inventario delle liste di controllo, ad esempio il Position Analysis Questionnaire, o PAQ (McCormick 1979), il Job Components Inventory (Banks e Miller 1984), il Job Diagnostic Survey (Hackman e Oldham 1975) e il Multi-method Job Design Questionnaire ( Campion 1988) sono gli strumenti più popolari e sono diretti a una varietà di obiettivi.
Il PAQ ha sei divisioni principali, comprendenti 189 elementi comportamentali richiesti per la valutazione delle prestazioni lavorative e sette elementi supplementari relativi alla compensazione monetaria:
Il Job Components Inventory Mark II contiene sette sezioni. La sezione introduttiva tratta i dettagli dell'organizzazione, le descrizioni delle mansioni ei dati biografici del titolare del posto. Altre sezioni sono le seguenti:
I metodi del profilo hanno elementi comuni, ovvero (1) un insieme completo di fattori di lavoro utilizzati per selezionare la gamma di lavoro, (2) una scala di valutazione che consente la valutazione delle richieste di lavoro e (3) la ponderazione delle caratteristiche del lavoro sulla base della struttura organizzativa e dei requisiti sociotecnici. I profili delle poste, un altro strumento di profilo delle mansioni, sviluppato nell'Organizzazione Renault (RNUR 1976), contiene una tabella di voci di variabili che rappresentano le condizioni di lavoro e fornisce agli intervistati una scala a cinque punti su cui possono selezionare il valore di una variabile che va da molto da soddisfacente a molto scarso attraverso la registrazione di risposte standardizzate. Le variabili riguardano (1) il design della postazione di lavoro, (2) l'ambiente fisico, (3) i fattori di carico fisico, (4) la tensione nervosa, (5) l'autonomia lavorativa, (6) le relazioni, (7) la ripetitività e ( 8) contenuto del lavoro.
L'AET (Ergonomic Job Analysis) (Rohmert e Landau 1985), è stata sviluppata sulla base del concetto stress-strain. Ciascuno dei 216 elementi dell'AET è codificato: un codice definisce i fattori di stress, indicando se un elemento lavorativo si qualifica o meno come fattore di stress; altri codici definiscono il grado di stress associato a un lavoro; e altri ancora descrivono la durata e la frequenza dello stress durante il turno di lavoro.
L'AET si compone di tre parti:
In generale, le liste di controllo adottano uno dei due approcci, (1) l'approccio orientato al lavoro (ad esempio, l'AET, I profili delle poste) e (2) l'approccio orientato al lavoratore (ad esempio, il PAQ). Gli inventari ei profili delle mansioni offrono un sottile confronto tra mansioni complesse e profili occupazionali dei lavori e determinano gli aspetti del lavoro che sono considerati a priori fattori inevitabili per il miglioramento delle condizioni di lavoro. L'enfasi del PAQ è sulla classificazione delle famiglie o dei gruppi di lavoro (Fleishman e Quaintence 1984; Mossholder e Arvey 1984; Carter e Biersner 1987), deducendo la validità della componente lavorativa e lo stress lavorativo (Jeanneret 1980; Shaw e Riskind 1983). Dal punto di vista medico, sia l'AET che il metodo del profilo consentono confronti di vincoli e attitudini quando richiesto (Wagner 1985). Il questionario nordico è una presentazione illustrativa dell'analisi ergonomica del posto di lavoro (Ahonen, Launis e Kuorinka 1989), che copre i seguenti aspetti:
Tra le carenze del formato della lista di controllo per uso generale impiegato nell'analisi del lavoro ergonomico ci sono i seguenti:
Una lista di controllo sistematicamente costruita ci obbliga a indagare sui fattori delle condizioni di lavoro che sono visibili o facili da modificare e ci permette di impegnarci in un dialogo sociale tra datori di lavoro, titolari di posti di lavoro e altri interessati. Si dovrebbe esercitare una certa cautela nei confronti dell'illusione di semplicità ed efficienza delle liste di controllo, nonché nei confronti dei loro approcci quantitativi e tecnici. La versatilità in una lista di controllo o in un questionario può essere raggiunta includendo moduli specifici per soddisfare obiettivi specifici. Pertanto, la scelta delle variabili è molto legata allo scopo per cui i sistemi di lavoro devono essere analizzati e questo determina l'approccio generale per la costruzione di una checklist di facile utilizzo.
La “Checklist ergonomica” suggerita può essere adottata per diverse applicazioni. La raccolta dei dati e l'elaborazione computerizzata dei dati della lista di controllo sono relativamente semplici, rispondendo alle dichiarazioni primarie e secondarie (qv).
LISTA DI CONTROLLO ERGONOMICA
Qui viene suggerita un'ampia linea guida per una lista di controllo dei sistemi di lavoro a struttura modulare, che copre cinque aspetti principali (meccanicistici, biologici, percettivi/motori, tecnici e psicosociali). La ponderazione dei moduli varia a seconda della natura del/i lavoro/i da analizzare, delle caratteristiche specifiche del paese o della popolazione oggetto di studio, delle priorità organizzative e dell'uso previsto dei risultati dell'analisi. Gli intervistati contrassegnano la "affermazione primaria" come Sì/No. Le risposte "sì" indicano l'apparente assenza di un problema, sebbene non si debba escludere l'opportunità di un ulteriore attento esame. Le risposte "no" indicano la necessità di una valutazione e di un miglioramento dell'ergonomia. Le risposte alle "dichiarazioni secondarie" sono indicate da una singola cifra sulla scala di gravità dell'accordo/disaccordo illustrata di seguito.
0 Non so o non applicabile
1 Assolutamente in disaccordo
2 Non sono d'accordo
3 Né d'accordo né in disaccordo
4 Accetto
5 Assolutamente d'accordo
A. Organizzazione, lavoratore e mansione Le vostre risposte/valutazioni
Il progettista della lista di controllo può fornire un disegno/fotografia di esempio del lavoro e
posto di lavoro in fase di studio.
1. Descrizione dell'organizzazione e delle funzioni.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
2. Caratteristiche del lavoratore: un breve resoconto del gruppo di lavoro.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
3. Descrizione del compito: elencare le attività ei materiali in uso. Dare qualche indicazione di
i rischi del lavoro.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
B. Aspetto meccanicistico Le tue risposte/valutazioni
I. Specializzazione professionale
4. I compiti/schemi di lavoro sono semplici e senza complicazioni. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
4.1 L'incarico è specifico dell'operativo.
4.2 Strumenti e metodi di lavoro sono specializzati per lo scopo del lavoro.
4.3 Volume di produzione e qualità del lavoro.
4.4 Il titolare del posto svolge più compiti.
II. Requisiti di abilità
5. Il lavoro richiede un semplice atto motorio. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
5.1 Il lavoro richiede conoscenza e capacità abili.
5.2 Il lavoro richiede formazione per l'acquisizione di competenze.
5.3 Il lavoratore commette frequenti errori sul lavoro.
5.4 Il lavoro richiede una rotazione frequente, come indicato.
5.5 L'operazione di lavoro è ritmata dalla macchina/assistita dall'automazione.
Osservazioni e suggerimenti per il miglioramento. Punti da 4 a 5.5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
q Valutazione dell'analista Valutazione del lavoratore q
C. Aspetto biologico Le vostre risposte/valutazioni
III. Attività fisica generale
6. L'attività fisica è interamente determinata e
regolamentato dal lavoratore. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
6.1 Il lavoratore mantiene un ritmo orientato all'obiettivo.
6.2 Il lavoro implica movimenti ripetuti frequentemente.
6.3 Richiesta cardiorespiratoria del lavoro:
sedentario/leggero/moderato/pesante/estremamente pesante.
(Quali sono gli elementi di lavoro pesanti?):
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
(Inserisci 0-5)
6.4 Il lavoro richiede uno sforzo muscolare elevato.
6.5 Il lavoro (azionamento della maniglia, del volante, del freno a pedale) è prevalentemente lavoro statico.
6.6. Il lavoro richiede una posizione di lavoro fissa (seduti o in piedi).
IV. Movimentazione manuale dei materiali (MMH)
Natura degli oggetti manipolati: animato/inanimato, dimensione e forma.
_______________________________________________________________
_______________________________________________________________
7. Il lavoro richiede un'attività MMH minima. Si No
If Non, specificare il lavoro:
7.1 Modalità di lavoro: (cerchiare uno)
tirare/spingere/girare/sollevare/abbassare/trasportare
(Specificare il ciclo di ripetizione):
_______________________________________________________________
_______________________________________________________________
7.2 Peso del carico (kg): (cerchiare uno)
5-10, 10-20, 20-30, 30-40, >>40.
7.3 Distanza orizzontale soggetto-carico (cm): (cerchiare uno)
<25, 25-40, 40-55, 55-70, >70.
7.4 Altezza del carico del soggetto: (cerchiare uno)
terra, ginocchio, vita, petto, livello delle spalle.
(Inserisci 0-5)
7.5 L'abbigliamento limita i compiti MMH.
8. La situazione del compito è esente dal rischio di lesioni personali. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
8.1 L'attività può essere modificata per ridurre il carico da movimentare.
8.2 I materiali possono essere imballati in dimensioni standard.
8.3 Le dimensioni/posizione delle maniglie sugli oggetti possono essere migliorate.
8.4 I lavoratori non adottano metodi più sicuri per la movimentazione dei carichi.
8.5 Gli ausili meccanici possono ridurre gli sforzi fisici.
Elenca ogni articolo se sono disponibili paranchi o altri ausili per la movimentazione.
Suggerimenti per il miglioramento, punti da 6 a 8.5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
V. Progettazione del posto di lavoro/spazio di lavoro
Il posto di lavoro può essere illustrato schematicamente, mostrando la portata umana e
liquidazione:
9. Il posto di lavoro è compatibile con le dimensioni umane. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
9.1 La distanza di lavoro è lontana dalla portata normale sul piano orizzontale o verticale (>60 cm).
9.2 L'altezza della scrivania/attrezzatura è fissa o minimamente regolabile.
9.3 Nessuno spazio per operazioni sussidiarie (ad es. ispezione e manutenzione).
9.4 Le postazioni di lavoro presentano ostacoli, parti sporgenti o spigoli vivi.
9.5 I pavimenti del piano di lavoro sono scivolosi, irregolari, ingombri o instabili.
10. La disposizione dei posti a sedere è adeguata (es. sedia comoda,
buon supporto posturale). Si No
If Non, le cause sono: (Inserire 0-5)
10.1 Le dimensioni del sedile (ad es. altezza del sedile, schienale) non corrispondono alle dimensioni umane.
10.2 Regolabilità minima del sedile.
10.3 Il posto di lavoro non fornisce presa/supporto (ad es. tramite bordi verticali/rivestimento extra rigido) per lavorare con la macchina.
10.4 Assenza di dispositivo antivibrante nel posto di lavoro.
11. È disponibile un supporto ausiliario sufficiente per la sicurezza
sul posto di lavoro. Si No
If Non, indicare quanto segue: (Inserire 0-5)
11.1 Indisponibilità di deposito per attrezzi, articoli personali.
11.2 Le porte, i percorsi di ingresso/uscita o i corridoi sono limitati.
11.3 Mancata corrispondenza del design di maniglie, scale, scale, corrimano.
11.4 Gli appigli e gli appigli richiedono una posizione scomoda degli arti.
11.5 I supporti sono irriconoscibili per la loro posizione, forma o costruzione.
11.6 Uso limitato di guanti/calzature per lavorare e azionare i controlli delle apparecchiature.
Suggerimenti per il miglioramento, punti da 9 a 11.6:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VI. Postura di lavoro
12. Il lavoro consente una postura di lavoro rilassata. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
12.1 Lavorare con le braccia sopra le spalle e/o lontane dal corpo.
12.2 Iperestensione del polso e richiesta di forza elevata.
12.3 Collo/spalla non sono mantenuti ad un angolo di circa 15°.
12.4 Dorso piegato e attorcigliato.
12.5 Le anche e le gambe non sono ben sostenute in posizione seduta.
12.6 Movimento unilaterale e asimmetrico del corpo.
12.7 Menzionare i motivi della postura forzata:
(1) posizione della macchina
(2) design del sedile,
(3) movimentazione delle attrezzature,
(4) posto di lavoro/spazio di lavoro
12.8 Specificare il codice OWAS. (Per una descrizione dettagliata dell'OWAS
metodo fare riferimento a Karhu et al. 1981.)
_______________________________________________________________
_______________________________________________________________
Suggerimenti per il miglioramento, punti da 12 a 12.7:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VII. Ambiente di lavoro
(Indicare le misure ove possibile)
RUMORE
[Identificare le fonti di rumore, il tipo e la durata dell'esposizione; fare riferimento al codice ILO 1984].
13. Il livello di rumore è inferiore al massimo Sì/No
livello sonoro consigliato. (Utilizzare la seguente tabella.)
Valutazione |
Lavoro che non richiede comunicazione verbale |
Lavoro che richiede comunicazione verbale |
Lavoro che richiede concentrazione |
1 |
sotto i 60 dBA |
sotto i 50 dBA |
sotto i 45 dBA |
2 |
60-70 dBA |
50-60 dBA |
45-55 dBA |
3 |
70-80 dBA |
60-70 dBA |
55-65 dBA |
4 |
80-90 dBA |
70-80 dBA |
65-75 dBA |
5 |
oltre 90 dBA |
oltre 80 dBA |
oltre 75 dBA |
Fonte: Ahonen et al. 1989.
Assegna il tuo punteggio di accordo/disaccordo (0-5)
14. I rumori dannosi vengono soppressi alla fonte. Si No
In caso negativo, valuta le contromisure: (Inserisci 0-5)
14.1 Nessun efficace isolamento acustico presente.
14.2 Non vengono prese misure di emergenza contro il rumore (es. limitazione dell'orario di lavoro, uso di cuffie/protettori personali).
15 CLIMA
Specificare le condizioni climatiche.
Temperatura ____
Umidità ____
Temperatura radiante ____
Bozze ____
16. Il clima è confortevole. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
16.1 Sensazione di temperatura (cerchio uno):
freddo/leggermente freddo/neutro/caldo/molto caldo
16.2 I dispositivi di ventilazione (es. ventilatori, finestre, condizionatori d'aria) non sono adeguati.
16.3 Mancata esecuzione delle misure regolamentari sui limiti di esposizione (se disponibile, si prega di elaborare).
16.4 I lavoratori non indossano indumenti protettivi/di assistenza al calore.
16.5 Nelle vicinanze non sono disponibili fontanelle di acqua fresca.
17 ILLUMINAZIONE
Le postazioni di lavoro/macchine sono sempre sufficientemente illuminate. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
17.1 L'illuminazione è sufficientemente intensa.
17.2 L'illuminazione dell'area di lavoro è adeguatamente uniforme.
17.3 I fenomeni di flicker sono minimi o assenti.
17.4 La formazione dell'ombra non è problematica.
17.5 Gli abbagliamenti riflessi fastidiosi sono minimi o assenti.
17.6 La dinamica del colore (accentuazione visiva, calore del colore) è adeguata.
18 POLVERE, FUMO, TOSSICI
L'ambiente è privo di polvere eccessiva,
fumi e sostanze tossiche. Si No
Se No, valuta quanto segue: (Inserisci 0-5)
18.1 Sistemi di ventilazione e scarico inefficaci per l'aspirazione di fumi, fumi e sporcizia.
18.2 Mancanza di misure di protezione contro il rilascio di emergenza e il contatto con sostanze pericolose/tossiche.
Elenca le sostanze chimiche tossiche:
_______________________________________________________________
_______________________________________________________________
18.3 Il monitoraggio del luogo di lavoro per sostanze chimiche tossiche non è regolare.
18.4 Indisponibilità di misure di protezione individuale (es. guanti, scarpe, mascherina, grembiule).
19 RADIAZIONI
I lavoratori sono protetti efficacemente dall'esposizione alle radiazioni. Si No
Se no, menzionare le esposizioni
(vedi elenco di controllo ISSA, Ergonomia): (Inserire 0-5)
19.1 Radiazione UV (200 nm – 400 nm).
19.2 Radiazione IR (780 nm – 100 μm).
19.3 Radioattività/radiazioni di raggi X (<200 nm).
19.4 Microonde (1 mm – 1 m).
19.5 laser (300 nm – 1.4 μm).
19.6 Altro (menzionare):
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
20. VIBRAZIONE
La macchina può funzionare senza trasmissione di vibrazioni
al corpo dell'operatore. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
20.1 La vibrazione viene trasmessa a tutto il corpo attraverso i piedi.
20.2 La trasmissione delle vibrazioni avviene attraverso il sedile (es. macchine mobili che vengono guidate con operatore seduto).
20.3 Le vibrazioni sono trasmesse attraverso il sistema mano-braccio (ad es. utensili manuali motorizzati, macchine azionate quando l'operatore cammina).
20.4 Esposizione prolungata a fonti continue/ripetitive di vibrazioni.
20.5 Le sorgenti di vibrazioni non possono essere isolate o eliminate.
20.6 Identificare le fonti di vibrazione.
Commenti e suggerimenti, punti da 13 a 20:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VIII. Orario di lavoro
Indicare l'orario di lavoro: ore di lavoro/giorno/settimana/anno, compreso il lavoro stagionale e il sistema dei turni.
21. La pressione del tempo di lavoro è minima. Si No
If Non, valuta quanto segue: (Inserisci 0-5)
21.1 Il lavoro richiede lavoro notturno.
21.2 Il lavoro comporta ore di lavoro straordinario/straordinario.
Specifica la durata media:
_______________________________________________________________
21.3 I compiti pesanti sono distribuiti in modo non uniforme durante il turno.
21.4 Le persone lavorano a un ritmo/limite di tempo predeterminato.
21.5 Le indennità di fatica/gli schemi lavoro-riposo non sono sufficientemente incorporati (utilizzare criteri cardiorespiratori sulla gravità del lavoro).
Commenti e suggerimenti, punti da 21 a 21.5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Valutazione dell'analista Valutazione del lavoratore
D. Aspetto percettivo/motorio Le tue risposte/valutazioni
IX. Visualizza
22. Display visivi (indicatori, contatori, segnali di avvertimento)
sono facili da leggere. Si No
Se no, valuta le difficoltà: (Inserisci 0-5)
22.1 Illuminazione insufficiente (fare riferimento al punto n. 17).
22.2 Posizione scomoda della testa/occhi per la linea visiva.
22.3 Lo stile di visualizzazione dei numeri/la progressione numerica crea confusione e causa errori di lettura.
22.4 I display digitali non sono disponibili per una lettura accurata.
22.5 Ampia distanza visiva per una lettura precisa.
22.6 Le informazioni visualizzate non sono facilmente comprensibili.
23. I segnali/impulsi di emergenza sono facilmente riconoscibili. Si No
In caso negativo, valutare i motivi:
23.1 I segnali (visivi/uditivi) non sono conformi al processo di lavoro.
23.2 I segnali lampeggianti sono fuori dal campo visivo.
23.3 I segnali acustici del display non sono udibili.
24. I raggruppamenti delle funzioni di visualizzazione sono logici. Si No
Se No, valuta quanto segue:
24.1 I display non si distinguono per forma, posizione, colore o tono.
24.2 I display di uso frequente e critici sono rimossi dalla linea di visione centrale.
X. Controlli
25. I comandi (ad es. interruttori, manopole, gru, ruote motrici, pedali) sono facili da maneggiare. Si No
Se No, le cause sono: (Inserire 0-5)
25.1 Le posizioni di controllo mani/piedi sono scomode.
25.2 La manualità dei comandi/strumenti non è corretta.
25.3 Le dimensioni dei comandi non corrispondono alla parte del corpo operativo.
25.4 I controlli richiedono un'elevata forza di azionamento.
25.5 I controlli richiedono alta precisione e velocità.
25.6 I controlli non sono codificati in forma per una buona presa.
25.7 I controlli non sono codificati con colori/simboli per l'identificazione.
25.8 I controlli provocano sensazioni sgradevoli (calore, freddo, vibrazioni).
26. Display e controlli (combinati) sono compatibili con reazioni umane facili e confortevoli. Si No
Se No, valuta quanto segue: (Inserisci 0-5)
26.1 I piazzamenti non sono sufficientemente vicini tra loro.
26.2 Display/comandi non sono disposti in sequenza per funzioni/frequenza di utilizzo.
26.3 Le operazioni di visualizzazione/controllo sono successive, senza un intervallo di tempo sufficiente per completare l'operazione (questo crea un sovraccarico sensoriale).
26.4 Disarmonia nella direzione del movimento di visualizzazione/controllo (ad esempio, il movimento di controllo verso sinistra non dà movimento all'unità verso sinistra).
Commenti e suggerimenti, punti da 22 a 26.4:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Valutazione dell'analista Valutazione del lavoratore
E. Aspetto tecnico Le vostre risposte/valutazioni
XI. Macchinari
27. Macchina (ad es. carrello trasportatore, carrello elevatore, macchina utensile)
è facile da guidare e lavorare. Si No
Se No, valuta quanto segue: (Inserisci 0-5)
27.1 La macchina è instabile durante il funzionamento.
27.2 Cattiva manutenzione dei macchinari.
27.3 La velocità di marcia della macchina non è regolabile.
27.4 I volanti/le maniglie sono azionati, dalla posizione eretta.
27.5 I meccanismi operativi ostacolano i movimenti del corpo nell'area di lavoro.
27.6 Rischio di lesioni per mancanza di protezione della macchina.
27.7 Le macchine non sono dotate di segnali di avvertimento.
27.8 La macchina è scarsamente equipaggiata per lo smorzamento delle vibrazioni.
27.9 I livelli di rumore della macchina sono superiori ai limiti di legge (fare riferimento ai punti n. 13 e 14)
27.10 Scarsa visibilità delle parti della macchina e dell'area adiacente (fare riferimento ai punti n. 17 e 22).
XII. Piccoli strumenti/attrezzi
28. Gli strumenti/strumenti forniti agli operatori sono
comodo con cui lavorare. Si No
Se No, valuta quanto segue: (Inserisci 0-5)
28.1 L'attrezzo/attrezzo non ha tracolla/telaio posteriore.
28.2 L'attrezzo non può essere utilizzato a mani alternate.
28.3 Il peso elevato dell'attrezzo provoca iperestensione del polso.
28.4 La forma e la posizione dell'impugnatura non sono progettate per una presa comoda.
28.5 L'utensile a motore non è progettato per l'uso a due mani.
28.6 Gli spigoli vivi/le creste dell'utensile/attrezzatura possono causare lesioni.
28.7 Le imbracature (guanti, ecc.) non vengono utilizzate regolarmente per azionare strumenti vibranti.
28.8 I livelli di rumorosità dell'attrezzo a motore sono superiori ai limiti accettabili
(fare riferimento al punto n. 13).
Suggerimenti per il miglioramento, punti da 27 a 28.8:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
XIII. Lavora in sicurezza
29. Le misure di sicurezza della macchina sono adeguate per prevenire
infortuni e rischi per la salute. Si No
Se No, valuta quanto segue: (Inserisci 0-5)
29.1 Gli accessori della macchina non possono essere fissati e rimossi facilmente.
29.2 I punti pericolosi, le parti in movimento e gli impianti elettrici non sono adeguatamente protetti.
29.3 Il contatto diretto/indiretto di parti del corpo con macchinari può causare pericoli.
29.4 Difficoltà di ispezione e manutenzione della macchina.
29.5 Non sono disponibili istruzioni chiare per il funzionamento, la manutenzione e la sicurezza della macchina.
Suggerimenti per il miglioramento, item da 29 a 29. 5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Valutazione dell'analista Valutazione del lavoratore
F. Aspetto psicosociale Le vostre risposte/valutazioni
XIV. Autonomia del lavoro
30. Il lavoro consente autonomia (es. libertà riguardo al metodo di lavoro,
condizioni di esecuzione, cronoprogramma, controllo di qualità). Si No
Se No, le possibili cause sono: (Inserire 0-5)
30.1 Nessuna discrezionalità sugli orari di inizio/fine lavoro.
30.2 Nessun supporto organizzativo per quanto riguarda la richiesta di assistenza sul lavoro.
30.3 Numero insufficiente di persone per il compito (lavoro di squadra).
30.4 Rigidità nei metodi e nelle condizioni di lavoro.
XV. Feedback sul lavoro (intrinseco ed estrinseco)
31. Il lavoro consente un feedback diretto delle informazioni sulla qualità
e la quantità della propria prestazione. Si No
In caso negativo, i motivi sono: (Inserire 0-5)
31.1 Nessun ruolo partecipativo nelle informazioni sui compiti e nel processo decisionale.
31.2 Vincoli di contatto sociale dovuti a barriere fisiche.
31.3 Difficoltà di comunicazione a causa dell'elevato livello di rumore.
31.4 Aumento della richiesta di attenzione nel ritmo della macchina.
31.5 Altre persone (dirigenti, collaboratori) informano il lavoratore circa la sua efficacia nella prestazione lavorativa.
XVI. Varietà/chiarezza dei compiti
32. Il lavoro ha una varietà di compiti e richiede spontaneità da parte del lavoratore. Si No
Se No, valuta quanto segue: (Inserisci 0-5)
32.1 I ruoli e gli obiettivi lavorativi sono ambigui.
32.2 La restrizione del lavoro è imposta da una macchina, un processo o un gruppo di lavoro.
32.3 Il rapporto uomo-macchina suscita conflitto sul comportamento che deve essere manifestato dall'operatore.
32.4 Livello limitato di stimolazione (ad esempio, ambiente visivo e uditivo immutabile).
32.5 Elevato livello di noia sul lavoro.
32.6 Spazio limitato per l'allargamento dei posti di lavoro.
XVII. Compito Identità/Significato
33. Al lavoratore viene assegnata una serie di attività Sì/No
e organizza il proprio programma per completare il lavoro
(ad esempio, uno pianifica ed esegue il lavoro e ispeziona e
gestisce i prodotti).
Assegna il tuo punteggio di accordo/disaccordo (0-5)
34. Il lavoro è importante nell'organizzazione. Si No
Fornisce riconoscimento e riconoscimento da parte degli altri.
(Dai il tuo punteggio di accordo/disaccordo)
XVIII. Sovraccarico/sottocarico mentale
35. Il lavoro consiste in compiti per i quali una comunicazione chiara e
sono disponibili sistemi informativi univoci di supporto. Si No
Se No, valuta quanto segue: (Inserisci 0-5)
35.1 Le informazioni fornite in relazione al lavoro sono ampie.
35.2 È richiesta la gestione delle informazioni sotto pressione (ad es. manovre di emergenza nel controllo di processo).
35.3 Elevato carico di lavoro per la gestione delle informazioni (per es., compito di posizionamento difficile, non è richiesta alcuna motivazione speciale).
35.4 L'attenzione occasionale è rivolta a informazioni diverse da quelle necessarie per l'attività effettiva.
35.5 Il compito consiste in un semplice atto motorio ripetitivo, che richiede un'attenzione superficiale.
35.6 Strumenti/attrezzature non sono pre-posizionati per evitare ritardi mentali.
35.7 Sono richieste scelte multiple nel processo decisionale e nella valutazione dei rischi.
(Commenti e suggerimenti, punti da 30 a 35.7)
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
XIX. Formazione e Promozione
36. Il lavoro ha opportunità per la crescita associata della competenza
e realizzazione del compito. Si No
Se No, le possibili cause sono: (Inserire 0-5)
36.1 Nessuna possibilità di avanzamento a livelli superiori.
36.2 Nessuna formazione periodica per gli operatori, specifica per le mansioni.
36.3 I programmi/strumenti di formazione non sono facili da apprendere e utilizzare.
36.4 Assenza di schemi retributivi incentivanti.
XX. Impegno organizzativo
37. Impegno definito nei confronti dell'organizzazione Sì/No
efficacia e benessere fisico, mentale e sociale.
Valuta il grado di disponibilità di quanto segue: (Inserisci 0-5)
37.1 Ruolo organizzativo nei conflitti e nelle ambiguità di ruolo individuali.
37.2 Servizi medico-amministrativi per interventi preventivi in caso di rischi sul lavoro.
37.3 Misure promozionali per il controllo dell'assenteismo nei gruppi di lavoro.
37.4 Norme di sicurezza efficaci.
37.5 Ispezione del lavoro e monitoraggio delle migliori pratiche di lavoro.
37.6 Azione di follow-up per la gestione degli incidenti/infortuni.
Il foglio di valutazione riassuntiva può essere utilizzato per la profilazione e il raggruppamento di un gruppo selezionato di elementi, che possono costituire la base per decisioni sui sistemi di lavoro. Il processo di analisi richiede spesso tempo e gli utenti di questi strumenti devono avere una solida formazione in ergonomia sia teorica che pratica, nella valutazione dei sistemi di lavoro.
SCHEDA DI SINTESI VALUTAZIONE
A. Breve descrizione dell'organizzazione, caratteristiche dei lavoratori e descrizione delle mansioni
.................................................. .................................................. .................................................. .................................................. ....................
.................................................. .................................................. .................................................. .................................................. ....................
Accordo di gravità |
||||||||||
moduli |
sezioni |
No. di |
|
|
|
|
|
|
Relativo |
Articolo n. |
B. meccanicistico |
I. Specializzazione professionale II. Requisiti di abilità |
4 5 |
||||||||
C. Biologico |
III. Attività fisica generale IV. Movimentazione manuale dei materiali V. posto di lavoro/progettazione del posto di lavoro VI. Postura di lavoro VII. Ambiente di lavoro VIII. Orario di lavoro |
5 6 15 6 28 5 |
||||||||
D. Percettivo/motorio |
IX. Visualizza X. Controlli |
12 10 |
||||||||
E. Tecnico |
XI. Macchinari XII. Piccoli strumenti/attrezzi XIII. Lavora in sicurezza |
10 8 5 |
||||||||
F. Psicosociale |
XIV. Autonomia del lavoro XV. Feedback sul lavoro XVI. Varietà/chiarezza dei compiti XVII. Compito Identità/Significato XVIII. Sovraccarico/sottocarico mentale XIX. Formazione e Promozione XX. Impegno organizzativo |
5 5 6 2 7 4 6 |
Valutazione complessiva
Accordo di gravità dei moduli |
Commento |
||
A |
|||
B |
|||
C |
|||
D |
|||
E |
|||
F |
|||
Analista del lavoro: |
Ci sono spesso grandi differenze tra gli esseri umani nell'intensità della risposta alle sostanze chimiche tossiche e variazioni nella suscettibilità di un individuo nel corso della vita. Questi possono essere attribuiti a una varietà di fattori in grado di influenzare il tasso di assorbimento, la distribuzione nel corpo, la biotrasformazione e/o il tasso di escrezione di una particolare sostanza chimica. Oltre ai noti fattori ereditari che è stato chiaramente dimostrato essere collegati all'aumentata suscettibilità alla tossicità chimica nell'uomo (vedi “Determinanti genetici della risposta tossica”), altri fattori includono: caratteristiche costituzionali legate all'età e al sesso; stati patologici preesistenti o riduzione della funzione d'organo (non ereditari, cioè acquisiti); abitudini alimentari, fumo, consumo di alcol e uso di farmaci; concomitante esposizione a biotossine (microrganismi vari) e fattori fisici (radiazioni, umidità, temperature estremamente basse o elevate o pressioni barometriche particolarmente rilevanti per la pressione parziale di un gas), nonché concomitante esercizio fisico o situazioni di stress psicologico; precedente esposizione professionale e/o ambientale a una particolare sostanza chimica, e in particolare esposizione concomitante ad altre sostanze chimiche, non necessariamente tossici (p. es., metalli essenziali). I possibili contributi dei suddetti fattori all'aumento o alla diminuzione della suscettibilità agli effetti avversi sulla salute, nonché i meccanismi della loro azione, sono specifici per una particolare sostanza chimica. Pertanto qui verranno presentati solo i fattori più comuni, i meccanismi di base e alcuni esempi caratteristici, mentre le informazioni specifiche relative a ciascuna particolare sostanza chimica possono essere trovate altrove in questo Enciclopedia.
A seconda dello stadio in cui agiscono questi fattori (assorbimento, distribuzione, biotrasformazione o escrezione di una particolare sostanza chimica), i meccanismi possono essere approssimativamente classificati in base a due conseguenze fondamentali dell'interazione: (1) un cambiamento nella quantità della sostanza chimica in un organo bersaglio, cioè nel sito(i) del suo effetto nell'organismo (interazioni tossicocinetiche), o (2) un cambiamento nell'intensità di una risposta specifica alla quantità della sostanza chimica in un organo bersaglio (interazioni tossicodinamiche) . I meccanismi più comuni di entrambi i tipi di interazione sono correlati alla competizione con altre sostanze chimiche per il legame con gli stessi composti coinvolti nel loro trasporto nell'organismo (p. es., proteine sieriche specifiche) e/o per lo stesso percorso di biotrasformazione (p. es., enzimi specifici) determinando un cambiamento nella velocità o nella sequenza tra la reazione iniziale e l'effetto negativo finale sulla salute. Tuttavia, sia le interazioni tossicocinetiche che quelle tossicodinamiche possono influenzare la suscettibilità individuale a una particolare sostanza chimica. L'influenza di diversi fattori concomitanti può risultare in: (a) effetti additivi—l'intensità dell'effetto combinato è uguale alla somma degli effetti prodotti da ciascun fattore separatamente, (b) effetti sinergici— l'intensità dell'effetto combinato è maggiore della somma degli effetti prodotti da ciascun fattore separatamente, o (c) effetti antagonistici—l'intensità dell'effetto combinato è inferiore alla somma degli effetti prodotti da ciascun fattore separatamente.
La quantità di una particolare sostanza chimica tossica o di un metabolita caratteristico nel sito(i) del suo effetto nel corpo umano può essere più o meno valutata mediante monitoraggio biologico, cioè scegliendo il campione biologico corretto e la tempistica ottimale del campionamento del campione, prendendo tiene conto delle emivite biologiche per una particolare sostanza chimica sia nell'organo critico che nel compartimento biologico misurato. Tuttavia, generalmente mancano informazioni affidabili su altri possibili fattori che potrebbero influenzare la suscettibilità individuale negli esseri umani e, di conseguenza, la maggior parte delle conoscenze riguardanti l'influenza di vari fattori si basa su dati sperimentali su animali.
Va sottolineato che in alcuni casi esistono differenze relativamente grandi tra gli esseri umani e altri mammiferi nell'intensità della risposta a un livello equivalente e/o nella durata dell'esposizione a molte sostanze chimiche tossiche; ad esempio, gli esseri umani sembrano essere notevolmente più sensibili agli effetti nocivi sulla salute di diversi metalli tossici rispetto ai ratti (comunemente utilizzati negli studi sugli animali). Alcune di queste differenze possono essere attribuite al fatto che i percorsi di trasporto, distribuzione e biotrasformazione di varie sostanze chimiche dipendono in gran parte da sottili cambiamenti nel pH dei tessuti e dall'equilibrio redox nell'organismo (così come lo sono le attività di vari enzimi), e che il sistema redox dell'uomo differisce notevolmente da quello del topo.
Questo è ovviamente il caso di importanti antiossidanti come la vitamina C e il glutatione (GSH), essenziali per il mantenimento dell'equilibrio redox e che hanno un ruolo protettivo contro gli effetti negativi dei radicali liberi di origine ossigenata o xenobiotica che sono coinvolti in un varietà di condizioni patologiche (Kehrer 1993). Gli esseri umani non possono auto-sintetizzare la vitamina C, contrariamente al ratto, e i livelli e il tasso di turnover del GSH eritrocitario negli esseri umani sono notevolmente inferiori a quelli del ratto. Gli esseri umani mancano anche di alcuni degli enzimi antiossidanti protettivi, rispetto al ratto o ad altri mammiferi (ad esempio, la GSH-perossidasi è considerata scarsamente attiva nello sperma umano). Questi esempi illustrano la potenziale maggiore vulnerabilità allo stress ossidativo negli esseri umani (in particolare nelle cellule sensibili, ad esempio, una vulnerabilità apparentemente maggiore dello sperma umano alle influenze tossiche rispetto a quella del ratto), che può provocare una risposta diversa o una maggiore suscettibilità all'influenza di vari fattori negli esseri umani rispetto ad altri mammiferi (Telišman 1995).
Influenza dell'età
Rispetto agli adulti, i bambini molto piccoli sono spesso più suscettibili alla tossicità chimica a causa dei loro volumi di inalazione relativamente maggiori e del tasso di assorbimento gastrointestinale dovuto alla maggiore permeabilità dell'epitelio intestinale e a causa dei sistemi enzimatici di disintossicazione immaturi e di un tasso di escrezione relativamente inferiore di sostanze chimiche tossiche . Il sistema nervoso centrale sembra essere particolarmente suscettibile nella fase iniziale dello sviluppo per quanto riguarda la neurotossicità di varie sostanze chimiche, ad esempio piombo e metilmercurio. D'altra parte, gli anziani possono essere suscettibili a causa della storia di esposizione chimica e dell'aumento delle riserve corporee di alcuni xenobiotici, o della funzione preesistente compromessa degli organi bersaglio e/o degli enzimi rilevanti, con conseguente riduzione della disintossicazione e del tasso di escrezione. Ciascuno di questi fattori può contribuire all'indebolimento delle difese dell'organismo: una diminuzione della capacità di riserva, che causa una maggiore suscettibilità alla successiva esposizione ad altri pericoli. Ad esempio, gli enzimi del citocromo P450 (coinvolti nei percorsi di biotrasformazione di quasi tutte le sostanze chimiche tossiche) possono essere indotti o avere un'attività ridotta a causa dell'influenza di vari fattori nel corso della vita (comprese le abitudini alimentari, il fumo, l'alcol, l'uso di farmaci e esposizione a xenobiotici ambientali).
Influenza del sesso
Differenze di suscettibilità legate al genere sono state descritte per un gran numero di sostanze chimiche tossiche (circa 200) e tali differenze si riscontrano in molte specie di mammiferi. Sembra che i maschi siano generalmente più suscettibili alle tossine renali e le femmine alle tossine epatiche. Le cause della diversa risposta tra maschi e femmine sono state correlate a differenze in una varietà di processi fisiologici (p. es., le femmine sono capaci di un'ulteriore escrezione di alcune sostanze chimiche tossiche attraverso la perdita di sangue mestruale, il latte materno e/o il trasferimento al feto, ma sperimentano ulteriore stress durante la gravidanza, il parto e l'allattamento), attività enzimatiche, meccanismi di riparazione genetica, fattori ormonali o la presenza di depositi di grasso relativamente più grandi nelle femmine, con conseguente maggiore accumulo di alcune sostanze chimiche tossiche lipofile, come solventi organici e alcuni farmaci .
Influenza delle abitudini alimentari
Le abitudini alimentari hanno un'influenza importante sulla suscettibilità alla tossicità chimica, soprattutto perché un'alimentazione adeguata è essenziale per il funzionamento del sistema di difesa chimica del corpo nel mantenimento di una buona salute. Un'adeguata assunzione di metalli essenziali (compresi i metalloidi) e proteine, in particolare gli amminoacidi contenenti zolfo, è necessaria per la biosintesi di vari enzimi disintossicanti e la fornitura di glicina e glutatione per le reazioni di coniugazione con composti endogeni ed esogeni. I lipidi, in particolare i fosfolipidi, e i lipotropi (donatori di gruppi metilici) sono necessari per la sintesi delle membrane biologiche. I carboidrati forniscono l'energia necessaria per vari processi di disintossicazione e forniscono acido glucuronico per la coniugazione di sostanze chimiche tossiche e dei loro metaboliti. Il selenio (un metalloide essenziale), il glutatione e le vitamine come la vitamina C (solubile in acqua), la vitamina E e la vitamina A (solubile nei lipidi) hanno un ruolo importante come antiossidanti (p. es., nel controllo della perossidazione lipidica e nel mantenimento dell'integrità delle membrane cellulari) e scavenger di radicali liberi per la protezione contro sostanze chimiche tossiche. Inoltre, vari costituenti della dieta (contenuto di proteine e fibre, minerali, fosfati, acido citrico, ecc.) così come la quantità di cibo consumato possono influenzare notevolmente il tasso di assorbimento gastrointestinale di molte sostanze chimiche tossiche (p. es., il tasso medio di assorbimento di sostanze solubili i sali di piombo assunti con i pasti è di circa l'60%, contro il XNUMX% circa dei soggetti a digiuno). Tuttavia, la dieta stessa può essere un'ulteriore fonte di esposizione individuale a varie sostanze chimiche tossiche (p. es., assunzione giornaliera notevolmente aumentata e accumulo di arsenico, mercurio, cadmio e/o piombo nei soggetti che consumano pesce contaminato).
Influenza del fumo
L'abitudine al fumo può influenzare la suscettibilità individuale a molte sostanze chimiche tossiche a causa della varietà di possibili interazioni che coinvolgono il gran numero di composti presenti nel fumo di sigaretta (soprattutto idrocarburi policiclici aromatici, monossido di carbonio, benzene, nicotina, acroleina, alcuni pesticidi, cadmio e , in misura minore, piombo e altri metalli tossici, ecc.), alcuni dei quali sono in grado di accumularsi nel corpo umano nel corso della vita, compresa la vita prenatale (es. piombo e cadmio). Le interazioni si verificano principalmente perché varie sostanze chimiche tossiche competono per gli stessi siti di legame per il trasporto e la distribuzione nell'organismo e/o per lo stesso percorso di biotrasformazione che coinvolge particolari enzimi. Ad esempio, diversi costituenti del fumo di sigaretta possono indurre gli enzimi del citocromo P450, mentre altri possono deprimerne l'attività e quindi influenzare le comuni vie di biotrasformazione di molte altre sostanze chimiche tossiche, come i solventi organici e alcuni farmaci. Il fumo eccessivo di sigarette per un lungo periodo può ridurre considerevolmente i meccanismi di difesa del corpo diminuendo la capacità di riserva per far fronte all'influenza negativa di altri fattori legati allo stile di vita.
Influenza dell'alcol
Il consumo di alcol (etanolo) può influenzare la suscettibilità a molte sostanze chimiche tossiche in diversi modi. Può influenzare il tasso di assorbimento e la distribuzione di alcune sostanze chimiche nel corpo, ad esempio aumentare il tasso di assorbimento gastrointestinale del piombo o diminuire il tasso di assorbimento polmonare del vapore di mercurio inibendo l'ossidazione necessaria per la ritenzione del vapore di mercurio inalato. L'etanolo può anche influenzare la suscettibilità a varie sostanze chimiche attraverso cambiamenti a breve termine nel pH dei tessuti e aumento del potenziale redox derivante dal metabolismo dell'etanolo, poiché sia l'ossidazione dell'etanolo ad acetaldeide che l'ossidazione dell'acetaldeide ad acetato producono un equivalente di nicotinammide adenina dinucleotide (NADH) e idrogeno (h+). Poiché l'affinità di metalli e metalloidi essenziali e tossici per il legame con vari composti e tessuti è influenzata dal pH e dai cambiamenti nel potenziale redox (Telišman 1995), anche un'assunzione moderata di etanolo può comportare una serie di conseguenze quali: ( 1) ridistribuzione del piombo accumulato a lungo termine nell'organismo umano a favore di una frazione di piombo biologicamente attiva, (2) sostituzione dello zinco essenziale con piombo negli enzimi contenenti zinco, influenzando così l'attività enzimatica o l'influenza della mobilità piombo sulla distribuzione di altri metalli e metalloidi essenziali nell'organismo come calcio, ferro, rame e selenio, (3) aumento dell'escrezione urinaria di zinco e così via. L'effetto di possibili eventi di cui sopra può essere aumentato a causa del fatto che le bevande alcoliche possono contenere una quantità apprezzabile di piombo proveniente da recipienti o lavorazioni (Prpic-Majic et al. 1984; Telišman et al. 1984; 1993).
Un altro motivo comune per i cambiamenti di suscettibilità correlati all'etanolo è che molte sostanze chimiche tossiche, ad esempio vari solventi organici, condividono lo stesso percorso di biotrasformazione che coinvolge gli enzimi del citocromo P450. A seconda dell'intensità dell'esposizione ai solventi organici, nonché della quantità e della frequenza dell'ingestione di etanolo (cioè consumo acuto o cronico di alcol), l'etanolo può diminuire o aumentare i tassi di biotrasformazione di vari solventi organici e quindi influenzare la loro tossicità (Sato 1991). .
Influenza dei farmaci
L'uso comune di vari farmaci può influenzare la suscettibilità alle sostanze chimiche tossiche principalmente perché molti farmaci si legano alle proteine del siero e quindi influenzano il trasporto, la distribuzione o il tasso di escrezione di varie sostanze chimiche tossiche, o perché molti farmaci sono in grado di indurre importanti enzimi disintossicanti o deprimerne l'attività (ad esempio, gli enzimi del citocromo P450), influenzando così la tossicità delle sostanze chimiche con lo stesso percorso di biotrasformazione. Caratteristico per entrambi i meccanismi è l'aumento dell'escrezione urinaria di acido tricloroacetico (il metabolita di diversi idrocarburi clorurati) quando si usano salicilati, sulfamidici o fenilbutazone e un'aumentata epato-nefrotossicità del tetracloruro di carbonio quando si usa il fenobarbital. Inoltre, alcuni farmaci contengono una quantità considerevole di una sostanza chimica potenzialmente tossica, ad esempio gli antiacidi contenenti alluminio o le preparazioni utilizzate per la gestione terapeutica dell'iperfosfatemia derivante dall'insufficienza renale cronica.
Influenza dell'esposizione concomitante ad altri prodotti chimici
I cambiamenti nella suscettibilità agli effetti avversi sulla salute dovuti all'interazione di varie sostanze chimiche (ad es. possibili effetti additivi, sinergici o antagonisti) sono stati studiati quasi esclusivamente negli animali da esperimento, principalmente nel ratto. Mancano studi epidemiologici e clinici rilevanti. Ciò è motivo di preoccupazione in particolare considerando l'intensità relativamente maggiore della risposta o la varietà di effetti avversi sulla salute di diverse sostanze chimiche tossiche negli esseri umani rispetto al ratto e ad altri mammiferi. A parte i dati pubblicati nel campo della farmacologia, la maggior parte dei dati si riferisce solo a combinazioni di due diverse sostanze chimiche all'interno di gruppi specifici, come vari pesticidi, solventi organici o metalli e metalloidi essenziali e/o tossici.
L'esposizione combinata a vari solventi organici può provocare vari effetti additivi, sinergici o antagonisti (a seconda della combinazione di alcuni solventi organici, della loro intensità e durata dell'esposizione), principalmente a causa della capacità di influenzare la reciproca biotrasformazione (Sato 1991).
Un altro esempio caratteristico sono le interazioni di metalli e metalloidi essenziali e/o tossici, in quanto questi sono coinvolti nella possibile influenza dell'età (p. es., un accumulo corporeo nel corso della vita di piombo ambientale e cadmio), del sesso (p. es., comune carenza di ferro nelle donne ), abitudini alimentari (p. es., aumento dell'assunzione dietetica di metalli e metalloidi tossici e/o carente assunzione dietetica di metalli e metalloidi essenziali), abitudine al fumo e consumo di alcol (p. es., esposizione aggiuntiva a cadmio, piombo e altri metalli tossici) e uso di farmaci (p. es., una singola dose di antiacido può comportare un aumento di 50 volte dell'assunzione giornaliera media di alluminio attraverso il cibo). La possibilità di vari effetti additivi, sinergici o antagonisti dell'esposizione a vari metalli e metalloidi nell'uomo può essere illustrata da esempi di base relativi ai principali elementi tossici (vedi tabella 1), oltre ai quali possono verificarsi ulteriori interazioni perché gli elementi essenziali possono anche influenzare l'un l'altro (ad esempio, il ben noto effetto antagonista del rame sulla velocità di assorbimento gastrointestinale così come sul metabolismo dello zinco e viceversa). La causa principale di tutte queste interazioni è la competizione di vari metalli e metalloidi per lo stesso sito di legame (in particolare il gruppo sulfidrilico, -SH) in vari enzimi, metalloproteine (in particolare metallotioneina) e tessuti (p. es., membrane cellulari e barriere di organi). Queste interazioni possono avere un ruolo rilevante nello sviluppo di diverse malattie croniche che sono mediate dall'azione dei radicali liberi e dello stress ossidativo (Telišman 1995).
Tabella 1. Effetti fondamentali di possibili interazioni multiple riguardanti i principali metalli e matalloidi tossici e/o essenziali nei mammiferi
Metallo tossico o metalloide | Effetti fondamentali dell'interazione con altri metalli o metalloidi |
Alluminio (Al) | Diminuisce il tasso di assorbimento di Ca e compromette il metabolismo di Ca; una dieta carente di Ca aumenta il tasso di assorbimento di Al. Altera il metabolismo dei fosfati. I dati sulle interazioni con Fe, Zn e Cu sono equivoci (cioè il possibile ruolo di un altro metallo come mediatore). |
Arsenico (As) | Influisce sulla distribuzione di Cu (un aumento di Cu nel rene e una diminuzione di Cu nel fegato, nel siero e nelle urine). Altera il metabolismo di Fe (un aumento di Fe nel fegato con concomitante diminuzione dell'ematocrito). Zn diminuisce il tasso di assorbimento dell'As inorganico e diminuisce la tossicità dell'As. Se diminuisce la tossicità di As e viceversa. |
Cadmio (Cd) | Diminuisce il tasso di assorbimento di Ca e compromette il metabolismo di Ca; una dieta carente di Ca aumenta il tasso di assorbimento di Cd. Altera il metabolismo dei fosfati, cioè aumenta l'escrezione urinaria di fosfati. Altera il metabolismo di Fe; una dieta carente di Fe aumenta il tasso di assorbimento di Cd. Influisce sulla distribuzione di Zn; Zn diminuisce la tossicità del Cd, mentre la sua influenza sul tasso di assorbimento del Cd è equivoca. Se diminuisce la tossicità del Cd. Mn diminuisce la tossicità del Cd a bassi livelli di esposizione al Cd. I dati sull'interazione con Cu sono equivoci (cioè, il possibile ruolo di Zn, o di un altro metallo, come mediatore). Alti livelli dietetici di Pb, Ni, Sr, Mg o Cr(III) possono diminuire il tasso di assorbimento di Cd. |
Mercurio (Hg) | Colpisce la distribuzione di Cu (un aumento di Cu nel fegato). Zn diminuisce il tasso di assorbimento di Hg inorganico e diminuisce la tossicità di Hg. Se diminuisce la tossicità del Hg. Il Cd aumenta la concentrazione di Hg nel rene, ma allo stesso tempo diminuisce la tossicità del Hg nel rene (l'influenza della sintesi di metallotioneina indotta dal Cd). |
Piombo (Pb) | Altera il metabolismo del Ca; una dieta carente di Ca aumenta il tasso di assorbimento del Pb inorganico e aumenta la tossicità del Pb. Altera il metabolismo di Fe; una carenza di Fe nella dieta aumenta la tossicità del Pb, mentre la sua influenza sul tasso di assorbimento del Pb è equivoca. Altera il metabolismo di Zn e aumenta l'escrezione urinaria di Zn; una carenza di Zn nella dieta aumenta il tasso di assorbimento del Pb inorganico e aumenta la tossicità del Pb. Se diminuisce la tossicità del Pb. I dati sulle interazioni con Cu e Mg sono equivoci (cioè, il possibile ruolo di Zn, o di un altro metallo, come mediatore). |
Nota: i dati sono per lo più relativi a studi sperimentali nel ratto, mentre mancano dati clinici ed epidemiologici rilevanti (in particolare per quanto riguarda le relazioni quantitative dose-risposta) (Elsenhans et al. 1991; Fergusson 1990; Telišman et al. 1993).
Il monitoraggio biologico umano utilizza campioni di fluidi corporei o altro materiale biologico facilmente reperibile per la misurazione dell'esposizione a sostanze specifiche o non specifiche e/o ai loro metaboliti o per la misurazione degli effetti biologici di tale esposizione. Il monitoraggio biologico consente di stimare l'esposizione individuale totale attraverso diverse vie di esposizione (polmoni, pelle, tratto gastrointestinale) e diverse fonti di esposizione (aria, dieta, stile di vita o occupazione). È anche noto che in situazioni di esposizione complesse, che molto spesso si incontrano nei luoghi di lavoro, diversi agenti espositivi possono interagire tra loro potenziando o inibendo gli effetti dei singoli composti. E poiché gli individui differiscono nella loro costituzione genetica, mostrano variabilità nella loro risposta alle esposizioni chimiche. Pertanto, può essere più ragionevole cercare i primi effetti direttamente negli individui o nei gruppi esposti piuttosto che tentare di prevedere i potenziali pericoli dei complessi modelli di esposizione dai dati relativi ai singoli composti. Questo è un vantaggio del biomonitoraggio genetico per gli effetti precoci, un approccio che utilizza tecniche che si concentrano sul danno citogenetico, sulle mutazioni puntiformi o sugli addotti del DNA nel tessuto umano surrogato (vedere l'articolo "Principi generali" in questo capitolo).
Cos'è la genotossicità?
La genotossicità degli agenti chimici è un carattere chimico intrinseco, basato sul potenziale elettrofilo dell'agente di legarsi con tali siti nucleofili nelle macromolecole cellulari come l'acido desossiribonucleico, il DNA, il portatore di informazioni ereditarie. La genotossicità è quindi la tossicità manifestata nel materiale genetico delle cellule.
La definizione di genotossicità, come discusso in un rapporto di consenso (IARC 1992), è ampia e include sia effetti diretti che indiretti nel DNA: (1) l'induzione di mutazioni (gene, cromosomiche, genomiche, ricombinanti) che a livello molecolare sono simili a eventi noti per essere coinvolti nella cancerogenesi, (2) eventi surrogati indiretti associati alla mutagenesi (per es. sintesi non programmata del DNA (UDS) e scambio di cromatidi fratelli (SCE), o (3) danno al DNA (per es. ), che possono eventualmente portare a mutazioni.
Genotossicità, mutagenicità e cancerogenicità
Le mutazioni sono cambiamenti ereditari permanenti nelle linee cellulari, orizzontalmente nelle cellule somatiche o verticalmente nelle cellule germinali (sessuali) del corpo. Cioè, le mutazioni possono influenzare l'organismo stesso attraverso cambiamenti nelle cellule del corpo, oppure possono essere trasmesse ad altre generazioni attraverso l'alterazione delle cellule sessuali. La genotossicità precede quindi la mutagenicità sebbene la maggior parte della genotossicità sia riparata e non sia mai espressa come mutazioni. Le mutazioni somatiche sono indotte a livello cellulare e nel caso in cui portino alla morte cellulare oa tumori maligni, possono manifestarsi come vari disturbi dei tessuti o dell'organismo stesso. Si pensa che le mutazioni somatiche siano correlate agli effetti dell'invecchiamento o all'induzione di placche aterosclerotiche (vedi figura 1 e il capitolo Cancro).
Figura 1. Vista schematica del paradigma scientifico in tossicologia genetica ed effetti sulla salute umana
Le mutazioni nella linea cellulare germinale possono essere trasferite allo zigote - la cellula uovo fecondata - ed essere espresse nella generazione della prole (vedi anche il capitolo Sistema riproduttivo). I disturbi mutazionali più importanti riscontrati nel neonato sono indotti dalla malsegregazione dei cromosomi durante la gametogenesi (lo sviluppo delle cellule germinali) e provocano gravi sindromi cromosomiche (p. es., trisomia 21 o sindrome di Down e monosomia X o sindrome di Turner).
Il paradigma della genotossicologia dall'esposizione agli effetti previsti può essere semplificato come mostrato nella figura 1.
La relazione tra genotossicità e cancerogenicità è ben supportata da vari fatti di ricerca indiretti, come mostrato nella figura 2.
Figura 2. Le interrelazioni di genotossicità e cancerogenicità
Questa correlazione fornisce la base per l'applicazione di biomarcatori di genotossicità da utilizzare nel monitoraggio umano come indicatori di rischio di cancro.
Tossicità genetica nell'identificazione dei pericoli
Il ruolo dei cambiamenti genetici nella cancerogenesi sottolinea l'importanza dei test di tossicità genetica nell'identificazione di potenziali agenti cancerogeni. Sono stati sviluppati vari metodi di test a breve termine in grado di rilevare alcuni degli endpoint di genotossicità presumibilmente rilevanti nella cancerogenesi.
Sono state condotte diverse indagini approfondite per confrontare la cancerogenicità delle sostanze chimiche con i risultati ottenuti esaminandole in test a breve termine. La conclusione generale è stata che poiché nessun singolo test convalidato può fornire informazioni su tutti gli end-point genetici sopra menzionati; è necessario testare ciascuna sostanza chimica in più di un test. Inoltre, il valore dei test a breve termine di tossicità genetica per la previsione della cancerogenicità chimica è stato discusso e rivisto ripetutamente. Sulla base di tali revisioni, un gruppo di lavoro presso l'Agenzia internazionale per la ricerca sul cancro (IARC) ha concluso che la maggior parte degli agenti cancerogeni per l'uomo dà risultati positivi nei test a breve termine utilizzati di routine come il Salmonella saggio e i saggi di aberrazione cromosomica (tabella 1). Tuttavia, bisogna rendersi conto che gli agenti cancerogeni epigenetici - come i composti ormonalmente attivi che possono aumentare l'attività genotossica senza essere essi stessi genotossici - non possono essere rilevati da test a breve termine, che misurano solo l'attività genotossica intrinseca di una sostanza.
Tabella 1. Genotossicità delle sostanze chimiche valutata nei Supplementi 6 e 7 alle Monografie IARC (1986)
Classificazione di cancerogenicità |
Rapporto di evidenza di genotossicità/cancerogenicità |
% |
1: cancerogeni per l'uomo |
24/30 |
80 |
2A: probabili cancerogeni per l'uomo |
14/20 |
70 |
2B: possibili cancerogeni per l'uomo |
72/128 |
56 |
3: non classificabile |
19/66 |
29 |
Biomonitoraggio genetico
Il monitoraggio genetico utilizza metodi di tossicologia genetica per il monitoraggio biologico degli effetti genetici o la valutazione dell'esposizione genotossica in un gruppo di individui con esposizione definita in un luogo di lavoro o attraverso l'ambiente o lo stile di vita. Pertanto, il monitoraggio genetico ha il potenziale per l'identificazione precoce delle esposizioni genotossiche in un gruppo di persone e consente l'identificazione delle popolazioni ad alto rischio e quindi delle priorità di intervento. L'uso di biomarcatori predittivi in una popolazione esposta è giustificato per risparmiare tempo (rispetto alle tecniche epidemiologiche) e per prevenire effetti finali non necessari, in particolare il cancro (figura 3).
Figura 3. La predittività dei biomarcatori consente di intraprendere azioni preventive per ridurre i rischi per la salute nelle popolazioni umane
I metodi attualmente utilizzati per il biomonitoraggio dell'esposizione genotossica e dei primi effetti biologici sono elencati nella tabella 2. I campioni utilizzati per il biomonitoraggio devono soddisfare diversi criteri, inclusa la necessità che siano facilmente ottenibili e confrontabili con il tessuto bersaglio.
Tabella 2. Biomarcatori nel monitoraggio genetico dell'esposizione alla genotossicità e campioni di cellule/tessuti più comunemente utilizzati.
Marker di monitoraggio genetico |
Campioni di cellule/tessuti |
Aberrazioni cromosomiche (CA) |
linfociti |
Scambi di cromatidi fratelli (SCE) |
linfociti |
Micronuclei (MN) |
linfociti |
Mutazioni puntiformi (p. es., gene HPRT) |
Linfociti e altri tessuti |
addotti del DNA |
DNA isolato da cellule/tessuti |
Addotti proteici |
Emoglobina, albumina |
Rottura del filamento di DNA |
DNA isolato da cellule/tessuti |
Attivazione dell'oncogene |
DNA o proteine specifiche isolate |
Mutazioni/oncoproteine |
Varie cellule e tessuti |
Riparazione del DNA |
Cellule isolate da campioni di sangue |
I tipi di danno al DNA molecolarmente riconoscibile includono la formazione di addotti al DNA e la riorganizzazione della sequenza del DNA. Questi tipi di danno possono essere rilevati mediante misurazioni degli addotti del DNA utilizzando varie tecniche, ad esempio la marcatura 32P o la rilevazione di anticorpi monoclonali contro gli addotti del DNA. La misurazione delle rotture del filamento di DNA viene convenzionalmente eseguita utilizzando analisi di eluizione alcalina o di svolgimento. Le mutazioni possono essere rilevate sequenziando il DNA di un gene specifico, ad esempio il gene HPRT.
Sono apparsi diversi rapporti metodologici che discutono in dettaglio le tecniche della tabella 2 (CEC 1987; IARC 1987, 1992, 1993).
La genotossicità può anche essere monitorata indirettamente attraverso la misurazione degli addotti proteici, cioè nell'emoglobina anziché nel DNA, o il monitoraggio dell'attività di riparazione del DNA. Come strategia di misurazione, l'attività di monitoraggio può essere una tantum o continua. In tutti i casi i risultati devono essere applicati allo sviluppo di condizioni di lavoro sicure.
Biomonitoraggio citogenetico
Una logica teorica ed empirica collega il cancro al danno cromosomico. Gli eventi mutazionali che alterano l'attività o l'espressione dei geni del fattore di crescita sono passaggi chiave nella carcinogenesi. Molti tipi di cancro sono stati associati ad aberrazioni cromosomiche specifiche o non specifiche. In diverse malattie umane ereditarie, l'instabilità cromosomica è associata a una maggiore suscettibilità al cancro.
La sorveglianza citogenetica delle persone esposte a sostanze chimiche cancerogene e/o mutagene oa radiazioni può portare alla luce effetti sul materiale genetico degli individui interessati. Gli studi sull'aberrazione cromosomica delle persone esposte a radiazioni ionizzanti sono stati applicati per la dosimetria biologica per decenni, ma risultati positivi ben documentati sono ancora disponibili solo per un numero limitato di cancerogeni chimici.
Il danno cromosomico microscopicamente riconoscibile comprende sia le aberrazioni cromosomiche strutturali (CA), in cui si è verificato un cambiamento grossolano nella morfologia (forma) di un cromosoma, sia gli scambi di cromatidi fratelli (SCE). SCE è lo scambio simmetrico di materiali cromosomici tra due cromatidi fratelli. I micronuclei (MN) possono derivare da frammenti di cromosomi acentrici o da interi cromosomi in ritardo. Questi tipi di modifiche sono illustrati nella figura 4.
Figura 4. Cromosomi dei linfociti umani in metafase, che rivelano una mutazione cromosomica indotta (freccia che punta a un frammento acentrico)
I linfociti del sangue periferico nell'uomo sono cellule adatte per essere utilizzate negli studi di sorveglianza a causa della loro facile accessibilità e perché possono integrare l'esposizione per una durata di vita relativamente lunga. L'esposizione a una varietà di mutageni chimici può provocare un aumento delle frequenze di CA e/o SCE nei linfociti del sangue di soggetti esposti. Inoltre, l'entità del danno è approssimativamente correlata all'esposizione, sebbene ciò sia stato dimostrato solo con poche sostanze chimiche.
Quando i test citogenetici sui linfociti del sangue periferico mostrano che il materiale genetico è stato danneggiato, i risultati possono essere utilizzati per stimare il rischio solo a livello di popolazione. Una maggiore frequenza di CA in una popolazione dovrebbe essere considerata un'indicazione di un aumento del rischio di cancro, ma i test citogenetici non consentono, in quanto tali, la previsione del rischio individuale di cancro.
Il significato per la salute del danno genetico somatico visto attraverso la finestra ristretta di un campione di linfociti del sangue periferico ha poco o nessun significato per la salute di un individuo, poiché la maggior parte dei linfociti portatori di danno genetico muoiono e vengono sostituiti.
Problemi e loro controllo negli studi di biomonitoraggio umano
Nell'applicazione di qualsiasi metodo di biomonitoraggio umano è necessaria una progettazione rigorosa dello studio, poiché molti fattori interindividuali che non sono correlati alle specifiche esposizioni chimiche di interesse possono influenzare le risposte biologiche studiate. Poiché gli studi di biomonitoraggio umano sono noiosi e difficili sotto molti aspetti, è molto importante un'attenta pianificazione preliminare. Nell'esecuzione di studi citogenetici umani, la conferma sperimentale del potenziale dannoso per i cromosomi dell'agente o degli agenti espositori dovrebbe sempre essere un prerequisito sperimentale.
Negli studi di biomonitoraggio citogenetico sono stati documentati due tipi principali di variazioni. Il primo include fattori tecnici associati alle discrepanze nella lettura dei vetrini e alle condizioni di coltura, in particolare al tipo di terreno, alla temperatura e alla concentrazione di sostanze chimiche (come la bromodeossiuridina o la citocalasina-B). Inoltre, i tempi di campionamento possono alterare i rendimenti delle aberrazioni cromosomiche e forse anche i risultati dell'incidenza di SCE, attraverso i cambiamenti nelle sottopopolazioni di linfociti T e B. Nelle analisi del micronucleo, le differenze metodologiche (ad esempio, l'uso di cellule binucleate indotte dalla citocalasina-B) influenzano abbastanza chiaramente i risultati del punteggio.
Le lesioni indotte nel DNA dei linfociti dall'esposizione chimica che portano alla formazione di aberrazioni cromosomiche strutturali, scambio di cromatidi fratelli e micronuclei devono persistere in vivo fino a quando il sangue non viene prelevato e poi in vitro fino a quando il linfocita in coltura inizia la sintesi del DNA. È quindi importante valutare le cellule subito dopo la prima divisione (nel caso di aberrazioni cromosomiche o micronuclei) o dopo la seconda divisione (scambi di cromatidi fratelli) per ottenere la migliore stima del danno indotto.
Il punteggio costituisce un elemento estremamente importante nel biomonitoraggio citogenetico. I vetrini devono essere randomizzati e codificati per evitare il più possibile errori di valutazione. Dovrebbero essere mantenuti criteri di punteggio coerenti, controllo di qualità e analisi statistiche standardizzate e rapporti. La seconda categoria di variabilità è dovuta a condizioni associate ai soggetti, come età, sesso, farmaci e infezioni. Le variazioni individuali possono anche essere causate dalla suscettibilità genetica agli agenti ambientali.
È fondamentale ottenere un gruppo di controllo simultaneo che corrisponda il più possibile a fattori interni come sesso ed età, nonché a fattori come l'abitudine al fumo, le infezioni virali e le vaccinazioni, l'assunzione di alcol e droghe e l'esposizione ai raggi X. . Inoltre, è necessario ottenere stime qualitative (categoria professionale, anni di esposizione) e quantitative (ad es. campioni di aria della zona di respirazione per analisi chimiche e metaboliti specifici, se possibile) o l'esposizione all'agente o agli agenti genotossici presunti sul posto di lavoro. Particolare attenzione dovrebbe essere prestata al corretto trattamento statistico dei risultati.
Rilevanza del biomonitoraggio genetico per la valutazione del rischio di cancro
Il numero di agenti ripetutamente dimostrato di indurre cambiamenti citogenetici negli esseri umani è ancora relativamente limitato, ma la maggior parte degli agenti cancerogeni noti inducono danni nei cromosomi dei linfociti.
L'entità del danno è una funzione del livello di esposizione, come è stato dimostrato essere il caso, ad esempio, di cloruro di vinile, benzene, ossido di etilene e agenti antitumorali alchilanti. Anche se gli endpoint citogenetici non sono molto sensibili o specifici per quanto riguarda la rilevazione delle esposizioni che si verificano negli attuali contesti occupazionali, i risultati positivi di tali test hanno spesso richiesto l'attuazione di controlli igienici anche in assenza di prove dirette relative a danni cromosomici somatici a esiti avversi per la salute.
La maggior parte dell'esperienza con l'applicazione del biomonitoraggio citogenetico deriva da situazioni occupazionali di “alta esposizione”. Pochissime esposizioni sono state confermate da diversi studi indipendenti e la maggior parte di queste è stata eseguita utilizzando il biomonitoraggio dell'aberrazione cromosomica. Il database dell'Agenzia internazionale per la ricerca sul cancro elenca nei suoi volumi aggiornati 43-50 delle monografie IARC un totale di 14 cancerogeni occupazionali nei gruppi 1, 2A o 2B, per i quali sono disponibili dati citogenetici umani positivi che nella maggior parte dei casi sono supportato dalla corrispondente citogenetica animale (tabella 3). Questo database limitato suggerisce che esiste una tendenza delle sostanze chimiche cancerogene ad essere clastogeniche e che la clastogenicità tende ad essere associata a cancerogeni umani noti. Chiaramente, tuttavia, non tutti gli agenti cancerogeni inducono danni citogenetici nell'uomo o negli animali da esperimento in vivo. I casi in cui i dati sugli animali sono positivi ei risultati sull'uomo sono negativi possono rappresentare differenze nei livelli di esposizione. Inoltre, le esposizioni umane complesse ea lungo termine sul posto di lavoro potrebbero non essere paragonabili agli esperimenti sugli animali a breve termine.
Tabella 3. Agenti cancerogeni per l'uomo provati, probabili e possibili per i quali esiste un'esposizione professionale e per i quali sono stati misurati endpoint citogenetici sia nell'uomo che negli animali da esperimento
Reperti citogenici1 |
||||||
Gli esseri umani |
Animali |
|||||
Agente/esposizione |
CA |
SCE |
MN |
CA |
SCE |
MN |
GRUPPO 1, cancerogeni per l'uomo |
||||||
Arsenico e composti dell'arsenico |
? |
? |
|
+ |
|
+ |
Amianto |
|
? |
|
- |
|
- |
Benzene |
+ |
|
|
+ |
+ |
+ |
Bis(clorometil)etere e clorometil metil etere (grado tecnico) |
(+) |
|
|
- |
|
|
Ciclofosfamide |
+ |
+ |
|
+ |
+ |
+ |
Composti del cromo esavalente |
+ |
+ |
|
+ |
+ |
+ |
melfalan |
+ |
+ |
|
+ |
|
|
Composti di nichel |
+ |
- |
|
? |
|
|
Radon |
+ |
|
|
- |
|
|
Fumo di tabacco |
+ |
+ |
+ |
|
+ |
|
Cloruro di vinile |
+ |
? |
|
+ |
+ |
+ |
GRUPPO 2A, Probabili cancerogeni per l'uomo |
||||||
acrilonitrile |
- |
|
|
- |
|
- |
adriamicina |
+ |
+ |
|
+ |
+ |
+ |
Cadmio e composti di cadmio |
- |
(-) |
|
- |
|
|
cisplatino |
|
+ |
|
+ |
+ |
|
epicloridrina |
+ |
|
|
? |
+ |
- |
Dibromuro di etilene |
- |
- |
|
- |
+ |
- |
Ossido di etilene |
+ |
+ |
+ |
+ |
+ |
+ |
Formaldehyde |
? |
? |
|
- |
|
- |
GRUPPO 2B, Possibili cancerogeni per l'uomo |
||||||
Erbicidi clorofenossi (2,4-D e 2,4,5-T) |
- |
- |
|
+ |
+ |
- |
DDT |
? |
|
|
+ |
|
- |
Dimetilformammide |
(+) |
|
|
|
- |
- |
Composti di piombo |
? |
? |
|
? |
- |
? |
Styrene |
+ |
? |
+ |
? |
+ |
+ |
2,3,7,8-Tetraclorodibenzo-para-diossina |
? |
|
|
- |
- |
- |
Fumi di saldatura |
+ |
+ |
|
- |
- |
|
1 CA, aberrazione cromosomica; SCE, scambio di cromatidi fratelli; MN, micronuclei.
(–) = relazione negativa per uno studio; – = relazione negativa;
(+) = relazione positiva per uno studio; + = relazione positiva;
? = inconcludente; area vuota = non studiato
Fonte: IARC, 1987; aggiornato attraverso i volumi 43-50 delle monografie IARC.
Gli studi sulla genotossicità negli esseri umani esposti includono vari punti finali diversi dai punti terminali cromosomici, come danni al DNA, attività di riparazione del DNA e addotti nel DNA e nelle proteine. Alcuni di questi punti finali possono essere più rilevanti di altri per la previsione del rischio cancerogeno. I cambiamenti genetici stabili (p. es., riarrangiamenti cromosomici, delezioni e mutazioni puntiformi) sono molto rilevanti, poiché è noto che questi tipi di danno sono correlati alla carcinogenesi. Il significato degli addotti del DNA dipende dalla loro identificazione chimica e dalla prova che derivano dall'esposizione. Alcuni endpoint, come SCE, UDS, SSB, rottura del filamento di DNA, sono potenziali indicatori e/o marcatori di eventi genetici; tuttavia, il loro valore è ridotto in assenza di una comprensione meccanicistica della loro capacità di portare a eventi genetici. Chiaramente, il marcatore genetico più rilevante nell'uomo sarebbe l'induzione di una mutazione specifica che è stata direttamente associata al cancro nei roditori esposti all'agente oggetto di studio (figura 5).
Figura 5. Rilevanza dei diversi effetti del biomonitoraggio genetico per il potenziale rischio di cancro
Considerazioni etiche per il biomonitoraggio genetico
I rapidi progressi nelle tecniche genetiche molecolari, la maggiore velocità di sequenziamento del genoma umano e l'identificazione del ruolo dei geni oncosoppressori e dei proto-oncogeni nella carcinogenesi umana sollevano questioni etiche nell'interpretazione, comunicazione e utilizzo di questo tipo di informazione personale. Tecniche in rapido miglioramento per l'analisi dei geni umani consentiranno presto l'identificazione di ancora più geni di suscettibilità ereditaria in individui sani e asintomatici (US Office of Technology Assessment 1990), prestandosi ad essere utilizzati nello screening genetico.
Se l'applicazione dello screening genetico diventerà presto una realtà, sorgeranno molte questioni di interesse sociale ed etico. Già attualmente circa 50 tratti genetici di metabolismo, polimorfismi enzimatici e riparazione del DNA sono sospettati di sensibilità a malattie specifiche ed è disponibile un test diagnostico del DNA per circa 300 malattie genetiche. Dovrebbe essere eseguito uno screening genetico sul posto di lavoro? Chi decide chi sarà sottoposto al test e come verranno utilizzate le informazioni nelle decisioni sull'assunzione? Chi avrà accesso alle informazioni ottenute dallo screening genetico e come verranno comunicati i risultati alle persone coinvolte? Molte di queste domande sono fortemente legate alle norme sociali e ai valori etici prevalenti. L'obiettivo principale deve essere la prevenzione delle malattie e della sofferenza umana, ma occorre rispettare la volontà e le premesse etiche proprie dell'individuo. Alcune delle questioni etiche rilevanti a cui è necessario rispondere molto prima dell'inizio di qualsiasi studio di biomonitoraggio sul posto di lavoro sono riportate nella tabella 4 e sono discusse anche nel capitolo Problemi etici.
Tabella 4. Alcuni principi etici relativi alla necessità di conoscere negli studi di biomonitoraggio genetico occupazionale
Gruppi a cui vengono fornite informazioni |
|||
Informazioni date |
Persone studiate |
Unità di salute sul lavoro |
Datore di lavoro |
Cosa si sta studiando |
|||
Perché viene eseguito lo studio |
|||
Ci sono rischi coinvolti |
|||
Questioni di riservatezza |
|||
Preparazione per possibili miglioramenti igienici, riduzioni dell'esposizione indicate |
Tempo e impegno devono essere dedicati alla fase di pianificazione di qualsiasi studio di biomonitoraggio genetico e tutte le parti necessarie - i dipendenti, i datori di lavoro e il personale medico del posto di lavoro che collabora - devono essere ben informate prima dello studio e i risultati resi noti a anche loro dopo lo studio. Con cure adeguate e risultati affidabili, il biomonitoraggio genetico può contribuire a garantire luoghi di lavoro più sicuri e migliorare la salute dei lavoratori.
È stato a lungo riconosciuto che la risposta di ogni persona alle sostanze chimiche ambientali è diversa. La recente esplosione della biologia molecolare e della genetica ha portato a una comprensione più chiara delle basi molecolari di tale variabilità. I principali determinanti della risposta individuale alle sostanze chimiche comprendono importanti differenze tra più di una dozzina di superfamiglie di enzimi, collettivamente denominate xenobiotico- (estraneo al corpo) o metabolizzazione del farmaco enzimi. Sebbene il ruolo di questi enzimi sia stato classicamente considerato quello della disintossicazione, questi stessi enzimi convertono anche un certo numero di composti inerti in intermedi altamente tossici. Recentemente, sono state identificate molte differenze sottili e grossolane nei geni che codificano questi enzimi, che hanno dimostrato di provocare variazioni marcate nell'attività enzimatica. È ormai chiaro che ogni individuo possiede un complemento distinto di attività enzimatiche di metabolizzazione degli xenobiotici; questa diversità potrebbe essere pensata come una "impronta digitale metabolica". È la complessa interazione di queste molte diverse superfamiglie di enzimi che alla fine determina non solo il destino e il potenziale di tossicità di una sostanza chimica in un dato individuo, ma anche la valutazione dell'esposizione. In questo articolo abbiamo scelto di utilizzare la superfamiglia degli enzimi del citocromo P450 per illustrare i notevoli progressi compiuti nella comprensione della risposta individuale alle sostanze chimiche. Lo sviluppo di test basati sul DNA relativamente semplici, progettati per identificare specifiche alterazioni geniche in questi enzimi, sta ora fornendo previsioni più accurate della risposta individuale all'esposizione chimica. Speriamo che il risultato sia una tossicologia preventiva. In altre parole, ogni individuo potrebbe venire a conoscenza di quelle sostanze chimiche alle quali è particolarmente sensibile, evitando così tossicità o tumori precedentemente imprevedibili.
Sebbene non sia generalmente apprezzato, gli esseri umani sono esposti quotidianamente a una raffica di innumerevoli sostanze chimiche diverse. Molte di queste sostanze chimiche sono altamente tossiche e derivano da un'ampia varietà di fonti ambientali e alimentari. La relazione tra tali esposizioni e la salute umana è stata, e continua ad essere, uno dei principali obiettivi degli sforzi della ricerca biomedica in tutto il mondo.
Quali sono alcuni esempi di questo bombardamento chimico? Più di 400 sostanze chimiche del vino rosso sono state isolate e caratterizzate. Si stima che almeno 1,000 sostanze chimiche vengano prodotte da una sigaretta accesa. Ci sono innumerevoli sostanze chimiche nei cosmetici e nei saponi profumati. Un'altra importante fonte di esposizione chimica è l'agricoltura: solo negli Stati Uniti, i terreni agricoli ricevono più di 75,000 sostanze chimiche ogni anno sotto forma di pesticidi, erbicidi e agenti fertilizzanti; dopo l'assorbimento da parte delle piante e degli animali al pascolo, così come dei pesci nei corsi d'acqua vicini, gli esseri umani (alla fine della catena alimentare) ingeriscono queste sostanze chimiche. Altre due fonti di grandi concentrazioni di sostanze chimiche introdotte nel corpo includono (a) droghe assunte cronicamente e (b) esposizione a sostanze pericolose sul posto di lavoro per tutta la vita lavorativa.
È ormai accertato che l'esposizione chimica può influire negativamente su molti aspetti della salute umana, causando malattie croniche e lo sviluppo di molti tipi di cancro. Nell'ultimo decennio circa, le basi molecolari di molte di queste relazioni hanno cominciato a essere svelate. Inoltre, è emersa la consapevolezza che gli esseri umani differiscono notevolmente nella loro suscettibilità agli effetti dannosi dell'esposizione chimica.
Gli attuali sforzi per prevedere la risposta umana all'esposizione chimica combinano due approcci fondamentali (figura 1): monitorare l'entità dell'esposizione umana attraverso marcatori biologici (biomarcatori) e prevedere la probabile risposta di un individuo a un dato livello di esposizione. Sebbene entrambi questi approcci siano estremamente importanti, va sottolineato che i due sono nettamente diversi l'uno dall'altro. Questo articolo si concentrerà sul fattori genetici sottostante suscettibilità individuale a qualsiasi particolare esposizione chimica. Questo campo di ricerca è ampiamente definito ecogenetica, o farmacogenetica (vedi Kalow 1962 e 1992). Molti dei recenti progressi nella determinazione della suscettibilità individuale alla tossicità chimica si sono evoluti da un maggiore apprezzamento dei processi mediante i quali gli esseri umani e altri mammiferi disintossicano le sostanze chimiche e la notevole complessità dei sistemi enzimatici coinvolti.
Figura 1. Le interrelazioni tra la valutazione dell'esposizione, le differenze etniche, l'età, la dieta, la nutrizione e la valutazione della suscettibilità genetica, che giocano tutte un ruolo nel rischio individuale di tossicità e cancro
Per prima cosa descriveremo la variabilità delle risposte tossiche negli esseri umani. Introdurremo quindi alcuni degli enzimi responsabili di tale variazione nella risposta, dovuta a differenze nel metabolismo di sostanze chimiche estranee. Successivamente, verranno dettagliate la storia e la nomenclatura della superfamiglia del citocromo P450. Verranno brevemente descritti cinque polimorfismi P450 umani e diversi polimorfismi non P450; questi sono responsabili delle differenze umane nella risposta tossica. Discuteremo quindi un esempio per sottolineare il fatto che le differenze genetiche negli individui possono influenzare la valutazione dell'esposizione, come determinato dal monitoraggio ambientale. Infine, discuteremo il ruolo di questi enzimi metabolizzanti xenobiotici nelle funzioni vitali critiche.
Variazione nella risposta tossica tra la popolazione umana
Tossicologi e farmacologi parlano comunemente di dose letale media per il 50% della popolazione (LD50), la dose massima media tollerata per il 50% della popolazione (MTD50), e la dose media efficace di un particolare farmaco per il 50% della popolazione (ED50). Tuttavia, in che modo queste dosi influiscono su ciascuno di noi su base individuale? In altre parole, un individuo altamente sensibile può essere 500 volte più colpito o 500 volte più probabilità di essere colpito rispetto all'individuo più resistente in una popolazione; per queste persone il D.L50 (e MTD50 e ED50) i valori avrebbero poco significato. L.D50, MTD50 e ED50 i valori sono rilevanti solo se riferiti alla popolazione nel suo complesso.
Figure 2 illustra un'ipotetica relazione dose-risposta per una risposta tossica da parte di individui in una data popolazione. Questo diagramma generico potrebbe rappresentare il carcinoma broncogeno in risposta al numero di sigarette fumate, la cloracne in funzione dei livelli di diossina sul posto di lavoro, l'asma in funzione delle concentrazioni atmosferiche di ozono o aldeide, le scottature solari in risposta alla luce ultravioletta, la diminuzione del tempo di coagulazione come una funzione di assunzione di aspirina, o disturbi gastrointestinali in risposta al numero di jalapeno peperoni consumati. Generalmente, in ciascuno di questi casi, maggiore è l'esposizione, maggiore è la risposta tossica. La maggior parte della popolazione mostrerà la media e la deviazione standard della risposta tossica in funzione della dose. Il "valore anomalo resistente" (in basso a destra nella figura 2) è un individuo che ha una risposta minore a dosi o esposizioni più elevate. Un "valore anomalo sensibile" (in alto a sinistra) è un individuo che ha una risposta esagerata a una dose o esposizione relativamente piccola. Questi valori anomali, con differenze estreme nella risposta rispetto alla maggior parte degli individui nella popolazione, possono rappresentare importanti varianti genetiche che possono aiutare gli scienziati nel tentativo di comprendere i meccanismi molecolari alla base di una risposta tossica.
Figura 2. Relazione generica tra qualsiasi risposta tossica e la dose di qualsiasi agente ambientale, chimico o fisico
Utilizzando questi valori anomali negli studi sulla famiglia, gli scienziati di numerosi laboratori hanno iniziato ad apprezzare l'importanza dell'ereditarietà mendeliana per una data risposta tossica. Successivamente, si può quindi rivolgersi alla biologia molecolare e agli studi genetici per individuare il meccanismo sottostante a livello genico (genotipo) responsabile della malattia causata dall'ambiente (fenotipo).
Enzimi che metabolizzano farmaci e xenobiotici
Come risponde il corpo alla miriade di sostanze chimiche esogene a cui siamo esposti? Gli esseri umani e altri mammiferi hanno sviluppato sistemi enzimatici metabolici altamente complessi che comprendono più di una dozzina di superfamiglie distinte di enzimi. Quasi tutte le sostanze chimiche a cui gli esseri umani sono esposti saranno modificate da questi enzimi, al fine di facilitare la rimozione della sostanza estranea dal corpo. Collettivamente, questi enzimi sono spesso indicati come enzimi che metabolizzano i farmaci or enzimi metabolizzanti xenobiotici. In realtà, entrambi i termini sono termini impropri. In primo luogo, molti di questi enzimi non solo metabolizzano i farmaci, ma centinaia di migliaia di sostanze chimiche ambientali e dietetiche. In secondo luogo, tutti questi enzimi hanno anche normali composti corporei come substrati; nessuno di questi enzimi metabolizza solo sostanze chimiche estranee.
Per più di quattro decenni, i processi metabolici mediati da questi enzimi sono stati comunemente classificati come reazioni di Fase I o di Fase II (figura 3). Le reazioni di fase I ("funzionalizzazione") generalmente comportano modifiche strutturali relativamente minori della sostanza chimica madre tramite ossidazione, riduzione o idrolisi al fine di produrre un metabolita più solubile in acqua. Spesso le reazioni di Fase I forniscono una "maniglia" per ulteriori modifiche di un composto mediante successive reazioni di Fase II. Le reazioni di fase I sono principalmente mediate da una superfamiglia di enzimi altamente versatili, denominati collettivamente citocromi P450, sebbene possano essere coinvolte anche altre superfamiglie di enzimi (figura 4).
Figura 3. La designazione classica degli enzimi di fase I e di fase II che metabolizzano xenobiotici o farmaci
Figura 4. Esempi di enzimi che metabolizzano i farmaci
Le reazioni di fase II comportano l'accoppiamento di una molecola endogena idrosolubile a una sostanza chimica (sostanza chimica madre o metabolita di fase I) per facilitare l'escrezione. Le reazioni di fase II sono spesso chiamate reazioni di "coniugazione" o "derivatizzazione". Le superfamiglie di enzimi che catalizzano le reazioni di Fase II sono generalmente denominate in base alla porzione di coniugazione endogena coinvolta: ad esempio, acetilazione da parte delle N-acetiltransferasi, solfatazione da parte delle sulfotransferasi, coniugazione del glutatione da parte delle glutatione transferasi e glucuronidazione da parte delle UDP glucuronosiltransferasi (figura 4) . Sebbene l'organo principale del metabolismo dei farmaci sia il fegato, i livelli di alcuni enzimi che metabolizzano i farmaci sono piuttosto elevati nel tratto gastrointestinale, nelle gonadi, nei polmoni, nel cervello e nei reni, e tali enzimi sono indubbiamente presenti in una certa misura in ogni cellula vivente.
Gli enzimi che metabolizzano gli xenobiotici rappresentano un doppio taglio Swords
Man mano che apprendiamo di più sui processi biologici e chimici che portano alle aberrazioni della salute umana, è diventato sempre più evidente che gli enzimi che metabolizzano i farmaci funzionano in modo ambivalente (figura 3). Nella maggior parte dei casi, le sostanze chimiche liposolubili vengono convertite in metaboliti idrosolubili più facilmente escreti. Tuttavia, è chiaro che in molte occasioni gli stessi enzimi sono in grado di trasformare altri prodotti chimici inerti in molecole altamente reattive. Questi intermedi possono quindi interagire con macromolecole cellulari come proteine e DNA. Pertanto, per ogni sostanza chimica a cui gli esseri umani sono esposti, esiste il potenziale per i percorsi concorrenti di attivazione metabolica ed disintossicazione.
Breve rassegna di genetica
Nella genetica umana, ogni gene (luogo) si trova su una delle 23 coppie di cromosomi. Il due alleli (uno presente su ogni cromosoma della coppia) possono essere uguali, oppure possono essere diversi tra loro. Ad esempio, il B ed b alleli, in cui B (occhi marroni) è dominante b (occhi azzurri): gli individui del fenotipo occhi marroni possono avere sia il BB or Bb genotipi, mentre gli individui del fenotipo occhi azzurri possono avere solo il bb genotipo.
A polimorfismo è definito come due o più fenotipi ereditati stabilmente (tratti) - derivati dallo stesso gene (s) - che sono mantenuti nella popolazione, spesso per ragioni non necessariamente ovvie. Affinché un gene sia polimorfico, il prodotto genico non deve essere essenziale per lo sviluppo, il vigore riproduttivo o altri processi vitali critici. Infatti, un "polimorfismo bilanciato", in cui l'eterozigote ha un netto vantaggio di sopravvivenza rispetto all'uno o all'altro omozigote (ad esempio, la resistenza alla malaria e l'allele dell'emoglobina falciforme) è una spiegazione comune per il mantenimento di un allele nella popolazione a livelli altrimenti inspiegabili frequenze (cfr González e Nebert 1990).
Polimorfismi umani di enzimi metabolizzanti xenobiotici
Le differenze genetiche nel metabolismo di vari farmaci e sostanze chimiche ambientali sono note da più di quattro decenni (Kalow 1962 e 1992). Queste differenze sono spesso indicate come farmacogenetica o, più in generale, polimorfismi ecogenetici. Questi polimorfismi rappresentano alleli varianti che si verificano con una frequenza relativamente alta nella popolazione e sono generalmente associati ad aberrazioni nell'espressione o nella funzione dell'enzima. Storicamente, i polimorfismi venivano solitamente identificati a seguito di risposte inaspettate agli agenti terapeutici. Più di recente, la tecnologia del DNA ricombinante ha consentito agli scienziati di identificare le precise alterazioni nei geni responsabili di alcuni di questi polimorfismi. I polimorfismi sono stati ora caratterizzati in molti enzimi che metabolizzano i farmaci, inclusi gli enzimi sia di fase I che di fase II. Man mano che vengono identificati sempre più polimorfismi, diventa sempre più evidente che ogni individuo può possedere un complemento distinto di enzimi che metabolizzano i farmaci. Questa diversità potrebbe essere descritta come una "impronta digitale metabolica". È la complessa interazione delle varie superfamiglie di enzimi che metabolizzano i farmaci all'interno di ogni individuo che alla fine determinerà la sua particolare risposta a una data sostanza chimica (Kalow 1962 e 1992; Nebert 1988; Gonzalez e Nebert 1990; Nebert e Weber 1990).
Esprimere gli enzimi metabolizzanti xenobiotici umani nella cellula Cultura
Come potremmo sviluppare migliori predittori delle risposte tossiche umane alle sostanze chimiche? I progressi nella definizione della molteplicità degli enzimi che metabolizzano i farmaci devono essere accompagnati da una conoscenza precisa di quali enzimi determinano il destino metabolico delle singole sostanze chimiche. I dati raccolti dagli studi di laboratorio sui roditori hanno sicuramente fornito informazioni utili. Tuttavia, significative differenze interspecie negli enzimi metabolizzanti xenobiotici richiedono cautela nell'estrapolare i dati alle popolazioni umane. Per superare questa difficoltà, molti laboratori hanno sviluppato sistemi in cui varie linee cellulari in coltura possono essere ingegnerizzate per produrre enzimi umani funzionali che sono stabili e in alte concentrazioni (Gonzalez, Crespi e Gelboin 1991). La riuscita produzione di enzimi umani è stata raggiunta in una varietà di diverse linee cellulari da fonti che includono batteri, lieviti, insetti e mammiferi.
Per definire il metabolismo delle sostanze chimiche in modo ancora più accurato, più enzimi sono stati anche prodotti con successo in una singola linea cellulare (Gonzalez, Crespi e Gelboin 1991). Tali linee cellulari forniscono preziose informazioni sui precisi enzimi coinvolti nell'elaborazione metabolica di un dato composto e sui probabili metaboliti tossici. Se queste informazioni possono poi essere combinate con le conoscenze riguardanti la presenza e il livello di un enzima nei tessuti umani, questi dati dovrebbero fornire preziosi predittori di risposta.
Citocromo P450
Storia e nomenclatura
La superfamiglia del citocromo P450 è una delle superfamiglie di enzimi che metabolizzano i farmaci più studiate, con una grande variabilità individuale in risposta alle sostanze chimiche. Il citocromo P450 è un termine generico conveniente usato per descrivere una grande superfamiglia di enzimi fondamentali nel metabolismo di innumerevoli substrati endogeni ed esogeni. Il termine citocromo P450 fu coniato per la prima volta nel 1962 per descrivere uno sconosciuto pigmento nelle cellule che, quando ridotte e legate con monossido di carbonio, producevano un caratteristico picco di assorbimento a 450 nm. Dall'inizio degli anni '1980, la tecnologia di clonazione del cDNA ha portato a notevoli intuizioni sulla molteplicità degli enzimi del citocromo P450. Ad oggi, sono stati identificati più di 400 geni distinti del citocromo P450 in animali, piante, batteri e lieviti. È stato stimato che qualsiasi specie di mammifero, come l'uomo, può possedere 60 o più geni P450 distinti (Nebert e Nelson 1991). La molteplicità dei geni P450 ha reso necessario lo sviluppo di un sistema di nomenclatura standardizzato (Nebert et al. 1987; Nelson et al. 1993). Proposto per la prima volta nel 1987 e aggiornato su base semestrale, il sistema di nomenclatura si basa sull'evoluzione divergente dei confronti delle sequenze di amminoacidi tra le proteine P450. I geni P450 sono divisi in famiglie e sottofamiglie: gli enzimi all'interno di una famiglia mostrano una somiglianza aminoacidica superiore al 40% e quelli all'interno della stessa sottofamiglia mostrano una somiglianza del 55%. I geni P450 sono denominati con il simbolo della radice CYP seguito da un numero arabo che designa la famiglia P450, una lettera che indica la sottofamiglia e un ulteriore numero arabo che designa il singolo gene (Nelson et al. 1993; Nebert et al. 1991). Così, CYP1A1 rappresenta il gene P450 1 nella famiglia 1 e nella sottofamiglia A.
Nel febbraio 1995, ce ne sono 403 CYP geni nel database, composto da 59 famiglie e 105 sottofamiglie. Questi includono otto famiglie eucariotiche inferiori, 15 famiglie di piante e 19 famiglie batteriche. Le 15 famiglie di geni umani P450 comprendono 26 sottofamiglie, 22 delle quali sono state mappate in posizioni cromosomiche nella maggior parte del genoma. Alcune sequenze sono chiaramente ortologhe in molte specie, ad esempio solo una CYP17 (steroide 17α-idrossilasi) è stato trovato in tutti i vertebrati esaminati fino ad oggi; altre sequenze all'interno di una sottofamiglia sono altamente duplicate, rendendo impossibile l'identificazione di coppie ortologhe (ad es. CYP2C sottofamiglia). È interessante notare che l'uomo e il lievito condividono un gene ortologo nel CYP51 famiglia. Numerose recensioni complete sono disponibili per i lettori che cercano ulteriori informazioni sulla superfamiglia P450 (Nelson et al. 1993; Nebert et al. 1991; Nebert e McKinnon 1994; Guengerich 1993; Gonzalez 1992).
Il successo del sistema di nomenclatura P450 ha portato allo sviluppo di sistemi terminologici simili per le glucuronosiltransferasi UDP (Burchell et al. 1991) e le monoossigenasi contenenti flavina (Lawton et al. 1994). Sistemi di nomenclatura simili basati sull'evoluzione divergente sono in fase di sviluppo anche per diverse altre superfamiglie di enzimi che metabolizzano i farmaci (p. es., sulfotransferasi, epossido idrolasi e aldeide deidrogenasi).
Recentemente, abbiamo diviso la superfamiglia del gene P450 dei mammiferi in tre gruppi (Nebert e McKinnon 1994): quelli coinvolti principalmente nel metabolismo chimico estraneo, quelli coinvolti nella sintesi di vari ormoni steroidei e quelli che partecipano ad altre importanti funzioni endogene. Sono gli enzimi P450 che metabolizzano gli xenobiotici ad assumere il maggior significato per la previsione della tossicità.
Enzimi P450 metabolizzanti xenobiotici
Gli enzimi P450 coinvolti nel metabolismo di composti e farmaci estranei si trovano quasi sempre all'interno delle famiglie CYP1, CYP2, CYP3 ed CYP4. Questi enzimi P450 catalizzano un'ampia varietà di reazioni metaboliche, con un singolo P450 spesso in grado di metabolizzare molti composti diversi. Inoltre, più enzimi P450 possono metabolizzare un singolo composto in siti diversi. Inoltre, un composto può essere metabolizzato nello stesso singolo sito da diversi P450, sebbene a velocità variabili.
Una delle proprietà più importanti degli enzimi P450 che metabolizzano i farmaci è che molti di questi geni sono inducibili dalle stesse sostanze che fungono da loro substrati. D'altra parte, altri geni P450 sono indotti da non substrati. Questo fenomeno di induzione enzimatica è alla base di molte interazioni farmacologiche di importanza terapeutica.
Sebbene presenti in molti tessuti, questi particolari enzimi P450 si trovano a livelli relativamente elevati nel fegato, il sito primario del metabolismo dei farmaci. Alcuni degli enzimi P450 che metabolizzano gli xenobiotici mostrano attività verso certi substrati endogeni (p. es., l'acido arachidonico). Tuttavia, si ritiene generalmente che la maggior parte di questi enzimi P450 che metabolizzano gli xenobiotici non svolga ruoli fisiologici importanti, sebbene ciò non sia stato ancora stabilito sperimentalmente. La rottura omozigote selettiva, o "knock-out", dei singoli geni P450 che metabolizzano gli xenobiotici mediante metodologie di gene targeting nei topi è probabile che fornisca presto informazioni inequivocabili per quanto riguarda i ruoli fisiologici dei P450 che metabolizzano gli xenobiotici (per una rassegna di gene targeting, vedi Capecchi 1994).
Contrariamente alle famiglie P450 che codificano enzimi coinvolti principalmente nei processi fisiologici, le famiglie che codificano enzimi P450 metabolizzanti xenobiotici mostrano una marcata specificità di specie e spesso contengono molti geni attivi per sottofamiglia (Nelson et al. 1993; Nebert et al. 1991). Data l'apparente mancanza di substrati fisiologici, è possibile che gli enzimi P450 siano presenti nelle famiglie CYP1, CYP2, CYP3 ed CYP4 che sono apparsi in passato diverse centinaia di milioni di anni si sono evoluti come mezzo per disintossicare le sostanze chimiche estranee incontrate nell'ambiente e nella dieta. Chiaramente, l'evoluzione dei P450 che metabolizzano gli xenobiotici si sarebbe verificata in un periodo di tempo che precede di gran lunga la sintesi della maggior parte delle sostanze chimiche sintetiche a cui gli esseri umani sono ora esposti. I geni di queste quattro famiglie di geni potrebbero essersi evoluti e divergere negli animali a causa della loro esposizione ai metaboliti delle piante durante gli ultimi 1.2 miliardi di anni, un processo chiamato descrittivamente "guerra animale-pianta" (Gonzalez e Nebert 1990). La guerra animale-pianta è il fenomeno in cui le piante hanno sviluppato nuove sostanze chimiche (fitoalessine) come meccanismo di difesa per prevenire l'ingestione da parte degli animali e gli animali, a loro volta, hanno risposto sviluppando nuovi geni P450 per accogliere i substrati diversificati. A fornire ulteriore slancio a questa proposta sono gli esempi recentemente descritti di guerra chimica pianta-insetto e pianta-fungo che coinvolge la disintossicazione P450 di substrati tossici (Nebert 1994).
Quella che segue è una breve introduzione a molti dei polimorfismi dell'enzima P450 che metabolizzano gli xenobiotici umani in cui si ritiene che i determinanti genetici della risposta tossica siano di grande importanza. Fino a poco tempo fa, i polimorfismi P450 erano generalmente suggeriti da una varianza inaspettata nella risposta del paziente agli agenti terapeutici somministrati. Diversi polimorfismi P450 sono infatti denominati in base al farmaco con cui il polimorfismo è stato identificato per la prima volta. Più recentemente, gli sforzi di ricerca si sono concentrati sull'identificazione degli enzimi P450 precisi coinvolti nel metabolismo delle sostanze chimiche per le quali si osserva la varianza e la caratterizzazione precisa dei geni P450 coinvolti. Come descritto in precedenza, l'attività misurabile di un enzima P450 nei confronti di una sostanza chimica modello può essere chiamata fenotipo. Le differenze alleliche in un gene P450 per ciascun individuo sono chiamate genotipo P450. Poiché sempre più controlli vengono applicati all'analisi dei geni P450, la precisa base molecolare della varianza fenotipica precedentemente documentata sta diventando più chiara.
La sottofamiglia CYP1A
I CYP1A sottofamiglia comprende due enzimi nell'uomo e in tutti gli altri mammiferi: questi sono designati CYP1A1 e CYP1A2 nella nomenclatura standard P450. Questi enzimi sono di notevole interesse, perché sono coinvolti nell'attivazione metabolica di molti procarcinogeni e sono anche indotti da diversi composti di interesse tossicologico, tra cui la diossina. Ad esempio, il CYP1A1 attiva metabolicamente molti composti presenti nel fumo di sigaretta. Il CYP1A2 attiva metabolicamente molte arilammine, associate al cancro della vescica urinaria, che si trovano nell'industria dei coloranti chimici. Il CYP1A2 attiva anche metabolicamente il 4-(metilnitrosamino)-1-(3-piridil)-1-butanone (NNK), una nitrosamina derivata dal tabacco. CYP1A1 e CYP1A2 si trovano anche a livelli più elevati nei polmoni dei fumatori di sigarette, a causa dell'induzione da parte degli idrocarburi policiclici presenti nel fumo. I livelli di attività di CYP1A1 e CYP1A2 sono quindi considerati importanti determinanti della risposta individuale a molte sostanze chimiche potenzialmente tossiche.
Interesse tossicologico per il CYP1A sottofamiglia è stata notevolmente intensificata da un rapporto del 1973 che correlava il livello di inducibilità del CYP1A1 nei fumatori di sigarette con la suscettibilità individuale al cancro del polmone (Kellermann, Shaw e Luyten-Kellermann 1973). Le basi molecolari dell'induzione di CYP1A1 e CYP1A2 sono state al centro dell'attenzione di numerosi laboratori. Il processo di induzione è mediato da una proteina chiamata recettore Ah a cui si legano le diossine e le sostanze chimiche strutturalmente correlate. Il nome Ah è derivato dal aryl hnatura idrocarburica di molti induttori del CYP1A. È interessante notare che le differenze nel gene che codifica per il recettore Ah tra ceppi di topi determinano marcate differenze nella risposta chimica e nella tossicità. Un polimorfismo nel gene del recettore Ah sembra verificarsi anche negli esseri umani: circa un decimo della popolazione mostra un'elevata induzione del CYP1A1 e può essere a maggior rischio rispetto agli altri nove decimi della popolazione per lo sviluppo di alcuni tumori indotti chimicamente. Il ruolo del recettore Ah nel controllo degli enzimi nel CYP1A sottofamiglia, e il suo ruolo come determinante della risposta umana all'esposizione chimica, è stata oggetto di diverse revisioni recenti (Nebert, Petersen e Puga 1991; Nebert, Puga e Vasiliou 1993).
Esistono altri polimorfismi che potrebbero controllare il livello delle proteine CYP1A in una cellula? Un polimorfismo in CYP1A1 è stato identificato anche il gene, e questo sembra influenzare il rischio di cancro al polmone tra i fumatori di sigarette giapponesi, sebbene questo stesso polimorfismo non sembri influenzare il rischio in altri gruppi etnici (Nebert e McKinnon 1994).
CYP2C19
Variazioni nella velocità con cui gli individui metabolizzano il farmaco anticonvulsivante (S)-mefenitoina sono state ben documentate da molti anni (Guengerich 1989). Tra il 2% e il 5% dei caucasici e fino al 25% degli asiatici sono carenti di questa attività e possono essere maggiormente a rischio di tossicità dal farmaco. È noto da tempo che questo difetto enzimatico coinvolge un membro dell'essere umano CYP2C sottofamiglia, ma la precisa base molecolare di questa carenza è stata oggetto di notevoli controversie. La ragione principale di questa difficoltà erano i sei o più geni nell'essere umano CYP2C sottofamiglia. È stato recentemente dimostrato, tuttavia, che una mutazione a base singola nel CYP2C19 gene è la causa primaria di questa deficienza (Goldstein e de Morais 1994). È stato anche sviluppato un semplice test del DNA, basato sulla reazione a catena della polimerasi (PCR), per identificare rapidamente questa mutazione nelle popolazioni umane (Goldstein e de Morais 1994).
CYP2D6
Forse la variazione più ampiamente caratterizzata in un gene P450 è quella che coinvolge il CYP2D6 gene. Sono stati descritti più di una dozzina di esempi di mutazioni, riarrangiamenti e delezioni che colpiscono questo gene (Meyer 1994). Questo polimorfismo è stato suggerito per la prima volta 20 anni fa dalla variabilità clinica nella risposta dei pazienti all'agente antiipertensivo detritiochina. Alterazioni nel CYP2D6 gene che dà origine all'attività enzimatica alterata sono quindi definiti collettivamente polimorfismo della detriticochina.
Prima dell'avvento degli studi basati sul DNA, gli individui erano stati classificati come metabolizzatori scarsi o estesi (PM, EM) di detritiochina in base alle concentrazioni di metaboliti nei campioni di urina. Ora è chiaro che le alterazioni nel CYP2D6 gene può portare a individui che mostrano non solo un metabolismo scarso o esteso della detritiochina, ma anche un metabolismo ultrarapido. La maggior parte delle alterazioni nel CYP2D6 gene sono associati a carenza parziale o totale della funzione enzimatica; tuttavia, recentemente sono stati descritti individui in due famiglie che possiedono più copie funzionali di CYP2D6 gene, dando origine al metabolismo ultrarapido dei substrati del CYP2D6 (Meyer 1994). Questa notevole osservazione fornisce nuove informazioni sull'ampio spettro di attività del CYP2D6 precedentemente osservato negli studi sulla popolazione. Le alterazioni nella funzione del CYP2D6 sono di particolare importanza, dati gli oltre 30 farmaci comunemente prescritti metabolizzati da questo enzima. La funzione del CYP2D6 di un individuo è quindi un fattore determinante della risposta sia terapeutica che tossica alla terapia somministrata. In effetti, è stato recentemente affermato che la considerazione dello stato del CYP2D6 di un paziente è necessaria per l'uso sicuro di farmaci sia psichiatrici che cardiovascolari.
Il ruolo del CYP2D6 anche il polimorfismo come determinante della suscettibilità individuale a malattie umane come il cancro del polmone e il morbo di Parkinson è stato oggetto di intensi studi (Nebert e McKinnon 1994; Meyer 1994). Sebbene le conclusioni siano difficili da definire data la diversa natura dei protocolli di studio utilizzati, la maggior parte degli studi sembra indicare un'associazione tra estensivi metabolizzatori della detriticochina (fenotipo EM) e cancro del polmone. Le ragioni di tale associazione sono attualmente poco chiare. Tuttavia, è stato dimostrato che l'enzima CYP2D6 metabolizza NNK, una nitrosamina derivata dal tabacco.
Man mano che i test basati sul DNA migliorano, consentendo una valutazione ancora più accurata dello stato del CYP2D6, si prevede che verrà chiarita la relazione precisa del CYP2D6 con il rischio di malattia. Mentre il forte metabolizzatore può essere collegato alla suscettibilità al cancro del polmone, il lento metabolizzatore (fenotipo PM) sembra essere associato al morbo di Parkinson di causa sconosciuta. Anche se questi studi sono difficili da confrontare, sembra che gli individui PM che hanno una ridotta capacità di metabolizzare i substrati del CYP2D6 (ad es.
CYP2E1
I CYP2E1 gene codifica un enzima che metabolizza molte sostanze chimiche, compresi i farmaci e molti agenti cancerogeni a basso peso molecolare. Questo enzima è interessante anche perché è altamente inducibile dall'alcol e può svolgere un ruolo nel danno epatico indotto da sostanze chimiche come cloroformio, cloruro di vinile e tetracloruro di carbonio. L'enzima si trova principalmente nel fegato e il livello dell'enzima varia notevolmente tra gli individui. Attento esame del CYP2E1 gene ha portato all'identificazione di diversi polimorfismi (Nebert e McKinnon 1994). È stata segnalata una relazione tra la presenza di alcune variazioni strutturali nel CYP2E1 gene e rischio di cancro al polmone apparentemente ridotto in alcuni studi; tuttavia, ci sono chiare differenze interetniche che richiedono chiarimenti su questa possibile relazione.
La sottofamiglia CYP3A
Negli esseri umani, quattro enzimi sono stati identificati come membri del CYP3A sottofamiglia a causa della loro somiglianza nella sequenza degli amminoacidi. Gli enzimi CYP3A metabolizzano molti farmaci comunemente prescritti come l'eritromicina e la ciclosporina. Il contaminante alimentare cancerogeno aflatossina B1 è anche un substrato del CYP3A. Un membro dell'umano CYP3A sottofamiglia, designato CYP3A4, è il principale P450 nel fegato umano oltre ad essere presente nel tratto gastrointestinale. Come è vero per molti altri enzimi P450, il livello di CYP3A4 è molto variabile tra gli individui. Un secondo enzima, denominato CYP3A5, si trova solo nel 25% circa dei fegati; la base genetica di questa scoperta non è stata chiarita. L'importanza della variabilità del CYP3A4 o del CYP3A5 come fattore nei determinanti genetici della risposta tossica non è stata ancora stabilita (Nebert e McKinnon 1994).
Polimorfismi non P450
Numerosi polimorfismi esistono anche all'interno di altre superfamiglie di enzimi metabolizzanti xenobiotici (p. es., glutatione transferasi, UDP glucuronosiltransferasi, para-ossonasi, deidrogenasi, N-acetiltransferasi e mono-ossigenasi contenenti flavina). Poiché la tossicità finale di qualsiasi intermedio generato da P450 dipende dall'efficienza delle successive reazioni di disintossicazione di fase II, il ruolo combinato di più polimorfismi enzimatici è importante nel determinare la suscettibilità alle malattie indotte chimicamente. L'equilibrio metabolico tra le reazioni di Fase I e Fase II (figura 3) è quindi probabilmente un fattore importante nelle malattie umane indotte chimicamente e nei determinanti genetici della risposta tossica.
Il polimorfismo del gene GSTM1
Un esempio ben studiato di un polimorfismo in un enzima di fase II è quello che coinvolge un membro della superfamiglia degli enzimi glutatione S-transferasi, denominato GST mu o GSTM1. Questo particolare enzima è di notevole interesse tossicologico perché sembra essere coinvolto nella successiva disintossicazione dei metaboliti tossici prodotti dalle sostanze chimiche presenti nel fumo di sigaretta da parte dell'enzima CYP1A1. Il polimorfismo identificato in questo gene della glutatione transferasi implica una totale assenza di enzima funzionale in almeno la metà di tutti i caucasici studiati. Questa mancanza di un enzima di fase II sembra essere associata a una maggiore suscettibilità al cancro del polmone. Raggruppando gli individui sulla base di entrambe le varianti CYP1A1 geni e la delezione o la presenza di un funzionale GSM1 gene, è stato dimostrato che il rischio di sviluppare il cancro del polmone indotto dal fumo varia significativamente (Kawajiri, Watanabe e Hayashi 1994). In particolare, gli individui che ne espongono uno raro CYP1A1 alterazione genica, in combinazione con l'assenza del GSM1 gene, erano a più alto rischio (fino a nove volte) di sviluppare il cancro ai polmoni se esposti a un livello relativamente basso di fumo di sigaretta. È interessante notare che sembrano esserci differenze interetniche nel significato dei geni varianti che richiedono ulteriori studi per chiarire il ruolo preciso di tali alterazioni nella suscettibilità alle malattie (Kalow 1962; Nebert e McKinnon 1994; Kawajiri, Watanabe e Hayashi 1994).
Effetto sinergico di due o più polimorfismi sul tossico risposta
Una risposta tossica a un agente ambientale può essere notevolmente esagerata dalla combinazione di due difetti farmacogenetici nello stesso individuo, ad esempio, gli effetti combinati del polimorfismo della N-acetiltransferasi (NAT2) e del polimorfismo della glucosio-6-fosfato deidrogenasi (G6PD) .
L'esposizione occupazionale alle arilammine costituisce un grave rischio di cancro della vescica urinaria. Dopo gli eleganti studi di Cartwright nel 1954, è diventato chiaro che lo stato di N-acetilatore è un determinante del cancro alla vescica indotto da coloranti azoici. Esiste una correlazione altamente significativa tra il fenotipo dell'acetilatore lento e l'insorgenza del cancro della vescica, nonché il grado di invasività di questo cancro nella parete della vescica. Al contrario, esiste un'associazione significativa tra il fenotipo dell'acetilatore rapido e l'incidenza del carcinoma del colon-retto. La N-acetiltransferasi (NAT1, NAT2) sono stati clonati e sequenziati e le analisi basate sul DNA sono ora in grado di rilevare più di una dozzina di varianti alleliche che spiegano il fenotipo dell'acetilatore lento. Il NAT2 il gene è polimorfico e responsabile della maggior parte della variabilità nella risposta tossica alle sostanze chimiche ambientali (Weber 1987; Grant 1993).
La glucosio-6-fosfato deidrogenasi (G6PD) è un enzima critico nella generazione e nel mantenimento del NADPH. Un'attività G6PD bassa o assente può portare a una grave emolisi indotta da farmaci o xenobiotici, a causa dell'assenza di livelli normali di glutatione ridotto (GSH) nei globuli rossi. La carenza di G6PD colpisce almeno 300 milioni di persone in tutto il mondo. Più del 10% dei maschi afroamericani mostra il fenotipo meno grave, mentre alcune comunità sarde mostrano il "tipo mediterraneo" più grave con frequenze che raggiungono una persona su tre. Il G6PD gene è stato clonato e localizzato nel cromosoma X, e numerose diverse mutazioni puntiformi spiegano l'elevato grado di eterogeneità fenotipica osservata negli individui con deficit di G6PD (Beutler 1992).
Il tiozalsulfone, un farmaco arilammina sulfa, è risultato causare una distribuzione bimodale dell'anemia emolitica nella popolazione trattata. Quando vengono trattati con determinati farmaci, gli individui con la combinazione del deficit di G6PD più il fenotipo dell'acetilatore lento sono più colpiti rispetto a quelli con il solo deficit di G6PD o il solo fenotipo dell'acetilatore lento. Gli acetilatori lenti carenti di G6PD sono almeno 40 volte più suscettibili rispetto agli acetilatori rapidi G6PD normali all'emolisi indotta da tiozalsulfone.
Effetto dei polimorfismi genetici sulla valutazione dell'esposizione
La valutazione dell'esposizione e il biomonitoraggio (figura 1) richiedono anche informazioni sulla composizione genetica di ciascun individuo. Data un'esposizione identica a una sostanza chimica pericolosa, il livello di addotti dell'emoglobina (o altri biomarcatori) potrebbe variare di due o tre ordini di grandezza tra gli individui, a seconda dell'impronta metabolica di ciascuna persona.
La stessa farmacogenetica combinata è stata studiata negli operai delle fabbriche chimiche in Germania (tabella 1). Gli addotti dell'emoglobina tra i lavoratori esposti all'anilina e all'acetanilide sono di gran lunga i più alti negli acetilatori lenti carenti di G6PD, rispetto agli altri possibili fenotipi farmacogenetici combinati. Questo studio ha importanti implicazioni per la valutazione dell'esposizione. Questi dati dimostrano che, sebbene due individui possano essere esposti allo stesso livello ambientale di sostanze chimiche pericolose sul posto di lavoro, la quantità di esposizione (tramite biomarcatori come gli addotti dell'emoglobina) potrebbe essere stimata essere inferiore di due o più ordini di grandezza, a causa alla predisposizione genetica sottostante dell'individuo. Allo stesso modo, il rischio risultante di un effetto negativo sulla salute può variare di due o più ordini di grandezza.
Tabella 1: addotti emoglobinici nei lavoratori esposti ad anilina e acetanilide
Stato dell'acetilatore | Carenza di G6PD | |||
Connessione | Rallentare | Non | Sì | Addotti Hgb |
+ | + | 2 | ||
+ | + | 30 | ||
+ | + | 20 | ||
+ | + | 100 |
Fonte: adattato da Lewalter e Korallus 1985.
Differenze genetiche nel legame e nel metabolismo
Va sottolineato che lo stesso caso fatto qui per il metabolismo può essere fatto anche per il legame. Le differenze ereditarie nel legame degli agenti ambientali influenzeranno notevolmente la risposta tossica. Ad esempio, le differenze nel mouse cdm gene può influenzare profondamente la sensibilità individuale alla necrosi testicolare indotta da cadmio (Taylor, Heiniger e Meier 1973). Le differenze nell'affinità di legame del recettore Ah probabilmente influenzano la tossicità e il cancro indotti dalla diossina (Nebert, Petersen e Puga 1991; Nebert, Puga e Vasiliou 1993).
La Figura 5 riassume il ruolo del metabolismo e del legame nella tossicità e nel cancro. Gli agenti tossici, così come esistono nell'ambiente o in seguito al metabolismo o al legame, provocano i loro effetti tramite un percorso genotossico (in cui si verifica un danno al DNA) o un percorso non genotossico (in cui non è necessario che si verifichino danni al DNA e mutagenesi). È interessante notare che recentemente è diventato chiaro che gli agenti "classici" che danneggiano il DNA possono operare attraverso un percorso di trasduzione del segnale non genotossico dipendente dal glutatione ridotto (GSH), che viene avviato sopra o vicino alla superficie cellulare in assenza di DNA e al di fuori del nucleo cellulare (Devary et al. 1993). Le differenze genetiche nel metabolismo e nel legame rimangono, tuttavia, come i principali determinanti nel controllo delle diverse risposte tossiche individuali.
Figura 5. I mezzi generali con cui si verifica la tossicità
Ruolo della funzione cellulare degli enzimi che metabolizzano i farmaci
La variazione su base genetica nella funzione enzimatica che metabolizza i farmaci è di grande importanza nel determinare la risposta individuale alle sostanze chimiche. Questi enzimi sono fondamentali nel determinare il destino e il decorso temporale di una sostanza chimica estranea dopo l'esposizione.
Come illustrato nella figura 5, l'importanza degli enzimi che metabolizzano i farmaci nella suscettibilità individuale all'esposizione chimica può in effetti presentare un problema molto più complesso di quanto sia evidente da questa semplice discussione del metabolismo xenobiotico. In altre parole, negli ultimi due decenni, i meccanismi genotossici (misurazione degli addotti del DNA e degli addotti proteici) sono stati fortemente enfatizzati. Tuttavia, cosa succede se i meccanismi non genotossici sono importanti almeno quanto i meccanismi genotossici nel causare risposte tossiche?
Come accennato in precedenza, i ruoli fisiologici di molti enzimi che metabolizzano i farmaci coinvolti nel metabolismo degli xenobiotici non sono stati definiti con precisione. Nebert (1994) ha proposto che, a causa della loro presenza su questo pianeta per più di 3.5 miliardi di anni, gli enzimi che metabolizzano i farmaci fossero originariamente (e sono ancora oggi principalmente) responsabili della regolazione dei livelli cellulari di molti ligandi non peptidici importanti nell'attivazione trascrizionale di geni che influenzano la crescita, il differenziamento, l'apoptosi, l'omeostasi e le funzioni neuroendocrine. Inoltre, la tossicità della maggior parte, se non di tutti, gli agenti ambientali avviene per mezzo di agonista or antagonista azione su queste vie di trasduzione del segnale (Nebert 1994). Sulla base di questa ipotesi, la variabilità genetica negli enzimi che metabolizzano i farmaci può avere effetti piuttosto drammatici su molti processi biochimici critici all'interno della cellula, portando così a differenze importanti nella risposta tossica. È infatti possibile che un tale scenario possa anche essere alla base di molte reazioni avverse idiosincratiche riscontrate in pazienti che usano farmaci comunemente prescritti.
Conclusioni
L'ultimo decennio ha visto notevoli progressi nella nostra comprensione delle basi genetiche della risposta differenziale alle sostanze chimiche nei farmaci, negli alimenti e negli inquinanti ambientali. Gli enzimi che metabolizzano i farmaci hanno una profonda influenza sul modo in cui gli esseri umani rispondono alle sostanze chimiche. Man mano che la nostra consapevolezza della molteplicità degli enzimi che metabolizzano i farmaci continua ad evolversi, siamo sempre più in grado di effettuare valutazioni migliori del rischio tossico per molti farmaci e sostanze chimiche ambientali. Questo è forse più chiaramente illustrato nel caso dell'enzima CYP2D6 citocromo P450. Utilizzando test basati sul DNA relativamente semplici, è possibile prevedere la probabile risposta di qualsiasi farmaco prevalentemente metabolizzato da questo enzima; questa previsione garantirà l'uso più sicuro di farmaci preziosi, ma potenzialmente tossici.
Il futuro vedrà senza dubbio un'esplosione nell'identificazione di ulteriori polimorfismi (fenotipi) che coinvolgono gli enzimi che metabolizzano i farmaci. Queste informazioni saranno accompagnate da test basati sul DNA migliorati e minimamente invasivi per identificare i genotipi nelle popolazioni umane.
Tali studi dovrebbero essere particolarmente istruttivi nella valutazione del ruolo delle sostanze chimiche nelle numerose malattie ambientali di origine attualmente sconosciuta. Anche la considerazione di molteplici polimorfismi enzimatici che metabolizzano farmaci, in combinazione (ad esempio, tabella 1), rappresenta probabilmente un'area di ricerca particolarmente fertile. Tali studi chiariranno il ruolo delle sostanze chimiche nella causa dei tumori. Collettivamente, queste informazioni dovrebbero consentire la formulazione di consigli sempre più personalizzati sull'evitamento di sostanze chimiche che possono essere di interesse individuale. Questo è il campo della tossicologia preventiva. Tali consigli saranno senza dubbio di grande aiuto per tutti gli individui nell'affrontare il carico chimico sempre crescente a cui siamo esposti.
" DISCLAIMER: L'ILO non si assume alcuna responsabilità per i contenuti presentati su questo portale Web presentati in una lingua diversa dall'inglese, che è la lingua utilizzata per la produzione iniziale e la revisione tra pari del contenuto originale. Alcune statistiche non sono state aggiornate da allora la produzione della 4a edizione dell'Enciclopedia (1998)."