27. Monitoreo biológico
Editor del capítulo: Robert Lauwerys
Índice del contenido
Principios generales
Vito Foà y Lorenzo Alessio
Garantía de Calidad:
D. Gompertz
Metales y Compuestos Organometálicos
P. Hoet y Robert Lauwerys
Disolventes orgánicos
Masayuki Ikeda
Productos químicos genotóxicos
marja sorsa
Los pesticidas
Marco Maroni y Adalberto Ferioli
Haga clic en un enlace a continuación para ver la tabla en el contexto del artículo.
1. ACGIH, DFG y otros valores límite para metales
2. Ejemplos de monitoreo químico y biológico
3. Monitoreo biológico para solventes orgánicos
4. Genotoxicidad de sustancias químicas evaluadas por IARC
5. Biomarcadores y algunas muestras de células/tejidos y genotoxicidad
6. Carcinógenos humanos, exposición ocupacional y criterios de valoración citogenéticos
8. Exposición por producción y uso de pesticidas
9. Toxicidad OP aguda a diferentes niveles de inhibición de ACHE
10. Variaciones de ACHE y PCHE y condiciones de salud seleccionadas
11. Actividades de la colinesterasa de personas sanas no expuestas
12. Fosfatos de alquilo urinarios y pesticidas OP
13. Mediciones de fosfatos de alquilo en orina y OP
14. Metabolitos de carbamato urinarios
15. Metabolitos de ditiocarbamato urinarios
16. Índices propuestos para el seguimiento biológico de plaguicidas
17. Valores límite biológicos recomendados (a partir de 1996)
Apunte a una miniatura para ver el título de la figura, haga clic para ver la figura en el contexto del artículo.
28. Epidemiología y Estadística
Editores de capítulos: Franco Merletti, Colin L. Soskolne y Paolo Vineis
Método Epidemiológico Aplicado a la Seguridad y Salud en el Trabajo
Franco Merletti, Colin L. Soskolne y Paolo Vineis
Asesoramiento de exposición
Sr. Gerald Ott
Resumen de las medidas de exposición en la vida laboral
Colin L. Soskolne
Medición de los efectos de las exposiciones
Shelia Hoar Zahm
Estudio de caso: Medidas
Franco Merletti, Colin L. Soskolne y Paola Vineis
Opciones en el diseño del estudio
Sven Hernberg
Problemas de validez en el diseño del estudio
Annie J. Sasco
Impacto del error de medición aleatorio
Paolo Vineis y Colin L. Soskolne
Métodos de estadística
Annibale Biggeri y Mario Braga
Evaluación de causalidad y ética en la investigación epidemiológica
paolo vineis
Estudios de casos que ilustran cuestiones metodológicas en la vigilancia de las enfermedades profesionales
Jung Der Wang
Cuestionarios en Investigación Epidemiológica
Steven D. Stellman y Colin L. Soskolne
Perspectiva Histórica del Asbesto
Lorenzo Garfinkel
Haga clic en un enlace a continuación para ver la tabla en el contexto del artículo.
1. Cinco medidas resumidas seleccionadas de exposición en la vida laboral
2. Medidas de ocurrencia de enfermedades
3. Medidas de asociación para un estudio de cohortes
4. Medidas de asociación para estudios de casos y controles
5. Diseño general de la tabla de frecuencias para datos de cohortes
6. Diseño de muestra de datos de casos y controles
7. Diseño de datos de casos y controles: un control por caso
8. Cohorte hipotética de 1950 individuos a T2
9. Índices de tendencia central y dispersión
10. Un experimento binomial y probabilidades
11. Posibles resultados de un experimento binomial
12. Distribución binomial, 15 éxitos/30 intentos
13. Distribución binomial, p = 0.25; 30 ensayos
14. error de tipo II y potencia; x = 12, n = 30, a = 0.05
15. error de tipo II y potencia; x = 12, n = 40, a = 0.05
16. 632 trabajadores expuestos al asbesto durante 20 años o más
17. O/E número de muertes entre 632 trabajadores del asbesto
Apunte a una miniatura para ver el título de la figura, haga clic para ver la figura en el contexto del artículo.
29. Ergonomía
Editores de capítulos: Wolfgang Laurig y Joachim Vedder
Índice del contenido
Descripción General
Wolfgang Laurig y Joachim Vedder
La naturaleza y los objetivos de la ergonomía
William T Singleton
Análisis de Actividades, Tareas y Sistemas de Trabajo
Véronique De Keyser
Ergonomía y Estandarización
Friedhelm Nachreiner
Listas de Verificación
Pranab Kumar Nag
Antropometría
Melchorre Masali
trabajo muscular
Juhani Smolander y Veikko Louhevaara
Posturas en el Trabajo
Ilkka Kuorinka
Biomecánica
franco darby
fatiga general
Étienne Grandjean
Fatiga y Recuperación
Rolf Helbig y Walter Röhmert
Carga de trabajo mental
hacker winfried
Vigilancia
Herbert Heuer
Fatiga mental
Pedro Richter
Organización del trabajo
Eberhard Ulich y Gudela Grote
La privación del sueño
Kazutaka Kogui
Estaciones de trabajo
roland kadefors
Herramientas
TM Fraser
Controles, Indicadores y Paneles
Karl HE Kroemer
Diseño y Procesamiento de la Información
Andries Sanders
Diseño para grupos específicos
Broma H. Grady-van den Nieuwboer
Estudio de caso: La Clasificación Internacional de Limitación Funcional en Personas
Diferencias culturales
Houshang Shahnavaz
Trabajadores de edad avanzada
Antoine Laville y Serge Volkoff
Trabajadores con Necesidades Especiales
Broma H. Grady-van den Nieuwboer
Diseño de sistemas en la fabricación de diamantes
Isacar Gilad
Ignorando los principios de diseño ergonómico: Chernobyl
Vladímir M. Munipov
Haga clic en un enlace a continuación para ver la tabla en el contexto del artículo.
1. Lista básica de núcleos antropométricos
2. Fatiga y recuperación en función de los niveles de actividad
3. Reglas de los efectos de combinación de dos factores de estrés en la deformación
4. Diferenciar entre varias consecuencias negativas de la tensión mental
5. Principios orientados al trabajo para la estructuración de la producción.
6. Participación en el contexto organizacional
7. Participación del usuario en el proceso tecnológico
8. Horarios de trabajo irregulares y privación del sueño
9. Aspectos del sueño adelantado, anclado y retrasado
10. Movimientos de control y efectos esperados
11. Relaciones de control-efecto de los controles manuales comunes
12. Reglas para la disposición de los controles.
13. Directrices para las etiquetas
Apunte a una miniatura para ver el título de la figura, haga clic para ver la figura en el contexto del artículo.
30. Higiene Ocupacional
Redactor del capítulo: Roberto F. Herrick
Índice del contenido
Metas, Definiciones e Información General
Berenice I. Ferrari Goelzer
Reconocimiento de peligros
Linnea Lillienberg
Evaluación del Clima Laboral
Lori A. Todd
Higiene Ocupacional: Control de Exposiciones a Través de la Intervención
James Stewart
La base biológica para la evaluación de la exposición
dick heederik
límites de exposición ocupacional
Dennis Paustenbach
1. Peligros de productos químicos; agentes biológicos y físicos
2. Límites de exposición ocupacional (OEL) - varios países
31. Protección personal
Redactor del capítulo: Roberto F. Herrick
Índice del contenido
Visión General y Filosofía de la Protección Personal
Roberto F. Herrick
Protectores oculares y faciales
Kikuzi Kimura
Protección para pies y piernas
Toyohiko Miura
Protección para la cabeza
Isabelle Balty y Alain Mayer
Protección auditiva
John R. Franks y Elliott H. Berger
Ropa protectora
S. Zack Mansdorf
Protección respiratoria
Tomás J. Nelson
Haga clic en un enlace a continuación para ver la tabla en el contexto del artículo.
1. Requisitos de transmitancia (ISO 4850-1979)
2. Escalas de protección: soldadura con gas y soldadura fuerte
3. Escalas de protección - corte de oxígeno
4. Balanzas de protección - corte por arco de plasma
5. Escalas de protección - soldadura por arco eléctrico o ranurado
6. Escalas de protección - soldadura por arco directo de plasma
7. Casco de seguridad: Norma ISO 3873-1977
8. Clasificación de reducción de ruido de un protector auditivo
9. Cálculo de la reducción de ruido ponderada A
10. Ejemplos de categorías de peligros dérmicos
11. Requisitos de desempeño físico, químico y biológico
12. Peligros materiales asociados con actividades particulares
13. Factores de protección asignados de ANSI Z88 2 (1992)
Apunte a una miniatura para ver el título de la figura, haga clic para ver la figura en el contexto del artículo.
32. Sistemas de Registro y Vigilancia
Redactor del capítulo: Steven D Stellman
Índice del contenido
Sistemas de Vigilancia y Notificación de Enfermedades Profesionales
Steven B Markowitz
Vigilancia de Riesgos Laborales
David H. Wegman y Steven D. Stellman
Vigilancia en países en desarrollo
David Koh y Kee-Seng Chia
Desarrollo y Aplicación de un Sistema de Clasificación de Lesiones y Enfermedades Ocupacionales
Elyce Biddle
Análisis de riesgo de lesiones y enfermedades no fatales en el lugar de trabajo
John W.Ruser
Estudio de caso: Protección de los trabajadores y estadísticas sobre accidentes y enfermedades profesionales - HVBG, Alemania
Martin Butz y Burkhard Hoffman
Estudio de caso: Wismut: revisión de la exposición al uranio
Heinz Otten y Horst Schulz
Estrategias y técnicas de medición para la evaluación de la exposición ocupacional en epidemiología
Frank Bochmann y Helmut Blome
Estudio de caso: Encuestas de salud ocupacional en China
Haga clic en un enlace a continuación para ver la tabla en el contexto del artículo.
1. Angiosarcoma del hígado - registro mundial
2. Enfermedad ocupacional, EE. UU., 1986 versus 1992
3. Muertes en EE. UU. por neumoconiosis y mesotelioma pleural
4. Ejemplo de lista de enfermedades profesionales de declaración obligatoria
5. Estructura del código de notificación de enfermedades y lesiones, EE. UU.
6. Lesiones y enfermedades ocupacionales no fatales, EE. UU. 1993
7. Riesgo de lesiones y enfermedades profesionales
8. Riesgo relativo para condiciones de movimiento repetitivo
9. Accidentes de trabajo, Alemania, 1981-93
10. Rectificadoras en accidentes metalúrgicos, Alemania, 1984-93
11. Enfermedad profesional, Alemania, 1980-93
12. Enfermedades infecciosas, Alemania, 1980-93
13. Exposición a la radiación en las minas de Wismut
14. Enfermedades profesionales en las minas de uranio de Wismut 1952-90
Apunte a una miniatura para ver el título de la figura, haga clic para ver la figura en el contexto del artículo.
33. Toxicología
Editora del capítulo: Ellen K. Silbergeld
Introducción
Ellen K. Silbergeld, editora del capítulo
Definiciones y Conceptos
Bo Holmberg, Johan Hogberg y Gunnar Johanson
toxicocinética
Dušan Djuríc
Órgano diana y efectos críticos
Marek Jakubowski
Efectos de la edad, el sexo y otros factores
Spomenka Telišman
Determinantes genéticos de la respuesta tóxica
Daniel W. Nebert y Ross A. McKinnon
Introducción y conceptos
Philip G Watanabe
Lesión celular y muerte celular
Benjamin F. Trump e Irene K. Berezesky
Toxicología genética
R. Rita Misra y Michael P. Waalkes
Inmunotoxicología
Joseph G. Vos y Henk van Loveren
Toxicología de órganos diana
Ellen K. Silbergeld
Biomarcadores
philippe grandjean
Evaluación de toxicidad genética
David M. DeMarini y James Huff
Pruebas de toxicidad in vitro
Juana Zurlo
Estructura Actividad Relaciones
Ellen K. Silbergeld
Toxicología en la regulación de la salud y la seguridad
Ellen K. Silbergeld
Principios de identificación de peligros: el enfoque japonés
Masayuki Ikeda
El enfoque de los Estados Unidos para la evaluación de riesgos de sustancias tóxicas para la reproducción y agentes neurotóxicos
Ellen K. Silbergeld
Enfoques para la identificación de peligros - IARC
Harri Vainio y Julian Wilbourn
Evaluación del riesgo de carcinógenos: otros enfoques
Cees A. van der Heijden
Haga clic en un enlace a continuación para ver la tabla en el contexto del artículo.
Apunte a una miniatura para ver el título de la figura, haga clic para ver la figura en el contexto del artículo.
Conceptos básicos y definiciones
En el lugar de trabajo, las metodologías de higiene industrial pueden medir y controlar solo los productos químicos transportados por el aire, mientras que otros aspectos del problema de los posibles agentes nocivos en el ambiente de los trabajadores, como la absorción por la piel, la ingestión y la exposición no relacionada con el trabajo, permanecen sin detectar y, por lo tanto, sin control. El monitoreo biológico ayuda a llenar este vacío.
Monitoreo biológico fue definido en un seminario de 1980, patrocinado conjuntamente por la Comunidad Económica Europea (CEE), el Instituto Nacional para la Seguridad y Salud Ocupacional (NIOSH) y la Asociación de Seguridad y Salud Ocupacional (OSHA) (Berlín, Yodaiken y Henman 1984) en Luxemburgo como “el medición y evaluación de agentes o sus metabolitos en tejidos, secreciones, excrementos, aire espirado o cualquier combinación de estos para evaluar la exposición y el riesgo para la salud en comparación con una referencia apropiada”. El monitoreo es una actividad repetitiva, regular y preventiva diseñada para conducir, si es necesario, a acciones correctivas; no debe confundirse con los procedimientos de diagnóstico.
El monitoreo biológico es una de las tres herramientas importantes en la prevención de enfermedades por agentes tóxicos en el ambiente general u ocupacional, siendo los otros dos el monitoreo ambiental y la vigilancia de la salud.
La secuencia en el posible desarrollo de dicha enfermedad puede representarse esquemáticamente de la siguiente manera: fuente-agente químico expuesto—dosis interna—efecto bioquímico o celular (reversible) —efectos sobre la salud—enfermedad. Las relaciones entre el monitoreo ambiental, biológico y de exposición y la vigilancia de la salud se muestran en la figura 1.
Figura 1. La relación entre el monitoreo ambiental, biológico y de exposición y la vigilancia de la salud
Cuando una sustancia tóxica (un químico industrial, por ejemplo) está presente en el ambiente, contamina el aire, el agua, los alimentos o las superficies en contacto con la piel; la cantidad de agente tóxico en estos medios se evalúa mediante monitoreo ambiental.
Como resultado de la absorción, distribución, metabolismo y excreción, cierta dosis interna del agente tóxico (la cantidad neta de un contaminante absorbido o pasado a través del organismo durante un intervalo de tiempo específico) se entrega efectivamente al cuerpo y se vuelve detectable en los fluidos corporales. Como resultado de su interacción con un receptor en el órgano crítico (el órgano que, bajo condiciones específicas de exposición, exhibe el primer o el más importante efecto adverso), ocurren eventos bioquímicos y celulares. Tanto la dosis interna como los efectos bioquímicos y celulares provocados pueden medirse mediante vigilancia biológica.
Vigilancia de la salud fue definido en el seminario EEC/NIOSH/OSHA de 1980 antes mencionado como “el examen médico-fisiológico periódico de los trabajadores expuestos con el objetivo de proteger la salud y prevenir enfermedades”.
El monitoreo biológico y la vigilancia de la salud son partes de un continuo que puede abarcar desde la medición de agentes o sus metabolitos en el cuerpo a través de la evaluación de efectos bioquímicos y celulares, hasta la detección de signos de deterioro reversible temprano del órgano crítico. La detección de enfermedad establecida está fuera del alcance de estas evaluaciones.
Metas del Monitoreo Biológico
El monitoreo biológico puede dividirse en (a) monitoreo de exposición y (b) monitoreo de efecto, para lo cual se utilizan indicadores de dosis interna y de efecto respectivamente.
El propósito del monitoreo biológico de la exposición es evaluar el riesgo para la salud a través de la evaluación de la dosis interna, logrando una estimación de la carga corporal biológicamente activa del químico en cuestión. Su razón de ser es garantizar que la exposición de los trabajadores no alcance niveles capaces de provocar efectos adversos. Un efecto se denomina "adverso" si hay un deterioro de la capacidad funcional, una disminución de la capacidad para compensar el estrés adicional, una disminución de la capacidad para mantener la homeostasis (un estado estable de equilibrio) o una mayor susceptibilidad a otras influencias ambientales.
Dependiendo del parámetro químico y biológico analizado, el término dosis interna puede tener diferentes significados (Bernard y Lauwerys 1987). En primer lugar, puede significar la cantidad de una sustancia química absorbida recientemente, por ejemplo, durante un solo turno de trabajo. La determinación de la concentración del contaminante en el aire alveolar o en la sangre se puede realizar durante el turno de trabajo o hasta el día siguiente (se pueden tomar muestras de sangre o aire alveolar hasta 16 horas después del final del período de exposición). . En segundo lugar, en el caso de que la sustancia química tenga una vida media biológica prolongada (por ejemplo, metales en el torrente sanguíneo), la dosis interna podría reflejar la cantidad absorbida durante un período de unos pocos meses.
En tercer lugar, el término también puede significar la cantidad de sustancia química almacenada. En este caso representa un indicador de acumulación que puede proporcionar una estimación de la concentración del químico en órganos y/o tejidos de los cuales, una vez depositado, se libera lentamente. Por ejemplo, las mediciones de DDT o PCB en la sangre podrían brindar tal estimación.
Finalmente, un valor de dosis interna puede indicar la cantidad de la sustancia química en el sitio donde ejerce sus efectos, proporcionando así información sobre la dosis biológicamente efectiva. Uno de los usos más prometedores e importantes de esta capacidad, por ejemplo, es la determinación de aductos formados por químicos tóxicos con proteína en hemoglobina o con ADN.
El seguimiento biológico de los efectos tiene como objetivo identificar alteraciones tempranas y reversibles que se desarrollan en el órgano crítico, y que, al mismo tiempo, pueden identificar individuos con signos de efectos adversos para la salud. En este sentido, el seguimiento biológico de efectos representa la principal herramienta para la vigilancia de la salud de los trabajadores.
Principales Métodos de Monitoreo
El seguimiento biológico de la exposición se basa en la determinación de indicadores de dosis interna midiendo:
Los factores que afectan la concentración de la sustancia química y sus metabolitos en la sangre o la orina se discutirán a continuación.
En cuanto a la concentración en el aire alveolar, además del nivel de exposición ambiental, los factores más importantes involucrados son la solubilidad y el metabolismo de la sustancia inhalada, la ventilación alveolar, el gasto cardíaco y la duración de la exposición (Brugnone et al. 1980).
El uso de aductos de ADN y hemoglobina en el seguimiento de la exposición humana a sustancias con potencial carcinogénico es una técnica muy prometedora para la medición de exposiciones de bajo nivel. (Debe notarse, sin embargo, que no todas las sustancias químicas que se unen a macromoléculas en el organismo humano son genotóxicas, es decir, potencialmente cancerígenas). La formación de aductos es sólo un paso en el complejo proceso de carcinogénesis. Otros eventos celulares, como la promoción y progresión de la reparación del ADN, sin duda modifican el riesgo de desarrollar una enfermedad como el cáncer. Por lo tanto, en la actualidad, la medición de los aductos debe verse limitada únicamente al control de la exposición a sustancias químicas. Esto se analiza con más detalle en el artículo “Químicos genotóxicos” más adelante en este capítulo.
El seguimiento biológico de efectos se realiza mediante la determinación de indicadores de efecto, es decir, aquellos que pueden identificar alteraciones tempranas y reversibles. Este enfoque puede proporcionar una estimación indirecta de la cantidad de sustancia química unida a los sitios de acción y ofrece la posibilidad de evaluar alteraciones funcionales en el órgano crítico en una fase temprana.
Desafortunadamente, solo podemos enumerar algunos ejemplos de la aplicación de este enfoque, a saber, (1) la inhibición de la pseudocolinesterasa por los insecticidas organofosforados, (2) la inhibición de la deshidratasa del ácido d-aminolevulínico (ALA-D) por el plomo inorgánico, y (3) el aumento de la excreción urinaria de d-ácido glucárico y porfirinas en sujetos expuestos a sustancias químicas que inducen enzimas microsomales y/oa agentes porfirogénicos (p. ej., hidrocarburos clorados).
Ventajas y limitaciones del monitoreo biológico
Para las sustancias que ejercen su toxicidad después de ingresar al organismo humano, el monitoreo biológico proporciona una evaluación más enfocada y específica del riesgo para la salud que el monitoreo ambiental. Un parámetro biológico que refleja la dosis interna nos acerca un paso más a la comprensión de los efectos adversos sistémicos que cualquier medición ambiental.
El monitoreo biológico ofrece numerosas ventajas sobre el monitoreo ambiental y, en particular, permite la evaluación de:
A pesar de estas ventajas, la monitorización biológica adolece aún hoy de importantes limitaciones, siendo las más significativas las siguientes:
Información Requerida para el Desarrollo de Métodos y Criterios para la Selección de Pruebas Biológicas
La programación del seguimiento biológico requiere las siguientes condiciones básicas:
En este contexto, la validez de una prueba es el grado en que el parámetro bajo consideración predice la situación tal como es realmente (es decir, como lo mostrarían instrumentos de medición más precisos). La validez está determinada por la combinación de dos propiedades: sensibilidad y especificidad. Si una prueba posee una alta sensibilidad, esto significa que dará pocos falsos negativos; si posee alta especificidad, dará pocos falsos positivos (CEC 1985-1989).
Relación entre exposición, dosis interna y efectos
El estudio de la concentración de una sustancia en el ambiente de trabajo y la determinación simultánea de los indicadores de dosis y efecto en sujetos expuestos permite obtener información sobre la relación entre la exposición ocupacional y la concentración de la sustancia en muestras biológicas, y entre la último y los primeros efectos de la exposición.
El conocimiento de las relaciones entre la dosis de una sustancia y el efecto que produce es un requisito indispensable para poner en marcha un programa de vigilancia biológica. La evaluación de este relación dosis-efecto se basa en el análisis del grado de asociación existente entre el indicador de dosis y el indicador de efecto y en el estudio de las variaciones cuantitativas del indicador de efecto con cada variación del indicador de dosis. (Véase también el capítulo Toxicología, para una discusión más detallada de las relaciones relacionadas con la dosis).
Con el estudio de la relación dosis-efecto es posible identificar la concentración de la sustancia tóxica a la que el indicador de efecto supera los valores actualmente considerados no nocivos. Además, de esta manera también puede ser posible examinar cuál podría ser el nivel sin efecto.
Dado que no todos los individuos de un grupo reaccionan de la misma manera, es necesario examinar la relación dosis-respuesta, es decir, estudiar cómo responde el grupo a la exposición evaluando la aparición del efecto frente a la dosis interna. El termino respuesta denota el porcentaje de sujetos en el grupo que muestran una variación cuantitativa específica de un indicador de efecto en cada nivel de dosis.
Aplicaciones prácticas del monitoreo biológico
La aplicación práctica de un programa de monitoreo biológico requiere información sobre (1) el comportamiento de los indicadores utilizados en relación con la exposición, especialmente los relacionados con el grado, la continuidad y la duración de la exposición, (2) el intervalo de tiempo entre el final de la exposición y la medición de los indicadores, y (3) todos los factores fisiológicos y patológicos distintos de la exposición que pueden alterar los niveles del indicador.
En los siguientes artículos se presentará el comportamiento de una serie de indicadores biológicos de dosis y efecto que se utilizan para monitorear la exposición ocupacional a sustancias ampliamente utilizadas en la industria. La utilidad práctica y los límites se evaluarán para cada sustancia, con especial énfasis en el momento del muestreo y los factores de interferencia. Tales consideraciones serán útiles para establecer criterios para seleccionar una prueba biológica.
Tiempo de muestreo
Al seleccionar el momento del muestreo, se deben tener en cuenta los diferentes aspectos cinéticos del producto químico; en particular, es fundamental saber cómo se absorbe la sustancia a través de los pulmones, el tracto gastrointestinal y la piel, se distribuye posteriormente a los diferentes compartimentos del cuerpo, se biotransforma y finalmente se elimina. También es importante saber si el químico puede acumularse en el cuerpo.
Con respecto a la exposición a sustancias orgánicas, el tiempo de recogida de las muestras biológicas adquiere una importancia aún mayor dada la diferente velocidad de los procesos metabólicos implicados y, en consecuencia, la excreción más o menos rápida de la dosis absorbida.
Factores de interferencia
El uso correcto de los indicadores biológicos requiere un conocimiento profundo de aquellos factores que, aunque independientes de la exposición, pueden afectar los niveles de los indicadores biológicos. Los siguientes son los tipos más importantes de factores de interferencia (Alessio, Berlin y Foà 1987).
Los factores fisiológicos, como la dieta, el sexo y la edad, por ejemplo, pueden afectar los resultados. El consumo de pescado y crustáceos puede aumentar los niveles de arsénico en orina y mercurio en sangre. En sujetos femeninos con los mismos niveles de plomo en sangre que los hombres, los valores de protoporfirina eritrocítica son significativamente más altos en comparación con los de los sujetos masculinos. Los niveles de cadmio urinario aumentan con la edad.
Entre los hábitos personales que pueden distorsionar los niveles del indicador, el tabaquismo y el consumo de alcohol cobran especial importancia. Fumar puede provocar la absorción directa de sustancias naturalmente presentes en las hojas del tabaco (p. ej., cadmio), o de contaminantes presentes en el ambiente de trabajo que se han depositado en los cigarrillos (p. ej., plomo), o de productos de combustión (p. ej., monóxido de carbono).
El consumo de alcohol puede influir en los niveles de indicadores biológicos, ya que sustancias como el plomo están presentes de forma natural en las bebidas alcohólicas. Los bebedores empedernidos, por ejemplo, muestran niveles más altos de plomo en la sangre que los sujetos de control. La ingestión de alcohol puede interferir con la biotransformación y eliminación de compuestos industriales tóxicos: con una sola dosis, el alcohol puede inhibir el metabolismo de muchos solventes, por ejemplo, tricloroetileno, xileno, estireno y tolueno, debido a su competencia con el alcohol etílico por enzimas que son esenciales para la descomposición tanto del etanol como de los disolventes. La ingestión regular de alcohol también puede afectar el metabolismo de los solventes de una manera totalmente diferente al acelerar el metabolismo de los solventes, presumiblemente debido a la inducción del sistema oxidante de los microsomas. Dado que el etanol es la sustancia más importante capaz de inducir interferencia metabólica, es recomendable determinar indicadores de exposición para solventes solo en los días en que no se haya consumido alcohol.
Hay menos información disponible sobre los posibles efectos de las drogas en los niveles de indicadores biológicos. Se ha demostrado que la aspirina puede interferir en la transformación biológica del xileno en ácido metilhipúrico, y el salicilato de fenilo, un fármaco ampliamente utilizado como analgésico, puede aumentar significativamente los niveles de fenoles urinarios. El consumo de preparados antiácidos a base de aluminio puede dar lugar a un aumento de los niveles de aluminio en plasma y orina.
Se han observado marcadas diferencias en diferentes grupos étnicos en el metabolismo de solventes ampliamente utilizados como tolueno, xileno, tricloroetileno, tetracloroetileno y metilcloroformo.
Los estados patológicos adquiridos pueden influir en los niveles de indicadores biológicos. El órgano crítico puede comportarse de forma anómala con respecto a las pruebas de seguimiento biológico tanto por la acción específica del agente tóxico como por otras razones. Un ejemplo de situaciones del primer tipo es el comportamiento de los niveles de cadmio en orina: cuando se presenta la enfermedad tubular por cadmio, la excreción urinaria aumenta notablemente y los niveles de la prueba ya no reflejan el grado de exposición. Un ejemplo del segundo tipo de situación es el aumento de los niveles de protoporfirina eritrocitaria que se observa en sujetos con deficiencia de hierro que no muestran una absorción anormal de plomo.
Los cambios fisiológicos en los medios biológicos, por ejemplo, la orina, en los que se basan las determinaciones de los indicadores biológicos, pueden influir en los valores de la prueba. A efectos prácticos, solo se pueden obtener muestras puntuales de orina de las personas durante el trabajo, y la densidad variable de estas muestras significa que los niveles del indicador pueden fluctuar ampliamente en el transcurso de un solo día.
Para superar esta dificultad, es aconsejable eliminar las muestras sobrediluidas o sobreconcentradas según la gravedad específica seleccionada o los valores de creatinina. En particular, la orina con una gravedad específica inferior a 1010 o superior a 1030 o con una concentración de creatinina inferior a 0.5 g/l o superior a 3.0 g/l debe desecharse. Varios autores también sugieren ajustar los valores de los indicadores según la gravedad específica o expresar los valores según el contenido de creatinina urinaria.
Los cambios patológicos en los medios biológicos también pueden influir considerablemente en los valores de los indicadores biológicos. Por ejemplo, en sujetos anémicos expuestos a metales (mercurio, cadmio, plomo, etc.) los niveles sanguíneos del metal pueden ser más bajos de lo esperado en base a la exposición; esto se debe al bajo nivel de glóbulos rojos que transportan el metal tóxico en la circulación sanguínea.
Por tanto, cuando las determinaciones de sustancias tóxicas o metabolitos ligados a los glóbulos rojos se realizan en sangre total, siempre es recomendable determinar el hematocrito, que da una medida del porcentaje de glóbulos en sangre total.
Exposición múltiple a sustancias tóxicas presentes en el lugar de trabajo
En el caso de exposición combinada a más de una sustancia tóxica presente en el lugar de trabajo, pueden ocurrir interferencias metabólicas que pueden alterar el comportamiento de los indicadores biológicos y generar así serios problemas de interpretación. En estudios humanos, se han demostrado interferencias, por ejemplo, en la exposición combinada a tolueno y xileno, xileno y etilbenceno, tolueno y benceno, hexano y metiletilcetona, tetracloroetileno y tricloroetileno.
En particular, cabe señalar que cuando se inhibe la biotransformación de un disolvente, se reduce la excreción urinaria de su metabolito (posible subestimación del riesgo) mientras que aumentan los niveles del disolvente en sangre y aire espirado (posible sobreestimación del riesgo).
Así, en situaciones en las que sea posible medir simultáneamente las sustancias y sus metabolitos para interpretar el grado de interferencia inhibitoria, sería útil comprobar si los niveles de los metabolitos en orina son inferiores a los esperados y al mismo tiempo si la concentración de los disolventes en sangre y/o aire espirado es mayor.
Se han descrito interferencias metabólicas para exposiciones en las que las sustancias individuales están presentes en niveles cercanos ya veces por debajo de los valores límite actualmente aceptados. Las interferencias, sin embargo, no suelen ocurrir cuando la exposición a cada sustancia presente en el lugar de trabajo es baja.
Uso Práctico de Indicadores Biológicos
Los indicadores biológicos se pueden utilizar para diversos fines en la práctica de la salud ocupacional, en particular para (1) el control periódico de trabajadores individuales, (2) el análisis de la exposición de un grupo de trabajadores y (3) las evaluaciones epidemiológicas. Las pruebas utilizadas deben poseer las características de precisión, exactitud, buena sensibilidad y especificidad para minimizar el posible número de clasificaciones falsas.
Valores de referencia y grupos de referencia
Un valor de referencia es el nivel de un indicador biológico en la población general no expuesta ocupacionalmente a la sustancia tóxica en estudio. Es necesario hacer referencia a estos valores para comparar los datos obtenidos a través de programas de monitoreo biológico en una población que se presume expuesta. Los valores de referencia no deben confundirse con los valores límite, que generalmente son los límites legales o las pautas para la exposición ocupacional y ambiental (Alessio et al. 1992).
Cuando sea necesario comparar los resultados de los análisis de grupos, se debe conocer la distribución de los valores en el grupo de referencia y en el grupo en estudio porque solo así se puede realizar una comparación estadística. En estos casos, es fundamental intentar emparejar la población general (grupo de referencia) con el grupo expuesto por características similares como sexo, edad, estilo de vida y hábitos alimentarios.
Para obtener valores de referencia fiables es necesario asegurarse de que los sujetos que componen el grupo de referencia nunca han estado expuestos a las sustancias tóxicas, ya sea laboralmente o por condiciones particulares de contaminación ambiental.
Al evaluar la exposición a sustancias tóxicas se debe tener cuidado de no incluir sujetos que, aunque no estén expuestos directamente a la sustancia tóxica en cuestión, trabajan en el mismo lugar de trabajo, ya que si estos sujetos están, de hecho, expuestos indirectamente, la exposición del grupo puede ser, en consecuencia, subestimado.
Otra práctica a evitar, aunque aún está muy extendida, es el uso como referencia de valores reportados en la literatura que se derivan de listas de casos de otros países y que a menudo pueden haber sido recopilados en regiones donde existen diferentes situaciones de contaminación ambiental.
Seguimiento periódico de trabajadores individuales
El control periódico de los trabajadores individuales es obligatorio cuando los niveles de la sustancia tóxica en la atmósfera del entorno de trabajo se acercan al valor límite. Siempre que sea posible, es recomendable comprobar simultáneamente un indicador de exposición y un indicador de efecto. Los datos así obtenidos deben compararse con los valores de referencia y los valores límite sugeridos para la sustancia en estudio (ACGIH 1993).
Análisis de un grupo de trabajadores
El análisis de un grupo se vuelve obligatorio cuando los resultados de los indicadores biológicos utilizados pueden estar marcadamente influenciados por factores independientes de la exposición (dieta, concentración o dilución de la orina, etc.) y para los cuales existe un amplio rango de valores “normales”.
Para que el estudio grupal arroje resultados útiles, el grupo debe ser suficientemente numeroso y homogéneo en cuanto a exposición, sexo y, en el caso de algunos tóxicos, antigüedad en el trabajo. Cuanto más constantes sean los niveles de exposición a lo largo del tiempo, más fiables serán los datos. Una investigación llevada a cabo en un lugar de trabajo donde los trabajadores cambian frecuentemente de departamento o trabajo tendrá poco valor. Para una evaluación correcta de un estudio de grupo no es suficiente expresar los datos solo como valores medios y rango. También se debe tener en cuenta la distribución de frecuencias de los valores del indicador biológico en cuestión.
Evaluaciones epidemiológicas
Los datos obtenidos del seguimiento biológico de grupos de trabajadores también pueden utilizarse en estudios epidemiológicos transversales o prospectivos.
Los estudios transversales se pueden utilizar para comparar las situaciones existentes en diferentes departamentos de la fábrica o en diferentes industrias para establecer mapas de riesgo para los procesos de fabricación. Una dificultad que puede encontrarse en este tipo de aplicación radica en que los controles de calidad entre laboratorios aún no están suficientemente extendidos; por lo tanto, no se puede garantizar que diferentes laboratorios produzcan resultados comparables.
Los estudios prospectivos sirven para evaluar el comportamiento a lo largo del tiempo de los niveles de exposición para comprobar, por ejemplo, la eficacia de las mejoras ambientales o para correlacionar el comportamiento de los indicadores biológicos a lo largo de los años con el estado de salud de los sujetos monitorizados. Los resultados de tales estudios a largo plazo son muy útiles para resolver problemas que involucran cambios en el tiempo. En la actualidad, el monitoreo biológico se utiliza principalmente como un procedimiento adecuado para evaluar si la exposición actual se considera “segura”, pero aún no es válido para evaluar situaciones a lo largo del tiempo. Un nivel de exposición dado que se considera seguro hoy puede dejar de considerarse como tal en algún momento en el futuro.
Aspectos Éticos
Surgen algunas consideraciones éticas en relación con el uso de la vigilancia biológica como herramienta para evaluar la toxicidad potencial. Uno de los objetivos de dicho control es recopilar suficiente información para decidir qué nivel de cualquier efecto dado constituye un efecto indeseable; en ausencia de datos suficientes, cualquier perturbación se considerará indeseable. Es necesario evaluar las implicaciones regulatorias y legales de este tipo de información. Por lo tanto, debemos buscar la discusión social y el consenso sobre las formas en que se deben utilizar mejor los indicadores biológicos. En otras palabras, se requiere educación de los trabajadores, empleadores, comunidades y autoridades reguladoras sobre el significado de los resultados obtenidos por el monitoreo biológico para que nadie se alarme indebidamente o se sienta complacido.
Debe haber una comunicación adecuada con la persona a la que se le ha realizado la prueba sobre los resultados y su interpretación. Además, se debe comunicar claramente a todos los participantes si el uso de algunos indicadores es experimental o no.
El Código Internacional de Ética para Profesionales de la Salud Ocupacional, emitido por la Comisión Internacional de Salud Ocupacional en 1992, establece que “las pruebas biológicas y otras investigaciones deben elegirse desde el punto de vista de su validez para la protección de la salud del trabajador en cuestión, teniendo debidamente en cuenta su sensibilidad, su especificidad y su valor predictivo”. No se debe hacer uso de pruebas “que no sean confiables o que no tengan un valor predictivo suficiente en relación con los requisitos del trabajo asignado”. (Ver el capítulo Cuestiones éticas para mayor discusión y el texto del Código.)
Tendencias en la Regulación y Aplicación
El control biológico puede llevarse a cabo solo para un número limitado de contaminantes ambientales debido a la disponibilidad limitada de datos de referencia apropiados. Esto impone limitaciones importantes en el uso de la vigilancia biológica en la evaluación de la exposición.
La Organización Mundial de la Salud (OMS), por ejemplo, ha propuesto valores de referencia basados en la salud solo para plomo, mercurio y cadmio. Estos valores se definen como niveles en sangre y orina no vinculados a ningún efecto adverso detectable. La Conferencia Estadounidense de Higienistas Industriales Gubernamentales (ACGIH) ha establecido índices de exposición biológica (BEI) para aproximadamente 26 compuestos; Los BEI se definen como “valores para determinantes que son indicadores del grado de exposición integrada a productos químicos industriales” (ACGIH 1995).
Definición y alcance
Ergonomía significa literalmente el estudio o la medición del trabajo. En este contexto, el término trabajo significa función humana con propósito; se extiende más allá del concepto más restringido de trabajo como trabajo por ganancia monetaria para incorporar todas las actividades mediante las cuales un operador humano racional persigue sistemáticamente un objetivo. Por lo tanto, incluye deportes y otras actividades de ocio, trabajo doméstico como el cuidado de los niños y el mantenimiento del hogar, la educación y la formación, la salud y los servicios sociales, y el control de los sistemas de ingeniería o la adaptación a ellos, por ejemplo, como pasajero en un vehículo.
El operador humano, el foco de estudio, puede ser un profesional capacitado que opera una máquina compleja en un entorno artificial, un cliente que casualmente ha comprado una nueva pieza de equipo para uso personal, un niño sentado en un salón de clases o una persona discapacitada en un silla de ruedas. El ser humano es altamente adaptable pero no infinitamente. Existen rangos de condiciones óptimas para cualquier actividad. Una de las tareas de la ergonomía es definir cuáles son estos rangos y explorar los efectos indeseables que ocurren si se transgreden los límites; por ejemplo, si se espera que una persona trabaje en condiciones de calor, ruido o vibración excesivos, o si la condición física o la carga de trabajo mental es demasiado alta o demasiado baja.
La ergonomía examina no solo la situación ambiental pasiva sino también las ventajas únicas del operador humano y las contribuciones que se pueden hacer si una situación de trabajo está diseñada para permitir y alentar a la persona a hacer el mejor uso de sus habilidades. Las habilidades humanas pueden caracterizarse no solo con referencia al operador humano genérico, sino también con respecto a aquellas habilidades más particulares que se requieren en situaciones específicas donde el alto desempeño es esencial. Por ejemplo, un fabricante de automóviles considerará el rango de tamaño físico y fuerza de la población de conductores que se espera que usen un modelo en particular para asegurarse de que los asientos sean cómodos, que los controles sean fácilmente identificables y estén al alcance, que haya una clara visibilidad hacia adelante y hacia atrás, y que los instrumentos internos sean fáciles de leer. También se tendrá en cuenta la facilidad de entrada y salida. Por el contrario, el diseñador de un coche de carreras asumirá que el conductor es atlético, por lo que la facilidad para entrar y salir, por ejemplo, no es importante y, de hecho, las características del diseño en su conjunto, en lo que se refiere al conductor, bien pueden ser importantes. adaptado a las dimensiones y preferencias de un conductor en particular para garantizar que pueda ejercer todo su potencial y habilidad como conductor.
En todas las situaciones, actividades y tareas el enfoque es la persona o personas involucradas. Se supone que la estructura, la ingeniería y cualquier otra tecnología está para servir al operador, no al revés.
Historia y estado
Hace aproximadamente un siglo se reconoció que las horas y condiciones de trabajo en algunas minas y fábricas no eran tolerables en términos de seguridad y salud, y se hizo evidente la necesidad de aprobar leyes para establecer límites permisibles en estos aspectos. La determinación y declaración de esos límites puede considerarse como el comienzo de la ergonomía. Fueron, dicho sea de paso, el comienzo de todas las actividades que ahora encuentran expresión a través del trabajo de la Organización Internacional del Trabajo (OIT).
La investigación, el desarrollo y la aplicación procedieron lentamente hasta la Segunda Guerra Mundial. Esto desencadenó un desarrollo muy acelerado de máquinas e instrumentación, como vehículos, aeronaves, tanques, armas y dispositivos de detección y navegación muy mejorados. A medida que avanzaba la tecnología, se disponía de una mayor flexibilidad para permitir la adaptación al operador, una adaptación que se hizo más necesaria porque la actuación humana limitaba el rendimiento del sistema. Si un vehículo motorizado puede viajar a una velocidad de solo unos pocos kilómetros por hora, no hay necesidad de preocuparse por el desempeño del conductor, pero cuando la velocidad máxima del vehículo aumenta por un factor de diez o cien, entonces el conductor tiene para reaccionar más rápidamente y no hay tiempo para corregir errores para evitar el desastre. Del mismo modo, a medida que se mejora la tecnología, hay menos necesidad de preocuparse por fallas mecánicas o eléctricas (por ejemplo) y se libera la atención para pensar en las necesidades del conductor.
Así, la ergonomía, en el sentido de adaptar la tecnología de ingeniería a las necesidades del operador, se vuelve simultáneamente más necesaria y más factible a medida que avanza la ingeniería.
El término ergonomía se empezó a utilizar alrededor de 1950, cuando las prioridades de la industria en desarrollo estaban tomando el relevo de las prioridades de las fuerzas armadas. El desarrollo de la investigación y la aplicación durante los siguientes treinta años se describe en detalle en Singleton (1982). Las agencias de las Naciones Unidas, en particular la OIT y la Organización Mundial de la Salud (OMS), se activaron en este campo en la década de 1960.
En la industria de la posguerra inmediata el objetivo primordial, compartido por la ergonomía, era una mayor productividad. Este era un objetivo factible para la ergonomía porque gran parte de la productividad industrial estaba determinada directamente por el esfuerzo físico de los trabajadores involucrados: la velocidad de ensamblaje y la velocidad de elevación y movimiento determinaban el alcance de la producción. Gradualmente, el poder mecánico reemplazó el poder muscular humano. Sin embargo, más potencia conduce a más accidentes por el simple principio de que un accidente es la consecuencia de la potencia en el lugar equivocado en el momento equivocado. Cuando las cosas suceden más rápido, el potencial de accidentes aumenta aún más. Así, la preocupación de la industria y el objetivo de la ergonomía se desplazaron gradualmente de la productividad a la seguridad. Esto ocurrió en la década de 1960 y principios de la de 1970. Aproximadamente y después de este tiempo, gran parte de la industria manufacturera pasó de la producción por lotes a la producción de flujo y proceso. En consecuencia, el papel del operador pasó de la participación directa al control y la inspección. Esto resultó en una menor frecuencia de accidentes debido a que el operador estaba más alejado de la escena de la acción pero en ocasiones en una mayor gravedad de los accidentes debido a la velocidad y potencia inherentes al proceso.
Cuando la producción está determinada por la velocidad a la que funcionan las máquinas, la productividad se convierte en una cuestión de mantener el sistema en funcionamiento: en otras palabras, el objetivo es la confiabilidad. Por lo tanto, el operador se convierte en un monitor, un solucionador de problemas y un mantenedor en lugar de un manipulador directo.
Este esbozo histórico de los cambios de la posguerra en la industria manufacturera podría sugerir que el ergónomo ha dejado regularmente un conjunto de problemas y ha asumido otro, pero este no es el caso por varias razones. Como se explicó anteriormente, las preocupaciones de la ergonomía son mucho más amplias que las de la industria manufacturera. Además de la ergonomía de producción, existe la ergonomía de producto o de diseño, es decir, adaptar la máquina o el producto al usuario. En la industria del automóvil, por ejemplo, la ergonomía es importante no solo para la fabricación de componentes y las líneas de producción, sino también para el eventual conductor, el pasajero y el encargado del mantenimiento. Ahora es una rutina en la comercialización de automóviles y en su evaluación crítica por parte de otros revisar la calidad de la ergonomía, teniendo en cuenta la conducción, la comodidad del asiento, el manejo, los niveles de ruido y vibración, la facilidad de uso de los controles, la visibilidad interior y exterior, etc. sobre.
Se sugirió anteriormente que el rendimiento humano generalmente se optimiza dentro de un rango de tolerancia de una variable relevante. Gran parte de la ergonomía inicial intentaba reducir tanto la producción de potencia muscular como la extensión y variedad del movimiento para garantizar que no se excedieran tales tolerancias. El mayor cambio en la situación laboral, la llegada de las computadoras, ha creado el problema opuesto. A menos que esté bien diseñado ergonómicamente, un espacio de trabajo con computadora puede inducir una postura demasiado fija, muy poco movimiento corporal y demasiada repetición de combinaciones particulares de movimientos articulares.
Esta breve reseña histórica pretende indicar que, aunque ha habido un desarrollo continuo de la ergonomía, ha tomado la forma de agregar más y más problemas en lugar de cambiar los problemas. Sin embargo, el corpus de conocimiento crece y se vuelve más confiable y válido, las normas de gasto de energía no dependen de cómo o por qué se gasta la energía, los problemas posturales son los mismos en los asientos de los aviones y frente a las pantallas de las computadoras, gran parte de la actividad humana ahora implica el uso de pantallas de video y existen principios bien establecidos basados en una mezcla de evidencia de laboratorio y estudios de campo.
Ergonomía y Disciplinas Relacionadas
El desarrollo de una aplicación basada en la ciencia que es intermedia entre las tecnologías bien establecidas de ingeniería y medicina inevitablemente se superpone en muchas disciplinas relacionadas. En cuanto a su base científica, gran parte del conocimiento ergonómico se deriva de las ciencias humanas: anatomía, fisiología y psicología. Las ciencias físicas también contribuyen, por ejemplo, a resolver problemas de iluminación, calefacción, ruido y vibraciones.
La mayoría de los pioneros europeos en ergonomía fueron trabajadores de las ciencias humanas y es por esta razón que la ergonomía está bien equilibrada entre la fisiología y la psicología. Se requiere una orientación fisiológica como antecedente a problemas como gasto de energía, postura y aplicación de fuerzas, incluido el levantamiento. Se requiere una orientación psicológica para estudiar problemas como la presentación de información y la satisfacción laboral. Por supuesto, hay muchos problemas que requieren un enfoque mixto de ciencias humanas, como el estrés, la fatiga y el trabajo por turnos.
La mayoría de los pioneros estadounidenses en este campo estaban involucrados en psicología experimental o ingeniería y es por esta razón que sus títulos ocupacionales típicos:ingenieria humana y factores humanos— reflejan una diferencia en el énfasis (pero no en los intereses centrales) de la ergonomía europea. Esto también explica por qué la higiene ocupacional, debido a su estrecha relación con la medicina, particularmente la medicina ocupacional, se considera en los Estados Unidos bastante diferente de los factores humanos o la ergonomía. La diferencia en otras partes del mundo es menos marcada. La ergonomía se concentra en el operador humano en acción, la higiene ocupacional se concentra en los peligros para el operador humano presentes en el entorno ambiental. Así, el interés central del higienista ocupacional son los peligros tóxicos, que están fuera del alcance del ergónomo. El higienista ocupacional se preocupa por los efectos sobre la salud, ya sea a largo o corto plazo; el ergonomista está, por supuesto, preocupado por la salud, pero también está preocupado por otras consecuencias, como la productividad, el diseño del trabajo y el diseño del espacio de trabajo. La seguridad y la salud son las cuestiones genéricas que atraviesan la ergonomía, la higiene en el trabajo, la salud en el trabajo y la medicina del trabajo. Por lo tanto, no sorprende encontrar que en una gran institución de investigación, diseño o producción, estos temas a menudo se agrupan. Esto hace posible un abordaje basado en un equipo de expertos en estos temas separados, cada uno haciendo una contribución especializada al problema general de la salud, no sólo de los trabajadores de la institución sino también de los afectados por sus actividades y productos. Por el contrario, en las instituciones relacionadas con el diseño o la prestación de servicios, el ergónomo podría estar más cerca de los ingenieros y otros tecnólogos.
Quedará claro a partir de esta discusión que debido a que la ergonomía es interdisciplinaria y todavía bastante nueva, existe un problema importante de cómo debe adaptarse mejor a una organización existente. Se superpone a tantos otros campos porque se ocupa de las personas y las personas son el recurso básico y omnipresente de toda organización. Hay muchas maneras en las que se puede encajar, dependiendo de la historia y los objetivos de la organización en particular. Los criterios principales son que los objetivos ergonómicos se entiendan y aprecien y que los mecanismos para la implementación de las recomendaciones estén integrados en la organización.
Objetivos de la ergonomía
Ya estará claro que los beneficios de la ergonomía pueden manifestarse en muchas formas diferentes, en productividad y calidad, en seguridad y salud, en confiabilidad, en satisfacción laboral y en desarrollo personal.
La razón de esta amplitud de alcance es que su objetivo básico es la eficiencia en la actividad con un propósito, la eficiencia en el sentido más amplio de lograr el resultado deseado sin despilfarro, sin error y sin daño a la persona involucrada oa otros. No es eficiente gastar energía o tiempo innecesarios porque no se ha pensado lo suficiente en el diseño del trabajo, el espacio de trabajo, el entorno de trabajo y las condiciones de trabajo. No es eficiente lograr el resultado deseado a pesar del diseño de la situación y no con el apoyo de este.
El objetivo de la ergonomía es asegurar que la situación de trabajo esté en armonía con las actividades del trabajador. Este objetivo es evidentemente válido, pero lograrlo dista mucho de ser fácil por una variedad de razones. El operador humano es flexible y adaptable y hay un aprendizaje continuo, pero hay diferencias individuales bastante grandes. Algunas diferencias, como el tamaño físico y la fuerza, son obvias, pero otras, como las diferencias culturales y las diferencias en estilo y nivel de habilidad, son menos fáciles de identificar.
En vista de estas complejidades, podría parecer que la solución es proporcionar una situación flexible en la que el operador humano pueda optimizar una forma específicamente adecuada de hacer las cosas. Desafortunadamente, este enfoque a veces es impracticable porque la forma más eficiente a menudo no es obvia, con el resultado de que un trabajador puede seguir haciendo algo de la manera incorrecta o en las condiciones incorrectas durante años.
Por lo tanto, es necesario adoptar un enfoque sistemático: partir de una teoría sólida, establecer objetivos mensurables y comparar el éxito con estos objetivos. Los diversos objetivos posibles se consideran a continuación.
Seguridad y salud
No puede haber desacuerdo sobre la conveniencia de los objetivos de seguridad y salud. La dificultad surge del hecho de que ninguno de los dos es directamente medible: su logro se evalúa por su ausencia más que por su presencia. Los datos en cuestión siempre se refieren a desviaciones de la seguridad y la salud.
En el caso de la salud, gran parte de la evidencia es a largo plazo, ya que se basa en poblaciones en lugar de individuos. Por lo tanto, es necesario mantener registros cuidadosos durante largos períodos y adoptar un enfoque epidemiológico a través del cual se puedan identificar y medir los factores de riesgo. Por ejemplo, ¿cuáles deberían ser las horas máximas por día o por año requeridas de un trabajador en una estación de trabajo con computadora? Depende del diseño de la estación de trabajo, el tipo de trabajo y el tipo de persona (edad, visión, habilidades, etc.). Los efectos sobre la salud pueden ser diversos, desde problemas en las muñecas hasta apatía mental, por lo que es necesario realizar estudios exhaustivos que abarquen poblaciones bastante grandes y, al mismo tiempo, realizar un seguimiento de las diferencias dentro de las poblaciones.
La seguridad es más directamente medible en un sentido negativo en términos de tipos y frecuencias de accidentes y daños. Hay problemas para definir diferentes tipos de accidentes e identificar los factores causales, a menudo múltiples, y suele haber una relación distante entre el tipo de accidente y el grado de daño, desde ninguno hasta la fatalidad.
Sin embargo, se ha acumulado una enorme cantidad de evidencia sobre la seguridad y la salud durante los últimos cincuenta años y se han descubierto consistencias que pueden relacionarse con la teoría, las leyes y las normas y los principios operativos en tipos particulares de situaciones.
Productividad y eficiencia
La productividad suele definirse en términos de producción por unidad de tiempo, mientras que la eficiencia incorpora otras variables, en particular la relación entre producción y entrada. La eficiencia incorpora el costo de lo que se hace en relación con el logro, y en términos humanos esto requiere la consideración de las sanciones al operador humano.
En situaciones industriales, la productividad es relativamente fácil de medir: la cantidad producida se puede contar y el tiempo necesario para producirla es fácil de registrar. Los datos de productividad se utilizan a menudo en comparaciones antes/después de métodos, situaciones o condiciones de trabajo. Implica suposiciones sobre la equivalencia del esfuerzo y otros costos porque se basa en el principio de que el operador humano se desempeñará tan bien como sea factible en las circunstancias. Si la productividad es mayor, entonces las circunstancias deben ser mejores. Hay mucho para recomendar este enfoque simple, siempre que se use con la debida atención a los muchos posibles factores de complicación que pueden disfrazar lo que realmente está sucediendo. La mejor salvaguarda es tratar de asegurarse de que nada haya cambiado entre las situaciones de antes y después, excepto los aspectos que se están estudiando.
La eficiencia es una medida más amplia pero siempre más difícil. Por lo general, debe definirse específicamente para una situación particular y, al evaluar los resultados de cualquier estudio, se debe verificar la relevancia y validez de la definición en términos de las conclusiones que se extraen. Por ejemplo, ¿es más eficiente andar en bicicleta que caminar? Andar en bicicleta es mucho más productivo en cuanto a la distancia que se puede recorrer en una carretera en un tiempo determinado, y es más eficiente en cuanto al gasto energético por unidad de distancia o, para el ejercicio interior, porque el aparato necesario es más económico y sencillo . Por otro lado, el propósito del ejercicio puede ser el gasto de energía por razones de salud o para escalar una montaña en un terreno difícil; en estas circunstancias caminar será más eficiente. Por lo tanto, una medida de eficiencia tiene significado solo en un contexto bien definido.
Fiabilidad y calidad
Como se explicó anteriormente, la confiabilidad en lugar de la productividad se convierte en la medida clave en los sistemas de alta tecnología (por ejemplo, aviones de transporte, refinación de petróleo y generación de energía). Los controladores de dichos sistemas supervisan el rendimiento y contribuyen a la productividad y la seguridad realizando ajustes de sintonización para garantizar que las máquinas automáticas permanezcan en línea y funcionen dentro de los límites. Todos estos sistemas se encuentran en sus estados más seguros, ya sea cuando están inactivos o cuando funcionan de manera constante dentro del entorno de rendimiento diseñado. Se vuelven más peligrosos cuando se mueven o se mueven entre estados de equilibrio, por ejemplo, cuando un avión despega o se apaga un sistema de proceso. La alta confiabilidad es la característica clave no solo por razones de seguridad, sino también porque las paradas o paradas no planificadas son extremadamente costosas. La confiabilidad es sencilla de medir después del desempeño, pero es extremadamente difícil de predecir, excepto por referencia al desempeño anterior de sistemas similares. Cuando o si algo sale mal, el error humano es invariablemente una causa contribuyente, pero no es necesariamente un error por parte del controlador: los errores humanos pueden originarse en la etapa de diseño y durante la configuración y el mantenimiento. Ahora se acepta que tales sistemas complejos de alta tecnología requieren una contribución ergonómica considerable y continua desde el diseño hasta la evaluación de cualquier falla que ocurra.
La calidad está relacionada con la confiabilidad, pero es muy difícil, si no imposible, de medir. Tradicionalmente, en los sistemas de producción por lotes y de flujo, la calidad se ha verificado mediante inspección después de la salida, pero el principio actual establecido es combinar la producción y el mantenimiento de la calidad. Así, cada operador tiene una responsabilidad paralela como inspector. Por lo general, esto resulta ser más efectivo, pero puede significar abandonar los incentivos laborales basados simplemente en la tasa de producción. En términos ergonómicos, tiene sentido tratar al operador como una persona responsable y no como una especie de robot programado para un desempeño repetitivo.
Satisfacción laboral y desarrollo personal.
Del principio de que el trabajador u operador humano debe ser reconocido como una persona y no como un robot, se deduce que deben tenerse en cuenta las responsabilidades, las actitudes, las creencias y los valores. Esto no es fácil porque hay muchas variables, en su mayoría detectables pero no cuantificables, y hay grandes diferencias individuales y culturales. No obstante, ahora se dedica un gran esfuerzo al diseño y la gestión del trabajo con el objetivo de garantizar que la situación sea tan satisfactoria como sea razonablemente practicable desde el punto de vista del operador. Algunas mediciones son posibles mediante el uso de técnicas de encuesta y algunos principios están disponibles basados en características de trabajo como la autonomía y el empoderamiento.
Incluso aceptando que estos esfuerzos toman tiempo y cuestan dinero, todavía puede haber dividendos considerables al escuchar las sugerencias, opiniones y actitudes de las personas que realmente están haciendo el trabajo. Es posible que su enfoque no sea el mismo que el del diseñador de trabajo externo ni las suposiciones hechas por el diseñador o gerente de trabajo. Estas diferencias de puntos de vista son importantes y pueden proporcionar un cambio refrescante en la estrategia por parte de todos los involucrados.
Está bien establecido que el ser humano es un aprendiz continuo o puede serlo, dadas las condiciones adecuadas. La condición clave es proporcionar retroalimentación sobre el desempeño pasado y presente que se puede utilizar para mejorar el desempeño futuro. Además, dicha retroalimentación en sí misma actúa como un incentivo para el desempeño. Así todos ganan, el ejecutante y los responsables en un sentido más amplio de la actuación. De ello se deduce que hay mucho que ganar con la mejora del desempeño, incluido el autodesarrollo. El principio de que el desarrollo personal debe ser un aspecto de la aplicación de la ergonomía requiere mayores habilidades de diseño y gestión pero, si se puede aplicar con éxito, puede mejorar todos los aspectos del desempeño humano discutidos anteriormente.
La aplicación exitosa de la ergonomía a menudo se deriva de no hacer más que desarrollar la actitud o el punto de vista apropiado. Las personas involucradas son inevitablemente el factor central en cualquier esfuerzo humano y la consideración sistemática de sus ventajas, limitaciones, necesidades y aspiraciones es inherentemente importante.
Conclusión
La ergonomía es el estudio sistemático de las personas en el trabajo con el objetivo de mejorar la situación laboral, las condiciones de trabajo y las tareas realizadas. El énfasis está en adquirir evidencia relevante y confiable sobre la cual basar recomendaciones para cambios en situaciones específicas y en desarrollar teorías, conceptos, pautas y procedimientos más generales que contribuirán a la experiencia en continuo desarrollo disponible de la ergonomía.
Exposición, dosis y respuesta
Toxicidad es la capacidad intrínseca de un agente químico para afectar negativamente a un organismo.
Xenobióticos es un término para “sustancias extrañas”, es decir, extrañas al organismo. Su opuesto son los compuestos endógenos. Los xenobióticos incluyen fármacos, productos químicos industriales, venenos naturales y contaminantes ambientales.
Peligro es el potencial para que la toxicidad se realice en un entorno o situación específica.
Riesgo es la probabilidad de que ocurra un efecto adverso específico. A menudo se expresa como el porcentaje de casos en una población determinada y durante un período de tiempo específico. Una estimación de riesgo puede basarse en casos reales o una proyección de casos futuros, basada en extrapolaciones.
Clasificación de toxicidad y clasificación de toxicidad puede ser utilizado para propósitos regulatorios. La calificación de toxicidad es una clasificación arbitraria de dosis o niveles de exposición que causan efectos tóxicos. La clasificación puede ser "supertóxica", "altamente tóxica", "moderadamente tóxica", etc. Las clasificaciones más comunes se refieren a la toxicidad aguda. La clasificación de toxicidad se refiere a la agrupación de productos químicos en categorías generales según su efecto tóxico más importante. Dichas categorías pueden incluir alergénicos, neurotóxicos, cancerígenos, etc. Esta clasificación puede tener valor administrativo como advertencia y como información.
El relación dosis-efecto es la relación entre la dosis y el efecto a nivel individual. Un aumento en la dosis puede aumentar la intensidad de un efecto, o puede resultar en un efecto más severo. Puede obtenerse una curva dosis-efecto a nivel del organismo completo, la célula o la molécula diana. Algunos efectos tóxicos, como la muerte o el cáncer, no se clasifican, pero son efectos de "todo o nada".
El relación dosis-respuesta es la relación entre la dosis y el porcentaje de individuos que muestran un efecto específico. Con el aumento de la dosis, normalmente se verá afectado un mayor número de individuos de la población expuesta.
Es esencial en toxicología establecer relaciones dosis-efecto y dosis-respuesta. En los estudios médicos (epidemiológicos), un criterio que se utiliza a menudo para aceptar una relación causal entre un agente y una enfermedad es que el efecto o la respuesta sean proporcionales a la dosis.
Se pueden trazar varias curvas dosis-respuesta para una sustancia química, una para cada tipo de efecto. La curva dosis-respuesta para la mayoría de los efectos tóxicos (cuando se estudia en grandes poblaciones) tiene forma sigmoidea. Por lo general, hay un rango de dosis bajas en el que no se detecta respuesta; a medida que aumenta la dosis, la respuesta sigue una curva ascendente que generalmente alcanzará una meseta con una respuesta del 100%. La curva dosis-respuesta refleja las variaciones entre los individuos de una población. La pendiente de la curva varía de químico a químico y entre diferentes tipos de efectos. Para algunas sustancias químicas con efectos específicos (carcinógenos, iniciadores, mutágenos), la curva dosis-respuesta puede ser lineal desde la dosis cero dentro de un cierto rango de dosis. Esto significa que no existe un umbral y que incluso las dosis pequeñas representan un riesgo. Por encima de ese rango de dosis, el riesgo puede aumentar a una tasa mayor que la lineal.
La variación en la exposición durante el día y la duración total de la exposición durante la vida de una persona pueden ser tan importantes para el resultado (respuesta) como el nivel de dosis medio o promedio o incluso integrado. Las exposiciones pico altas pueden ser más dañinas que un nivel de exposición más uniforme. Este es el caso de algunos disolventes orgánicos. Por otro lado, para algunos carcinógenos se ha demostrado experimentalmente que el fraccionamiento de una dosis única en varias exposiciones con la misma dosis total puede ser más eficaz en la producción de tumores.
A dosificar a menudo se expresa como la cantidad de un xenobiótico que ingresa a un organismo (en unidades como mg/kg de peso corporal). La dosis puede expresarse de diferentes formas (más o menos informativas): dosis de exposición, que es la concentración en el aire de contaminante inhalado durante un determinado período de tiempo (en higiene laboral suele ser de ocho horas), o la retenido or dosis absorbida (en higiene industrial también llamado el carga corporal), que es la cantidad presente en el cuerpo en un momento determinado durante o después de la exposición. Él dosis tisular es la cantidad de sustancia en un tejido específico y la dosis objetivo es la cantidad de sustancia (generalmente un metabolito) unida a la molécula crítica. La dosis objetivo se puede expresar como mg de enlace químico por mg de una macromolécula específica en el tejido. Para aplicar este concepto, se necesita información sobre el mecanismo de acción tóxica a nivel molecular. La dosis objetivo se asocia más exactamente con el efecto tóxico. La dosis de exposición o la carga corporal pueden estar más fácilmente disponibles, pero están relacionados con el efecto de manera menos precisa.
En el concepto de dosis se suele incluir un aspecto temporal, aunque no siempre se exprese. La dosis teórica según la ley de Haber es D = ct, donde D es dosis, c es la concentración del xenobiótico en el aire y t la duración de la exposición a la sustancia química. Si este concepto se utiliza a nivel molecular o de órgano diana, se puede utilizar la cantidad por mg de tejido o molécula durante un tiempo determinado. El aspecto del tiempo suele ser más importante para comprender las exposiciones repetidas y los efectos crónicos que para las exposiciones únicas y los efectos agudos.
Efectos aditivos ocurren como resultado de la exposición a una combinación de sustancias químicas, donde las toxicidades individuales simplemente se suman entre sí (1+1= 2). Cuando los productos químicos actúan a través del mismo mecanismo, se supone que sus efectos son aditivos, aunque no siempre es así en la realidad. La interacción entre productos químicos puede resultar en una inhibición (antagonismo), con un efecto menor que el esperado de la suma de los efectos de los productos químicos individuales (1+1 2). Alternativamente, una combinación de sustancias químicas puede producir un efecto más pronunciado de lo que se esperaría por adición (aumento de la respuesta entre los individuos o un aumento en la frecuencia de la respuesta en una población), esto se denomina sinergismo (1+1 >2).
Tiempo de latencia es el tiempo entre la primera exposición y la aparición de un efecto o respuesta detectable. El término se utiliza a menudo para los efectos cancerígenos, en los que los tumores pueden aparecer mucho tiempo después del inicio de la exposición y, a veces, mucho después de que cesa la exposición.
A umbral de dosis es un nivel de dosis por debajo del cual no se produce ningún efecto observable. Se cree que existen umbrales para ciertos efectos, como los efectos tóxicos agudos; pero no para otros, como los efectos cancerígenos (por iniciadores formadores de aductos de ADN). Sin embargo, la mera ausencia de una respuesta en una población determinada no debe tomarse como prueba de la existencia de un umbral. La ausencia de respuesta podría deberse a simples fenómenos estadísticos: un efecto adverso que ocurre con baja frecuencia puede no ser detectable en una población pequeña.
LD50 (dosis efectiva) es la dosis que causa un 50% de letalidad en una población animal. el dl50 se da a menudo en la literatura más antigua como una medida de la toxicidad aguda de los productos químicos. Cuanto mayor sea la LD50, menor es la toxicidad aguda. Un químico altamente tóxico (con un bajo LD50) se ha dicho intenso. No existe una correlación necesaria entre la toxicidad aguda y crónica. disfunción eréctil50 (dosis efectiva) es la dosis que causa un efecto específico distinto de la letalidad en el 50% de los animales.
NOEL (NOAEL) significa el nivel sin efectos (adversos) observados, o la dosis más alta que no causa un efecto tóxico. Para establecer un NOEL se requieren múltiples dosis, una gran población e información adicional para garantizar que la ausencia de una respuesta no sea simplemente un fenómeno estadístico. LOÉL es la dosis efectiva más baja observada en una curva de dosis-respuesta, o la dosis más baja que causa un efecto.
A factor de seguridad es un número arbitrario formal con el que se divide el NOEL o LOEL derivado de experimentos con animales para obtener una dosis permisible tentativa para humanos. Esto se usa a menudo en el área de toxicología alimentaria, pero también se puede usar en toxicología ocupacional. También se puede usar un factor de seguridad para la extrapolación de datos de poblaciones pequeñas a poblaciones más grandes. Los factores de seguridad van desde 100 al 103. Por lo general, un factor de seguridad de dos puede ser suficiente para proteger de un efecto menos grave (como la irritación) y se puede usar un factor de hasta 1,000 para efectos muy graves (como el cáncer). El termino factor de seguridad podría ser mejor reemplazado por el término Protección factor o incluso, factor de incertidumbre. El uso de este último término refleja incertidumbres científicas, como si los datos exactos de dosis-respuesta se pueden traducir de animales a humanos para el químico, efecto tóxico o situación de exposición en particular.
Extrapolaciones son estimaciones cualitativas o cuantitativas teóricas de la toxicidad (extrapolaciones de riesgo) derivadas de la traducción de datos de una especie a otra o de un conjunto de datos de respuesta a la dosis (típicamente en el rango de dosis alta) a regiones de respuesta a la dosis donde no existen datos. Por lo general, se deben hacer extrapolaciones para predecir respuestas tóxicas fuera del rango de observación. El modelado matemático se utiliza para extrapolaciones basadas en la comprensión del comportamiento del químico en el organismo (modelado toxicocinético) o en la comprensión de las probabilidades estadísticas de que ocurran eventos biológicos específicos (modelos basados en la biología o el mecanismo). Algunas agencias nacionales han desarrollado sofisticados modelos de extrapolación como un método formalizado para predecir riesgos con fines regulatorios. (Consulte la discusión sobre la evaluación de riesgos más adelante en el capítulo).
Efectos sistémicos son efectos tóxicos en tejidos distantes de la vía de absorción.
El organo objetivo es el órgano primario o más sensible afectado después de la exposición. El mismo químico que ingresa al cuerpo por diferentes vías de exposición, dosis, tasa de dosis, sexo y especie puede afectar diferentes órganos diana. La interacción entre productos químicos, o entre productos químicos y otros factores, también puede afectar a diferentes órganos diana.
Efectos agudos ocurren después de una exposición limitada y poco tiempo (horas, días) después de la exposición y pueden ser reversibles o irreversibles.
Efectos crónicos ocurren después de una exposición prolongada (meses, años, décadas) y/o persisten después de que ha cesado la exposición.
Agudo exposición es una exposición de corta duración, mientras que exposición crónica es una exposición a largo plazo (a veces de por vida).
Tolerancia a una sustancia química puede ocurrir cuando las exposiciones repetidas dan como resultado una respuesta más baja de lo que se hubiera esperado sin un tratamiento previo.
Captación y Disposición
Procesos de transporte
Difusión. Para entrar en el organismo y llegar a un sitio donde se produce el daño, una sustancia extraña tiene que atravesar varias barreras, incluidas las células y sus membranas. La mayoría de las sustancias tóxicas atraviesan las membranas de forma pasiva por difusión. Esto puede ocurrir para moléculas pequeñas solubles en agua al pasar a través de canales acuosos o, para moléculas solubles en grasa, por disolución y difusión a través de la parte lipídica de la membrana. El etanol, una molécula pequeña que es tanto soluble en agua como en grasa, se difunde rápidamente a través de las membranas celulares.
Difusión de ácidos y bases débiles.. Los ácidos y bases débiles pueden atravesar fácilmente las membranas en su forma liposoluble no ionizada, mientras que las formas ionizadas son demasiado polares para pasar. El grado de ionización de estas sustancias depende del pH. Si existe un gradiente de pH a través de una membrana, se acumularán en un lado. La excreción urinaria de ácidos y bases débiles depende en gran medida del pH urinario. El pH fetal o embrionario es algo más alto que el pH materno, lo que provoca una ligera acumulación de ácidos débiles en el feto o el embrión.
Difusión facilitada. Los portadores de la membrana pueden facilitar el paso de una sustancia. La difusión facilitada es similar a los procesos enzimáticos en que está mediada por proteínas, es altamente selectiva y saturable. Otras sustancias pueden inhibir el transporte facilitado de xenobióticos.
Transporte activo. Algunas sustancias se transportan activamente a través de las membranas celulares. Este transporte está mediado por proteínas transportadoras en un proceso análogo al de las enzimas. El transporte activo es similar a la difusión facilitada, pero puede ocurrir contra un gradiente de concentración. Requiere aporte de energía y un inhibidor metabólico puede bloquear el proceso. La mayoría de los contaminantes ambientales no se transportan activamente. Una excepción es la secreción tubular activa y la reabsorción de metabolitos ácidos en los riñones.
Fagocitosis es un proceso en el que células especializadas, como los macrófagos, engullen partículas para su posterior digestión. Este proceso de transporte es importante, por ejemplo, para la eliminación de partículas en los alvéolos.
Flujo a granel. Las sustancias también se transportan en el cuerpo junto con el movimiento del aire en el sistema respiratorio durante la respiración y los movimientos de la sangre, la linfa o la orina.
Filtración. Debido a la presión hidrostática u osmótica, el agua fluye a granel a través de los poros del endotelio. Cualquier soluto que sea lo suficientemente pequeño se filtrará junto con el agua. La filtración se produce hasta cierto punto en el lecho capilar de todos los tejidos, pero es particularmente importante en la formación de la orina primaria en los glomérulos renales.
de Húmedad
La absorción es la captación de una sustancia del medio ambiente en el organismo. El término generalmente incluye no solo la entrada al tejido de barrera sino también el transporte posterior a la sangre circulante.
Absorción pulmonar. Los pulmones son la vía principal de depósito y absorción de pequeñas partículas, gases, vapores y aerosoles transportados por el aire. Para los gases y vapores altamente solubles en agua, una parte significativa de la captación se produce en la nariz y el árbol respiratorio, pero para las sustancias menos solubles se produce principalmente en los alvéolos pulmonares. Los alvéolos tienen una superficie muy grande (alrededor de 100 m2 Inhumanos). Además, la barrera de difusión es extremadamente pequeña, con solo dos capas de células delgadas y una distancia del orden de micrómetros desde el aire alveolar hasta la circulación sanguínea sistémica. Esto hace que los pulmones sean muy eficientes no solo en el intercambio de oxígeno y dióxido de carbono, sino también de otros gases y vapores. En general, la difusión a través de la pared alveolar es tan rápida que no limita la captación. En cambio, la tasa de absorción depende del flujo (ventilación pulmonar, gasto cardíaco) y la solubilidad (sangre: coeficiente de partición de aire). Otro factor importante es la eliminación metabólica. La importancia relativa de estos factores para la absorción pulmonar varía mucho para diferentes sustancias. La actividad física da como resultado un aumento de la ventilación pulmonar y el gasto cardíaco, y una disminución del flujo sanguíneo hepático (y, por lo tanto, de la tasa de biotransformación). Para muchas sustancias inhaladas esto conduce a un marcado aumento en la absorción pulmonar.
Absorción percutánea. La piel es una barrera muy eficaz. Además de su papel termorregulador, está diseñado para proteger al organismo de los microorganismos, la radiación ultravioleta y otros agentes nocivos, así como de la pérdida excesiva de agua. La distancia de difusión en la dermis es del orden de décimas de milímetro. Además, la capa de queratina tiene una resistencia a la difusión muy alta para la mayoría de las sustancias. Sin embargo, puede ocurrir una absorción dérmica significativa que resulte en toxicidad para algunas sustancias—sustancias liposolubles altamente tóxicas como los insecticidas organofosforados y los solventes orgánicos, por ejemplo. Es probable que ocurra una absorción significativa después de la exposición a sustancias líquidas. La absorción percutánea de vapor puede ser importante para solventes con muy baja presión de vapor y alta afinidad por el agua y la piel.
Absorción gastrointestinal ocurre después de la ingestión accidental o intencional. Las partículas más grandes originalmente inhaladas y depositadas en las vías respiratorias pueden tragarse después del transporte mucociliar a la faringe. Prácticamente todas las sustancias solubles se absorben eficientemente en el tracto gastrointestinal. El bajo pH del intestino puede facilitar la absorción, por ejemplo, de metales.
Otras rutas. En las pruebas de toxicidad y otros experimentos, a menudo se usan vías especiales de administración por conveniencia, aunque son raras y, por lo general, no son relevantes en el entorno laboral. Estas rutas incluyen inyecciones intravenosas (IV), subcutáneas (sc), intraperitoneales (ip) e intramusculares (im). En general, las sustancias se absorben a un ritmo mayor y más completo por estas vías, especialmente después de la inyección IV. Esto conduce a picos de concentración de corta duración pero altos que pueden aumentar la toxicidad de una dosis.
Distribuidores
La distribución de una sustancia dentro del organismo es un proceso dinámico que depende de las tasas de absorción y eliminación, así como del flujo sanguíneo a los diferentes tejidos y sus afinidades por la sustancia. Las moléculas pequeñas, sin carga, solubles en agua, los cationes univalentes y la mayoría de los aniones se difunden fácilmente y eventualmente alcanzarán una distribución relativamente uniforme en el cuerpo.
Volumen de distribucion es la cantidad de una sustancia en el cuerpo en un momento dado, dividida por la concentración en sangre, plasma o suero en ese momento. El valor no tiene significado como volumen físico, ya que muchas sustancias no están uniformemente distribuidas en el organismo. Un volumen de distribución inferior a un l/kg de peso corporal indica una distribución preferencial en la sangre (o suero o plasma), mientras que un valor superior a uno indica una preferencia por los tejidos periféricos como el tejido adiposo por las sustancias liposolubles.
Acumulación es la acumulación de una sustancia en un tejido u órgano a niveles más altos que en la sangre o el plasma. También puede referirse a una acumulación gradual con el tiempo en el organismo. Muchos xenobióticos son altamente liposolubles y tienden a acumularse en el tejido adiposo, mientras que otros tienen especial afinidad por el hueso. Por ejemplo, el calcio en los huesos puede intercambiarse por cationes de plomo, estroncio, bario y radio, y los grupos hidroxilo en los huesos pueden intercambiarse por fluoruro.
Barreras. Los vasos sanguíneos del cerebro, los testículos y la placenta tienen características anatómicas especiales que inhiben el paso de moléculas grandes como las proteínas. Estas características, a menudo denominadas barreras sangre-cerebro, sangre-testículos y sangre-placenta, pueden dar la falsa impresión de que impiden el paso de cualquier sustancia. Estas barreras tienen poca o ninguna importancia para los xenobióticos que pueden difundirse a través de las membranas celulares.
Unión de sangre. Las sustancias pueden estar unidas a los glóbulos rojos oa los componentes del plasma, o estar sueltas en la sangre. El monóxido de carbono, el arsénico, el mercurio orgánico y el cromo hexavalente tienen una alta afinidad por los glóbulos rojos, mientras que el mercurio inorgánico y el cromo trivalente muestran preferencia por las proteínas plasmáticas. Varias otras sustancias también se unen a las proteínas plasmáticas. Solo la fracción no unida está disponible para filtración o difusión en los órganos de eliminación. Por lo tanto, la unión a la sangre puede aumentar el tiempo de residencia en el organismo pero disminuir la absorción por los órganos diana.
Eliminación
Eliminación es la desaparición de una sustancia en el organismo. La eliminación puede implicar la excreción del organismo o la transformación en otras sustancias no captadas por un método de medición específico. La velocidad de desaparición puede expresarse mediante la constante de velocidad de eliminación, el tiempo medio biológico o el aclaramiento.
Curva de concentración-tiempo. La curva de concentración en sangre (o plasma) frente al tiempo es una forma conveniente de describir la absorción y disposición de un xenobiótico.
Área bajo la curva (AUC) es la integral de la concentración en sangre (plasma) a lo largo del tiempo. Cuando la saturación metabólica y otros procesos no lineales están ausentes, el AUC es proporcional a la cantidad de sustancia absorbida.
Medio tiempo biológico (o vida media) es el tiempo necesario después del final de la exposición para reducir la cantidad en el organismo a la mitad. Como suele ser difícil evaluar la cantidad total de una sustancia, se utilizan medidas como la concentración en sangre (plasma). El tiempo medio debe usarse con precaución, ya que puede cambiar, por ejemplo, con la dosis y la duración de la exposición. Además, muchas sustancias tienen curvas de descomposición complejas con varios semitiempos.
Biodisponibilidad es la fracción de una dosis administrada que ingresa a la circulación sistémica. En ausencia de aclaramiento presistémico, o metabolismo de primer paso, la fracción es uno. En la exposición oral, la eliminación presistémica puede deberse al metabolismo dentro del contenido gastrointestinal, la pared intestinal o el hígado. El metabolismo de primer paso reducirá la absorción sistémica de la sustancia y, en cambio, aumentará la absorción de metabolitos. Esto puede conducir a un patrón de toxicidad diferente.
Outlet es el volumen de sangre (plasma) por unidad de tiempo completamente eliminado de una sustancia. Para distinguirlo del aclaramiento renal, por ejemplo, a menudo se agrega el prefijo total, metabólico o sanguíneo (plasma).
Aclaramiento intrínseco es la capacidad de las enzimas endógenas para transformar una sustancia, y también se expresa en volumen por unidad de tiempo. Si el aclaramiento intrínseco en un órgano es mucho más bajo que el flujo sanguíneo, se dice que el metabolismo tiene una capacidad limitada. Por el contrario, si el aclaramiento intrínseco es mucho mayor que el flujo sanguíneo, el metabolismo está limitado por el flujo.
Excreción
La excreción es la salida del organismo de una sustancia y sus productos de biotransformación.
Excreción en orina y bilis. Los riñones son los órganos excretores más importantes. Algunas sustancias, especialmente los ácidos de alto peso molecular, se excretan con la bilis. Una fracción de las sustancias excretadas por vía biliar puede reabsorberse en los intestinos. Este proceso, circulación enterohepática, es común para las sustancias conjugadas después de la hidrólisis intestinal del conjugado.
Otras vías de excreción. Algunas sustancias, como los disolventes orgánicos y los productos de descomposición, como la acetona, son lo suficientemente volátiles como para excretar una fracción considerable por exhalación después de la inhalación. Las moléculas pequeñas solubles en agua, así como las solubles en grasa, se secretan fácilmente al feto a través de la placenta y a la leche en los mamíferos. Para la madre, la lactancia puede ser una vía de excreción cuantitativamente importante para las sustancias químicas liposolubles persistentes. La descendencia puede estar expuesta secundariamente a través de la madre durante el embarazo así como durante la lactancia. Los compuestos solubles en agua pueden excretarse hasta cierto punto en el sudor y la saliva. Estas rutas son generalmente de menor importancia. Sin embargo, como se produce y traga un gran volumen de saliva, la excreción de saliva puede contribuir a la reabsorción del compuesto. Algunos metales, como el mercurio, se excretan uniéndose permanentemente a los grupos sulfhidrilo de la queratina del cabello.
Modelos toxicocinéticos
Los modelos matemáticos son herramientas importantes para comprender y describir la absorción y disposición de sustancias extrañas. La mayoría de los modelos son compartimentales, es decir, el organismo está representado por uno o más compartimentos. Un compartimento es un volumen teóricamente físico y químico en el que se supone que la sustancia se distribuye de forma homogénea e instantánea. Los modelos simples pueden expresarse como una suma de términos exponenciales, mientras que los más complicados requieren procedimientos numéricos en una computadora para su solución. Los modelos se pueden subdividir en dos categorías, descriptivos y fisiológicos.
In descriptivo modelos, el ajuste a los datos medidos se realiza cambiando los valores numéricos de los parámetros del modelo o incluso la propia estructura del modelo. La estructura del modelo normalmente tiene poco que ver con la estructura del organismo. Las ventajas del enfoque descriptivo son que se hacen pocas suposiciones y que no hay necesidad de datos adicionales. Una desventaja de los modelos descriptivos es su utilidad limitada para las extrapolaciones.
Modelos fisiológicos se construyen a partir de datos fisiológicos, anatómicos y otros datos independientes. Luego, el modelo se refina y se valida comparándolo con datos experimentales. Una ventaja de los modelos fisiológicos es que se pueden utilizar con fines de extrapolación. Por ejemplo, la influencia de la actividad física en la captación y eliminación de sustancias inhaladas puede predecirse a partir de ajustes fisiológicos conocidos en la ventilación y el gasto cardíaco. Una desventaja de los modelos fisiológicos es que requieren una gran cantidad de datos independientes.
Biotransformación
Biotransformación es un proceso que conduce a una conversión metabólica de compuestos extraños (xenobióticos) en el cuerpo. El proceso a menudo se denomina metabolismo de xenobióticos. Como regla general, el metabolismo convierte los xenobióticos solubles en lípidos en metabolitos grandes solubles en agua que pueden excretarse de manera efectiva.
El hígado es el sitio principal de biotransformación. Todos los xenobióticos tomados del intestino son transportados al hígado por un solo vaso sanguíneo (Vena porta). Si se ingiere en pequeñas cantidades, una sustancia extraña puede metabolizarse por completo en el hígado antes de llegar a la circulación general y a otros órganos (efecto de primer paso). Los xenobióticos inhalados se distribuyen a través de la circulación general al hígado. En ese caso, solo una fracción de la dosis se metaboliza en el hígado antes de llegar a otros órganos.
Las células del hígado contienen varias enzimas que oxidan los xenobióticos. Esta oxidación generalmente activa el compuesto: se vuelve más reactivo que la molécula original. En la mayoría de los casos, el metabolito oxidado es metabolizado por otras enzimas en una segunda fase. Estas enzimas conjugan el metabolito con un sustrato endógeno, de modo que la molécula se vuelve más grande y más polar. Esto facilita la excreción.
Las enzimas que metabolizan los xenobióticos también están presentes en otros órganos como los pulmones y los riñones. En estos órganos pueden jugar papeles específicos y cualitativamente importantes en el metabolismo de ciertos xenobióticos. Los metabolitos formados en un órgano pueden metabolizarse más en un segundo órgano. Las bacterias en el intestino también pueden participar en la biotransformación.
Los metabolitos de los xenobióticos pueden excretarse por los riñones o por la bilis. También se pueden exhalar a través de los pulmones o unirse a moléculas endógenas en el cuerpo.
La relación entre biotransformación y toxicidad es compleja. La biotransformación puede verse como un proceso necesario para la supervivencia. Protege al organismo contra la toxicidad evitando la acumulación de sustancias nocivas en el organismo. Sin embargo, en la biotransformación se pueden formar metabolitos intermediarios reactivos, y estos son potencialmente dañinos. Esto se llama activación metabólica. Por lo tanto, la biotransformación también puede inducir toxicidad. Los metabolitos intermediarios oxidados que no están conjugados pueden unirse y dañar las estructuras celulares. Si, por ejemplo, un metabolito xenobiótico se une al ADN, se puede inducir una mutación (ver “Toxicología genética”). Si el sistema de biotransformación está sobrecargado, puede ocurrir una destrucción masiva de proteínas esenciales o membranas lipídicas. Esto puede provocar la muerte celular (consulte “Lesión celular y muerte celular”).
Metabolismo es una palabra que a menudo se usa indistintamente con biotransformación. Denota reacciones químicas de descomposición o síntesis catalizadas por enzimas en el cuerpo. Los nutrientes de los alimentos, los compuestos endógenos y los xenobióticos se metabolizan en el cuerpo.
Activación metabólica significa que un compuesto menos reactivo se convierte en una molécula más reactiva. Esto suele ocurrir durante las reacciones de la Fase 1.
Inactivación metabólica significa que una molécula activa o tóxica se convierte en un metabolito menos activo. Esto suele ocurrir durante las reacciones de fase 2. En ciertos casos, un metabolito inactivado puede reactivarse, por ejemplo, mediante escisión enzimática.
Reacción de fase 1 se refiere al primer paso en el metabolismo xenobiótico. Por lo general, significa que el compuesto está oxidado. La oxidación generalmente hace que el compuesto sea más soluble en agua y facilita otras reacciones.
Enzimas del citocromo P450 son un grupo de enzimas que oxidan preferentemente xenobióticos en reacciones de Fase 1. Las diferentes enzimas están especializadas para el manejo de grupos específicos de xenobióticos con ciertas características. Las moléculas endógenas también son sustratos. Las enzimas del citocromo P450 son inducidas por xenobióticos de una manera específica. La obtención de datos de inducción sobre el citocromo P450 puede brindar información sobre la naturaleza de las exposiciones previas (consulte “Determinantes genéticos de la respuesta tóxica”).
Reacción de fase 2 se refiere al segundo paso en el metabolismo xenobiótico. Por lo general, significa que el compuesto oxidado está conjugado con (acoplado a) una molécula endógena. Esta reacción aumenta aún más la solubilidad en agua. Muchos metabolitos conjugados se excretan activamente a través de los riñones.
Transferasas son un grupo de enzimas que catalizan reacciones de fase 2. Conjugan xenobióticos con compuestos endógenos como glutatión, aminoácidos, ácido glucurónico o sulfato.
El glutatión es una molécula endógena, un tripéptido, que se conjuga con xenobióticos en reacciones de fase 2. Está presente en todas las células (y en las células del hígado en altas concentraciones) y generalmente protege de los xenobióticos activados. Cuando se agota el glutatión, pueden ocurrir reacciones tóxicas entre los metabolitos xenobióticos activados y las proteínas, los lípidos o el ADN.
Inducción significa que las enzimas involucradas en la biotransformación aumentan (en actividad o cantidad) como respuesta a la exposición a xenobióticos. En algunos casos, en unos pocos días, la actividad enzimática puede aumentar varias veces. La inducción a menudo se equilibra para que las reacciones de la Fase 1 y la Fase 2 aumenten simultáneamente. Esto puede conducir a una biotransformación más rápida y puede explicar la tolerancia. Por el contrario, la inducción desequilibrada puede aumentar la toxicidad.
Inhibición de biotransformación puede ocurrir si dos xenobióticos son metabolizados por la misma enzima. Los dos sustratos tienen que competir y normalmente se prefiere uno de los sustratos. En ese caso, el segundo sustrato no se metaboliza o solo se metaboliza lentamente. Al igual que con la inducción, la inhibición puede aumentar y disminuir la toxicidad.
activación de oxígeno puede ser desencadenada por metabolitos de ciertos xenobióticos. Pueden autooxidarse bajo la producción de especies de oxígeno activado. Estas especies derivadas del oxígeno, que incluyen superóxido, peróxido de hidrógeno y el radical hidroxilo, pueden dañar el ADN, los lípidos y las proteínas de las células. La activación del oxígeno también está involucrada en los procesos inflamatorios.
Variabilidad genética entre individuos se ve en muchos genes que codifican enzimas de Fase 1 y Fase 2. La variabilidad genética puede explicar por qué ciertos individuos son más susceptibles a los efectos tóxicos de los xenobióticos que otros.
Las decisiones que afectan la salud, el bienestar y la empleabilidad de los trabajadores individuales o el enfoque de un empleador sobre los problemas de salud y seguridad deben basarse en datos de buena calidad. Esto es especialmente cierto en el caso de los datos de seguimiento biológico y, por lo tanto, es responsabilidad de cualquier laboratorio que realice trabajos analíticos con muestras biológicas de poblaciones activas garantizar la fiabilidad, exactitud y precisión de sus resultados. Esta responsabilidad se extiende desde proporcionar métodos y orientación adecuados para la recolección de muestras hasta garantizar que los resultados se devuelvan al profesional de la salud responsable del cuidado del trabajador individual en una forma adecuada. Todas estas actividades están cubiertas por la expresión de garantía de calidad.
La actividad central en un programa de aseguramiento de la calidad es el control y mantenimiento de la exactitud y precisión analítica. Los laboratorios de monitorización biológica a menudo se han desarrollado en un entorno clínico y han adoptado técnicas y filosofías de garantía de calidad de la disciplina de la química clínica. De hecho, las mediciones de sustancias químicas tóxicas e indicadores de efectos biológicos en la sangre y la orina no difieren esencialmente de las realizadas en los laboratorios de química clínica y de farmacología clínica que se encuentran en cualquier hospital importante.
Un programa de garantía de calidad para un analista individual comienza con la selección y el establecimiento de un método adecuado. La siguiente etapa es el desarrollo de un procedimiento de control de calidad interno para mantener la precisión; el laboratorio necesita entonces asegurarse de la precisión del análisis, y esto bien puede implicar una evaluación externa de la calidad (ver más abajo). Sin embargo, es importante reconocer que el aseguramiento de la calidad incluye más que estos aspectos del control de calidad analítico.
Selección de método
Hay varios textos que presentan métodos analíticos en el monitoreo biológico. Si bien estos brindan una guía útil, el analista individual debe hacer mucho antes de que se puedan producir datos de calidad adecuada. El centro de cualquier programa de aseguramiento de la calidad es la producción de un protocolo de laboratorio que debe especificar en detalle aquellas partes del método que tienen más influencia en su confiabilidad, exactitud y precisión. De hecho, la acreditación nacional de laboratorios de química clínica, toxicología y ciencias forenses suele depender de la calidad de los protocolos del laboratorio. El desarrollo de un protocolo adecuado suele ser un proceso que requiere mucho tiempo. Si un laboratorio desea establecer un nuevo método, a menudo es más rentable obtener de un laboratorio existente un protocolo que haya demostrado su desempeño, por ejemplo, a través de la validación en un programa internacional de garantía de calidad establecido. Si el nuevo laboratorio se compromete con una técnica analítica específica, por ejemplo, cromatografía de gases en lugar de cromatografía líquida de alto rendimiento, a menudo es posible identificar un laboratorio que tenga un buen historial de rendimiento y que utilice el mismo enfoque analítico. Los laboratorios a menudo se pueden identificar a través de artículos de revistas oa través de los organizadores de varios esquemas nacionales de evaluación de la calidad.
Control de calidad interno
La calidad de los resultados analíticos depende de la precisión del método logrado en la práctica, y esto a su vez depende de la estricta adherencia a un protocolo definido. La precisión se evalúa mejor mediante la inclusión de "muestras de control de calidad" a intervalos regulares durante una ejecución analítica. Por ejemplo, para el control de los análisis de plomo en sangre, se introducen muestras de control de calidad en la corrida después de cada seis u ocho muestras de trabajadores reales. Se pueden monitorear métodos analíticos más estables con menos muestras de control de calidad por corrida. Las muestras de control de calidad para el análisis de plomo en sangre se preparan a partir de 500 ml de sangre (humana o bovina) a la que se le añade plomo inorgánico; las alícuotas individuales se almacenan a baja temperatura (Bullock, Smith y Whitehead 1986). Antes de poner en uso cada nuevo lote, se analizan 20 alícuotas en corridas separadas en diferentes ocasiones para establecer el resultado medio de este lote de muestras de control de calidad, así como su desviación estándar (Whitehead 1977). Estas dos figuras se utilizan para configurar un gráfico de control de Shewhart (figura 27.2). Los resultados del análisis de las muestras de control de calidad incluidas en las ejecuciones posteriores se representan en el gráfico. Luego, el analista usa reglas para aceptar o rechazar una corrida analítica dependiendo de si los resultados de estas muestras caen dentro de dos o tres desviaciones estándar (DE) de la media. Westgard et al. (1981) para su aplicación a muestras de control. Este enfoque del control de calidad se describe en los libros de texto de química clínica y Whitehead (1977) establece un enfoque simple para la introducción del aseguramiento de la calidad. Debe enfatizarse que estas técnicas de control de calidad dependen de la preparación y análisis de muestras de control de calidad por separado de las muestras de calibración que se utilizan en cada ocasión analítica.
Figura 27.2 Gráfico de control de Shewhart para muestras de control de calidad
Este enfoque se puede adaptar a una variedad de ensayos de monitoreo biológico o de monitoreo de efectos biológicos. Se pueden preparar lotes de muestras de sangre u orina mediante la adición del material tóxico o del metabolito que se va a medir. De manera similar, la sangre, el suero, el plasma o la orina pueden dividirse en alícuotas y almacenarse ultracongelados o liofilizados para la medición de enzimas o proteínas. Sin embargo, se debe tener cuidado para evitar el riesgo de infección para el analista a partir de muestras basadas en sangre humana.
El cumplimiento cuidadoso de un protocolo bien definido y de las reglas de aceptabilidad es una primera etapa esencial en un programa de garantía de calidad. Cualquier laboratorio debe estar preparado para discutir su control de calidad y el desempeño de la evaluación de calidad con los profesionales de la salud que lo utilizan y para investigar hallazgos sorprendentes o inusuales.
Evaluación de Calidad Externa
Una vez que un laboratorio ha establecido que puede producir resultados con la precisión adecuada, la siguiente etapa es confirmar la exactitud ("veracidad") de los valores medidos, es decir, la relación de las mediciones realizadas con la cantidad real presente. Este es un ejercicio difícil de hacer para un laboratorio por sí solo, pero se puede lograr participando en un programa externo de evaluación de calidad regular. Estos han sido una parte esencial de la práctica de la química clínica durante algún tiempo, pero no han estado ampliamente disponibles para el control biológico. La excepción es el análisis de plomo en sangre, donde los esquemas han estado disponibles desde la década de 1970 (p. ej., Bullock, Smith y Whitehead 1986). La comparación de los resultados analíticos con los informados por otros laboratorios que analizan muestras del mismo lote permite evaluar el desempeño de un laboratorio en comparación con otros, así como medir su precisión. Están disponibles varios esquemas de evaluación de calidad nacionales e internacionales. Muchos de estos esquemas dan la bienvenida a nuevos laboratorios, ya que la validez de la media de los resultados de un analito de todos los laboratorios participantes (tomada como una medida de la concentración real) aumenta con el número de participantes. Los esquemas con muchos participantes también son más capaces de analizar el rendimiento del laboratorio de acuerdo con el método analítico y, por lo tanto, asesorar sobre alternativas a los métodos con características de rendimiento deficientes. En algunos países, la participación en dicho esquema es una parte esencial de la acreditación del laboratorio. La OMS (1981) ha publicado directrices para el diseño y funcionamiento de esquemas de evaluación externa de la calidad.
En ausencia de esquemas de evaluación de calidad externos establecidos, la precisión puede verificarse utilizando materiales de referencia certificados que están disponibles comercialmente para una gama limitada de analitos. Las ventajas de las muestras distribuidas por esquemas externos de evaluación de la calidad son que (1) el analista no tiene conocimiento previo del resultado, (2) se presenta un rango de concentraciones y (3) como métodos analíticos definitivos no tienen que ser empleados, los materiales involucrados son más baratos.
Control de calidad preanalítico
El esfuerzo invertido en lograr una buena exactitud y precisión de laboratorio se desperdicia si las muestras presentadas al laboratorio no se han tomado en el momento correcto, si han sufrido contaminación, se han deteriorado durante el transporte o se han etiquetado de manera inadecuada o incorrecta. También es una mala práctica profesional someter a las personas a un muestreo invasivo sin cuidar adecuadamente los materiales muestreados. Aunque el muestreo a menudo no está bajo el control directo del analista de laboratorio, un programa completo de monitoreo biológico de calidad debe tener en cuenta estos factores y el laboratorio debe garantizar que las jeringas y los recipientes de muestra proporcionados estén libres de contaminación, con instrucciones claras sobre la técnica de muestreo y almacenamiento y transporte de muestras. Actualmente se reconoce la importancia del momento correcto de muestreo dentro del turno o semana laboral y su dependencia de la toxicocinética del material muestreado (ACGIH 1993; HSE 1992), y esta información debe estar disponible para los profesionales de la salud responsables de recolectar las muestras. .
Control de calidad postanalítico
Los resultados analíticos de alta calidad pueden ser de poca utilidad para el individuo o el profesional de la salud si no se comunican al profesional en forma interpretable y en el momento adecuado. Cada laboratorio de monitoreo biológico debe desarrollar procedimientos de notificación para alertar al profesional de la salud que envía las muestras sobre resultados anormales, inesperados o desconcertantes a tiempo para permitir que se tomen las medidas apropiadas. La interpretación de los resultados de laboratorio, especialmente los cambios de concentración entre muestras sucesivas, a menudo depende del conocimiento de la precisión del ensayo. Como parte de la gestión de calidad total desde la recolección de muestras hasta la devolución de los resultados, los profesionales de la salud deben recibir información sobre la precisión y exactitud del laboratorio de monitoreo biológico, así como los rangos de referencia y los límites legales y de asesoramiento, para ayudarlos en la interpretación de los resultados.
Es difícil hablar de análisis del trabajo sin ponerlo en la perspectiva de los cambios recientes en el mundo industrial, porque la naturaleza de las actividades y las condiciones en que se llevan a cabo han experimentado una evolución considerable en los últimos años. Los factores que han dado lugar a estos cambios han sido numerosos, pero hay dos cuyo impacto ha resultado crucial. Por un lado, el progreso tecnológico con su ritmo cada vez más acelerado y los cambios provocados por las tecnologías de la información han revolucionado los puestos de trabajo (De Keyser 1986). Por otro lado, la incertidumbre del mercado económico ha requerido una mayor flexibilidad en la gestión del personal y la organización del trabajo. Si los trabajadores han ganado una visión más amplia del proceso de producción, menos rutinaria y sin duda más sistemática, al mismo tiempo han perdido vínculos exclusivos con un entorno, un equipo, una herramienta de producción. Es difícil ver estos cambios con serenidad, pero hay que afrontar que se ha creado un nuevo paisaje industrial, a veces más enriquecedor para aquellos trabajadores que encuentran en él su lugar, pero también lleno de escollos y preocupaciones para quienes son marginados o excluidos. Sin embargo, una idea está siendo retomada en las empresas y ha sido confirmada por experimentos piloto en muchos países: debería ser posible guiar los cambios y suavizar sus efectos adversos con el uso de análisis relevantes y utilizando todos los recursos para la negociación entre los diferentes trabajos. actores Es en este contexto en el que debemos situar hoy los análisis del trabajo, como herramientas que nos permitan describir mejor las tareas y actividades para orientar intervenciones de diversa índole, como la formación, la puesta en marcha de nuevos modos organizativos o el diseño de herramientas y trabajos. sistemas Hablamos de análisis, y no de uno solo, ya que existen un gran número de ellos, dependiendo de los contextos teóricos y culturales en los que se desarrollen, los fines particulares que persigan, las evidencias que recojan o la preocupación del analizador por una u otra. especificidad o generalidad. En este artículo nos limitaremos a presentar algunas características de los análisis del trabajo y enfatizar la importancia del trabajo colectivo. Nuestras conclusiones señalarán otros caminos que los límites de este texto nos impiden recorrer con mayor profundidad.
Algunas características de los análisis de trabajo
El contexto
Si el objetivo principal de cualquier análisis de trabajo es describir lo que el operador sío deberían hacer, ubicarlo más precisamente en su contexto a menudo ha parecido indispensable para los investigadores. Mencionan, según sus propios puntos de vista, pero de manera muy similar, los conceptos de contexto, situación, entorno, dominio de trabajo, mundo laboral or ambiente de trabajo. El problema radica menos en los matices entre estos términos que en la selección de variables que deben describirse para darles un significado útil. En efecto, el mundo es vasto y la industria es compleja, y las características a las que se podría hacer referencia son innumerables. Se pueden notar dos tendencias entre los autores en el campo. El primero ve la descripción del contexto como un medio para captar el interés del lector y proporcionarle un marco semántico adecuado. El segundo tiene una perspectiva teórica diferente: intenta abarcar tanto el contexto como la actividad, describiendo solo aquellos elementos del contexto que son capaces de influir en el comportamiento de los operadores.
El marco semántico
El contexto tiene poder evocador. Basta, para un lector informado, leer acerca de un operador en una sala de control en proceso continuo para llamar un cuadro de trabajo a través de comandos y vigilancia a distancia, donde predominan las tareas de detección, diagnóstico y regulación. ¿Qué variables deben describirse para crear un contexto suficientemente significativo? Todo depende del lector. No obstante, existe un consenso en la literatura sobre algunas variables clave. Él la naturaleza del sector económico, el tipo de producción o servicio, el tamaño y la ubicación geográfica del sitio son útiles.
Los procesos de producción, la herramientas o maquinas y ellos nivel de automatización permitir adivinar ciertas limitaciones y ciertas cualificaciones necesarias. Él estructura del personal, junto con la edad y el nivel de cualificación y experiencia son datos cruciales siempre que el análisis se refiera a aspectos de formación o de flexibilidad organizativa. Él organización de trabajo establecido depende más de la filosofía de la empresa que de la tecnología. Su descripción incluye, en particular, los horarios de trabajo, el grado de centralización de las decisiones y los tipos de control que se ejercen sobre los trabajadores. Se pueden añadir otros elementos en diferentes casos. Están vinculados a la historia y la cultura de la empresa, su situación económica, las condiciones de trabajo y cualquier reestructuración, fusión e inversión. Existen al menos tantos sistemas de clasificación como autores, y hay numerosas listas descriptivas en circulación. En Francia, se ha hecho un esfuerzo especial para generalizar métodos descriptivos simples, en particular permitiendo clasificar ciertos factores según sean o no satisfactorios para el operador (RNUR 1976; Guelaud et al. 1977).
La descripción de los factores relevantes con respecto a la actividad.
La taxonomía de sistemas complejos descrita por Rasmussen, Pejtersen y Schmidts (1990) representa uno de los intentos más ambiciosos de abarcar al mismo tiempo el contexto y su influencia sobre el operador. Su idea principal es integrar, de manera sistemática, los diferentes elementos que lo componen y resaltar los grados de libertad y las restricciones dentro de las cuales se pueden desarrollar las estrategias individuales. Su objetivo exhaustivo hace que sea difícil de manipular, pero el uso de múltiples modos de representación, incluidos los gráficos, para ilustrar las restricciones tiene un valor heurístico que atraerá a muchos lectores. Otros enfoques son más específicos. Lo que buscan los autores es la selección de factores que puedan influir en una actividad concreta. Así, con interés en el control de procesos en un entorno cambiante, Brehmer (1990) propone una serie de características temporales del contexto que inciden en el control y anticipación del operador (ver figura 1). La tipología de este autor ha sido desarrollada a partir de “micro-mundos”, simulaciones computarizadas de situaciones dinámicas, pero el propio autor, junto con muchos otros desde entonces, la utilizó para la industria de procesos continuos (Van Daele 1992). Para ciertas actividades, la influencia del entorno es bien conocida y la selección de factores no es demasiado difícil. Así, si estamos interesados en la frecuencia cardíaca en el entorno de trabajo, a menudo nos limitamos a describir las temperaturas del aire, las limitaciones físicas de la tarea o la edad y la formación del sujeto, aunque sabemos que al hacerlo tal vez nos salimos. elementos relevantes. Para otros, la elección es más difícil. Los estudios sobre errores humanos, por ejemplo, muestran que los factores capaces de producirlos son numerosos (Reason 1989). A veces, cuando el conocimiento teórico es insuficiente, sólo el procesamiento estadístico, que combina el análisis del contexto y de la actividad, nos permite resaltar los factores contextuales relevantes (Fadier 1990).
Figura 1. Los criterios y subcriterios de la taxonomía de micromundos propuesta por Brehmer (1990)
¿La tarea o la actividad?
La tarea
La tarea se define por sus objetivos, sus limitaciones y los medios que requiere para su realización. Una función dentro de la empresa generalmente se caracteriza por un conjunto de tareas. La tarea realizada difiere de la tarea prescrita programada por la empresa por una gran cantidad de razones: las estrategias de los operadores varían dentro y entre los individuos, el entorno fluctúa y los eventos aleatorios requieren respuestas que a menudo están fuera del marco prescrito. Finalmente, el tarea no siempre se programa con el correcto conocimiento de sus condiciones de ejecución, de ahí la necesidad de adaptaciones en tiempo real. Pero incluso si la tarea se actualiza durante la actividad, a veces hasta el punto de transformarse, sigue siendo la referencia central.
Los cuestionarios, inventarios y taxonomías de tareas son numerosos, especialmente en la literatura en inglés; el lector encontrará excelentes revisiones en Fleishman y Quaintance (1984) y en Greuter y Algera (1989). Algunos de estos instrumentos son meras listas de elementos —por ejemplo, los verbos de acción para ilustrar tareas— que se marcan según la función estudiada. Otros han adoptado un principio jerárquico, caracterizando una tarea como elementos entrelazados, ordenados de lo global a lo particular. Estos métodos están estandarizados y se pueden aplicar a un gran número de funciones; son fáciles de usar y la etapa analítica se acorta mucho. Pero cuando se trata de definir un trabajo específico, son demasiado estáticos y demasiado generales para ser útiles.
A continuación, están aquellos instrumentos que requieren mayor habilidad por parte del investigador; dado que los elementos de análisis no están predefinidos, corresponde al investigador caracterizarlos. A este grupo pertenece la ya obsoleta técnica del incidente crítico de Flanagan (1954), donde el observador describe una función a partir de sus dificultades e identifica los incidentes a los que tendrá que enfrentarse el individuo.
También es el camino adoptado por el análisis de tareas cognitivas (Roth y Woods 1988). Esta técnica tiene como objetivo sacar a la luz los requisitos cognitivos de un trabajo. Una forma de hacerlo es dividir el trabajo en objetivos, limitaciones y medios. La figura 2 muestra cómo la tarea de un anestesista, caracterizada en primer lugar por un objetivo muy global de supervivencia del paciente, puede dividirse en una serie de subobjetivos, que a su vez pueden clasificarse como acciones y medios a emplear. Fueron necesarias más de 100 horas de observación en quirófano y posteriores entrevistas con anestesistas para obtener esta “fotografía” sinóptica de los requerimientos de la función. Esta técnica, aunque bastante laboriosa, es sin embargo útil en ergonomía para determinar si todos los objetivos de una tarea cuentan con los medios para alcanzarlos. También permite comprender la complejidad de una tarea (sus dificultades particulares y objetivos conflictivos, por ejemplo) y facilita la interpretación de ciertos errores humanos. Pero adolece, al igual que otros métodos, de la ausencia de un lenguaje descriptivo (Grant y Mayes 1991). Además, no permite formular hipótesis sobre la naturaleza de los procesos cognitivos puestos en juego para alcanzar las metas en cuestión.
Figura 2. Análisis cognitivo de la tarea: anestesia general
Otros enfoques han analizado los procesos cognitivos asociados con determinadas tareas mediante la elaboración de hipótesis sobre el procesamiento de la información necesario para llevarlas a cabo. Un modelo cognitivo de este tipo empleado con frecuencia es el de Rasmussen (1986), que proporciona, según la naturaleza de la tarea y su familiaridad para el sujeto, tres posibles niveles de actividad basados en hábitos y reflejos basados en habilidades, en reglas adquiridas basados en procedimientos o en procedimientos basados en el conocimiento. Pero otros modelos o teorías que alcanzaron el apogeo de su popularidad durante la década de 1970 siguen en uso. Por lo tanto, la teoría del control óptimo, que considera al hombre como un controlador de las discrepancias entre las metas asignadas y las observadas, todavía se aplica a veces a los procesos cognitivos. Y el modelado mediante redes de tareas interconectadas y diagramas de flujo sigue inspirando a los autores del análisis cognitivo de tareas; la figura 3 proporciona una descripción simplificada de las secuencias de comportamiento en una tarea de control de energía, construyendo una hipótesis sobre ciertas operaciones mentales. Todos estos intentos reflejan la preocupación de los investigadores por reunir en una misma descripción no sólo elementos del contexto, sino también la tarea misma y los procesos cognitivos que la subyacen, y reflejar también el carácter dinámico del trabajo.
Figura 3. Descripción simplificada de los determinantes de una secuencia de comportamiento en tareas de control energético: un caso de consumo inaceptable de energía
Desde la llegada de la organización científica del trabajo, el concepto de tarea prescrita ha sido criticado negativamente porque se ha considerado que implica la imposición a los trabajadores de tareas que no solo se diseñan sin consultar sus necesidades, sino que a menudo van acompañadas de un tiempo específico de ejecución. , una restricción no bien recibida por muchos trabajadores. Incluso si el aspecto de la imposición se ha vuelto bastante más flexible hoy en día e incluso si los trabajadores contribuyen más a menudo al diseño de las tareas, un tiempo asignado para las tareas sigue siendo necesario para la planificación del horario y sigue siendo un componente esencial de la organización del trabajo. La cuantificación del tiempo no siempre debe ser percibida de manera negativa. Constituye un valioso indicador de carga de trabajo. Un método simple pero común de medir la presión del tiempo ejercida sobre un trabajador consiste en determinar el cociente del tiempo necesario para la ejecución de una tarea dividido por el tiempo disponible. Cuanto más cerca esté este cociente de la unidad, mayor será la presión (Wickens 1992). Además, la cuantificación se puede utilizar en una gestión de personal flexible pero adecuada. Tomemos el caso de las enfermeras donde se ha generalizado la técnica de análisis predictivo de tareas, por ejemplo, en la normativa canadiense Planificación de Enfermería Requerida (PRN 80) (Kepenne 1984) o una de sus variantes europeas. Gracias a dichas listas de tareas, acompañadas de su tiempo de ejecución, cada mañana, teniendo en cuenta el número de pacientes y sus condiciones médicas, se puede establecer un horario de atención y una distribución del personal. Lejos de ser una limitante, el PRN 80 ha demostrado en varios hospitales que existe escasez de personal de enfermería, ya que la técnica permite establecer una diferencia (ver figura 4) entre lo deseado y lo observado, es decir, entre el número de personal necesario y el número disponible, e incluso entre las tareas previstas y las tareas realizadas. Los tiempos calculados son solo promedios, y las fluctuaciones de la situación no siempre los hacen aplicables, pero este aspecto negativo se minimiza con una organización flexible que acepta ajustes y permite que el personal participe en efectuar esos ajustes.
Figura 4. Discrepancias entre el número de personal presente y requerido en base al PRN80
La actividad, la evidencia y el desempeño.
Una actividad se define como el conjunto de comportamientos y recursos utilizados por el operador para que se produzca un trabajo, es decir, la transformación o producción de un bien o la prestación de un servicio. Esta actividad se puede entender a través de la observación de diferentes maneras. Faverge (1972) ha descrito cuatro formas de análisis. El primero es un análisis en términos de gestos y posturas, donde el observador ubica, dentro de la actividad visible del operador, clases de comportamiento que son reconocibles y repetidos durante el trabajo. Estas actividades suelen ir acompañadas de una respuesta precisa: por ejemplo, la frecuencia cardíaca, que nos permite valorar la carga física asociada a cada actividad. La segunda forma de análisis es en términos de captación de información. Lo que se descubre, a través de la observación directa —o con la ayuda de cámaras o registradores de movimientos oculares— es el conjunto de señales que capta el operador en el campo de información que lo rodea. Este análisis es particularmente útil en ergonomía cognitiva para tratar de comprender mejor el procesamiento de la información que realiza el operador. El tercer tipo de análisis es en términos de regulación. La idea es identificar los ajustes de actividad llevados a cabo por el operador con el fin de hacer frente a la fluctuación en el medio ambiente o cambios en su propia condición. Ahí encontramos la intervención directa del contexto dentro del análisis. Uno de los proyectos de investigación más citados en esta área es el de Sperandio (1972). Este autor estudió la actividad de los controladores aéreos e identificó importantes cambios de estrategia durante un aumento del tráfico aéreo. Los interpretó como un intento de simplificar la actividad con el objetivo de mantener un nivel de carga aceptable y, al mismo tiempo, continuar cumpliendo con los requisitos de la tarea. El cuarto es un análisis en términos de procesos de pensamiento. Este tipo de análisis ha sido ampliamente utilizado en la ergonomía de puestos altamente automatizados. De hecho, el diseño de ayudas informatizadas y, en particular, de ayudas inteligentes para el operador requiere una comprensión profunda de la forma en que el operador razona para resolver ciertos problemas. El razonamiento involucrado en la programación, la anticipación y el diagnóstico ha sido objeto de análisis, un ejemplo de los cuales se puede encontrar en la figura 5. Sin embargo, la evidencia de actividad mental solo se puede inferir. Aparte de ciertos aspectos observables del comportamiento, como los movimientos oculares y el tiempo de resolución de problemas, la mayoría de estos análisis recurren a la respuesta verbal. En los últimos años se ha hecho especial hincapié en los conocimientos necesarios para realizar determinadas actividades, tratando los investigadores de no postularlos desde un principio sino de hacerlos patentes a través del propio análisis.
Figura 5. Análisis de la actividad mental. Estrategias en el control de procesos con largos tiempos de respuesta: la necesidad del apoyo informatizado en el diagnóstico
Tales esfuerzos han puesto de manifiesto el hecho de que se pueden obtener rendimientos casi idénticos con niveles de conocimiento muy diferentes, siempre que los operadores sean conscientes de sus límites y apliquen estrategias adaptadas a sus capacidades. Por lo tanto, en nuestro estudio de la puesta en marcha de una planta termoeléctrica (De Keyser y Housiaux 1989), las puestas en marcha fueron realizadas tanto por ingenieros como por operadores. Los conocimientos teóricos y procedimentales que poseían estos dos grupos, obtenidos mediante entrevistas y cuestionarios, eran muy diferentes. Los operadores en particular a veces tenían una comprensión errónea de las variables en los eslabones funcionales del proceso. A pesar de ello, las actuaciones de los dos grupos fueron muy igualadas. Pero los operadores tuvieron en cuenta más variables para verificar el control de la puesta en marcha y realizaron verificaciones más frecuentes. Tales resultados también fueron obtenidos por Amalberti (1991), quien mencionó la existencia de metaconocimientos que permiten a los expertos administrar sus propios recursos.
Que evidencia de actividad es apropiado obtener? Su naturaleza, como hemos visto, depende estrechamente de la forma de análisis planeada. Su forma varía según el grado de cuidado metodológico ejercido por el observador. Provocado La evidencia se distingue de espontáneo evidencia y concomitante desde posterior evidencia. En general, cuando la naturaleza del trabajo lo permita, se preferirá la evidencia concomitante y espontánea. Están libres de varios inconvenientes, como la falta de fiabilidad de la memoria, la interferencia del observador, el efecto de la reconstrucción racionalizadora por parte del sujeto, etc. Para ilustrar estas distinciones, tomaremos el ejemplo de las verbalizaciones. Las verbalizaciones espontáneas son intercambios verbales, o monólogos expresados espontáneamente sin ser solicitados por el observador; las verbalizaciones provocadas son aquellas que se realizan a petición específica del observador, como la petición que se hace al sujeto de “pensar en voz alta”, que es bien conocida en la literatura cognitiva. Ambos tipos se pueden realizar en tiempo real, durante el trabajo, y por lo tanto son concomitantes.
También pueden ser posteriores, como en las entrevistas, o verbalizaciones de los sujetos cuando visualizan cintas de vídeo de su trabajo. En cuanto a la validez de las verbalizaciones, el lector no debe ignorar la duda suscitada al respecto por la controversia entre Nisbett y De Camp Wilson (1977) y White (1988) y las precauciones sugeridas por numerosos autores conscientes de su importancia en el estudio. de actividad mental en vista de las dificultades metodológicas encontradas (Ericson y Simon 1984; Savoyant y Leplat 1983; Caverni 1988; Bainbridge 1986).
La organización de esta evidencia, su procesamiento y su formalización requieren lenguajes descriptivos y en ocasiones análisis que van más allá de la observación de campo. Aquellas actividades mentales que se infieren de la evidencia, por ejemplo, siguen siendo hipotéticas. Hoy en día se suelen describir utilizando lenguajes derivados de la inteligencia artificial, haciendo uso de representaciones en términos de esquemas, reglas de producción y redes de conexión. Además, el uso de simulaciones computarizadas —de micromundos— para identificar ciertas actividades mentales se ha generalizado, aunque la validez de los resultados obtenidos de tales simulaciones computarizadas, en vista de la complejidad del mundo industrial, está sujeta a debate. Finalmente, debemos mencionar los modelamientos cognitivos de ciertas actividades mentales extraídas del campo. Entre los más conocidos está el diagnóstico del operador de una central nuclear, realizado en ISPRA (Decortis y Cacciabue 1990), y la planificación del piloto de combate perfeccionada en Centre d'études et de recherches de médecine aérospatiale (CERMA) (Amalberti et al. 1989).
La medición de las discrepancias entre el rendimiento de estos modelos y el de los operadores vivos reales es un campo fructífero en el análisis de actividad. Desempeno es el resultado de la actividad, la respuesta final dada por el sujeto a los requerimientos de la tarea. Se expresa a nivel de producción: productividad, calidad, error, incidente, accidente, e incluso, a un nivel más global, ausentismo o rotación. Pero también hay que identificarlo a nivel individual: la expresión subjetiva de satisfacción, estrés, fatiga o carga de trabajo, y muchas respuestas fisiológicas también son indicadores de rendimiento. Solo el conjunto completo de datos permite la interpretación de la actividad, es decir, juzgar si promueve o no las metas deseadas mientras permanece dentro de los límites humanos. Existe un conjunto de normas que, hasta cierto punto, guían al observador. Pero estas normas no son situado— no tienen en cuenta el contexto, sus fluctuaciones y la condición del trabajador. Es por eso que en la ergonomía del diseño, incluso cuando existen reglas, normas y modelos, se aconseja a los diseñadores probar el producto utilizando prototipos lo antes posible y evaluar la actividad y el desempeño de los usuarios.
¿Trabajo individual o colectivo?
Mientras que en la gran mayoría de los casos, el trabajo es un acto colectivo, la mayoría de los análisis del trabajo se centran en tareas o actividades individuales. Sin embargo, el hecho es que la evolución tecnológica, al igual que la organización del trabajo, hoy enfatiza el trabajo distribuido, ya sea entre trabajadores y máquinas o simplemente dentro de un grupo. ¿Qué caminos han explorado los autores para tener en cuenta esta distribución (Rasmussen, Pejtersen y Schmidts 1990)? Se centran en tres aspectos: la estructura, la naturaleza de los intercambios y la labilidad estructural.
Estructura
Ya sea que veamos la estructura como elementos del análisis de personas, o de servicios, o incluso de diferentes ramas de una empresa que trabajan en red, la descripción de los vínculos que las unen sigue siendo un problema. Estamos muy familiarizados con los organigramas dentro de las empresas que indican la estructura de autoridad y cuyas diversas formas reflejan la filosofía organizativa de la empresa: muy jerárquicamente organizados para una estructura tipo Taylor, o aplanados como un rastrillo, incluso en forma de matriz, para una estructura más flexible. Son posibles otras descripciones de actividades distribuidas: se da un ejemplo en la figura 6. Más recientemente, la necesidad de las empresas de representar sus intercambios de información a nivel global ha llevado a repensar los sistemas de información. Gracias a ciertos lenguajes descriptivos —por ejemplo, los esquemas de diseño o las matrices entidad-relaciones-atributos—, la estructura de relaciones a nivel colectivo puede hoy describirse de manera muy abstracta y puede servir como trampolín para la creación de sistemas de gestión informatizados. .
Figura 6. Diseño de ciclo de vida integrado
La naturaleza de los intercambios.
El simple hecho de tener una descripción de los enlaces que unen a las entidades dice poco sobre el contenido en sí de los intercambios; por supuesto, se puede especificar la naturaleza de la relación (movimiento de un lugar a otro, transferencias de información, dependencia jerárquica, etc.), pero esto suele ser bastante inadecuado. El análisis de las comunicaciones dentro de los equipos se ha convertido en un medio privilegiado para captar la naturaleza misma del trabajo colectivo, abarcando los temas mencionados, la creación de un lenguaje común en un equipo, la modificación de las comunicaciones cuando las circunstancias son críticas, etc. (Tardieu, Nanci y Pascot 1985; Rolland 1986; Navarro 1990; Van Daele 1992; Lacoste 1983; Moray, Sanderson y Vincente 1989). El conocimiento de estas interacciones es particularmente útil para la creación de herramientas informáticas, en particular ayudas para la toma de decisiones para comprender los errores. Las diferentes etapas y las dificultades metodológicas vinculadas al uso de esta evidencia han sido bien descritas por Falzon (1991).
Labilidad estructural
Es el trabajo sobre actividades más que sobre tareas lo que ha abierto el campo de la labilidad estructural, es decir, de las constantes reconfiguraciones del trabajo colectivo bajo la influencia de factores contextuales. Estudios como el de Rogalski (1991), que analizó durante un largo período las actividades colectivas frente a los incendios forestales en Francia, y el de Bourdon y Weill Fassina (1994), que estudiaron la estructura organizativa establecida para hacer frente a los accidentes ferroviarios, son ambos muy informativo. Muestran claramente cómo el contexto moldea la estructura de los intercambios, el número y tipo de actores involucrados, la naturaleza de las comunicaciones y el número de parámetros esenciales para el trabajo. Cuanto más fluctúa este contexto, más se alejan de la realidad las descripciones fijas de la tarea. El conocimiento de esta labilidad, y una mejor comprensión de los fenómenos que en ella tienen lugar, son esenciales para planificar lo impredecible y para brindar una mejor formación a los involucrados en el trabajo colectivo en una crisis.
Conclusiones
Las diversas fases del análisis del trabajo que se han descrito son una parte iterativa de cualquier ciclo de diseño de factores humanos (ver figura 6). En este diseño de cualquier objeto técnico, ya sea una herramienta, un puesto de trabajo o una fábrica, en el que se tiene en cuenta el factor humano, se necesita cierta información en el tiempo. En general, el inicio del ciclo de diseño se caracteriza por la necesidad de datos que involucran las restricciones ambientales, los tipos de trabajos que se van a realizar y las diversas características de los usuarios. Esta información inicial permite elaborar las especificaciones del objeto para tener en cuenta los requisitos de trabajo. Pero esto es, en cierto sentido, solo un modelo tosco en comparación con la situación laboral real. Esto explica por qué son necesarios modelos y prototipos que, desde su origen, permitan evaluar no los puestos de trabajo en sí, sino las actividades de los futuros usuarios. En consecuencia, si bien el diseño de las imágenes en un monitor en una sala de control puede basarse en un análisis cognitivo exhaustivo del trabajo a realizar, solo un análisis de la actividad basado en datos permitirá determinar con precisión si el prototipo realmente funcionará. ser útil en la situación laboral real (Van Daele 1988). Una vez que el objeto técnico terminado se pone en funcionamiento, se pone mayor énfasis en el desempeño de los usuarios y en situaciones disfuncionales, como accidentes o errores humanos. La recopilación de este tipo de información permite realizar las correcciones finales que aumentarán la confiabilidad y usabilidad del objeto terminado. Tanto la industria nuclear como la industria aeronáutica sirven como ejemplo: la retroalimentación operativa implica informar cada incidente que ocurre. De esta manera, el bucle de diseño cierra el círculo.
El organismo humano representa un sistema biológico complejo en varios niveles de organización, desde el nivel celular-molecular hasta los tejidos y órganos. El organismo es un sistema abierto que intercambia materia y energía con el medio ambiente a través de numerosas reacciones bioquímicas en un equilibrio dinámico. El medio ambiente puede estar contaminado o contaminado con varios tóxicos.
La penetración de moléculas o iones de sustancias tóxicas del entorno laboral o de vida en un sistema biológico tan fuertemente coordinado puede perturbar de forma reversible o irreversible los procesos bioquímicos celulares normales, o incluso lesionar y destruir la célula (ver "Daño celular y muerte celular").
La penetración de un tóxico desde el ambiente hasta los sitios de su efecto tóxico dentro del organismo se puede dividir en tres fases:
Aquí centraremos nuestra atención exclusivamente en los procesos toxicocinéticos dentro del organismo humano después de la exposición a sustancias tóxicas en el medio ambiente.
Las moléculas o iones de los tóxicos presentes en el ambiente penetrarán en el organismo a través de la piel y las mucosas, o de las células epiteliales de las vías respiratorias y gastrointestinales, según el punto de entrada. Eso significa que las moléculas y los iones de los tóxicos deben penetrar a través de las membranas celulares de estos sistemas biológicos, así como a través de un intrincado sistema de endomembranas dentro de la célula.
Todos los procesos toxicocinéticos y toxicodinámicos ocurren a nivel molecular-celular. Numerosos factores influyen en estos procesos y estos se pueden dividir en dos grupos básicos:
Propiedades fisicoquímicas de los tóxicos
En 1854, el toxicólogo ruso EV Pelikan inició estudios sobre la relación entre la estructura química de una sustancia y su actividad biológica: la relación estructura-actividad (SAR). La estructura química determina directamente las propiedades físico-químicas, algunas de las cuales son responsables de la actividad biológica.
Para definir la estructura química se pueden seleccionar numerosos parámetros como descriptores, que se pueden dividir en varios grupos:
1. Físico-químico:
2. estérico: volumen molecular, forma y área superficial, forma de la subestructura, reactividad molecular, etc.
3. Estructural: número de enlaces número de anillos (en compuestos policíclicos), grado de ramificación, etc.
Para cada tóxico es necesario seleccionar un conjunto de descriptores relacionados con un mecanismo particular de actividad. Sin embargo, desde el punto de vista toxicocinético, dos parámetros son de importancia general para todos los tóxicos:
En el caso de polvos y aerosoles inhalados, el tamaño, la forma, la superficie y la densidad de las partículas también influyen en su toxicocinética y toxicodinámica.
Estructura y Propiedades de las Membranas
La célula eucariota de los organismos humanos y animales está rodeada por una membrana citoplasmática que regula el transporte de sustancias y mantiene la homeostasis celular. Los orgánulos celulares (núcleo, mitocondrias) también poseen membranas. El citoplasma celular está compartimentado por intrincadas estructuras membranosas, el retículo endoplásmico y el complejo de Golgi (endomembranas). Todas estas membranas son estructuralmente similares, pero varían en el contenido de lípidos y proteínas.
El marco estructural de las membranas es una bicapa de moléculas lipídicas (fosfolípidos, esfingolípidos, colesterol). El esqueleto de una molécula de fosfolípido es el glicerol con dos de sus grupos -OH esterificados por ácidos grasos alifáticos de 16 a 18 átomos de carbono, y el tercer grupo esterificado por un grupo fosfato y un compuesto nitrogenado (colina, etanolamina, serina). En los esfingolípidos, la esfingosina es la base.
La molécula de lípido es anfipática porque consta de una "cabeza" hidrófila polar (amino alcohol, fosfato, glicerol) y una "cola" gemela no polar (ácidos grasos). La bicapa lipídica está dispuesta de manera que las cabezas hidrófilas constituyen la superficie exterior e interior de la membrana y las colas lipófilas se estiran hacia el interior de la membrana, que contiene agua, varios iones y moléculas.
Las proteínas y glicoproteínas se insertan en la bicapa lipídica (proteínas intrínsecas) o se unen a la superficie de la membrana (proteínas extrínsecas). Estas proteínas contribuyen a la integridad estructural de la membrana, pero también pueden funcionar como enzimas, transportadores, paredes de poros o receptores.
La membrana representa una estructura dinámica que se puede desintegrar y reconstruir con una proporción diferente de lípidos y proteínas, según las necesidades funcionales.
La regulación del transporte de sustancias dentro y fuera de la célula representa una de las funciones básicas de las membranas internas y externas.
Algunas moléculas lipofílicas pasan directamente a través de la bicapa lipídica. Las moléculas hidrofílicas y los iones se transportan a través de los poros. Las membranas responden a condiciones cambiantes abriendo o sellando ciertos poros de varios tamaños.
Los siguientes procesos y mecanismos están involucrados en el transporte de sustancias, incluidos los tóxicos, a través de las membranas:
Procesos activos:
Difusión
Esto representa el movimiento de moléculas e iones a través de la bicapa lipídica o poros desde una región de alta concentración o alto potencial eléctrico a una región de baja concentración o potencial ("cuesta abajo"). La diferencia de concentración o carga eléctrica es la fuerza impulsora que influye en la intensidad del flujo en ambas direcciones. En el estado de equilibrio, la entrada será igual a la salida. La tasa de difusión sigue la ley de Ficke, que establece que es directamente proporcional a la superficie disponible de la membrana, la diferencia en el gradiente de concentración (carga) y el coeficiente de difusión característico, e inversamente proporcional al espesor de la membrana.
Las moléculas lipofílicas pequeñas pasan fácilmente a través de la capa lipídica de la membrana, según el coeficiente de partición de Nernst.
Las moléculas lipofílicas grandes, las moléculas solubles en agua y los iones utilizarán canales de poros acuosos para su paso. El tamaño y la estereoconfiguración influirán en el paso de las moléculas. Para los iones, además del tamaño, el tipo de carga será determinante. Las moléculas de proteína de las paredes de los poros pueden adquirir carga positiva o negativa. Los poros estrechos tienden a ser selectivos: los ligandos con carga negativa permitirán el paso solo de cationes, y los ligandos con carga positiva solo permitirán el paso de aniones. Con el aumento del diámetro de los poros, el flujo hidrodinámico es dominante, lo que permite el paso libre de iones y moléculas, de acuerdo con la ley de Poiseuille. Esta filtración es consecuencia del gradiente osmótico. En algunos casos, los iones pueden penetrar a través de moléculas complejas específicas:ionóforos—que pueden ser producidos por microorganismos con efectos antibióticos (nonactina, valinomicina, gramacidina, etc.).
Difusión facilitada o catalizada
Esto requiere la presencia de un transportador en la membrana, generalmente una molécula de proteína (permeasa). El transportador se une selectivamente a sustancias, asemejándose a un complejo sustrato-enzima. Moléculas similares (incluidos los tóxicos) pueden competir por el transportador específico hasta alcanzar su punto de saturación. Los tóxicos pueden competir por el transportador y cuando están irreversiblemente ligados a él, el transporte se bloquea. La tasa de transporte es característica para cada tipo de transportista. Si el transporte se realiza en ambas direcciones, se denomina intercambio de difusión.
Transporte activo
Para el transporte de algunas sustancias vitales para la célula, se utiliza un tipo especial de transportador, transportando contra el gradiente de concentración o potencial eléctrico ("cuesta arriba"). La portadora es muy estereoespecífica y puede saturarse.
Para el transporte cuesta arriba, se requiere energía. La energía necesaria se obtiene mediante la escisión catalítica de moléculas de ATP en ADP por la enzima adenosina trifosfatasa (ATP-asa).
Los tóxicos pueden interferir con este transporte por inhibición competitiva o no competitiva del transportador o por inhibición de la actividad ATP-asa.
Endocitosis
Endocitosis se define como un mecanismo de transporte en el que la membrana celular rodea el material plegándose para formar una vesícula que lo transporta a través de la célula. Cuando el material es líquido, el proceso se denomina pinocitosis. En algunos casos el material se une a un receptor y este complejo es transportado por una vesícula de membrana. Este tipo de transporte es utilizado especialmente por las células epiteliales del tracto gastrointestinal y las células del hígado y los riñones.
Absorción de sustancias tóxicas
Las personas están expuestas a numerosos tóxicos presentes en el entorno laboral y de vida, que pueden penetrar en el organismo humano a través de tres puertas principales de entrada:
En el caso de la exposición en la industria, la inhalación representa la vía dominante de entrada de tóxicos, seguida de la penetración dérmica. En la agricultura, la exposición a plaguicidas a través de la absorción dérmica es casi igual a los casos de inhalación y penetración dérmica combinadas. La población general está expuesta principalmente por la ingestión de alimentos, agua y bebidas contaminados, luego por inhalación y con menos frecuencia por penetración dérmica.
Absorción a través del tracto respiratorio
La absorción en los pulmones representa la principal vía de absorción de numerosas sustancias tóxicas transportadas por el aire (gases, vapores, humos, nieblas, humos, polvos, aerosoles, etc.).
El tracto respiratorio (TR) representa un sistema ideal de intercambio de gases que posee una membrana con una superficie de 30 m2 (caducidad) a 100m2 (inspiración profunda), detrás de la cual se encuentra una red de unos 2,000 km de capilares. El sistema, desarrollado a través de la evolución, se acomoda en un espacio relativamente pequeño (cavidad torácica) protegido por costillas.
Anatómica y fisiológicamente el RT se puede dividir en tres compartimentos:
Los tóxicos hidrofílicos son fácilmente absorbidos por el epitelio de la región nasofaríngea. Todo el epitelio de las regiones NP y TB está cubierto por una película de agua. Los tóxicos lipofílicos se absorben parcialmente en el NP y el TB, pero principalmente en los alvéolos por difusión a través de las membranas alvéolo-capilares. La tasa de absorción depende de la ventilación pulmonar, el gasto cardíaco (flujo de sangre a través de los pulmones), la solubilidad del tóxico en la sangre y su tasa metabólica.
En los alvéolos se lleva a cabo el intercambio gaseoso. La pared alveolar está formada por un epitelio, un marco intersticial de membrana basal, tejido conectivo y el endotelio capilar. La difusión de tóxicos es muy rápida a través de estas capas, que tienen un espesor de alrededor de 0.8 μm. En los alvéolos, el tóxico se transfiere de la fase de aire a la fase líquida (sangre). La velocidad de absorción (distribución del aire a la sangre) de un tóxico depende de su concentración en el aire alveolar y del coeficiente de partición de Nernst para la sangre (coeficiente de solubilidad).
En la sangre, el tóxico puede disolverse en la fase líquida mediante procesos físicos simples o unirse a las células sanguíneas y/o constituyentes del plasma según afinidad química o por adsorción. El contenido de agua de la sangre es del 75% y, por lo tanto, los gases y vapores hidrofílicos muestran una alta solubilidad en plasma (p. ej., alcoholes). Los tóxicos lipofílicos (p. ej., benceno) normalmente se unen a células o macromoléculas como la albúmina.
Desde el comienzo mismo de la exposición en los pulmones, ocurren dos procesos opuestos: absorción y desorción. El equilibrio entre estos procesos depende de la concentración del tóxico en el aire alveolar y la sangre. Al comienzo de la exposición, la concentración de tóxico en la sangre es 0 y la retención en la sangre es casi del 100%. Con la continuación de la exposición, se alcanza un equilibrio entre la absorción y la desorción. Los tóxicos hidrofílicos alcanzan rápidamente el equilibrio y la tasa de absorción depende de la ventilación pulmonar más que del flujo sanguíneo. Los tóxicos lipofílicos necesitan más tiempo para alcanzar el equilibrio, y aquí el flujo de sangre no saturada gobierna la tasa de absorción.
La deposición de partículas y aerosoles en la RT depende de factores físicos y fisiológicos, así como del tamaño de las partículas. En resumen, cuanto más pequeña sea la partícula, más profundamente penetrará en la RT.
La baja retención relativamente constante de partículas de polvo en los pulmones de personas muy expuestas (por ejemplo, mineros) sugiere la existencia de un sistema muy eficiente para la eliminación de partículas. En la parte superior del RT (traqueobronquial) un manto mucociliar realiza el aclaramiento. En la parte pulmonar actúan tres mecanismos diferentes: (1) manto mucociliar, (2) fagocitosis y (3) penetración directa de partículas a través de la pared alveolar.
Las primeras 17 de las 23 ramificaciones del árbol traqueobronquial poseen células epiteliales ciliadas. Con sus caricias estos cilios mueven constantemente un manto mucoso hacia la boca. Las partículas depositadas sobre este manto mucociliar serán deglutidas en la boca (ingestión). Un manto mucoso también cubre la superficie del epitelio alveolar, moviéndose hacia el manto mucociliar. Además, las células móviles especializadas (fagocitos) engullen partículas y microorganismos en los alvéolos y migran en dos direcciones posibles:
Absorción a través del tracto gastrointestinal
Los tóxicos pueden ingerirse en caso de ingestión accidental, ingesta de alimentos y bebidas contaminados o ingestión de partículas eliminadas del RT.
Todo el canal alimentario, desde el esófago hasta el ano, se construye básicamente de la misma manera. Una capa mucosa (epitelio) está sostenida por tejido conectivo y luego por una red de capilares y músculo liso. El epitelio superficial del estómago está muy arrugado para aumentar el área de superficie de absorción/secreción. El área intestinal contiene numerosas pequeñas proyecciones (vellosidades), que pueden absorber material “bombeando”. El área activa de absorción en los intestinos es de unos 100 m2.
En el tracto gastrointestinal (GIT) todos los procesos de absorción son muy activos:
Algunos iones de metales tóxicos utilizan sistemas de transporte especializados para elementos esenciales: el talio, el cobalto y el manganeso utilizan el sistema del hierro, mientras que el plomo parece utilizar el sistema del calcio.
Muchos factores influyen en la tasa de absorción de sustancias tóxicas en varias partes del TGI:
También es necesario mencionar la circulación enterohepática. Los tóxicos y/o metabolitos polares (glucurónidos y otros conjugados) se excretan con la bilis hacia el duodeno. Aquí, las enzimas de la microflora realizan la hidrólisis y los productos liberados pueden ser reabsorbidos y transportados por la vena porta al hígado. Este mecanismo es muy peligroso en el caso de sustancias hepatotóxicas, ya que permite su acumulación temporal en el hígado.
En el caso de tóxicos biotransformados en el hígado a metabolitos menos tóxicos o no tóxicos, la ingestión puede representar una puerta de entrada menos peligrosa. Después de la absorción en el GIT, estos tóxicos serán transportados por la vena porta al hígado, y allí pueden ser parcialmente detoxificados por biotransformación.
Absorción a través de la piel (dérmica, percutánea)
La piel (1.8 m2 de superficie en un adulto humano) junto con las membranas mucosas de los orificios corporales, cubre la superficie del cuerpo. Representa una barrera contra los agentes físicos, químicos y biológicos, manteniendo la integridad y homeostasis del cuerpo y realizando muchas otras tareas fisiológicas.
Básicamente la piel consta de tres capas: epidermis, piel verdadera (dermis) y tejido subcutáneo (hipodermis). Desde el punto de vista toxicológico, la epidermis es aquí de gran interés. Está construido de muchas capas de células. Una superficie córnea de células muertas aplanadas (estrato córneo) es la capa superior, debajo de la cual se encuentra una capa continua de células vivas (estrato córneo compacto), seguida de una membrana lipídica típica, y luego por el estrato lúcido, el estrato gramulosum y el estrato mucoso La membrana lipídica representa una barrera protectora, pero en las partes pilosas de la piel, tanto los folículos pilosos como los canales de las glándulas sudoríparas penetran a través de ella. Por lo tanto, la absorción dérmica puede ocurrir por los siguientes mecanismos:
La tasa de absorción a través de la piel dependerá de muchos factores:
Transporte de Tóxicos por Sangre y Linfa
Después de la absorción por cualquiera de estas puertas de entrada, los tóxicos llegarán a la sangre, la linfa u otros fluidos corporales. La sangre representa el principal vehículo para el transporte de sustancias tóxicas y sus metabolitos.
La sangre es un órgano circulante fluido que transporta el oxígeno necesario y las sustancias vitales a las células y elimina los productos de desecho del metabolismo. La sangre también contiene componentes celulares, hormonas y otras moléculas involucradas en muchas funciones fisiológicas. La sangre fluye dentro de un sistema circulatorio de vasos sanguíneos relativamente bien cerrado y de alta presión, impulsada por la actividad del corazón. Debido a la alta presión, se produce una fuga de líquido. El sistema linfático representa el sistema de drenaje, en forma de una malla fina de pequeños capilares linfáticos de paredes delgadas que se ramifican a través de los tejidos y órganos blandos.
La sangre es una mezcla de una fase líquida (plasma, 55%) y células sanguíneas sólidas (45%). El plasma contiene proteínas (albúminas, globulinas, fibrinógeno), ácidos orgánicos (láctico, glutámico, cítrico) y muchas otras sustancias (lípidos, lipoproteínas, glicoproteínas, enzimas, sales, xenobióticos, etc.). Los elementos de las células sanguíneas incluyen eritrocitos (Er), leucocitos, reticulocitos, monocitos y plaquetas.
Los tóxicos se absorben como moléculas e iones. Algunos tóxicos al pH de la sangre forman partículas coloides como una tercera forma en este líquido. Las moléculas, iones y coloides de los tóxicos tienen varias posibilidades de transporte en la sangre:
La mayoría de los tóxicos en la sangre existen parcialmente en estado libre en el plasma y parcialmente unidos a los eritrocitos y constituyentes del plasma. La distribución depende de la afinidad de los tóxicos por estos constituyentes. Todas las fracciones están en equilibrio dinámico.
Algunos tóxicos son transportados por los elementos de la sangre, principalmente por los eritrocitos, muy raramente por los leucocitos. Los tóxicos se pueden adsorber en la superficie de Er o se pueden unir a los ligandos del estroma. Si penetran en Er, pueden unirse al hemo (p. ej., monóxido de carbono y selenio) o a la globina (Sb111, Poco210). Algunos tóxicos transportados por Er son arsénico, cesio, torio, radón, plomo y sodio. El cromo hexavalente se une exclusivamente al Er y el cromo trivalente a las proteínas del plasma. Para el zinc, se produce competencia entre el Er y el plasma. Aproximadamente el 96% del plomo es transportado por Er. El mercurio orgánico se une principalmente a Er y el mercurio inorgánico se transporta principalmente a través de la albúmina plasmática. Er transporta pequeñas fracciones de berilio, cobre, telurio y uranio.
La mayoría de los tóxicos son transportados por plasma o proteínas plasmáticas. Muchos electrolitos están presentes como iones en equilibrio con moléculas no disociadas libres o unidas a las fracciones de plasma. Esta fracción iónica de sustancias tóxicas es muy difusible y penetra a través de las paredes de los capilares hacia los tejidos y órganos. Los gases y vapores se pueden disolver en el plasma.
Las proteínas plasmáticas poseen una superficie total de aproximadamente 600 a 800 km2 ofrecido para la absorción de tóxicos. Las moléculas de albúmina poseen alrededor de 109 ligandos catiónicos y 120 aniónicos a disposición de los iones. Muchos iones son transportados parcialmente por la albúmina (p. ej., cobre, zinc y cadmio), al igual que compuestos como dinitro y ortocresoles, nitro y derivados halogenados de hidrocarburos aromáticos y fenoles.
Las moléculas de globulina (alfa y beta) transportan pequeñas moléculas de sustancias tóxicas, así como algunos iones metálicos (cobre, zinc y hierro) y partículas coloides. El fibrinógeno muestra afinidad por ciertas moléculas pequeñas. Muchos tipos de enlaces pueden estar involucrados en la unión de tóxicos a proteínas plasmáticas: fuerzas de Van der Waals, atracción de cargas, asociación entre grupos polares y no polares, puentes de hidrógeno, enlaces covalentes.
Las lipoproteínas plasmáticas transportan tóxicos lipofílicos como los PCB. Las otras fracciones de plasma también sirven como vehículo de transporte. La afinidad de los tóxicos por las proteínas plasmáticas sugiere su afinidad por las proteínas en los tejidos y órganos durante la distribución.
Los ácidos orgánicos (láctico, glutamínico, cítrico) forman complejos con algunos tóxicos. Las tierras alcalinas y las tierras raras, así como algunos elementos pesados en forma de cationes, también forman complejos con oxiácidos y aminoácidos orgánicos. Todos estos complejos suelen ser difusibles y se distribuyen fácilmente en tejidos y órganos.
Los agentes quelantes fisiológicos del plasma, como la transferrina y la metalotioneína, compiten con los ácidos orgánicos y los aminoácidos por los cationes para formar quelatos estables.
Los iones libres difusibles, algunos complejos y algunas moléculas libres se eliminan fácilmente de la sangre a los tejidos y órganos. La fracción libre de iones y moléculas está en equilibrio dinámico con la fracción unida. La concentración de un tóxico en la sangre determinará la velocidad de su distribución en los tejidos y órganos, o su movilización desde ellos hacia la sangre.
Distribución de Tóxicos en el Organismo
El organismo humano se puede dividir en los siguientes compartimientos. (1) órganos internos, (2) piel y músculos, (3) tejido adiposo, (4) tejido conectivo y huesos. Esta clasificación se basa principalmente en el grado de perfusión vascular (sangre) en orden decreciente. Por ejemplo, los órganos internos (incluido el cerebro), que representan solo el 12 % del peso corporal total, reciben alrededor del 75 % del volumen total de sangre. Por otro lado, los tejidos conectivos y los huesos (15% del peso corporal total) reciben solo el uno por ciento del volumen total de sangre.
Los órganos internos bien perfundidos generalmente logran la mayor concentración de tóxicos en el menor tiempo, así como un equilibrio entre la sangre y este compartimento. La absorción de sustancias tóxicas por los tejidos menos perfundidos es mucho más lenta, pero la retención es mayor y la duración de la permanencia es mucho más prolongada (acumulación) debido a la baja perfusión.
Tres componentes son de gran importancia para la distribución intracelular de tóxicos: contenido de agua, lípidos y proteínas en las células de varios tejidos y órganos. El orden de compartimentos mencionado anteriormente también sigue de cerca un contenido decreciente de agua en sus celdas. Los tóxicos hidrofílicos se distribuirán más rápidamente a los fluidos corporales y las células con alto contenido de agua, y los tóxicos lipofílicos a las células con mayor contenido de lípidos (tejido graso).
El organismo posee algunas barreras que dificultan la penetración de algunos grupos de tóxicos, en su mayoría hidrofílicos, a ciertos órganos y tejidos, tales como:
Como se señaló anteriormente, solo las formas libres de tóxicos en el plasma (moléculas, iones, coloides) están disponibles para penetrar a través de las paredes capilares que participan en la distribución. Esta fracción libre está en equilibrio dinámico con la fracción ligada. La concentración de sustancias tóxicas en la sangre se encuentra en un equilibrio dinámico con su concentración en los órganos y tejidos, lo que determina la retención (acumulación) o la movilización a partir de ellos.
La condición del organismo, el estado funcional de los órganos (especialmente la regulación neuro-humoral), el equilibrio hormonal y otros factores juegan un papel en la distribución.
La retención de sustancias tóxicas en un compartimento particular generalmente es temporal y puede ocurrir una redistribución a otros tejidos. La retención y la acumulación se basan en la diferencia entre las tasas de absorción y eliminación. La duración de la retención en un compartimento se expresa mediante la vida media biológica. Este es el intervalo de tiempo en el que el 50% del tóxico se elimina del tejido u órgano y se redistribuye, transloca o elimina del organismo.
Los procesos de biotransformación ocurren durante la distribución y retención en varios órganos y tejidos. La biotransformación produce metabolitos más polares, más hidrofílicos, que se eliminan más fácilmente. Una baja tasa de biotransformación de un tóxico lipofílico generalmente provocará su acumulación en un compartimento.
Los tóxicos se pueden dividir en cuatro grupos principales según su afinidad, retención predominante y acumulación en un compartimento particular:
Acumulación en tejidos ricos en lípidos
El “hombre estándar” de 70 kg de peso corporal contiene alrededor del 15 % del peso corporal en forma de tejido adiposo, que aumenta con la obesidad hasta el 50 %. Sin embargo, esta fracción lipídica no se distribuye uniformemente. El cerebro (SNC) es un órgano rico en lípidos y los nervios periféricos están envueltos con una vaina de mielina rica en lípidos y células de Schwann. Todos estos tejidos ofrecen posibilidades de acumulación de tóxicos lipofílicos.
En este compartimento se distribuirán numerosos tóxicos no electrolitos y no polares con un coeficiente de partición de Nernst adecuado, así como numerosos disolventes orgánicos (alcoholes, aldehídos, cetonas, etc.), hidrocarburos clorados (incluidos los insecticidas organoclorados como el DDT), algunos gases inertes (radón), etc.
El tejido adiposo acumulará tóxicos debido a su baja vascularización y menor tasa de biotransformación. Aquí la acumulación de sustancias tóxicas puede representar una especie de "neutralización" temporal debido a la falta de objetivos para el efecto tóxico. Sin embargo, el peligro potencial para el organismo siempre está presente debido a la posibilidad de movilización de sustancias tóxicas desde este compartimento hacia la circulación.
La deposición de tóxicos en el cerebro (SNC) o tejido rico en lípidos de la vaina de mielina del sistema nervioso periférico es muy peligrosa. Los neurotóxicos se depositan aquí directamente junto a sus objetivos. Los tóxicos retenidos en el tejido rico en lípidos de las glándulas endocrinas pueden producir alteraciones hormonales. A pesar de la barrera hematoencefálica, numerosos neurotóxicos de naturaleza lipofílica llegan al cerebro (SNC): anestésicos, disolventes orgánicos, pesticidas, tetraetilo de plomo, organomercuriales, etc.
Retención en el sistema reticuloendotelial
En cada tejido y órgano, un determinado porcentaje de células se especializa en la actividad fagocítica, absorbiendo microorganismos, partículas, partículas coloidales, etc. Este sistema se denomina sistema reticuloendotelial (RES), que comprende células fijas y células móviles (fagocitos). Estas células están presentes en forma no activa. Un aumento de los microbios y partículas mencionados anteriormente activará las células hasta un punto de saturación.
Los tóxicos en forma de coloides serán capturados por los RES de órganos y tejidos. La distribución depende del tamaño de partícula del coloide. Para partículas de mayor tamaño, se favorecerá la retención en el hígado. Con partículas coloides más pequeñas, se producirá una distribución más o menos uniforme entre el bazo, la médula ósea y el hígado. La eliminación de coloides del RES es muy lenta, aunque las partículas pequeñas se eliminan relativamente más rápido.
Acumulación en huesos
Alrededor de 60 elementos pueden identificarse como elementos osteotrópicos o buscadores de huesos.
Los elementos osteotrópicos se pueden dividir en tres grupos:
El esqueleto de un hombre estándar representa del 10 al 15% del peso corporal total, lo que representa un gran depósito de almacenamiento potencial para los tóxicos osteotrópicos. El hueso es un tejido altamente especializado que consiste en un 54% en volumen de minerales y un 38% de matriz orgánica. La matriz mineral del hueso es hidroxiapatita, Ca10(PO4)6(OH)2 , en el que la relación de Ca a P es de aproximadamente 1.5 a uno. El área superficial del mineral disponible para la adsorción es de unos 100 m2 por gramo de hueso.
La actividad metabólica de los huesos del esqueleto se puede dividir en dos categorías:
En el feto, el hueso metabólico del lactante y del niño pequeño (ver “esqueleto disponible”) representa casi el 100% del esqueleto. Con la edad este porcentaje de hueso metabólico disminuye. La incorporación de tóxicos durante la exposición aparece en el hueso metabólico y en compartimentos de rotación más lenta.
La incorporación de sustancias tóxicas al hueso se produce de dos formas:
Reacciones de intercambio iónico
El mineral óseo, la hidroxiapatita, representa un complejo sistema de intercambio iónico. Los cationes de calcio pueden intercambiarse por varios cationes. Los aniones presentes en el hueso también pueden ser intercambiados por aniones: fosfato con citratos y carbonatos, hidroxilo con flúor. Los iones que no son intercambiables pueden ser adsorbidos en la superficie del mineral. Cuando se incorporan iones tóxicos en el mineral, una nueva capa de mineral puede cubrir la superficie del mineral, enterrando el tóxico en la estructura ósea. El intercambio de iones es un proceso reversible, dependiendo de la concentración de iones, el pH y el volumen de líquido. Así, por ejemplo, un aumento de calcio en la dieta puede disminuir la deposición de iones tóxicos en la red de minerales. Se ha mencionado que con la edad disminuye el porcentaje de hueso metabólico, aunque continúa el intercambio iónico. Con el envejecimiento, se produce una reabsorción de minerales óseos, en la que en realidad disminuye la densidad ósea. En este punto, pueden liberarse sustancias tóxicas en los huesos (p. ej., plomo).
Alrededor del 30 % de los iones incorporados en los minerales óseos se unen débilmente y pueden intercambiarse, capturarse con agentes quelantes naturales y excretarse, con una vida media biológica de 15 días. El otro 70% está más firmemente ligado. La movilización y excreción de esta fracción muestra una vida media biológica de 2.5 años y más dependiendo del tipo de hueso (procesos de remodelación).
Los agentes quelantes (Ca-EDTA, penicilamina, BAL, etc.) pueden movilizar cantidades considerables de algunos metales pesados, y su excreción en la orina aumenta considerablemente.
adsorción de coloides
Las partículas coloides se adsorben como una película sobre la superficie del mineral (100 m2 por g) por fuerzas de Van der Waals o quimisorción. Esta capa de coloides en las superficies minerales se cubre con la siguiente capa de minerales formados y los tóxicos están más enterrados en la estructura ósea. La tasa de movilización y eliminación depende de los procesos de remodelación.
Acumulación en cabello y uñas.
El cabello y las uñas contienen queratina, con grupos sulfhidrilos capaces de quelar cationes metálicos como el mercurio y el plomo.
Distribución del tóxico dentro de la célula.
Recientemente ha cobrado importancia la distribución de sustancias tóxicas, especialmente algunos metales pesados, dentro de las células de tejidos y órganos. Con técnicas de ultracentrifugación, se pueden separar varias fracciones de la célula para determinar su contenido de iones metálicos y otros tóxicos.
Los estudios en animales han revelado que después de la penetración en la célula, algunos iones metálicos se unen a una proteína específica, la metalotioneína. Esta proteína de bajo peso molecular está presente en las células del hígado, riñón y otros órganos y tejidos. Sus grupos sulfhidrilo pueden unir seis iones por molécula. La mayor presencia de iones metálicos induce la biosíntesis de esta proteína. Los iones de cadmio son el inductor más potente. La metalotioneína también sirve para mantener la homeostasis de los iones vitales de cobre y zinc. La metalotioneína puede unir zinc, cobre, cadmio, mercurio, bismuto, oro, cobalto y otros cationes.
Biotransformación y Eliminación de Tóxicos
Durante la retención en las células de varios tejidos y órganos, los tóxicos están expuestos a enzimas que pueden biotransformarlos (metabolizarlos), produciendo metabolitos. Existen muchas vías para la eliminación de tóxicos y/o metabolitos: por el aire exhalado por los pulmones, por la orina por los riñones, por la bilis por el TGI, por el sudor por la piel, por la saliva por las mucosas de la boca, por la leche por las glándulas mamarias, y por el cabello y las uñas a través del crecimiento normal y la renovación celular.
La eliminación de un tóxico absorbido depende de la puerta de entrada. En los pulmones el proceso de absorción/desorción comienza inmediatamente y los tóxicos son parcialmente eliminados por el aire exhalado. La eliminación de los tóxicos absorbidos por otras vías de entrada se prolonga y comienza después del transporte por la sangre, y finalmente se completa después de la distribución y la biotransformación. Durante la absorción existe un equilibrio entre las concentraciones de un tóxico en la sangre y en los tejidos y órganos. La excreción disminuye la concentración sanguínea del tóxico y puede inducir la movilización de un tóxico de los tejidos a la sangre.
Muchos factores pueden influir en la tasa de eliminación de sustancias tóxicas y sus metabolitos del cuerpo:
Aquí distinguimos dos grupos de compartimentos: (1) el sistema de cambio rápido— en estos compartimentos, la concentración tisular del tóxico es similar a la de la sangre; y (2) el sistema de intercambio lento, donde la concentración tisular del tóxico es más alta que en la sangre debido a la unión y la acumulación: el tejido adiposo, el esqueleto y los riñones pueden retener temporalmente algunos tóxicos, por ejemplo, arsénico y zinc.
Un tóxico puede ser excretado simultáneamente por dos o más rutas de excreción. Sin embargo, por lo general una ruta es dominante.
Los científicos están desarrollando modelos matemáticos que describen la excreción de un tóxico en particular. Estos modelos se basan en el movimiento de uno o ambos compartimentos (sistemas de intercambio), biotransformación, etc.
Eliminación por el aire exhalado a través de los pulmones
La eliminación a través de los pulmones (desorción) es típica de sustancias tóxicas con alta volatilidad (p. ej., disolventes orgánicos). Los gases y vapores con baja solubilidad en sangre se eliminarán rápidamente de esta forma, mientras que los tóxicos con alta solubilidad en sangre se eliminarán por otras vías.
Los disolventes orgánicos absorbidos por el TGI o la piel son excretados parcialmente por el aire espirado en cada paso de sangre por los pulmones, si tienen suficiente presión de vapor. La prueba de alcoholemia utilizada para los conductores ebrios sospechosos se basa en este hecho. La concentración de CO en el aire exhalado está en equilibrio con el contenido de CO-Hb en sangre. El gas radiactivo radón aparece en el aire exhalado debido a la descomposición del radio acumulado en el esqueleto.
La eliminación de un tóxico por el aire exhalado en relación con el período de tiempo posterior a la exposición suele expresarse mediante una curva de tres fases. La primera fase representa la eliminación del tóxico de la sangre, mostrando una vida media corta. La segunda fase, más lenta, representa la eliminación por intercambio de sangre con tejidos y órganos (sistema de intercambio rápido). La tercera fase, muy lenta, se debe al intercambio de sangre con tejido graso y esqueleto. Si no se acumula un tóxico en dichos compartimentos, la curva será bifásica. En algunos casos también es posible una curva de cuatro fases.
La determinación de gases y vapores en el aire exhalado en el período posterior a la exposición se utiliza a veces para evaluar la exposición de los trabajadores.
excreción renal
El riñón es un órgano especializado en la excreción de numerosos tóxicos hidrosolubles y metabolitos, manteniendo la homeostasis del organismo. Cada riñón posee alrededor de un millón de nefronas capaces de realizar la excreción. La excreción renal representa un evento muy complejo que abarca tres mecanismos diferentes:
La excreción de un tóxico a través de los riñones a la orina depende del coeficiente de partición de Nernst, la constante de disociación y el pH de la orina, el tamaño y la forma molecular, la tasa de metabolismo a metabolitos más hidrofílicos, así como el estado de salud de los riñones.
La cinética de la excreción renal de una sustancia tóxica o su metabolito puede expresarse mediante una curva de excreción de dos, tres o cuatro fases, según la distribución de la sustancia tóxica particular en varios compartimentos corporales que difieren en la velocidad de intercambio con la sangre.
Saliva
Algunas drogas e iones metálicos pueden excretarse a través de la mucosa de la boca por medio de la saliva, por ejemplo, plomo ("línea de plomo"), mercurio, arsénico, cobre, así como bromuros, yoduros, alcohol etílico, alcaloides, etc. Luego, los tóxicos se tragan y llegan al TGI, donde pueden ser reabsorbidos o eliminados por las heces.
Sudar
Muchos no electrolitos pueden eliminarse parcialmente a través de la piel a través del sudor: alcohol etílico, acetona, fenoles, disulfuro de carbono e hidrocarburos clorados.
Leche
Muchos metales, solventes orgánicos y algunos pesticidas organoclorados (DDT) se secretan a través de la glándula mamaria en la leche materna. Esta vía puede representar un peligro para los lactantes.
Cabello
El análisis del cabello se puede utilizar como indicador de la homeostasis de algunas sustancias fisiológicas. También la exposición a algunos tóxicos, especialmente metales pesados, puede evaluarse mediante este tipo de bioensayo.
La eliminación de sustancias tóxicas del cuerpo puede incrementarse mediante:
Determinaciones de exposición
La determinación de sustancias tóxicas y metabolitos en sangre, aire exhalado, orina, sudor, heces y cabello se utiliza cada vez más para evaluar la exposición humana (pruebas de exposición) y/o evaluar el grado de intoxicación. Por lo tanto, recientemente se han establecido límites de exposición biológica (Valores Biológicos MAC, Índices de Exposición Biológica—BEI). Estos bioensayos muestran la "exposición interna" del organismo, es decir, la exposición total del cuerpo en los entornos de trabajo y de vida por todas las puertas de entrada (consulte "Métodos de prueba de toxicología: biomarcadores").
Efectos combinados debido a la exposición múltiple
Las personas en el entorno de trabajo y/o vivienda suelen estar expuestas simultánea o consecutivamente a diversos agentes físicos y químicos. También es necesario tener en cuenta que algunas personas usan medicamentos, fuman, consumen alcohol y alimentos que contienen aditivos, etc. Eso significa que generalmente se está produciendo una exposición múltiple. Los agentes físicos y químicos pueden interactuar en cada paso de los procesos toxicocinéticos y/o toxicodinámicos, produciendo tres posibles efectos:
Sin embargo, los estudios sobre efectos combinados son raros. Este tipo de estudio es muy complejo debido a la combinación de varios factores y agentes.
Podemos concluir que cuando el organismo humano está expuesto a dos o más tóxicos simultánea o consecutivamente, es necesario considerar la posibilidad de algunos efectos combinados, que pueden aumentar o disminuir la velocidad de los procesos toxicocinéticos.
Los metales tóxicos y los compuestos organometálicos como el aluminio, el antimonio, el arsénico inorgánico, el berilio, el cadmio, el cromo, el cobalto, el plomo, el alquilo de plomo, el mercurio metálico y sus sales, los compuestos orgánicos de mercurio, el níquel, el selenio y el vanadio se han reconocido desde hace algún tiempo como presentando riesgos potenciales para la salud de las personas expuestas. En algunos casos, se han estudiado estudios epidemiológicos sobre las relaciones entre la dosis interna y el efecto/respuesta resultante en trabajadores ocupacionalmente expuestos, lo que ha permitido proponer valores límite biológicos basados en la salud (ver tabla 1).
Tabla 1. Metales: valores de referencia y valores límite biológicos propuestos por la Conferencia Estadounidense de Higienistas Industriales Gubernamentales (ACGIH), Deutsche Forschungsgemeinschaft (DFG) y Lauwerys and Hoet (L y H)
Metal |
Muestra |
Referencias1 valores* |
Límite ACGIH (BEI)2 |
Límite DFG (BAT)3 |
Límite L y H4 (TMPC) |
Aluminio |
Suero / plasma Orina |
<1 μg/100 ml <30 mcg/g |
200 μg/l (final del turno) |
150 μg/g (final del turno) |
|
Antimonio |
Orina |
<1 mcg/g |
35 μg/g (final del turno) |
||
Arsénico |
Orina (suma de arsénico inorgánico y metabolitos metilados) |
<10 mcg/g |
50 μg/g (final de la semana laboral) |
50 μg/g (si TWA: 0.05 mg/m3 ); 30 μg/g (si TWA: 0.01 mg/m3 ) (Fin del turno) |
|
Berilio |
Orina |
<2 mcg/g |
|||
Cadmio |
Sangre Orina |
<0.5 μg/100 ml <2 mcg/g |
0.5 μg/100 ml 5 μg / g |
1.5 μg/100 ml 15 μg / l |
0.5 μg/100 ml 5 μg / g |
Chromium (compuestos solubles) |
Suero / plasma Orina |
<0.05 μg/100 ml <5 mcg/g |
30 μg/g (final del turno, final de la semana laboral); 10 μg/g (aumento durante el turno) |
30 μg/g (final del turno) |
|
Cobalto |
Suero / plasma Sangre Orina |
<0.05 μg/100 ml <0.2 μg/100 ml <2 mcg/g |
0.1 μg/100 ml (final del turno, final de la semana laboral) 15 μg/l (final del turno, final de la semana laboral) |
0.5 μg/100 ml (EKA)** 60 μg/l (ECA)** |
30 μg/g (final del turno, final de la semana laboral) |
Lidera |
Sangre (plomo) ZPP en sangre Orina (plomo) AAL en orina |
<25 μg/100 ml <40 μg/100 ml de sangre <2.5 μg/g Hb <50 mcg/g <4.5 mg / g |
30 μg/100 ml (no crítico) |
mujer <45 años: 30 μg/100 ml macho: 70 μg/100 ml mujer <45 años: 6mg/l; macho: 15 mg/l |
40 μg/100 ml 40 μg/100 ml de sangre o 3 μg/g Hb 50 μg / g 5 mg / g |
Magnesio |
Sangre Orina |
<1 μg/100 ml <3 mcg/g |
|||
Mercurio inorgánico |
Sangre Orina |
<1 μg/100 ml <5 mcg/g |
1.5 μg/100 ml (final del turno, final de la semana laboral) 35 μg/g (antes del turno) |
5 μg/100 ml 200 μg / l |
2 μg/100 ml (final del turno) 50 μg/g (final del turno) |
Níquel (compuestos solubles) |
Suero / plasma Orina |
<0.05 μg/100 ml <2 mcg/g |
45 μg/l (ECA)** |
30 μg / g |
|
Selenio |
Suero / plasma Orina |
<15 μg/100 ml <25 mcg/g |
|||
Vanadio |
Suero / plasma Sangre Orina |
<0.2 μg/100 ml <0.1 μg/100 ml <1 mcg/g |
70 μg/g creatinina |
50 μg / g |
* Los valores de orina son por gramo de creatinina.
** EKA = Equivalentes de exposición para materiales cancerígenos.
1 Tomado con algunas modificaciones de Lauwerys y Hoet 1993.
2 De ACGIH 1996-97.
3 De DFG 1996.
4 Concentraciones máximas permisibles tentativas (TMPC) tomadas de Lauwerys y Hoet 1993.
Un problema al buscar medidas precisas y exactas de metales en materiales biológicos es que las sustancias metálicas de interés a menudo están presentes en los medios en niveles muy bajos. Cuando el control biológico consiste en la toma de muestras y análisis de orina, como suele ser el caso, se suele realizar sobre muestras “spot”; por lo tanto, suele ser recomendable la corrección de los resultados para la dilución de la orina. La expresión de los resultados por gramo de creatinina es el método de estandarización más utilizado. Los análisis realizados en muestras de orina demasiado diluidas o demasiado concentradas no son fiables y deben repetirse.
Aluminio
En la industria, los trabajadores pueden estar expuestos a compuestos inorgánicos de aluminio por inhalación y posiblemente también por ingestión de polvo que contiene aluminio. El aluminio se absorbe poco por vía oral, pero su absorción aumenta con la ingesta simultánea de citratos. Se desconoce la velocidad de absorción del aluminio depositado en el pulmón; la biodisponibilidad probablemente depende de las características fisicoquímicas de la partícula. La orina es la principal vía de excreción del aluminio absorbido. La concentración de aluminio en suero y en orina está determinada tanto por la intensidad de una exposición reciente como por la carga corporal de aluminio. En personas no expuestas ocupacionalmente, la concentración de aluminio en suero suele estar por debajo de 1 μg/100 ml y en la orina rara vez supera los 30 μg/g de creatinina. En sujetos con función renal normal, la excreción urinaria de aluminio es un indicador más sensible de exposición al aluminio que su concentración en suero/plasma.
Los datos sobre soldadores sugieren que la cinética de la excreción de aluminio en la orina implica un mecanismo de dos pasos, el primero de los cuales tiene una vida media biológica de unas ocho horas. En trabajadores que han estado expuestos durante varios años, efectivamente se produce cierta acumulación del metal en el cuerpo y las concentraciones de aluminio en el suero y en la orina también están influenciadas por la carga corporal de aluminio. El aluminio se almacena en varios compartimentos del cuerpo y se excreta de estos compartimentos a diferentes velocidades durante muchos años. También se ha encontrado una alta acumulación de aluminio en el cuerpo (hueso, hígado, cerebro) en pacientes que sufren insuficiencia renal. Los pacientes que se someten a diálisis tienen riesgo de toxicidad ósea y/o encefalopatía cuando su concentración sérica de aluminio supera de forma crónica los 20 μg/100 ml, pero es posible detectar signos de toxicidad incluso a concentraciones más bajas. La Comisión de las Comunidades Europeas ha recomendado que, para prevenir la toxicidad por aluminio, la concentración de aluminio en plasma nunca debe exceder los 20 μg/100 ml; un nivel superior a 10 μg/100 ml debe conducir a una mayor frecuencia de control y vigilancia de la salud, y una concentración superior a 6 μg/100 ml debe considerarse como prueba de una acumulación excesiva de la carga corporal de aluminio.
Antimonio
El antimonio inorgánico puede ingresar al organismo por ingestión o inhalación, pero se desconoce la tasa de absorción. Los compuestos pentavalentes absorbidos se excretan principalmente con la orina y los compuestos trivalentes a través de las heces. La retención de algunos compuestos de antimonio es posible después de una exposición prolongada. Las concentraciones normales de antimonio en suero y orina probablemente estén por debajo de 0.1 μg/100 ml y 1 μg/g de creatinina, respectivamente.
Un estudio preliminar sobre trabajadores expuestos al antimonio pentavalente indica que una exposición promedio ponderada en el tiempo a 0.5 mg/m3 conduciría a un aumento en la concentración de antimonio urinario de 35 μg/g de creatinina durante el turno.
Arsénico inorgánico
El arsénico inorgánico puede ingresar al organismo a través del tracto gastrointestinal y respiratorio. El arsénico absorbido se elimina principalmente a través del riñón, ya sea sin cambios o después de la metilación. El arsénico inorgánico también se excreta en la bilis como un complejo de glutatión.
Después de una única exposición oral a una dosis baja de arseniato, el 25 y el 45 % de la dosis administrada se excreta en la orina en uno y cuatro días, respectivamente.
Después de la exposición al arsénico inorgánico trivalente o pentavalente, la excreción urinaria consiste en 10 a 20 % de arsénico inorgánico, 10 a 20 % de ácido monometilarsónico y 60 a 80 % de ácido cacodílico. Después de la exposición ocupacional al arsénico inorgánico, la proporción de especies de arsénico en la orina depende del momento del muestreo.
Los organoarsenicales presentes en los organismos marinos también se absorben fácilmente por el tracto gastrointestinal, pero se excretan en su mayor parte sin cambios.
Los efectos tóxicos a largo plazo del arsénico (incluidos los efectos tóxicos sobre los genes) resultan principalmente de la exposición al arsénico inorgánico. Por lo tanto, el monitoreo biológico tiene como objetivo evaluar la exposición a compuestos inorgánicos de arsénico. Para ello, la determinación específica de arsénico inorgánico (Asi), ácido monometilarsónico (MMA) y ácido cacodílico (DMA) en la orina es el método de elección. Sin embargo, dado que el consumo de mariscos aún puede influir en la tasa de excreción de DMA, los trabajadores que se someten a la prueba deben abstenerse de comer mariscos durante las 48 horas anteriores a la recolección de orina.
En personas expuestas no ocupacionalmente al arsénico inorgánico y que no han consumido recientemente un organismo marino, la suma de estas tres especies de arsénico no suele exceder los 10 μg/g de creatinina urinaria. Se pueden encontrar valores más altos en áreas geográficas donde el agua potable contiene cantidades significativas de arsénico.
Se ha estimado que, en ausencia de consumo de mariscos, una exposición promedio ponderada en el tiempo a 50 y 200 μg/m3 arsénico inorgánico conduce a concentraciones urinarias medias de la suma de los metabolitos (Asi, MMA, DMA) en muestras de orina posteriores al turno de 54 y 88 μg/g de creatinina, respectivamente.
En el caso de exposición a compuestos inorgánicos de arsénico menos solubles (p. ej., arseniuro de galio), la determinación de arsénico en la orina reflejará la cantidad absorbida pero no la dosis total entregada al cuerpo (pulmón, tracto gastrointestinal).
El arsénico en el cabello es un buen indicador de la cantidad de arsénico inorgánico absorbido durante el período de crecimiento del cabello. El arsénico orgánico de origen marino no parece ser absorbido por el cabello en la misma medida que el arsénico inorgánico. La determinación de la concentración de arsénico a lo largo del cabello puede proporcionar información valiosa sobre el tiempo de exposición y la duración del período de exposición. Sin embargo, no se recomienda la determinación de arsénico en el cabello cuando el aire ambiente está contaminado por arsénico, ya que no será posible distinguir entre el arsénico endógeno y el arsénico depositado externamente en el cabello. Los niveles de arsénico en el cabello suelen estar por debajo de 1 mg/kg. El arsénico en las uñas tiene el mismo significado que el arsénico en el cabello.
Al igual que con los niveles de orina, los niveles de arsénico en la sangre pueden reflejar la cantidad de arsénico recientemente absorbida, pero aún no se ha evaluado la relación entre la intensidad de la exposición al arsénico y su concentración en la sangre.
Berilio
La inhalación es la ruta principal de absorción de berilio para las personas expuestas ocupacionalmente. La exposición a largo plazo puede resultar en el almacenamiento de cantidades apreciables de berilio en los tejidos pulmonares y en el esqueleto, el sitio final de almacenamiento. La eliminación del berilio absorbido ocurre principalmente a través de la orina y solo en un grado menor en las heces.
Los niveles de berilio se pueden determinar en sangre y orina, pero en la actualidad estos análisis solo se pueden utilizar como pruebas cualitativas para confirmar la exposición al metal, ya que se desconoce hasta qué punto las concentraciones de berilio en sangre y orina pueden estar influenciadas por recientes exposición y por la cantidad ya almacenada en el cuerpo. Además, es difícil interpretar los limitados datos publicados sobre la excreción de berilio en trabajadores expuestos, porque normalmente la exposición externa no se ha caracterizado adecuadamente y los métodos analíticos tienen diferentes sensibilidades y precisión. Los niveles urinarios y séricos normales de berilio probablemente estén por debajo
2 μg/g de creatinina y 0.03 μg/100 ml, respectivamente.
Sin embargo, el hallazgo de una concentración normal de berilio en la orina no es evidencia suficiente para excluir la posibilidad de una exposición anterior al berilio. De hecho, no siempre se ha encontrado un aumento de la excreción urinaria de berilio en los trabajadores, aunque hayan estado expuestos al berilio en el pasado y, en consecuencia, hayan desarrollado granulomatosis pulmonar, una enfermedad caracterizada por múltiples granulomas, es decir, nódulos de tejido inflamatorio, que se encuentran en los pulmones.
Cadmio
En el ámbito laboral, la absorción de cadmio se produce principalmente por inhalación. Sin embargo, la absorción gastrointestinal puede contribuir significativamente a la dosis interna de cadmio. Una característica importante del cadmio es su larga vida media biológica en el cuerpo, excediendo
10 años. En los tejidos, el cadmio se une principalmente a la metalotioneína. En la sangre, se une principalmente a los glóbulos rojos. En vista de la propiedad del cadmio de acumularse, cualquier programa de monitoreo biológico de grupos de población expuestos crónicamente al cadmio debe intentar evaluar tanto la exposición actual como la integrada.
Mediante activación neutrónica, actualmente es posible realizar in vivo mediciones de las cantidades de cadmio acumuladas en los principales sitios de almacenamiento, los riñones y el hígado. Sin embargo, estas técnicas no se utilizan de forma rutinaria. Hasta ahora, en la vigilancia de la salud de los trabajadores de la industria o en estudios a gran escala en la población general, la exposición al cadmio se ha evaluado normalmente de forma indirecta midiendo el metal en orina y sangre.
La cinética detallada de la acción del cadmio en humanos aún no está completamente dilucidada, pero con fines prácticos se pueden formular las siguientes conclusiones con respecto a la importancia del cadmio en la sangre y la orina. En trabajadores recién expuestos, los niveles de cadmio en sangre aumentan progresivamente y después de cuatro a seis meses alcanzan una concentración correspondiente a la intensidad de la exposición. En personas con exposición continua a cadmio durante un período prolongado, la concentración de cadmio en la sangre refleja principalmente la ingesta promedio durante los últimos meses. La influencia relativa de la carga de cadmio en el cuerpo sobre el nivel de cadmio en la sangre puede ser más importante en personas que han acumulado una gran cantidad de cadmio y no han estado expuestas. Después del cese de la exposición, el nivel de cadmio en la sangre disminuye relativamente rápido, con una semivida inicial de dos a tres meses. Sin embargo, dependiendo de la carga corporal, el nivel puede permanecer más alto que en los sujetos de control. Varios estudios en humanos y animales han indicado que el nivel de cadmio en la orina se puede interpretar de la siguiente manera: en ausencia de una sobreexposición aguda al cadmio, y siempre que no se exceda la capacidad de almacenamiento de la corteza renal o que no haya nefropatía inducida por cadmio. aún no se ha producido, el nivel de cadmio en la orina aumenta progresivamente con la cantidad de cadmio almacenada en los riñones. En tales condiciones, que prevalecen principalmente en la población general y en trabajadores moderadamente expuestos al cadmio, existe una correlación significativa entre el cadmio urinario y el cadmio en los riñones. Si la exposición al cadmio ha sido excesiva, los sitios de unión de cadmio en el organismo se saturan progresivamente y, a pesar de la exposición continua, la concentración de cadmio en la corteza renal se estabiliza.
A partir de esta etapa, el cadmio absorbido no puede retenerse más en ese órgano y se excreta rápidamente en la orina. Luego, en esta etapa, la concentración de cadmio urinario está influenciada tanto por la carga corporal como por la ingesta reciente. Si la exposición continúa, algunos sujetos pueden desarrollar daño renal, lo que da lugar a un mayor aumento de cadmio urinario como resultado de la liberación de cadmio almacenado en el riñón y la reabsorción deprimida del cadmio circulante. Sin embargo, después de un episodio de exposición aguda, los niveles de cadmio en la orina pueden aumentar rápida y brevemente sin reflejar un aumento en la carga corporal.
Estudios recientes indican que la metalotioneína en la orina tiene el mismo significado biológico. Se han observado buenas correlaciones entre la concentración urinaria de metalotioneína y la de cadmio, independientemente de la intensidad de la exposición y del estado de la función renal.
Los niveles normales de cadmio en sangre y en orina suelen estar por debajo de 0.5 μg/100 ml y
2 μg/g de creatinina, respectivamente. Son más altos en fumadores que en no fumadores. En trabajadores expuestos crónicamente a cadmio, el riesgo de insuficiencia renal es insignificante cuando los niveles de cadmio en orina nunca superan los 10 μg/g de creatinina. Debe evitarse una acumulación de cadmio en el cuerpo que daría lugar a una excreción urinaria superior a este nivel. Sin embargo, algunos datos sugieren que ciertos marcadores renales (cuya importancia para la salud aún se desconoce) pueden volverse anormales para valores de cadmio en orina entre 3 y 5 μg/g de creatinina, por lo que parece razonable proponer un valor límite biológico más bajo de 5 μg/g de creatinina. . Para la sangre, se ha propuesto un límite biológico de 0.5 μg/100 ml para la exposición a largo plazo. Es posible, sin embargo, que en el caso de la población general expuesta al cadmio a través de los alimentos o el tabaco o en los ancianos, que normalmente sufren una disminución de la función renal, el nivel crítico en la corteza renal sea menor.
Chromium
La toxicidad del cromo se atribuye principalmente a sus compuestos hexavalentes. La absorción de compuestos hexavalentes es relativamente mayor que la absorción de compuestos trivalentes. La eliminación se produce principalmente a través de la orina.
En personas expuestas al cromo de forma no ocupacional, la concentración de cromo en suero y en orina no suele exceder los 0.05 μg/100 ml y los 2 μg/g de creatinina, respectivamente. La exposición reciente a sales de cromo hexavalente solubles (p. ej., en electrochapadores y soldadores de acero inoxidable) puede evaluarse monitoreando el nivel de cromo en la orina al final del turno laboral. Estudios realizados por varios autores sugieren la siguiente relación: una exposición TWA de 0.025 o 0.05 mg/m3 el cromo hexavalente se asocia a una concentración media al final del período de exposición de 15 ó 30 μg/g de creatinina, respectivamente. Esta relación es válida sólo sobre una base de grupo. Después de la exposición a 0.025 mg/m3 cromo hexavalente, el valor del límite inferior de confianza del 95 % es de aproximadamente 5 μg/g de creatinina. Otro estudio entre soldadores de acero inoxidable encontró que una concentración de cromo en orina del orden de 40 μg/l corresponde a una exposición promedio de 0.1 mg/m3 trióxido de cromo
El cromo hexavalente atraviesa fácilmente las membranas celulares, pero una vez dentro de la célula, se reduce a cromo trivalente. La concentración de cromo en los eritrocitos podría ser un indicador de la intensidad de la exposición al cromo hexavalente durante la vida de los glóbulos rojos, pero esto no se aplica al cromo trivalente.
Queda por evaluar en qué medida es útil monitorear el cromo en la orina para estimar el riesgo para la salud.
Cobalto
Una vez absorbido, por inhalación y en cierta medida por vía oral, el cobalto (con una vida media biológica de unos pocos días) se elimina principalmente por la orina. La exposición a compuestos de cobalto solubles conduce a un aumento de la concentración de cobalto en la sangre y la orina.
Las concentraciones de cobalto en la sangre y en la orina están influenciadas principalmente por una exposición reciente. En sujetos no expuestos ocupacionalmente, el cobalto urinario suele estar por debajo de 2 μg/g de creatinina y el cobalto sérico/plasmático por debajo de 0.05 μg/100 ml.
Para exposiciones TWA de 0.1 mg/m3 y 0.05 mg/m3, se han notificado niveles medios en orina que oscilan entre 30 y 75 μg/l y entre 30 y 40 μg/l, respectivamente (utilizando muestras al final del turno). El tiempo de muestreo es importante ya que hay un aumento progresivo en los niveles urinarios de cobalto durante la semana laboral.
En trabajadores expuestos a óxidos de cobalto, sales de cobalto o polvo de metal de cobalto en una refinería, un TWA de 0.05 mg/m3 se ha encontrado que conduce a una concentración promedio de cobalto de 33 y 46 μg/g de creatinina en la orina recolectada al final del turno el lunes y el viernes, respectivamente.
Lidera
El plomo inorgánico, una toxina acumulativa absorbida por los pulmones y el tracto gastrointestinal, es claramente el metal que se ha estudiado más extensamente; por lo tanto, de todos los contaminantes metálicos, la confiabilidad de los métodos para evaluar la exposición reciente o la carga corporal por métodos biológicos es mayor para el plomo.
En una situación de exposición constante, se considera que el plomo en la sangre entera es el mejor indicador de la concentración de plomo en los tejidos blandos y, por lo tanto, de la exposición reciente. Sin embargo, el aumento de los niveles de plomo en la sangre (Pb-B) se vuelve progresivamente menor a medida que aumentan los niveles de exposición al plomo. Cuando la exposición ocupacional ha sido prolongada, el cese de la exposición no está necesariamente asociado con un retorno de Pb-B a un valor anterior a la exposición (de fondo) debido a la liberación continua de plomo de los depósitos de tejidos. Los niveles normales de plomo en sangre y orina generalmente están por debajo de 20 μg/100 ml y 50 μg/g de creatinina, respectivamente. Estos niveles pueden estar influenciados por los hábitos dietéticos y el lugar de residencia de los sujetos. La OMS ha propuesto 40 μg/100 ml como la concentración de plomo en sangre individual máxima tolerable para trabajadores varones adultos y 30 μg/100 ml para mujeres en edad fértil. En los niños, las concentraciones más bajas de plomo en la sangre se han asociado con efectos adversos en el sistema nervioso central. El nivel de plomo en la orina aumenta exponencialmente con el aumento de Pb-B y, en una situación de estado estable, es principalmente un reflejo de una exposición reciente.
La cantidad de plomo excretado en la orina después de la administración de un agente quelante (p. ej., CaEDTA) refleja la reserva de plomo movilizable. En sujetos de control, la cantidad de plomo excretado en la orina dentro de las 24 horas posteriores a la administración intravenosa de un gramo de EDTA generalmente no excede los 600 μg. Parece que bajo una exposición constante, los valores de plomo quelable reflejan principalmente la acumulación de plomo en la sangre y los tejidos blandos, con solo una pequeña fracción derivada de los huesos.
Se ha desarrollado una técnica de fluorescencia de rayos X para medir la concentración de plomo en los huesos (falanges, tibia, calcáneo, vértebras), pero actualmente el límite de detección de la técnica restringe su uso a personas ocupacionalmente expuestas.
Se ha propuesto la determinación de plomo en el cabello como método para evaluar la reserva de plomo movilizable. Sin embargo, en entornos laborales, es difícil distinguir entre el plomo incorporado de forma endógena en el cabello y el que simplemente se adsorbe en su superficie.
La determinación de la concentración de plomo en la dentina circunpulpar de los dientes temporales (dientes de leche) se ha utilizado para estimar la exposición al plomo durante la primera infancia.
Los parámetros que reflejan la interferencia del plomo con los procesos biológicos también se pueden utilizar para evaluar la intensidad de la exposición al plomo. Los parámetros biológicos que se utilizan actualmente son coproporfirina en orina (COPRO-U), ácido delta-aminolevulínico en orina (ALA-U), protoporfirina eritrocitaria (EP o protoporfirina de zinc), ácido delta-aminolevulínico deshidratasa (ALA-D), y pirimidina-5'-nucleotidasa (P5N) en glóbulos rojos. En situaciones de estado estacionario, los cambios en estos parámetros se correlacionan positivamente (COPRO-U, ALA-U, EP) o negativamente (ALA-D, P5N) con los niveles de plomo en sangre. La excreción urinaria de COPRO (principalmente el isómero III) y ALA empieza a aumentar cuando la concentración de plomo en sangre alcanza un valor de unos 40 μg/100 ml. La protoporfirina eritrocitaria comienza a aumentar significativamente a niveles de plomo en sangre de alrededor de 35 μg/100 ml en hombres y 25 μg/100 ml en mujeres. Después de la terminación de la exposición ocupacional al plomo, la protoporfirina eritrocitaria permanece elevada fuera de proporción con los niveles actuales de plomo en la sangre. En este caso, el nivel de EP se correlaciona mejor con la cantidad de plomo quelable excretado en la orina que con el plomo en la sangre.
La deficiencia leve de hierro también causará una concentración elevada de protoporfirina en los glóbulos rojos. Las enzimas de los glóbulos rojos, ALA-D y P5N, son muy sensibles a la acción inhibitoria del plomo. Dentro del rango de niveles de plomo en sangre de 10 a 40 μg/100 ml, existe una estrecha correlación negativa entre la actividad de las enzimas y el plomo en sangre.
Plomo de alquilo
En algunos países, el tetraetilo de plomo y el tetrametilo de plomo se utilizan como agentes antidetonantes en los combustibles para automóviles. El plomo en la sangre no es un buen indicador de exposición al tetraalquilplomo, mientras que el plomo en la orina parece ser útil para evaluar el riesgo de sobreexposición.
Magnesio
En el entorno laboral, el manganeso ingresa al cuerpo principalmente a través de los pulmones; la absorción a través del tracto gastrointestinal es baja y probablemente depende de un mecanismo homeostático. La eliminación de manganeso ocurre a través de la bilis, y solo se excretan pequeñas cantidades con la orina.
Las concentraciones normales de manganeso en orina, sangre y suero o plasma suelen ser inferiores a 3 μg/g de creatinina, 1 μg/100 ml y 0.1 μg/100 ml, respectivamente.
Parece que, de forma individual, ni el manganeso en la sangre ni el manganeso en la orina están correlacionados con los parámetros de exposición externa.
Aparentemente no existe una relación directa entre la concentración de manganeso en el material biológico y la gravedad de la intoxicación crónica por manganeso. Es posible que, después de la exposición ocupacional al manganeso, los efectos adversos tempranos en el sistema nervioso central ya se detecten en niveles biológicos cercanos a los valores normales.
Mercurio Metálico y sus Sales Inorgánicas
La inhalación representa la principal vía de absorción del mercurio metálico. La absorción gastrointestinal de mercurio metálico es insignificante. Las sales de mercurio inorgánico pueden absorberse a través de los pulmones (inhalación de aerosol de mercurio inorgánico) así como a través del tracto gastrointestinal. Es posible la absorción cutánea del mercurio metálico y sus sales inorgánicas.
La vida media biológica del mercurio es del orden de dos meses en el riñón, pero es mucho más prolongada en el sistema nervioso central.
El mercurio inorgánico se excreta principalmente con las heces y la orina. Pequeñas cantidades se excretan a través de las glándulas salivales, lagrimales y sudoríparas. El mercurio también se puede detectar en el aire espirado durante las pocas horas posteriores a la exposición al vapor de mercurio. En condiciones de exposición crónica, existe, al menos de forma grupal, una relación entre la intensidad de la exposición reciente al vapor de mercurio y la concentración de mercurio en la sangre o la orina. Las primeras investigaciones, durante las cuales se usaron muestras estáticas para monitorear el aire general del lugar de trabajo, mostraron que una concentración promedio de mercurio-aire, Hg-aire, de 100 μg/m3 corresponde a niveles promedio de mercurio en sangre (Hg–B) y en orina (Hg–U) de 6 μg Hg/100 ml y de 200 a 260 μg/l, respectivamente. Observaciones más recientes, en particular las que evalúan la contribución del microambiente externo cercano a las vías respiratorias de los trabajadores, indican que el aire (μg/m3)/orina (μg/g creatinina)/sangre (μg/100ml) la relación de mercurio es de aproximadamente 1/1.2/0.045. Varios estudios epidemiológicos en trabajadores expuestos al vapor de mercurio han demostrado que para la exposición a largo plazo, los niveles de efecto crítico de Hg-U y Hg-B son de aproximadamente 50 μg/g de creatinina y 2 μg/100 ml, respectivamente.
Sin embargo, algunos estudios recientes parecen indicar que ya se pueden observar signos de efectos adversos sobre el sistema nervioso central o el riñón con un nivel de mercurio en orina por debajo de 50 μg/g de creatinina.
Los niveles normales en orina y sangre generalmente están por debajo de 5 μg/g de creatinina y 1 μg/100 ml, respectivamente. Estos valores pueden verse influenciados por el consumo de pescado y la cantidad de empastes de amalgama de mercurio en los dientes.
Compuestos orgánicos de mercurio
Los compuestos orgánicos de mercurio se absorben fácilmente por todas las vías. En la sangre, se encuentran principalmente en los glóbulos rojos (alrededor del 90%). Sin embargo, debe distinguirse entre los compuestos alquílicos de cadena corta (principalmente metilmercurio), que son muy estables y resistentes a la biotransformación, y los derivados arilo o alcoxialquilo, que liberan mercurio inorgánico. in vivo. Para estos últimos compuestos, la concentración de mercurio en la sangre, así como en la orina, es probablemente indicativa de la intensidad de la exposición.
En condiciones de estado estacionario, el mercurio en la sangre total y en el cabello se correlaciona con la carga corporal de metilmercurio y con el riesgo de signos de intoxicación por metilmercurio. En personas expuestas crónicamente a alquilmercurio, los primeros signos de intoxicación (parestesia, alteraciones sensoriales) pueden ocurrir cuando el nivel de mercurio en la sangre y en el cabello supera los 20 μg/100 ml y 50 μg/g, respectivamente.
Níquel
El níquel no es una toxina acumulativa y casi toda la cantidad absorbida se excreta principalmente por la orina, con una vida media biológica de 17 a 39 horas. En sujetos no expuestos ocupacionalmente, las concentraciones de níquel en orina y plasma suelen estar por debajo de 2 μg/g de creatinina y 0.05 μg/100 ml, respectivamente.
Las concentraciones de níquel en plasma y en orina son buenos indicadores de exposición reciente al níquel metálico y sus compuestos solubles (p. ej., durante la galvanoplastia de níquel o la producción de baterías de níquel). Los valores dentro de los rangos normales generalmente indican una exposición no significativa y los valores elevados son indicativos de sobreexposición.
Para los trabajadores expuestos a compuestos solubles de níquel, se ha propuesto provisionalmente un valor límite biológico de 30 μg/g de creatinina (al final del turno) para el níquel en la orina.
En los trabajadores expuestos a compuestos de níquel poco solubles o insolubles, los niveles elevados en los fluidos corporales generalmente indican una absorción significativa o una liberación progresiva de la cantidad almacenada en los pulmones; sin embargo, cantidades significativas de níquel pueden depositarse en el tracto respiratorio (cavidades nasales, pulmones) sin una elevación significativa de su concentración en plasma u orina. Por lo tanto, los valores "normales" deben interpretarse con cautela y no necesariamente indican ausencia de riesgo para la salud.
Selenio
El selenio es un oligoelemento esencial. Los compuestos de selenio solubles parecen absorberse fácilmente a través de los pulmones y el tracto gastrointestinal. El selenio se excreta principalmente en la orina, pero cuando la exposición es muy alta, también puede excretarse en el aire exhalado como vapor de dimetilselenuro. Las concentraciones normales de selenio en suero y orina dependen de la ingesta diaria, que puede variar considerablemente en diferentes partes del mundo, pero generalmente está por debajo de 15 μg/100 ml y 25 μg/g de creatinina, respectivamente. La concentración de selenio en la orina es principalmente un reflejo de una exposición reciente. Aún no se ha establecido la relación entre la intensidad de la exposición y la concentración de selenio en la orina.
Parece que la concentración en plasma (o suero) y orina refleja principalmente una exposición a corto plazo, mientras que el contenido de selenio de los eritrocitos refleja una exposición a más largo plazo.
La medición del selenio en la sangre o la orina brinda cierta información sobre el estado del selenio. Actualmente se usa más para detectar una deficiencia que una sobreexposición. Dado que los datos disponibles sobre el riesgo para la salud de la exposición a largo plazo al selenio y la relación entre el riesgo potencial para la salud y los niveles en medios biológicos son demasiado limitados, no se puede proponer un valor de umbral biológico.
Vanadio
En la industria, el vanadio se absorbe principalmente por vía pulmonar. La absorción oral parece baja (menos del 1%). El vanadio se excreta en la orina con una vida media biológica de aproximadamente 20 a 40 horas y, en menor grado, en las heces. El vanadio urinario parece ser un buen indicador de exposición reciente, pero la relación entre la absorción y los niveles de vanadio en la orina aún no se ha establecido suficientemente. Se ha sugerido que la diferencia entre las concentraciones de vanadio en orina antes y después del turno permite evaluar la exposición durante la jornada laboral, mientras que el vanadio en orina dos días después del cese de la exposición (lunes por la mañana) reflejaría la acumulación del metal en el cuerpo. . En personas no expuestas ocupacionalmente, la concentración de vanadio en la orina suele ser inferior a 1 μg/g de creatinina. Se ha propuesto un valor límite biológico tentativo de 50 μg/g de creatinina (al final del turno) para el vanadio en la orina.
Orígenes
La estandarización en el campo de la ergonomía tiene una historia relativamente corta. Comenzó a principios de la década de 1970 cuando se fundaron los primeros comités a nivel nacional (por ejemplo, en Alemania dentro del instituto de normalización DIN), y continuó a nivel internacional después de la fundación del TC ISO (Organización Internacional de Normalización). (Comité Técnico) 159 “Ergonomía”, en 1975. Mientras tanto, la normalización de la ergonomía tiene lugar a nivel regional, por ejemplo, a nivel europeo dentro del CEN (Comisión europea de normalización), que estableció su TC 122 “Ergonomía” en 1987. La existencia de este último comité subraya el hecho de que una de las razones importantes para establecer comités para la estandarización de los conocimientos y principios de la ergonomía se puede encontrar en las leyes (y cuasi-legales) reglamentaciones, especialmente en materia de seguridad y salud, que exigen la aplicación de principios y hallazgos ergonómicos en el diseño de productos y sistemas de trabajo. Las leyes nacionales que exigen la aplicación de conclusiones ergonómicas bien establecidas fueron la razón por la que se estableció el comité de ergonomía alemán en 1970, y las directivas europeas, especialmente la Directiva sobre maquinaria (relacionada con las normas de seguridad), fueron responsables de establecer un comité de ergonomía en la Unión Europea. nivel. Dado que las normas legales por lo general no son, no pueden ni deben ser muy específicas, la tarea de especificar qué principios y hallazgos de la ergonomía deben aplicarse fue encomendada o asumida por los comités de normalización de la ergonomía. Especialmente a nivel europeo, se puede reconocer que la estandarización de la ergonomía puede contribuir a la tarea de proporcionar condiciones amplias y comparables de seguridad de la maquinaria, eliminando así las barreras al libre comercio de maquinaria dentro del propio continente.
Perspectivas
La estandarización de la ergonomía comenzó así con un fuerte protectorperspectiva ergonómica, aunque preventiva, desarrollándose normas ergonómicas con el objetivo de proteger a los trabajadores contra los efectos adversos en los diferentes niveles de protección de la salud. Por lo tanto, se prepararon estándares de ergonomía con las siguientes intenciones en mente:
Por otro lado, la normalización internacional, que no estaba tan estrechamente unida a la legislación, siempre trató de abrir una perspectiva en la dirección de producir normas que irían más allá de la prevención y protección contra los efectos adversos (por ejemplo, especificando mínimos/máximos valores) y en su lugar proactivamente prever condiciones de trabajo óptimas para promover el bienestar y desarrollo personal del trabajador, así como la eficacia, eficiencia, confiabilidad y productividad del sistema de trabajo.
Este es un punto donde se hace evidente que la ergonomía, y especialmente la estandarización de la ergonomía, tiene dimensiones sociales y políticas muy distintas. Mientras que el enfoque protector con respecto a la seguridad y la salud es generalmente aceptado y acordado entre las partes involucradas (empleadores, sindicatos, administración y expertos en ergonomía) para todos los niveles de normalización, el enfoque proactivo no es aceptado por todas las partes de la misma manera. . Esto podría deberse al hecho de que, especialmente cuando la legislación exige la aplicación de principios ergonómicos (y, por tanto, explícita o implícitamente, la aplicación de normas ergonómicas), algunas partes sienten que tales normas podrían limitar su libertad de acción o negociación. Dado que las normas internacionales son menos convincentes (transferirlas al conjunto de normas nacionales queda a discreción de los comités nacionales de normalización), el enfoque proactivo se ha desarrollado más en el nivel internacional de la normalización de la ergonomía.
El hecho de que ciertas reglamentaciones restringieran efectivamente la discrecionalidad de aquellos a quienes se aplicaban sirvió para desalentar la estandarización en ciertas áreas, por ejemplo en relación con las Directivas Europeas bajo el Artículo 118a del Acta Única Europea, relativas a la seguridad y la salud en el uso y operación de maquinaria en el lugar de trabajo, y en el diseño de sistemas de trabajo y diseño del lugar de trabajo. Por otro lado, bajo las Directivas emitidas bajo el Artículo 100a, relacionadas con la seguridad y la salud en el diseño de maquinaria con respecto al libre comercio de esta maquinaria dentro de la Unión Europea (UE), la normalización ergonómica europea es un mandato de la Comisión Europea.
Sin embargo, desde el punto de vista de la ergonomía, es difícil entender por qué la ergonomía en el diseño de la maquinaria debería ser diferente de la del uso y operación de la maquinaria dentro de un sistema de trabajo. Por lo tanto, es de esperar que se abandone la distinción en el futuro, ya que parece ser más perjudicial que beneficiosa para el desarrollo de un cuerpo coherente de normas ergonómicas.
Tipos de normas de ergonomía
La primera norma internacional de ergonomía que se ha desarrollado (basada en una norma nacional alemana DIN) es la ISO 6385, "Principios ergonómicos en el diseño de sistemas de trabajo", publicada en 1981. Es la norma básica de la serie de normas de ergonomía y establece los etapa de las normas que siguió definiendo los conceptos básicos y enunciando los principios generales del diseño ergonómico de los sistemas de trabajo, incluidas las tareas, las herramientas, la maquinaria, los puestos de trabajo, el espacio de trabajo, el entorno de trabajo y la organización del trabajo. Esta norma internacional, actualmente en proceso de revisión, es una norma de directriz, y como tal proporciona pautas a seguir. Sin embargo, no proporciona especificaciones técnicas o físicas que deban cumplirse. Estos se pueden encontrar en un tipo diferente de estándares, es decir, normas de especificación, por ejemplo, los de antropometría o condiciones térmicas. Ambos tipos de normas cumplen funciones diferentes. Mientras que los estándares de las guías tienen la intención de mostrar a sus usuarios “qué hacer y cómo hacerlo” e indicar aquellos principios que deben o deberían observarse, por ejemplo, con respecto a la carga mental, las normas de especificación brindan a los usuarios información detallada sobre distancias de seguridad o procedimientos de medición, para ejemplo, que deben cumplirse y donde el cumplimiento de estas prescripciones puede probarse mediante procedimientos específicos. Esto no siempre es posible con los estándares de las guías, aunque a pesar de su relativa falta de especificidad, por lo general se puede demostrar cuándo y dónde se han violado las guías. Un subconjunto de estándares de especificación son los estándares de "base de datos", que brindan al usuario datos ergonómicos relevantes, por ejemplo, las dimensiones del cuerpo.
Las normas CEN se clasifican como normas de tipo A, B y C, según su alcance y campo de aplicación. Las normas de tipo A son normas generales, básicas, que se aplican a todo tipo de aplicaciones, las normas de tipo B son específicas para un área de aplicación (lo que significa que la mayoría de las normas de ergonomía dentro del CEN serán de este tipo), y las normas de tipo C- Los estándares de tipo son específicos para un cierto tipo de maquinaria, por ejemplo, máquinas perforadoras portátiles.
Comités de Normalización
Los estándares de ergonomía, como otros estándares, se producen en los comités técnicos (TC) correspondientes, sus subcomités (SC) o grupos de trabajo (WG). Para la ISO es el TC 159, para el CEN es el TC 122, ya nivel nacional, los respectivos comités nacionales. Además de los comités de ergonomía, la ergonomía también se trata en los TC que trabajan en seguridad de máquinas (p. ej., CEN TC 114 e ISO TC 199) con los que se mantiene un enlace y una estrecha cooperación. También se establecen enlaces con otros comités para los que la ergonomía podría ser relevante. Sin embargo, la responsabilidad de los estándares de ergonomía está reservada a los propios comités de ergonomía.
Varias otras organizaciones están involucradas en la producción de estándares de ergonomía, como la IEC (Comisión Electrotécnica Internacional); CENELEC, o los respectivos comités nacionales en materia electrotécnica; CCITT (Comité consultivo internacional de organizaciones telefónicas y telefónicas) o ETSI (Instituto Europeo de Normas de Telecomunicaciones) en el campo de las telecomunicaciones; ECMA (Asociación Europea de Fabricantes de Ordenadores) en el campo de los sistemas informáticos; y CAMAC (Asociación de Control y Medición Asistida por Computadora) en el campo de las nuevas tecnologías en la fabricación, por mencionar solo algunos. Con algunos de estos, los comités de ergonomía tienen enlaces para evitar la duplicación de trabajo o especificaciones inconsistentes; con algunas organizaciones (por ejemplo, el IEC) incluso se establecen comités técnicos conjuntos para la cooperación en áreas de interés mutuo. Con otros comités, sin embargo, no hay coordinación ni cooperación en absoluto. El objetivo principal de estos comités es producir estándares (ergonómicos) que sean específicos para su campo de actividad. Dado que el número de tales organizaciones en los diferentes niveles es bastante grande, se vuelve bastante complicado (si no imposible) llevar a cabo una visión general completa de la estandarización de la ergonomía. Por lo tanto, la presente revisión se limitará a la normalización de la ergonomía en los comités de ergonomía europeos e internacionales.
Estructura de los Comités de Normalización
Los comités de estandarización de la ergonomía tienen una estructura bastante similar entre sí. Por lo general, un TC dentro de una organización de normalización es responsable de la ergonomía. Este comité (p. ej., ISO TC 159) tiene que ver principalmente con decisiones sobre lo que debe normalizarse (p. ej., elementos de trabajo) y cómo organizar y coordinar la normalización dentro del comité, pero normalmente no se preparan normas a este nivel. Por debajo del nivel del TC hay otros comités. Por ejemplo, la ISO tiene subcomités (SC), que son responsables de un campo definido de estandarización: SC 1 para principios rectores ergonómicos generales, SC 3 para antropometría y biomecánica, SC 4 para interacción hombre-sistema y SC 5 para el trabajo físico. ambiente. CEN TC 122 tiene grupos de trabajo (WG) por debajo del nivel de TC que están constituidos para tratar campos específicos dentro de la estandarización de la ergonomía. Los SC dentro de ISO TC 159 funcionan como comités directivos para su campo de responsabilidad y realizan la primera votación, pero por lo general no preparan también las normas. Esto se hace en sus WG, que están compuestos por expertos designados por sus comités nacionales, mientras que a las reuniones de SC y TC asisten delegaciones nacionales que representan puntos de vista nacionales. Dentro del CEN, los deberes no se distinguen claramente a nivel de WG; Los WG funcionan como comités de dirección y producción, aunque una gran parte del trabajo se lleva a cabo en grupos ad hoc, que están compuestos por miembros del WG (nominados por sus comités nacionales) y establecidos para preparar los borradores de una norma. Los WG dentro de un SC de ISO se establecen para realizar el trabajo práctico de estandarización, es decir, preparar borradores, trabajar en los comentarios, identificar las necesidades de estandarización y preparar propuestas para el SC y el TC, que luego tomarán las decisiones o acciones apropiadas.
Elaboración de Normas de Ergonomía
La preparación de estándares de ergonomía ha cambiado bastante en los últimos años en vista del mayor énfasis que ahora se está poniendo en los desarrollos europeos e internacionales. Al principio, los estándares nacionales, que habían sido preparados por expertos de un país en su comité nacional y acordados por las partes interesadas entre el público en general de ese país en un procedimiento de votación específico, se transfirieron como información al SC y WG responsables. de ISO TC 159, después de que se hubiera realizado una votación formal a nivel de TC para que se preparara una norma internacional de este tipo. El grupo de trabajo, compuesto por expertos en ergonomía (y expertos de partes políticamente interesadas) de todos los organismos miembros participantes (es decir, las organizaciones nacionales de normalización) del TC 159 que estaban dispuestos a cooperar en este proyecto de trabajo, luego trabajaría en cualquier aporte y prepararía un borrador de trabajo (WD). Una vez que este borrador de propuesta es acordado en el WG, se convierte en un borrador de comité (CD), que se distribuye a los organismos miembros del SC para su aprobación y comentarios. Si el borrador recibe un apoyo sustancial de los organismos miembros del SC (es decir, si al menos dos tercios votan a favor) y después de que el WG haya incorporado los comentarios de los comités nacionales en la versión mejorada, se crea un Borrador de Norma Internacional (DIS). presentado para votación a todos los miembros del TC 159. Si se logra un apoyo sustancial, en este paso de los organismos miembros del TC (y quizás después de incorporar cambios editoriales), esta versión se publicará como un estándar internacional (IS) por la ISO. La votación de los organismos miembros a nivel de TC y SC se basa en la votación a nivel nacional, y los comentarios pueden ser proporcionados a través de los organismos miembros por expertos o partes interesadas en cada país. El procedimiento es aproximadamente equivalente en CEN TC 122, con la excepción de que no hay SC por debajo del nivel de TC y que la votación se realiza con votos ponderados (según el tamaño del país), mientras que en ISO la regla es un país, uno votar. Si un borrador falla en cualquier paso, y a menos que el WG decida que no se puede lograr una revisión aceptable, debe revisarse y luego pasar por el procedimiento de votación nuevamente.
Los estándares internacionales luego se transfieren a estándares nacionales si los comités nacionales votan en consecuencia. Por el contrario, las normas europeas (EN) deben ser transferidas a normas nacionales por los miembros del CEN y las normas nacionales en conflicto deben ser retiradas. Eso significa que las EN armonizadas serán efectivas en todos los países CEN (y, debido a su influencia en el comercio, serán relevantes para los fabricantes en todos los demás países que tengan la intención de vender productos a un cliente en un país CEN).
Cooperación ISO-CEN
Para evitar conflictos entre normas y la duplicación del trabajo y para permitir que los miembros no pertenecientes al CEN participen en los desarrollos del CEN, se logró un acuerdo de cooperación entre la ISO y el CEN (el llamado Acuerdo de Viena) que regula las formalidades y prevé el llamado procedimiento de votación paralela, que permite votar los mismos proyectos en el CEN y en la ISO en paralelo, si los comités responsables así lo acuerdan. Entre los comités de ergonomía, la tendencia es bastante clara: evitar la duplicación del trabajo (la mano de obra y los recursos financieros son demasiado limitados), evitar las especificaciones contradictorias y tratar de lograr un conjunto uniforme de normas ergonómicas basadas en la división del trabajo. Mientras que CEN TC 122 está sujeto a las decisiones de la administración de la UE y obtiene elementos de trabajo obligatorios para estipular las especificaciones de las directivas europeas, ISO TC 159 es libre de estandarizar lo que considere necesario o apropiado en el campo de la ergonomía. Esto ha llevado a cambios en el énfasis de ambos comités, con el CEN concentrándose en temas relacionados con la maquinaria y la seguridad y el ISO concentrándose en áreas donde los intereses del mercado son más amplios que los de Europa (p. ej., trabajo con pantallas de visualización y diseño de salas de control para procesos). e industrias relacionadas); en áreas de operación de maquinaria, como en el diseño de sistemas de trabajo; y también en áreas tales como el ambiente de trabajo y la organización del trabajo. La intención, sin embargo, es transferir los resultados del trabajo del CEN a la ISO, y viceversa, con el fin de construir un conjunto de normas ergonómicas consistentes que, de hecho, sean efectivas en todo el mundo.
El procedimiento formal de elaboración de normas sigue siendo el mismo en la actualidad. Pero dado que el énfasis se ha desplazado cada vez más hacia el nivel internacional o europeo, cada vez se transfieren más actividades a estos comités. Actualmente, los borradores se elaboran directamente en estos comités y ya no se basan en las normas nacionales existentes. Una vez que se ha tomado la decisión de que se debe desarrollar un estándar, el trabajo comienza directamente en uno de estos niveles supranacionales, en función de cualquier entrada que pueda estar disponible, a veces comenzando desde cero. Esto cambia drásticamente el papel de los comités nacionales de ergonomía. Si bien hasta ahora desarrollaron formalmente sus propios estándares nacionales de acuerdo con sus reglas nacionales, ahora tienen la tarea de observar e influir en la estandarización en los niveles supranacionales, a través de los expertos que elaboran los estándares o mediante los comentarios realizados en los diferentes pasos de la votación (dentro de el CEN, se paralizará un proyecto de normalización nacional si se está trabajando simultáneamente en un proyecto comparable a nivel del CEN). Esto complica aún más la tarea, ya que esta influencia solo puede ejercerse indirectamente y dado que la elaboración de normas ergonómicas no es solo una cuestión de ciencia pura sino una cuestión de negociación, consenso y acuerdo (sobre todo por las implicaciones políticas que la estándar podría tener). Esta, por supuesto, es una de las razones por las que el proceso de producción de una norma ergonómica internacional o europea suele llevar varios años y por la que las normas ergonómicas no pueden reflejar el último estado de la técnica en ergonomía. Por lo tanto, las normas internacionales de ergonomía deben examinarse cada cinco años y, si es necesario, someterse a revisión.
Campos de la estandarización de la ergonomía
La normalización internacional de la ergonomía comenzó con directrices sobre los principios generales de la ergonomía en el diseño de sistemas de trabajo; se establecieron en la norma ISO 6385, que ahora se encuentra en proceso de revisión para incorporar nuevos desarrollos. El CEN ha elaborado una norma básica similar (EN 614, Parte 1, 1994), más orientada a la maquinaria y la seguridad, y está preparando una norma con directrices sobre el diseño de tareas como segunda parte de esta norma básica. El CEN enfatiza así la importancia de las tareas del operador en el diseño de maquinaria o sistemas de trabajo, para lo cual se deben diseñar herramientas o maquinaria adecuadas.
Otra área donde se han establecido conceptos y pautas en los estándares es el campo de la carga de trabajo mental. ISO 10075, Parte 1, define términos y conceptos (p. ej., fatiga, monotonía, vigilancia reducida), y la Parte 2 (en la etapa de un DIS en la segunda mitad de la década de 1990) proporciona pautas para el diseño de sistemas de trabajo con respecto a carga de trabajo mental para evitar deficiencias.
SC 3 de ISO TC 159 y WG 1 de CEN TC 122 producen estándares sobre antropometría y biomecánica, que cubren, entre otros temas, métodos de medidas antropométricas, dimensiones corporales, distancias de seguridad y dimensiones de acceso, la evaluación de posturas de trabajo y el diseño de lugares de trabajo en relación a la maquinaria, límites recomendados de fuerza física y problemas de manejo manual.
SC 4 de ISO 159 muestra cómo los cambios tecnológicos y sociales afectan la estandarización de la ergonomía y el programa de dicho subcomité. SC 4 comenzó como "Señales y controles" al estandarizar los principios para mostrar información y diseñar actuadores de control, siendo uno de sus elementos de trabajo la unidad de pantalla visual (VDU), utilizada para tareas de oficina. Sin embargo, pronto se hizo evidente que la estandarización de la ergonomía de las pantallas de visualización no sería suficiente y que la estandarización “alrededor” de esta estación de trabajo, en el sentido de una sistema de trabajo—fue requerido, cubriendo áreas tales como hardware (p. ej., la propia VDU, incluidas pantallas, teclados, dispositivos de entrada sin teclado, estaciones de trabajo), entorno de trabajo (p. ej., iluminación), organización del trabajo (p. ej., requisitos de tareas) y software ( ej., principios de diálogo, menú y diálogos de manipulación directa). Esto condujo a un estándar de varias partes (ISO 9241) que cubre los "requisitos ergonómicos para el trabajo de oficina con VDU" con hasta el momento 17 partes, 3 de las cuales ya han alcanzado el estado de IS. Este estándar se transferirá al CEN (como EN 29241) que especificará los requisitos para la directiva VDU (90/270 EEC) de la UE, aunque esta es una directiva bajo el artículo 118a del Acta Única Europea. Esta serie de estándares brinda pautas y especificaciones, según el tema de la parte dada del estándar, e introduce un nuevo concepto de estandarización, el enfoque de desempeño del usuario, que podría ayudar a resolver algunos de los problemas en la estandarización ergonómica. Se describe con más detalle en el capítulo Unidades de visualización visual .
El enfoque de desempeño del usuario se basa en la idea de que el objetivo de la estandarización es prevenir el deterioro y proporcionar condiciones de trabajo óptimas para el operador, pero no establecer especificaciones técnicas per se. Por lo tanto, la especificación se considera solo como un medio para el fin de un rendimiento óptimo y sin impedimentos del usuario. Lo importante es lograr este desempeño impecable del operador, independientemente de que se cumpla una determinada especificación física. Esto requiere que, en primer lugar, se especifique el rendimiento intacto del operador que debe lograrse, por ejemplo, rendimiento de lectura en una pantalla de visualización, y, en segundo lugar, que se elaboren especificaciones técnicas que permitan lograr el rendimiento deseado, basándose en la evidencia disponible. El fabricante es entonces libre de seguir estas especificaciones técnicas, lo que garantizará que el producto cumpla con los requisitos de ergonomía. O puede demostrar, por comparación con un producto del que se sabe que cumple los requisitos (ya sea por el cumplimiento de las especificaciones técnicas de la norma o por su desempeño comprobado), que con el nuevo producto los requisitos de desempeño se cumplen igual o mejor que con el producto de referencia, con o sin cumplimiento de las especificaciones técnicas de la norma. En la norma se especifica un procedimiento de prueba que debe seguirse para demostrar la conformidad con los requisitos de rendimiento del usuario de la norma.
Este enfoque ayuda a superar dos problemas. Las normas, en virtud de sus especificaciones, que se basan en el estado del arte (y la tecnología) en el momento de la elaboración de la norma, pueden restringir nuevos desarrollos. Las especificaciones que se basan en una determinada tecnología (p. ej., tubos de rayos catódicos) pueden ser inapropiadas para otras tecnologías. Sin embargo, independientemente de la tecnología, el usuario de un dispositivo de visualización (por ejemplo) debe poder leer y comprender la información que se muestra de manera efectiva y eficiente sin ningún impedimento, independientemente de la técnica que se utilice. Sin embargo, el rendimiento en este caso no debe limitarse a la producción pura (medida en términos de velocidad o precisión), sino que también debe incluir consideraciones de comodidad y esfuerzo.
El segundo problema que se puede abordar con este enfoque es el problema de las interacciones entre las condiciones. La especificación física por lo general es unidimensional, dejando fuera de consideración otras condiciones. Sin embargo, en el caso de los efectos interactivos, esto puede ser engañoso o incluso erróneo. Al especificar los requisitos de rendimiento, por otro lado, y dejar los medios para lograrlos al fabricante, cualquier solución que satisfaga estos requisitos de rendimiento será aceptable. Tratar la especificación como un medio para un fin representa una perspectiva ergonómica genuina.
Otro estándar con un enfoque de sistema de trabajo está en preparación en SC 4, que se relaciona con el diseño de salas de control, por ejemplo, para industrias de procesos o centrales eléctricas. Como resultado, se espera preparar una norma de varias partes (ISO 11064), con las diferentes partes que tratan aspectos del diseño de la sala de control como la distribución, el diseño de la estación de trabajo del operador y el diseño de pantallas y dispositivos de entrada para el control de procesos. Debido a que estos elementos de trabajo y el enfoque adoptado superan claramente los problemas del diseño de "pantallas y controles", el SC 4 se ha renombrado como "Interacción del sistema humano".
Los problemas ambientales, especialmente los relacionados con las condiciones térmicas y la comunicación en ambientes ruidosos, se tratan en el SC 5, donde se han elaborado o se están elaborando normas sobre métodos de medición, métodos para la estimación del estrés por calor, condiciones de confort térmico, producción de calor metabólico , y sobre las señales de peligro auditivas y visuales, el nivel de interferencia del habla y la evaluación de la comunicación verbal.
CEN TC 122 cubre aproximadamente los mismos campos de la normalización de la ergonomía, aunque con un énfasis diferente y una estructura diferente de sus grupos de trabajo. Sin embargo, se pretende que mediante una división del trabajo entre los comités de ergonomía y la aceptación mutua de los resultados del trabajo, se desarrolle un conjunto general y utilizable de normas de ergonomía.
El objetivo prioritario de la toxicología ocupacional y ambiental es mejorar la prevención o limitación sustancial de los efectos en la salud de la exposición a agentes peligrosos en los ambientes generales y ocupacionales. Con este fin se han desarrollado sistemas para la evaluación cuantitativa del riesgo relacionado con una determinada exposición (ver la sección “Toxicología reglamentaria”).
Los efectos de una sustancia química en determinados sistemas y órganos están relacionados con la magnitud de la exposición y si la exposición es aguda o crónica. En vista de la diversidad de efectos tóxicos incluso dentro de un sistema u órgano, se ha propuesto una filosofía uniforme sobre el órgano crítico y el efecto crítico con el fin de evaluar el riesgo y desarrollar límites de concentración recomendados para la salud de sustancias tóxicas en diferentes medios ambientales. .
Desde el punto de vista de la medicina preventiva, es de particular importancia identificar los efectos adversos tempranos, con base en la suposición general de que prevenir o limitar los efectos tempranos puede prevenir que se desarrollen efectos más severos para la salud.
Este enfoque se ha aplicado a los metales pesados. Aunque los metales pesados, como el plomo, el cadmio y el mercurio, pertenecen a un grupo específico de sustancias tóxicas en las que el efecto crónico de la actividad depende de su acumulación en los órganos, las definiciones que se presentan a continuación fueron publicadas por el Task Group on Metal Toxicity (Nordberg 1976).
Se ha adoptado la definición de órgano crítico propuesta por el Task Group on Metal Toxicity con una ligera modificación: la palabra metal ha sido reemplazada por la expresión sustancia potencialmente toxica (Duffus 1993).
El hecho de que un órgano o sistema determinado se considere crítico depende no solo de la toxicomecánica del agente peligroso, sino también de la vía de absorción y de la población expuesta.
A veces se desconoce el significado biológico del efecto subcrítico; puede significar biomarcador de exposición, índice de adaptación o un precursor de efecto crítico (consulte “Métodos de prueba de toxicología: biomarcadores”). La última posibilidad puede ser particularmente significativa en vista de las actividades profilácticas.
La Tabla 1 muestra ejemplos de órganos críticos y efectos para diferentes productos químicos. En la exposición ambiental crónica al cadmio, donde la vía de absorción es de menor importancia (las concentraciones de cadmio en el aire oscilan entre 10 y 20 μg/m3 en la urbana y de 1 a 2 μg/m3 en las zonas rurales), el órgano crítico es el riñón. En el entorno laboral donde el TLV alcanza los 50 μg/m3 y la inhalación constituye la principal vía de exposición, dos órganos, pulmón y riñón, se consideran críticos.
Tabla 1. Ejemplos de órganos críticos y efectos críticos
Sustancia | Órgano crítico en exposición crónica | Efecto crítico |
Cadmio | Livianos | sin umbral: Cáncer de pulmón (riesgo unitario 4.6 x 10-3) |
Riñón | Límite: Aumento de la excreción de proteínas de bajo peso molecular (β2 -METRO, RBP) en la orina |
|
Livianos | Enfisema ligeros cambios de función | |
Lidera | Adultos sistema hematopoyético |
Aumento de la excreción de ácido delta-aminolevulínico en la orina (ALA-U); aumento de la concentración de protoporfirina eritrocítica libre (FEP) en los eritrocitos |
Sistema nervioso periférico | Enlentecimiento de las velocidades de conducción de las fibras nerviosas más lentas | |
Mercurio (elemental) | Los niños jóvenes Sistema nervioso central |
Disminución del coeficiente intelectual y otros efectos sutiles; temblor mercurial (dedos, labios, párpados) |
Mercurio (mercúrico) | Riñón | Proteinuria |
Magnesio | Adultos Sistema nervioso central |
Deterioro de las funciones psicomotoras |
Niños Livianos |
Síntomas respiratorios | |
Sistema nervioso central | Deterioro de las funciones psicomotoras | |
tolueno | Membranas mucosas | Irritación |
Cloruro de vinilo | Hígado | Cáncer (riesgo unitario de angiosarcoma 1 x 10-6 ) |
Acetato de etilo | Membrana mucosa | Irritación |
Para el plomo, los órganos críticos en adultos son los sistemas hematopoyético y nervioso periférico, donde los efectos críticos (p. ej., concentración elevada de protoporfirina eritrocítica libre (FEP), aumento de la excreción de ácido delta-aminolevulínico en la orina o alteración de la conducción nerviosa periférica) se manifiestan cuando el nivel de plomo en sangre (un índice de absorción de plomo en el sistema) se acerca a 200 a 300 μg/l. En los niños pequeños el órgano crítico es el sistema nervioso central (SNC), y se ha encontrado que los síntomas de disfunción detectados con el uso de una batería de pruebas psicológicas aparecen en las poblaciones examinadas incluso en concentraciones en el rango de alrededor de 100 μg/l Pb en sangre.
Se han formulado otras definiciones que pueden reflejar mejor el significado de la noción. Según la OMS (1989), el efecto crítico ha sido definido como “el primer efecto adverso que aparece cuando se alcanza la concentración o dosis umbral (crítica) en el órgano crítico. Los efectos adversos, como el cáncer, sin un umbral de concentración definido, a menudo se consideran críticos. La decisión sobre si un efecto es crítico es una cuestión de juicio experto”. En las directrices del Programa Internacional sobre Seguridad Química (IPCS) para desarrollar Documentos de Criterios de Salud Ambiental, el efecto crítico se describe como “el efecto adverso que se considera más apropiado para determinar la ingesta tolerable”. La última definición ha sido formulada directamente con el propósito de evaluar los límites de exposición basados en la salud en el ambiente general. En este contexto, lo más esencial parece ser determinar qué efecto puede considerarse como un efecto adverso. Siguiendo la terminología actual, el efecto adverso es el “cambio en la morfología, fisiología, crecimiento, desarrollo o vida útil de un organismo que da como resultado el deterioro de la capacidad para compensar el estrés adicional o el aumento de la susceptibilidad a los efectos nocivos de otras influencias ambientales. La decisión sobre si algún efecto es o no adverso requiere el juicio de expertos”.
La Figura 1 muestra curvas hipotéticas de dosis-respuesta para diferentes efectos. En caso de exposición al plomo, A puede representar un efecto subcrítico (inhibición de la ALA-deshidratasa de los eritrocitos), B el efecto crítico (aumento de la protoporfirina de zinc en los eritrocitos o aumento de la excreción de ácido delta-aminolevulínico, C el efecto clínico (anemia) y D el efecto fatal (muerte). Para la exposición al plomo, existe abundante evidencia que ilustra cómo los efectos particulares de la exposición dependen de la concentración de plomo en la sangre (equivalente práctico de la dosis), ya sea en forma de relación dosis-respuesta o en relación con diferentes variables (sexo, edad, etc.). .). La determinación de los efectos críticos y la relación dosis-respuesta para tales efectos en humanos permite predecir la frecuencia de un efecto dado para una dosis dada o su contrapartida (concentración en material biológico) en una determinada población.
Figura 1. Curvas hipotéticas de dosis-respuesta para varios efectos
Los efectos críticos pueden ser de dos tipos: los que se considera que tienen un umbral y aquellos para los que puede haber algún riesgo en cualquier nivel de exposición (sin umbral, carcinógenos genotóxicos y mutágenos germinales). Siempre que sea posible, se deben utilizar datos humanos apropiados como base para la evaluación de riesgos. Para determinar los efectos de umbral para la población en general, se deben hacer suposiciones sobre el nivel de exposición (ingesta tolerable, biomarcadores de exposición) de modo que la frecuencia del efecto crítico en la población expuesta a un agente peligroso determinado corresponda a la frecuencia de ese efecto en la población general. En la exposición al plomo, la concentración máxima recomendada de plomo en sangre para la población general (200 μg/l, mediana por debajo de 100 μg/l) (OMS 1987) está prácticamente por debajo del valor umbral para el supuesto efecto crítico: el nivel elevado de protoporfirina libre en eritrocitos, aunque no está por debajo del nivel asociado con los efectos sobre el SNC en niños o la presión arterial en adultos. En general, si los datos de estudios de población humana bien realizados que definen un nivel de efecto adverso no observado son la base para la evaluación de la seguridad, entonces se ha considerado apropiado el factor de incertidumbre de diez. En el caso de exposición ocupacional, los efectos críticos pueden referirse a una determinada parte de la población (por ejemplo, el 10%). En consecuencia, en la exposición ocupacional al plomo, se ha adoptado que la concentración de plomo en sangre recomendada en función de la salud es de 400 mg/l en hombres, donde se produjo un nivel de respuesta del 10 % para ALA-U de 5 mg/l con concentraciones de PbB de aproximadamente 300 a 400 mg/l. . Para la exposición ocupacional a cadmio (suponiendo que el efecto crítico sea el aumento de la excreción urinaria de proteínas de bajo peso), se ha considerado como valor admisible el nivel de 200 ppm de cadmio en la corteza renal, ya que este efecto se ha observado en el 10% de los pacientes. la población expuesta. Ambos valores están bajo consideración para bajar, en muchos países, en el momento actual (es decir, 1996).
No existe un consenso claro sobre la metodología adecuada para la evaluación del riesgo de productos químicos cuyo efecto crítico puede no tener un umbral, como los carcinógenos genotóxicos. Se han adoptado varios enfoques basados en gran parte en la caracterización de la relación dosis-respuesta para la evaluación de tales efectos. Debido a la falta de aceptación sociopolítica del riesgo para la salud causado por carcinógenos en documentos como el Directrices de calidad del aire para Europa (OMS 1987), solo los valores como el riesgo unitario de por vida (es decir, el riesgo asociado con la exposición de por vida a 1 μg/m3 del agente peligroso) se presentan para efectos sin umbral (ver “Toxicología reglamentaria”).
En la actualidad, el paso básico para emprender actividades de evaluación de riesgos es determinar el órgano crítico y los efectos críticos. Las definiciones de efecto crítico y adverso reflejan la responsabilidad de decidir cuál de los efectos dentro de un órgano o sistema determinado debe considerarse crítico, y esto está directamente relacionado con la determinación posterior de los valores recomendados para un producto químico determinado en el medio ambiente general. -por ejemplo, Directrices de calidad del aire para Europa (OMS 1987) o límites de exposición ocupacional basados en la salud (OMS 1980). Determinar el efecto crítico dentro del rango de efectos subcríticos puede conducir a una situación en la que los límites recomendados de concentración de sustancias químicas tóxicas en el ambiente general o laboral pueden ser imposibles de mantener en la práctica. Considerar como crítico un efecto que puede superponerse a los efectos clínicos tempranos puede llevar a la adopción de los valores para los cuales pueden desarrollarse efectos adversos en alguna parte de la población. La decisión de si un efecto dado debe considerarse crítico o no sigue siendo responsabilidad de grupos de expertos que se especializan en toxicidad y evaluación de riesgos.
Introducción
Los disolventes orgánicos son volátiles y generalmente solubles en la grasa corporal (lipófilos), aunque algunos de ellos, por ejemplo, el metanol y la acetona, también son solubles en agua (hidrofílicos). Se han empleado ampliamente no solo en la industria sino también en productos de consumo, como pinturas, tintas, diluyentes, desengrasantes, agentes de limpieza en seco, quitamanchas, repelentes, etc. Si bien es posible aplicar el monitoreo biológico para detectar efectos en la salud, por ejemplo, efectos en el hígado y el riñón, para fines de vigilancia de la salud de los trabajadores expuestos ocupacionalmente a solventes orgánicos, es mejor utilizar el monitoreo biológico en su lugar para “ monitoreo de la exposición” para proteger la salud de los trabajadores de la toxicidad de estos solventes, porque este es un enfoque lo suficientemente sensible como para dar advertencias mucho antes de que ocurran efectos en la salud. La detección de la alta sensibilidad de los trabajadores a la toxicidad de los disolventes también puede contribuir a la protección de su salud.
Resumen de toxicocinética
Los solventes orgánicos son generalmente volátiles en condiciones estándar, aunque la volatilidad varía de un solvente a otro. Por lo tanto, la ruta principal de exposición en entornos industriales es a través de la inhalación. La tasa de absorción a través de la pared alveolar de los pulmones es mucho más alta que a través de la pared del tracto digestivo, y una tasa de absorción pulmonar de alrededor del 50% se considera típica para muchos solventes comunes como el tolueno. Algunos solventes, por ejemplo, el disulfuro de carbono y la N,N-dimetilformamida en estado líquido, pueden penetrar la piel humana intacta en cantidades lo suficientemente grandes como para ser tóxicas.
Cuando estos disolventes son absorbidos, una parte se exhala en el aliento sin biotransformación alguna, pero la mayor parte se distribuye en órganos y tejidos ricos en lípidos como consecuencia de su lipofilia. La biotransformación tiene lugar principalmente en el hígado (y también en otros órganos en menor medida), y la molécula de solvente se vuelve más hidrófila, generalmente por un proceso de oxidación seguido de conjugación, para ser excretado a través del riñón en la orina como metabolitos. ). Una pequeña porción puede eliminarse sin cambios en la orina.
Por lo tanto, tres materiales biológicos, orina, sangre y aliento exhalado, están disponibles para monitorear la exposición a solventes desde un punto de vista práctico. Otro factor importante en la selección de materiales biológicos para monitorear la exposición es la velocidad de desaparición de la sustancia absorbida, para lo cual la vida media biológica, o el tiempo necesario para que una sustancia disminuya a la mitad de su concentración original, es un parámetro cuantitativo. Por ejemplo, los solventes desaparecerán del aliento exhalado mucho más rápido que los metabolitos correspondientes de la orina, lo que significa que tienen una vida media mucho más corta. Dentro de los metabolitos urinarios, la vida media biológica varía según la rapidez con la que se metaboliza el compuesto original, por lo que el tiempo de muestreo en relación con la exposición suele ser de importancia crítica (ver más abajo). Una tercera consideración al elegir un material biológico es la especificidad de la sustancia química objetivo que se va a analizar en relación con la exposición. Por ejemplo, el ácido hipúrico es un marcador de exposición al tolueno utilizado desde hace mucho tiempo, pero no solo lo forma el cuerpo de forma natural, sino que también puede derivarse de fuentes no ocupacionales, como algunos aditivos alimentarios, y ya no se considera un indicador fiable. marcador cuando la exposición al tolueno es baja (menos de 50 cm3/m3). En términos generales, los metabolitos urinarios se han utilizado más ampliamente como indicadores de exposición a diversos disolventes orgánicos. El solvente en la sangre se analiza como una medida cualitativa de la exposición porque generalmente permanece en la sangre por menos tiempo y refleja más la exposición aguda, mientras que el solvente en el aliento exhalado es difícil de usar para estimar la exposición promedio porque la concentración en el aliento disminuye. rápidamente después del cese de la exposición. El solvente en orina es un candidato prometedor como medida de exposición, pero necesita más validación.
Pruebas de exposición biológica para solventes orgánicos
Al aplicar el monitoreo biológico para la exposición a solventes, el tiempo de muestreo es importante, como se indicó anteriormente. La Tabla 1 muestra los tiempos de muestreo recomendados para solventes comunes en el monitoreo de la exposición ocupacional diaria. Cuando se va a analizar el disolvente en sí, se debe prestar atención para evitar posibles pérdidas (p. ej., evaporación en el aire de la habitación) así como contaminación (p. ej., disolución del aire de la habitación en la muestra) durante el proceso de manipulación de la muestra. En caso de que las muestras deban transportarse a un laboratorio distante o almacenarse antes del análisis, se debe tener cuidado para evitar pérdidas. Se recomienda la congelación para los metabolitos, mientras que la refrigeración (pero no la congelación) en un recipiente hermético sin espacio de aire (o más preferiblemente, en un vial con espacio de cabeza) se recomienda para el análisis del solvente mismo. En el análisis químico, el control de calidad es esencial para obtener resultados fiables (para obtener más información, consulte el artículo “Garantía de calidad” en este capítulo). Al informar los resultados, se debe respetar la ética (ver capítulo Cuestiones éticas en otra parte del Enciclopedia).
Tabla 1. Algunos ejemplos de sustancias químicas objetivo para el monitoreo biológico y el tiempo de muestreo
Solvente |
Producto químico objetivo |
Orina/sangre |
Tiempo de muestreo1 |
Disulfuro de carbono |
Ácido 2-tiotiazolidina-4-carboxílico |
Orina |
Jue F |
N,N-dimetilformamida |
N-Metilformamida |
Orina |
lun mar mie jue |
2-Etoxietanol y su acetato |
Ácido etoxiacético |
Orina |
Th F (fin del último turno de trabajo) |
hexano |
2,4-hexanodiona hexano |
Orina Sangre |
lun mar mie jue confirmación de exposición |
Metanol |
Metanol |
Orina |
lun mar mie jue |
Estireno |
Ácido mandélico ácido fenilglioxílico Estireno |
Orina Orina Sangre |
Jue F Jue F confirmación de exposición |
tolueno |
Ácido hipúrico o-cresol tolueno tolueno |
Orina Orina Sangre Orina |
mar mie jue mar mie jue confirmación de exposición mar mie jue |
Tricloroetileno |
Ácido tricloroacético (TCA) Triclorocompuestos totales (suma de TCA y tricloroetanol libre y conjugado) Tricloroetileno |
Orina Orina Sangre |
Jue F Jue F confirmación de exposición |
Xilenos2 |
Ácidos metilhipúricos Xilenos |
Orina Sangre |
mar mie jue mar mie jue |
1 Fin del turno de trabajo a menos que se indique lo contrario: los días de la semana indican los días de muestreo preferidos.
2 Tres isómeros, ya sea por separado o en cualquier combinación.
Fuente: Resumido de OMS 1996.
Se establecen varios procedimientos analíticos para muchos disolventes. Los métodos varían según el producto químico objetivo, pero la mayoría de los métodos desarrollados recientemente utilizan cromatografía de gases (GC) o cromatografía líquida de alta resolución (HPLC) para la separación. Se recomienda el uso de un muestreador automático y un procesador de datos para un buen control de calidad en el análisis químico. Cuando se va a analizar un disolvente en sangre o en orina, la aplicación de la técnica headspace en GC (headspace GC) es muy conveniente, especialmente cuando el disolvente es lo suficientemente volátil. La Tabla 2 describe algunos ejemplos de los métodos establecidos para solventes comunes.
Tabla 2. Algunos ejemplos de métodos analíticos para el seguimiento biológico de la exposición a disolventes orgánicos
Solvente |
Producto químico objetivo |
sangre/orina |
Método analítico |
Disulfuro de carbono |
2-tiotiazolidina-4- |
Orina |
Cromatógrafo de líquidos de alta resolución con detección ultravioleta (HPLC UV) |
N, N-Dimetilformamida |
N-metilformamida |
Orina |
Cromatógrafo de gases con detección termoiónica de llama (FTD-GC) |
2-Etoxietanol y su acetato |
Ácido etoxiacético |
Orina |
Extracción, derivatización y cromatógrafo de gases con detección de ionización de llama (FID-GC) |
hexano |
2,4-hexanodiona hexano |
Orina Sangre |
Extracción, (hidrólisis) y FID-GC Espacio de cabeza FID-GC |
Metanol |
Metanol |
Orina |
Espacio de cabeza FID-GC |
Estireno |
Ácido mandélico ácido fenilglioxílico Estireno |
Orina Orina Sangre |
Desalación y UV-HPLC Desalación y UV-HPLC Espacio de cabeza FID-GC |
tolueno |
Ácido hipúrico o-cresol tolueno tolueno |
Orina Orina Sangre Orina |
Desalación y UV-HPLC Hidrólisis, extracción y FID-GC Espacio de cabeza FID-GC Espacio de cabeza FID-GC |
Tricloroetileno |
Ácido tricloroacético Triclorocompuestos totales (suma de TCA y tricloroetanol libre y conjugado) Tricloroetileno |
Orina Orina Sangre |
Colorimetría o esterificación y cromatografía de gases con detección por captura de electrones (ECD-GC) Oxidación y colorimetría, o hidrólisis, oxidación, esterificación y ECD-GC Espacio de cabeza ECD-GC |
Xilenos |
Ácidos metilhipúricos (tres isómeros, ya sea por separado o en combinación) |
Orina |
Espacio de cabeza FID-GC |
Fuente: Resumido de OMS 1996.
Evaluación
Se puede establecer una relación lineal de los indicadores de exposición (enumerados en la tabla 2) con la intensidad de la exposición a los solventes correspondientes ya sea a través de una encuesta de trabajadores ocupacionalmente expuestos a solventes, o por exposición experimental de voluntarios humanos. Así, la ACGIH (1994) y la DFG (1994), por ejemplo, han establecido el índice de exposición biológica (BEI) y el valor de tolerancia biológica (BAT), respectivamente, como los valores en las muestras biológicas equivalentes a la exposición ocupacional. límite de exposición para sustancias químicas transportadas por el aire, es decir, valor límite umbral (TLV) y concentración máxima en el lugar de trabajo (MAK), respectivamente. Sin embargo, se sabe que el nivel de la sustancia química objetivo en muestras obtenidas de personas no expuestas puede variar, reflejando, por ejemplo, las costumbres locales (p. ej., alimentos) y que pueden existir diferencias étnicas en el metabolismo de los solventes. Por lo tanto, es deseable establecer valores límite a través del estudio de la población local de interés.
Al evaluar los resultados, se deben excluir cuidadosamente la exposición no ocupacional al solvente (p. ej., mediante el uso de productos de consumo que contienen solventes o la inhalación intencional) y la exposición a sustancias químicas que generan los mismos metabolitos (p. ej., algunos aditivos alimentarios). En caso de que exista una gran diferencia entre la intensidad de la exposición al vapor y los resultados del control biológico, la diferencia puede indicar la posibilidad de absorción por la piel. Fumar cigarrillos suprimirá el metabolismo de algunos disolventes (p. ej., tolueno), mientras que la ingesta aguda de etanol puede suprimir el metabolismo del metanol de manera competitiva.
Los sistemas de trabajo abarcan variables organizacionales de nivel macro tales como el subsistema de personal, el subsistema tecnológico y el entorno externo. El análisis de los sistemas de trabajo es, por lo tanto, esencialmente un esfuerzo por comprender la asignación de funciones entre el trabajador y el equipo técnico y la división del trabajo entre las personas en un entorno sociotécnico. Dicho análisis puede ayudar a tomar decisiones informadas para mejorar la seguridad de los sistemas, la eficiencia en el trabajo, el desarrollo tecnológico y el bienestar mental y físico de los trabajadores.
Los investigadores examinan los sistemas de trabajo según enfoques divergentes (mecanicista, biológico, perceptivo/motor, motivacional) con los correspondientes resultados individuales y organizacionales (Campion y Thayer 1985). La selección de métodos en el análisis de sistemas de trabajo está dictada por los enfoques específicos tomados y el objetivo particular en vista, el contexto organizacional, el trabajo y las características humanas, y la complejidad tecnológica del sistema bajo estudio (Drury 1987). Las listas de verificación y los cuestionarios son los medios comunes para reunir bases de datos para que los planificadores organizacionales prioricen planes de acción en áreas de selección y colocación de personal, evaluación del desempeño, gestión de seguridad y salud, diseño trabajador-máquina y diseño o rediseño del trabajo. Métodos de inventario de listas de verificación, por ejemplo, el Cuestionario de análisis de posición, o PAQ (McCormick 1979), el Inventario de componentes de trabajo (Banks y Miller 1984), la Encuesta de diagnóstico de trabajo (Hackman y Oldham 1975) y el Cuestionario de diseño de trabajo de métodos múltiples ( Campion 1988) son los instrumentos más populares y están dirigidos a una variedad de objetivos.
El PAQ tiene seis divisiones principales, que comprenden 189 elementos de comportamiento necesarios para la evaluación del desempeño laboral y siete elementos complementarios relacionados con la compensación monetaria:
El Inventario de Componentes del Trabajo Mark II contiene siete secciones. La sección introductoria se ocupa de los detalles de la organización, descripciones de puestos y detalles biográficos del titular del puesto. Otras secciones son las siguientes:
Los métodos de perfil tienen elementos comunes, es decir, (1) un conjunto completo de factores de trabajo que se utilizan para seleccionar el rango de trabajo, (2) una escala de calificación que permite la evaluación de las demandas del trabajo y (3) la ponderación de las características del trabajo. en función de la estructura organizativa y los requisitos sociotécnicos. Los perfiles de los postes., otro instrumento de perfil de tareas, desarrollado en la Organización Renault (RNUR 1976), contiene una tabla de entradas de variables que representan las condiciones de trabajo y proporciona a los encuestados una escala de cinco puntos en la que pueden seleccionar el valor de una variable que va desde muy satisfactorio a muy pobre mediante el registro de respuestas estandarizadas. Las variables abarcan (1) el diseño del puesto de trabajo, (2) el entorno físico, (3) los factores de carga física, (4) la tensión nerviosa, (5) la autonomía laboral, (6) las relaciones, (7) la repetitividad y ( 8) contenidos del trabajo.
El AET (Análisis Ergonómico del Trabajo) (Rohmert y Landau 1985), fue desarrollado con base en el concepto de tensión-deformación. Cada uno de los 216 ítems del AET está codificado: un código define los estresores, indicando si un elemento de trabajo califica o no como estresor; otros códigos definen el grado de estrés asociado con un trabajo; y aún otros describen la duración y frecuencia del estrés durante el turno de trabajo.
El AET consta de tres partes:
En términos generales, las listas de verificación adoptan uno de dos enfoques, (1) el enfoque orientado al trabajo (por ejemplo, el AET, Los perfiles de los postes.) y (2) el enfoque orientado al trabajador (por ejemplo, el PAQ). Los inventarios y perfiles de tareas ofrecen una comparación sutil de tareas complejas y perfiles ocupacionales de puestos de trabajo y determinan los aspectos del trabajo que se consideran a priori como factores inevitables en la mejora de las condiciones de trabajo. El énfasis del PAQ está en la clasificación de familias o grupos de trabajo (Fleishman y Quainence 1984; Mossholder y Arvey 1984; Carter y Biersner 1987), infiriendo la validez del componente del trabajo y el estrés laboral (Jeanneret 1980; Shaw y Riskind 1983). Desde el punto de vista médico, tanto el método AET como el de perfil permiten comparar limitaciones y aptitudes cuando se requiere (Wagner 1985). El cuestionario nórdico es una presentación ilustrativa del análisis ergonómico del lugar de trabajo (Ahonen, Launis y Kuorinka 1989), que cubre los siguientes aspectos:
Entre las deficiencias del formato de lista de verificación de propósito general empleado en el análisis ergonómico del puesto se encuentran las siguientes:
Una lista de verificación construida sistemáticamente nos obliga a investigar los factores de las condiciones de trabajo que son visibles o fáciles de modificar, y nos permite entablar un diálogo social entre los empleadores, los trabajadores y otras personas interesadas. Se debe tener un cierto grado de cautela con respecto a la ilusión de simplicidad y eficiencia de las listas de verificación, y también con respecto a sus enfoques cuantificadores y técnicos. La versatilidad en una lista de verificación o cuestionario se puede lograr al incluir módulos específicos para adaptarse a objetivos específicos. Por lo tanto, la elección de variables está muy ligada al propósito para el cual se van a analizar los sistemas de trabajo y esto determina el enfoque general para la construcción de una lista de verificación fácil de usar.
La "Lista de verificación de ergonomía" sugerida puede adoptarse para varias aplicaciones. La recopilación de datos y el procesamiento computarizado de los datos de la lista de verificación son relativamente sencillos, al responder a las declaraciones primarias y secundarias (qv).
LISTA DE VERIFICACIÓN DE ERGONOMÍA
Aquí se sugiere una guía general para una lista de verificación de sistemas de trabajo con estructura modular, que cubre cinco aspectos principales (mecanicista, biológico, perceptivo/motor, técnico y psicosocial). La ponderación de los módulos varía según la naturaleza de los trabajos que se analizarán, las características específicas del país o la población objeto de estudio, las prioridades de la organización y el uso previsto de los resultados del análisis. Los encuestados marcan la "declaración principal" como Sí/No. Las respuestas afirmativas indican la ausencia aparente de un problema, aunque no se debe descartar la conveniencia de un escrutinio más cuidadoso. Las respuestas "No" indican la necesidad de una evaluación y mejora de la ergonomía. Las respuestas a las "afirmaciones secundarias" se indican con un solo dígito en la escala de gravedad de acuerdo/desacuerdo que se ilustra a continuación.
0 No sabe o no aplica
1 Totalmente en desacuerdo
2 en desacuerdo
3 Ni de acuerdo ni en desacuerdo
4 De acuerdo
5 Totalmente de acuerdo
A. Organización, trabajador y tarea Sus respuestas/puntuaciones
El diseñador de la lista de verificación puede proporcionar un dibujo/fotografía de muestra del trabajo y
lugar de trabajo en estudio.
1. Descripción de la organización y funciones.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
2. Características de los trabajadores: Breve reseña del grupo de trabajo.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
3. Descripción de la tarea: Lista de actividades y materiales en uso. Dar alguna indicación de
los riesgos laborales.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
B. Aspecto mecanicista Sus respuestas/puntuaciones
I. Especialización del trabajo
4. Las tareas/patrones de trabajo son simples y sin complicaciones. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
4.1 La asignación de trabajo es específica del operario.
4.2 Las herramientas y los métodos de trabajo están especializados para el propósito del trabajo.
4.3 Volumen de producción y calidad del trabajo.
4.4 El titular del puesto realiza múltiples tareas.
II. Requisito de habilidad
5. El trabajo requiere acto motor simple. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
5.1 El trabajo requiere conocimiento y habilidad hábil.
5.2 El puesto exige formación para la adquisición de competencias.
5.3 El trabajador comete errores frecuentes en el trabajo.
5.4 El trabajo exige una rotación frecuente, según las indicaciones.
5.5 La operación de trabajo es controlada/asistida por la máquina por automatización.
Comentarios y sugerencias de mejora. Ítems 4 a 5.5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
q Calificación del analista Calificación del trabajador q
C. Aspecto biológico Sus respuestas/puntuaciones
tercero Actividad física general
6. La actividad física está enteramente determinada y
regulada por el trabajador. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
6.1 El trabajador mantiene un ritmo orientado al objetivo.
6.2 El trabajo implica movimientos repetidos con frecuencia.
6.3 Demanda cardiorrespiratoria del puesto de trabajo:
sedentario/ligero/moderado/pesado/extremadamente pesado.
(¿Cuáles son los elementos de trabajo pesado?):
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
(Ingrese 0-5)
6.4 El trabajo exige un alto esfuerzo de fuerza muscular.
6.5 El trabajo (operación de manija, volante, freno de pedal) es predominantemente un trabajo estático.
6.6. El trabajo requiere una posición de trabajo fija (sentado o de pie).
IV. Manejo Manual de Materiales (MMH)
Naturaleza de los objetos manipulados: animado/inanimado, tamaño y forma.
_______________________________________________________________
_______________________________________________________________
7. El trabajo requiere una actividad MMH mínima. Sí No
If No, especificar el trabajo:
7.1 Modo de trabajo: (circule uno)
tirar/empujar/girar/levantar/bajar/llevar
(Especificar ciclo de repetición):
_______________________________________________________________
_______________________________________________________________
7.2 Peso de la carga (kg): (circule uno)
5-10, 10-20, 20-30, 30-40, >>40.
7.3 Distancia horizontal de la carga del sujeto (cm): (circule uno)
<25, 25-40, 40-55, 55-70, >70.
7.4 Altura de la carga del sujeto: (circule uno)
suelo, rodilla, cintura, pecho, nivel del hombro.
(Ingrese 0-5)
7.5 La ropa restringe las tareas del MMH.
8. La situación de la tarea está libre de riesgo de lesiones corporales. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
8.1 La tarea puede modificarse para reducir la carga a manejar.
8.2 Los materiales se pueden empacar en tamaños estándar.
8.3 Se puede mejorar el tamaño/posición de los mangos de los objetos.
8.4 Los trabajadores no adoptan métodos más seguros de manipulación de cargas.
8.5 Las ayudas mecánicas pueden reducir las tensiones corporales.
Haga una lista de cada artículo si hay montacargas u otras ayudas de manejo disponibles.
Sugerencias de mejora, Ítems 6 a 8.5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
V. Lugar de trabajo/Diseño del espacio de trabajo
El lugar de trabajo puede ilustrarse esquemáticamente, mostrando el alcance humano y
autorización:
9. El lugar de trabajo es compatible con las dimensiones humanas. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
9.1 La distancia de trabajo se aleja del alcance normal en el plano horizontal o vertical (>60 cm).
9.2 La altura del escritorio/equipo de trabajo es fija o mínimamente ajustable.
9.3 No hay espacio para operaciones subsidiarias (por ejemplo, inspección y mantenimiento).
9.4 Las estaciones de trabajo tienen obstáculos, partes sobresalientes o bordes afilados.
9.5 Los pisos de las superficies de trabajo son resbaladizos, irregulares, desordenados o inestables.
10. La disposición de los asientos es adecuada (p. ej., silla cómoda,
buen apoyo postural). Sí No
If No, las causas son: (Ingrese 0-5)
10.1 Las dimensiones del asiento (p. ej., la altura del asiento, el respaldo) no coinciden con las dimensiones humanas.
10.2 Ajustabilidad mínima del asiento.
10.3 El asiento de trabajo no proporciona sujeción/apoyo (p. ej., mediante bordes verticales/cobertura extra rígida) para trabajar con la maquinaria.
10.4 Ausencia de mecanismo amortiguador de vibraciones en el asiento de trabajo.
11. Hay suficiente apoyo auxiliar disponible para la seguridad
en el lugar de trabajo Sí No
If No, mencionar lo siguiente: (Ingrese 0-5)
11.1 No disponibilidad de espacio de almacenamiento de herramientas, artículos personales.
11.2 Las puertas, las rutas de entrada/salida o los corredores están restringidos.
11.3 Desajuste de diseño de manijas, escaleras, escaleras, pasamanos.
11.4 Los asideros para las manos y los pies exigen una posición incómoda de las extremidades.
11.5 Los soportes son irreconocibles por su lugar, forma o construcción.
11.6 Uso limitado de guantes/calzado para trabajar y operar controles de equipos.
Sugerencias de mejora, Ítems 9 a 11.6:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VI. Postura de trabajo
12. El trabajo permite una postura de trabajo relajada. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
12.1 Trabajar con los brazos por encima del hombro y/o separados del cuerpo.
12.2 Hiperextensión de muñeca y demanda de fuerza elevada.
12.3 El cuello/hombro no se mantienen en un ángulo de unos 15°.
12.4 Espalda doblada y torcida.
12.5 Las caderas y las piernas no están bien apoyadas en la posición sentada.
12.6 Movimiento unilateral y asimétrico del cuerpo.
12.7 Mencione las razones de la postura forzada:
(1) ubicación de la máquina
(2) diseño del asiento,
(3) manejo de equipos,
(4) lugar de trabajo/área de trabajo
12.8 Especifique el código OWAS. (Para una descripción detallada del OWAS
método se refieren a Karhu et al. 1981.)
_______________________________________________________________
_______________________________________________________________
Sugerencias de mejora, Ítems 12 a 12.7:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VIII. Ambiente de trabajo
(Dar medidas cuando sea posible)
RUIDO
[Identificar fuentes de ruido, tipo y duración de la exposición; consulte el código de la OIT de 1984].
13. El nivel de ruido está por debajo del máximo Sí/No
nivel de sonido recomendado. (Use la siguiente tabla.)
Valoración |
Trabajo que no requiere comunicación verbal. |
Trabajo que requiere comunicación verbal. |
Trabajo que requiere concentración |
1 |
menos de 60 dBA |
menos de 50 dBA |
menos de 45 dBA |
2 |
60-70 dBA |
50-60 dBA |
45-55 dBA |
3 |
70-80 dBA |
60-70 dBA |
55-65 dBA |
4 |
80-90 dBA |
70-80 dBA |
65-75 dBA |
5 |
más de 90 dBA |
más de 80 dBA |
más de 75 dBA |
Fuente: Ahonen et al. 1989.
Da tu puntuación de acuerdo/desacuerdo (0-5)
14. Los ruidos dañinos se suprimen en la fuente. Sí No
Si la respuesta es No, califique las contramedidas: (Ingrese 0-5)
14.1 No hay aislamiento de sonido efectivo presente.
14.2 No se toman medidas de emergencia contra el ruido (p. ej., restricción del tiempo de trabajo, uso de protectores auditivos personales).
15. CLIMA
Especificar condiciones climáticas.
Temperatura ____
Humedad ____
Temperatura radiante ____
Borradores ____
16. El clima es confortable. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
16.1 Sensación de temperatura (circule uno):
frío/ligeramente frío/neutro/caliente/muy caliente
16.2 Los dispositivos de ventilación (p. ej., ventiladores, ventanas, acondicionadores de aire) no son adecuados.
16.3 No ejecución de medidas reglamentarias sobre límites de exposición (si están disponibles, sírvase explicar).
16.4 Los trabajadores no usan ropa de protección/asistencia contra el calor.
16.5 No hay fuentes de agua potable cerca.
17. ILUMINACIÓN
El lugar de trabajo/la(s) máquina(s) están suficientemente iluminados en todo momento. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
17.1 La iluminación es suficientemente intensa.
17.2 La iluminación del área de trabajo es adecuadamente uniforme.
17.3 Los fenómenos de parpadeo son mínimos o están ausentes.
17.4 La formación de sombras no es problemática.
17.5 Los molestos deslumbramientos reflejados son mínimos o están ausentes.
17.6 La dinámica del color (acentuación visual, calidez del color) es adecuada.
18. POLVO, HUMO, TÓXICOS
El ambiente está libre de polvo excesivo,
humos y sustancias tóxicas. Sí No
Si la respuesta es No, califique lo siguiente: (Ingrese 0-5)
18.1 Sistemas de ventilación y escape ineficaces para eliminar gases, humo y suciedad.
18.2 Falta de medidas de protección contra liberación de emergencia y contacto con sustancias peligrosas/tóxicas.
Enumere los tóxicos químicos:
_______________________________________________________________
_______________________________________________________________
18.3 El control del lugar de trabajo en busca de sustancias químicas tóxicas no es regular.
18.4 No disponibilidad de medidas de protección personal (p. ej., guantes, calzado, mascarilla, delantal).
19. RADIACIÓN
Los trabajadores están efectivamente protegidos contra la exposición a la radiación. Sí No
Si la respuesta es No, mencione las exposiciones.
(ver la lista de control de la AISS, Ergonomía
): (Ingrese 0-5)
19.1 Radiación ultravioleta (200 nm – 400 nm).
19.2 Radiación IR (780 nm – 100 μm).
19.3 Radiactividad/radiación de rayos X (<200 nm).
19.4 Microondas (1 mm – 1 m).
19.5 Láseres (300 nm – 1.4 μm).
19.6 Otros (mencionar):
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
20. VIBRACIÓN
La máquina puede funcionar sin transmisión de vibraciones
al cuerpo del operador. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
20.1 La vibración se transmite a todo el cuerpo a través de los pies.
20.2 La transmisión de vibraciones se produce a través del asiento (p. ej., máquinas móviles que se conducen con el operador sentado).
20.3 La vibración se transmite a través del sistema mano-brazo (p. ej., herramientas manuales motorizadas, máquinas accionadas cuando el operador camina).
20.4 Exposición prolongada a una fuente de vibración continua/repetitiva.
20.5 Las fuentes de vibración no pueden aislarse ni eliminarse.
20.6 Identificar las fuentes de vibración.
Comentarios y sugerencias, ítems 13 a 20:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VIII. Horario de trabajo
Indique el tiempo de trabajo: horas de trabajo/día/semana/año, incluido el trabajo estacional y el sistema de turnos.
21. La presión del tiempo de trabajo es mínima. Sí No
If No, califique lo siguiente: (Ingrese 0-5)
21.1 El trabajo requiere trabajo nocturno.
21.2 El trabajo implica horas extras/tiempo de trabajo extra.
Especifique la duración media:
_______________________________________________________________
21.3 Las tareas pesadas se distribuyen de manera desigual a lo largo del turno.
21.4 Las personas trabajan a un ritmo/límite de tiempo predeterminado.
21.5 No se incorporan suficientemente las tolerancias por fatiga/patrones de trabajo-descanso (utilice criterios cardiorrespiratorios sobre la gravedad del trabajo).
Comentarios y sugerencias, ítems 21 a 21.5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Calificación del analista Calificación del trabajador
D. Aspecto perceptivo/motor Sus respuestas/puntuaciones
IX. pantallas
22. Pantallas visuales (indicadores, medidores, señales de advertencia)
son fáciles de leer. Sí No
Si No, califique las dificultades: (Ingrese 0-5)
22.1 Iluminación insuficiente (consulte el artículo No. 17).
22.2 Posición incómoda de la cabeza/ojos para la línea visual.
22.3 El estilo de visualización de números/progresión numérica crea confusión y provoca errores de lectura.
22.4 Las pantallas digitales no están disponibles para una lectura precisa.
22.5 Gran distancia visual para precisión de lectura.
22.6 La información mostrada no se entiende fácilmente.
23. Las señales/impulsos de emergencia son fácilmente reconocibles. Sí No
En caso negativo, evalúe las razones:
23.1 Las señales (visuales/auditivas) no se ajustan al proceso de trabajo.
23.2 Las señales intermitentes están fuera del campo visual.
23.3 Las señales auditivas de visualización no son audibles.
24. Las agrupaciones de las características de la pantalla son lógicas. Sí No
Si la respuesta es No, califique lo siguiente:
24.1 Las pantallas no se distinguen por su forma, posición, color o tono.
24.2 Las pantallas críticas y de uso frecuente se eliminan de la línea de visión central.
X. Controles
25. Los controles (p. ej., interruptores, perillas, grúas, ruedas motrices, pedales) son fáciles de manejar. Sí No
Si No, las causas son: (Ingrese 0-5)
25.1 Las posiciones de control de manos/pies son incómodas.
25.2 La dirección de los controles/herramientas es incorrecta.
25.3 Las dimensiones de los controles no coinciden con la parte del cuerpo operativo.
25.4 Los controles requieren una gran fuerza de accionamiento.
25.5 Los controles requieren alta precisión y velocidad.
25.6 Los controles no tienen códigos de forma para un buen agarre.
25.7 Los controles no están codificados con colores/símbolos para su identificación.
25.8 Los controles provocan una sensación desagradable (calor, frío, vibración).
26. Las pantallas y los controles (combinados) son compatibles con las reacciones humanas fáciles y cómodas. Sí No
Si la respuesta es No, califique lo siguiente: (Ingrese 0-5)
26.1 Las ubicaciones no están lo suficientemente cerca unas de otras.
26.2 La pantalla/los controles no están ordenados secuencialmente para funciones/frecuencia de uso.
26.3 Las operaciones de visualización/control son sucesivas, sin lapso de tiempo suficiente para completar la operación (esto crea una sobrecarga sensorial).
26.4 Falta de armonía en la dirección del movimiento de visualización/control (p. ej., el movimiento de control hacia la izquierda no da movimiento de la unidad hacia la izquierda).
Comentarios y sugerencias, ítems 22 a 26.4:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Calificación del analista Calificación del trabajador
E. Aspecto técnico Sus respuestas/puntuaciones
XI. Maquinaria
27. Máquina (p. ej., carro transportador, carretilla elevadora, máquina herramienta)
es fácil de manejar y trabajar. Sí No
Si la respuesta es No, califique lo siguiente: (Ingrese 0-5)
27.1 La máquina es inestable en funcionamiento.
27.2 Mal mantenimiento de la maquinaria.
27.3 No se puede regular la velocidad de conducción de la máquina.
27.4 Los volantes/manijas se operan desde la posición de pie.
27.5 Los mecanismos de funcionamiento dificultan los movimientos del cuerpo en el espacio de trabajo.
27.6 Riesgo de lesiones por falta de protección de la máquina.
27.7 La maquinaria no está equipada con señales de advertencia.
27.8 La máquina está mal equipada para amortiguar las vibraciones.
27.9 Los niveles de ruido de la máquina están por encima de los límites legales (consulte los artículos n.° 13 y 14)
27.10 Mala visibilidad de las partes de la máquina y el área adyacente (consulte los artículos n.° 17 y 22).
XII. Pequeñas Herramientas/Implementos
28. Las herramientas/implementos proporcionados a los operarios son
cómodo para trabajar. Sí No
Si la respuesta es No, califique lo siguiente: (Ingrese 0-5)
28.1 La herramienta/implemento no tiene correa de transporte/marco trasero.
28.2 La herramienta no se puede usar con manos alternas.
28.3 El peso pesado de la herramienta causa hiperextensión de la muñeca.
28.4 La forma y la posición del mango no están diseñadas para un agarre conveniente.
28.5 La herramienta motorizada no está diseñada para operación con dos manos.
28.6 Los bordes afilados/aristas de la herramienta/equipo pueden causar lesiones.
28.7 Los arneses (guantes, etc.) no se usan regularmente para operar herramientas vibratorias.
28.8 Los niveles de ruido de la herramienta motorizada están por encima de los límites aceptables
(consulte el artículo No. 13).
Sugerencias de mejora, ítems 27 a 28.8:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
XIII. Seguridad del trabajo
29. Las medidas de seguridad de la máquina son adecuadas para evitar
accidentes y riesgos para la salud. Sí No
Si la respuesta es No, califique lo siguiente: (Ingrese 0-5)
29.1 Los accesorios de la máquina no se pueden sujetar y quitar fácilmente.
29.2 No se protegen adecuadamente los puntos peligrosos, las partes móviles y las instalaciones eléctricas.
29.3 El contacto directo/indirecto de partes del cuerpo con maquinaria puede causar peligros.
29.4 Dificultad en la inspección y mantenimiento de la máquina.
29.5 No hay instrucciones claras disponibles para la operación, el mantenimiento y la seguridad de la máquina.
Sugerencias de mejora, ítems 29 a 29. 5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Calificación del analista Calificación del trabajador
F. Aspecto psicosocial Sus respuestas/puntuaciones
XIV. Autonomía laboral
30. El trabajo permite la autonomía (p. ej., libertad en cuanto al método de trabajo,
condiciones de ejecución, cronograma, control de calidad). Sí No
Si No, las posibles causas son: (Ingrese 0-5)
30.1 Sin discrecionalidad sobre los tiempos de inicio/finalización del trabajo.
30.2 No hay apoyo organizativo en cuanto a la llamada de asistencia en el trabajo.
30.3 Número insuficiente de personas para la tarea (trabajo en equipo).
30.4 Rigidez en los métodos y condiciones de trabajo.
XV. Retroalimentación del trabajo (intrínseco y extrínseco)
31. El trabajo permite la retroalimentación directa de la información en cuanto a la calidad.
y la cantidad de la actuación de uno. Sí No
Si No, las razones son: (Ingrese 0-5)
31.1 No participa en la tarea de información y toma de decisiones.
31.2 Restricciones de contacto social por barreras físicas.
31.3 Dificultad de comunicación por alto nivel de ruido.
31.4 Aumento de la demanda de atención en el ritmo de la máquina.
31.5 Otras personas (gerentes, compañeros de trabajo) informan al trabajador sobre la eficacia de su desempeño laboral.
XVI. Tarea Variedad/Claridad
32. El trabajo tiene una variedad de tareas y exige espontaneidad por parte del trabajador. Sí No
Si la respuesta es No, califique lo siguiente: (Ingrese 0-5)
32.1 Los roles y objetivos laborales son ambiguos.
32.2 La restricción del trabajo es impuesta por una máquina, proceso o grupo de trabajo.
32.3 La relación trabajador-máquina genera conflicto en cuanto al comportamiento que debe demostrar el operador.
32.4 Nivel restringido de estimulación (p. ej., entorno visual y auditivo invariable).
32.5 Alto nivel de aburrimiento en el trabajo.
32.6 Alcance limitado para la ampliación del trabajo.
XVII. Tarea Identidad/Importancia
33. Al trabajador se le asigna un lote de tareas Sí/No
y organiza su propio horario para completar el trabajo
(por ejemplo, uno planifica y ejecuta el trabajo e inspecciona y
gestiona los productos).
Da tu puntuación de acuerdo/desacuerdo (0-5)
34. El trabajo es importante en la organización. Sí No
Proporciona reconocimiento y reconocimiento de los demás.
(Dé su puntuación de acuerdo/desacuerdo)
XVIII. Sobrecarga/Subcarga Mental
35. El trabajo consiste en tareas para las cuales una comunicación clara y
se dispone de sistemas de apoyo de información inequívocos. Sí No
Si la respuesta es No, califique lo siguiente: (Ingrese 0-5)
35.1 La información proporcionada en relación con el trabajo es extensa.
35.2 Se requiere el manejo de información bajo presión (por ejemplo, maniobras de emergencia en el control de procesos).
35.3 Gran carga de trabajo de manejo de información (p. ej., tarea de posicionamiento difícil, no se requiere motivación especial).
35.4 La atención ocasional se dirige a información distinta a la necesaria para la tarea real.
35.5 La tarea consiste en un acto motor simple repetitivo, con necesidad de atención superficial.
35.6 Las herramientas/equipos no están posicionados previamente para evitar retrasos mentales.
35.7 Se requieren múltiples opciones para tomar decisiones y juzgar los riesgos.
(Comentarios y sugerencias, ítems 30 a 35.7)
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
XIX. Formación y Promoción
36. El trabajo tiene oportunidades para el crecimiento asociado en competencia
y realización de tareas. Sí No
Si No, las posibles causas son: (Ingrese 0-5)
36.1 No hay oportunidad de avanzar a niveles más altos.
36.2 No hay capacitación periódica para los operadores, específica para los puestos de trabajo.
36.3 Los programas/herramientas de capacitación no son fáciles de aprender y usar.
36.4 Sin esquemas de pago de incentivos.
XX. Compromiso organizacional
37. Compromiso definido con la organización Sí/No
eficacia y bienestar físico, mental y social.
Evalúe el grado en que los siguientes están disponibles: (Ingrese 0-5)
37.1 Rol organizacional en conflictos y ambigüedades de roles individuales.
37.2 Servicios médico-administrativos para la intervención preventiva en caso de riesgos laborales.
37.3 Medidas promocionales para el control del absentismo en el grupo de trabajo.
37.4 Normas de seguridad vigentes.
37.5 Inspección del trabajo y seguimiento de mejores prácticas laborales.
37.6 Acción de seguimiento para la gestión de accidentes/lesiones.
La hoja de evaluación resumida se puede utilizar para perfilar y agrupar un grupo seleccionado de elementos, que pueden formar la base para las decisiones sobre los sistemas de trabajo. El proceso de análisis suele llevar mucho tiempo y los usuarios de estos instrumentos deben tener una sólida formación en ergonomía tanto teórica como práctica, en la evaluación de los sistemas de trabajo.
HOJA DE EVALUACIÓN RESUMEN
A. Breve descripción de la organización, características de los trabajadores y descripción de tareas
.................................................. .................................................. .................................................. .................................................. ...................
.................................................. .................................................. .................................................. .................................................. ...................
Acuerdo de gravedad |
||||||||||
Módulos |
Secciones |
Nº de |
|
|
|
|
|
|
Relativa |
Núm. de artículo. |
B. Mecanicista |
I. Especialización del trabajo II. Requisito de habilidad |
4 5 |
||||||||
C. Biológica |
tercero Actividad física general IV. Manejo manual de materiales V. lugar de trabajo/Diseño del lugar de trabajo VI. Postura de trabajo VIII. Ambiente de trabajo VIII. Horario de trabajo |
5 6 15 6 28 5 |
||||||||
D. Perceptivo/motor |
IX. pantallas X. Controles |
12 10 |
||||||||
E.Técnico |
XI. Maquinaria XII. Pequeñas Herramientas/Implementos XIII. Seguridad del trabajo |
10 8 5 |
||||||||
F. Psicosocial |
XIV. Autonomía laboral XV. Comentarios sobre el trabajo XVI. Tarea Variedad/Claridad XVII. Tarea Identidad/Importancia XVIII. Sobrecarga/Subcarga Mental XIX. Formación y Promoción XX. Compromiso organizacional |
5 5 6 2 7 4 6 |
Evaluación general
Acuerdo de Severidad de los Módulos |
observaciones |
||
A |
|
||
B |
|
||
C |
|
||
D |
|
||
E |
|
||
F |
|
||
Analista de trabajo: |
A menudo hay grandes diferencias entre los seres humanos en la intensidad de la respuesta a los productos químicos tóxicos y variaciones en la susceptibilidad de un individuo a lo largo de la vida. Estos pueden atribuirse a una variedad de factores capaces de influir en la tasa de absorción, la distribución en el cuerpo, la biotransformación y/o la tasa de excreción de una sustancia química en particular. Además de los factores hereditarios conocidos que se ha demostrado claramente que están vinculados con una mayor susceptibilidad a la toxicidad química en humanos (ver “Determinantes genéticos de la respuesta tóxica”), otros factores incluyen: características constitucionales relacionadas con la edad y el sexo; estados de enfermedad preexistentes o una reducción en la función del órgano (no hereditario, es decir, adquirido); hábitos alimentarios, tabaquismo, consumo de alcohol y uso de medicamentos; exposición concomitante a biotoxinas (diversos microorganismos) y factores físicos (radiación, humedad, temperaturas extremadamente bajas o altas o presiones barométricas particularmente relevantes para la presión parcial de un gas), así como ejercicio físico concomitante o situaciones de estrés psicológico; exposición ocupacional y/o ambiental previa a un producto químico en particular y, en particular, exposición concomitante a otros productos químicos, no necesariamente tóxicos (p. ej., metales esenciales). Las posibles contribuciones de los factores antes mencionados para aumentar o disminuir la susceptibilidad a los efectos adversos para la salud, así como los mecanismos de su acción, son específicos para un producto químico en particular. Por lo tanto, aquí solo se presentarán los factores más comunes, los mecanismos básicos y algunos ejemplos característicos, mientras que la información específica sobre cada producto químico en particular se puede encontrar en otra parte de este documento. Enciclopedia.
De acuerdo con la etapa en la que actúan estos factores (absorción, distribución, biotransformación o excreción de una sustancia química en particular), los mecanismos pueden clasificarse aproximadamente según dos consecuencias básicas de la interacción: (1) un cambio en la cantidad de la sustancia química en un órgano diana, es decir, en los sitios de su efecto en el organismo (interacciones toxicocinéticas), o (2) un cambio en la intensidad de una respuesta específica a la cantidad de la sustancia química en un órgano diana (interacciones toxicodinámicas) . Los mecanismos más comunes de cualquier tipo de interacción están relacionados con la competencia con otras sustancias químicas por unirse a los mismos compuestos involucrados en su transporte en el organismo (p. ej., proteínas séricas específicas) y/o por la misma vía de biotransformación (p. ej., enzimas específicas) dando como resultado un cambio en la velocidad o secuencia entre la reacción inicial y el efecto final adverso para la salud. Sin embargo, tanto las interacciones toxicocinéticas como las toxicodinámicas pueden influir en la susceptibilidad individual a una sustancia química en particular. La influencia de varios factores concomitantes puede resultar en: (a) efectos aditivos— la intensidad del efecto combinado es igual a la suma de los efectos producidos por cada factor por separado, (b) efectos sinérgicos—la intensidad del efecto combinado es superior a la suma de los efectos producidos por cada factor por separado, o c) efectos antagónicos—la intensidad del efecto combinado es menor que la suma de los efectos producidos por cada factor por separado.
La cantidad de una sustancia química tóxica en particular o un metabolito característico en el sitio o sitios de su efecto en el cuerpo humano puede evaluarse más o menos mediante el control biológico, es decir, eligiendo la muestra biológica correcta y el momento óptimo para el muestreo de la muestra, tomando en cuenta las semividas biológicas de una sustancia química particular tanto en el órgano crítico como en el compartimento biológico medido. Sin embargo, generalmente se carece de información confiable sobre otros posibles factores que podrían influir en la susceptibilidad individual en humanos y, en consecuencia, la mayor parte del conocimiento sobre la influencia de varios factores se basa en datos experimentales con animales.
Cabe destacar que, en algunos casos, existen diferencias relativamente grandes entre humanos y otros mamíferos en la intensidad de la respuesta a un nivel equivalente y/o la duración de la exposición a muchas sustancias químicas tóxicas; por ejemplo, los seres humanos parecen ser considerablemente más sensibles a los efectos adversos para la salud de varios metales tóxicos que las ratas (comúnmente utilizado en estudios experimentales con animales). Algunas de estas diferencias se pueden atribuir al hecho de que las rutas de transporte, distribución y biotransformación de varios químicos dependen en gran medida de cambios sutiles en el pH del tejido y el equilibrio redox en el organismo (al igual que las actividades de varias enzimas), y que el sistema redox del ser humano difiere considerablemente del de la rata.
Este es obviamente el caso de importantes antioxidantes como la vitamina C y el glutatión (GSH), que son esenciales para mantener el equilibrio redox y que tienen un papel protector contra los efectos adversos de los radicales libres derivados del oxígeno o xenobióticos que están involucrados en un variedad de condiciones patológicas (Kehrer 1993). Los seres humanos no pueden autosintetizar la vitamina C, al contrario que las ratas, y los niveles, así como la tasa de recambio de GSH eritrocitario en los seres humanos, son considerablemente más bajos que en las ratas. Los seres humanos también carecen de algunas de las enzimas antioxidantes protectoras, en comparación con la rata u otros mamíferos (p. ej., la GSH-peroxidasa se considera poco activa en el esperma humano). Estos ejemplos ilustran la vulnerabilidad potencialmente mayor al estrés oxidativo en humanos (particularmente en células sensibles, p. ej., aparentemente mayor vulnerabilidad del esperma humano a influencias tóxicas que la de la rata), lo que puede resultar en una respuesta diferente o una mayor susceptibilidad a la influencia de varios factores en humanos en comparación con otros mamíferos (Telišman 1995).
Influencia de la edad
En comparación con los adultos, los niños muy pequeños a menudo son más susceptibles a la toxicidad química debido a sus volúmenes de inhalación y tasa de absorción gastrointestinal relativamente mayores debido a la mayor permeabilidad del epitelio intestinal, y debido a los sistemas enzimáticos de desintoxicación inmaduros y una tasa de excreción relativamente menor de sustancias químicas tóxicas. . El sistema nervioso central parece ser particularmente susceptible en la etapa temprana de desarrollo con respecto a la neurotoxicidad de varios químicos, por ejemplo, plomo y metilmercurio. Por otro lado, los ancianos pueden ser susceptibles debido al historial de exposición química y al aumento de las reservas corporales de algunos xenobióticos, o al compromiso preexistente de la función de los órganos diana y/o enzimas relevantes que dan como resultado una tasa de desintoxicación y excreción más baja. Cada uno de estos factores puede contribuir al debilitamiento de las defensas del organismo: una disminución de la capacidad de reserva, lo que aumenta la susceptibilidad a la exposición posterior a otros peligros. Por ejemplo, las enzimas del citocromo P450 (que participan en las vías de biotransformación de casi todas las sustancias químicas tóxicas) pueden ser inducidas o tener una actividad reducida debido a la influencia de varios factores a lo largo de la vida (incluidos los hábitos dietéticos, el tabaquismo, el alcohol, el uso de medicamentos y exposición a xenobióticos ambientales).
Influencia del sexo
Se han descrito diferencias relacionadas con el género en la susceptibilidad para una gran cantidad de sustancias químicas tóxicas (aproximadamente 200), y tales diferencias se encuentran en muchas especies de mamíferos. Parece que los machos son generalmente más susceptibles a las toxinas renales y las hembras a las toxinas hepáticas. Las causas de la diferente respuesta entre hombres y mujeres se han relacionado con diferencias en una variedad de procesos fisiológicos (p. ej., las mujeres son capaces de excreción adicional de algunos químicos tóxicos a través de la pérdida de sangre menstrual, leche materna y/o transferencia al feto, pero experimentan estrés adicional durante el embarazo, el parto y la lactancia), actividades enzimáticas, mecanismos de reparación genética, factores hormonales o la presencia de depósitos de grasa relativamente más grandes en las mujeres, lo que resulta en una mayor acumulación de algunos químicos tóxicos lipofílicos, como solventes orgánicos y algunos medicamentos .
Influencia de los hábitos dietéticos
Los hábitos dietéticos tienen una influencia importante en la susceptibilidad a la toxicidad química, principalmente porque una nutrición adecuada es esencial para el funcionamiento del sistema de defensa química del cuerpo para mantener una buena salud. La ingesta adecuada de metales esenciales (incluidos los metaloides) y proteínas, especialmente los aminoácidos que contienen azufre, es necesaria para la biosíntesis de diversas enzimas desintoxicantes y el suministro de glicina y glutatión para las reacciones de conjugación con compuestos endógenos y exógenos. Los lípidos, especialmente los fosfolípidos, y los lipotropos (donantes de grupos metilo) son necesarios para la síntesis de membranas biológicas. Los carbohidratos proporcionan la energía necesaria para varios procesos de desintoxicación y proporcionan ácido glucurónico para la conjugación de sustancias químicas tóxicas y sus metabolitos. El selenio (un metaloide esencial), el glutatión y vitaminas como la vitamina C (soluble en agua), la vitamina E y la vitamina A (soluble en lípidos) tienen un papel importante como antioxidantes (p. ej., en el control de la peroxidación lipídica y el mantenimiento de la integridad de las membranas celulares) y eliminadores de radicales libres para la protección contra productos químicos tóxicos. Además, diversos constituyentes de la dieta (contenido de proteínas y fibra, minerales, fosfatos, ácido cítrico, etc.), así como la cantidad de alimentos consumidos, pueden influir en gran medida en la tasa de absorción gastrointestinal de muchas sustancias químicas tóxicas (p. ej., la tasa de absorción promedio de las sales de plomo tomadas con las comidas es de aproximadamente el ocho por ciento, en comparación con aproximadamente el 60% en sujetos en ayunas). Sin embargo, la dieta en sí misma puede ser una fuente adicional de exposición individual a varios químicos tóxicos (p. ej., ingestas diarias considerablemente mayores y acumulación de arsénico, mercurio, cadmio y/o plomo en sujetos que consumen mariscos contaminados).
Influencia del tabaquismo
El hábito de fumar puede influir en la susceptibilidad individual a muchos químicos tóxicos debido a la variedad de posibles interacciones que involucran la gran cantidad de compuestos presentes en el humo del cigarrillo (especialmente hidrocarburos aromáticos policíclicos, monóxido de carbono, benceno, nicotina, acroleína, algunos pesticidas, cadmio y , en menor medida, plomo y otros metales tóxicos, etc.), algunos de los cuales son capaces de acumularse en el cuerpo humano durante toda la vida, incluida la vida prenatal (p. ej., plomo y cadmio). Las interacciones se producen principalmente porque varias sustancias químicas tóxicas compiten por los mismos sitios de unión para el transporte y la distribución en el organismo y/o por la misma ruta de biotransformación que involucra enzimas particulares. Por ejemplo, varios componentes del humo del cigarrillo pueden inducir las enzimas del citocromo P450, mientras que otros pueden reducir su actividad y, por lo tanto, influir en las vías de biotransformación comunes de muchas otras sustancias químicas tóxicas, como los disolventes orgánicos y algunos medicamentos. Fumar cigarrillos en exceso durante un período prolongado puede reducir considerablemente los mecanismos de defensa del cuerpo al disminuir la capacidad de reserva para hacer frente a la influencia adversa de otros factores del estilo de vida.
Influencia del alcohol
El consumo de alcohol (etanol) puede influir en la susceptibilidad a muchas sustancias químicas tóxicas de varias formas. Puede influir en la tasa de absorción y distribución de ciertas sustancias químicas en el cuerpo; por ejemplo, aumentar la tasa de absorción gastrointestinal de plomo o disminuir la tasa de absorción pulmonar de vapor de mercurio al inhibir la oxidación, que es necesaria para la retención del vapor de mercurio inhalado. El etanol también puede influir en la susceptibilidad a diversas sustancias químicas a través de cambios a corto plazo en el pH del tejido y el aumento del potencial redox resultante del metabolismo del etanol, ya que tanto el etanol que se oxida a acetaldehído como el acetaldehído que se oxida a acetato producen un equivalente de nicotinamida adenina dinucleótido reducida (NADH) y hidrógeno (H+). Debido a que la afinidad de los metales y metaloides esenciales y tóxicos para unirse a varios compuestos y tejidos está influenciada por el pH y los cambios en el potencial redox (Telišman 1995), incluso una ingesta moderada de etanol puede tener una serie de consecuencias como: ( 1) redistribución del plomo acumulado a largo plazo en el organismo humano a favor de una fracción de plomo biológicamente activa, (2) reemplazo del zinc esencial por plomo en enzimas que contienen zinc, lo que afecta la actividad enzimática o la influencia de la movilización. plomo sobre la distribución de otros metales y metaloides esenciales en el organismo como calcio, hierro, cobre y selenio, (3) aumento de la excreción urinaria de zinc, etc. El efecto de los posibles eventos antes mencionados puede aumentar debido al hecho de que las bebidas alcohólicas pueden contener una cantidad apreciable de plomo proveniente de los recipientes o del procesamiento (Prpic-Majic et al. 1984; Telišman et al. 1984; 1993).
Otra razón común para los cambios en la susceptibilidad relacionados con el etanol es que muchas sustancias químicas tóxicas, por ejemplo, varios solventes orgánicos, comparten la misma ruta de biotransformación que involucra las enzimas del citocromo P450. Dependiendo de la intensidad de la exposición a los solventes orgánicos, así como de la cantidad y frecuencia de la ingestión de etanol (es decir, consumo agudo o crónico de alcohol), el etanol puede disminuir o aumentar las tasas de biotransformación de varios solventes orgánicos y, por lo tanto, influir en su toxicidad (Sato 1991) .
Influencia de los medicamentos
El uso común de varios medicamentos puede influir en la susceptibilidad a las sustancias químicas tóxicas, principalmente porque muchas drogas se unen a las proteínas séricas y, por lo tanto, influyen en el transporte, la distribución o la tasa de excreción de varias sustancias químicas tóxicas, o porque muchas drogas son capaces de inducir enzimas desintoxicantes relevantes o deprimir su actividad. (por ejemplo, las enzimas del citocromo P450), lo que afecta la toxicidad de los productos químicos con la misma ruta de biotransformación. La característica de cualquiera de los mecanismos es una mayor excreción urinaria de ácido tricloroacético (el metabolito de varios hidrocarburos clorados) cuando se usa salicilato, sulfonamida o fenilbutazona, y una mayor hepatonefrotoxicidad del tetracloruro de carbono cuando se usa fenobarbital. Además, algunos medicamentos contienen una cantidad considerable de una sustancia química potencialmente tóxica, por ejemplo, los antiácidos que contienen aluminio o los preparados que se utilizan para el tratamiento de la hiperfosfatemia que surge en la insuficiencia renal crónica.
Influencia de la exposición concomitante a otros productos químicos
Los cambios en la susceptibilidad a los efectos adversos para la salud debido a la interacción de varios productos químicos (es decir, posibles efectos aditivos, sinérgicos o antagónicos) se han estudiado casi exclusivamente en animales de experimentación, principalmente en ratas. Faltan estudios epidemiológicos y clínicos pertinentes. Esto es especialmente preocupante si se tiene en cuenta la intensidad relativamente mayor de la respuesta o la variedad de efectos adversos para la salud de varias sustancias químicas tóxicas en humanos en comparación con la rata y otros mamíferos. Aparte de los datos publicados en el campo de la farmacología, la mayoría de los datos están relacionados solo con combinaciones de dos productos químicos diferentes dentro de grupos específicos, como varios pesticidas, solventes orgánicos o metales y metaloides esenciales y/o tóxicos.
La exposición combinada a varios solventes orgánicos puede resultar en varios efectos aditivos, sinérgicos o antagónicos (dependiendo de la combinación de ciertos solventes orgánicos, su intensidad y duración de la exposición), principalmente debido a la capacidad de influir en la biotransformación de cada uno (Sato 1991).
Otro ejemplo característico son las interacciones de metales esenciales y/o tóxicos y metaloides, ya que estos están involucrados en la posible influencia de la edad (p. ej., una acumulación corporal de por vida de plomo y cadmio ambiental), sexo (p. ej., deficiencia de hierro común en mujeres ), hábitos dietéticos (p. ej., mayor ingesta dietética de metales y metaloides tóxicos y/o ingesta dietética deficiente de metales esenciales y metaloides), hábito de fumar y consumo de alcohol (p. ej., exposición adicional a cadmio, plomo y otros metales tóxicos), y uso de medicamentos (p. ej., una sola dosis de antiácido puede resultar en un aumento de 50 veces en la ingesta diaria promedio de aluminio a través de los alimentos). La posibilidad de varios efectos aditivos, sinérgicos o antagónicos de la exposición a varios metales y metaloides en humanos puede ilustrarse con ejemplos básicos relacionados con los principales elementos tóxicos (ver tabla 1), además de que pueden ocurrir más interacciones porque los elementos esenciales también pueden influir entre sí (p. ej., el bien conocido efecto antagónico del cobre sobre la tasa de absorción gastrointestinal así como sobre el metabolismo del zinc, y viceversa). La causa principal de todas estas interacciones es la competencia de varios metales y metaloides por el mismo sitio de unión (especialmente el grupo sulfhidrilo, -SH) en varias enzimas, metaloproteínas (especialmente metalotioneína) y tejidos (p. ej., membranas celulares y barreras de órganos). Estas interacciones pueden tener un papel relevante en el desarrollo de varias enfermedades crónicas que están mediadas por la acción de los radicales libres y el estrés oxidativo (Telišman 1995).
Tabla 1. Efectos básicos de posibles interacciones múltiples sobre los principales metales tóxicos y/o esenciales y mataloides en mamíferos
Metal tóxico o metaloide | Efectos básicos de la interacción con otro metal o metaloide |
Aluminio (Al) | Disminuye la tasa de absorción de Ca y perjudica el metabolismo de Ca; Ca dietético deficiente aumenta la tasa de absorción de Al. Altera el metabolismo del fosfato. Los datos sobre las interacciones con Fe, Zn y Cu son equívocos (es decir, el posible papel de otro metal como mediador). |
Arsénico (As) | Afecta la distribución de Cu (un aumento de Cu en el riñón y una disminución de Cu en el hígado, suero y orina). Deteriora el metabolismo del Fe (aumento del Fe en el hígado con disminución concomitante del hematocrito). Zn disminuye la tasa de absorción de As inorgánico y disminuye la toxicidad de As. Se disminuye la toxicidad de As y viceversa. |
Cadmio (Cd) | Disminuye la tasa de absorción de Ca y perjudica el metabolismo de Ca; la deficiencia de Ca en la dieta aumenta la tasa de absorción de Cd. Deteriora el metabolismo del fosfato, es decir, aumenta la excreción urinaria de fosfatos. Deteriora el metabolismo del Fe; Fe dietético deficiente aumenta la tasa de absorción de Cd. Afecta la distribución de Zn; Zn disminuye la toxicidad de Cd, mientras que su influencia sobre la tasa de absorción de Cd es equívoca. Se disminuye la toxicidad de Cd. Mn disminuye la toxicidad de Cd a niveles bajos de exposición a Cd. Los datos sobre la interacción con Cu son equívocos (es decir, el posible papel de Zn, u otro metal, como mediador). Los altos niveles dietéticos de Pb, Ni, Sr, Mg o Cr(III) pueden disminuir la tasa de absorción de Cd. |
Mercurio (Hg) | Afecta la distribución de Cu (un aumento de Cu en el hígado). Zn disminuye la tasa de absorción de Hg inorgánico y disminuye la toxicidad de Hg. Se disminuye la toxicidad de Hg. El Cd aumenta la concentración de Hg en el riñón, pero al mismo tiempo disminuye la toxicidad del Hg en el riñón (la influencia de la síntesis de metalotioneína inducida por Cd). |
Plomo (Pb) | Deteriora el metabolismo del Ca; Ca dietético deficiente aumenta la tasa de absorción de Pb inorgánico y aumenta la toxicidad de Pb. Deteriora el metabolismo del Fe; Fe dietético deficiente aumenta la toxicidad de Pb, mientras que su influencia en la tasa de absorción de Pb es equívoca. Deteriora el metabolismo de Zn y aumenta la excreción urinaria de Zn; Zn dietético deficiente aumenta la tasa de absorción de Pb inorgánico y aumenta la toxicidad de Pb. El Se disminuye la toxicidad del Pb. Los datos sobre las interacciones con Cu y Mg son equívocos (es decir, el posible papel de Zn, u otro metal, como mediador). |
Nota: La mayoría de los datos están relacionados con estudios experimentales en ratas, mientras que los datos clínicos y epidemiológicos relevantes (particularmente con respecto a las relaciones cuantitativas de dosis-respuesta) generalmente faltan (Elsenhans et al. 1991; Fergusson 1990; Telišman et al. 1993).
El monitoreo biológico humano utiliza muestras de fluidos corporales u otro material biológico fácilmente obtenible para la medición de la exposición a sustancias específicas o no específicas y/o sus metabolitos o para la medición de los efectos biológicos de esta exposición. El monitoreo biológico permite estimar la exposición individual total a través de diferentes vías de exposición (pulmones, piel, tracto gastrointestinal) y diferentes fuentes de exposición (aire, dieta, estilo de vida u ocupación). También se sabe que en situaciones de exposición complejas, que se encuentran con mucha frecuencia en los lugares de trabajo, diferentes agentes de exposición pueden interactuar entre sí, ya sea aumentando o inhibiendo los efectos de los compuestos individuales. Y dado que los individuos difieren en su constitución genética, exhiben variabilidad en su respuesta a las exposiciones químicas. Por lo tanto, puede ser más razonable buscar efectos tempranos directamente en los individuos o grupos expuestos que intentar predecir los peligros potenciales de los patrones de exposición complejos a partir de datos pertenecientes a compuestos individuales. Esta es una ventaja del biomonitoreo genético para efectos tempranos, un enfoque que emplea técnicas que se enfocan en daño citogenético, mutaciones puntuales o aductos de ADN en tejido humano sustituto (consulte el artículo “Principios generales” en este capítulo).
¿Qué es la genotoxicidad?
La genotoxicidad de los agentes químicos es un carácter químico intrínseco, basado en el potencial electrofílico del agente para unirse con sitios nucleófilos en las macromoléculas celulares como el ácido desoxirribonucleico, el ADN, el portador de la información hereditaria. La genotoxicidad es, por tanto, la toxicidad que se manifiesta en el material genético de las células.
La definición de genotoxicidad, como se analiza en un informe de consenso (IARC 1992), es amplia e incluye efectos directos e indirectos en el ADN: (1) la inducción de mutaciones (genéticas, cromosómicas, genómicas, recombinantes) que a nivel molecular son similares a eventos que se sabe que están involucrados en la carcinogénesis, (2) eventos sustitutos indirectos asociados con mutagénesis (p. ej., síntesis de ADN no programada (UDS) e intercambio de cromátidas hermanas (SCE), o (3) daño en el ADN (p. ej., la formación de aductos ), lo que eventualmente puede conducir a mutaciones.
Genotoxicidad, mutagenicidad y carcinogenicidad
Las mutaciones son cambios hereditarios permanentes en las líneas celulares, ya sea horizontalmente en las células somáticas o verticalmente en las células germinales (sexuales) del cuerpo. Es decir, las mutaciones pueden afectar al propio organismo a través de cambios en las células del cuerpo, o pueden transmitirse a otras generaciones a través de la alteración de las células sexuales. Por lo tanto, la genotoxicidad precede a la mutagenicidad, aunque la mayor parte de la genotoxicidad se repara y nunca se expresa como mutaciones. Las mutaciones somáticas se inducen a nivel celular y en el caso de que conduzcan a la muerte celular oa neoplasias malignas, pueden manifestarse como diversos trastornos de los tejidos o del propio organismo. Se cree que las mutaciones somáticas están relacionadas con los efectos del envejecimiento o con la inducción de placas ateroscleróticas (consulte la figura 1 y el capítulo sobre Cáncer).
Figura 1. Vista esquemática del paradigma científico en toxicología genética y efectos en la salud humana
Las mutaciones en la línea de células germinales pueden transferirse al cigoto, el óvulo fertilizado, y expresarse en la generación de descendientes (ver también el capítulo Sistema reproductivo). Los trastornos mutacionales más importantes que se encuentran en el recién nacido son inducidos por mala segregación de cromosomas durante la gametogénesis (el desarrollo de las células germinales) y dan como resultado síndromes cromosómicos graves (p. ej., trisomía 21 o síndrome de Down y monosomía X o síndrome de Turner).
El paradigma de la genotoxicología de la exposición a los efectos anticipados puede simplificarse como se muestra en la figura 1.
La relación entre la genotoxicidad y la carcinogenicidad está bien respaldada por varios hechos de investigación indirecta, como se muestra en la figura 2.
Figura 2. Las interrelaciones de genotoxicidad y carcinogenicidad
Esta correlación proporciona la base para aplicar biomarcadores de genotoxicidad que se utilizarán en el seguimiento humano como indicadores del riesgo de cáncer.
Toxicidad genética en la identificación de peligros
El papel de los cambios genéticos en la carcinogénesis subraya la importancia de las pruebas de toxicidad genética en la identificación de carcinógenos potenciales. Se han desarrollado varios métodos de prueba a corto plazo que pueden detectar algunos de los puntos finales de genotoxicidad supuestamente relevantes en la carcinogénesis.
Se han realizado varios estudios extensos para comparar la carcinogenicidad de los productos químicos con los resultados obtenidos al examinarlos en pruebas a corto plazo. La conclusión general ha sido que, dado que ninguna prueba validada por sí sola puede proporcionar información sobre todos los criterios de valoración genéticos mencionados anteriormente; es necesario probar cada producto químico en más de un ensayo. Además, el valor de las pruebas a corto plazo de toxicidad genética para la predicción de la carcinogenicidad química se ha discutido y revisado repetidamente. Sobre la base de dichas revisiones, un grupo de trabajo de la Agencia Internacional para la Investigación del Cáncer (IARC, por sus siglas en inglés) concluyó que la mayoría de los carcinógenos humanos dan resultados positivos en las pruebas a corto plazo que se usan de forma rutinaria, como la Salmonella, ensayo y los ensayos de aberraciones cromosómicas (tabla 1). Sin embargo, debe tenerse en cuenta que los carcinógenos epigenéticos, como los compuestos hormonalmente activos que pueden aumentar la actividad genotóxica sin ser genotóxicos en sí mismos, no pueden detectarse mediante pruebas a corto plazo, que miden solo la actividad genotóxica intrínseca de una sustancia.
Tabla 1. Genotoxicidad de las sustancias químicas evaluadas en los Suplementos 6 y 7 de las Monografías de la IARC (1986)
Clasificación de carcinogenicidad |
Relación de evidencia de genotoxicidad/carcinogenicidad |
% |
1: carcinógenos humanos |
24/30 |
80 |
2A: probables carcinógenos humanos |
14/20 |
70 |
2B: posibles carcinógenos humanos |
72/128 |
56 |
3: no clasificable |
19/66 |
29 |
Biomonitoreo Genético
El monitoreo genético utiliza métodos de toxicología genética para el monitoreo biológico de los efectos genéticos o la evaluación de la exposición genotóxica en un grupo de personas con exposición definida en un lugar de trabajo o a través del medio ambiente o el estilo de vida. Por lo tanto, el monitoreo genético tiene el potencial para la identificación temprana de exposiciones genotóxicas en un grupo de personas y permite la identificación de poblaciones de alto riesgo y, por lo tanto, prioridades para la intervención. Se justifica el uso de biomarcadores predictivos en una población expuesta para ahorrar tiempo (en comparación con las técnicas epidemiológicas) y para prevenir efectos finales innecesarios, a saber, el cáncer (figura 3).
Figura 3. La predictibilidad de los biomarcadores permite tomar acciones preventivas para disminuir los riesgos para la salud en las poblaciones humanas
Los métodos utilizados actualmente para el biomonitoreo de la exposición genotóxica y los efectos biológicos tempranos se enumeran en la tabla 2. Las muestras utilizadas para el biomonitoreo deben cumplir varios criterios, incluida la necesidad de que sean fácilmente obtenibles y comparables con el tejido objetivo.
Tabla 2. Biomarcadores en el seguimiento genético de la exposición a genotoxicidad y las muestras de células/tejidos más utilizadas
Marcador de seguimiento genético |
Muestras de células/tejidos |
Aberraciones cromosómicas (CA) |
Linfocitos |
Intercambios de cromátidas hermanas (SCE) |
Linfocitos |
Micronúcleos (MN) |
Linfocitos |
Mutaciones puntuales (p. ej., gen HPRT) |
Linfocitos y otros tejidos |
aductos de ADN |
ADN aislado de células/tejidos |
aductos de proteínas |
Hemoglobina, albúmina |
Se rompe la hebra de ADN |
ADN aislado de células/tejidos |
Activación de oncogenes |
ADN o proteínas específicas aisladas |
Mutaciones/oncoproteínas |
Varias células y tejidos. |
Reparación del ADN |
Células aisladas de muestras de sangre |
Los tipos de daño en el ADN molecularmente reconocible incluyen la formación de aductos de ADN y la reorganización de la secuencia de ADN. Estos tipos de daños pueden detectarse mediante mediciones de aductos de ADN utilizando diversas técnicas, por ejemplo, el posmarcaje con 32P o la detección de anticuerpos monoclonales contra aductos de ADN. La medición de las roturas de las cadenas de ADN se lleva a cabo convencionalmente mediante elución alcalina o ensayos de desenrollado. Las mutaciones pueden detectarse secuenciando el ADN de un gen específico, por ejemplo, el gen HPRT.
Han aparecido varios informes metodológicos que discuten las técnicas de la tabla 2 en detalle (CEC 1987; IARC 1987, 1992, 1993).
La genotoxicidad también se puede controlar indirectamente mediante la medición de aductos de proteínas, es decir, en la hemoglobina en lugar del ADN, o mediante el control de la actividad de reparación del ADN. Como estrategia de medición, la actividad de monitoreo puede ser única o continua. En todos los casos, los resultados deben aplicarse al desarrollo de condiciones de trabajo seguras.
Biomonitoreo Citogenético
Una justificación teórica y empírica vincula el cáncer con el daño cromosómico. Los eventos mutacionales que alteran la actividad o la expresión de los genes del factor de crecimiento son pasos clave en la carcinogénesis. Muchos tipos de cáncer se han asociado con aberraciones cromosómicas específicas o inespecíficas. En varias enfermedades humanas hereditarias, la inestabilidad cromosómica se asocia con una mayor susceptibilidad al cáncer.
La vigilancia citogenética de personas expuestas a sustancias químicas cancerígenas y/o mutagénicas oa radiaciones puede revelar efectos sobre el material genético de las personas en cuestión. Los estudios de aberraciones cromosómicas de personas expuestas a radiaciones ionizantes se han aplicado a la dosimetría biológica durante décadas, pero hasta ahora solo se dispone de resultados positivos bien documentados para un número limitado de carcinógenos químicos.
El daño cromosómico microscópicamente reconocible incluye tanto aberraciones cromosómicas estructurales (CA), en las que se ha producido un cambio importante en la morfología (forma) de un cromosoma, como por intercambios de cromátidas hermanas (SCE). SCE es el intercambio simétrico de materiales cromosómicos entre dos cromátidas hermanas. Los micronúcleos (MN) pueden surgir de fragmentos cromosómicos acéntricos o de cromosomas completos rezagados. Estos tipos de cambios se ilustran en la figura 4.
Figura 4. Cromosomas de linfocitos humanos en metafase, que revelan una mutación cromosómica inducida (flecha que apunta a un fragmento acéntrico)
Los linfocitos de sangre periférica en humanos son células adecuadas para usarse en estudios de vigilancia debido a su fácil acceso y porque pueden integrar la exposición durante una vida útil relativamente larga. La exposición a una variedad de mutágenos químicos puede resultar en una mayor frecuencia de CA y/o SCE en los linfocitos sanguíneos de las personas expuestas. Además, la extensión del daño se correlaciona aproximadamente con la exposición, aunque esto se ha demostrado solo con unos pocos productos químicos.
Cuando las pruebas citogenéticas en linfocitos de sangre periférica muestran que el material genético ha sido dañado, los resultados pueden usarse para estimar el riesgo solo a nivel de la población. Una mayor frecuencia de CA en una población debe considerarse una indicación de un mayor riesgo de cáncer, pero las pruebas citogenéticas, como tales, no permiten predecir el riesgo individual de cáncer.
La importancia para la salud del daño genético somático visto a través de la estrecha ventana de una muestra de linfocitos de sangre periférica tiene poca o ninguna importancia para la salud de un individuo, ya que la mayoría de los linfocitos portadores de daño genético mueren y son reemplazados.
Problemas y su Control en Estudios de Biomonitoreo Humano
Es necesario un diseño de estudio riguroso en la aplicación de cualquier método de biomonitoreo humano, ya que muchos factores interindividuales que no están relacionados con la(s) exposición(es) química(s) específica(s) de interés pueden afectar las respuestas biológicas estudiadas. Dado que los estudios de biomonitoreo humano son tediosos y difíciles en muchos aspectos, es muy importante una cuidadosa planificación previa. Al realizar estudios citogenéticos en humanos, la confirmación experimental del potencial de daño cromosómico del (de los) agente(s) de exposición debe ser siempre un requisito previo experimental.
En los estudios de biomonitoreo citogenético, se han documentado dos tipos principales de variaciones. El primero incluye factores técnicos asociados con las discrepancias en la lectura de portaobjetos y con las condiciones de cultivo, específicamente con el tipo de medio, la temperatura y la concentración de sustancias químicas (como la bromodesoxiuridina o la citocalasina-B). Además, los tiempos de muestreo pueden alterar los rendimientos de aberraciones cromosómicas, y posiblemente también los hallazgos de la incidencia de SCE, a través de cambios en las subpoblaciones de linfocitos T y B. En los análisis de micronúcleos, las diferencias metodológicas (por ejemplo, el uso de células binucleadas inducidas por citocalasina-B) afectan claramente los resultados de la puntuación.
Las lesiones inducidas en el ADN de los linfocitos por exposición química que dan lugar a la formación de aberraciones cromosómicas estructurales, intercambio de cromátidas hermanas y micronúcleos deben persistir. in vivo hasta que se extraiga la sangre y luego in vitro hasta que el linfocito cultivado comience la síntesis de ADN. Por lo tanto, es importante puntuar las células directamente después de la primera división (en el caso de aberraciones cromosómicas o micronúcleos) o después de la segunda división (intercambios de cromátidas hermanas) para obtener la mejor estimación del daño inducido.
La puntuación constituye un elemento extremadamente importante en el biomonitoreo citogenético. Los portaobjetos deben ser aleatorizados y codificados para evitar, en la medida de lo posible, el sesgo del anotador. Deben mantenerse criterios de calificación, control de calidad y análisis e informes estadísticos estandarizados. La segunda categoría de variabilidad se debe a condiciones asociadas a los sujetos, como edad, sexo, medicación e infecciones. Las variaciones individuales también pueden ser causadas por la susceptibilidad genética a los agentes ambientales.
Es fundamental obtener un grupo de control simultáneo que coincida lo más posible en factores internos como el sexo y la edad, así como en factores como el tabaquismo, las infecciones virales y las vacunas, el consumo de alcohol y drogas y la exposición a rayos X. . Además, es necesario obtener estimaciones cualitativas (categoría de trabajo, años de exposición) y cuantitativas (p. ej., muestras de aire de la zona de respiración para análisis químico y metabolitos específicos, si es posible) o la exposición a los agentes genotóxicos putativos en el lugar de trabajo. Debe prestarse especial atención al adecuado tratamiento estadístico de los resultados.
Relevancia del biomonitoreo genético para la evaluación del riesgo de cáncer
El número de agentes que se ha demostrado repetidamente que inducen cambios citogenéticos en humanos todavía es relativamente limitado, pero la mayoría de los carcinógenos conocidos inducen daño en los cromosomas de los linfocitos.
La extensión del daño es una función del nivel de exposición, como se ha demostrado que es el caso, por ejemplo, con cloruro de vinilo, benceno, óxido de etileno y agentes anticancerígenos alquilantes. Incluso si los criterios de valoración citogenéticos no son muy sensibles o específicos en lo que respecta a la detección de exposiciones que ocurren en los entornos laborales actuales, los resultados positivos de tales pruebas a menudo han impulsado la implementación de controles higiénicos incluso en ausencia de evidencia directa que relacione el daño cromosómico somático con resultados adversos para la salud.
La mayor parte de la experiencia con la aplicación del biomonitoreo citogenético se deriva de situaciones ocupacionales de “alta exposición”. Muy pocas exposiciones han sido confirmadas por varios estudios independientes, y la mayoría de estos se han realizado mediante el biomonitoreo de aberraciones cromosómicas. La base de datos de la Agencia Internacional para la Investigación del Cáncer enumera en sus volúmenes actualizados 43–50 de las Monografías de la IARC un total de 14 carcinógenos ocupacionales en los grupos 1, 2A o 2B, para los cuales hay datos citogenéticos humanos positivos disponibles que en la mayoría de los casos son apoyado por la citogenética animal correspondiente (tabla 3). Esta base de datos limitada sugiere que existe una tendencia a que los productos químicos cancerígenos sean clastogénicos, y que la clastogenicidad tiende a asociarse con carcinógenos humanos conocidos. Claramente, sin embargo, no todos los carcinógenos inducen daño citogenético en humanos o animales de experimentación. in vivo. Los casos en los que los datos en animales son positivos y los hallazgos en humanos son negativos pueden representar diferencias en los niveles de exposición. Además, las exposiciones humanas complejas y a largo plazo en el trabajo pueden no ser comparables con los experimentos con animales a corto plazo.
Tabla 3. Carcinógenos humanos probados, probables y posibles para los cuales existe exposición ocupacional y para los cuales se han medido puntos finales citogenéticos tanto en humanos como en animales de experimentación
Hallazgos citogénicos1 |
||||||
Humanos |
Animales |
|||||
Agente/exposición |
CA |
SCE |
MN |
CA |
SCE |
MN |
GRUPO 1, Carcinógenos humanos |
||||||
Arsénico y compuestos de arsénico |
? |
? |
|
+ |
|
+ |
Amianto |
|
? |
|
– |
|
– |
Benceno |
+ |
|
|
+ |
+ |
+ |
Éter bis(clorometílico) y éter clorometilmetílico (grado técnico) |
(+) |
|
|
– |
|
|
Ciclofosfamida |
+ |
+ |
|
+ |
+ |
+ |
Compuestos de cromo hexavalente |
+ |
+ |
|
+ |
+ |
+ |
Melfalán |
+ |
+ |
|
+ |
|
|
Compuestos de níquel |
+ |
– |
|
? |
|
|
Radón |
+ |
|
|
– |
|
|
Humo de tabaco |
+ |
+ |
+ |
|
+ |
|
Cloruro de vinilo |
+ |
? |
|
+ |
+ |
+ |
GRUPO 2A, probables carcinógenos humanos |
||||||
Acrilonitrilo |
– |
|
|
– |
|
– |
Adriamicina |
+ |
+ |
|
+ |
+ |
+ |
Cadmio y compuestos de cadmio |
– |
(-) |
|
– |
|
|
Cisplatino |
|
+ |
|
+ |
+ |
|
Epiclorhidrina |
+ |
|
|
? |
+ |
– |
Dibromuro de etileno |
– |
– |
|
– |
+ |
– |
Óxido de etileno |
+ |
+ |
+ |
+ |
+ |
+ |
Formaldehído |
? |
? |
|
– |
|
– |
GRUPO 2B, Posibles carcinógenos humanos |
||||||
Herbicidas clorofenoxi (2,4-D y 2,4,5-T) |
– |
– |
|
+ |
+ |
– |
DDT |
? |
|
|
+ |
|
– |
dimetilformamida |
(+) |
|
|
|
– |
– |
compuestos de plomo |
? |
? |
|
? |
– |
? |
Estireno |
+ |
? |
+ |
? |
+ |
+ |
2,3,7,8-tetraclorodibenzo-para-dioxina |
? |
|
|
– |
– |
– |
Humos de soldadura |
+ |
+ |
|
– |
– |
|
1 CA, aberración cromosómica; SCE, intercambio de cromátidas hermanas; MN, micronúcleos.
(–) = relación negativa para un estudio; – = relación negativa;
(+) = relación positiva para un estudio; + = relación positiva;
? = no concluyente; área en blanco = no estudiado
Fuente: IARC, 1987; actualizado a través de los volúmenes 43–50 de las monografías de IARC.
Los estudios de genotoxicidad en humanos expuestos incluyen varios puntos finales distintos de los puntos finales cromosómicos, como daño en el ADN, actividad de reparación del ADN y aductos en el ADN y en las proteínas. Algunos de estos puntos finales pueden ser más relevantes que otros para la predicción del riesgo carcinogénico. Los cambios genéticos estables (p. ej., reordenamientos cromosómicos, deleciones y mutaciones puntuales) son muy relevantes, ya que se sabe que estos tipos de daño están relacionados con la carcinogénesis. La importancia de los aductos de ADN depende de su identificación química y de la evidencia de que resultan de la exposición. Algunos criterios de valoración, como SCE, UDS, SSB, rotura de cadenas de ADN, son posibles indicadores y/o marcadores de eventos genéticos; sin embargo, su valor se reduce en ausencia de una comprensión mecánica de su capacidad para conducir a eventos genéticos. Claramente, el marcador genético más relevante en humanos sería la inducción de una mutación específica que se ha asociado directamente con el cáncer en roedores expuestos al agente en estudio (figura 5).
Figura 5. Relevancia de los diferentes efectos del biomonitoreo genético para el riesgo potencial de cáncer
Consideraciones éticas para el biomonitoreo genético
Los rápidos avances en las técnicas de genética molecular, la mayor velocidad de secuenciación del genoma humano y la identificación del papel de los genes supresores de tumores y los protooncogenes en la carcinogénesis humana plantean cuestiones éticas en la interpretación, comunicación y uso de este tipo de informacion personal. La rápida mejora de las técnicas para el análisis de genes humanos pronto permitirá la identificación de aún más genes de susceptibilidad heredados en individuos sanos y asintomáticos (Oficina de Evaluación de Tecnología de EE. UU. 1990), prestándose para ser utilizados en la detección genética.
Muchas cuestiones de interés social y ético surgirán si la aplicación del cribado genético pronto se convierte en una realidad. En la actualidad, se sospechan aproximadamente 50 rasgos genéticos del metabolismo, polimorfismos enzimáticos y reparación del ADN para sensibilidades de enfermedades específicas, y se dispone de una prueba de ADN de diagnóstico para unas 300 enfermedades genéticas. ¿Debería realizarse algún examen genético en el lugar de trabajo? ¿Quién debe decidir quién se someterá a las pruebas y cómo se utilizará la información en las decisiones de empleo? ¿Quién tendrá acceso a la información obtenida del cribado genético y cómo se comunicarán los resultados a la(s) persona(s) involucrada(s)? Muchas de estas preguntas están fuertemente vinculadas a las normas sociales y los valores éticos predominantes. El objetivo principal debe ser la prevención de la enfermedad y del sufrimiento humano, pero debe respetarse la propia voluntad y las premisas éticas del individuo. Algunas de las preguntas éticas relevantes que deben responderse mucho antes del comienzo de cualquier estudio de biomonitoreo en el lugar de trabajo se dan en la tabla 4 y también se analizan en el capítulo Cuestiones éticas.
Tabla 4. Algunos principios éticos relacionados con la necesidad de saber en los estudios de biomonitoreo genético ocupacional
Grupos a los que se da información |
|||
Información dada |
personas estudiadas |
unidad de salud ocupacional |
Empleador |
que se esta estudiando |
|||
¿Por qué se realiza el estudio? |
|||
¿Hay riesgos involucrados? |
|||
Problemas de confidencialidad |
|||
Preparación para posibles mejoras higiénicas, reducciones de exposición indicadas |
Se debe dedicar tiempo y esfuerzo a la fase de planificación de cualquier estudio de biomonitoreo genético, y todas las partes necesarias (los empleados, los empleadores y el personal médico del lugar de trabajo colaborador) deben estar bien informados antes del estudio y los resultados deben darse a conocer a todos. también después del estudio. Con el cuidado adecuado y resultados confiables, el biomonitoreo genético puede ayudar a garantizar lugares de trabajo más seguros y mejorar la salud de los trabajadores.
Durante mucho tiempo se ha reconocido que la respuesta de cada persona a los productos químicos ambientales es diferente. La reciente explosión en biología molecular y genética ha traído una comprensión más clara sobre la base molecular de tal variabilidad. Los principales determinantes de la respuesta individual a los productos químicos incluyen diferencias importantes entre más de una docena de superfamilias de enzimas, denominadas colectivamente xenobiótico- (ajena al cuerpo) o metabolizador de drogas enzimas Aunque el papel de estas enzimas se ha considerado clásicamente como desintoxicante, estas mismas enzimas también convierten una serie de compuestos inertes en intermediarios altamente tóxicos. Recientemente, se han identificado muchas diferencias sutiles y grandes en los genes que codifican estas enzimas, que se ha demostrado que dan como resultado marcadas variaciones en la actividad enzimática. Ahora está claro que cada individuo posee un complemento distinto de actividades enzimáticas metabolizadoras de xenobióticos; esta diversidad podría considerarse como una "huella digital metabólica". Es la interacción compleja de estas muchas superfamilias de enzimas diferentes lo que determina en última instancia no solo el destino y el potencial de toxicidad de una sustancia química en un individuo determinado, sino también la evaluación de la exposición. En este artículo, hemos optado por utilizar la superfamilia de enzimas del citocromo P450 para ilustrar el notable progreso realizado en la comprensión de la respuesta individual a los productos químicos. El desarrollo de pruebas relativamente simples basadas en el ADN diseñadas para identificar alteraciones genéticas específicas en estas enzimas ahora proporciona predicciones más precisas de la respuesta individual a la exposición química. Esperamos que el resultado sea una toxicología preventiva. En otras palabras, cada individuo podría aprender acerca de aquellos químicos a los que él o ella es particularmente sensible, evitando así la toxicidad o el cáncer que antes eran impredecibles.
Aunque generalmente no se aprecia, los seres humanos estamos expuestos diariamente a un aluvión de innumerables y diversos productos químicos. Muchos de estos químicos son altamente tóxicos y se derivan de una amplia variedad de fuentes ambientales y dietéticas. La relación entre dichas exposiciones y la salud humana ha sido y continúa siendo un foco importante de los esfuerzos de investigación biomédica en todo el mundo.
¿Cuáles son algunos ejemplos de este bombardeo químico? Se han aislado y caracterizado más de 400 sustancias químicas del vino tinto. Se estima que un cigarrillo encendido produce al menos 1,000 sustancias químicas. Hay innumerables productos químicos en los cosméticos y jabones perfumados. Otra fuente importante de exposición química es la agricultura: solo en los Estados Unidos, las tierras de cultivo reciben más de 75,000 XNUMX productos químicos cada año en forma de pesticidas, herbicidas y agentes fertilizantes; después de que las plantas y los animales de pastoreo los absorban, así como los peces en las vías fluviales cercanas, los humanos (al final de la cadena alimentaria) ingieren estos químicos. Otras dos fuentes de grandes concentraciones de sustancias químicas que ingresan al cuerpo incluyen (a) las drogas que se toman de forma crónica y (b) la exposición a sustancias peligrosas en el lugar de trabajo durante toda la vida laboral.
Ahora está bien establecido que la exposición química puede afectar negativamente muchos aspectos de la salud humana, causando enfermedades crónicas y el desarrollo de muchos tipos de cáncer. En la última década más o menos, la base molecular de muchas de estas relaciones ha comenzado a descifrarse. Además, ha surgido la comprensión de que los seres humanos difieren notablemente en su susceptibilidad a los efectos nocivos de la exposición química.
Los esfuerzos actuales para predecir la respuesta humana a la exposición química combinan dos enfoques fundamentales (figura 1): monitorear el alcance de la exposición humana a través de marcadores biológicos (biomarcadores) y predecir la respuesta probable de un individuo a un nivel dado de exposición. Aunque ambos enfoques son extremadamente importantes, se debe enfatizar que los dos son claramente diferentes entre sí. Este artículo se centrará en la factores genéticos susceptibilidad individual subyacente a cualquier exposición química en particular. Este campo de investigación se denomina ampliamente ecogenéticao farmacogenética (ver Kalow 1962 y 1992). Muchos de los avances recientes en la determinación de la susceptibilidad individual a la toxicidad química han evolucionado a partir de una mayor apreciación de los procesos por los cuales los humanos y otros mamíferos desintoxican las sustancias químicas y la notable complejidad de los sistemas enzimáticos involucrados.
Figura 1. Las interrelaciones entre la evaluación de la exposición, las diferencias étnicas, la edad, la dieta, la nutrición y la evaluación de la susceptibilidad genética, todos los cuales juegan un papel en el riesgo individual de toxicidad y cáncer.
Primero describiremos la variabilidad de las respuestas tóxicas en humanos. Luego presentaremos algunas de las enzimas responsables de tal variación en la respuesta, debido a diferencias en el metabolismo de sustancias químicas extrañas. A continuación, se detallará la historia y nomenclatura de la superfamilia del citocromo P450. Se describirán brevemente cinco polimorfismos P450 humanos así como varios polimorfismos no P450; estos son responsables de las diferencias humanas en la respuesta tóxica. Luego discutiremos un ejemplo para enfatizar el punto de que las diferencias genéticas en los individuos pueden influir en la evaluación de la exposición, según lo determinado por el monitoreo ambiental. Por último, discutiremos el papel de estas enzimas metabolizadoras de xenobióticos en funciones vitales críticas.
Variación en la respuesta tóxica entre la población humana
Toxicólogos y farmacólogos hablan comúnmente de la dosis letal promedio para el 50% de la población (LD50), la dosis máxima media tolerada por el 50% de la población (MTD50), y la dosis efectiva promedio de un fármaco en particular para el 50% de la población (ED50). Sin embargo, ¿cómo nos afectan estas dosis a cada uno de nosotros de forma individual? En otras palabras, un individuo altamente sensible puede verse 500 veces más afectado o 500 veces más propenso a verse afectado que el individuo más resistente de una población; para estas personas, el LD50 (y MTD50 y DE50) los valores tendrían poco significado. LD50, MTD50 y DE50 los valores sólo son relevantes cuando se refieren a la población en su conjunto.
Figura 2 y XNUMX ilustra una relación dosis-respuesta hipotética para una respuesta tóxica de individuos en cualquier población dada. Este diagrama genérico podría representar el carcinoma broncogénico en respuesta a la cantidad de cigarrillos fumados, el cloracné en función de los niveles de dioxina en el lugar de trabajo, el asma en función de las concentraciones de ozono o aldehído en el aire, las quemaduras solares en respuesta a la luz ultravioleta, la disminución del tiempo de coagulación como una función de la ingesta de aspirina, o molestias gastrointestinales en respuesta al número de Jalapeño pimientos consumidos. Generalmente, en cada uno de estos casos, cuanto mayor sea la exposición, mayor será la respuesta tóxica. La mayor parte de la población exhibirá la media y la desviación estándar de la respuesta tóxica en función de la dosis. El "valor atípico resistente" (abajo a la derecha en la figura 2) es un individuo que tiene menos respuesta a dosis o exposiciones más altas. Un “valor atípico sensible” (arriba a la izquierda) es un individuo que tiene una respuesta exagerada a una dosis o exposición relativamente pequeña. Estos valores atípicos, con diferencias extremas en la respuesta en comparación con la mayoría de los individuos de la población, pueden representar variantes genéticas importantes que pueden ayudar a los científicos a intentar comprender los mecanismos moleculares subyacentes de una respuesta tóxica.
Figura 2. Relación genérica entre cualquier respuesta tóxica y la dosis de cualquier agente ambiental, químico o físico
Utilizando estos valores atípicos en estudios familiares, los científicos de varios laboratorios han comenzado a apreciar la importancia de la herencia mendeliana para una determinada respuesta tóxica. Posteriormente, se puede recurrir a la biología molecular y los estudios genéticos para identificar el mecanismo subyacente a nivel genético (genotipo) responsable de la enfermedad causada por el medio ambiente (fenotipo).
Enzimas metabolizadoras de xenobióticos o fármacos
¿Cómo responde el cuerpo a la miríada de sustancias químicas exógenas a las que estamos expuestos? Los humanos y otros mamíferos han desarrollado sistemas enzimáticos metabólicos altamente complejos que comprenden más de una docena de superfamilias distintas de enzimas. Casi todas las sustancias químicas a las que los humanos están expuestos serán modificadas por estas enzimas para facilitar la eliminación de la sustancia extraña del cuerpo. En conjunto, estas enzimas se denominan con frecuencia como enzimas metabolizadoras de fármacos or enzimas metabolizadoras de xenobióticos. En realidad, ambos términos son nombres inapropiados. En primer lugar, muchas de estas enzimas no solo metabolizan medicamentos, sino también cientos de miles de sustancias químicas dietéticas y ambientales. En segundo lugar, todas estas enzimas también tienen compuestos corporales normales como sustratos; ninguna de estas enzimas metaboliza solo sustancias químicas extrañas.
Durante más de cuatro décadas, los procesos metabólicos mediados por estas enzimas se han clasificado comúnmente como reacciones de Fase I o Fase II (figura 3). Las reacciones de fase I ("funcionalización") generalmente involucran modificaciones estructurales relativamente menores del químico original a través de oxidación, reducción o hidrólisis para producir un metabolito más soluble en agua. Con frecuencia, las reacciones de la Fase I proporcionan un "control" para la modificación adicional de un compuesto mediante reacciones posteriores de la Fase II. Las reacciones de fase I están mediadas principalmente por una superfamilia de enzimas muy versátiles, denominadas colectivamente citocromos P450, aunque también pueden participar otras superfamilias de enzimas (figura 4).
Figura 3. La designación clásica de las enzimas metabolizadoras de fármacos o xenobióticos de Fase I y Fase II
Figura 4. Ejemplos de enzimas metabolizadoras de fármacos
Las reacciones de fase II implican el acoplamiento de una molécula endógena soluble en agua a una sustancia química (sustancia química principal o metabolito de fase I) para facilitar la excreción. Las reacciones de fase II se denominan con frecuencia reacciones de "conjugación" o "derivatización". Las superfamilias de enzimas que catalizan las reacciones de la Fase II generalmente se nombran de acuerdo con el resto de conjugación endógeno involucrado: por ejemplo, acetilación por las N-acetiltransferasas, sulfatación por las sulfotransferasas, conjugación de glutatión por las glutatión transferasas y glucuronidación por las UDP glucuronosiltransferasas (figura 4) . Aunque el órgano principal del metabolismo de los fármacos es el hígado, los niveles de algunas enzimas metabolizadoras de fármacos son bastante altos en el tracto gastrointestinal, las gónadas, los pulmones, el cerebro y los riñones, y tales enzimas están indudablemente presentes en cierta medida en todas las células vivas.
Las enzimas metabolizadoras de xenobióticos representan un doble filo Swords
A medida que aprendemos más sobre los procesos biológicos y químicos que conducen a las aberraciones en la salud humana, se hace cada vez más evidente que las enzimas metabolizadoras de fármacos funcionan de manera ambivalente (figura 3). En la mayoría de los casos, las sustancias químicas solubles en lípidos se convierten en metabolitos solubles en agua que se excretan más fácilmente. Sin embargo, está claro que en muchas ocasiones las mismas enzimas son capaces de transformar otros químicos inertes en moléculas altamente reactivas. Estos intermediarios pueden luego interactuar con macromoléculas celulares como proteínas y ADN. Por lo tanto, para cada sustancia química a la que los seres humanos están expuestos, existe el potencial para las vías competitivas de activación metabólica y desintoxicación.
Breve repaso de la genética
En genética humana, cada gen (loci) se encuentra en uno de los 23 pares de cromosomas. Los dos alelos (uno presente en cada cromosoma del par) pueden ser iguales o pueden ser diferentes entre sí. por ejemplo, el B y b alelos, en los que B (ojos marrones) es dominante sobre b (ojos azules): los individuos del fenotipo de ojos marrones pueden tener el BB or Bb genotipos, mientras que los individuos del fenotipo de ojos azules solo pueden tener bb genotipo.
A polimorfismo se define como dos o más fenotipos (rasgos) heredados de manera estable, derivados de los mismos genes, que se mantienen en la población, a menudo por razones que no son necesariamente obvias. Para que un gen sea polimórfico, el producto del gen no debe ser esencial para el desarrollo, el vigor reproductivo u otros procesos vitales críticos. De hecho, un "polimorfismo equilibrado", en el que el heterocigoto tiene una clara ventaja de supervivencia sobre cualquiera de los homocigotos (p. ej., resistencia a la malaria y al alelo de la hemoglobina de células falciformes) es una explicación común para mantener un alelo en la población en niveles altos que de otro modo no se explicarían. frecuencias (ver González y Nebert 1990).
Polimorfismos humanos de enzimas metabolizadoras de xenobióticos
Las diferencias genéticas en el metabolismo de varios fármacos y sustancias químicas ambientales se conocen desde hace más de cuatro décadas (Kalow 1962 y 1992). Estas diferencias se denominan con frecuencia como farmacogenético o, más ampliamente, polimorfismos ecogenéticos. Estos polimorfismos representan alelos variantes que ocurren con una frecuencia relativamente alta en la población y generalmente están asociados con aberraciones en la expresión o función de la enzima. Históricamente, los polimorfismos generalmente se identificaban después de respuestas inesperadas a agentes terapéuticos. Más recientemente, la tecnología del ADN recombinante ha permitido a los científicos identificar las alteraciones precisas en los genes que son responsables de algunos de estos polimorfismos. Los polimorfismos ahora se han caracterizado en muchas enzimas metabolizadoras de fármacos, incluidas las enzimas de fase I y fase II. A medida que se identifican más y más polimorfismos, se hace cada vez más evidente que cada individuo puede poseer un complemento distinto de enzimas metabolizadoras de fármacos. Esta diversidad podría describirse como una "huella digital metabólica". Es la interacción compleja de las diversas superfamilias de enzimas metabolizadoras de drogas dentro de cualquier individuo lo que finalmente determinará su respuesta particular a un químico dado (Kalow 1962 y 1992; Nebert 1988; Gonzalez y Nebert 1990; Nebert y Weber 1990).
Expresión de enzimas metabolizadoras de xenobióticos humanos en células Cultura
¿Cómo podríamos desarrollar mejores predictores de las respuestas tóxicas humanas a los productos químicos? Los avances en la definición de la multiplicidad de enzimas que metabolizan fármacos deben ir acompañados de un conocimiento preciso de qué enzimas determinan el destino metabólico de sustancias químicas individuales. Los datos recopilados de los estudios de laboratorio con roedores sin duda han proporcionado información útil. Sin embargo, las diferencias significativas entre especies en las enzimas metabolizadoras de xenobióticos requieren precaución al extrapolar los datos a las poblaciones humanas. Para superar esta dificultad, muchos laboratorios han desarrollado sistemas en los que se pueden diseñar varias líneas celulares en cultivo para producir enzimas humanas funcionales que son estables y en altas concentraciones (González, Crespi y Gelboin 1991). La producción exitosa de enzimas humanas se ha logrado en una variedad de diversas líneas celulares de fuentes que incluyen bacterias, levaduras, insectos y mamíferos.
Para definir el metabolismo de los productos químicos con mayor precisión, múltiples enzimas también se han producido con éxito en una sola línea celular (González, Crespi y Gelboin 1991). Estas líneas celulares brindan información valiosa sobre las enzimas precisas involucradas en el procesamiento metabólico de cualquier compuesto dado y metabolitos tóxicos probables. Si esta información se puede combinar con el conocimiento sobre la presencia y el nivel de una enzima en los tejidos humanos, estos datos deberían proporcionar valiosos predictores de respuesta.
Cytochrome P450
Historia y nomenclatura
La superfamilia del citocromo P450 es una de las superfamilias de enzimas metabolizadoras de fármacos más estudiadas y tiene una gran variabilidad individual en respuesta a sustancias químicas. Citocromo P450 es un término genérico conveniente que se usa para describir una gran superfamilia de enzimas fundamentales en el metabolismo de innumerables sustratos endógenos y exógenos. El termino citocromo P450 fue acuñado por primera vez en 1962 para describir un desconocido pigmentación en células que, cuando se redujeron y se unieron con monóxido de carbono, produjeron un pico de absorción característico a 450 nm. Desde principios de la década de 1980, la tecnología de clonación de cDNA ha dado lugar a importantes conocimientos sobre la multiplicidad de enzimas del citocromo P450. Hasta la fecha, se han identificado más de 400 genes distintos del citocromo P450 en animales, plantas, bacterias y levaduras. Se ha estimado que cualquier especie de mamífero, como los humanos, puede poseer 60 o más genes P450 distintos (Nebert y Nelson 1991). La multiplicidad de genes P450 ha requerido el desarrollo de un sistema de nomenclatura estandarizado (Nebert et al. 1987; Nelson et al. 1993). Propuesto por primera vez en 1987 y actualizado cada dos años, el sistema de nomenclatura se basa en la evolución divergente de las comparaciones de secuencias de aminoácidos entre las proteínas P450. Los genes P450 se dividen en familias y subfamilias: las enzimas dentro de una familia muestran una similitud de aminoácidos superior al 40 %, y las de la misma subfamilia muestran una similitud del 55 %. Los genes P450 se nombran con el símbolo de raíz CYP seguido de un número arábigo que designa la familia P450, una letra que indica la subfamilia y otro número arábigo que designa el gen individual (Nelson et al. 1993; Nebert et al. 1991). Por lo tanto, CYP1A1 representa el gen 450 de P1 en la familia 1 y la subfamilia A.
Hasta febrero de 1995, hay 403 CYP genes en la base de datos, compuesta por 59 familias y 105 subfamilias. Estos incluyen ocho familias de eucariotas inferiores, 15 familias de plantas y 19 familias de bacterias. Las 15 familias de genes P450 humanos comprenden 26 subfamilias, 22 de las cuales se han mapeado en ubicaciones cromosómicas en la mayor parte del genoma. Algunas secuencias son claramente ortólogas en muchas especies, por ejemplo, solo una CYP17 (esteroide 17α-hidroxilasa) se ha encontrado en todos los vertebrados examinados hasta la fecha; otras secuencias dentro de una subfamilia están muy duplicadas, lo que hace imposible la identificación de pares ortólogos (p. ej., el CYP2C subfamilia). Curiosamente, el ser humano y la levadura comparten un gen ortólogo en el CYP51 familia. Numerosas revisiones exhaustivas están disponibles para los lectores que buscan más información sobre la superfamilia P450 (Nelson et al. 1993; Nebert et al. 1991; Nebert y McKinnon 1994; Guengerich 1993; Gonzalez 1992).
El éxito del sistema de nomenclatura P450 ha resultado en el desarrollo de sistemas terminológicos similares para las glucuronosiltransferasas UDP (Burchell et al. 1991) y las monooxigenasas que contienen flavina (Lawton et al. 1994). También se están desarrollando sistemas de nomenclatura similares basados en la evolución divergente para otras superfamilias de enzimas metabolizadoras de fármacos (p. ej., sulfotransferasas, epóxido hidrolasas y aldehído deshidrogenasas).
Recientemente, dividimos la superfamilia de genes P450 de mamíferos en tres grupos (Nebert y McKinnon 1994): los involucrados principalmente en el metabolismo químico extraño, los involucrados en la síntesis de varias hormonas esteroides y los que participan en otras funciones endógenas importantes. Son las enzimas P450 metabolizadoras de xenobióticos las que asumen la mayor importancia para la predicción de la toxicidad.
Enzimas P450 que metabolizan xenobióticos
Las enzimas P450 involucradas en el metabolismo de compuestos extraños y fármacos casi siempre se encuentran dentro de las familias. CYP1, CYP2, CYP3 y CYP4. Estas enzimas P450 catalizan una amplia variedad de reacciones metabólicas, con un solo P450 a menudo capaz de metabolizar muchos compuestos diferentes. Además, múltiples enzimas P450 pueden metabolizar un solo compuesto en diferentes sitios. Además, un compuesto puede ser metabolizado en el mismo sitio único por varios P450, aunque a velocidades variables.
Una propiedad muy importante de las enzimas P450 que metabolizan fármacos es que muchos de estos genes son inducibles por las mismas sustancias que sirven como sus sustratos. Por otro lado, otros genes P450 son inducidos por no sustratos. Este fenómeno de inducción enzimática es la base de muchas interacciones farmacológicas de importancia terapéutica.
Aunque están presentes en muchos tejidos, estas enzimas P450 particulares se encuentran en niveles relativamente altos en el hígado, el sitio principal del metabolismo de los fármacos. Algunas de las enzimas P450 que metabolizan xenobióticos exhiben actividad hacia ciertos sustratos endógenos (p. ej., ácido araquidónico). Sin embargo, en general se cree que la mayoría de estas enzimas P450 que metabolizan xenobióticos no desempeñan funciones fisiológicas importantes, aunque esto aún no se ha establecido experimentalmente. Es probable que la disrupción homocigota selectiva, o “knock-out”, de genes P450 metabolizadores de xenobióticos individuales por medio de metodologías dirigidas a genes en ratones probablemente proporcione pronto información inequívoca con respecto a las funciones fisiológicas de los P450 metabolizadores de xenobióticos (para una revisión de selección de genes, véase Capecchi 1994).
En contraste con las familias P450 que codifican enzimas involucradas principalmente en procesos fisiológicos, las familias que codifican enzimas P450 que metabolizan xenobióticos muestran una marcada especificidad de especie y frecuentemente contienen muchos genes activos por subfamilia (Nelson et al. 1993; Nebert et al. 1991). Dada la aparente falta de sustratos fisiológicos, es posible que las enzimas P450 en las familias CYP1, CYP2, CYP3 y CYP4 que han aparecido en los últimos cientos de millones de años han evolucionado como un medio de desintoxicación de sustancias químicas extrañas que se encuentran en el medio ambiente y la dieta. Claramente, la evolución de los P450 que metabolizan xenobióticos habría ocurrido durante un período de tiempo que precede con mucho a la síntesis de la mayoría de los productos químicos sintéticos a los que los humanos están expuestos ahora. Los genes en estas cuatro familias de genes pueden haber evolucionado y divergido en los animales debido a su exposición a los metabolitos de las plantas durante los últimos 1.2 millones de años, un proceso denominado descriptivamente "guerra animal-planta" (González y Nebert 1990). La guerra animal-planta es el fenómeno en el que las plantas desarrollan nuevos químicos (fitoalexinas) como un mecanismo de defensa para evitar que los animales los ingieran, y los animales, a su vez, responden desarrollando nuevos genes P450 para adaptarse a los sustratos diversificados. Los ejemplos recientemente descritos de guerra química planta-insecto y planta-hongo que involucran la desintoxicación de sustratos tóxicos con P450 dan un mayor impulso a esta propuesta (Nebert 1994).
La siguiente es una breve introducción a varios de los polimorfismos de la enzima P450 que metaboliza xenobióticos humanos en los que se cree que los determinantes genéticos de la respuesta tóxica son de gran importancia. Hasta hace poco, los polimorfismos de P450 generalmente se sugerían por una variación inesperada en la respuesta del paciente a los agentes terapéuticos administrados. De hecho, varios polimorfismos P450 se nombran de acuerdo con el fármaco con el que se identificó por primera vez el polimorfismo. Más recientemente, los esfuerzos de investigación se han centrado en la identificación de las enzimas P450 precisas implicadas en el metabolismo de las sustancias químicas para las que se observa variación y la caracterización precisa de los genes P450 implicados. Como se describió anteriormente, la actividad medible de una enzima P450 hacia una sustancia química modelo puede denominarse fenotipo. Las diferencias alélicas en un gen P450 para cada individuo se denominan genotipo P450. A medida que se aplica más y más escrutinio al análisis de los genes P450, la base molecular precisa de la variación fenotípica previamente documentada se vuelve más clara.
La subfamilia CYP1A
El CYP1A La subfamilia comprende dos enzimas en humanos y todos los demás mamíferos: estos se designan CYP1A1 y CYP1A2 bajo la nomenclatura estándar P450. Estas enzimas son de gran interés porque están involucradas en la activación metabólica de muchos procarcinógenos y también son inducidas por varios compuestos de interés toxicológico, incluida la dioxina. Por ejemplo, CYP1A1 activa metabólicamente muchos compuestos que se encuentran en el humo del cigarrillo. CYP1A2 activa metabólicamente muchas arilaminas, asociadas con el cáncer de vejiga urinaria, que se encuentran en la industria de tintes químicos. CYP1A2 también activa metabólicamente la 4-(metilnitrosamino)-1-(3-piridil)-1-butanona (NNK), una nitrosamina derivada del tabaco. CYP1A1 y CYP1A2 también se encuentran en niveles más altos en los pulmones de los fumadores de cigarrillos, debido a la inducción de los hidrocarburos policíclicos presentes en el humo. Por lo tanto, se considera que los niveles de actividad de CYP1A1 y CYP1A2 son determinantes importantes de la respuesta individual a muchas sustancias químicas potencialmente tóxicas.
Interés toxicológico en el CYP1A subfamilia se intensificó en gran medida por un informe de 1973 que correlacionó el nivel de inducibilidad de CYP1A1 en fumadores de cigarrillos con la susceptibilidad individual al cáncer de pulmón (Kellermann, Shaw y Luyten-Kellermann 1973). La base molecular de la inducción de CYP1A1 y CYP1A2 ha sido un foco importante de numerosos laboratorios. El proceso de inducción está mediado por una proteína denominada receptor Ah a la que se unen las dioxinas y las sustancias químicas estructuralmente relacionadas. El nombre Ah se deriva de la aryl hnaturaleza hidrocarbonada de muchos inductores de CYP1A. Curiosamente, las diferencias en el gen que codifica el receptor Ah entre cepas de ratones dan como resultado marcadas diferencias en la respuesta química y la toxicidad. Un polimorfismo en el gen del receptor Ah también parece ocurrir en humanos: aproximadamente una décima parte de la población muestra una alta inducción de CYP1A1 y puede tener un mayor riesgo que las otras nueve décimas partes de desarrollar ciertos cánceres inducidos químicamente. El papel del receptor Ah en el control de las enzimas en el CYP1A subfamilia, y su papel como determinante de la respuesta humana a la exposición química, ha sido objeto de varias revisiones recientes (Nebert, Petersen y Puga 1991; Nebert, Puga y Vasiliou 1993).
¿Existen otros polimorfismos que puedan controlar el nivel de proteínas CYP1A en una célula? Un polimorfismo en el CYP1A1 También se ha identificado un gen, y esto parece influir en el riesgo de cáncer de pulmón entre los fumadores de cigarrillos japoneses, aunque este mismo polimorfismo no parece influir en el riesgo en otros grupos étnicos (Nebert y McKinnon 1994).
CYP2C19
Las variaciones en la velocidad a la que los individuos metabolizan el fármaco anticonvulsivo (S)-mefenitoína han sido bien documentadas durante muchos años (Guengerich 1989). Entre el 2% y el 5% de los caucásicos y hasta el 25% de los asiáticos son deficientes en esta actividad y pueden tener un mayor riesgo de toxicidad por el fármaco. Hace tiempo que se sabe que este defecto enzimático involucra a un miembro del ser humano CYP2C subfamilia, pero la base molecular precisa de esta deficiencia ha sido objeto de considerable controversia. La razón principal de esta dificultad fueron los seis o más genes en el ser humano. CYP2C subfamilia. Sin embargo, recientemente se demostró que una mutación de una sola base en el CYP2C19 gen es la causa principal de esta deficiencia (Goldstein y de Morais 1994). También se ha desarrollado una prueba simple de ADN, basada en la reacción en cadena de la polimerasa (PCR), para identificar rápidamente esta mutación en poblaciones humanas (Goldstein y de Morais 1994).
CYP2D6
Quizás la variación caracterizada más extensamente en un gen P450 es la que involucra al CYP2D6 gene. Se han descrito más de una docena de ejemplos de mutaciones, reordenamientos y deleciones que afectan a este gen (Meyer 1994). Este polimorfismo fue sugerido por primera vez hace 20 años por la variabilidad clínica en la respuesta de los pacientes al agente antihipertensivo detritioquina. Alteraciones en el CYP2D6 gen que da lugar a una actividad enzimática alterada se denominan colectivamente polimorfismo de la ruinoquina.
Antes de la llegada de los estudios basados en el ADN, las personas se clasificaban como metabolizadores lentos o rápidos (PM, EM) de la ruinoquina en función de las concentraciones de metabolitos en las muestras de orina. Ahora está claro que las alteraciones en el CYP2D6 El gen puede dar como resultado que los individuos muestren no solo un metabolismo pobre o extenso de la ruinoquina, sino también un metabolismo ultrarrápido. La mayoría de las alteraciones en el CYP2D6 están asociados con deficiencia parcial o total de la función enzimática; sin embargo, recientemente se han descrito individuos en dos familias que poseen múltiples copias funcionales del CYP2D6 gen, dando lugar al metabolismo ultrarrápido de los sustratos de CYP2D6 (Meyer 1994). Esta notable observación proporciona nuevos conocimientos sobre el amplio espectro de actividad de CYP2D6 observado previamente en estudios de población. Las alteraciones en la función de CYP2D6 son de particular importancia, dado que esta enzima metaboliza más de 30 fármacos comúnmente prescritos. Por lo tanto, la función CYP2D6 de un individuo es un factor determinante de la respuesta terapéutica y tóxica a la terapia administrada. De hecho, recientemente se ha argumentado que la consideración del estado de CYP2D6 de un paciente es necesaria para el uso seguro de medicamentos psiquiátricos y cardiovasculares.
El papel de la CYP2D6 El polimorfismo como determinante de la susceptibilidad individual a enfermedades humanas como el cáncer de pulmón y la enfermedad de Parkinson también ha sido objeto de intensos estudios (Nebert y McKinnon 1994; Meyer 1994). Si bien las conclusiones son difíciles de definir dada la naturaleza diversa de los protocolos de estudio utilizados, la mayoría de los estudios parecen indicar una asociación entre los metabolizadores rápidos de la ruinoquina (fenotipo EM) y el cáncer de pulmón. Las razones de tal asociación no están claras actualmente. Sin embargo, se ha demostrado que la enzima CYP2D6 metaboliza la NNK, una nitrosamina derivada del tabaco.
A medida que mejoren los ensayos basados en ADN, lo que permite una evaluación aún más precisa del estado de CYP2D6, se anticipa que se aclarará la relación precisa de CYP2D6 con el riesgo de enfermedad. Mientras que el metabolizador rápido puede estar relacionado con la susceptibilidad al cáncer de pulmón, el metabolizador lento (fenotipo PM) parece estar asociado con la enfermedad de Parkinson de causa desconocida. Si bien estos estudios también son difíciles de comparar, parece que los individuos con PM que tienen una capacidad disminuida para metabolizar los sustratos de CYP2D6 (por ejemplo, la ruinoquina) tienen un riesgo de 2 a 2.5 veces mayor de desarrollar la enfermedad de Parkinson.
CYP2E1
El CYP2E1 El gen codifica una enzima que metaboliza muchas sustancias químicas, incluidos fármacos y muchos carcinógenos de bajo peso molecular. Esta enzima también es de interés porque es altamente inducible por el alcohol y puede desempeñar un papel en la lesión hepática inducida por sustancias químicas como el cloroformo, el cloruro de vinilo y el tetracloruro de carbono. La enzima se encuentra principalmente en el hígado y el nivel de enzima varía notablemente entre los individuos. Escrutinio minucioso de la CYP2E1 gen ha resultado en la identificación de varios polimorfismos (Nebert y McKinnon 1994). Se ha reportado una relación entre la presencia de ciertas variaciones estructurales en la CYP2E1 gen y riesgo aparentemente reducido de cáncer de pulmón en algunos estudios; sin embargo, existen claras diferencias interétnicas que requieren aclarar esta posible relación.
La subfamilia CYP3A
En humanos, se han identificado cuatro enzimas como miembros de la CYP3A subfamilia debido a su similitud en la secuencia de aminoácidos. Las enzimas CYP3A metabolizan muchos medicamentos comúnmente recetados, como la eritromicina y la ciclosporina. El contaminante cancerígeno alimentario aflatoxina B1 también es un sustrato de CYP3A. Un miembro del ser humano CYP3A subfamilia, designada CYP3A4, es el principal P450 en el hígado humano además de estar presente en el tracto gastrointestinal. Como ocurre con muchas otras enzimas P450, el nivel de CYP3A4 es muy variable entre los individuos. Una segunda enzima, denominada CYP3A5, se encuentra en solo aproximadamente el 25% de los hígados; la base genética de este hallazgo no ha sido dilucidada. Aún no se ha establecido la importancia de la variabilidad de CYP3A4 o CYP3A5 como factor en los determinantes genéticos de la respuesta tóxica (Nebert y McKinnon 1994).
Polimorfismos no P450
También existen numerosos polimorfismos dentro de otras superfamilias de enzimas metabolizadoras de xenobióticos (p. ej., glutatión transferasas, UDP glucuronosiltransferasas, paraoxonasas, deshidrogenasas, N-acetiltransferasas y monooxigenasas que contienen flavina). Debido a que la toxicidad final de cualquier intermedio generado por P450 depende de la eficiencia de las reacciones de desintoxicación de fase II posteriores, el papel combinado de múltiples polimorfismos enzimáticos es importante para determinar la susceptibilidad a enfermedades inducidas químicamente. Por lo tanto, es probable que el equilibrio metabólico entre las reacciones de fase I y fase II (figura 3) sea un factor importante en las enfermedades humanas inducidas químicamente y los determinantes genéticos de la respuesta tóxica.
El polimorfismo del gen GSTM1
Un ejemplo bien estudiado de un polimorfismo en una enzima de Fase II es el que involucra a un miembro de la superfamilia de enzimas glutatión S-transferasa, denominada GST mu o GSTM1. Esta enzima en particular tiene un interés toxicológico considerable porque parece estar involucrada en la desintoxicación subsiguiente de metabolitos tóxicos producidos a partir de sustancias químicas en el humo del cigarrillo por la enzima CYP1A1. El polimorfismo identificado en este gen de la glutatión transferasa implica una ausencia total de enzima funcional en hasta la mitad de todos los caucásicos estudiados. Esta falta de una enzima de Fase II parece estar asociada con una mayor susceptibilidad al cáncer de pulmón. Al agrupar a los individuos sobre la base de ambas variantes CYP1A1 genes y la deleción o presencia de un funcional GSTM1 gen, se ha demostrado que el riesgo de desarrollar cáncer de pulmón inducido por fumar varía significativamente (Kawajiri, Watanabe y Hayashi 1994). En particular, las personas que muestran una rara CYP1A1 alteración del gen, en combinación con la ausencia del GSTM1 tenían un riesgo mayor (hasta nueve veces) de desarrollar cáncer de pulmón cuando se exponían a un nivel relativamente bajo de humo de cigarrillo. Curiosamente, parece haber diferencias interétnicas en la importancia de los genes variantes que requieren más estudios para dilucidar el papel preciso de tales alteraciones en la susceptibilidad a la enfermedad (Kalow 1962; Nebert y McKinnon 1994; Kawajiri, Watanabe y Hayashi 1994).
Efecto sinérgico de dos o más polimorfismos sobre el tóxico. respuesta
Una respuesta tóxica a un agente ambiental puede ser muy exagerada por la combinación de dos defectos farmacogenéticos en el mismo individuo, por ejemplo, los efectos combinados del polimorfismo N-acetiltransferasa (NAT2) y el polimorfismo glucosa-6-fosfato deshidrogenasa (G6PD) .
La exposición ocupacional a las arilaminas constituye un grave riesgo de cáncer de vejiga urinaria. Desde los elegantes estudios de Cartwright en 1954, ha quedado claro que el estado del N-acetilador es un factor determinante del cáncer de vejiga inducido por colorantes azoicos. Existe una correlación muy significativa entre el fenotipo acetilador lento y la aparición de cáncer de vejiga, así como el grado de invasividad de este cáncer en la pared de la vejiga. Por el contrario, existe una asociación significativa entre el fenotipo acetilador rápido y la incidencia de carcinoma colorrectal. La N-acetiltransferasa (NAT1, NAT2) se han clonado y secuenciado, y los ensayos basados en ADN ahora pueden detectar más de una docena de variantes alélicas que explican el fenotipo de acetilador lento. Él NAT2 El gen es polimórfico y responsable de la mayor parte de la variabilidad en la respuesta tóxica a los químicos ambientales (Weber 1987; Grant 1993).
La glucosa-6-fosfato deshidrogenasa (G6PD) es una enzima crítica en la generación y mantenimiento de NADPH. La actividad baja o nula de G6PD puede conducir a una hemólisis grave inducida por fármacos o xenobióticos, debido a la ausencia de niveles normales de glutatión reducido (GSH) en los glóbulos rojos. La deficiencia de G6PD afecta al menos a 300 millones de personas en todo el mundo. Más del 10% de los hombres afroamericanos exhiben el fenotipo menos severo, mientras que ciertas comunidades sardas exhiben el “tipo mediterráneo” más severo con frecuencias tan altas como una de cada tres personas. Él G6PD El gen ha sido clonado y localizado en el cromosoma X, y numerosas mutaciones puntuales diversas explican el alto grado de heterogeneidad fenotípica observada en individuos con deficiencia de G6PD (Beutler 1992).
Se descubrió que la tiozalsulfona, un fármaco arilamina sulfa, provoca una distribución bimodal de la anemia hemolítica en la población tratada. Cuando se tratan con ciertos medicamentos, los individuos con la combinación de deficiencia de G6PD más el fenotipo de acetilador lento se ven más afectados que aquellos con la deficiencia de G6PD sola o el fenotipo de acetilador lento solo. Los acetiladores lentos con deficiencia de G6PD son al menos 40 veces más susceptibles que los acetiladores rápidos con G6PD normal a la hemólisis inducida por tiozalsulfona.
Efecto de los polimorfismos genéticos en la evaluación de la exposición
La evaluación de la exposición y el biomonitoreo (figura 1) también requieren información sobre la composición genética de cada individuo. Dada una exposición idéntica a un químico peligroso, el nivel de aductos de hemoglobina (u otros biomarcadores) puede variar en dos o tres órdenes de magnitud entre individuos, dependiendo de la huella digital metabólica de cada persona.
La misma farmacogenética combinada se ha estudiado en trabajadores de fábricas químicas en Alemania (tabla 1). Los aductos de hemoglobina entre los trabajadores expuestos a la anilina y la acetanilida son, con mucho, los más altos en los acetiladores lentos con deficiencia de G6PD, en comparación con los otros posibles fenotipos farmacogenéticos combinados. Este estudio tiene implicaciones importantes para la evaluación de la exposición. Estos datos demuestran que, aunque dos personas pueden estar expuestas al mismo nivel ambiental de sustancias químicas peligrosas en el lugar de trabajo, la cantidad de exposición (a través de biomarcadores como los aductos de hemoglobina) podría estimarse en dos o más órdenes de magnitud menos, debido a la predisposición genética subyacente del individuo. Asimismo, el riesgo resultante de un efecto adverso para la salud puede variar en dos o más órdenes de magnitud.
Tabla 1: Aductos de hemoglobina en trabajadores expuestos a anilina y acetanilida
Estado del acetilador | Deficiencia de G6PD | |||
Rápido | Lenta | No | Sí | Aductos de Hgb |
+ | + | 2 | ||
+ | + | 30 | ||
+ | + | 20 | ||
+ | + | 100 |
Fuente: Adaptado de Lewalter y Korallus 1985.
Diferencias genéticas en la unión y el metabolismo.
Debe enfatizarse que el mismo caso hecho aquí para el metabolismo también se puede hacer para la unión. Las diferencias hereditarias en la unión de los agentes ambientales afectarán en gran medida la respuesta tóxica. Por ejemplo, las diferencias en el mouse cdm El gen puede afectar profundamente la sensibilidad individual a la necrosis testicular inducida por cadmio (Taylor, Heiniger y Meier 1973). Es probable que las diferencias en la afinidad de unión del receptor Ah afecten la toxicidad inducida por dioxinas y el cáncer (Nebert, Petersen y Puga 1991; Nebert, Puga y Vasiliou 1993).
La figura 5 resume el papel del metabolismo y la unión en la toxicidad y el cáncer. Los agentes tóxicos, tal como existen en el medio ambiente o después del metabolismo o la unión, provocan sus efectos por una vía genotóxica (en la que se produce daño en el ADN) o una vía no genotóxica (en la que no es necesario que se produzca daño en el ADN ni mutagénesis). Curiosamente, recientemente quedó claro que los agentes "clásicos" que dañan el ADN pueden operar a través de una vía de transducción de señales no genotóxicas dependiente de glutatión reducido (GSH), que se inicia en o cerca de la superficie celular en ausencia de ADN y fuera del núcleo celular. (Devary y col. 1993). Sin embargo, las diferencias genéticas en el metabolismo y la unión siguen siendo los principales determinantes en el control de las diferentes respuestas tóxicas individuales.
Figura 5. Los medios generales por los que se produce la toxicidad
Papel de la función celular de enzimas metabolizadoras de fármacos
La variación de base genética en la función de las enzimas metabolizadoras de fármacos es de gran importancia para determinar la respuesta individual a las sustancias químicas. Estas enzimas son fundamentales para determinar el destino y el curso temporal de una sustancia química extraña después de la exposición.
Como se ilustra en la figura 5, la importancia de las enzimas metabolizadoras de fármacos en la susceptibilidad individual a la exposición química puede, de hecho, presentar un problema mucho más complejo de lo que es evidente a partir de esta simple discusión sobre el metabolismo de los xenobióticos. En otras palabras, durante las últimas dos décadas, los mecanismos genotóxicos (mediciones de aductos de ADN y aductos de proteínas) se han enfatizado mucho. Sin embargo, ¿qué pasa si los mecanismos no genotóxicos son al menos tan importantes como los mecanismos genotóxicos para causar respuestas tóxicas?
Como se mencionó anteriormente, las funciones fisiológicas de muchas enzimas metabolizadoras de fármacos involucradas en el metabolismo de xenobióticos no se han definido con precisión. Nebert (1994) ha propuesto que, debido a su presencia en este planeta durante más de 3.5 millones de años, las enzimas metabolizadoras de fármacos fueron originalmente (y ahora siguen siendo principalmente) responsables de regular los niveles celulares de muchos ligandos no peptídicos importantes en la activación transcripcional. de genes que afectan el crecimiento, la diferenciación, la apoptosis, la homeostasis y las funciones neuroendocrinas. Además, la toxicidad de la mayoría, si no de todos, los agentes ambientales se produce por medio de Agonista or antagonista acción sobre estas vías de transducción de señales (Nebert 1994). Con base en esta hipótesis, la variabilidad genética en las enzimas metabolizadoras de fármacos puede tener efectos bastante dramáticos en muchos procesos bioquímicos críticos dentro de la célula, lo que lleva a diferencias importantes en la respuesta tóxica. De hecho, es posible que tal escenario también pueda ser la base de muchas reacciones adversas idiosincrásicas encontradas en pacientes que usan medicamentos recetados comúnmente.
Conclusiones
La última década ha visto un progreso notable en nuestra comprensión de la base genética de la respuesta diferencial a los productos químicos en los medicamentos, los alimentos y los contaminantes ambientales. Las enzimas metabolizadoras de fármacos tienen una profunda influencia en la forma en que los seres humanos responden a las sustancias químicas. A medida que nuestra conciencia de la multiplicidad de enzimas metabolizadoras de fármacos sigue evolucionando, somos cada vez más capaces de realizar evaluaciones mejoradas del riesgo tóxico de muchos fármacos y productos químicos ambientales. Esto quizás se ilustra más claramente en el caso de la enzima citocromo P2 CYP6D450. Usando pruebas basadas en ADN relativamente simples, es posible predecir la respuesta probable de cualquier fármaco metabolizado predominantemente por esta enzima; esta predicción garantizará el uso más seguro de medicamentos valiosos, aunque potencialmente tóxicos.
El futuro sin duda verá una explosión en la identificación de más polimorfismos (fenotipos) que involucran enzimas metabolizadoras de fármacos. Esta información estará acompañada de pruebas mejoradas basadas en ADN mínimamente invasivas para identificar genotipos en poblaciones humanas.
Dichos estudios deberían ser particularmente informativos para evaluar el papel de los productos químicos en las muchas enfermedades ambientales de origen actualmente desconocido. La consideración de múltiples polimorfismos de enzimas metabolizadoras de fármacos, en combinación (p. ej., tabla 1), también es probable que represente un área de investigación particularmente fértil. Dichos estudios aclararán el papel de los productos químicos en la causalidad de los cánceres. Colectivamente, esta información debería permitir la formulación de consejos cada vez más individualizados sobre la evitación de productos químicos que probablemente sean de interés individual. Este es el campo de la toxicología preventiva. Sin duda, estos consejos ayudarán en gran medida a todas las personas a hacer frente a la carga química cada vez mayor a la que estamos expuestos.
" EXENCIÓN DE RESPONSABILIDAD: La OIT no se responsabiliza por el contenido presentado en este portal web que se presente en un idioma que no sea el inglés, que es el idioma utilizado para la producción inicial y la revisión por pares del contenido original. Ciertas estadísticas no se han actualizado desde la producción de la 4ª edición de la Enciclopedia (1998)."