La toxicología juega un papel importante en el desarrollo de regulaciones y otras políticas de salud ocupacional. Para prevenir lesiones y enfermedades ocupacionales, las decisiones se basan cada vez más en la información que se puede obtener antes o en ausencia de los tipos de exposición humana que producirían información definitiva sobre el riesgo, como los estudios epidemiológicos. Además, los estudios toxicológicos, tal como se describen en este capítulo, pueden brindar información precisa sobre la dosis y la respuesta en las condiciones controladas de la investigación de laboratorio; esta información suele ser difícil de obtener en el entorno no controlado de las exposiciones ocupacionales. Sin embargo, esta información debe evaluarse cuidadosamente para estimar la probabilidad de efectos adversos en humanos, la naturaleza de estos efectos adversos y la relación cuantitativa entre exposiciones y efectos.

Se ha prestado considerable atención en muchos países, desde la década de 1980, al desarrollo de métodos objetivos para utilizar la información toxicológica en la toma de decisiones reglamentarias. Métodos formales, frecuentemente denominados evaluación de riesgos, han sido propuestos y utilizados en estos países por entidades gubernamentales y no gubernamentales. La evaluación de riesgos se ha definido de diversas formas; fundamentalmente es un proceso evaluativo que incorpora información toxicológica, epidemiológica y de exposición para identificar y estimar la probabilidad de efectos adversos asociados con la exposición a sustancias o condiciones peligrosas. La evaluación de riesgos puede ser de naturaleza cualitativa, indicando la naturaleza de un efecto adverso y una estimación general de la probabilidad, o puede ser cuantitativa, con estimaciones del número de personas afectadas a niveles específicos de exposición. En muchos sistemas regulatorios, la evaluación de riesgos se lleva a cabo en cuatro etapas: identificación de peligros, la descripción de la naturaleza del efecto tóxico; evaluación dosis-respuesta, un análisis semicuantitativo o cuantitativo de la relación entre la exposición (o dosis) y la gravedad o probabilidad del efecto tóxico; Asesoramiento de exposición, la evaluación de la información sobre el rango de exposiciones que probablemente ocurran para las poblaciones en general o para los subgrupos dentro de las poblaciones; caracterización del riesgo, la compilación de toda la información anterior en una expresión de la magnitud del riesgo que se espera que ocurra bajo condiciones de exposición especificadas (ver NRC 1983 para una declaración de estos principios).

En esta sección, se presentan tres enfoques para la evaluación de riesgos a modo ilustrativo. Es imposible proporcionar un compendio completo de los métodos de evaluación de riesgos utilizados en todo el mundo, y estas selecciones no deben tomarse como prescriptivas. Cabe señalar que existen tendencias hacia la armonización de los métodos de evaluación de riesgos, en parte como respuesta a las disposiciones de los recientes acuerdos del GATT. Actualmente se encuentran en marcha dos procesos de armonización internacional de métodos de evaluación de riesgos, a través del Programa Internacional sobre Seguridad Química (IPCS) y la Organización para la Cooperación y el Desarrollo Económicos (OCDE). Estas organizaciones también mantienen información actualizada sobre enfoques nacionales para la evaluación de riesgos.

 

Atrás

Domingo, enero 16 2011 18: 56

Estructura Actividad Relaciones

El análisis de las relaciones estructura-actividad (SAR) es la utilización de información sobre la estructura molecular de los productos químicos para predecir características importantes relacionadas con la persistencia, la distribución, la absorción y la toxicidad. SAR es un método alternativo para identificar posibles productos químicos peligrosos, que promete ayudar a las industrias y los gobiernos a priorizar sustancias para una evaluación adicional o para la toma de decisiones en la etapa inicial de nuevos productos químicos. La toxicología es una tarea cada vez más costosa y que requiere muchos recursos. Las crecientes preocupaciones sobre el potencial de los productos químicos para causar efectos adversos en las poblaciones humanas expuestas han llevado a las agencias reguladoras y de salud a ampliar el rango y la sensibilidad de las pruebas para detectar peligros toxicológicos. Al mismo tiempo, las cargas reales y percibidas de la regulación sobre la industria han provocado preocupaciones sobre la practicidad de los métodos de prueba de toxicidad y el análisis de datos. En la actualidad, la determinación de la carcinogenicidad química depende de las pruebas de por vida de al menos dos especies, ambos sexos, en varias dosis, con un análisis histopatológico cuidadoso de múltiples órganos, así como la detección de cambios preneoplásicos en células y órganos diana. En los Estados Unidos, se estima que el bioensayo del cáncer cuesta más de $3 millones (dólares de 1995).

Incluso con recursos financieros ilimitados, la carga de probar los aproximadamente 70,000 1984 productos químicos existentes producidos en el mundo actualmente excedería los recursos disponibles de toxicólogos capacitados. Se necesitarían siglos para completar incluso una evaluación de primer nivel de estos productos químicos (NRC 1993). En muchos países han aumentado las preocupaciones éticas sobre el uso de animales en las pruebas de toxicidad, lo que genera presiones adicionales sobre el uso de métodos estándar de pruebas de toxicidad. SAR ha sido ampliamente utilizado en la industria farmacéutica para identificar moléculas con potencial para uso beneficioso en el tratamiento (Hansch y Zhang 1979). En la política de salud ambiental y ocupacional, SAR se utiliza para predecir la dispersión de compuestos en el entorno físico-químico y para detectar nuevos productos químicos para una evaluación adicional de la toxicidad potencial. Bajo la Ley de Control de Sustancias Tóxicas (TSCA) de los EE. UU., la EPA ha utilizado desde 5 un enfoque SAR como una "primera selección" de nuevos productos químicos en el proceso de notificación previa a la fabricación (PMN); Australia utiliza un enfoque similar como parte de su procedimiento de notificación de nuevos productos químicos (NICNAS). En el análisis SAR de EE. UU. es una base importante para determinar que existe una base razonable para concluir que la fabricación, el procesamiento, la distribución, el uso o la eliminación de la sustancia presentarán un riesgo irrazonable de daño a la salud humana o al medio ambiente, como lo requiere la Sección 6(f) de TSCA. Sobre la base de este hallazgo, la EPA puede entonces requerir pruebas reales de la sustancia bajo la Sección XNUMX de la TSCA.

Justificación del SAR

La justificación científica del SAR se basa en la suposición de que la estructura molecular de una sustancia química predecirá aspectos importantes de su comportamiento en los sistemas físico-químicos y biológicos (Hansch y Leo 1979).

Proceso SAR

El proceso de revisión de SAR incluye la identificación de la estructura química, incluidas las formulaciones empíricas y el compuesto puro; identificación de sustancias estructuralmente análogas; buscar bases de datos y literatura para obtener información sobre análogos estructurales; y análisis de toxicidad y otros datos sobre análogos estructurales. En algunos casos raros, la información sobre la estructura del compuesto por sí sola puede ser suficiente para respaldar algún análisis SAR, basado en mecanismos de toxicidad bien conocidos. Se han compilado varias bases de datos sobre SAR, así como métodos informáticos para la predicción de estructuras moleculares.

Con esta información, se pueden estimar los siguientes puntos finales con SAR:

  • parámetros físico-químicos: punto de ebullición, presión de vapor, solubilidad en agua, coeficiente de partición octanol/agua
  • parámetros de destino biológico/ambiental: biodegradación, sorción del suelo, fotodegradación, farmacocinética
  • parámetros de toxicidad: toxicidad en organismos acuáticos, absorción, toxicidad aguda en mamíferos (prueba límite o LD50), irritación dérmica, pulmonar y ocular, sensibilización, toxicidad subcrónica, mutagenicidad.

 

Cabe señalar que no existen métodos SAR para criterios de valoración de la salud tan importantes como la carcinogenicidad, la toxicidad para el desarrollo, la toxicidad para la reproducción, la neurotoxicidad, la inmunotoxicidad u otros efectos sobre los órganos diana. Esto se debe a tres factores: la falta de una gran base de datos sobre la cual probar las hipótesis de SAR, la falta de conocimiento de los determinantes estructurales de la acción tóxica y la multiplicidad de células diana y mecanismos que están involucrados en estos criterios de valoración (ver “The United States enfoque para la evaluación de riesgos de sustancias tóxicas para la reproducción y agentes neurotóxicos”). Algunos intentos limitados de utilizar SAR para predecir la farmacocinética utilizando información sobre coeficientes de partición y solubilidad (Johanson y Naslund 1988). Se ha realizado un SAR cuantitativo más extenso para predecir el metabolismo dependiente de P450 de una variedad de compuestos y la unión de moléculas similares a dioxinas y PCB al receptor citosólico de "dioxinas" (Hansch y Zhang 1993).

Se ha demostrado que SAR tiene una previsibilidad variable para algunos de los puntos finales enumerados anteriormente, como se muestra en la tabla 1. Esta tabla presenta datos de dos comparaciones de actividad prevista con resultados reales obtenidos por medición empírica o prueba de toxicidad. El SAR realizado por los expertos de la EPA de EE. UU. funcionó peor para predecir las propiedades físico-químicas que para predecir la actividad biológica, incluida la biodegradación. Para los puntos finales de toxicidad, SAR funcionó mejor para predecir la mutagenicidad. Ashby y Tennant (1991) en un estudio más extenso también encontraron una buena previsibilidad de la genotoxicidad a corto plazo en su análisis de las sustancias químicas NTP. Estos hallazgos no son sorprendentes, dada la comprensión actual de los mecanismos moleculares de la genotoxicidad (ver "Toxicología genética") y el papel de la electrofilia en la unión al ADN. Por el contrario, el SAR tendía a subestimar la toxicidad sistémica y subcrónica en los mamíferos ya sobreestimar la toxicidad aguda en los organismos acuáticos.

Tabla 1. Comparación de SAR y datos de prueba: análisis OECD/NTP

Punto final Convenio (%) Desacuerdo (%) Número
Punto de ebullición 50 50 30
Presión de vapor 63 37 113
Solubilidad del agua 68 32 133
Coeficiente de partición 61 39 82
Biodegradacion 93 7 107
Toxicidad en peces 77 22 130
Toxicidad de la dafnia 67 33 127
Toxicidad aguda en mamíferos (LD50 ) 80 201 142
Irritación de la piel 82 18 144
Irritación de ojo 78 22 144
sensibilización de la piel 84 16 144
Toxicidad subcrónica 57 32 143
Mutagenicidad2 88 12 139
Mutagenicidad3 82-944 1-10 301
Carcinogenicidad3 : Bioensayo de dos años 72-954 - 301

Fuente: Datos de la OCDE, comunicación personal C. Auer, US EPA. Solo se utilizaron en este análisis aquellos criterios de valoración para los que se disponía de predicciones de SAR comparables y datos de pruebas reales. Los datos de NTP son de Ashby y Tennant 1991.

1 Preocupante fue el fracaso de SAR para predecir la toxicidad aguda en el 12% de los productos químicos probados.

2 Datos de la OCDE, basados ​​en la concordancia de la prueba de Ames con SAR

3 Datos NTP, basados ​​en ensayos genetox comparados con predicciones SAR para varias clases de "sustancias químicas de alerta estructural".

4 La concordancia varía con la clase; la concordancia más alta fue con compuestos amino/nitro aromáticos; más bajo con estructuras "misceláneas".

Para otros puntos finales tóxicos, como se señaló anteriormente, SAR tiene una utilidad menos demostrable. Las predicciones de toxicidad en mamíferos se complican por la falta de SAR para la toxicocinética de moléculas complejas. No obstante, se han hecho algunos intentos de proponer principios SAR para criterios de valoración complejos de toxicidad en mamíferos (por ejemplo, véase Bernstein (1984) para un análisis SAR de posibles sustancias tóxicas para la reproducción masculina). En la mayoría de los casos, la base de datos es demasiado pequeña para permitir pruebas rigurosas de predicciones basadas en estructuras.

En este punto, se puede concluir que SAR puede ser útil principalmente para priorizar la inversión en recursos de pruebas de toxicidad o para plantear inquietudes tempranas sobre peligros potenciales. Solo en el caso de la mutagenicidad es probable que el análisis SAR por sí mismo pueda utilizarse con fiabilidad para informar otras decisiones. Para ningún punto final es probable que el SAR pueda proporcionar el tipo de información cuantitativa necesaria para fines de evaluación de riesgos, como se analiza en otra parte de este capítulo y Enciclopedia.

 

Atrás

Domingo, enero 16 2011 18: 53

Pruebas de toxicidad in vitro

La aparición de tecnologías sofisticadas en biología molecular y celular ha estimulado una evolución relativamente rápida en las ciencias de la vida, incluida la toxicología. En efecto, el enfoque de la toxicología está cambiando de animales completos y poblaciones de animales completos a las células y moléculas de animales individuales y humanos. Desde mediados de la década de 1980, los toxicólogos han comenzado a emplear estas nuevas metodologías para evaluar los efectos de las sustancias químicas en los sistemas vivos. Como una progresión lógica, estos métodos se están adaptando a los fines de las pruebas de toxicidad. Estos avances científicos han trabajado junto con factores sociales y económicos para efectuar cambios en la evaluación de la seguridad del producto y el riesgo potencial.

Los factores económicos están específicamente relacionados con el volumen de materiales que deben ser probados. Cada año se introduce en el mercado una plétora de nuevos cosméticos, productos farmacéuticos, pesticidas, productos químicos y productos para el hogar. Todos estos productos deben ser evaluados por su toxicidad potencial. Además, hay una acumulación de productos químicos que ya están en uso y que no se han probado adecuadamente. La enorme tarea de obtener información de seguridad detallada sobre todos estos productos químicos utilizando métodos tradicionales de prueba con animales completos sería costosa en términos de dinero y tiempo, si es que pudiera lograrse.

También existen problemas sociales relacionados con la salud y la seguridad públicas, así como una creciente preocupación pública sobre el uso de animales para las pruebas de seguridad de los productos. Con respecto a la seguridad humana, los grupos de defensa del interés público y ambiental han ejercido una presión significativa sobre las agencias gubernamentales para que apliquen regulaciones más estrictas sobre los productos químicos. Un ejemplo reciente de esto ha sido un movimiento de algunos grupos ambientalistas para prohibir el cloro y los compuestos que contienen cloro en los Estados Unidos. Una de las motivaciones para una acción tan extrema radica en el hecho de que la mayoría de estos compuestos nunca se han probado adecuadamente. Desde una perspectiva toxicológica, el concepto de prohibir toda una clase de productos químicos diversos basándose simplemente en la presencia de cloro es tanto científicamente erróneo como irresponsable. Sin embargo, es comprensible que, desde la perspectiva del público, debe existir cierta seguridad de que las sustancias químicas liberadas en el medio ambiente no representan un riesgo significativo para la salud. Tal situación subraya la necesidad de métodos más eficientes y rápidos para evaluar la toxicidad.

La otra preocupación social que ha afectado el área de las pruebas de toxicidad es el bienestar animal. El creciente número de grupos de protección animal en todo el mundo ha expresado una oposición considerable al uso de animales completos para las pruebas de seguridad de productos. Se han emprendido campañas activas contra los fabricantes de cosméticos, productos para el hogar y el cuidado personal y productos farmacéuticos en un intento de detener las pruebas con animales. Tales esfuerzos en Europa han resultado en la aprobación de la Sexta Enmienda a la Directiva 76/768/EEC (la Directiva de Cosméticos). La consecuencia de esta Directiva es que los productos cosméticos o ingredientes cosméticos que hayan sido probados en animales después del 1 de enero de 1998 no pueden comercializarse en la Unión Europea, a menos que los métodos alternativos no estén suficientemente validados. Si bien esta Directiva no tiene jurisdicción sobre la venta de dichos productos en los Estados Unidos u otros países, afectará significativamente a aquellas empresas que tienen mercados internacionales que incluyen a Europa.

El concepto de alternativas, que constituye la base para el desarrollo de ensayos distintos de los de animales enteros, se define por los tres Rs: reducción en el número de animales utilizados; refinamiento de protocolos para que los animales experimenten menos estrés o molestias; y reemplazo de las pruebas actuales en animales con pruebas in vitro (es decir, pruebas realizadas fuera del animal vivo), modelos informáticos o pruebas en especies de vertebrados inferiores o invertebrados. El tres Rs fueron introducidos en un libro publicado en 1959 por dos científicos británicos, WMS Russell y Rex Burch, Los principios de la técnica experimental humanitaria. Russell y Burch sostuvieron que la única forma en que se pueden obtener resultados científicos válidos es a través del trato humanitario de los animales y creían que se deberían desarrollar métodos para reducir el uso de animales y, en última instancia, reemplazarlo. Curiosamente, los principios descritos por Russell y Burch recibieron poca atención hasta el resurgimiento del movimiento por el bienestar animal a mediados de la década de 1970. Hoy el concepto de los tres Rs está muy a la vanguardia con respecto a la investigación, las pruebas y la educación.

En resumen, el desarrollo de metodologías de prueba in vitro se ha visto influenciado por una variedad de factores que han convergido en los últimos diez a 20 años. Es difícil determinar si alguno de estos factores por sí solo habría tenido un efecto tan profundo en las estrategias de pruebas de toxicidad.

Concepto de Ensayos de Toxicidad In Vitro

Esta sección se centrará únicamente en los métodos in vitro para evaluar la toxicidad, como una de las alternativas a las pruebas con animales completos. En otros artículos de este capítulo se analizan alternativas adicionales sin animales, como el modelado por computadora y las relaciones cuantitativas entre estructura y actividad.

Los estudios in vitro generalmente se llevan a cabo en células o tejidos animales o humanos fuera del cuerpo. In vitro significa literalmente “en vidrio”, y se refiere a procedimientos llevados a cabo en material vivo o componentes de material vivo cultivados en placas de Petri o en tubos de ensayo bajo condiciones definidas. Estos pueden contrastarse con los estudios in vivo, o los realizados “en el animal vivo”. Si bien es difícil, si no imposible, proyectar los efectos de un químico en un organismo complejo cuando las observaciones se limitan a un solo tipo de células en un plato, los estudios in vitro también brindan una cantidad significativa de información sobre la toxicidad intrínseca. como mecanismos celulares y moleculares de toxicidad. Además, ofrecen muchas ventajas sobre los estudios in vivo, ya que generalmente son menos costosos y pueden realizarse en condiciones más controladas. Además, a pesar de que todavía se necesita un pequeño número de animales para obtener células para cultivos in vitro, estos métodos pueden considerarse alternativas de reducción (ya que se utilizan muchos menos animales en comparación con los estudios in vivo) y alternativas de refinamiento (porque eliminan la necesidad de someter a los animales a las consecuencias tóxicas adversas impuestas por los experimentos in vivo).

Para interpretar los resultados de las pruebas de toxicidad in vitro, determinar su utilidad potencial para evaluar la toxicidad y relacionarlos con el proceso toxicológico general in vivo, es necesario comprender qué parte del proceso toxicológico se está examinando. Todo el proceso toxicológico consiste en eventos que comienzan con la exposición del organismo a un agente físico o químico, progresan a través de interacciones celulares y moleculares y finalmente se manifiestan en la respuesta de todo el organismo. Las pruebas in vitro generalmente se limitan a la parte del proceso toxicológico que tiene lugar a nivel celular y molecular. Los tipos de información que se pueden obtener de los estudios in vitro incluyen vías de metabolismo, interacción de metabolitos activos con objetivos celulares y moleculares y puntos finales tóxicos potencialmente medibles que pueden servir como biomarcadores moleculares para la exposición. En una situación ideal, se conocería el mecanismo de toxicidad de cada sustancia química a partir de la exposición a la manifestación del organismo, de modo que la información obtenida de las pruebas in vitro podría interpretarse completamente y relacionarse con la respuesta de todo el organismo. Sin embargo, esto es prácticamente imposible, ya que se han dilucidado relativamente pocos mecanismos toxicológicos completos. Por lo tanto, los toxicólogos se enfrentan a una situación en la que los resultados de una prueba in vitro no pueden utilizarse como una predicción totalmente precisa de la toxicidad in vivo porque se desconoce el mecanismo. Sin embargo, con frecuencia durante el proceso de desarrollo de una prueba in vitro, se aclaran los componentes de los mecanismos celulares y moleculares de toxicidad.

Una de las cuestiones clave no resueltas que rodean el desarrollo y la implementación de las pruebas in vitro está relacionada con la siguiente consideración: ¿deben basarse mecánicamente o es suficiente que sean descriptivas? Es indiscutiblemente mejor desde una perspectiva científica utilizar únicamente pruebas mecánicas como reemplazo de las pruebas in vivo. Sin embargo, en ausencia de un conocimiento mecanicista completo, la perspectiva de desarrollar pruebas in vitro para reemplazar completamente las pruebas con animales completos en un futuro cercano es casi nula. Sin embargo, esto no descarta el uso de tipos de análisis más descriptivos como herramientas de detección temprana, como es el caso actualmente. Estas pantallas han dado como resultado una reducción significativa en el uso de animales. Por lo tanto, hasta que se genere más información mecanicista, puede ser necesario emplear, en una medida más limitada, pruebas cuyos resultados simplemente se correlacionen bien con los obtenidos in vivo.

Pruebas in vitro de citotoxicidad

En esta sección, se describirán varias pruebas in vitro que se han desarrollado para evaluar el potencial citotóxico de una sustancia química. En su mayor parte, estas pruebas son fáciles de realizar y el análisis se puede automatizar. Una prueba in vitro de uso común para la citotoxicidad es el ensayo de rojo neutro. Este ensayo se realiza en células en cultivo y, para la mayoría de las aplicaciones, las células se pueden mantener en placas de cultivo que contienen 96 pocillos pequeños, cada uno de 6.4 mm de diámetro. Dado que cada pocillo se puede utilizar para una única determinación, esta disposición puede admitir múltiples concentraciones de la sustancia problema, así como controles positivos y negativos con un número suficiente de réplicas para cada uno. Después del tratamiento de las células con diversas concentraciones de la sustancia problema en un rango de al menos dos órdenes de magnitud (p. ej., de 0.01 mM a 1 mM), así como con productos químicos de control positivo y negativo, las células se enjuagan y se tratan con rojo neutro, un colorante que puede ser absorbido y retenido solo por células vivas. El colorante puede añadirse tras la eliminación de la sustancia problema para determinar los efectos inmediatos, o puede añadirse en varios momentos después de eliminar la sustancia problema para determinar los efectos acumulativos o retardados. La intensidad del color en cada pozo corresponde al número de células vivas en ese pozo. La intensidad del color se mide con un espectrofotómetro que puede estar equipado con un lector de placas. El lector de placas está programado para proporcionar mediciones individuales para cada uno de los 96 pocillos de la placa de cultivo. Esta metodología automatizada permite al investigador realizar rápidamente un experimento de concentración-respuesta y obtener datos estadísticamente útiles.

Otro ensayo relativamente simple para la citotoxicidad es la prueba MTT. El MTT (bromuro de 3[4,5-dimetiltiazol-2-il]-2,5-difeniltetrazolio) es un colorante de tetrazolio que las enzimas mitocondriales reducen a un color azul. Solo las células con mitocondrias viables conservarán la capacidad de llevar a cabo esta reacción; por lo tanto, la intensidad del color está directamente relacionada con el grado de integridad mitocondrial. Esta es una prueba útil para detectar compuestos citotóxicos generales, así como aquellos agentes que se dirigen específicamente a las mitocondrias.

La medición de la actividad de la lactato deshidrogenasa (LDH) también se utiliza como un ensayo de base amplia para la citotoxicidad. Esta enzima normalmente está presente en el citoplasma de las células vivas y se libera en el medio de cultivo celular a través de membranas celulares con fugas de células muertas o moribundas que han sido afectadas negativamente por un agente tóxico. Se pueden eliminar pequeñas cantidades de medio de cultivo en varios momentos después del tratamiento químico de las células para medir la cantidad de LDH liberada y determinar el curso temporal de la toxicidad. Si bien el ensayo de liberación de LDH es una evaluación muy general de la citotoxicidad, es útil porque es fácil de realizar y se puede realizar en tiempo real.

Se están desarrollando muchos métodos nuevos para detectar daño celular. Los métodos más sofisticados emplean sondas fluorescentes para medir una variedad de parámetros intracelulares, como la liberación de calcio y los cambios en el pH y el potencial de membrana. En general, estas sondas son muy sensibles y pueden detectar cambios celulares más sutiles, lo que reduce la necesidad de utilizar la muerte celular como criterio de valoración. Además, muchos de estos ensayos fluorescentes pueden automatizarse mediante el uso de placas de 96 pocillos y lectores de placas fluorescentes.

Una vez que se han recopilado los datos sobre una serie de productos químicos usando una de estas pruebas, se pueden determinar las toxicidades relativas. La toxicidad relativa de una sustancia química, determinada en una prueba in vitro, puede expresarse como la concentración que ejerce un efecto del 50 % sobre la respuesta de punto final de las células no tratadas. Esta determinación se conoce como la CE50 (Eefectivo Cconcentración para 50% de las células) y se puede utilizar para comparar la toxicidad de diferentes productos químicos in vitro. (Un término similar utilizado para evaluar la toxicidad relativa es IC50, que indica la concentración de una sustancia química que provoca una inhibición del 50 % de un proceso celular, por ejemplo, la capacidad de absorber el rojo neutro). No es fácil evaluar si la toxicidad relativa in vitro de las sustancias químicas es comparable a su relativa en toxicidades vivo, ya que hay tantos factores de confusión en el sistema in vivo, como la toxicocinética, el metabolismo, la reparación y los mecanismos de defensa. Además, dado que la mayoría de estos ensayos miden puntos finales generales de citotoxicidad, no se basan en mecanismos. Por lo tanto, la concordancia entre las toxicidades relativas in vitro e in vivo es simplemente correlativa. A pesar de las numerosas complejidades y dificultades en la extrapolación de in vitro a in vivo, estas pruebas in vitro están demostrando ser muy valiosas porque son simples y económicas de realizar y pueden usarse como pantallas para detectar drogas o productos químicos altamente tóxicos en las primeras etapas de desarrollo.

Toxicidad en órganos diana

Las pruebas in vitro también se pueden utilizar para evaluar la toxicidad específica de órganos diana. Hay una serie de dificultades asociadas con el diseño de tales pruebas, siendo la más notable la incapacidad de los sistemas in vitro para mantener muchas de las características del órgano in vivo. Con frecuencia, cuando las células se toman de animales y se colocan en cultivo, tienden a degenerar rápidamente y/o a desdiferenciarse, es decir, pierden sus funciones similares a las de los órganos y se vuelven más genéricas. Esto presenta el problema de que dentro de un corto período de tiempo, normalmente unos pocos días, los cultivos ya no son útiles para evaluar los efectos de una toxina en órganos específicos.

Muchos de estos problemas se están superando gracias a los recientes avances en biología molecular y celular. La información que se obtiene sobre el entorno celular in vivo puede utilizarse para modular las condiciones de cultivo in vitro. Desde mediados de la década de 1980, se han descubierto nuevos factores de crecimiento y citoquinas, y muchos de ellos ahora están disponibles comercialmente. La adición de estos factores a las células en cultivo ayuda a preservar su integridad y también puede ayudar a conservar funciones más diferenciadas durante períodos de tiempo más prolongados. Otros estudios básicos han aumentado el conocimiento de los requerimientos nutricionales y hormonales de las células en cultivo, de modo que se puedan formular nuevos medios. También se han realizado avances recientes en la identificación de matrices extracelulares tanto naturales como artificiales en las que se pueden cultivar células. El cultivo de células en estas diferentes matrices puede tener efectos profundos tanto en su estructura como en su función. Una gran ventaja derivada de este conocimiento es la capacidad de controlar de forma compleja el entorno de las células en cultivo y examinar individualmente los efectos de estos factores en los procesos celulares básicos y en sus respuestas a diferentes agentes químicos. En resumen, estos sistemas pueden proporcionar una gran comprensión de los mecanismos de toxicidad específicos de órganos.

Muchos estudios de toxicidad en órganos diana se llevan a cabo en células primarias, que por definición se aíslan recientemente de un órgano y, por lo general, exhiben una vida finita en cultivo. Hay muchas ventajas de tener cultivos primarios de un solo tipo de célula de un órgano para la evaluación de la toxicidad. Desde una perspectiva mecanicista, tales cultivos son útiles para estudiar objetivos celulares específicos de una sustancia química. En algunos casos, se pueden cultivar juntos dos o más tipos de células de un órgano, lo que proporciona la ventaja adicional de poder observar las interacciones célula-célula en respuesta a una toxina. Se han diseñado algunos sistemas de cocultivo para la piel de modo que formen una estructura tridimensional que se asemeje a la piel in vivo. También es posible cocultivar células de diferentes órganos, por ejemplo, hígado y riñón. Este tipo de cultivo sería útil para evaluar los efectos específicos en las células renales de una sustancia química que debe bioactivarse en el hígado.

Las herramientas de biología molecular también han jugado un papel importante en el desarrollo de líneas celulares continuas que pueden ser útiles para las pruebas de toxicidad en órganos diana. Estas líneas celulares se generan mediante la transfección de ADN en células primarias. En el procedimiento de transfección, las células y el ADN se tratan de manera que el ADN pueda ser absorbido por las células. El ADN suele ser de un virus y contiene un gen o genes que, cuando se expresan, permiten que las células se inmortalicen (es decir, sean capaces de vivir y crecer durante largos períodos de tiempo en cultivo). El ADN también puede diseñarse de manera que el gen inmortalizador sea controlado por un promotor inducible. La ventaja de este tipo de construcción es que las células se dividirán solo cuando reciban el estímulo químico apropiado para permitir la expresión del gen inmortalizador. Un ejemplo de tal construcción es el gen del antígeno T grande del virus Simian Virus 40 (SV40) (el gen inmortalizador), precedido por la región promotora del gen de la metalotioneína, que es inducida por la presencia de un metal en el medio de cultivo. Por lo tanto, después de transfectar el gen en las células, las células pueden tratarse con bajas concentraciones de zinc para estimular el promotor de MT y activar la expresión del gen del antígeno T. En estas condiciones, las células proliferan. Cuando se elimina el zinc del medio, las células dejan de dividirse y, en condiciones ideales, vuelven a un estado en el que expresan sus funciones específicas de tejido.

La capacidad de generar células inmortalizadas combinada con los avances en la tecnología de cultivo celular han contribuido en gran medida a la creación de líneas celulares de muchos órganos diferentes, incluidos el cerebro, el riñón y el hígado. Sin embargo, antes de que estas líneas celulares puedan usarse como sustitutos de los tipos de células de buena fe, deben caracterizarse cuidadosamente para determinar qué tan "normales" son realmente.

Otros sistemas in vitro para estudiar la toxicidad en órganos diana implican una complejidad creciente. A medida que los sistemas in vitro progresan en complejidad desde el cultivo de una sola célula hasta el cultivo de órganos completos, se vuelven más comparables con el medio in vivo, pero al mismo tiempo se vuelven mucho más difíciles de controlar dado el mayor número de variables. Por lo tanto, lo que se puede ganar al pasar a un nivel superior de organización se puede perder en la incapacidad del investigador para controlar el entorno experimental. La Tabla 1 compara algunas de las características de varios sistemas in vitro que se han utilizado para estudiar la hepatotoxicidad.

Tabla 1. Comparación de sistemas in vitro para estudios de hepatotoxicidad

System Complejidad
(nivel de interacción)
Capacidad para retener funciones específicas del hígado. Duración potencial del cultivo Habilidad para controlar el entorno.
Líneas celulares inmortalizadas algo de celda a celda (varía con la línea celular) pobre a bueno (varía con la línea celular) indefinido excelente,
Cultivos primarios de hepatocitos celda a celda regular a excelente (varía con las condiciones de cultivo) dias a semanas excelente,
Cocultivos de células hepáticas celda a celda (entre el mismo y diferentes tipos de células) bueno a excelente semanas. excelente,
Rebanadas de hígado célula a célula (entre todos los tipos de células) bueno a excelente horas a días candidato
Hígado aislado, perfundido de célula a célula (entre todos los tipos de células), e intra-órgano excelente, horas feria

 

Las rebanadas de tejido cortadas con precisión se utilizan cada vez más para estudios toxicológicos. Hay nuevos instrumentos disponibles que permiten al investigador cortar rebanadas uniformes de tejido en un ambiente estéril. Los cortes de tejido ofrecen alguna ventaja sobre los sistemas de cultivo celular en el sentido de que todos los tipos de células del órgano están presentes y mantienen su arquitectura in vivo y comunicación intercelular. Por lo tanto, se pueden realizar estudios in vitro para determinar el tipo de célula diana dentro de un órgano, así como para investigar la toxicidad específica del órgano diana. Una desventaja de los cortes es que degeneran rápidamente después de las primeras 24 horas de cultivo, principalmente debido a la mala difusión de oxígeno a las células en el interior de los cortes. Sin embargo, estudios recientes han indicado que se puede lograr una aireación más eficiente mediante una rotación suave. Esto, junto con el uso de un medio más complejo, permite que las rodajas sobrevivan hasta 96 horas.

Los explantes de tejido son similares en concepto a los cortes de tejido y también se pueden utilizar para determinar la toxicidad de los productos químicos en órganos diana específicos. Los explantes de tejido se establecen extrayendo un pequeño trozo de tejido (para estudios de teratogenicidad, un embrión intacto) y colocándolo en cultivo para su posterior estudio. Los cultivos de explantes han sido útiles para estudios de toxicidad a corto plazo que incluyen irritación y corrosividad en la piel, estudios de asbesto en la tráquea y estudios de neurotoxicidad en el tejido cerebral.

Los órganos perfundidos aislados también se pueden utilizar para evaluar la toxicidad en órganos diana. Estos sistemas ofrecen una ventaja similar a la de los cortes de tejido y los explantes en el sentido de que están presentes todos los tipos de células, pero sin el estrés que suponen para el tejido las manipulaciones implicadas en la preparación de los cortes. Además, permiten el mantenimiento de interacciones intraorgánicas. Una desventaja importante es su viabilidad a corto plazo, lo que limita su uso para pruebas de toxicidad in vitro. En términos de servir como una alternativa, estos cultivos pueden considerarse un refinamiento ya que los animales no experimentan las consecuencias adversas del tratamiento in vivo con tóxicos. Sin embargo, su uso no disminuye significativamente el número de animales necesarios.

En resumen, hay varios tipos de sistemas in vitro disponibles para evaluar la toxicidad en órganos diana. Es posible adquirir mucha información sobre los mecanismos de toxicidad usando una o más de estas técnicas. La dificultad permanece en saber cómo extrapolar de un sistema in vitro, que representa una parte relativamente pequeña del proceso toxicológico, a todo el proceso que ocurre in vivo.

Pruebas in vitro para la irritación ocular

Quizás la prueba de toxicidad en animales enteros más polémica desde la perspectiva del bienestar animal es la prueba Draize para la irritación ocular, que se realiza en conejos. En esta prueba, se coloca una pequeña dosis fija de un químico en uno de los ojos del conejo mientras que el otro ojo se usa como control. El grado de irritación e inflamación se puntúa en varios momentos después de la exposición. Se está haciendo un gran esfuerzo para desarrollar metodologías que sustituyan a esta prueba, que ha sido criticada no solo por razones humanas, sino también por la subjetividad de las observaciones y la variabilidad de los resultados. Es interesante señalar que, a pesar de las duras críticas que ha recibido la prueba de Draize, ha demostrado tener un éxito notable en la predicción de los irritantes oculares humanos, en particular las sustancias ligeramente o moderadamente irritantes, que son difíciles de identificar por otros métodos. Por lo tanto, las demandas de alternativas in vitro son grandes.

La búsqueda de alternativas a la prueba de Draize es complicada, aunque se prevé que tenga éxito. Se han desarrollado numerosas alternativas in vitro y de otro tipo y en algunos casos se han implementado. Las alternativas de refinamiento a la prueba Draize, que por definición son menos dolorosas o angustiosas para los animales, incluyen la prueba ocular de bajo volumen, en la que se colocan cantidades más pequeñas de materiales de prueba en los ojos de los conejos, no solo por razones humanitarias, sino también para imitar más de cerca las cantidades a las que las personas pueden estar realmente expuestas accidentalmente. Otro refinamiento es que las sustancias que tienen un pH inferior a 2 o superior a 11.5 ya no se prueban en animales, ya que se sabe que irritan gravemente los ojos.

Entre 1980 y 1989, hubo una disminución estimada del 87% en el número de conejos utilizados para las pruebas de irritación ocular de los cosméticos. Las pruebas in vitro se han incorporado como parte de un enfoque de pruebas por niveles para lograr esta gran reducción en las pruebas con animales completos. Este enfoque es un proceso de varios pasos que comienza con un examen exhaustivo de los datos históricos de irritación ocular y el análisis físico y químico de la sustancia química que se va a evaluar. Si estos dos procesos no arrojan suficiente información, se realiza una batería de pruebas in vitro. Los datos adicionales obtenidos de las pruebas in vitro podrían entonces ser suficientes para evaluar la seguridad de la sustancia. De lo contrario, el paso final sería realizar pruebas in vivo limitadas. Es fácil ver cómo este enfoque puede eliminar o al menos reducir drásticamente el número de animales necesarios para predecir la seguridad de una sustancia de prueba.

La batería de pruebas in vitro que se utiliza como parte de esta estrategia de prueba por niveles depende de las necesidades de la industria en particular. Las pruebas de irritación ocular se realizan en una amplia variedad de industrias, desde cosmética hasta productos farmacéuticos y productos químicos industriales. El tipo de información requerida por cada industria varía y por lo tanto no es posible definir una sola batería de pruebas in vitro. Una batería de pruebas generalmente está diseñada para evaluar cinco parámetros: citotoxicidad, cambios en la fisiología y bioquímica del tejido, relaciones cuantitativas entre estructura y actividad, mediadores de inflamación y recuperación y reparación. Un ejemplo de una prueba de citotoxicidad, que es una posible causa de irritación, es el ensayo de rojo neutro que usa células cultivadas (ver arriba). Los cambios en la fisiología celular y la bioquímica resultantes de la exposición a una sustancia química pueden analizarse en cultivos de células epiteliales corneales humanas. Alternativamente, los investigadores también han utilizado globos oculares de bovinos o pollos intactos o disecados obtenidos de los mataderos. Muchos de los criterios de valoración medidos en estos cultivos de órganos completos son los mismos que los medidos in vivo, como la opacidad de la córnea y la hinchazón de la córnea.

La inflamación es con frecuencia un componente de las lesiones oculares inducidas por sustancias químicas y hay varios ensayos disponibles para examinar este parámetro. Diversos ensayos bioquímicos detectan la presencia de mediadores liberados durante el proceso inflamatorio como el ácido araquidónico y las citoquinas. La membrana corioalantoidea (CAM) del huevo de gallina también se puede utilizar como indicador de inflamación. En el ensayo CAM, se extrae un pequeño trozo de la cáscara de un embrión de pollo de diez a 14 días para exponer la CAM. A continuación, se aplica el producto químico a la CAM y se puntúan los signos de inflamación, como hemorragia vascular, en varios momentos posteriores.

Uno de los procesos in vivo más difíciles de evaluar in vitro es la recuperación y reparación de lesiones oculares. Un instrumento recientemente desarrollado, el microfisiómetro de silicio, mide pequeños cambios en el pH extracelular y puede usarse para monitorear células cultivadas en tiempo real. Se ha demostrado que este análisis se correlaciona bastante bien con la recuperación in vivo y se ha utilizado como prueba in vitro para este proceso. Este ha sido un breve resumen de los tipos de pruebas que se emplean como alternativas a la prueba de Draize para la irritación ocular. Es probable que en los próximos años se defina una serie completa de baterías de pruebas in vitro y cada una se valide para su propósito específico.

Validación

La clave para la aceptación regulatoria y la implementación de metodologías de prueba in vitro es la validación, el proceso mediante el cual se establece la credibilidad de una prueba candidata para un propósito específico. Se han realizado esfuerzos para definir y coordinar el proceso de validación tanto en los Estados Unidos como en Europa. La Unión Europea estableció el Centro Europeo para la Validación de Métodos Alternativos (ECVAM) en 1993 para coordinar esfuerzos allí e interactuar con organizaciones estadounidenses como el Johns Hopkins Center for Alternatives to Animal Testing (CAAT), un centro académico en los Estados Unidos. , y el Comité Coordinador Interinstitucional para la Validación de Métodos Alternativos (ICCVAM), compuesto por representantes de los Institutos Nacionales de Salud, la Agencia de Protección Ambiental de EE. UU., la Administración de Drogas y Alimentos de EE. UU. y la Comisión de Seguridad de Productos de Consumo.

La validación de las pruebas in vitro requiere una organización y planificación sustanciales. Debe haber consenso entre los reguladores gubernamentales y los científicos académicos e industriales sobre los procedimientos aceptables, y la supervisión suficiente por parte de un consejo asesor científico para garantizar que los protocolos cumplan con los estándares establecidos. Los estudios de validación deben realizarse en una serie de laboratorios de referencia utilizando conjuntos calibrados de productos químicos de un banco químico y células o tejidos de una sola fuente. Tanto la repetibilidad intralaboratorio como la reproducibilidad entre laboratorios de una prueba candidata deben demostrarse y los resultados deben someterse a un análisis estadístico apropiado. Una vez que se han compilado los resultados de los diferentes componentes de los estudios de validación, el consejo asesor científico puede hacer recomendaciones sobre la validez de la(s) prueba(s) candidata(s) para un propósito específico. Además, los resultados de los estudios deben publicarse en revistas revisadas por pares y colocarse en una base de datos.

La definición del proceso de validación es actualmente un trabajo en progreso. Cada nuevo estudio de validación proporcionará información útil para el diseño del próximo estudio. La comunicación y la cooperación internacionales son esenciales para el rápido desarrollo de una serie de protocolos ampliamente aceptables, particularmente dada la mayor urgencia impuesta por la aprobación de la Directiva de Cosméticos de la CE. De hecho, esta legislación puede proporcionar el impulso necesario para emprender un esfuerzo serio de validación. Solo a través de la finalización de este proceso puede comenzar la aceptación de los métodos in vitro por parte de las diversas comunidades reguladoras.

Conclusión

Este artículo ha proporcionado una visión general amplia del estado actual de las pruebas de toxicidad in vitro. La ciencia de la toxicología in vitro es relativamente joven, pero está creciendo exponencialmente. El desafío para los próximos años es incorporar el conocimiento mecanicista generado por los estudios celulares y moleculares al vasto inventario de datos in vivo para proporcionar una descripción más completa de los mecanismos toxicológicos, así como para establecer un paradigma mediante el cual se puedan utilizar los datos in vitro. para predecir la toxicidad in vivo. Solo será a través de los esfuerzos concertados de toxicólogos y representantes gubernamentales que se podrá realizar el valor inherente de estos métodos in vitro.

 

Atrás

Domingo, enero 16 2011 18: 49

Evaluación de toxicidad genética

La evaluación de la toxicidad genética es la evaluación de los agentes por su capacidad para inducir cualquiera de los tres tipos generales de cambios (mutaciones) en el material genético (ADN): genético, cromosómico y genómico. En organismos como los humanos, los genes están compuestos de ADN, que consta de unidades individuales llamadas bases de nucleótidos. Los genes están dispuestos en estructuras físicas discretas llamadas cromosomas. La genotoxicidad puede tener efectos significativos e irreversibles sobre la salud humana. El daño genotóxico es un paso crítico en la inducción del cáncer y también puede estar involucrado en la inducción de defectos de nacimiento y muerte fetal. Las tres clases de mutaciones mencionadas anteriormente pueden ocurrir dentro de cualquiera de los dos tipos de tejidos que poseen organismos como los humanos: espermatozoides u óvulos (células germinales) y el tejido restante (células somáticas).

Los ensayos que miden la mutación génica son aquellos que detectan la sustitución, adición o eliminación de nucleótidos dentro de un gen. Los ensayos que miden la mutación cromosómica son aquellos que detectan rupturas o reordenamientos cromosómicos que involucran uno o más cromosomas. Los ensayos que miden la mutación genómica son aquellos que detectan cambios en el número de cromosomas, una condición llamada aneuploidía. La evaluación de la toxicidad genética ha cambiado considerablemente desde el desarrollo por parte de Herman Muller en 1927 del primer ensayo para detectar agentes genotóxicos (mutagénicos). Desde entonces, se han desarrollado más de 200 ensayos que miden mutaciones en el ADN; sin embargo, menos de diez ensayos se utilizan comúnmente hoy en día para la evaluación de la toxicidad genética. Este artículo revisa estos ensayos, describe lo que miden y explora el papel de estos ensayos en la evaluación de la toxicidad.

Identificación de riesgos de cáncer antes del desarrollo del Campo de Toxicología Genética

La toxicología genética se ha convertido en una parte integral del proceso general de evaluación de riesgos y ha ganado prestigio en los últimos tiempos como predictor fiable de la actividad cancerígena. Sin embargo, antes del desarrollo de la toxicología genética (antes de 1970), se usaban y todavía se usan otros métodos para identificar los riesgos potenciales de cáncer para los humanos. Hay seis categorías principales de métodos utilizados actualmente para identificar los riesgos de cáncer humano: estudios epidemiológicos, bioensayos in vivo a largo plazo, bioensayos in vivo a mediano plazo, bioensayos in vivo e in vitro a corto plazo, inteligencia artificial (estructura-actividad), e inferencia basada en mecanismos.

La Tabla 1 muestra las ventajas y desventajas de estos métodos.

Tabla 1. Ventajas y desventajas de los métodos actuales para identificar los riesgos de cáncer en humanos

  Ventajas Desventajas
Estudios epidemiológicos (1) los humanos son los últimos indicadores de enfermedad;
(2) evaluar poblaciones sensibles o susceptibles;
(3) cohortes de exposición ocupacional; (4) alertas ambientales centinela
(1) generalmente retrospectivo (certificados de defunción, sesgos de recuerdo, etc.); (2) insensible, costoso, extenso; (3) datos de exposición confiables a veces no disponibles o difíciles de obtener; (4) exposiciones combinadas, múltiples y complejas; falta de cohortes de control apropiadas; (5) experimentos en humanos no realizados; (6) detección del cáncer, no prevención
Bioensayos in vivo a largo plazo (1) evaluaciones prospectivas y retrospectivas (validación); (2) excelente correlación con carcinógenos humanos identificados; (3) niveles de exposición y condiciones conocidas; (4) identifica la toxicidad química y los efectos cancerígenos; (5) resultados obtenidos con relativa rapidez; (6) comparaciones cualitativas entre clases químicas; (7) sistemas biológicos integrativos e interactivos relacionados estrechamente con los humanos (1) raramente replicado, intensivo en recursos; (3) instalaciones limitadas adecuadas para tales experimentos; (4) debate sobre la extrapolación de especies; (5) las exposiciones utilizadas se encuentran a menudo en niveles muy superiores a los que experimentan los seres humanos; (6) la exposición a un solo químico no imita la exposición humana, que generalmente es a múltiples químicos simultáneamente
Bioensayos in vivo e in vitro a medio y corto plazo (1) más rápido y menos costoso que otros ensayos; (2) muestras grandes que se replican fácilmente;
(3) se miden puntos finales biológicamente significativos (mutación, etc.); (4) se puede utilizar como ensayos de detección para seleccionar productos químicos para bioensayos a largo plazo
(1) in vitro no completamente predictivo de in vivo; (2) generalmente organismo u órgano específico; (3) potencias no comparables con animales completos o humanos
Asociaciones estructura química-actividad biológica (1) relativamente fácil, rápido y económico; (2) fiable para ciertas clases de productos químicos (p. ej., nitrosaminas y tintes de bencidina); (3) desarrollado a partir de datos biológicos pero no dependiente de experimentación biológica adicional (1) no “biológico”; (2) muchas excepciones a las reglas formuladas; (3) retrospectivo y rara vez (pero llegando a ser) prospectivo
Inferencias basadas en mecanismos (1) razonablemente precisa para ciertas clases de productos químicos; (2) permite refinamientos de hipótesis; (3) puede orientar las evaluaciones de riesgo a poblaciones sensibles (1) mecanismos de carcinogénesis química indefinidos, múltiples y probablemente específicos de una clase o sustancia química; (2) puede no resaltar las excepciones a los mecanismos generales

 

Justificación y base conceptual para los ensayos de toxicología genética

Aunque los tipos exactos y la cantidad de ensayos utilizados para la evaluación de la toxicidad genética están en constante evolución y varían de un país a otro, los más comunes incluyen ensayos para (1) mutaciones genéticas en bacterias y/o células de mamíferos cultivadas y (2) mutaciones cromosómicas en células de mamífero cultivadas y/o médula ósea dentro de ratones vivos. Algunos de los ensayos dentro de esta segunda categoría también pueden detectar aneuploidía. Aunque estos ensayos no detectan mutaciones en células germinales, se utilizan principalmente debido al costo adicional y la complejidad de realizar ensayos de células germinales. No obstante, los ensayos de células germinales en ratones se utilizan cuando se desea obtener información sobre los efectos de las células germinales.

Los estudios sistemáticos durante un período de 25 años (1970-1995), especialmente en el Programa Nacional de Toxicología de EE. UU. en Carolina del Norte, han resultado en el uso de un número discreto de ensayos para detectar la actividad mutagénica de los agentes. El fundamento para evaluar la utilidad de los ensayos se basó en su capacidad para detectar agentes que causan cáncer en roedores y que se sospecha que causan cáncer en humanos (es decir, carcinógenos). Esto se debe a que los estudios realizados durante las últimas décadas han indicado que las células cancerosas contienen mutaciones en ciertos genes y que muchos carcinógenos también son mutágenos. Por lo tanto, se considera que las células cancerosas contienen mutaciones de células somáticas, y la carcinogénesis se considera un tipo de mutagénesis de células somáticas.

Los ensayos de toxicidad genética que se utilizan más comúnmente en la actualidad se han seleccionado no solo por su gran base de datos, su costo relativamente bajo y su facilidad de ejecución, sino porque se ha demostrado que detectan muchos carcinógenos en roedores y, presumiblemente, en humanos. En consecuencia, los ensayos de toxicidad genética se utilizan para predecir la carcinogenicidad potencial de los agentes.

Un desarrollo conceptual y práctico importante en el campo de la toxicología genética fue el reconocimiento de que muchos carcinógenos fueron modificados por enzimas dentro del cuerpo, creando formas alteradas (metabolitos) que con frecuencia eran la forma carcinogénica y mutagénica final de la sustancia química original. Para duplicar este metabolismo en una placa de Petri, Heinrich Malling demostró que la inclusión de una preparación de hígado de roedor contenía muchas de las enzimas necesarias para realizar esta conversión o activación metabólica. Por lo tanto, muchos ensayos de toxicidad genética realizados en placas o tubos (in vitro) emplean la adición de preparaciones enzimáticas similares. Las preparaciones simples se denominan mezcla S9 y las preparaciones purificadas se denominan microsomas. Algunas células bacterianas y de mamíferos ahora han sido modificadas genéticamente para contener algunos de los genes de roedores o humanos que producen estas enzimas, lo que reduce la necesidad de agregar una mezcla S9 o microsomas.

Ensayos y técnicas de toxicología genética

Los principales sistemas bacterianos utilizados para la detección de toxicidad genética son el ensayo de mutagenicidad de Salmonella (Ames) y, en mucha menor medida, la cepa WP2 de Escherichia coli. Los estudios realizados a mediados de la década de 1980 indicaron que el uso de solo dos cepas del sistema de Salmonella (TA98 y TA100) fue suficiente para detectar aproximadamente el 90% de los mutágenos de Salmonella conocidos. Por lo tanto, estas dos cepas se utilizan para la mayoría de los fines de detección; sin embargo, varias otras cepas están disponibles para pruebas más extensas.

Estos ensayos se realizan de diversas formas, pero dos procedimientos generales son los ensayos de incorporación en placa y de suspensión líquida. En el ensayo de incorporación en placa, las células, la sustancia problema y (si se desea) el S9 se agregan en un agar licuado y se vierten sobre la superficie de una placa de Petri de agar. El agar superior se endurece en unos pocos minutos y las placas se incuban durante dos o tres días, después de lo cual las células mutantes han crecido para formar grupos de células detectables visualmente llamados colonias, que luego se cuentan. El medio de agar contiene agentes selectivos o está compuesto de ingredientes tales que solo crecerán las células recién mutadas. El ensayo de incubación líquida es similar, excepto que las células, el agente de prueba y S9 se incuban juntos en un líquido que no contiene agar licuado, y luego las células se lavan para eliminar el agente de prueba y S9 y se siembran en el agar.

Las mutaciones en células de mamífero cultivadas se detectan principalmente en uno de dos genes: hprt y tk. De manera similar a los ensayos bacterianos, las líneas celulares de mamíferos (desarrolladas a partir de células humanas o de roedores) se exponen al agente de prueba en placas o tubos de cultivo de plástico y luego se siembran en placas de cultivo que contienen un medio con un agente selectivo que permite que solo crezcan células mutantes. . Los ensayos utilizados para este propósito incluyen el CHO/HPRT, el TK6 y el linfoma de ratón L5178Y/TK+/- ensayos También se utilizan otras líneas celulares que contienen diversas mutaciones de reparación del ADN, así como algunos genes humanos implicados en el metabolismo. Estos sistemas permiten la recuperación de mutaciones dentro del gen (mutación del gen) así como mutaciones que involucran regiones del cromosoma que flanquean al gen (mutación cromosómica). Sin embargo, este último tipo de mutación es recuperada en mucha mayor medida por la tk sistemas de genes que por el hprt sistemas de genes debido a la ubicación de la tk .

Similar al ensayo de incubación líquida para mutagenicidad bacteriana, los ensayos de mutagenicidad en células de mamíferos generalmente implican la exposición de las células en placas o tubos de cultivo en presencia del agente de prueba y S9 durante varias horas. Luego, las células se lavan, se cultivan durante varios días más para permitir que los productos genéticos normales (de tipo salvaje) se degraden y los productos genéticos recién mutantes se expresen y acumulen, y luego se siembran en un medio que contiene un agente selectivo que permite sólo las células mutantes para crecer. Al igual que los ensayos bacterianos, las células mutantes crecen en colonias detectables visualmente que luego se cuentan.

La mutación cromosómica se identifica principalmente mediante ensayos citogenéticos, que implican la exposición de roedores y/o células humanas o de roedores en placas de cultivo a un producto químico de prueba, lo que permite que ocurran una o más divisiones celulares, la tinción de los cromosomas y luego el examen visual de los cromosomas a través de un microscopio. para detectar alteraciones en la estructura o número de cromosomas. Aunque se puede examinar una variedad de criterios de valoración, los dos que actualmente aceptan las agencias reguladoras como los más significativos son las aberraciones cromosómicas y una subcategoría llamada micronúcleos.

Se requiere una capacitación y experiencia considerables para evaluar la presencia de aberraciones cromosómicas en las células, lo que hace que este sea un procedimiento costoso en términos de tiempo y dinero. Por el contrario, los micronúcleos requieren poco entrenamiento y su detección puede automatizarse. Los micronúcleos aparecen como pequeños puntos dentro de la célula que son distintos del núcleo, que contiene los cromosomas. Los micronúcleos resultan de la rotura cromosómica o de la aneuploidía. Debido a la facilidad para calificar micronúcleos en comparación con las aberraciones cromosómicas, y debido a que estudios recientes indican que los agentes que inducen aberraciones cromosómicas en la médula ósea de ratones vivos generalmente inducen micronúcleos en este tejido, los micronúcleos ahora se miden comúnmente como una indicación de la capacidad de un agente para inducir la mutación cromosómica.

Aunque los ensayos de células germinales se usan con mucha menos frecuencia que los otros ensayos descritos anteriormente, son indispensables para determinar si un agente representa un riesgo para las células germinales, cuyas mutaciones pueden tener efectos en la salud de las generaciones futuras. Los ensayos de células germinales que se usan con más frecuencia son en ratones e involucran sistemas que detectan (1) translocaciones hereditarias (intercambios) entre cromosomas (ensayo de translocación heredable), (2) mutaciones genéticas o cromosómicas que involucran genes específicos (locus visible o bioquímico específico). ensayos), y (3) mutaciones que afectan la viabilidad (ensayo letal dominante). Al igual que con los ensayos de células somáticas, la suposición de trabajo con los ensayos de células germinales es que se presume que los agentes positivos en estos ensayos son mutágenos potenciales de células germinales humanas.

Estado actual y perspectivas futuras

Estudios recientes han indicado que solo se necesitaban tres piezas de información para detectar aproximadamente el 90% de un conjunto de 41 carcinógenos de roedores (es decir, presuntos carcinógenos humanos y mutágenos de células somáticas). Estos incluían (1) el conocimiento de la estructura química del agente, especialmente si contiene restos electrofílicos (ver la sección sobre relaciones estructura-actividad); (2) datos de mutagenicidad de Salmonella; y (3) datos de un ensayo de toxicidad crónica de 90 días en roedores (ratones y ratas). De hecho, esencialmente todos los carcinógenos humanos declarados por la IARC son detectables como mutágenos utilizando solo el ensayo de Salmonella y el ensayo de micronúcleo de médula ósea de ratón. El uso de estos ensayos de mutagenicidad para detectar carcinógenos humanos potenciales está respaldado por el hallazgo de que la mayoría de los carcinógenos humanos son carcinógenos tanto en ratas como en ratones (carcinógenos transespecies) y que la mayoría de los carcinógenos transespecies son mutagénicos en Salmonella y/o inducen micronúcleos. en médula ósea de ratón.

Con los avances en la tecnología del ADN, el proyecto del genoma humano y una mejor comprensión del papel de la mutación en el cáncer, se están desarrollando nuevos ensayos de genotoxicidad que probablemente se incorporarán a los procedimientos de detección estándar. Entre estos se encuentran el uso de células transgénicas y roedores. Los sistemas transgénicos son aquellos en los que se ha introducido un gen de otra especie en una célula u organismo. Por ejemplo, ahora se encuentran en uso experimental ratones transgénicos que permiten la detección de mutaciones en cualquier órgano o tejido del animal, basándose en la introducción de un gen bacteriano en el ratón. Las células bacterianas, como Salmonella, y las células de mamíferos (incluidas las líneas celulares humanas) ahora están disponibles y contienen genes implicados en el metabolismo de agentes cancerígenos/mutagénicos, como los genes P450. Análisis molecular de las mutaciones reales inducidas en el gen trans dentro de roedores transgénicos, o dentro de genes nativos como hprt, o los genes objetivo dentro de Salmonella ahora se pueden realizar, de modo que se pueda determinar la naturaleza exacta de las mutaciones inducidas por los productos químicos, proporcionando información sobre el mecanismo de acción del producto químico y permitiendo comparaciones con mutaciones en humanos presuntamente expuestos al agente. .

Los avances moleculares en citogenética ahora permiten una evaluación más detallada de las mutaciones cromosómicas. Estos incluyen el uso de sondas (pequeños fragmentos de ADN) que se adhieren (hibridan) a genes específicos. Los reordenamientos de genes en el cromosoma pueden revelarse luego por la ubicación alterada de las sondas, que son fluorescentes y se visualizan fácilmente como sectores coloreados en los cromosomas. El ensayo de electroforesis en gel unicelular para rotura de ADN (comúnmente llamado ensayo “cometa”) permite la detección de roturas de ADN dentro de células individuales y puede convertirse en una herramienta extremadamente útil en combinación con técnicas citogenéticas para detectar daño cromosómico.

Después de muchos años de uso y la generación de una gran base de datos desarrollada sistemáticamente, la evaluación de la toxicidad genética ahora se puede realizar con solo unos pocos ensayos a un costo relativamente pequeño en un período corto de tiempo (unas pocas semanas). Los datos producidos se pueden utilizar para predecir la capacidad de un agente para ser un roedor y, presumiblemente, carcinógeno humano/mutágeno de células somáticas. Tal capacidad hace posible limitar la introducción en el medio ambiente de agentes mutagénicos y cancerígenos y desarrollar agentes no mutagénicos alternativos. Los estudios futuros deberían conducir a métodos aún mejores con mayor predictibilidad que los ensayos actuales.

 

Atrás

Domingo, enero 16 2011 18: 45

Biomarcadores

La palabra biomarcador es la abreviatura de marcador biológico, un término que se refiere a un evento medible que ocurre en un sistema biológico, como el cuerpo humano. Este evento se interpreta entonces como un reflejo, o marcador, de un estado más general del organismo o de la esperanza de vida. En salud ocupacional, un biomarcador se usa generalmente como un indicador del estado de salud o riesgo de enfermedad.

Los biomarcadores se utilizan para estudios in vitro e in vivo que pueden incluir seres humanos. Por lo general, se identifican tres tipos específicos de marcadores biológicos. Aunque algunos biomarcadores pueden ser difíciles de clasificar, por lo general se dividen en biomarcadores de exposición, biomarcadores de efecto o biomarcadores de susceptibilidad (ver tabla 1).

Tabla 1. Ejemplos de biomarcadores de exposición o biomarcadores de efecto que se utilizan en estudios toxicológicos en salud ocupacional

Muestra Measurement Propósito
Biomarcadores de exposición
Tejido adiposo dioxina Exposición a dioxinas
Sangre Lidera Exposición al plomo
Hueso Aluminio exposición al aluminio
aliento exhalado tolueno Exposición al tolueno
Cabello Mercurio Exposición al metilmercurio
Serum Benceno Exposición al benceno
Orina Fenol Exposición al benceno
Biomarcadores de efecto
Sangre Carboxihemoglobina Exposición al monóxido de carbono
las células rojas de la sangre Zinc-protoporfirina Exposición al plomo
Serum Colinesterasa Exposición a organofosforados
Orina Microglobulinas Exposición nefrotóxica
Los glóbulos blancos aductos de ADN Exposición a mutágenos

 

Dado un grado aceptable de validez, los biomarcadores pueden emplearse para varios propósitos. De forma individual, un biomarcador se puede usar para respaldar o refutar un diagnóstico de un tipo particular de envenenamiento u otro efecto adverso inducido químicamente. En un sujeto sano, un biomarcador también puede reflejar la hipersusceptibilidad individual a exposiciones químicas específicas y, por lo tanto, puede servir como base para la predicción del riesgo y el asesoramiento. En grupos de trabajadores expuestos, se pueden aplicar algunos biomarcadores de exposición para evaluar el grado de cumplimiento de las normas de reducción de la contaminación o la eficacia de los esfuerzos preventivos en general.

Biomarcadores de exposición

Un biomarcador de exposición puede ser un compuesto exógeno (o un metabolito) dentro del cuerpo, un producto interactivo entre el compuesto (o metabolito) y un componente endógeno u otro evento relacionado con la exposición. Más comúnmente, los biomarcadores de exposición a compuestos estables, como metales, comprenden mediciones de las concentraciones de metales en muestras apropiadas, como sangre, suero u orina. Con productos químicos volátiles, se puede evaluar su concentración en el aliento exhalado (después de la inhalación de aire libre de contaminación). Si el compuesto se metaboliza en el cuerpo, se pueden elegir uno o más metabolitos como biomarcador de la exposición; los metabolitos a menudo se determinan en muestras de orina.

Los métodos modernos de análisis pueden permitir la separación de isómeros o congéneres de compuestos orgánicos y la determinación de la especiación de compuestos metálicos o proporciones isotópicas de ciertos elementos. Los análisis sofisticados permiten la determinación de cambios en la estructura del ADN u otras macromoléculas causados ​​por la unión con químicos reactivos. Estas técnicas avanzadas sin duda ganarán una importancia considerable para las aplicaciones en estudios de biomarcadores, y es probable que los límites de detección más bajos y una mejor validez analítica hagan que estos biomarcadores sean aún más útiles.

Se han producido desarrollos particularmente prometedores con biomarcadores de exposición a sustancias químicas mutagénicas. Estos compuestos son reactivos y pueden formar aductos con macromoléculas, como proteínas o ADN. Los aductos de ADN se pueden detectar en los glóbulos blancos o en las biopsias de tejido, y se pueden excretar fragmentos de ADN específicos en la orina. Por ejemplo, la exposición al óxido de etileno da como resultado reacciones con bases de ADN y, después de la escisión de la base dañada, la N-7-(2-hidroxietil)guanina se eliminará en la orina. Algunos aductos pueden no referirse directamente a una exposición en particular. Por ejemplo, la 8-hidroxi-2´-desoxiguanosina refleja el daño oxidativo del ADN, y esta reacción puede desencadenarse por varios compuestos químicos, la mayoría de los cuales también inducen la peroxidación lipídica.

Otras macromoléculas también pueden cambiar por formación de aductos u oxidación. De especial interés, tales compuestos reactivos pueden generar aductos de hemoglobina que pueden determinarse como biomarcadores de exposición a los compuestos. La ventaja es que se pueden obtener grandes cantidades de hemoglobina de una muestra de sangre y, dada la vida útil de cuatro meses de los glóbulos rojos, los aductos formados con los aminoácidos de la proteína indicarán la exposición total durante este período.

Los aductos pueden determinarse mediante técnicas sensibles, como la cromatografía de lípidos de alta resolución, y también están disponibles algunos métodos inmunológicos. En general, los métodos analíticos son nuevos, costosos y necesitan mayor desarrollo y validación. Se puede obtener una mejor sensibilidad utilizando el 32P ensayo posterior al etiquetado, que es una indicación no específica de que se ha producido daño en el ADN. Todas estas técnicas son potencialmente útiles para el control biológico y se han aplicado en un número creciente de estudios. Sin embargo, se necesitan métodos analíticos más simples y sensibles. Dada la especificidad limitada de algunos métodos a exposiciones de bajo nivel, el tabaquismo u otros factores pueden tener un impacto significativo en los resultados de la medición, lo que provoca dificultades en la interpretación.

La exposición a compuestos mutagénicos, oa compuestos que se metabolizan en mutágenos, también puede determinarse evaluando la mutagenicidad de la orina de un individuo expuesto. La muestra de orina se incuba con una cepa de bacterias en la que se expresa una mutación puntual específica de una manera que se puede medir fácilmente. Si las sustancias químicas mutagénicas están presentes en la muestra de orina, se producirá una mayor tasa de mutaciones en las bacterias.

Los biomarcadores de exposición deben evaluarse con respecto a la variación temporal de la exposición y la relación con los diferentes compartimentos. Por lo tanto, los marcos de tiempo representados por el biomarcador, es decir, la medida en que la medición del biomarcador refleja exposiciones pasadas y/o carga corporal acumulada, deben determinarse a partir de datos toxicocinéticos para interpretar el resultado. En particular, se debe considerar el grado en que el biomarcador indica retención en órganos diana específicos. Aunque las muestras de sangre se utilizan a menudo para estudios de biomarcadores, la sangre periférica generalmente no se considera un compartimento como tal, aunque actúa como medio de transporte entre compartimentos. El grado en que la concentración en la sangre refleja los niveles en diferentes órganos varía ampliamente entre los diferentes productos químicos y, por lo general, también depende de la duración de la exposición, así como del tiempo transcurrido desde la exposición.

A veces, este tipo de evidencia se usa para clasificar un biomarcador como un indicador de la dosis absorbida (total) o un indicador de la dosis efectiva (es decir, la cantidad que ha llegado al tejido objetivo). Por ejemplo, la exposición a un solvente particular puede evaluarse a partir de datos sobre la concentración real del solvente en la sangre en un momento particular después de la exposición. Esta medida reflejará la cantidad de disolvente que se ha absorbido en el cuerpo. Parte de la cantidad absorbida será exhalada debido a la presión de vapor del solvente. Mientras circula en la sangre, el solvente interactuará con varios componentes del cuerpo y eventualmente se verá sujeto a la descomposición por parte de las enzimas. El resultado de los procesos metabólicos se puede evaluar determinando los ácidos mercaptúricos específicos producidos por conjugación con glutatión. La excreción acumulada de ácidos mercaptúricos puede reflejar mejor la dosis efectiva que la concentración en sangre.

Los eventos de la vida, como la reproducción y la senescencia, pueden afectar la distribución de una sustancia química. La distribución de sustancias químicas dentro del cuerpo se ve significativamente afectada por el embarazo, y muchas sustancias químicas pueden atravesar la barrera placentaria, lo que provoca la exposición del feto. La lactancia puede provocar la excreción de sustancias químicas solubles en lípidos, lo que conduce a una disminución de la retención en la madre junto con una mayor absorción por parte del lactante. Durante la pérdida de peso o el desarrollo de la osteoporosis, se pueden liberar sustancias químicas almacenadas, lo que puede resultar en una exposición “endógena” renovada y prolongada de los órganos diana. Otros factores pueden afectar la absorción individual, el metabolismo, la retención y la distribución de compuestos químicos, y algunos biomarcadores de susceptibilidad están disponibles (ver más abajo).

Biomarcadores de efecto

Un marcador de efecto puede ser un componente endógeno, o una medida de la capacidad funcional, o algún otro indicador del estado o equilibrio del cuerpo o sistema de órganos, según se vea afectado por la exposición. Dichos marcadores de efecto son generalmente indicadores preclínicos de anomalías.

Estos biomarcadores pueden ser específicos o no específicos. Los biomarcadores específicos son útiles porque indican un efecto biológico de una exposición particular, proporcionando así evidencia que potencialmente puede usarse con fines preventivos. Los biomarcadores no específicos no apuntan a una causa individual del efecto, pero pueden reflejar el efecto total integrado debido a una exposición mixta. Por lo tanto, ambos tipos de biomarcadores pueden tener un uso considerable en salud ocupacional.

No existe una distinción clara entre biomarcadores de exposición y biomarcadores de efecto. Por ejemplo, podría decirse que la formación de aductos refleja un efecto en lugar de la exposición. Sin embargo, los biomarcadores de efectos suelen indicar cambios en las funciones de las células, los tejidos o el cuerpo en su totalidad. Algunos investigadores incluyen cambios importantes, como un aumento en el peso del hígado de los animales de laboratorio expuestos o una disminución del crecimiento en los niños, como biomarcadores del efecto. A los efectos de la salud ocupacional, los biomarcadores de efectos deben restringirse a aquellos que indican cambios bioquímicos subclínicos o reversibles, como la inhibición de enzimas. El biomarcador de efecto más utilizado es probablemente la inhibición de la colinesterasa provocada por ciertos insecticidas, es decir, los organofosforados y los carbamatos. En la mayoría de los casos, este efecto es completamente reversible y la inhibición de la enzima refleja la exposición total a este grupo particular de insecticidas.

Algunas exposiciones no dan como resultado la inhibición de la enzima, sino más bien un aumento de la actividad de una enzima. Este es el caso de varias enzimas que pertenecen a la familia P450 (ver “Determinantes genéticos de la respuesta tóxica”). Pueden ser inducidos por la exposición a ciertos solventes e hidrocarburos poliaromáticos (HAP). Dado que estas enzimas se expresan principalmente en tejidos de los que puede ser difícil obtener una biopsia, la actividad enzimática se determina indirectamente in vivo mediante la administración de un compuesto que es metabolizado por esa enzima en particular, y luego el producto de descomposición se mide en orina o plasma.

Otras exposiciones pueden inducir la síntesis de una proteína protectora en el cuerpo. El mejor ejemplo es probablemente la metalotioneína, que se une al cadmio y promueve la excreción de este metal; La exposición al cadmio es uno de los factores que dan como resultado una mayor expresión del gen de la metalotioneína. Es posible que existan proteínas protectoras similares, pero aún no se han explorado lo suficiente como para ser aceptadas como biomarcadores. Entre los candidatos para su posible uso como biomarcadores se encuentran las denominadas proteínas de estrés, originalmente denominadas proteínas de choque térmico. Estas proteínas son generadas por una variedad de organismos diferentes en respuesta a una variedad de exposiciones adversas.

El daño oxidativo se puede evaluar determinando la concentración de malondialdehído en suero o la exhalación de etano. Del mismo modo, la excreción urinaria de proteínas de bajo peso molecular, como la albúmina, puede utilizarse como biomarcador de daño renal temprano. Varios parámetros que se utilizan habitualmente en la práctica clínica (por ejemplo, los niveles séricos de hormonas o enzimas) también pueden ser útiles como biomarcadores. Sin embargo, muchos de estos parámetros pueden no ser lo suficientemente sensibles para detectar un deterioro temprano.

Otro grupo de parámetros de efecto se relaciona con los efectos genotóxicos (cambios en la estructura de los cromosomas). Dichos efectos pueden detectarse mediante microscopía de glóbulos blancos que se someten a división celular. El daño grave a los cromosomas (aberraciones cromosómicas o formación de micronúcleos) se puede ver en un microscopio. El daño también puede revelarse agregando un tinte a las células durante la división celular. La exposición a un agente genotóxico puede visualizarse entonces como un mayor intercambio del tinte entre las dos cromátidas de cada cromosoma (intercambio de cromátidas hermanas). Las aberraciones cromosómicas están relacionadas con un mayor riesgo de desarrollar cáncer, pero la importancia de una mayor tasa de intercambio de cromátidas hermanas es menos clara.

La evaluación más sofisticada de la genotoxicidad se basa en mutaciones puntuales particulares en las células somáticas, es decir, glóbulos blancos o células epiteliales obtenidas de la mucosa oral. Una mutación en un locus específico puede hacer que las células sean capaces de crecer en un cultivo que contenga una sustancia química que de otro modo sería tóxica (como la 6-tioguanina). Alternativamente, se puede evaluar un producto génico específico (p. ej., concentraciones séricas o tisulares de oncoproteínas codificadas por oncogenes particulares). Obviamente, estas mutaciones reflejan el daño genotóxico total sufrido y no indican necesariamente nada sobre la exposición causante. Estos métodos aún no están listos para su uso práctico en salud ocupacional, pero el rápido progreso en esta línea de investigación sugiere que tales métodos estarán disponibles dentro de algunos años.

Biomarcadores de Susceptibilidad

Un marcador de susceptibilidad, ya sea heredado o inducido, es un indicador de que el individuo es particularmente sensible al efecto de un xenobiótico oa los efectos de un grupo de dichos compuestos. La mayor parte de la atención se ha centrado en la susceptibilidad genética, aunque otros factores pueden ser al menos tan importantes. La hipersusceptibilidad puede deberse a un rasgo heredado, la constitución del individuo o factores ambientales.

La capacidad de metabolizar ciertas sustancias químicas es variable y está determinada genéticamente (ver “Determinantes genéticos de la respuesta tóxica”). Varias enzimas relevantes parecen estar controladas por un solo gen. Por ejemplo, la oxidación de productos químicos extraños se lleva a cabo principalmente por una familia de enzimas que pertenecen a la familia P450. Otras enzimas hacen que los metabolitos sean más solubles en agua por conjugación (p. ej., N-acetiltransferasa y μ-glutatión-S-transferasa). La actividad de estas enzimas está controlada genéticamente y varía considerablemente. Como se mencionó anteriormente, la actividad se puede determinar administrando una pequeña dosis de un fármaco y luego determinando la cantidad del metabolito en la orina. Algunos de los genes ya se han caracterizado y se dispone de técnicas para determinar el genotipo. Importantes estudios sugieren que el riesgo de desarrollar ciertas formas de cáncer está relacionado con la capacidad de metabolizar compuestos extraños. Muchas preguntas siguen sin respuesta, lo que en este momento limita el uso de estos biomarcadores de susceptibilidad potencial en la salud ocupacional.

Otros rasgos heredados, como alfa1-la deficiencia de antitripsina o la deficiencia de glucosa-6-fosfato deshidrogenasa, también resultan en mecanismos de defensa deficientes en el cuerpo, lo que provoca hipersusceptibilidad a ciertas exposiciones.

La mayor parte de la investigación relacionada con la susceptibilidad se ha ocupado de la predisposición genética. Otros factores también juegan un papel y se han descuidado en parte. Por ejemplo, las personas con una enfermedad crónica pueden ser más sensibles a una exposición ocupacional. Además, si el proceso de una enfermedad o la exposición previa a sustancias químicas tóxicas ha causado algún daño orgánico subclínico, es probable que la capacidad para resistir una nueva exposición tóxica sea menor. Los indicadores bioquímicos de la función del órgano pueden utilizarse en este caso como biomarcadores de susceptibilidad. Quizás el mejor ejemplo con respecto a la hipersusceptibilidad se relaciona con las respuestas alérgicas. Si un individuo se ha sensibilizado a una exposición particular, se pueden detectar anticuerpos específicos en el suero. Incluso si el individuo no se ha sensibilizado, otras exposiciones actuales o pasadas pueden aumentar el riesgo de desarrollar un efecto adverso relacionado con una exposición ocupacional.

Un problema importante es determinar el efecto conjunto de las exposiciones mixtas en el trabajo. Además, los hábitos personales y el uso de drogas pueden resultar en una mayor susceptibilidad. Por ejemplo, el humo del tabaco suele contener una cantidad considerable de cadmio. Por lo tanto, con la exposición ocupacional al cadmio, un fumador empedernido que haya acumulado cantidades sustanciales de este metal en el cuerpo tendrá un mayor riesgo de desarrollar una enfermedad renal relacionada con el cadmio.

Aplicación en Salud Ocupacional

Los biomarcadores son extremadamente útiles en la investigación toxicológica y muchos pueden ser aplicables en el control biológico. Sin embargo, las limitaciones también deben ser reconocidas. Muchos biomarcadores hasta ahora se han estudiado solo en animales de laboratorio. Los patrones toxicocinéticos en otras especies pueden no reflejar necesariamente la situación en los seres humanos, y la extrapolación puede requerir estudios de confirmación en voluntarios humanos. Asimismo, se deben tener en cuenta las variaciones individuales debidas a factores genéticos o constitucionales.

En algunos casos, los biomarcadores de exposición pueden no ser factibles en absoluto (p. ej., para sustancias químicas que tienen una vida corta in vivo). Otros productos químicos pueden almacenarse en órganos a los que no se puede acceder mediante procedimientos de rutina, como el sistema nervioso, o pueden afectarlos. La ruta de exposición también puede afectar el patrón de distribución y, por lo tanto, también la medición del biomarcador y su interpretación. Por ejemplo, es probable que la exposición directa del cerebro a través del nervio olfativo escape a la detección mediante la medición de biomarcadores de exposición. En cuanto a los biomarcadores de efecto, muchos de ellos no son del todo específicos, y el cambio puede deberse a una variedad de causas, incluidos factores del estilo de vida. Tal vez, en particular con los biomarcadores de susceptibilidad, la interpretación debe ser muy cautelosa en este momento, ya que quedan muchas incertidumbres sobre la importancia general para la salud de los genotipos individuales.

En salud ocupacional, el biomarcador ideal debe cumplir varios requisitos. En primer lugar, la recogida y el análisis de muestras deben ser sencillos y fiables. Para una calidad analítica óptima, se necesita la estandarización, pero los requisitos específicos varían considerablemente. Las principales áreas de preocupación incluyen: preparación del individuo, procedimiento de muestreo y manejo de muestras, y procedimiento de medición; el último abarca factores técnicos, como los procedimientos de calibración y garantía de calidad, y factores relacionados con el individuo, como la educación y capacitación de los operadores.

Para la documentación de la validez analítica y la trazabilidad, los materiales de referencia deben basarse en matrices relevantes y con concentraciones apropiadas de sustancias tóxicas o metabolitos relevantes a niveles apropiados. Para que los biomarcadores se utilicen para monitoreo biológico o con fines de diagnóstico, los laboratorios responsables deben tener procedimientos analíticos bien documentados con características de desempeño definidas y registros accesibles que permitan la verificación de los resultados. Sin embargo, al mismo tiempo, se debe considerar la economía de caracterizar y usar materiales de referencia para complementar los procedimientos de garantía de calidad en general. Por lo tanto, la calidad alcanzable de los resultados y los usos que se les dan deben equilibrarse con los costos adicionales de la garantía de calidad, incluidos los materiales de referencia, la mano de obra y la instrumentación.

Otro requisito es que el biomarcador debe ser específico, al menos bajo las circunstancias del estudio, para un tipo particular de exposición, con una relación clara con el grado de exposición. De lo contrario, el resultado de la medición del biomarcador puede ser demasiado difícil de interpretar. Para una interpretación adecuada del resultado de la medición de un biomarcador de exposición, se debe conocer la validez del diagnóstico (es decir, la traducción del valor del biomarcador a la magnitud de los posibles riesgos para la salud). En esta área, los metales sirven como paradigma para la investigación de biomarcadores. Investigaciones recientes han demostrado la complejidad y sutileza de las relaciones dosis-respuesta, con considerable dificultad para identificar niveles sin efecto y, por lo tanto, también para definir exposiciones tolerables. Sin embargo, este tipo de investigación también ha ilustrado los tipos de investigación y el refinamiento que son necesarios para descubrir la información relevante. Para la mayoría de los compuestos orgánicos, aún no se dispone de asociaciones cuantitativas entre las exposiciones y los correspondientes efectos adversos para la salud; en muchos casos, incluso los órganos diana primarios no se conocen con certeza. Además, la evaluación de los datos de toxicidad y las concentraciones de biomarcadores a menudo se complica por la exposición a mezclas de sustancias, en lugar de la exposición a un solo compuesto en ese momento.

Antes de aplicar el biomarcador con fines de salud ocupacional, son necesarias algunas consideraciones adicionales. En primer lugar, el biomarcador debe reflejar únicamente un cambio subclínico y reversible. En segundo lugar, dado que los resultados de los biomarcadores pueden interpretarse con respecto a los riesgos para la salud, entonces los esfuerzos preventivos deben estar disponibles y deben considerarse realistas en caso de que los datos de los biomarcadores sugieran la necesidad de reducir la exposición. En tercer lugar, el uso práctico del biomarcador debe considerarse generalmente como éticamente aceptable.

Las medidas de higiene industrial pueden compararse con los límites de exposición aplicables. Asimismo, los resultados de los biomarcadores de exposición o los biomarcadores de efectos pueden compararse con los límites de acción biológicos, a veces denominados índices de exposición biológicos. Dichos límites deben basarse en el mejor asesoramiento de médicos y científicos de las disciplinas apropiadas, y los administradores responsables como "gestores de riesgos" deben tener en cuenta los factores éticos, sociales, culturales y económicos pertinentes. La base científica debe, si es posible, incluir relaciones dosis-respuesta complementadas con información sobre variaciones en la susceptibilidad dentro de la población en riesgo. En algunos países, los trabajadores y miembros del público en general están involucrados en el proceso de establecimiento de normas y brindan aportes importantes, particularmente cuando la incertidumbre científica es considerable. Una de las principales incertidumbres es cómo definir un efecto adverso para la salud que debe prevenirse; por ejemplo, si la formación de aductos como biomarcador de exposición por sí mismo representa un efecto adverso (es decir, un biomarcador de efecto) que debe prevenirse. Es probable que surjan preguntas difíciles al decidir si es éticamente defendible, para el mismo compuesto, tener diferentes límites para la exposición accidental, por un lado, y la exposición ocupacional, por el otro.

La información generada por el uso de biomarcadores generalmente debe transmitirse a las personas examinadas dentro de la relación médico-paciente. Las preocupaciones éticas deben considerarse en particular en relación con los análisis de biomarcadores altamente experimentales que actualmente no pueden interpretarse en detalle en términos de riesgos reales para la salud. Para la población en general, por ejemplo, actualmente existe una guía limitada con respecto a la interpretación de biomarcadores de exposición que no sean la concentración de plomo en la sangre. También es importante la confianza en los datos generados (es decir, si se ha realizado el muestreo apropiado y si se han utilizado procedimientos sólidos de garantía de calidad en el laboratorio involucrado). Un área adicional de especial preocupación se relaciona con la hipersusceptibilidad individual. Estas cuestiones deben tenerse en cuenta al proporcionar la retroalimentación del estudio.

Todos los sectores de la sociedad afectados o preocupados por la realización de un estudio de biomarcadores deben participar en el proceso de toma de decisiones sobre cómo manejar la información generada por el estudio. Se deben desarrollar procedimientos específicos para prevenir o superar conflictos éticos inevitables dentro de los marcos legales y sociales de la región o país. Sin embargo, cada situación representa un conjunto diferente de preguntas y peligros, y no se puede desarrollar un procedimiento único para la participación pública que cubra todas las aplicaciones de los biomarcadores de exposición.

 

Atrás

Domingo, enero 16 2011 18: 43

Toxicología de órganos diana

El estudio y la caracterización de sustancias químicas y otros agentes en cuanto a propiedades tóxicas a menudo se lleva a cabo sobre la base de órganos y sistemas de órganos específicos. En este capítulo, se han seleccionado dos objetivos para una discusión en profundidad: el sistema inmunitario y el gen. Estos ejemplos se eligieron para representar un sistema de órganos diana complejo y una diana molecular dentro de las células. Para una discusión más completa de la toxicología de los órganos diana, se remite al lector a los textos de toxicología estándar como Casarett y Doull, y Hayes. El Programa Internacional de Seguridad Química (IPCS) también ha publicado varios documentos de criterios sobre toxicología de órganos diana, por sistema de órganos.

Los estudios de toxicología de órganos diana suelen emprenderse sobre la base de información que indica el potencial de efectos tóxicos específicos de una sustancia, ya sea a partir de datos epidemiológicos o de estudios generales de toxicidad aguda o crónica, o sobre la base de preocupaciones especiales para proteger ciertas funciones de órganos, como como la reproducción o el desarrollo fetal. En algunos casos, las pruebas de toxicidad específica de órganos diana están expresamente exigidas por las autoridades legales, como las pruebas de neurotoxicidad bajo la ley de pesticidas de los EE. UU. Ley de Control de Sustancias (ver “Principios de identificación de peligros: El enfoque japonés”).

Como se discutió en "Órgano objetivo y efectos críticos", la identificación de un órgano crítico se basa en la detección del órgano o sistema de órganos que primero responde de manera adversa o a las dosis o exposiciones más bajas. Esta información luego se usa para diseñar investigaciones toxicológicas específicas o pruebas de toxicidad más definidas que están diseñadas para obtener indicaciones más sensibles de intoxicación en el órgano objetivo. Los estudios de toxicología de órganos diana también se pueden utilizar para determinar los mecanismos de acción, de uso en la evaluación de riesgos (consulte “El enfoque de los Estados Unidos para la evaluación de riesgos de sustancias tóxicas para la reproducción y agentes neurotóxicos”).

Métodos de estudios de toxicidad en órganos diana

Los órganos diana pueden estudiarse mediante la exposición de organismos intactos y un análisis detallado de la función y la histopatología en el órgano diana, o mediante la exposición in vitro de células, cortes de tejido u órganos completos mantenidos durante períodos cortos o largos en cultivo (consulte “Mecanismos de toxicología: Introducción y conceptos”). En algunos casos, los tejidos de sujetos humanos también pueden estar disponibles para estudios de toxicidad en órganos diana, y estos pueden brindar oportunidades para validar los supuestos de extrapolación entre especies. Sin embargo, debe tenerse en cuenta que dichos estudios no proporcionan información sobre la toxicocinética relativa.

En general, los estudios de toxicidad en órganos diana comparten las siguientes características comunes: examen histopatológico detallado del órgano diana, incluido el examen post mortem, el peso del tejido y el examen de tejidos fijados; estudios bioquímicos de vías críticas en el órgano diana, como importantes sistemas enzimáticos; estudios funcionales de la capacidad del órgano y los constituyentes celulares para realizar las funciones metabólicas y de otro tipo esperadas; y análisis de biomarcadores de exposición y efectos tempranos en células de órganos diana.

El conocimiento detallado de la fisiología, bioquímica y biología molecular de los órganos diana puede incorporarse en los estudios de órganos diana. Por ejemplo, debido a que la síntesis y secreción de proteínas de bajo peso molecular es un aspecto importante de la función renal, los estudios de nefrotoxicidad suelen prestar especial atención a estos parámetros (IPCS 1991). Debido a que la comunicación de célula a célula es un proceso fundamental de la función del sistema nervioso, los estudios de neurotoxicidad en órganos diana pueden incluir mediciones neuroquímicas y biofísicas detalladas de la síntesis, captación, almacenamiento, liberación y unión del receptor de neurotransmisores, así como mediciones electrofisiológicas de los cambios en la membrana. potencial asociado con estos eventos.

Se está poniendo un alto grado de énfasis en el desarrollo de métodos in vitro para la toxicidad de órganos diana, para reemplazar o reducir el uso de animales enteros. Se han logrado avances sustanciales en estos métodos para los tóxicos reproductivos (Heindel y Chapin 1993).

En resumen, los estudios de toxicidad en órganos diana se realizan generalmente como una prueba de orden superior para determinar la toxicidad. La selección de órganos objetivo específicos para una evaluación adicional depende de los resultados de las pruebas de nivel de detección, como las pruebas agudas o subcrónicas utilizadas por la OCDE y la Unión Europea; algunos órganos y sistemas de órganos diana pueden ser candidatos a priori para una investigación especial debido a la preocupación por prevenir ciertos tipos de efectos adversos para la salud.

 

Atrás

Domingo, enero 16 2011 18: 35

Inmunotoxicología

Las funciones del sistema inmunitario son proteger el cuerpo de agentes infecciosos invasores y proporcionar vigilancia inmunitaria contra las células tumorales que surgen. Tiene una primera línea de defensa que es inespecífica y que puede iniciar reacciones efectoras por sí mismo, y una rama específica adquirida, en la que los linfocitos y los anticuerpos llevan la especificidad de reconocimiento y posterior reactividad hacia el antígeno.

La inmunotoxicología ha sido definida como “la disciplina que se ocupa del estudio de los eventos que pueden conducir a efectos no deseados como resultado de la interacción de los xenobióticos con el sistema inmunológico. Estos eventos no deseados pueden resultar como consecuencia de (1) un efecto directo y/o indirecto del xenobiótico (y/o su producto de biotransformación) en el sistema inmunológico, o (2) una respuesta inmunológica del huésped al compuesto y/o su(s) metabolito(s), o antígenos del huésped modificados por el compuesto o sus metabolitos” (Berlin et al. 1987).

Cuando el sistema inmunitario actúa como un objetivo pasivo de las agresiones químicas, el resultado puede ser una disminución de la resistencia a la infección y ciertas formas de neoplasia, o una desregulación/estimulación inmunitaria que puede exacerbar la alergia o la autoinmunidad. En el caso de que el sistema inmunitario responda a la especificidad antigénica del xenobiótico o antígeno del huésped modificado por el compuesto, la toxicidad puede manifestarse como alergias o enfermedades autoinmunes.

Se han desarrollado modelos animales para investigar la supresión inmunitaria inducida por sustancias químicas y varios de estos métodos están validados (Burleson, Munson y Dean 1995; IPCS 1996). Para fines de prueba, se sigue un enfoque escalonado para hacer una selección adecuada de la abrumadora cantidad de ensayos disponibles. Generalmente, el objetivo del primer nivel es identificar posibles inmunotóxicos. Si se identifica una inmunotoxicidad potencial, se realiza un segundo nivel de análisis para confirmar y caracterizar aún más los cambios observados. Las investigaciones de tercer nivel incluyen estudios especiales sobre el mecanismo de acción del compuesto. Se han identificado varios xenobióticos como inmunotóxicos que causan inmunosupresión en tales estudios con animales de laboratorio.

La base de datos sobre alteraciones de la función inmunitaria en seres humanos por sustancias químicas ambientales es limitada (Descotes 1986; NRC Subcommittee on Immunotoxicology 1992). El uso de marcadores de inmunotoxicidad ha recibido poca atención en estudios clínicos y epidemiológicos para investigar el efecto de estos químicos en la salud humana. Dichos estudios no se han realizado con frecuencia, y su interpretación a menudo no permite sacar conclusiones inequívocas, debido, por ejemplo, a la naturaleza no controlada de la exposición. Por lo tanto, en la actualidad, la evaluación de la inmunotoxicidad en roedores, con su posterior extrapolación al hombre, constituye la base de las decisiones sobre peligros y riesgos.

Las reacciones de hipersensibilidad, en particular el asma alérgica y la dermatitis de contacto, son importantes problemas de salud ocupacional en los países industrializados (Vos, Younes y Smith 1995). El fenómeno de la sensibilización por contacto se investigó primero en el conejillo de indias (Andersen y Maibach 1985). Hasta hace poco, esta ha sido la especie de elección para las pruebas predictivas. Se encuentran disponibles muchos métodos de prueba con cobayas, siendo los más empleados la prueba de maximización con cobayas y la prueba del parche ocluido de Buehler. Las pruebas con conejillos de Indias y los enfoques más nuevos desarrollados en ratones, como las pruebas de hinchazón de oídos y el ensayo de ganglios linfáticos locales, brindan al toxicólogo las herramientas para evaluar el riesgo de sensibilización de la piel. La situación con respecto a la sensibilización de las vías respiratorias es muy diferente. Todavía no existen métodos bien validados o ampliamente aceptados disponibles para la identificación de alérgenos respiratorios químicos, aunque se han logrado avances en el desarrollo de modelos animales para la investigación de la alergia respiratoria química en cobayas y ratones.

Los datos humanos muestran que los agentes químicos, en particular las drogas, pueden causar enfermedades autoinmunes (Kammüller, Bloksma y Seinen 1989). Hay una serie de modelos animales experimentales de enfermedades autoinmunes humanas. Estos comprenden tanto patología espontánea (por ejemplo, lupus eritematoso sistémico en ratones negros de Nueva Zelanda) como fenómenos autoinmunes inducidos por inmunización experimental con un autoantígeno de reacción cruzada (por ejemplo, artritis inducida por adyuvante H37Ra en ratas de la cepa Lewis). Estos modelos se aplican en la evaluación preclínica de fármacos inmunosupresores. Muy pocos estudios han abordado el potencial de estos modelos para evaluar si un xenobiótico exacerba la autoinmunidad inducida o congénita. Prácticamente faltan modelos animales que sean adecuados para investigar la capacidad de los productos químicos para inducir enfermedades autoinmunes. Un modelo que se utiliza de forma limitada es el ensayo del nódulo linfático poplíteo en ratones. Al igual que la situación en humanos, los factores genéticos juegan un papel crucial en el desarrollo de enfermedades autoinmunes (EA) en animales de laboratorio, lo que limitará el valor predictivo de dichas pruebas.

El sistema inmune

La función principal del sistema inmunológico es la defensa contra bacterias, virus, parásitos, hongos y células neoplásicas. Esto se logra mediante las acciones de varios tipos de células y sus mediadores solubles en un concierto finamente afinado. La defensa del huésped se puede dividir aproximadamente en resistencia no específica o innata e inmunidad específica o adquirida mediada por linfocitos (Roitt, Brostoff y Male 1989).

Los componentes del sistema inmunológico están presentes en todo el cuerpo (Jones et al. 1990). El compartimento de los linfocitos se encuentra dentro de los órganos linfoides (figura 1). La médula ósea y el timo se clasifican como órganos linfoides primarios o centrales; los órganos linfoides secundarios o periféricos incluyen ganglios linfáticos, bazo y tejido linfoide a lo largo de superficies secretoras tales como los tractos gastrointestinal y respiratorio, el llamado tejido linfoide asociado a mucosas (MALT). Aproximadamente la mitad de los linfocitos del cuerpo se encuentran en cualquier momento en MALT. Además, la piel es un órgano importante para la inducción de respuestas inmunitarias a los antígenos presentes en la piel. Importantes en este proceso son las células epidérmicas de Langerhans que tienen una función presentadora de antígenos.

Figura 1. Órganos y tejidos linfoides primarios y secundarios

TOX110F1

Las células fagocíticas del linaje monocito/macrófago, denominado sistema fagocítico mononuclear (MPS), se encuentran en los órganos linfoides y también en sitios extraganglionares; los fagocitos extraganglionares incluyen células de Kupffer en el hígado, macrófagos alveolares en el pulmón, macrófagos mesangiales en el riñón y células gliales en el cerebro. Los leucocitos polimorfonucleares (PMN) están presentes principalmente en la sangre y la médula ósea, pero se acumulan en los sitios de inflamación.

 

 

 

 

 

 

 

Defensa no específica

Una primera línea de defensa a los microorganismos es ejecutada por una barrera física y química, como en la piel, el tracto respiratorio y el tracto alimentario. Esta barrera se ve favorecida por mecanismos de protección no específicos que incluyen células fagocíticas, como macrófagos y leucocitos polimorfonucleares, que pueden matar patógenos, y células asesinas naturales, que pueden lisar células tumorales y células infectadas por virus. El sistema del complemento y ciertos inhibidores microbianos (p. ej., lisozima) también participan en la respuesta no específica.

inmunidad específica

Después del contacto inicial del huésped con el patógeno, se inducen respuestas inmunitarias específicas. El sello distintivo de esta segunda línea de defensa es el reconocimiento específico de los determinantes, los llamados antígenos o epítopos, de los patógenos por parte de los receptores en la superficie celular de los linfocitos B y T. Después de la interacción con el antígeno específico, la célula portadora del receptor es estimulada para que prolifere y se diferencie, produciendo un clon de células de progenie que son específicas para el antígeno desencadenante. Las respuestas inmunitarias específicas ayudan a la defensa no específica presentada a los patógenos estimulando la eficacia de las respuestas no específicas. Una característica fundamental de la inmunidad específica es que se desarrolla la memoria. El contacto secundario con el mismo antígeno provoca una respuesta más rápida y vigorosa pero bien regulada.

El genoma no tiene la capacidad de transportar los códigos de una serie de receptores de antígenos suficientes para reconocer el número de antígenos que se pueden encontrar. El repertorio de especificidad se desarrolla mediante un proceso de reordenamientos genéticos. Este es un proceso aleatorio, durante el cual se producen diversas especificidades. Esto incluye especificidades para componentes propios, que son indeseables. Un proceso de selección que tiene lugar en el timo (células T) o en la médula ósea (células B) opera para eliminar estas especificidades indeseables.

La función efectora inmunitaria normal y la regulación homeostática de la respuesta inmunitaria dependen de una variedad de productos solubles, conocidos colectivamente como citoquinas, que son sintetizados y secretados por los linfocitos y por otros tipos de células. Las citocinas tienen efectos pleiotrópicos sobre las respuestas inmunitarias e inflamatorias. Se requiere la cooperación entre diferentes poblaciones celulares para la respuesta inmunitaria: la regulación de las respuestas de anticuerpos, la acumulación de células y moléculas inmunitarias en los sitios inflamatorios, el inicio de las respuestas de fase aguda, el control de la función citotóxica de los macrófagos y muchos otros procesos fundamentales para la resistencia del huésped. . Estos están influenciados por, y en muchos casos dependen de, las citocinas que actúan individualmente o en concierto.

Se reconocen dos ramas de la inmunidad específica: la inmunidad humoral y la inmunidad mediada por células o celular:

Inmunidad humoral. En el brazo humoral, los linfocitos B se estimulan tras el reconocimiento del antígeno por parte de los receptores de la superficie celular. Los receptores de antígenos en los linfocitos B son inmunoglobulinas (Ig). Las células B maduras (células plasmáticas) comienzan la producción de inmunoglobulinas específicas de antígeno que actúan como anticuerpos en el suero o a lo largo de las superficies mucosas. Hay cinco clases principales de inmunoglobulinas: (1) IgM, Ig pentamérica con capacidad aglutinante óptima, que se produce primero después de la estimulación antigénica; (2) IgG, la principal Ig en circulación, que puede atravesar la placenta; (3) IgA, Ig secretora para la protección de superficies mucosas; (4) IgE, fijación de Ig a mastocitos o granulocitos basófilos involucrados en reacciones de hipersensibilidad inmediata y (5) IgD, cuya función principal es como receptor de linfocitos B.

Inmunidad mediada por células. El brazo celular del sistema inmunitario específico está mediado por linfocitos T. Estas células también tienen receptores de antígenos en sus membranas. Reconocen antígenos si son presentados por células presentadoras de antígenos en el contexto de antígenos de histocompatibilidad. Por lo tanto, estas células tienen una restricción además de la especificidad del antígeno. Las células T funcionan como células auxiliares para varias respuestas inmunitarias (incluida la humoral), median el reclutamiento de células inflamatorias y pueden, como células T citotóxicas, matar células diana después del reconocimiento específico del antígeno.

Mecanismos de inmunotoxicidad

La inmunosupresión

La resistencia eficaz del huésped depende de la integridad funcional del sistema inmunitario, que a su vez requiere que las células y moléculas componentes que orquestan las respuestas inmunitarias estén disponibles en cantidades suficientes y en forma operativa. Las inmunodeficiencias congénitas en humanos a menudo se caracterizan por defectos en ciertas líneas de células madre, lo que da como resultado una producción deficiente o nula de células inmunitarias. Por analogía con las inmunodeficiencias humanas congénitas y adquiridas, la inmunosupresión inducida por sustancias químicas puede resultar simplemente de un número reducido de células funcionales (IPCS 1996). La ausencia o el número reducido de linfocitos puede tener efectos más o menos profundos sobre el estado inmunitario. Algunos estados de inmunodeficiencia e inmunosupresión severa, como puede ocurrir en el trasplante o la terapia citostática, se han asociado en particular con una mayor incidencia de infecciones oportunistas y de ciertas enfermedades neoplásicas. Las infecciones pueden ser bacterianas, virales, fúngicas o protozoarias, y el tipo de infección predominante depende de la inmunodeficiencia asociada. Se puede esperar que la exposición a sustancias químicas ambientales inmunosupresoras produzca formas más sutiles de inmunosupresión, que pueden ser difíciles de detectar. Estos pueden conducir, por ejemplo, a una mayor incidencia de infecciones como la gripe o el resfriado común.

En vista de la complejidad del sistema inmune, con la gran variedad de células, mediadores y funciones que forman una red complicada e interactiva, los compuestos inmunotóxicos tienen numerosas oportunidades para ejercer un efecto. Aunque la naturaleza de las lesiones iniciales inducidas por muchos productos químicos inmunotóxicos aún no se ha dilucidado, cada vez hay más información disponible, en su mayoría derivada de estudios en animales de laboratorio, con respecto a los cambios inmunobiológicos que resultan en la depresión de la función inmunológica (Dean et al. 1994) . Los efectos tóxicos pueden ocurrir en las siguientes funciones críticas (y se dan algunos ejemplos de compuestos inmunotóxicos que afectan estas funciones):

  •  desarrollo y expansión de diferentes poblaciones de células madre (el benceno ejerce efectos inmunotóxicos a nivel de células madre, causando linfocitopenia)
  •  proliferación de diversas células linfoides y mieloides, así como tejidos de soporte en los que estas células maduran y funcionan (los compuestos organoestánnicos inmunotóxicos suprimen la actividad proliferativa de los linfocitos en la corteza tímica a través de la citotoxicidad directa; la acción timotóxica del 2,3,7,8-tetracloro -dibenzo-p-dioxina (TCDD) y compuestos relacionados probablemente se deba a una función alterada de las células epiteliales del timo, más que a una toxicidad directa para los timocitos)
  •  captación, procesamiento y presentación de antígenos por macrófagos y otras células presentadoras de antígenos (uno de los objetivos del 7,12-dimetilbenz(a)antraceno (DMBA) y del plomo es la presentación de antígenos por macrófagos; un objetivo de la radiación ultravioleta es el antígeno- presentación de células de Langerhans)
  •  función reguladora de las células T auxiliares y T supresoras (la función de las células T auxiliares se ve afectada por los organoestaños, el aldicarb, los bifenilos policlorados (PCB), TCDD y DMBA; la función de las células T supresoras se reduce con el tratamiento con dosis bajas de ciclofosfamida)
  •  producción de diversas citocinas o interleucinas (el benzo(a)pireno (BP) suprime la producción de interleucina-1; la radiación ultravioleta altera la producción de citocinas por parte de los queratinocitos)
  •  la síntesis de varias clases de inmunoglobulinas IgM e IgG se suprime después del tratamiento con PCB y óxido de tributilestaño (TBT), y aumenta después de la exposición al hexaclorobenceno (HCB).
  •  regulación y activación del complemento (afectado por TCDD)
  •  función de las células T citotóxicas (3-metilcolantreno (3-MC), DMBA y TCDD suprimen la actividad de las células T citotóxicas)
  •  función de las células asesinas naturales (NK) (la actividad de las NK pulmonares es suprimida por el ozono; la actividad de las NK esplénicas se ve afectada por el níquel)
  •  quimiotaxis de macrófagos y leucocitos polimorfonucleares y funciones citotóxicas (el ozono y el dióxido de nitrógeno alteran la actividad fagocítica de los macrófagos alveolares).

 

Alergia

Alergia puede definirse como los efectos adversos para la salud que resultan de la inducción y provocación de respuestas inmunitarias específicas. Cuando se producen reacciones de hipersensibilidad sin implicación del sistema inmunitario, el término pseudo-alergia se usa En el contexto de la inmunotoxicología, la alergia es el resultado de una respuesta inmunitaria específica a sustancias químicas y fármacos de interés. La capacidad de una sustancia química para sensibilizar a las personas generalmente está relacionada con su capacidad para unirse covalentemente a las proteínas del cuerpo. Las reacciones alérgicas pueden tomar una variedad de formas y estas difieren con respecto a los mecanismos inmunológicos subyacentes y la velocidad de la reacción. Se han reconocido cuatro tipos principales de reacciones alérgicas: Reacciones de hipersensibilidad de tipo I, que son provocadas por anticuerpos IgE y en las que los síntomas se manifiestan a los pocos minutos de la exposición del individuo sensibilizado. Las reacciones de hipersensibilidad de tipo II resultan del daño o la destrucción de las células huésped por parte de los anticuerpos. En este caso, los síntomas se hacen evidentes en cuestión de horas. Las reacciones de hipersensibilidad de tipo III, o de Arthus, también están mediadas por anticuerpos, pero contra antígenos solubles, y son el resultado de la acción local o sistémica de complejos inmunitarios. Las reacciones de hipersensibilidad de tipo IV, o de tipo retardado, son provocadas por los linfocitos T y normalmente los síntomas se desarrollan de 24 a 48 horas después de la exposición del individuo sensibilizado.

Los dos tipos de alergia química de mayor relevancia para la salud laboral son la sensibilidad de contacto o alergia cutánea y la alergia de las vías respiratorias.

Hipersensibilidad de contacto. Una gran cantidad de productos químicos pueden causar sensibilización de la piel. Después de la exposición tópica de un individuo susceptible a un alérgeno químico, se induce una respuesta de linfocitos T en los ganglios linfáticos que drenan. En la piel, el alérgeno interactúa directa o indirectamente con las células epidérmicas de Langerhans, que transportan la sustancia química a los ganglios linfáticos y la presentan en forma inmunogénica a los linfocitos T sensibles. Los linfocitos T activados por alérgenos proliferan, lo que da como resultado una expansión clonal. El individuo ahora está sensibilizado y responderá a una segunda exposición dérmica al mismo químico con una respuesta inmunitaria más agresiva, lo que resultará en una dermatitis alérgica de contacto. La reacción inflamatoria cutánea que caracteriza a la dermatitis alérgica de contacto es secundaria al reconocimiento del alérgeno en la piel por parte de linfocitos T específicos. Estos linfocitos se activan, liberan citocinas y provocan la acumulación local de otros leucocitos mononucleares. Los síntomas se desarrollan entre 24 y 48 horas después de la exposición del individuo sensibilizado y, por lo tanto, la dermatitis alérgica de contacto representa una forma de hipersensibilidad de tipo retardado. Las causas comunes de la dermatitis alérgica de contacto incluyen productos químicos orgánicos (como el 2,4-dinitroclorobenceno), metales (como el níquel y el cromo) y productos vegetales (como el urushiol de la hiedra venenosa).

Hipersensibilidad respiratoria. La hipersensibilidad respiratoria generalmente se considera una reacción de hipersensibilidad de tipo I. Sin embargo, las reacciones de fase tardía y los síntomas más crónicos asociados con el asma pueden involucrar procesos inmunitarios mediados por células (Tipo IV). Los síntomas agudos asociados con la alergia respiratoria se ven afectados por el anticuerpo IgE, cuya producción se provoca después de la exposición del individuo susceptible al alérgeno químico inductor. El anticuerpo IgE se distribuye sistémicamente y se une, a través de receptores de membrana, a los mastocitos que se encuentran en los tejidos vascularizados, incluido el tracto respiratorio. Después de la inhalación de la misma sustancia química, se provocará una reacción de hipersensibilidad respiratoria. El alérgeno se asocia con la proteína y se une y entrecruza el anticuerpo IgE unido a los mastocitos. Esto a su vez provoca la desgranulación de los mastocitos y la liberación de mediadores inflamatorios como la histamina y los leucotrienos. Estos mediadores provocan broncoconstricción y vasodilatación, lo que da lugar a síntomas de alergia respiratoria; asma y/o rinitis. Los productos químicos que se sabe que causan hipersensibilidad respiratoria en el hombre incluyen anhídridos de ácido (como el anhídrido trimelítico), algunos diisocianatos (como el diisocianato de tolueno), sales de platino y algunos colorantes reactivos. Además, se sabe que la exposición crónica al berilio causa enfermedad pulmonar por hipersensibilidad.

Autoimmunity

Autoimmunity se puede definir como la estimulación de respuestas inmunitarias específicas dirigidas contra antígenos "propios" endógenos. La autoinmunidad inducida puede resultar de alteraciones en el equilibrio de los linfocitos T reguladores o de la asociación de un xenobiótico con componentes tisulares normales para volverlos inmunogénicos (“autoalterado”). Los fármacos y productos químicos que se sabe que inducen o exacerban incidentalmente efectos como los de la enfermedad autoinmune (EA) en individuos susceptibles son compuestos de bajo peso molecular (peso molecular de 100 a 500) que generalmente se consideran no inmunogénicos. El mecanismo de la DA por exposición química es mayormente desconocido. La enfermedad se puede producir directamente por medio de anticuerpos circulantes, indirectamente a través de la formación de complejos inmunitarios o como consecuencia de la inmunidad mediada por células, pero es probable que se produzca a través de una combinación de mecanismos. La patogenia es más conocida en los trastornos hemolíticos inmunitarios inducidos por fármacos:

  •  El fármaco puede adherirse a la membrana de los glóbulos rojos e interactuar con un anticuerpo específico del fármaco.
  •  El fármaco puede alterar la membrana de los glóbulos rojos para que el sistema inmunitario considere a la célula como extraña.
  •  El fármaco y su anticuerpo específico forman complejos inmunitarios que se adhieren a la membrana de los glóbulos rojos para producir lesiones.
  •  La sensibilización de glóbulos rojos ocurre debido a la producción de autoanticuerpos de glóbulos rojos.

 

Se ha descubierto que una variedad de productos químicos y fármacos, en particular los últimos, inducen respuestas similares a las autoinmunes (Kamüller, Bloksma y Seinen 1989). La exposición ocupacional a productos químicos puede conducir incidentalmente a síndromes similares a los de la EA. La exposición a cloruro de vinilo monomérico, tricloroetileno, percloroetileno, resinas epoxi y polvo de sílice puede inducir síndromes similares a la esclerodermia. Se ha descrito un síndrome similar al lupus eritematoso sistémico (LES) después de la exposición a la hidracina. La exposición al diisocianato de tolueno se ha asociado con la inducción de púrpura trombocitopénica. Los metales pesados, como el mercurio, se han implicado en algunos casos de glomerulonefritis por complejos inmunitarios.

Evaluación de riesgos humanos

La evaluación del estado inmunitario humano se realiza principalmente utilizando sangre periférica para el análisis de sustancias humorales como inmunoglobulinas y complemento, y de leucocitos sanguíneos para la composición de subconjuntos y la funcionalidad de subpoblaciones. Estos métodos suelen ser los mismos que se utilizan para investigar la inmunidad humoral y mediada por células, así como la resistencia inespecífica de pacientes con sospecha de enfermedad de inmunodeficiencia congénita. Para estudios epidemiológicos (p. ej., de poblaciones expuestas ocupacionalmente), los parámetros deben seleccionarse sobre la base de su valor predictivo en poblaciones humanas, modelos animales validados y la biología subyacente de los marcadores (consulte la tabla 1). La estrategia de detección de efectos inmunotóxicos después de la exposición (accidental) a contaminantes ambientales u otras sustancias tóxicas depende en gran medida de las circunstancias, como el tipo de inmunodeficiencia esperable, el tiempo entre la exposición y la evaluación del estado inmunitario, el grado de exposición y el número de personas expuestas. El proceso de evaluación del riesgo inmunotóxico de un xenobiótico particular en humanos es extremadamente difícil y, a menudo, imposible, debido en gran parte a la presencia de varios factores de confusión de origen endógeno o exógeno que influyen en la respuesta de los individuos al daño tóxico. Esto es particularmente cierto para los estudios que investigan el papel de la exposición química en las enfermedades autoinmunes, donde los factores genéticos juegan un papel crucial.

Tabla 1. Clasificación de las pruebas para marcadores inmunes

Categoría de prueba Características Ensayos específicos
Básico-general
Debe incluirse con los paneles generales
Indicadores de salud general y estado del sistema de órganos Nitrógeno ureico en sangre, glucosa en sangre, etc.
Básico-inmune
Debe incluirse con los paneles generales
Indicadores generales del estado inmunitario
Costo relativamente bajo
Los métodos de ensayo están estandarizados entre los laboratorios.
Los resultados fuera de los rangos de referencia son clínicamente interpretables
Conteos sanguíneos completos
Niveles séricos de IgG, IgA, IgM
Fenotipos de marcadores de superficie para los principales subconjuntos de linfocitos
Enfocado/reflejo
Debe incluirse cuando lo indiquen los hallazgos clínicos, las exposiciones sospechosas o los resultados de pruebas anteriores.
Indicadores de funciones/eventos inmunitarios específicos
El costo varía
Los métodos de ensayo están estandarizados entre los laboratorios.
Los resultados fuera de los rangos de referencia son clínicamente interpretables
Genotipo de histocompatibilidad
Anticuerpos contra agentes infecciosos
IgE sérica total
IgE específica de alérgeno
Autoanticuerpos
Pruebas cutáneas de hipersensibilidad
Explosión oxidativa de granulocitos
Histopatología (biopsia de tejido)
Investigación
Debe incluirse solo con poblaciones de control y un diseño de estudio cuidadoso
Indicadores de funciones/eventos inmunitarios generales o específicos
El costo varía; a menudo caro
Los métodos de ensayo generalmente no están estandarizados entre los laboratorios.
Los resultados fuera de los rangos de referencia a menudo no son clínicamente interpretables
Ensayos de estimulación in vitro
Marcadores de superficie de activación celular
Concentraciones séricas de citoquinas
Ensayos de clonalidad (anticuerpo, celular, genético)
Pruebas de citotoxicidad

 

Dado que rara vez se dispone de datos humanos adecuados, la evaluación del riesgo de inmunosupresión inducida por productos químicos en humanos se basa en la mayoría de los casos en estudios con animales. La identificación de xenobióticos inmunotóxicos potenciales se lleva a cabo principalmente en estudios controlados en roedores. Los estudios de exposición in vivo presentan, en este sentido, el enfoque óptimo para estimar el potencial inmunotóxico de un compuesto. Esto se debe a la naturaleza multifactorial y compleja del sistema inmunitario y de las respuestas inmunitarias. Los estudios in vitro tienen un valor creciente en la aclaración de los mecanismos de inmunotoxicidad. Además, al investigar los efectos del compuesto utilizando células de origen animal y humano, se pueden generar datos para la comparación de especies, que se pueden utilizar en el enfoque de “paralelogramo” para mejorar el proceso de evaluación de riesgos. Si hay datos disponibles para los tres pilares del paralelogramo (animal in vivo y animal y humano in vitro), puede ser más fácil predecir el resultado en el pilar restante, es decir, el riesgo en humanos.

Cuando la evaluación del riesgo de inmunosupresión inducida por productos químicos tiene que basarse únicamente en datos de estudios en animales, se puede seguir un enfoque en la extrapolación al hombre mediante la aplicación de factores de incertidumbre al nivel sin efecto adverso observado (NOAEL). Este nivel puede basarse en parámetros determinados en modelos relevantes, como ensayos de resistencia del huésped y evaluación in vivo de reacciones de hipersensibilidad y producción de anticuerpos. Idealmente, la relevancia de este enfoque para la evaluación de riesgos requiere confirmación mediante estudios en humanos. Dichos estudios deben combinar la identificación y medición del tóxico, los datos epidemiológicos y las evaluaciones del estado inmunitario.

Para predecir la hipersensibilidad por contacto, se dispone de modelos de conejillos de indias que se han utilizado en la evaluación de riesgos desde la década de 1970. Aunque sensibles y reproducibles, estas pruebas tienen limitaciones ya que dependen de la evaluación subjetiva; esto se puede superar con métodos más nuevos y cuantitativos desarrollados en el ratón. Con respecto a la hipersensibilidad inducida por sustancias químicas inducida por la inhalación o ingestión de alérgenos, las pruebas deben desarrollarse y evaluarse en términos de su valor predictivo en el hombre. Cuando se trata de establecer niveles seguros de exposición ocupacional de alérgenos potenciales, se debe tener en cuenta la naturaleza bifásica de la alergia: la fase de sensibilización y la fase de provocación. La concentración requerida para provocar una reacción alérgica en un individuo previamente sensibilizado es considerablemente más baja que la concentración necesaria para inducir la sensibilización en el individuo inmunológicamente inexperto pero susceptible.

Dado que prácticamente no existen modelos animales para predecir la autoinmunidad inducida por sustancias químicas, se debe hacer hincapié en el desarrollo de tales modelos. Para el desarrollo de dichos modelos, nuestro conocimiento de la autoinmunidad inducida por sustancias químicas en humanos debe avanzar, incluido el estudio de marcadores genéticos y del sistema inmunitario para identificar individuos susceptibles. Los seres humanos que están expuestos a fármacos que inducen la autoinmunidad ofrecen esa oportunidad.

 

Atrás

Domingo, enero 16 2011 16: 34

Toxicología genética

La toxicología genética, por definición, es el estudio de cómo los agentes químicos o físicos afectan el intrincado proceso de la herencia. Los productos químicos genotóxicos se definen como compuestos que son capaces de modificar el material hereditario de las células vivas. La probabilidad de que una sustancia química en particular cause daño genético depende inevitablemente de varias variables, incluido el nivel de exposición del organismo a la sustancia química, la distribución y retención de la sustancia química una vez que ingresa al cuerpo, la eficiencia de los sistemas de activación metabólica y/o desintoxicación en tejidos diana y la reactividad de la sustancia química o sus metabolitos con macromoléculas críticas dentro de las células. La probabilidad de que el daño genético cause una enfermedad depende en última instancia de la naturaleza del daño, la capacidad de la célula para reparar o amplificar el daño genético, la oportunidad de expresar cualquier alteración que haya sido inducida y la capacidad del cuerpo para reconocer y suprimir la multiplicación de células aberrantes.

En los organismos superiores, la información hereditaria se organiza en cromosomas. Los cromosomas consisten en hebras estrechamente condensadas de ADN asociado a proteínas. Dentro de un solo cromosoma, cada molécula de ADN existe como un par de cadenas largas no ramificadas de subunidades de nucleótidos unidas por enlaces fosfodiéster que unen el carbono 5 de un resto de desoxirribosa con el carbono 3 del siguiente (figura 1). Además, una de las cuatro bases de nucleótidos diferentes (adenina, citosina, guanina o timina) está unida a cada subunidad de desoxirribosa como cuentas en un hilo. En tres dimensiones, cada par de hebras de ADN forma una doble hélice con todas las bases orientadas hacia el interior de la espiral. Dentro de la hélice, cada base está asociada con su base complementaria en la hebra de ADN opuesta; Los enlaces de hidrógeno dictan un fuerte emparejamiento no covalente de adenina con timina y guanina con citosina (figura 1). Dado que la secuencia de bases de nucleótidos es complementaria en toda la longitud de la molécula de ADN dúplex, ambas cadenas contienen esencialmente la misma información genética. De hecho, durante la replicación del ADN, cada hebra sirve como molde para la producción de una nueva hebra asociada.

Figura 1. La organización (a) primaria, (b) secundaria y (c) terciaria de la información hereditaria humana

TOX090F1Usando ARN y una serie de diferentes proteínas, la célula finalmente descifra la información codificada por la secuencia lineal de bases dentro de regiones específicas de ADN (genes) y produce proteínas que son esenciales para la supervivencia celular básica, así como para el crecimiento y la diferenciación normales. En esencia, los nucleótidos funcionan como un alfabeto biológico que se utiliza para codificar los aminoácidos, los componentes básicos de las proteínas.

Cuando se insertan nucleótidos incorrectos o se pierden nucleótidos, o cuando se agregan nucleótidos innecesarios durante la síntesis de ADN, el error se denomina mutación. Se ha estimado que ocurre menos de una mutación por cada 109 nucleótidos incorporados durante la replicación normal de las células. Aunque las mutaciones no son necesariamente dañinas, las alteraciones que provocan la inactivación o la sobreexpresión de genes importantes pueden dar lugar a diversos trastornos, como cáncer, enfermedades hereditarias, anomalías del desarrollo, infertilidad y muerte embrionaria o perinatal. En muy raras ocasiones, una mutación puede conducir a una mayor supervivencia; tales ocurrencias son la base de la selección natural.

Aunque algunas sustancias químicas reaccionan directamente con el ADN, la mayoría requiere activación metabólica. En este último caso, los intermediarios electrofílicos, como los epóxidos o los iones de carbonio, son los responsables últimos de inducir lesiones en una variedad de sitios nucleofílicos dentro del material genético (figura 2). En otros casos, la genotoxicidad está mediada por subproductos de la interacción del compuesto con lípidos, proteínas u oxígeno intracelulares.

Figura 2. Bioactivación de: a) benzo(a)pireno; y b) N-nitrosodimetilamina

TOX090F2

Debido a su relativa abundancia en las células, las proteínas son el objetivo más frecuente de la interacción tóxica. Sin embargo, la modificación del ADN es motivo de mayor preocupación debido al papel central de esta molécula en la regulación del crecimiento y la diferenciación a través de múltiples generaciones de células.

A nivel molecular, los compuestos electrofílicos tienden a atacar el oxígeno y el nitrógeno del ADN. Los sitios que son más propensos a la modificación se ilustran en la figura 3. Aunque los oxígenos dentro de los grupos fosfato en el esqueleto del ADN también son objetivos para la modificación química, se cree que el daño a las bases es biológicamente más relevante ya que estos grupos se consideran la información principal. elementos en la molécula de ADN.

Figura 3. Sitios primarios de daño en el ADN inducido químicamente

TOX090F3

Los compuestos que contienen un resto electrofílico típicamente ejercen genotoxicidad al producir monoaductos en el ADN. De manera similar, los compuestos que contienen dos o más fracciones reactivas pueden reaccionar con dos centros nucleófilos diferentes y, por lo tanto, producir entrecruzamientos intramoleculares o intermoleculares en el material genético (figura 4). Los entrecruzamientos entre cadenas ADN-ADN y ADN-proteína pueden ser particularmente citotóxicos ya que pueden formar bloques completos para la replicación del ADN. Por razones obvias, la muerte de una célula elimina la posibilidad de que sea mutada o transformada neoplásicamente. Los agentes genotóxicos también pueden actuar induciendo rupturas en el esqueleto de fosfodiéster, o entre bases y azúcares (que producen sitios abásicos) en el ADN. Tales rupturas pueden ser el resultado directo de la reactividad química en el sitio dañado, o pueden ocurrir durante la reparación de uno de los tipos de lesiones de ADN antes mencionados.

Figura 4. Varios tipos de daño al complejo proteína-ADN

TOX090F4

Durante los últimos treinta o cuarenta años, se han desarrollado una variedad de técnicas para monitorear el tipo de daño genético inducido por varios químicos. Dichos ensayos se describen en detalle en otras partes de este capítulo y Enciclopedia.

La replicación errónea de "microlesiones", como monoaductos, sitios abásicos o roturas de una sola hebra, puede dar como resultado, en última instancia, sustituciones de pares de bases de nucleótidos, o la inserción o eliminación de fragmentos cortos de polinucleótidos en el ADN cromosómico. Por el contrario, las "macrolesiones", como aductos voluminosos, enlaces cruzados o roturas de doble cadena, pueden desencadenar la ganancia, pérdida o reordenamiento de fragmentos de cromosomas relativamente grandes. En cualquier caso, las consecuencias pueden ser devastadoras para el organismo ya que cualquiera de estos eventos puede conducir a la muerte celular, pérdida de función o transformación maligna de las células. Se desconoce en gran medida exactamente cómo el daño del ADN causa cáncer. Actualmente se cree que el proceso puede implicar la activación inapropiada de protooncogenes como mi c y ras, y/o inactivación de genes supresores de tumores identificados recientemente, como p53. La expresión anormal de cualquier tipo de gen anula los mecanismos celulares normales para controlar la proliferación y/o diferenciación celular.

La preponderancia de la evidencia experimental indica que el desarrollo de cáncer luego de la exposición a compuestos electrofílicos es un evento relativamente raro. Esto puede explicarse, en parte, por la capacidad intrínseca de la célula para reconocer y reparar el ADN dañado o por la incapacidad de sobrevivir de las células con ADN dañado. Durante la reparación, la base dañada, el nucleótido o el tramo corto de nucleótidos que rodean el sitio dañado se eliminan y (usando la hebra opuesta como plantilla) se sintetiza una nueva pieza de ADN y se empalma en su lugar. Para que sea eficaz, la reparación del ADN debe ocurrir con gran precisión antes de la división celular, antes de las oportunidades para la propagación de la mutación.

Los estudios clínicos han demostrado que las personas con defectos hereditarios en la capacidad de reparar el ADN dañado con frecuencia desarrollan cáncer y/o anomalías del desarrollo a una edad temprana (tabla 1). Tales ejemplos proporcionan una fuerte evidencia que vincula la acumulación de daño en el ADN con la enfermedad humana. De manera similar, los agentes que promueven la proliferación celular (como el acetato de tetradecanoilforbol) a menudo aumentan la carcinogénesis. Para estos compuestos, la mayor probabilidad de transformación neoplásica puede ser una consecuencia directa de una disminución en el tiempo disponible para que la célula lleve a cabo una reparación adecuada del ADN.

Tabla 1. Trastornos hereditarios propensos al cáncer que parecen implicar defectos en la reparación del ADN

Síndrome Síntomas fenotipo celular
Ataxia telangiectasia Deterioro neurológico
inmunodeficiencia
Alta incidencia de linfoma
Hipersensibilidad a las radiaciones ionizantes ya ciertos agentes alquilantes.
Replicación desregulada del ADN dañado (puede indicar un tiempo reducido para la reparación del ADN)
síndrome de Bloom Anormalidades del desarrollo
Lesiones en la piel expuesta
Alta incidencia de tumores del sistema inmunológico y tracto gastrointestinal
Alta frecuencia de aberraciones cromosómicas
Ligadura defectuosa de roturas asociadas con la reparación del ADN
Anemia de Fanconi Retraso del crecimiento
Alta incidencia de leucemia
Hipersensibilidad a los agentes de entrecruzamiento
Alta frecuencia de aberraciones cromosómicas
Reparación defectuosa de enlaces cruzados en el ADN
Cáncer de colon hereditario sin poliposis Alta incidencia de cáncer de colon Defecto en la reparación de errores de emparejamiento de ADN (cuando se produce la inserción de un nucleótido incorrecto durante la replicación)
Xeroderma pigmentoso Alta incidencia de epitelioma en áreas expuestas de la piel
Deterioro neurológico (en muchos casos)
Hipersensibilidad a la luz ultravioleta y a muchos carcinógenos químicos
Defectos en la reparación por escisión y/o replicación del ADN dañado

 

Las primeras teorías sobre cómo interactúan los productos químicos con el ADN se remontan a estudios realizados durante el desarrollo del gas mostaza para su uso en la guerra. La comprensión adicional surgió de los esfuerzos para identificar agentes anticancerígenos que detuvieran selectivamente la replicación de las células tumorales que se dividen rápidamente. El aumento de la preocupación pública por los peligros en nuestro medio ambiente ha impulsado investigaciones adicionales sobre los mecanismos y las consecuencias de la interacción química con el material genético. En el cuadro 2 se presentan ejemplos de varios tipos de productos químicos que ejercen genotoxicidad.

Tabla 2. Ejemplos de productos químicos que presentan genotoxicidad en células humanas

clase de quimico Ejemplo Fuente de exposición Probable lesión genotóxica
Aflatoxinas Aflatoxina B1 Comida contaminada Aductos de ADN voluminosos
Aminas aromáticas 2-acetilaminofluoreno Aplicaciones Medioambientales Aductos de ADN voluminosos
Quinonas de aziridina Mitomicina C Quimioterapia contra el cáncer Monoaductos, enlaces cruzados entre hebras y roturas de una sola hebra en el ADN.
Hidrocarburos clorados Cloruro de vinilo Aplicaciones Medioambientales Monoaductos en ADN
Metales y compuestos metálicos Cisplatino Quimioterapia contra el cáncer Entrecruzamientos intra e intercatenarios en el ADN
  Compuestos de níquel Aplicaciones Medioambientales Monoaductos y roturas monocatenarias en el ADN
Mostazas nitrogenadas Ciclofosfamida Quimioterapia contra el cáncer Monoaductos y enlaces cruzados entre cadenas en el ADN
Nitrosaminas N-nitrosodimetilamina Comida contaminada Monoaductos en ADN
Hidrocarburos aromáticos policíclicos Benzo (a) pireno Aplicaciones Medioambientales Aductos de ADN voluminosos

 

Atrás

Domingo, enero 16 2011 16: 29

Daño celular y muerte celular

Prácticamente toda la medicina se dedica a prevenir la muerte celular, en enfermedades como el infarto de miocardio, los accidentes cerebrovasculares, los traumatismos y el shock, oa provocarla, como en el caso de las enfermedades infecciosas y el cáncer. Por lo tanto, es esencial comprender la naturaleza y los mecanismos involucrados. La muerte celular se ha clasificado como “accidental”, es decir, causada por agentes tóxicos, isquemia, etc., o “programada”, como ocurre durante el desarrollo embriológico, incluida la formación de dedos y la reabsorción de la cola del renacuajo.

La lesión celular y la muerte celular son, por lo tanto, importantes tanto en fisiología como en fisiopatología. La muerte celular fisiológica es extremadamente importante durante la embriogénesis y el desarrollo embrionario. El estudio de la muerte celular durante el desarrollo ha dado lugar a información nueva e importante sobre la genética molecular involucrada, especialmente a través del estudio del desarrollo en animales invertebrados. En estos animales, se ha estudiado cuidadosamente la ubicación precisa y el significado de las células que están destinadas a sufrir muerte celular y, con el uso de técnicas clásicas de mutagénesis, ahora se han identificado varios genes involucrados. En los órganos adultos, el equilibrio entre la muerte celular y la proliferación celular controla el tamaño del órgano. En algunos órganos, como la piel y el intestino, hay un recambio continuo de células. En la piel, por ejemplo, las células se diferencian a medida que alcanzan la superficie y finalmente experimentan una diferenciación terminal y muerte celular a medida que avanza la queratinización con la formación de envolturas entrecruzadas.

Muchas clases de productos químicos tóxicos son capaces de inducir una lesión celular aguda seguida de la muerte. Estos incluyen la anoxia y la isquemia y sus análogos químicos como el cianuro de potasio; carcinógenos químicos, que forman electrófilos que se unen covalentemente a proteínas en ácidos nucleicos; productos químicos oxidantes, que dan como resultado la formación de radicales libres y lesiones oxidantes; activación del complemento; y una variedad de ionóforos de calcio. La muerte celular también es un componente importante de la carcinogénesis química; muchos carcinógenos químicos completos, en dosis cancerígenas, producen necrosis aguda e inflamación seguidas de regeneración y preneoplasia.

Definiciones

Daño celular

La lesión celular se define como un evento o estímulo, como una sustancia química tóxica, que perturba la homeostasis normal de la célula, provocando así una serie de eventos (figura 1). Los objetivos principales de la lesión letal ilustrados son la inhibición de la síntesis de ATP, la alteración de la integridad de la membrana plasmática o la retirada de factores de crecimiento esenciales.

Figura 1. Lesión celular

TOX060F1

Las lesiones letales provocan la muerte de una célula después de un período de tiempo variable, según la temperatura, el tipo de célula y el estímulo; o pueden ser subletales o crónicos, es decir, la lesión da como resultado un estado homeostático alterado que, aunque anormal, no da como resultado la muerte celular (Trump y Arstila 1971; Trump y Berezesky 1992; Trump y Berezesky 1995; Trump, Berezesky y Osornio-Vargas 1981). En el caso de una lesión letal, existe una fase previa al momento de la muerte celular

durante este tiempo, la célula se recuperará; sin embargo, después de un punto particular en el tiempo (el "punto de no retorno" o punto de muerte celular), la eliminación de la lesión no da como resultado la recuperación, sino que la célula sufre degradación e hidrólisis, alcanzando finalmente el equilibrio físico-químico con el resto. ambiente. Esta es la fase conocida como necrosis. Durante la fase preletal ocurren varios tipos principales de cambios, según la célula y el tipo de lesión. Estos se conocen como apoptosis y oncosis.

 

 

 

 

 

La apoptosis

Apoptosis se deriva de las palabras griegas apo, que significa lejos de, y ptosis, que significa caer. El termino cayendo lejos de se deriva del hecho de que, durante este tipo de cambio preletal, las células se encogen y experimentan una marcada ampolla en la periferia. Luego, las ampollas se desprenden y se alejan flotando. La apoptosis ocurre en una variedad de tipos de células después de varios tipos de lesiones tóxicas (Wyllie, Kerr y Currie 1980). Es especialmente prominente en los linfocitos, donde es el mecanismo predominante para el recambio de clones de linfocitos. Los fragmentos resultantes dan como resultado los cuerpos basófilos que se ven dentro de los macrófagos en los ganglios linfáticos. En otros órganos, la apoptosis ocurre típicamente en células individuales que se eliminan rápidamente antes y después de la muerte por fagocitosis de los fragmentos por células parenquimatosas adyacentes o por macrófagos. La apoptosis que ocurre en células individuales con la fagocitosis subsiguiente típicamente no da como resultado inflamación. Antes de la muerte, las células apoptóticas muestran un citosol muy denso con mitocondrias normales o condensadas. El retículo endoplásmico (ER) es normal o solo ligeramente dilatado. La cromatina nuclear está marcadamente agrupada a lo largo de la envoltura nuclear y alrededor del nucléolo. El contorno nuclear también es irregular y se produce fragmentación nuclear. La condensación de la cromatina está asociada con la fragmentación del ADN que, en muchos casos, ocurre entre los nucleosomas, dando una apariencia característica de escalera en la electroforesis.

En apoptosis, aumento de [Ca2+]i puede estimular K+ flujo de salida que resulta en el encogimiento de las células, lo que probablemente requiere ATP. Por lo tanto, es más probable que las lesiones que inhiben totalmente la síntesis de ATP den lugar a la apoptosis. Un aumento sostenido de [Ca2+]i tiene una serie de efectos nocivos que incluyen la activación de proteasas, endonucleasas y fosfolipasas. La activación de la endonucleasa da como resultado roturas de cadena simple y doble de ADN que, a su vez, estimulan niveles elevados de p53 y en la ribosilación de poli-ADP, y de proteínas nucleares que son esenciales en la reparación del ADN. La activación de las proteasas modifica una serie de sustratos, incluida la actina y las proteínas relacionadas, lo que conduce a la formación de vesículas. Otro sustrato importante es la poli(ADP-ribosa) polimerasa (PARP), que inhibe la reparación del ADN. Aumento de [Ca2+]i también se asocia con la activación de varias proteínas quinasas, como MAP quinasa, calmodulina quinasa y otras. Tales quinasas están involucradas en la activación de factores de transcripción que inician la transcripción de genes tempranos inmediatos, por ejemplo, c-fos, c-jun y c-myc, y en la activación de la fosfolipasa A.2 lo que da como resultado la permeabilización de la membrana plasmática y de las membranas intracelulares, como la membrana interna de las mitocondrias.

oncosis

Oncosis, derivado de la palabra griega Es s, hincharse, se llama así porque en este tipo de cambio preletal la célula comienza a hincharse casi inmediatamente después de la lesión (Majno y Joris 1995). La razón de la hinchazón es un aumento de cationes en el agua dentro de la célula. El principal catión responsable es el sodio, que normalmente se regula para mantener el volumen celular. Sin embargo, en ausencia de ATP o si se inhibe la Na-ATPasa del plasmalema, se pierde el control del volumen debido a la proteína intracelular y al continuo aumento del sodio en el agua. Entre los primeros eventos en la oncosis son, por lo tanto, el aumento de [Na+]i lo que conduce a la inflamación celular y al aumento de [Ca2+]i como resultado de la entrada desde el espacio extracelular o la liberación de los depósitos intracelulares. Esto da como resultado la hinchazón del citosol, la hinchazón del retículo endoplásmico y el aparato de Golgi, y la formación de vesículas acuosas alrededor de la superficie celular. Las mitocondrias inicialmente experimentan condensación, pero luego también muestran una gran hinchazón debido al daño a la membrana mitocondrial interna. En este tipo de cambio preletal, la cromatina se condensa y finalmente se degrada; sin embargo, no se observa el patrón en escalera característico de la apoptosis.

Necrosis

La necrosis se refiere a la serie de cambios que ocurren después de la muerte celular cuando la célula se convierte en desechos que normalmente se eliminan mediante la respuesta inflamatoria. Se pueden distinguir dos tipos: necrosis oncótica y necrosis apoptótica. La necrosis oncótica generalmente ocurre en zonas grandes, por ejemplo, en un infarto de miocardio o regionalmente en un órgano después de una toxicidad química, como el túbulo proximal renal después de la administración de HgCl.2. Están afectadas amplias zonas de un órgano y las células necróticas provocan rápidamente una reacción inflamatoria, primero aguda y luego crónica. En el caso de que el organismo sobreviva, en muchos órganos a la necrosis le sigue la eliminación de las células muertas y la regeneración, por ejemplo, en el hígado o el riñón después de la toxicidad química. Por el contrario, la necrosis apoptótica se produce normalmente en una sola célula y los restos necróticos se forman dentro de los fagocitos de los macrófagos o de las células parenquimatosas adyacentes. Las primeras características de las células necróticas incluyen interrupciones en la continuidad de la membrana plasmática y la aparición de densidades floculantes, que representan proteínas desnaturalizadas dentro de la matriz mitocondrial. En algunas formas de lesión que inicialmente no interfieren con la acumulación de calcio mitocondrial, se pueden observar depósitos de fosfato de calcio dentro de las mitocondrias. Otros sistemas de membrana se fragmentan de manera similar, como el RE, los lisosomas y el aparato de Golgi. Finalmente, la cromatina nuclear sufre lisis, como resultado del ataque de las hidrolasas lisosomales. Después de la muerte celular, las hidrolasas lisosomales desempeñan un papel importante en la eliminación de desechos con catepsinas, nucleolasas y lipasas, ya que estas tienen un pH ácido óptimo y pueden sobrevivir al bajo pH de las células necróticas mientras que otras enzimas celulares se desnaturalizan e inactivan.

Mecanismos

Estímulo inicial

En el caso de lesiones letales, las interacciones iniciales más comunes que dan lugar a lesiones que conducen a la muerte celular son la interferencia con el metabolismo energético, como anoxia, isquemia o inhibidores de la respiración, y la glucólisis, como cianuro de potasio, monóxido de carbono, yodoacetato y pronto. Como se mencionó anteriormente, las altas dosis de compuestos que inhiben el metabolismo energético suelen provocar oncosis. El otro tipo común de lesión inicial que resulta en muerte celular aguda es la modificación de la función de la membrana plasmática (Trump y Arstila 1971; Trump, Berezesky y Osornio-Vargas 1981). Esto puede ser daño directo y permeabilización, como en el caso de un trauma o activación del complejo C5b-C9 del complemento, daño mecánico a la membrana celular o inhibición del sodio-potasio (Na+-K+) bombear con glucósidos como la ouabaína. Ionóforos de calcio como la ionomicina o A23187, que transportan rápidamente [Ca2+] por el gradiente en la célula, también causan lesiones letales agudas. En algunos casos, el patrón en el cambio preletal es la apoptosis; en otros, es oncosis.

Vías de señalización

Con muchos tipos de lesiones, la respiración mitocondrial y la fosforilación oxidativa se ven afectadas rápidamente. En algunas células, esto estimula la glucólisis anaeróbica, que es capaz de mantener ATP, pero con muchas lesiones esto se inhibe. La falta de ATP da como resultado la falta de activación de varios procesos homeostáticos importantes, en particular, el control de la homeostasis de iones intracelulares (Trump y Berezesky 1992; Trump, Berezesky y Osornio-Vargas 1981). Esto resulta en rápidos aumentos de [Ca2+]i, y aumentó [Na+] y [Cl-] da como resultado la inflamación de las células. Aumentos en [Ca2+]i dan como resultado la activación de una serie de otros mecanismos de señalización que se analizan a continuación, incluida una serie de quinasas, que pueden dar como resultado un aumento inmediato de la transcripción temprana de genes. Aumento de [Ca2+]i también modifica la función del citoesqueleto, lo que en parte da como resultado la formación de vesículas y la activación de endonucleasas, proteasas y fosfolipasas. Estos parecen desencadenar muchos de los efectos importantes discutidos anteriormente, como el daño de la membrana a través de la activación de la proteasa y la lipasa, la degradación directa del ADN por la activación de la endonucleasa y la activación de quinasas como MAP quinasa y calmodulina quinasa, que actúan como factores de transcripción.

A través de un extenso trabajo sobre el desarrollo en los invertebrados C. elegans y Drosophila, además de células humanas y animales, se han identificado una serie de genes pro-muerte. Se ha descubierto que algunos de estos genes de invertebrados tienen homólogos de mamíferos. Por ejemplo, el gen ced-3, que es esencial para la muerte celular programada en c. elegans, tiene actividad de proteasa y una fuerte homología con la enzima convertidora de interleucina de mamíferos (ICE). Recientemente se ha identificado un gen estrechamente relacionado denominado apopaína o prICE con una homología aún más estrecha (Nicholson et al. 1995). En Drosophila, el gen segador parece estar involucrado en una señal que conduce a la muerte celular programada. Otros genes favorables a la muerte incluyen la proteína de membrana Fas y el importante gen supresor de tumores, p53, que está ampliamente conservado. p53 se induce a nivel de proteína después del daño en el ADN y cuando se fosforila actúa como un factor de transcripción para otros genes como gadd45 y waf-1, que están involucrados en la señalización de muerte celular. Otros genes tempranos inmediatos como c-fos, c-jun y c-myc también parecen estar involucrados en algunos sistemas.

Al mismo tiempo, existen genes anti-muerte que parecen contrarrestar los genes pro-muerte. El primero de ellos en ser identificado fue el ced-9 de C. elegans, que es homólogo a bcl-2 en humanos. Estos genes actúan de una manera aún desconocida para prevenir la muerte celular por toxinas genéticas o químicas. Cierta evidencia reciente indica que bcl-2 puede actuar como un antioxidante. Actualmente, se están realizando muchos esfuerzos para desarrollar una comprensión de los genes involucrados y desarrollar formas de activar o inhibir estos genes, según la situación.

 

Atrás

Domingo, enero 16 2011 16: 18

Introducción y conceptos

La toxicología mecanicista es el estudio de cómo los agentes químicos o físicos interactúan con los organismos vivos para causar toxicidad. El conocimiento del mecanismo de toxicidad de una sustancia mejora la capacidad de prevenir la toxicidad y diseñar productos químicos más deseables; constituye la base para la terapia en caso de sobreexposición y, con frecuencia, permite una mayor comprensión de los procesos biológicos fundamentales. Para efectos de este Enciclopedia se hará hincapié en los animales para predecir la toxicidad humana. Las diferentes áreas de la toxicología incluyen la toxicología mecanicista, descriptiva, regulatoria, forense y ambiental (Klaassen, Amdur y Doull 1991). Todos estos se benefician de la comprensión de los mecanismos fundamentales de la toxicidad.

¿Por qué entender los mecanismos de toxicidad?

Comprender el mecanismo por el cual una sustancia causa toxicidad mejora las diferentes áreas de la toxicología de diferentes maneras. La comprensión mecánica ayuda al regulador gubernamental a establecer límites seguros legalmente vinculantes para la exposición humana. Ayuda a los toxicólogos a recomendar cursos de acción con respecto a la limpieza o remediación de sitios contaminados y, junto con las propiedades físicas y químicas de la sustancia o mezcla, puede usarse para seleccionar el grado de equipo de protección requerido. El conocimiento mecanicista también es útil para formar la base de la terapia y el diseño de nuevos fármacos para el tratamiento de enfermedades humanas. Para el toxicólogo forense, el mecanismo de toxicidad a menudo proporciona información sobre cómo un agente químico o físico puede causar la muerte o la incapacitación.

Si se comprende el mecanismo de toxicidad, la toxicología descriptiva se vuelve útil para predecir los efectos tóxicos de sustancias químicas relacionadas. Sin embargo, es importante comprender que la falta de información sobre los mecanismos no impide que los profesionales de la salud protejan la salud humana. Se utilizan decisiones prudentes basadas en estudios con animales y experiencia humana para establecer niveles de exposición seguros. Tradicionalmente, se establecía un margen de seguridad usando el “nivel sin efectos adversos” o el “nivel más bajo de efectos adversos” de estudios con animales (usando diseños de exposición repetida) y dividiendo ese nivel por un factor de 100 para exposición ocupacional o 1,000 para otra exposición ambiental humana. El éxito de este proceso es evidente a partir de los pocos incidentes de efectos adversos para la salud atribuidos a la exposición a sustancias químicas en los trabajadores en los que en el pasado se habían establecido y respetado los límites de exposición apropiados. Además, la esperanza de vida humana sigue aumentando, al igual que la calidad de vida. En general, el uso de los datos de toxicidad ha dado lugar a un control normativo y voluntario eficaz. El conocimiento detallado de los mecanismos tóxicos mejorará la previsibilidad de los modelos de riesgo más nuevos que se están desarrollando actualmente y dará como resultado una mejora continua.

Comprender los mecanismos ambientales es complejo y supone un conocimiento de la alteración y la homeostasis (equilibrio) de los ecosistemas. Si bien no se analiza en este artículo, una mejor comprensión de los mecanismos tóxicos y sus consecuencias finales en un ecosistema ayudaría a los científicos a tomar decisiones prudentes con respecto al manejo de materiales de desecho industriales y municipales. La gestión de residuos es un área de investigación en crecimiento y seguirá siendo muy importante en el futuro.

Técnicas para estudiar los mecanismos de toxicidad

La mayoría de los estudios mecanísticos comienzan con un estudio toxicológico descriptivo en animales u observaciones clínicas en humanos. Idealmente, los estudios en animales incluyen cuidadosas observaciones clínicas y de comportamiento, un examen bioquímico cuidadoso de los elementos de la sangre y la orina en busca de signos de función adversa de los principales sistemas biológicos del cuerpo, y una evaluación post-mortem de todos los sistemas de órganos mediante un examen microscópico para verificar lesiones (consulte las directrices de ensayo de la OCDE; las directivas de la CE sobre evaluación química; las normas de ensayo de la EPA de EE. UU.; las reglamentaciones sobre productos químicos de Japón). Esto es análogo a un examen físico humano completo que se llevaría a cabo en un hospital durante un período de dos a tres días, excepto por el examen post-mortem.

Comprender los mecanismos de toxicidad es el arte y la ciencia de la observación, la creatividad en la selección de técnicas para probar varias hipótesis y la integración innovadora de signos y síntomas en una relación causal. Los estudios mecanísticos comienzan con la exposición, siguen la distribución relacionada con el tiempo y el destino en el cuerpo (farmacocinética) y miden el efecto tóxico resultante en algún nivel del sistema y en algún nivel de dosis. Diferentes sustancias pueden actuar en diferentes niveles del sistema biológico causando toxicidad.

Exposición

La vía de exposición en los estudios mecanísticos suele ser la misma que para la exposición humana. La ruta es importante porque puede haber efectos que ocurren localmente en el sitio de exposición además de efectos sistémicos después de que la sustancia química haya sido absorbida en la sangre y distribuida por todo el cuerpo. Un ejemplo simple pero convincente de un efecto local sería la irritación y eventual corrosión de la piel después de la aplicación de soluciones alcalinas o ácidas fuertes diseñadas para limpiar superficies duras. De manera similar, puede ocurrir irritación y muerte celular en las células que recubren la nariz y/o los pulmones después de la exposición a vapores o gases irritantes como óxidos de nitrógeno u ozono. (Ambos son componentes de la contaminación del aire o smog). Después de la absorción de un químico en la sangre a través de la piel, los pulmones o el tracto gastrointestinal, la concentración en cualquier órgano o tejido está controlada por muchos factores que determinan la farmacocinética del químico en el cuerpo. El cuerpo tiene la capacidad de activar y desintoxicar varios químicos como se indica a continuación.

Papel de la farmacocinética en la toxicidad

La farmacocinética describe las relaciones de tiempo para la absorción, distribución, metabolismo (alteraciones bioquímicas en el cuerpo) y eliminación o excreción química del cuerpo. En relación con los mecanismos de toxicidad, estas variables farmacocinéticas pueden ser muy importantes y, en algunos casos, determinan si se producirá o no toxicidad. Por ejemplo, si un material no se absorbe en una cantidad suficiente, no se producirá toxicidad sistémica (dentro del cuerpo). Por el contrario, una sustancia química altamente reactiva que se desintoxica rápidamente (segundos o minutos) por enzimas digestivas o hepáticas puede no tener tiempo para causar toxicidad. Algunas sustancias y mezclas policíclicas halogenadas, así como ciertos metales como el plomo, no causarían una toxicidad significativa si la excreción fuera rápida; pero la acumulación a niveles suficientemente altos determina su toxicidad ya que la excreción no es rápida (a veces se mide en años). Afortunadamente, la mayoría de los productos químicos no tienen una retención tan larga en el cuerpo. La acumulación de un material inocuo aún no induciría toxicidad. La tasa de eliminación del cuerpo y la desintoxicación se denomina con frecuencia la vida media de la sustancia química, que es el tiempo para que el 50 % de la sustancia química se excrete o se altere a una forma no tóxica.

Sin embargo, si una sustancia química se acumula en una célula u órgano en particular, eso puede indicar una razón para examinar más a fondo su posible toxicidad en ese órgano. Más recientemente, se han desarrollado modelos matemáticos para extrapolar variables farmacocinéticas de animales a humanos. Estos modelos farmacocinéticos son extremadamente útiles para generar hipótesis y probar si el animal de experimentación puede ser una buena representación para los humanos. Se han escrito numerosos capítulos y textos sobre este tema (Gehring et al. 1976; Reitz et al. 1987; Nolan et al. 1995). En la figura 1 se muestra un ejemplo simplificado de un modelo fisiológico.

Figura 1. Un modelo farmacocinético simplificado

TOX210F1

Los diferentes niveles y sistemas pueden verse afectados negativamente

La toxicidad se puede describir en diferentes niveles biológicos. La lesión se puede evaluar en la persona (o animal) en su totalidad, el sistema de órganos, la célula o la molécula. Los sistemas de órganos incluyen los sistemas inmunitario, respiratorio, cardiovascular, renal, endocrino, digestivo, musculoesquelético, sanguíneo, reproductivo y nervioso central. Algunos órganos clave incluyen el hígado, los riñones, los pulmones, el cerebro, la piel, los ojos, el corazón, los testículos o los ovarios, y otros órganos importantes. A nivel celular/bioquímico, los efectos adversos incluyen la interferencia con la función normal de las proteínas, la función de los receptores endocrinos, la inhibición de la energía metabólica o la inhibición o inducción de enzimas xenobióticas (sustancias extrañas). Los efectos adversos a nivel molecular incluyen la alteración de la función normal de la transcripción de ADN-ARN, de la unión a receptores citoplasmáticos y nucleares específicos, y de genes o productos génicos. En última instancia, es probable que la disfunción en un sistema orgánico principal sea causada por una alteración molecular en una célula diana particular dentro de ese órgano. Sin embargo, no siempre es posible rastrear un mecanismo hasta un origen molecular de causalidad, ni tampoco es necesario. La intervención y la terapia se pueden diseñar sin una comprensión completa del objetivo molecular. Sin embargo, el conocimiento sobre el mecanismo específico de toxicidad aumenta el valor predictivo y la precisión de la extrapolación a otras sustancias químicas. La figura 2 es una representación esquemática de los diversos niveles en los que se puede detectar la interferencia de los procesos fisiológicos normales. Las flechas indican que las consecuencias para un individuo pueden determinarse de arriba hacia abajo (exposición, farmacocinética a toxicidad de sistema/órgano) o de abajo hacia arriba (cambio molecular, efecto celular/bioquímico a toxicidad de sistema/órgano).

Figura 2. Representación de mecanismos de toxicidad

TOX210F2

Ejemplos de mecanismos de toxicidad

Los mecanismos de toxicidad pueden ser sencillos o muy complejos. Con frecuencia, existe una diferencia entre el tipo de toxicidad, el mecanismo de toxicidad y el nivel de efecto, relacionado con si los efectos adversos se deben a una sola dosis aguda alta (como un envenenamiento accidental) o a una dosis más baja. exposición repetida (por exposición ocupacional o ambiental). Clásicamente, para fines de prueba, se administra una dosis alta única aguda mediante intubación directa en el estómago de un roedor o exposición a una atmósfera de gas o vapor durante dos a cuatro horas, lo que mejor se asemeje a la exposición humana. Los animales se observan durante un período de dos semanas después de la exposición y luego se examinan los principales órganos externos e internos en busca de lesiones. Las pruebas de dosis repetida varían de meses a años. Para las especies de roedores, dos años se considera un estudio crónico (de por vida) suficiente para evaluar la toxicidad y la carcinogenicidad, mientras que para los primates no humanos, dos años se consideraría un estudio subcrónico (menos de la vida) para evaluar la toxicidad de dosis repetidas. Después de la exposición, se realiza un examen completo de todos los tejidos, órganos y fluidos para determinar cualquier efecto adverso.

Mecanismos de toxicidad aguda

Los siguientes ejemplos son específicos de los efectos agudos de dosis altas que pueden provocar la muerte o una incapacidad grave. Sin embargo, en algunos casos, la intervención tendrá efectos transitorios y totalmente reversibles. La dosis o la gravedad de la exposición determinarán el resultado.

Asfixiantes simples. El mecanismo de toxicidad de los gases inertes y algunas otras sustancias no reactivas es la falta de oxígeno (anoxia). Estas sustancias químicas, que provocan la privación de oxígeno en el sistema nervioso central (SNC), se denominan asfixiantes simples. Si una persona ingresa a un espacio cerrado que contiene nitrógeno sin suficiente oxígeno, se produce un agotamiento inmediato del oxígeno en el cerebro y conduce a la pérdida del conocimiento y, finalmente, a la muerte si no se retira rápidamente a la persona. En casos extremos (casi cero oxígeno) la pérdida del conocimiento puede ocurrir en unos pocos segundos. El rescate depende de la rápida remoción a un ambiente oxigenado. La supervivencia con daño cerebral irreversible puede ocurrir por un rescate retrasado, debido a la muerte de las neuronas, que no pueden regenerarse.

asfixiantes químicos. El monóxido de carbono (CO) compite con el oxígeno para unirse a la hemoglobina (en los glóbulos rojos) y, por lo tanto, priva a los tejidos de oxígeno para el metabolismo energético; la muerte celular puede resultar. La intervención incluye la eliminación de la fuente de CO y el tratamiento con oxígeno. El uso directo del oxígeno se basa en la acción tóxica del CO. Otro potente asfixiante químico es el cianuro. El ion cianuro interfiere con el metabolismo celular y la utilización de oxígeno para obtener energía. El tratamiento con nitrito de sodio provoca un cambio en la hemoglobina de los glóbulos rojos a metahemoglobina. La metahemoglobina tiene una mayor afinidad de unión con el ion cianuro que el objetivo celular del cianuro. En consecuencia, la metahemoglobina se une al cianuro y lo mantiene alejado de las células diana. Esto forma la base para la terapia con antídotos.

Depresores del sistema nervioso central (SNC). La toxicidad aguda se caracteriza por la sedación o pérdida del conocimiento de una serie de materiales como disolventes que no son reactivos o que se transforman en productos intermedios reactivos. Se plantea la hipótesis de que la sedación/anestesia se debe a una interacción del disolvente con las membranas de las células del SNC, lo que reduce su capacidad para transmitir señales eléctricas y químicas. Si bien la sedación puede parecer una forma leve de toxicidad y fue la base para el desarrollo de los primeros anestésicos, "la dosis aún produce el veneno". Si se administra una dosis suficiente por ingestión o inhalación, el animal puede morir por paro respiratorio. Si no se produce la muerte anestésica, este tipo de toxicidad suele ser rápidamente reversible cuando el sujeto se retira del medio ambiente o la sustancia química se redistribuye o elimina del cuerpo.

Efectos de la piel. Los efectos adversos para la piel pueden ir desde la irritación hasta la corrosión, según la sustancia encontrada. Los ácidos fuertes y las soluciones alcalinas son incompatibles con los tejidos vivos y son corrosivos, provocando quemaduras químicas y posibles cicatrices. La cicatrización se debe a la muerte de las células dérmicas profundas de la piel responsables de la regeneración. Las concentraciones más bajas pueden causar irritación de la primera capa de la piel.

Otro mecanismo tóxico específico de la piel es el de la sensibilización química. Por ejemplo, la sensibilización se produce cuando el 2,4-dinitroclorobenceno se une a las proteínas naturales de la piel y el sistema inmunitario reconoce el complejo unido a proteínas alterado como un material extraño. Al responder a este material extraño, el sistema inmunitario activa células especiales para eliminar la sustancia extraña mediante la liberación de mediadores (citocinas) que provocan una erupción o dermatitis (consulte “Inmunotoxicología”). Esta es la misma reacción del sistema inmunitario cuando se produce la exposición a la hiedra venenosa. La sensibilización inmunitaria es muy específica de la sustancia química en particular y requiere al menos dos exposiciones antes de que se produzca una respuesta. La primera exposición sensibiliza (prepara las células para que reconozcan la sustancia química) y las exposiciones posteriores desencadenan la respuesta del sistema inmunitario. La eliminación del contacto y la terapia sintomática con cremas antiinflamatorias que contienen esteroides suelen ser eficaces en el tratamiento de personas sensibilizadas. En casos graves o refractarios, se utiliza un inmunosupresor de acción sistémica como la prednisona junto con el tratamiento tópico.

sensibilización pulmonar. El diisocianato de tolueno (TDI) provoca una respuesta de sensibilización inmunitaria, pero el sitio objetivo son los pulmones. La sobreexposición a TDI en personas susceptibles provoca edema pulmonar (acumulación de líquido), constricción bronquial y dificultad para respirar. Esta es una condición grave y requiere retirar al individuo de posibles exposiciones posteriores. El tratamiento es principalmente sintomático. La sensibilización de la piel y los pulmones sigue una respuesta a la dosis. Superar el nivel establecido para la exposición ocupacional puede causar efectos adversos.

Efectos oculares. Las lesiones oculares varían desde el enrojecimiento de la capa exterior (enrojecimiento de la piscina) hasta la formación de cataratas en la córnea y daños en el iris (la parte coloreada del ojo). Las pruebas de irritación ocular se realizan cuando se cree que no se producirán lesiones graves. Muchos de los mecanismos que causan la corrosión de la piel también pueden causar lesiones en los ojos. Los materiales corrosivos para la piel, como ácidos fuertes (pH inferior a 2) y álcalis (pH superior a 11.5), no se prueban en los ojos de los animales porque la mayoría causará corrosión y ceguera debido a un mecanismo similar al que causa la corrosión de la piel. . Además, los agentes tensioactivos como los detergentes y los tensioactivos pueden causar lesiones oculares que van desde la irritación hasta la corrosión. Un grupo de materiales que requiere precaución son los tensioactivos cargados positivamente (catiónicos), que pueden causar quemaduras, opacidad permanente de la córnea y vascularización (formación de vasos sanguíneos). Otro químico, el dinitrofenol, tiene un efecto específico en la formación de cataratas. Esto parece estar relacionado con la concentración de esta sustancia química en el ojo, que es un ejemplo de especificidad de distribución farmacocinética.

Si bien la lista anterior está lejos de ser exhaustiva, está diseñada para brindarle al lector una apreciación de varios mecanismos de toxicidad aguda.

Mecanismos de toxicidad crónica y subcrónica

Cuando se administran en una sola dosis alta, algunas sustancias químicas no tienen el mismo mecanismo de toxicidad que cuando se administran repetidamente en dosis más bajas pero aún tóxicas. Cuando se administra una sola dosis alta, siempre existe la posibilidad de exceder la capacidad de la persona para desintoxicarse o excretar la sustancia química, y esto puede conducir a una respuesta tóxica diferente que cuando se administran dosis repetitivas más bajas. El alcohol es un buen ejemplo. Las dosis altas de alcohol provocan efectos primarios en el sistema nervioso central, mientras que las dosis repetitivas más bajas provocan lesiones hepáticas.

Inhibición de la anticolinesterasa. La mayoría de los pesticidas organofosforados, por ejemplo, tienen poca toxicidad para los mamíferos hasta que se activan metabólicamente, principalmente en el hígado. El principal mecanismo de acción de los organofosforados es la inhibición de la acetilcolinesterasa (AChE) en el cerebro y el sistema nervioso periférico. AChE es la enzima normal que termina la estimulación del neurotransmisor acetilcolina. La inhibición leve de AChE durante un período prolongado no se ha asociado con efectos adversos. A altos niveles de exposición, la incapacidad para terminar esta estimulación neuronal da como resultado una sobreestimulación del sistema nervioso colinérgico. La sobreestimulación colinérgica finalmente da como resultado una serie de síntomas, incluido el paro respiratorio, seguido de la muerte si no se trata. El tratamiento primario es la administración de atropina, que bloquea los efectos de la acetilcolina, y la administración de cloruro de pralidoxima, que reactiva la AChE inhibida. Por lo tanto, tanto la causa como el tratamiento de la toxicidad por organofosforados se abordan mediante la comprensión de la base bioquímica de la toxicidad.

Activación metabólica. Muchos productos químicos, incluidos el tetracloruro de carbono, el cloroformo, el acetilaminofluoreno, las nitrosaminas y el paraquat, se activan metabólicamente a radicales libres u otros intermediarios reactivos que inhiben e interfieren con la función celular normal. A altos niveles de exposición, esto da como resultado la muerte celular (ver “Daño celular y muerte celular”). Si bien se desconocen las interacciones específicas y los objetivos celulares, los sistemas de órganos que tienen la capacidad de activar estos químicos, como el hígado, los riñones y los pulmones, son todos objetivos potenciales de lesiones. Específicamente, las células particulares dentro de un órgano tienen una mayor o menor capacidad para activar o desintoxicar estos intermediarios, y esta capacidad determina la susceptibilidad intracelular dentro de un órgano. El metabolismo es una de las razones por las que la comprensión de la farmacocinética, que describe estos tipos de transformaciones y la distribución y eliminación de estos intermediarios, es importante para reconocer el mecanismo de acción de estas sustancias químicas.

Mecanismos del cáncer. El cáncer es una multiplicidad de enfermedades, y aunque la comprensión de ciertos tipos de cáncer está aumentando rápidamente debido a las numerosas técnicas de biología molecular que se han desarrollado desde 1980, aún queda mucho por aprender. Sin embargo, está claro que el desarrollo del cáncer es un proceso de varias etapas, y los genes críticos son clave para diferentes tipos de cáncer. Las alteraciones en el ADN (mutaciones somáticas) en varios de estos genes críticos pueden causar una mayor susceptibilidad o lesiones cancerosas (ver “Toxicología genética”). La exposición a químicos naturales (en alimentos cocidos como carne de res y pescado) o químicos sintéticos (como bencidina, utilizada como colorante) o agentes físicos (luz ultravioleta del sol, radón del suelo, radiación gamma de procedimientos médicos o actividad industrial) son todos contribuyentes a las mutaciones genéticas somáticas. Sin embargo, existen sustancias naturales y sintéticas (como los antioxidantes) y procesos de reparación del ADN que son protectores y mantienen la homeostasis. Está claro que la genética es un factor importante en el cáncer, ya que los síndromes de enfermedades genéticas como el xeroderma pigmentoso, donde hay una falta de reparación normal del ADN, aumentan drásticamente la susceptibilidad al cáncer de piel por la exposición a la luz ultravioleta del sol.

Mecanismos reproductivos. Similar al cáncer, se conocen muchos mecanismos de toxicidad reproductiva y/o de desarrollo, pero queda mucho por aprender. Se sabe que ciertos virus (como la rubéola), infecciones bacterianas y medicamentos (como la talidomida y la vitamina A) afectarán negativamente el desarrollo. Recientemente, el trabajo de Khera (1991), revisado por Carney (1994), muestra buena evidencia de que los efectos anormales en el desarrollo en pruebas con animales con etilenglicol son atribuibles a metabolitos metabólicos ácidos maternos. Esto ocurre cuando el etilenglicol se metaboliza a metabolitos ácidos, incluidos los ácidos glicólico y oxálico. Los efectos posteriores sobre la placenta y el feto parecen deberse a este proceso de intoxicación metabólica.

Conclusión

La intención de este artículo es dar una perspectiva sobre varios mecanismos conocidos de toxicidad y la necesidad de estudios futuros. Es importante entender que el conocimiento mecanicista no es absolutamente necesario para proteger la salud humana o ambiental. Este conocimiento mejorará la capacidad del profesional para predecir y manejar mejor la toxicidad. Las técnicas reales utilizadas para dilucidar cualquier mecanismo en particular dependen del conocimiento colectivo de los científicos y del pensamiento de quienes toman decisiones sobre la salud humana.

 

Atrás

Página 116 de 122

" EXENCIÓN DE RESPONSABILIDAD: La OIT no se responsabiliza por el contenido presentado en este portal web que se presente en un idioma que no sea el inglés, que es el idioma utilizado para la producción inicial y la revisión por pares del contenido original. Ciertas estadísticas no se han actualizado desde la producción de la 4ª edición de la Enciclopedia (1998)."

Contenido