Imprimir
Miércoles, marzo de 02 2011 03: 15

Métodos de estadística

Valora este artículo
(Vote 1)

Hay mucho debate sobre el papel de las estadísticas en la investigación epidemiológica sobre las relaciones causales. En epidemiología, la estadística es principalmente una colección de métodos para evaluar datos basados ​​en poblaciones humanas (y también animales). En particular, la estadística es una técnica para la cuantificación y medición de fenómenos inciertos. Todas las investigaciones científicas que traten aspectos no deterministas y variables de la realidad podrían beneficiarse de la metodología estadística. En epidemiología, la variabilidad es intrínseca a la unidad de observación: una persona no es una entidad determinista. Si bien los diseños experimentales se mejorarían en términos de cumplir mejor con los supuestos de las estadísticas en términos de variación aleatoria, por razones éticas y prácticas, este enfoque no es demasiado común. En cambio, la epidemiología se dedica a la investigación observacional que se ha asociado con ella tanto al azar como a otras fuentes de variabilidad.

La teoría estadística se ocupa de cómo controlar la variabilidad no estructurada de los datos para hacer inferencias válidas a partir de observaciones empíricas. A falta de explicación para el comportamiento variable del fenómeno estudiado, la estadística lo asume como azar—es decir, desviaciones no sistemáticas de algún estado medio de la naturaleza (ver Greenland 1990 para una crítica de estos supuestos).

La ciencia se basa en lo empírico. evidencia sólida para demostrar si sus modelos teóricos de eventos naturales tienen alguna validez. De hecho, los métodos utilizados de la teoría estadística determinan el grado en que las observaciones en el mundo real se ajustan a la visión de los científicos, en forma de modelo matemático, de un fenómeno. Por lo tanto, los métodos estadísticos, basados ​​en matemáticas, deben seleccionarse cuidadosamente; abundan los ejemplos de “cómo mentir con las estadísticas”. Por lo tanto, los epidemiólogos deben ser conscientes de la idoneidad de las técnicas que aplican para medir el riesgo de enfermedad. En particular, se necesita mucho cuidado al interpretar resultados estadísticamente significativos y estadísticamente no significativos.

El primer significado de la palabra. statistics se relaciona con cualquier cantidad resumida calculada sobre un conjunto de valores. Los índices descriptivos o estadísticos como la media aritmética, la mediana o la moda, son muy utilizados para resumir la información en una serie de observaciones. Históricamente, estos descriptores resumidos fueron utilizados con fines administrativos por los estados y, por lo tanto, se denominaron statistics. En epidemiología, las estadísticas que se ven comúnmente se derivan de las comparaciones inherentes a la naturaleza de la epidemiología, que hace preguntas como: "¿Una población tiene mayor riesgo de enfermedad que otra?" Al hacer tales comparaciones, el riesgo relativo es una medida popular de la fuerza de la asociación entre una característica individual y la probabilidad de enfermarse, y se aplica más comúnmente en la investigación etiológica; el riesgo atribuible también es una medida de asociación entre las características individuales y la ocurrencia de la enfermedad, pero enfatiza la ganancia en términos de número de casos evitados por una intervención que elimina el factor en cuestión; se aplica principalmente en salud pública y medicina preventiva.

El segundo significado de la palabra. statistics se relaciona con la colección de técnicas y la teoría subyacente de la inferencia estadística. Esta es una forma particular de lógica inductiva que especifica las reglas para obtener una generalización válida de un conjunto particular de observaciones empíricas. Esta generalización sería válida siempre que se cumplan algunos supuestos. Esta es la segunda forma en que un uso inculto de la estadística nos puede engañar: en la epidemiología observacional, es muy difícil estar seguro de los supuestos que implican las técnicas estadísticas. Por lo tanto, el análisis de sensibilidad y los estimadores robustos deben acompañar a cualquier análisis de datos realizado correctamente. Las conclusiones finales también deben basarse en el conocimiento general y no deben depender exclusivamente de los hallazgos de las pruebas de hipótesis estadísticas.

Definiciones

A unidad estadística es el elemento sobre el que se realizan las observaciones empíricas. Puede ser una persona, un espécimen biológico o una pieza de materia prima a analizar. Por lo general, el investigador elige de forma independiente las unidades estadísticas, pero a veces se pueden configurar diseños más complejos. Por ejemplo, en los estudios longitudinales se realiza una serie de determinaciones sobre un conjunto de personas a lo largo del tiempo; las unidades estadísticas en este estudio son el conjunto de determinaciones, las cuales no son independientes, sino que están estructuradas por sus respectivas conexiones con cada persona objeto de estudio. La falta de independencia o correlación entre las unidades estadísticas merece especial atención en el análisis estadístico.

A variable es una característica individual medida en una unidad estadística determinada. Debe contrastarse con un constante, una característica individual fija; por ejemplo, en un estudio sobre seres humanos, tener una cabeza o un tórax son constantes, mientras que el género de un solo miembro del estudio es una variable.

Las variables se evalúan utilizando diferentes escalas de medida. La primera distinción es entre escalas cualitativas y cuantitativas. Las variables cualitativas proporcionan diferentes modalidades or categoría. Si cada modalidad no se puede clasificar u ordenar en relación con otras, por ejemplo, color de cabello o modalidades de género, denotamos la variable como nominal. Si las categorías se pueden ordenar, como el grado de gravedad de una enfermedad, la variable se llama ordinal. Cuando una variable consta de un valor numérico, decimos que la escala es cuantitativa. A discreto La escala denota que la variable puede asumir solo algunos valores definidos, por ejemplo, valores enteros para el número de casos de enfermedad. A continuo La escala se utiliza para aquellas medidas que dan como resultado real números. Se dice que las escalas continuas son intervalo escalas cuando el valor nulo tiene un significado puramente convencional. Es decir, un valor de cero no significa cantidad cero; por ejemplo, una temperatura de cero grados centígrados no significa energía térmica cero. En este caso, solo las diferencias entre valores tienen sentido (esta es la razón del término escala de "intervalo"). Un valor nulo real denota un proporción escala. Para una variable medida en esa escala, las proporciones de valores también tienen sentido: de hecho, una proporción doble significa el doble de la cantidad. Por ejemplo, decir que un cuerpo tiene una temperatura dos veces mayor que un segundo cuerpo significa que tiene dos veces la energía térmica del segundo cuerpo, siempre que la temperatura se mide en una escala de proporción (p. ej., en grados Kelvin). El conjunto de valores permisibles para una variable dada se denomina dominio de la variable.

Paradigmas estadísticos

La estadística se ocupa de la forma de generalizar a partir de un conjunto de observaciones particulares. Este conjunto de medidas empíricas se denomina muestra. A partir de una muestra, calculamos algunas estadísticas descriptivas para resumir la información recopilada.

La información básica que generalmente se requiere para caracterizar un conjunto de medidas se relaciona con su tendencia central y su variabilidad. La elección entre varias alternativas depende de la escala utilizada para medir un fenómeno y de los propósitos para los que se calculan las estadísticas. En la tabla 1 se describen diferentes medidas de tendencia central y variabilidad (o dispersión) y se asocian con la escala de medida adecuada.

Tabla 1. Índices de tendencia central y dispersión por escala de medida

 

Escala de medida

 

Cualitativo

 

Cuantitativo

Indices

Definición

Nominal

Ordinal

Intervalo/proporción

Significado aritmetico

Suma de los valores observados dividida por el número total de observaciones

 

x

Mediana

Valor del punto medio de la distribución observada

 

x

x

Moda

Valor más frecuente

x

x

x

Gama de Colores

Valores más bajos y más altos de la distribución

 

x

x

Diferencia

Suma de la diferencia al cuadrado de cada valor de la media dividida por el número total de observaciones menos 1

 

 

x

 

Las estadísticas descriptivas calculadas se denominan estima cuando los usamos como sustituto de la cantidad análoga de la población de la que se ha seleccionado la muestra. Las contrapartes poblacionales de las estimaciones son constantes llamadas parámetros. Se pueden obtener estimaciones de un mismo parámetro utilizando diferentes métodos estadísticos. Una estimación debe ser válida y precisa.

El paradigma muestra-población implica que la validez puede asegurarse por la forma en que se selecciona la muestra de la población. El muestreo aleatorio o probabilístico es la estrategia habitual: si cada miembro de la población tiene la misma probabilidad de ser incluido en la muestra, entonces, en promedio, nuestra muestra debería ser representativa de la población y, además, cualquier desviación de nuestra expectativa podría ser explicado por casualidad. También se puede calcular la probabilidad de una desviación dada de nuestra expectativa, siempre que se haya realizado un muestreo aleatorio. El mismo tipo de razonamiento se aplica a las estimaciones calculadas para nuestra muestra con respecto a los parámetros de la población. Tomamos, por ejemplo, el promedio aritmético de nuestra muestra como una estimación del valor medio de la población. Cualquier diferencia, si existe, entre el promedio de la muestra y la media de la población se atribuye a fluctuaciones aleatorias en el proceso de selección de los miembros incluidos en la muestra. Podemos calcular la probabilidad de cualquier valor de esta diferencia, siempre que la muestra se haya seleccionado al azar. Si la desviación entre la estimación de la muestra y el parámetro de la población no puede explicarse por casualidad, se dice que la estimación es parcial. El diseño de la observación o experimento da validez a las estimaciones y el paradigma estadístico fundamental es el del muestreo aleatorio.

En medicina, se adopta un segundo paradigma cuando el objetivo del estudio es la comparación entre diferentes grupos. Un ejemplo típico es el ensayo clínico controlado: se selecciona un conjunto de pacientes con características similares en base a criterios predefinidos. No se hace ninguna preocupación por la representatividad en esta etapa. Cada paciente inscrito en el ensayo se asigna mediante un procedimiento aleatorio al grupo de tratamiento, que recibirá la terapia estándar más el nuevo fármaco que se evaluará, o al grupo de control, que recibirá la terapia estándar y un placebo. En este diseño, la asignación aleatoria de los pacientes a cada grupo reemplaza la selección aleatoria de los miembros de la muestra. La estimación de la diferencia entre los dos grupos se puede evaluar estadísticamente porque, bajo la hipótesis de que el nuevo fármaco no es eficaz, podemos calcular la probabilidad de cualquier diferencia distinta de cero.

En epidemiología, carecemos de la posibilidad de reunir aleatoriamente grupos de personas expuestas y no expuestas. En este caso, todavía podemos usar métodos estadísticos, como si los grupos analizados hubieran sido seleccionados o asignados al azar. La corrección de esta suposición se basa principalmente en el diseño del estudio. Este punto es particularmente importante y subraya la importancia del diseño de estudios epidemiológicos sobre las técnicas estadísticas en la investigación biomédica.

Señal y Ruido

El término variable aleatoria se refiere a una variable para la cual se asocia una probabilidad definida a cada valor que puede asumir. Los modelos teóricos para la distribución de la probabilidad de una variable aleatoria son modelos poblacionales. Las contrapartes de la muestra están representadas por la distribución de frecuencia de la muestra. Esta es una forma útil de informar un conjunto de datos; consiste en un plano cartesiano con la variable de interés en el eje horizontal y la frecuencia o frecuencia relativa en el eje vertical. Una pantalla gráfica nos permite ver fácilmente cuáles son los valores más frecuentes y cómo la distribución se concentra alrededor de ciertos valores centrales como el promedio aritmético.

Para las variables aleatorias y sus distribuciones de probabilidad, usamos los términos parámetros, valor medio esperado (en lugar de la media aritmética) y diferencia. Estos modelos teóricos describen la variabilidad en un fenómeno dado. En la teoría de la información, la señal se representa por la tendencia central (por ejemplo, el valor medio), mientras que el ruido se mide por un índice de dispersión (como la varianza).

Para ilustrar la inferencia estadística, usaremos el modelo binomial. En las secciones que siguen, se introducirán los conceptos de estimaciones puntuales e intervalos de confianza, pruebas de hipótesis y probabilidad de decisiones erróneas, y potencia de un estudio.

Tabla 2. Posibles resultados de un experimento binomial (sí = 1, no = 0) y sus probabilidades (n = 3)

Trabajador

Probabilidad

A

B

C

 

0

0

0

1

0

0

0

1

0

0

0

1

0

1

1

1

0

1

1

1

0

1

1

1

 

Un ejemplo: la distribución binomial

En investigación biomédica y epidemiología, el modelo más importante de variación estocástica es la distribución binomial. Se basa en el hecho de que la mayoría de los fenómenos se comportan como una variable nominal con solo dos categorías: por ejemplo, la presencia/ausencia de enfermedad: vivo/muerto o recuperado/enfermo. En tales circunstancias, nos interesa la probabilidad de éxito —es decir, en caso de interés (p. ej., presencia de enfermedad, vivo o recuperación)— y los factores o variables que pueden alterarla. Dejenos considerar n = 3 trabajadores, y supongamos que nos interesa la probabilidad, p, de tener una discapacidad visual (sí/no). El resultado de nuestra observación podría ser los posibles resultados de la tabla 2.

Tabla 3. Posibles resultados de un experimento binomial (sí = 1, no = 0) y sus probabilidades (n = 3)

Número de éxitos

Probabilidad

0

1

2

3

 

La probabilidad de cualquiera de estas combinaciones de eventos se obtiene fácilmente considerando p, la probabilidad (individual) de éxito, constante para cada sujeto e independiente de otros resultados. Como estamos interesados ​​en el número total de éxitos y no en una secuencia ordenada específica, podemos reorganizar la tabla de la siguiente manera (ver tabla 3) y, en general, expresar la probabilidad de x éxitos P (x) como:

donde x es el número de éxitos y la notación x! denota el factorial de x, Es decir, x! = x× (x–1)×(x–2)…×1.

Cuando consideramos el evento “estar/no estar enfermo”, la probabilidad individual, se refiere al estado en que se presume el sujeto; en epidemiología, esta probabilidad se denomina “prevalencia”. Para estimar p, usamos la proporción muestral:

p = x/n

con varianza:

En una serie infinita hipotética de muestras replicadas del mismo tamaño n, obtendríamos diferentes proporciones muestrales p = x/n, con probabilidades dadas por la fórmula binomial. El valor “verdadero” de  se estima por cada proporción de muestra, y un intervalo de confianza para p, es decir, el conjunto de valores probables para p, dados los datos observados y un nivel de confianza predefinido (por ejemplo, 95%), se estima a partir de la distribución binomial como el conjunto de valores para p que da una probabilidad de x mayor que un valor preespecificado (digamos 2.5%). Para un experimento hipotético en el que observamos x = 15 éxitos en n = 30 intentos, la probabilidad estimada de éxito es:

p = x/n = 15/30 = 0.5 

Tabla 4. Distribución binomial. Probabilidades para diferentes valores de  para x = 15 éxitos en n = 30 intentos

Probabilidad

0.200

0.0002

0.300

0.0116

0.334

0.025

0.400

0.078

0.500

0.144

0.600

0.078

0.666

0.025

0.700

0.0116

 

El intervalo de confianza del 95 % para p, obtenido de la tabla 4, es 0.334 – 0.666. Cada entrada de la tabla muestra la probabilidad de x = 15 éxitos en n = 30 intentos calculados con la fórmula binomial; por ejemplo, para = 0.30, obtenemos de:

n grande y p cerca de 0.5 podemos usar una aproximación basada en la distribución Gaussiana:

donde za /2 denota el valor de la distribución gaussiana estándar para una probabilidad

P (|z| ³ za /2) = a/2;

1 – siendo a el nivel de confianza elegido. Para el ejemplo considerado, = 15/30 = 0.5; n = 30 y de la tabla gaussiana estándar z0.025 = 1.96. El intervalo de confianza del 95% da como resultado el conjunto de valores 0.321 – 0.679, obtenido al sustituir p = 0.5, n = 30, y z0.025 = 1.96 en la ecuación anterior para la distribución gaussiana. Tenga en cuenta que estos valores están cerca de los valores exactos calculados antes.

Las pruebas estadísticas de hipótesis comprenden un procedimiento de decisión sobre el valor de un parámetro poblacional. Supongamos, en el ejemplo anterior, que queremos abordar la proposición de que existe un riesgo elevado de discapacidad visual entre los trabajadores de una planta determinada. La hipótesis científica a ser probada por nuestras observaciones empíricas entonces es "existe un riesgo elevado de discapacidad visual entre los trabajadores de una planta dada". Los estadísticos demuestran tales hipótesis falseando la hipótesis complementaria “no hay elevación del riesgo de discapacidad visual”. Esto sigue la demostración matemática por absurdo y, en lugar de verificar una afirmación, la evidencia empírica se usa solo para falsificarla. La hipótesis estadística se llama hipótesis nula. El segundo paso consiste en especificar un valor para el parámetro de esa distribución de probabilidad utilizada para modelar la variabilidad en las observaciones. En nuestros ejemplos, dado que el fenómeno es binario (es decir, presencia/ausencia de discapacidad visual), elegimos la distribución binomial con parámetro p, la probabilidad de discapacidad visual. La hipótesis nula afirma que = 0.25, digamos. Este valor se elige a partir de la recopilación de conocimientos sobre el tema y el conocimiento a priori de la prevalencia habitual de discapacidad visual en poblaciones no expuestas (es decir, no trabajadoras). Supongamos que nuestros datos produjeron una estimación = 0.50, de los 30 trabajadores examinados.

¿Podemos rechazar la hipótesis nula?

Si es así, a favor de qué alternativa ¿hipótesis?

Especificamos una hipótesis alternativa como candidata en caso de que la evidencia dicte que se rechace la hipótesis nula. Las hipótesis alternativas no direccionales (bilaterales) establecen que el parámetro de la población es diferente del valor establecido en la hipótesis nula; Las hipótesis alternativas direccionales (unilaterales) establecen que el parámetro de población es mayor (o menor) que el valor nulo.

Tabla 5. Distribución binomial. Probabilidades de éxito para  = 0.25 en n = 30 ensayos

X

Probabilidad

Probabilidad acumulada

0

0.0002

0.0002

1

0.0018

0.0020

2

0.0086

0.0106

3

0.0269

0.0374

4

0.0604

0.0979

5

0.1047

0.2026

6

0.1455

0.3481

7

0.1662

0.5143

8

0.1593

0.6736

9

0.1298

0.8034

10

0.0909

0.8943

11

0.0551

0.9493

12

0.0291

0.9784

13

0.0134

0.9918

14

0.0054

0.9973

15

0.0019

0.9992

16

0.0006

0.9998

17

0.0002

1.0000

.

.

.

30

0.0000

1.0000

 

Bajo la hipótesis nula, podemos calcular la distribución de probabilidad de los resultados de nuestro ejemplo. La Tabla 5 muestra, para = 0.25 y n = 30, las probabilidades (ver ecuación (1)) y las probabilidades acumuladas:

De esta tabla, obtenemos la probabilidad de tener x ³15 trabajadores con discapacidad visual

P(x ³15). = 1 - P(X15). = 1 - 0.9992 = 0.0008

Esto significa que es muy improbable que observemos 15 o más trabajadores con discapacidad visual si experimentaran la prevalencia de la enfermedad de las poblaciones no expuestas. Por tanto, podríamos rechazar la hipótesis nula y afirmar que existe una mayor prevalencia de discapacidad visual en la población de trabajadores estudiada.

Cuándo n×p³ 5 y n×(1-) ³ 5, podemos usar la aproximación Gaussiana:

De la tabla de la distribución gaussiana estándar obtenemos:

P(|z|>2.95). = 0.0008

muy de acuerdo con los resultados exactos. A partir de esta aproximación podemos ver que la estructura básica de una prueba estadística de hipótesis consiste en la relación entre señal y ruido. En nuestro caso, la señal es (p), la desviación observada de la hipótesis nula, mientras que el ruido es la desviación estándar de P:

Cuanto mayor sea la relación, menor será la probabilidad del valor nulo.

Al tomar decisiones sobre hipótesis estadísticas, podemos incurrir en dos tipos de errores: un error tipo I, rechazo de la hipótesis nula cuando es verdadera; o un error tipo II, aceptación de la hipótesis nula cuando es falsa. El nivel de probabilidad, o valor p, es la probabilidad de un error tipo I, denotada por la letra griega a. Esto se calcula a partir de la distribución de probabilidad de las observaciones bajo la hipótesis nula. Es costumbre predefinir un nivel de error a (por ejemplo, 5%, 1%) y rechazar la hipótesis nula cuando el resultado de nuestra observación tiene una probabilidad igual o menor que este llamado nivel crítico.

La probabilidad de un error de tipo II se denota con la letra griega β. Para calcularlo, necesitamos especificar, en la hipótesis alternativa, valor α para el parámetro a probar (en nuestro ejemplo, valor α para ). Las hipótesis alternativas genéricas (diferente de, mayor que, menor que) no son útiles. En la práctica, interesa el valor β para un conjunto de hipótesis alternativas, o su complemento, que se denomina poder estadístico de la prueba. Por ejemplo, fijando el valor de error α en 5%, de la tabla 5, encontramos:

P(x ³12) <0.05

bajo la hipótesis nula = 0.25. Si observáramos al menos x = 12 aciertos, rechazaríamos la hipótesis nula. Los valores de β correspondientes y la potencia para x = 12 están dados por la tabla 6. 

Tabla 6. Error tipo II y potencia para x = 12, n = 30, α = 0.05

β

Motor

0.30

0.9155

0.0845

0.35

0.7802

0.2198

0.40

0.5785

0.4215

0.45

0.3592

0.6408

0.50

0.1808

0.8192

0.55

0.0714

0.9286

 

En este caso, nuestros datos no pueden discriminar si es mayor que el valor nulo de 0.25 pero menor que 0.50, porque el poder del estudio es demasiado bajo (<80%) para esos valores de <0.50, es decir, la sensibilidad de nuestro estudio es del 8 % para = 0.3, 22% para = 0.35,…, 64% para = 0.45.

La única forma de lograr un β más bajo, o un nivel de potencia más alto, sería aumentar el tamaño del estudio. Por ejemplo, en la tabla 7 reportamos β y potencia para n = 40; como era de esperar, deberíamos ser capaces de detectar un  valor superior a 0.40. 

Tabla 7. Error tipo II y potencia para x = 12, n = 40, α = 0.05

β

Motor

0.30

0.5772

0.4228

0.35

0.3143

0.6857

0.40

0.1285

0.8715

0.45

0.0386

0.8614

0.50

0.0083

0.9917

0.55

0.0012

0.9988

 

El diseño del estudio se basa en un escrutinio cuidadoso del conjunto de hipótesis alternativas que merecen consideración y garantizan poder al estudio proporcionando un tamaño de muestra adecuado.

En la literatura epidemiológica, se ha enfatizado la relevancia de proporcionar estimaciones de riesgo confiables. Por lo tanto, es más importante reportar intervalos de confianza (95% o 90%) que un p-valor de una prueba de una hipótesis. Siguiendo el mismo tipo de razonamiento, se debe prestar atención a la interpretación de los resultados de estudios de pequeño tamaño: debido a la baja potencia, incluso los efectos intermedios podrían pasar desapercibidos y, por otro lado, los efectos de gran magnitud podrían no replicarse posteriormente.

Métodos avanzados

El grado de complejidad de los métodos estadísticos utilizados en el contexto de la medicina del trabajo ha ido creciendo en los últimos años. Los principales desarrollos se pueden encontrar en el área de modelado estadístico. La familia de modelos no gaussianos (modelos lineales generalizados) de Nelder y Wedderburn ha sido una de las contribuciones más llamativas al aumento del conocimiento en áreas como la epidemiología ocupacional, donde las variables de respuesta relevantes son binarias (p. ej., supervivencia/muerte) o (por ejemplo, número de accidentes industriales).

Este fue el punto de partida para una amplia aplicación de los modelos de regresión como alternativa a los tipos de análisis más tradicionales basados ​​en tablas de contingencia (análisis simple y estratificado). Poisson, Cox y la regresión logística ahora se utilizan de forma rutinaria para el análisis de estudios longitudinales y de casos y controles, respectivamente. Estos modelos son la contrapartida de la regresión lineal para las variables de respuesta categóricas y tienen la característica elegante de proporcionar directamente la medida de asociación epidemiológica relevante. Por ejemplo, los coeficientes de la regresión de Poisson son el logaritmo de las razones de tasas, mientras que los de la regresión logística son el logaritmo de las razones de probabilidades.

Tomando esto como punto de referencia, los desarrollos posteriores en el área del modelado estadístico han tomado dos direcciones principales: modelos para medidas categóricas repetidas y modelos que amplían los Modelos lineales generalizados (Modelos aditivos generalizados). En ambos casos, los objetivos se centran en aumentar la flexibilidad de las herramientas estadísticas para hacer frente a problemas más complejos derivados de la realidad. Se necesitan modelos de medidas repetidas en muchos estudios ocupacionales donde las unidades de análisis están en el nivel subindividual. Por ejemplo:

  1. El estudio del efecto de las condiciones de trabajo en el síndrome del túnel carpiano tiene que considerar las dos manos de una persona, que no son independientes entre sí.
  2. El análisis de las tendencias temporales de los contaminantes ambientales y su efecto en los sistemas respiratorios de los niños se puede evaluar utilizando modelos extremadamente flexibles, ya que es difícil obtener la forma funcional exacta de la relación dosis-respuesta.

 

Se ha visto un desarrollo paralelo y probablemente más rápido en el contexto de las estadísticas bayesianas. La barrera práctica de usar métodos bayesianos se derrumbó después de la introducción de métodos intensivos en computación. Los procedimientos de Monte Carlo, como los esquemas de muestreo de Gibbs, nos han permitido evitar la necesidad de integración numérica para calcular las distribuciones posteriores que representaban la característica más desafiante de los métodos bayesianos. El número de aplicaciones de los modelos bayesianos en problemas reales y complejos ha encontrado un espacio cada vez mayor en las revistas aplicadas. Por ejemplo, los análisis geográficos y las correlaciones ecológicas a nivel de áreas pequeñas y los modelos de predicción del SIDA se abordan cada vez más utilizando enfoques bayesianos. Estos desarrollos son bienvenidos porque representan no solo un aumento en el número de soluciones estadísticas alternativas que podrían emplearse en el análisis de datos epidemiológicos, sino también porque el enfoque bayesiano puede considerarse una estrategia más sólida.

 

Atrás

Leer 6162 veces Ultima modificacion el Jueves, octubre 13 2011 20: 24