Imprimir esta página
Quarta-feira, 02 Março 2011 03: 15

Métodos estatísticos

Classifique este artigo
(Voto 1)

Há muito debate sobre o papel das estatísticas na pesquisa epidemiológica sobre relações causais. Em epidemiologia, a estatística é principalmente uma coleção de métodos para avaliar dados baseados em populações humanas (e também em animais). Em particular, a estatística é uma técnica para a quantificação e medição de fenômenos incertos. Todas as investigações científicas que lidam com aspectos não determinísticos e variáveis ​​da realidade poderiam se beneficiar da metodologia estatística. Em epidemiologia, a variabilidade é intrínseca à unidade de observação – uma pessoa não é uma entidade determinística. Embora os projetos experimentais sejam melhorados em termos de atender melhor às suposições das estatísticas em termos de variação aleatória, por razões éticas e práticas, essa abordagem não é muito comum. Em vez disso, a epidemiologia está engajada na pesquisa observacional que tem associada a ela fontes aleatórias e outras fontes de variabilidade.

A teoria estatística está preocupada em como controlar a variabilidade não estruturada nos dados para fazer inferências válidas a partir de observações empíricas. Na falta de qualquer explicação para o comportamento variável do fenômeno estudado, a estatística o assume como acaso— isto é, desvios não sistemáticos de algum estado médio da natureza (ver Greenland 1990 para uma crítica dessas suposições).

A ciência depende da empiria evidência para demonstrar se seus modelos teóricos de eventos naturais têm alguma validade. De fato, os métodos usados ​​da teoria estatística determinam o grau em que as observações no mundo real se conformam com a visão dos cientistas, em forma de modelo matemático, de um fenômeno. Métodos estatísticos, baseados em matemática, devem, portanto, ser cuidadosamente selecionados; há muitos exemplos sobre “como mentir com estatísticas”. Portanto, os epidemiologistas devem estar cientes da adequação das técnicas que aplicam para medir o risco de doença. Em particular, é necessário muito cuidado ao interpretar resultados estatisticamente significativos e estatisticamente não significativos.

O primeiro significado da palavra estatística refere-se a qualquer quantidade resumida calculada em um conjunto de valores. Índices descritivos ou estatísticas como a média aritmética, a mediana ou a moda são amplamente utilizados para resumir as informações em uma série de observações. Historicamente, esses descritores resumidos foram usados ​​para fins administrativos pelos estados e, portanto, foram nomeados estatística. Em epidemiologia, as estatísticas comumente vistas derivam das comparações inerentes à natureza da epidemiologia, que faz perguntas como: “Uma população tem maior risco de doença do que outra?” Ao fazer tais comparações, o risco relativo é uma medida popular da força da associação entre uma característica individual e a probabilidade de adoecer, e é mais comumente aplicado na pesquisa etiológica; o risco atribuível também é uma medida de associação entre as características individuais e a ocorrência da doença, mas enfatiza o ganho em número de casos poupados por uma intervenção que remove o fator em questão – é aplicado principalmente em saúde pública e medicina preventiva.

O segundo significado da palavra estatística relaciona-se com a coleção de técnicas e a teoria subjacente de inferência estatística. Esta é uma forma particular de lógica indutiva que especifica as regras para obter uma generalização válida a partir de um conjunto particular de observações empíricas. Essa generalização seria válida desde que algumas suposições fossem atendidas. Esta é a segunda maneira pela qual um uso inculto da estatística pode nos enganar: na epidemiologia observacional, é muito difícil ter certeza das suposições implícitas nas técnicas estatísticas. Portanto, a análise de sensibilidade e os estimadores robustos devem ser companheiros de qualquer análise de dados conduzida corretamente. As conclusões finais também devem se basear no conhecimento geral e não devem depender exclusivamente das descobertas do teste de hipóteses estatísticas.

Definições

A unidade estatística é o elemento sobre o qual são feitas as observações empíricas. Pode ser uma pessoa, um espécime biológico ou um pedaço de matéria-prima a ser analisado. Normalmente, as unidades estatísticas são escolhidas independentemente pelo pesquisador, mas às vezes projetos mais complexos podem ser configurados. Por exemplo, em estudos longitudinais, uma série de determinações é feita em um conjunto de pessoas ao longo do tempo; as unidades estatísticas deste estudo são o conjunto de determinações, que não são independentes, mas estruturadas por suas respectivas conexões com cada sujeito estudado. A falta de independência ou correlação entre as unidades estatísticas merece atenção especial na análise estatística.

A variável é uma característica individual medida em uma determinada unidade estatística. Deve ser contrastado com um constante, uma característica individual fixa – por exemplo, em um estudo sobre seres humanos, ter cabeça ou tórax são constantes, enquanto o gênero de um único membro do estudo é uma variável.

As variáveis ​​são avaliadas usando diferentes escalas de medida. A primeira distinção é entre escalas qualitativas e quantitativas. Variáveis ​​qualitativas fornecem diferentes modalidades or Categorias. Se cada modalidade não pode ser classificada ou ordenada em relação a outras - por exemplo, cor de cabelo ou modalidades de gênero - denotamos a variável como nominal. Se as categorias puderem ser ordenadas – como o grau de gravidade de uma doença – a variável é chamada ordinal. Quando uma variável é constituída por um valor numérico, dizemos que a escala é quantitativa. UMA discreto escala denota que a variável pode assumir apenas alguns valores definidos - por exemplo, valores inteiros para o número de casos de doença. UMA contínuo escala é usada para aquelas medidas que resultam em reais números. As escalas contínuas são ditas intervalo escalas quando o valor nulo tem um significado puramente convencional. Ou seja, um valor zero não significa quantidade zero – por exemplo, uma temperatura de zero grau Celsius não significa energia térmica zero. Neste caso, apenas diferenças entre valores fazem sentido (esta é a razão do termo escala “intervalada”). Um valor nulo real denota um relação escala. Para uma variável medida nessa escala, razões de valores também fazem sentido: de fato, uma razão dupla significa o dobro da quantidade. Por exemplo, dizer que um corpo tem uma temperatura duas vezes maior que um segundo corpo significa que ele tem duas vezes a energia térmica do segundo corpo, providenciou que a temperatura é medida em uma escala proporcional (por exemplo, em graus Kelvin). O conjunto de valores permitidos para uma determinada variável é chamado de domínio da variável.

Paradigmas Estatísticos

A estatística lida com a maneira de generalizar a partir de um conjunto de observações particulares. Este conjunto de medidas empíricas é chamado de amostra. A partir de uma amostra, calculamos algumas estatísticas descritivas para resumir as informações coletadas.

A informação básica geralmente necessária para caracterizar um conjunto de medidas diz respeito à sua tendência central e à sua variabilidade. A escolha entre várias alternativas depende da escala usada para medir um fenômeno e dos propósitos para os quais as estatísticas são computadas. Na tabela 1 são descritas diferentes medidas de tendência central e variabilidade (ou, dispersão) associadas à escala de medida apropriada.

Tabela 1. Índices de tendência central e dispersão por escala de medida

 

Escala de medição

 

Qualitativo

 

Quantitativo

Índices

Definição

Nominal

Ordinal

Intervalo/razão

Média aritmética

Soma dos valores observados dividido pelo número total de observações

 

x

Mediana

Valor do ponto médio da distribuição observada

 

x

x

Moda

valor mais frequente

x

x

x

Variação

Valores mais baixos e mais altos da distribuição

 

x

x

variação

Soma da diferença ao quadrado de cada valor da média dividida pelo número total de observações menos 1

 

 

x

 

As estatísticas descritivas calculadas são chamadas estimativas quando os usamos como substitutos para a quantidade análoga da população da qual a amostra foi selecionada. As contrapartes populacionais das estimativas são constantes chamadas parâmetros. Estimativas de um mesmo parâmetro podem ser obtidas por diferentes métodos estatísticos. Uma estimativa deve ser válida e precisa.

O paradigma da amostra populacional implica que a validade pode ser assegurada pela forma como a amostra é selecionada da população. A amostragem aleatória ou probabilística é a estratégia usual: se cada membro da população tem a mesma probabilidade de ser incluído na amostra, então, em média, nossa amostra deve ser representativa da população e, além disso, qualquer desvio de nossa expectativa pode ser explicado por acaso. A probabilidade de um determinado desvio de nossa expectativa também pode ser calculada, desde que a amostragem aleatória tenha sido realizada. O mesmo tipo de raciocínio se aplica às estimativas calculadas para nossa amostra em relação aos parâmetros populacionais. Tomamos, por exemplo, a média aritmética de nossa amostra como uma estimativa do valor médio da população. Qualquer diferença, se existir, entre a média da amostra e a média da população é atribuída a flutuações aleatórias no processo de seleção dos membros incluídos na amostra. Podemos calcular a probabilidade de qualquer valor dessa diferença, desde que a amostra tenha sido selecionada aleatoriamente. Se o desvio entre a estimativa amostral e o parâmetro populacional não puder ser explicado ao acaso, a estimativa é dita tendencioso. O desenho da observação ou experimento dá validade às estimativas e o paradigma estatístico fundamental é o da amostragem aleatória.

Na medicina, um segundo paradigma é adotado quando a comparação entre diferentes grupos é o objetivo do estudo. Um exemplo típico é o ensaio clínico controlado: um conjunto de pacientes com características semelhantes é selecionado com base em critérios pré-definidos. Nenhuma preocupação com a representatividade é feita nesta fase. Cada paciente inscrito no estudo é designado por um procedimento aleatório para o grupo de tratamento – que receberá a terapia padrão mais o novo medicamento a ser avaliado – ou para o grupo de controle – recebendo a terapia padrão e um placebo. Nesse desenho, a alocação aleatória dos pacientes para cada grupo substitui a seleção aleatória dos membros da amostra. A estimativa da diferença entre os dois grupos pode ser avaliada estatisticamente porque, na hipótese de não eficácia da nova droga, podemos calcular a probabilidade de qualquer diferença diferente de zero.

Em epidemiologia, não temos a possibilidade de reunir aleatoriamente grupos de pessoas expostas e não expostas. Nesse caso, ainda podemos usar métodos estatísticos, como se os grupos analisados ​​tivessem sido selecionados ou alocados aleatoriamente. A correção dessa suposição depende principalmente do desenho do estudo. Este ponto é particularmente importante e ressalta a importância do desenho do estudo epidemiológico sobre as técnicas estatísticas na pesquisa biomédica.

Sinal e ruído

O termo variável aleatória refere-se a uma variável para a qual está associada uma probabilidade definida a cada valor que pode assumir. Os modelos teóricos para a distribuição da probabilidade de uma variável aleatória são modelos populacionais. As contrapartes da amostra são representadas pela distribuição de frequência da amostra. Esta é uma maneira útil de relatar um conjunto de dados; consiste em um plano cartesiano com a variável de interesse ao longo do eixo horizontal e a frequência ou frequência relativa ao longo do eixo vertical. Uma exibição gráfica nos permite ver prontamente qual é (são) o(s) valor(es) mais frequente(s) e como a distribuição está concentrada em torno de determinados valores centrais como a média aritmética.

Para as variáveis ​​aleatórias e suas distribuições de probabilidade, usamos os termos parâmetros, valor médio esperado (em vez de média aritmética) e variação. Esses modelos teóricos descrevem a variabilidade em um determinado fenômeno. Na teoria da informação, o sinal é representado pela tendência central (por exemplo, o valor médio), enquanto o ruído é medido por um índice de dispersão (como a variância).

Para ilustrar a inferência estatística, usaremos o modelo binomial. Nas seções a seguir, serão introduzidos os conceitos de estimativas pontuais e intervalos de confiança, testes de hipóteses e probabilidade de decisões errôneas e poder de um estudo.

Tabela 2. Possíveis resultados de um experimento binomial (sim = 1, não = 0) e suas probabilidades (n = 3)

Trabalhador

Probabilidade

A

B

C

 

0

0

0

1

0

0

0

1

0

0

0

1

0

1

1

1

0

1

1

1

0

1

1

1

 

Um Exemplo: A Distribuição Binomial

Na pesquisa biomédica e na epidemiologia, o modelo mais importante de variação estocástica é a distribuição binomial. Baseia-se no fato de que a maioria dos fenômenos se comporta como uma variável nominal com apenas duas categorias: por exemplo, a presença/ausência de doença: vivo/morto ou recuperado/doente. Nessas circunstâncias, estamos interessados ​​na probabilidade de sucesso – ou seja, no evento de interesse (por exemplo, presença de doença, vivo ou recuperação) – e nos fatores ou variáveis ​​que podem alterá-la. Vamos considerar n = 3 trabalhadores, e suponha que estamos interessados ​​na probabilidade, p, de ter uma deficiência visual (sim/não). O resultado de nossa observação pode ser os resultados possíveis na tabela 2.

Tabela 3. Possíveis resultados de um experimento binomial (sim = 1, não = 0) e suas probabilidades (n = 3)

Número de sucessos

Probabilidade

0

1

2

3

 

A probabilidade de qualquer uma dessas combinações de eventos é facilmente obtida considerando p, a probabilidade (individual) de sucesso, constante para cada sujeito e independente de outros resultados. Como estamos interessados ​​no número total de sucessos e não em uma sequência ordenada específica, podemos reorganizar a tabela da seguinte maneira (ver tabela 3) e, em geral, expressar a probabilidade de x sucessos P (x) como:

onde x é o número de sucessos e a notação x! denota o fatorial de x, Isto é, x! = x×(x–1)×(x–2)…×1.

Quando consideramos o evento “estar/não estar doente”, a probabilidade individual, refere-se ao estado em que o sujeito se presume; em epidemiologia, essa probabilidade é chamada de “prevalência”. Para estimar p, usamos a proporção amostral:

p = x/n

com variação:

Em uma hipotética série infinita de amostras replicadas do mesmo tamanho n, obteríamos diferentes proporções amostrais p = x/n, com probabilidades dadas pela fórmula binomial. O valor “verdadeiro” de  é estimado por cada proporção de amostra, e um intervalo de confiança para p, ou seja, o conjunto de valores prováveis ​​para p, dados os dados observados e um nível de confiança predefinido (digamos 95%), é estimado a partir da distribuição binomial como o conjunto de valores para p que dá uma probabilidade de x maior que um valor pré-especificado (digamos 2.5%). Para um experimento hipotético em que observamos x = 15 sucessos em n = 30 tentativas, a probabilidade estimada de sucesso é:

p = x/n = 15/30 = 0.5 

Tabela 4. Distribuição binomial. Probabilidades para diferentes valores de  para x = 15 sucessos em n = 30 tentativas

Probabilidade

0.200

0.0002

0.300

0.0116

0.334

0.025

0.400

0.078

0.500

0.144

0.600

0.078

0.666

0.025

0.700

0.0116

 

O intervalo de confiança de 95% para p, obtido na tabela 4, é 0.334 – 0.666. Cada entrada da tabela mostra a probabilidade de x = 15 sucessos em n = 30 tentativas calculadas com a fórmula binomial; por exemplo, para = 0.30, obtemos de:

Escolha n grande e p perto de 0.5 podemos usar uma aproximação baseada na distribuição gaussiana:

onde za /2 denota o valor da distribuição gaussiana padrão para uma probabilidade

P (|z| ³ za /2) = a/2;

1 – sendo a o nível de confiança escolhido. Para o exemplo considerado, = 15/30 = 0.5; n = 30 e da tabela gaussiana padrão z0.025 = 1.96. O intervalo de confiança de 95% resulta no conjunto de valores 0.321 – 0.679, obtido substituindo p = 0.5, n = 30 e z0.025 = 1.96 na equação acima para a distribuição gaussiana. Observe que esses valores estão próximos dos valores exatos calculados anteriormente.

Os testes estatísticos de hipóteses compreendem um procedimento de decisão sobre o valor de um parâmetro populacional. Suponhamos, no exemplo anterior, que queremos abordar a proposição de que existe um risco elevado de deficiência visual entre os trabalhadores de uma determinada fábrica. A hipótese científica a ser testada por nossas observações empíricas é então “existe um risco elevado de deficiência visual entre os trabalhadores de uma determinada fábrica”. Os estatísticos demonstram tais hipóteses falsificando a hipótese complementar “não há elevação do risco de deficiência visual”. Isso segue a demonstração matemática por absurdo e, em vez de verificar uma afirmação, a evidência empírica é usada apenas para falsificá-la. A hipótese estatística é chamada de hipótese nula. A segunda etapa envolve a especificação de um valor para o parâmetro dessa distribuição de probabilidade usada para modelar a variabilidade nas observações. Em nossos exemplos, como o fenômeno é binário (ou seja, presença/ausência de deficiência visual), escolhemos a distribuição binomial com parâmetro p, a probabilidade de deficiência visual. A hipótese nula afirma que = 0.25, digamos. Este valor é escolhido a partir da coleção de conhecimento sobre o tema e conhecimento a priori da prevalência usual de deficiência visual em populações não expostas (isto é, não trabalhadoras). Suponha que nossos dados produzam uma estimativa = 0.50, dos 30 trabalhadores examinados.

Podemos rejeitar a hipótese nula?

Se sim, a favor do que alternativa hipótese?

Especificamos uma hipótese alternativa como candidata caso a evidência determine que a hipótese nula seja rejeitada. As hipóteses alternativas não direcionais (bilaterais) afirmam que o parâmetro da população é diferente do valor declarado na hipótese nula; as hipóteses alternativas direcionais (unilaterais) afirmam que o parâmetro da população é maior (ou menor) que o valor nulo.

Tabela 5. Distribuição binomial. Probabilidades de sucesso para  = 0.25 em n = 30 tentativas

X

Probabilidade

Probabilidade cumulativa

0

0.0002

0.0002

1

0.0018

0.0020

2

0.0086

0.0106

3

0.0269

0.0374

4

0.0604

0.0979

5

0.1047

0.2026

6

0.1455

0.3481

7

0.1662

0.5143

8

0.1593

0.6736

9

0.1298

0.8034

10

0.0909

0.8943

11

0.0551

0.9493

12

0.0291

0.9784

13

0.0134

0.9918

14

0.0054

0.9973

15

0.0019

0.9992

16

0.0006

0.9998

17

0.0002

1.0000

.

.

.

30

0.0000

1.0000

 

Sob a hipótese nula, podemos calcular a distribuição de probabilidade dos resultados do nosso exemplo. A Tabela 5 mostra, para = 0.25 e n = 30, as probabilidades (ver equação (1)) e as probabilidades cumulativas:

A partir desta tabela, obtemos a probabilidade de ter x ³15 trabalhadores com deficiência visual

P(x ³15) = 1 - P(x15) = 1 - 0.9992 = 0.0008

Isso significa que é altamente improvável que observemos 15 ou mais trabalhadores com deficiência visual se eles vivenciassem a prevalência da doença das populações não expostas. Portanto, poderíamos rejeitar a hipótese nula e afirmar que há maior prevalência de deficiência visual na população de trabalhadores estudada.

Quando n×p ³ 5 e n×(1-) ³ 5, podemos usar a aproximação Gaussiana:

Da tabela da distribuição Gaussiana padrão obtemos:

P(|z|>2.95) = 0.0008

de acordo com os resultados exatos. A partir dessa aproximação, podemos ver que a estrutura básica de um teste estatístico de hipótese consiste na relação entre sinal e ruído. No nosso caso, o sinal é (p-), o desvio observado da hipótese nula, enquanto o ruído é o desvio padrão de P:

Quanto maior a razão, menor a probabilidade do valor nulo.

Ao tomar decisões sobre hipóteses estatísticas, podemos incorrer em dois tipos de erros: um erro tipo I, rejeição da hipótese nula quando ela é verdadeira; ou um erro tipo II, aceitação da hipótese nula quando esta é falsa. O nível de probabilidade, ou valor p, é a probabilidade de um erro tipo I, denotado pela letra grega a. Isso é calculado a partir da distribuição de probabilidade das observações sob a hipótese nula. Costuma-se predefinir um nível de erro a (por exemplo, 5%, 1%) e rejeitar a hipótese nula quando o resultado de nossa observação tem uma probabilidade igual ou menor que esse chamado nível crítico.

A probabilidade de um erro tipo II é denotada pela letra grega β. Para calculá-lo, precisamos especificar, na hipótese alternativa, o valor de α para o parâmetro a ser testado (no nosso exemplo, valor de α para ). Hipóteses alternativas genéricas (diferente de, maior que, menor que) não são úteis. Na prática, interessa o valor β para um conjunto de hipóteses alternativas, ou seu complemento, que é chamado de poder estatístico do teste. Por exemplo, fixando o valor do erro α em 5%, da tabela 5, encontramos:

P(x ³12) <0.05

sob a hipótese nula = 0.25. Se fôssemos observar pelo menos x = 12 sucessos, rejeitaríamos a hipótese nula. Os valores β correspondentes e a potência para x = 12 são dados pela tabela 6. 

Tabela 6. Erro tipo II e potência para x = 12, n = 30, α = 0.05

β

Potência

0.30

0.9155

0.0845

0.35

0.7802

0.2198

0.40

0.5785

0.4215

0.45

0.3592

0.6408

0.50

0.1808

0.8192

0.55

0.0714

0.9286

 

Neste caso, nossos dados não podem discriminar se é maior que o valor nulo de 0.25, mas menor que 0.50, porque o poder do estudo é muito baixo (<80%) para esses valores de <0.50 - ou seja, a sensibilidade do nosso estudo é de 8% para = 0.3, 22% para = 0.35,…, 64% para = 0.45.

A única maneira de obter um β mais baixo, ou um nível de poder mais alto, seria aumentar o tamanho do estudo. Por exemplo, na tabela 7 relatamos β e poder para n = 40; como esperado, devemos ser capazes de detectar um  valor maior que 0.40. 

Tabela 7. Erro tipo II e potência para x = 12, n = 40, α = 0.05

β

Potência

0.30

0.5772

0.4228

0.35

0.3143

0.6857

0.40

0.1285

0.8715

0.45

0.0386

0.8614

0.50

0.0083

0.9917

0.55

0.0012

0.9988

 

O desenho do estudo é baseado no escrutínio cuidadoso do conjunto de hipóteses alternativas que merecem consideração e garantem poder ao estudo fornecendo um tamanho de amostra adequado.

Na literatura epidemiológica, a relevância de fornecer estimativas de risco confiáveis ​​tem sido enfatizada. Portanto, é mais importante relatar intervalos de confiança (seja 95% ou 90%) do que um p-valor de um teste de uma hipótese. Seguindo o mesmo raciocínio, atenção deve ser dada à interpretação dos resultados de estudos de pequeno porte: devido ao baixo poder, mesmo efeitos intermediários podem passar despercebidos e, por outro lado, efeitos de grande magnitude podem não ser replicados posteriormente.

Métodos Avançados

O grau de complexidade dos métodos estatísticos utilizados no contexto da medicina do trabalho tem vindo a aumentar ao longo dos últimos anos. Os principais desenvolvimentos podem ser encontrados na área de modelagem estatística. A família de modelos não Gaussianos de Nelder e Wedderburn (Modelos Lineares Generalizados) tem sido uma das contribuições mais marcantes para o aumento do conhecimento em áreas como a epidemiologia ocupacional, onde as variáveis ​​de resposta relevantes são binárias (por exemplo, sobrevivência/morte) ou contagens (por exemplo, número de acidentes industriais).

Este foi o ponto de partida para uma ampla aplicação de modelos de regressão como alternativa aos tipos mais tradicionais de análise baseados em tabelas de contingência (análise simples e estratificada). Poisson, Cox e regressão logística são agora rotineiramente usadas para a análise de estudos longitudinais e de caso-controle, respectivamente. Esses modelos são a contrapartida da regressão linear para variáveis ​​de resposta categórica e têm a característica elegante de fornecer diretamente a medida epidemiológica relevante de associação. Por exemplo, os coeficientes da regressão de Poisson são o logaritmo das razões de taxas, enquanto os da regressão logística são o logaritmo das razões de chances.

Tendo isso como referência, os desenvolvimentos posteriores na área de modelagem estatística tomaram duas direções principais: modelos para medidas categóricas repetidas e modelos que estendem os Modelos Lineares Generalizados (Modelos Aditivos Generalizados). Em ambos os casos, o objetivo é aumentar a flexibilidade das ferramentas estatísticas para lidar com problemas mais complexos decorrentes da realidade. Modelos de medidas repetidas são necessários em muitos estudos ocupacionais onde as unidades de análise estão no nível subindividual. Por exemplo:

  1. O estudo do efeito das condições de trabalho na síndrome do túnel do carpo deve considerar as duas mãos de uma pessoa, que não são independentes uma da outra.
  2. A análise das tendências temporais dos poluentes ambientais e seus efeitos no sistema respiratório das crianças podem ser avaliados usando modelos extremamente flexíveis, uma vez que a forma funcional exata da relação dose-resposta é difícil de obter.

 

Um desenvolvimento paralelo e provavelmente mais rápido foi observado no contexto das estatísticas bayesianas. A barreira prática de usar métodos bayesianos desmoronou após a introdução de métodos intensivos em computador. Os procedimentos de Monte Carlo, como os esquemas de amostragem de Gibbs, nos permitiram evitar a necessidade de integração numérica para calcular as distribuições posteriores, que representavam a característica mais desafiadora dos métodos bayesianos. O número de aplicações de modelos bayesianos em problemas reais e complexos tem encontrado espaço cada vez maior nos periódicos aplicados. Por exemplo, análises geográficas e correlações ecológicas no nível de pequenas áreas e modelos de previsão de AIDS são cada vez mais abordados usando abordagens bayesianas. Esses desenvolvimentos são bem-vindos porque representam não apenas um aumento no número de soluções estatísticas alternativas que podem ser empregadas na análise de dados epidemiológicos, mas também porque a abordagem bayesiana pode ser considerada uma estratégia mais sólida.

 

Voltar

Leia 6178 vezes Última modificação em quinta-feira, 13 de outubro de 2011 20:24