Analise Bayesiana - Aula 7

Jacques Wainer

Análise Bayesiana

Teorema de Bayes

P(X|Y) é a probabilidade de X dado que Y aconteceu. Ou a probabilidade condicional de X dado Y

Como P(A|B) e P(B|A) se relacionam?

P(A|B) = \frac{P(B|A) P(A)}{P(B)}

“Antes” voce tinha apenas o A, com probabilidade de P(A) - o prior.

Ai aconteceu B (nova evidência) e voce passa a ter P(A|B) - o posterior.

Outras versões do teorema de Bayes

Outras versões:

P(A,B) = P(A|B) P(B) = P(B|A) P(A)

Essa é mais fácil de lembrar - P(A,B) a joint probability de A e B (a probabilidade de A e B acontecerem)

Variáveis aleatórias

Considere A e B como variáveis aleatórias que pode assumir alguns valores distintos.

P(A=a|B=b) = \frac{P(B=b|A=a) P(A=a)}{P(B=b)}

Ou A e B podem assumir qualquer valores real, e então P(A) é uma distribuição de probabilidade. O teorema de Bayes funciona para distribuições de probabilidades

p(a|b) = \frac{p(b|a) p(a)}{p(b)}

Outra versão com uma condição fixa

C é uma condição fixa (C aconteceu, ou a gente assume C)

P(A|B,C) = \frac{P(B|A,C) P(A|C)}{P(B|C)}

Uma regra importante

P(A) = \sum_x P(A,B=x) =\sum_x P(A|B=x) P(B=x)

x são todos os valores que B pode assumir.

Assim, varias vezes a evidencia P(B) é expressa como

P(B) = \sum_x P(B|A=x) P(A=x)

P(A=a|B=b) = \frac{P(B=b|A=a) P(A=a)}{\sum_x P(B=b,A=x)}

Finalmente se P(A|B) é uma distribuição (se A ou B é uma variável), então o termo de evidencia P(B) pode ser pensado apenas como uma constante para garantir que a distribuição de probabilidade P(A|B) some (ou de integral) = 1.

P(A=a|B=x) = K P(B=x|A=a) P(A=a)

desde que \sum_x P(A=a|B=x) ou \int P(A=a|B=x) dx seja = 1

Ideia central da análise bayesiana

P(hipotese|dados) = \frac{P(dados|hipotese) P(hipotese)}{P(dados)}

Próximo passo da analise bayesiana

Na verdade em analise bayesiana nós definimos um modelo (M) para a geração dos dados que tem parâmetros \theta, e não apenas uma hipótese. O que queremos é obter os parâmetros do modelo dado os dados D Exemplo: imagem

P(\theta|D,M) =\frac{ P(D|\theta,M) P(\theta|M)}{P(D|M)}

Diferentes modelos (M) propostos

MCMC

Outras Inferências possíveis da joint distribution

BF = \frac{P(h1|D)}{P(h2|D)} = \frac{P(D|h1)}{P(D|h2)}\frac{P(h1)}{P(h2)}

Mais sobre Analise bayesiana