





















































Estude fácil! Tem muito documento disponível na Docsity
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Prepare-se para as provas
Estude fácil! Tem muito documento disponível na Docsity
Prepare-se para as provas com trabalhos de outros alunos como você, aqui na Docsity
Os melhores documentos à venda: Trabalhos de alunos formados
Prepare-se com as videoaulas e exercícios resolvidos criados a partir da grade da sua Universidade
Responda perguntas de provas passadas e avalie sua preparação.
Ganhe pontos para baixar
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Comunidade
Peça ajuda à comunidade e tire suas dúvidas relacionadas ao estudo
Descubra as melhores universidades em seu país de acordo com os usuários da Docsity
Guias grátis
Baixe gratuitamente nossos guias de estudo, métodos para diminuir a ansiedade, dicas de TCC preparadas pelos professores da Docsity
Classificador Naïve Bayes. • Exemplos ... “Norma de Ouro” para avaliar outros algoritmos de aprendizagem. ... Em resumo, o algoritmo Naïve Bayes envolve.
Tipologia: Notas de estudo
1 / 61
Esta página não é visível na pré-visualização
Não perca as partes importantes!
Alessandro L. Koerich
Programa de Pós-Graduação em Engenharia Elétrica
Universidade Federal do Paraná (UFPR)
Aprendizagem Bayesiana
Introdução
-^
Teorema de Bayes
-^
Classificador Ótimo de Bayes
-^
Classificador Naïve Bayes
-^
Exemplos
-^
Resumo
O pensamento Bayesiano fornece umaabordagem probabilística para aprendizagem
-^
Está baseado na suposição de que asquantidades de interesse são reguladas por distribuições de probabilidade
Distribuição de probabilidade: é uma função quedescreve a probabilidade de uma variávelaleatória assumir certos valores.
Decisões ótimas podem ser tomadas com basenestas probabilidades conjuntamente com osdados observados.
-^
Fornece a base para algoritmos deaprendizagem que manipulam probabilidades,bem como para outros algoritmos que nãomanipulam probabilidades explicitamente.
-^
Cada exemplo de treinamento pode decrementar ouincrementar a probabilidade de uma hipótese ser correta.
-^
Conhecimento
a priori
pode ser combinado com os
dados observados para determinar a probabilidade deuma hipótese.
-^
Métodos Bayesianos podem acomodar hipóteses quefazem predições probabilísticas.
Ex.: o paciente tem uma
chance de 93% de possuir a doença.
-^
Novas instâncias podem ser classificadas combinando aprobabilidade de múltiplas hipóteses ponderadas pelassuas probabilidades.
Métodos Bayesianos requerem o conhecimentoinicial de várias probabilidades.– Quando não conhecidas, podem ser estimadas:
Custo computacional significativo paradeterminar a hipótese ótima de Bayes– É geralmente linear com o número de hipóteses
( c
) é chamada de probabilidade
a posteriori
de
c
porque ela reflete nossa confiança que
c
se
mantenha após termos observado o vetor detreinamento
( c
) reflete a influência do vetor de
treinamento
Em contraste, a probabilidade
a priori P
( c
) é
independente de
Geralmente queremos encontrar a classe maisprovável
c
, sendo fornecidos os exemplos
de treinamento
Ou seja, a classe com o máximo
a posteriori
C c
C Cc c
MAP
^
O termo
( X|c
) é chamado de probabilidade
condicional (ou
likelihood
) de
endo fornecido
c
, qualquer classe que
maximiza
| c
) é chamada de uma hipótese
) | (
max
arg
c X P
c^
C c
ML
Considere um problema de diagnóstico médicoonde existem duas classes possíveis:– O paciente tem H1N1– O paciente não tem H1N
-^
As características disponíveis são um exame delaboratório com dois resultados possíveis:–
: positivo
: negativo
Supondo que um paciente fez um exame delaboratório e o resultado deu positivo.
-^
O paciente tem H1N1 ou não?
Consideramos até agora a questão:
“Qual a classe mais provável
c
MAP
dado os
exemplos de treinamento X?
Entretanto, a questão mais significativa é naverdade:
“ Qual é a classificação mais provável de uma nova instância dado os dados de treinamento?
A classe MAP
c
MAP
) é ou não a classificação
mais provável?