redes bayesianas conhecimento com incerteza. tópicos introdução noções de probabilidade redes...

Post on 19-Apr-2015

109 Views

Category:

Documents

7 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Redes Bayesianas

Conhecimento com Incerteza

Tópicos

Introdução

Noções de Probabilidade

Redes Bayesianas

Aplicações

Conclusões

Bibliografia

Sistema de Diagnóstico Odontológico

Regra de diagnóstico d sintoma (d,dor de dente) doença (d,cárie) ... a doença (causa do sintoma) pode ser outra...

Regra causal d doença (d,cárie) sintoma (d,dor de dente) ...nem sempre a doença provoca o sintoma...

A conexão entre antecedente e conseqüente não é uma implicação lógica em nenhuma direção

Conhecimento com Incerteza

Agentes baseados em Lógica de Primeira Ordem enfrentam dificuldades em situações onde: o agente não tem acesso a todo o

ambiente ambiente inacessível

o agente tem uma compreensão incompleta ou incorreta do ambiente

Conhecimento com Incerteza

A LPO falha no domínio de diagnóstico médico devido a: “preguiça”

existem causas ou conseqüências demais a considerar

ignorância teórica e prática não existe uma teoria completa para o domínio,

nem podemos fazer todos os testes necessários para o diagnóstico perfeito

Nesses casos, o conhecimento do agente pode apenas prover um grau de crença nas sentenças relevantes P(Cárie/Dor de Dente) = 0.6

Teoria da Probabilidade

Associa às sentenças um grau de crença numérico entre 0 e 1 P(Cárie/Dor de Dente) = 0,6 O agente acredita que o paciente tem cárie

(dado que ele tem dor) com 60% de certeza

Contudo, cada sentença ou é verdadeira ou é falsa Engajamento epistemológico

Ou o paciente tem cárie ou não tem Isso não é fuzzy!

Grau de crença (probabilidade)

A priori (incondicional): calculada antes de o agente receber

percepções Ex. P(cárie= true) = P(cárie) = 0.5

Condicional: calculada de acordo com as evidências

disponíveis evidências:

percepções que o agente recebeu até agora Exemplo:

P(cárie|dor de dente)= 0.8 P(cárie|~dor de dente)= 0.3

Probabilidade Condicional

Probabilidade condicional (a posteriori) de A dado que B ocorreu é definida por: P(A|B) = P(A B) , quando P(B) > 0

P(B)

Probabilidade condicional: possibilita inferência sobre uma proposição

desconhecida A dada a evidência B

P(A/B) = P(B/A)P(A)

P(B)

P(A/B,E) = P(B/A,E)P(A/E)

P(B/E)

Regra de Bayes

Equação para o Teorema de Bayes :

Pode-se estender esta expressão para o caso em que a dependência condicional está associada a mais de uma evidência previa:

Aplicação da Regra de Bayes: Diagnóstico Médico

• Seja

M=doença meningite

S= rigidez no pescoço

• Um Doutor sabe:

P(S/M)=0.5

P(M)=1/50000

P(S)=1/20

P(M/S)=P(S/M)P(M)

P(S)

=0,5*(1/50000)=0,002

1/20

•A probabilidade de uma pessoa ter meningite dado que ela está com rigidez no pescoço é 0,02% ou ainda 1 em 5000.

Probabilidade Condicional e Independência

Independência: P(A|B) = P(A) Exemplo: A = dor de dente e B=úlcera

Úlcera não causa dor de dente

Eventos mutuamente excludentes: P(A B) = 0 Experimento: Lançamento de um dado

A = a face do dado é ímpar e B = a face do dado é par

Independência condicional Sejam X e Y independentes dado Z => P(X|Y,Z) = P(X|Z) Independência condicional é crucial para o

funcionamento eficaz de sistemas probabilísticos

Independência Condicional

P(X|Y,Z) = P(X|Z) Isso quer dizer que, se o objetivo é saber a

probabilidade de X, então tanto faz o valor de Y se você já sabe o valor de Z

Exemplo: Trovão é condicionalmente independente de Chuva, dado Relâmpago P(Trovão/ Chuva, Relâmpago) = P(Trovão/

Relâmpago)

Distribuição de Probabilidade Conjunta

Sejam Y1, Y2,...Yn um conjunto de variáveis

Evento atômico: uma especificação completa dos estados do

domínio Y1= y1, Y2 = y2,...., Yn= yn

A distribuição de probabilidade conjunta P(Y1,Y2,...,Yn) atribui probabilidades a todos os possíveis eventos atômicos

Exemplo: Probabilidade Conjunta

cárie

cárie

dor de dente dor de dente

0.04

0.01

0.06

0.89

P(cárie ^ dor de dente)=?

P(cárie)=?

P(dor de dente)=?

P(cárie/dor de dente)=?

Teorema da Multiplicação de Probabilidades

Esse resultado permite calcular a probabilidade de ocorrência simultânea de vários eventos a partir das probabilidades condicionais.

P(y1^...yn) = P(yn / y1^...yn-1) ... P(y2 / y1) P(y1)

P(y1^...yn) = P(yn / y1^...yn-1) ... P(y1^...yn-

1)

Redes Bayesianas

Representação do Conhecimento com Incerteza

Redes Bayesianas

Representa 3 tipos de conhecimento do domínio: Relações de independência entre variáveis

aleatórias Probabilidades a priori de algumas

variáveis Probabilidades condicionais entre variáveis

dependentes

Permite calcular eficientemente: Probabilidades a posteriori de qualquer

variável aleatória (inferência)

Redes Bayesianas

Conhecimento representado: Pode ser aprendido a partir de

exemplos Reutilizando parte dos mecanismos

de raciocínio

Semântica da Rede Bayesiana

Representação da distribuição de Probabilidade Conjunta das variáveis de interesse: P(y1^...yn)

Redes Bayesianas levam em consideração a independência condicional entre subconjuntos de variáveis

Estrutura das Redes Bayesianas

Uma Rede Bayesiana é um grafo acíclico e dirigido onde: Cada nó da rede representa uma variável

aleatória Um conjunto de ligações ou arcos dirigidos

conectam pares de nós cada nó recebe arcos dos nós que tem influência

direta sobre ele (nós pais). Cada nó possui uma tabela de probabilidade

condicional associada que quantifica os efeitos que os pais têm sobre ele

Redes Bayesianas

Tempestade Ônibus de Turismo

Fogo no Acampamento

Trovão Fogo na floresta

Raio

T,O T,O T, O T, O

FA 0.4 0.1 0.8 0.2

FA 0.6 0.9 0.2 0.8

Fogo no Acampamento

Distribuição de Probabilidade:P(FA/T,O)

Redes Bayesianas

Representa a distribuição de probabilidade conjunta entre todas as variáveis: P(y1^...^yn)

Exemplo: P(Tempestade, , Fogo na Floresta)? Exemplo: P(Classe=C1 ^ Atrib1=10 ^ Atrib2=Yes)?

Cálculo da probabilidade conjunta:

Onde Predecessores(Yi) significa predecessores imediatos de Yi no grafo

n

1iiin1 ))Y(sedecessorePr/y(P)y,,y(P

Redes Bayesianas: Cálculo da Probabilidade

Conjunta Lembrem-se do teorema da multiplicação de

probabilidades

P(y1^...yn) = P(yn / y1^...yn-1) ... P(y2 / y1) P(y1)

P(yn / Predecessores(Yn)) P(y2 / Predecessores(Y2)

n

1iiin1 ))Y(sedecessorePr/y(P)y,,y(P

Exemplo Alarme (AIMA)

Roubo Terremoto

Alarme

JohnCalls MaryCalls

P(T)

0,002

P(R)

0,001

R T P(A)

T T 0,95 T F 0,94 F T 0,29 F F 0,001

A P(J )

T 0,90 F 0,05

A P(M)

T 0,70 F 0,01

Calcular a probabilidade do evento que o alarme toca mas não houve assalto nem terremoto e que João e Maria telefonaram.

P(J M A ~R ~T)

= P(J|A) P(M|A) P(A|~R ~T )P(~R)P(~T)

= 0.9 x 0.7 x 0.001 x 0.999 x 0.998

= 0.00062 ou 0.062 %

Exemplo Alarme (AIMA)

Engenharia do conhecimentopara Redes Bayesianas

1. Escolher um conjunto de variáveis relevantes que descrevam o domínio

2. Ordem de inclusão dos nós na rede (a). causas como “raízes” da rede (b). variáveis que elas influenciam (c). folhas, que não influenciam diretamente nenhuma outra variável.

3. Enquanto houver variáveis a representar:

(a). escolher uma variável Xi e adicionar um nó para ela na rede

(b). estabelecer Pais(Xi) dentre os nós que já estão na rede, satisfazendo a propriedade de dependência condicional

(c). definir a tabela de probabilidade condicional para Xi

Exemplo Alarme (AIMA)

Roubo Terremoto

Alarme

JohnCalls MaryCalls

P(T)

0,002P(R)

0,001

R T P(A)

T T 0,95 T F 0,94 F T 0,29 F F 0,001

A P(J )

T 0,90 F 0,05

A P(M)

T 0,70 F 0,01

Ordem: R T A J M

Exemplo de Rede Bayesiana Não Puramente Causal

Vamos usar o exemplo do alarme com a seguinte ordem de inserção dos nós:

MaryCalls, JohnCalls, Alarme, Roubo e Terremoto.

Roubo

Terremoto

Alarme

JohnCalls

MaryCalls

Problemas: A figura possui duas conexões a mais julgamento não natural e difícil das probabilidades

Tendo uma rede puramente causal, teríamos um número menor de conexões

Exemplo de Rede Bayesiana Não Puramente Causal

Exercício

Construa uma rede para o problema abaixo. Eu quero prever se minha esposa está em casa

antes de eu abrir a porta. Eu sei que minha esposa liga a luz quando chega em casa, mas as vezes ela também liga ao sair se ela for retornar com alguma visita. Quando não tem ninguém em casa, ela solta o cachorro no quintal, mas às vezes ela solta o cachorro quando ele está molhado. Quando o cachorro está solto, consigo ouvir o seu latido da rua mas as vezes o confundo com o cachorro da vizinha.

Tipos de Inferência em Redes Bayesianas

Causal (da causa para o efeito)P(JohnCalls/Roubo) = 0,86

Roubo Alarme JohnCalls

Evidência Query

Diagnóstico (do efeito para a causa) P(Roubo/JohnCalls) = 0,016

JohnCalls Alarme Roubo

Evidência Query

Intercausal (entre causas com um efeito comum)P(Roubo/Alarme) = 0,376P(Roubo/Alarme Terremoto) = 0,373

Mista (combinando duas ou mais das de cima) P(Alarme/JohnCalls Terremoto) = 0,03 Este é um uso simultâneo de inferência causal e

diagnóstico.

Roubo Alarme Terremoto

Query Evidência

JohnCalls Alarme Terremoto

Evidência EvidênciaQuery

Tipos de Inferência em Redes Bayesianas

Evidência

Aplicações de Redes Bayesianas

PATHFINDER: diagnóstico de doenças que atacam os nodos linfáticos. (Russel&Norvig 1995) PAINULIM: diagnóstico de doenças neuro-musculares: http://snowhite.cis.uoguelph.ca/faculty_info/yxiang/research.htmlTutores inteligentes: www.pitt.edu/~vanlehn/andes.html

Aplicações de Redes Bayesianas

Mais aplicações: http://excalibur.brc.uconn.edu/~baynet/researchApps.htm Análise de proteínas Modelagem de Agentes Inteligentes Detecção de fraudes na indústria Robótica

Conclusões

Possibilidade de trabalhar com domínios onde não há informação suficiente Raciocínio probabilístico trata o grau de incerteza associado à maioria dos domínios Combina conhecimento a priori com dados observados O impacto do conhecimento a priori (quando correto) é a redução da amostra de dados necessários

Conclusões

Redes Bayesianas são usadas em muitas aplicações do mundo real

Área de pesquisa ativa Engenharia de conhecimento Complexidade dos algoritmos para

inferência Aprendizado

Bibliografia

Russel, S, & Norvig, P. (1995). Artificial Intelligence: a Modern Approach (AIMA) Prentice-Hall. Pages 436-458, 588-593

Mitchell, T. & (1997): Machine Learning, McGraw-Hill. Cap.6

Fayyad et al. (1996): Advances in knowledge discovery and data mining, AAAI Press/MIT Press. Cap.11

Pearl, J. (1988) Probabilistic Reasoning in Inteligent Systems

Software

http://www.ai.mit.edu/~murphyk/Bayes/bnsoft.html

top related