rozpoznávanie obrazcov

34
Rozpoznávanie obrazcov Sonka, Hlavac, Boyle: Image Processing, Analysis and Machine vision, kapitola: Object recognition http://dip.sccg.sk/

Upload: myra-charles

Post on 01-Jan-2016

30 views

Category:

Documents


6 download

DESCRIPTION

Rozpoznávanie obrazcov. Sonka , Hlavac , Boyle : Image Processing , Analysis and Machine vision , kapitola: Object recognition http://dip.sccg.sk/. Rozpoznávanie obrazcov. - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: Rozpoznávanie obrazcov

Rozpoznávanie obrazcov

Sonka, Hlavac, Boyle: Image Processing, Analysis and Machine vision, kapitola: Object recognition http://dip.sccg.sk/

Page 2: Rozpoznávanie obrazcov

Rozpoznávanie obrazcov

Rozpoznávanie obrazcov sa používa na klasifikáciu oblastí a objektov a predstavuje dôležitú súčasť zložitejších systémov počítačového videnia.

Žiadne rozpoznávanie nie je možné bez znalostí. Vyžadujú sa špecifikácie tak o objektoch, ktoré sa rozpoznávajú ako aj všeobecnejšie znalosti o triedach objektov.

Page 3: Rozpoznávanie obrazcov

Prístupy rozpoznávania obrazcov

Štatistický založený na pochopení štatistického modelu obrazca a tried obrazcov

Neurónové siete: klasifikátor je reprezentovaný ako sieť buniek modelujúcich neuróny ľudského mozgu

Syntaktický (štrukturálny): triedy obrazcov reprezentované cez formálnu štruktúru ako gramatiky automaty reťazce atď.

Page 4: Rozpoznávanie obrazcov

Základné pojmy

Obrazec (pattern) je objekt, proces alebo udalosť, ktorú vieme pomenovať.

Trieda obrazcov (pattern class) je množina obrazcov s podobnými atribútami a obvykle pochádzajú s rovnakého zdroja

Počas rozpoznávania (klasifikácie) daný objekt (obrazec) je priradený do jednej triedy

Page 5: Rozpoznávanie obrazcov

Štatistické rozpoznávanie obrazcov

Rozhodovanie na základe Bayesovo pravidla

Support Vector Machines Klastrovacie metódy

Page 6: Rozpoznávanie obrazcov

Základný koncept

y x

nx

x

x

2

1Vektor príznakov x є X- Vektor pozorovaní (merania). - x je bod v priestore príznakov X

Skrytý stav

- Nemôže byť priamo pozorovaný.- Obrazce s rovnakým skrytým stavom patria do

rovnakej triedy- Počet tried sa obyčajne vie dopredu.

Yy

- Určiť klasifikátor (rozhodovacie pravidlo), ktorý rozhodne o skytom stave na základe pozorovania.

YX :q

Obrazec

Page 7: Rozpoznávanie obrazcov

Triedy obrazcov vytvárajú v príznakovom priestore zhluky, ktoré je možné rozdeliť diskriminačnými (oddeľujúcimi) hyperkrivkami.

Page 8: Rozpoznávanie obrazcov

Príklad

Rozpoznávanie žokej – basketbalista.

Page 9: Rozpoznávanie obrazcov

Príklad

x

2

1

x

x

výška

váha

Rozpoznávanie žokej – basketbalista.

Množina skrytých stavov Y = {H, J}

Priestor príznakov X = R 2

Trénovacie vzorky

)},(,),,{( 11 ll yy xx

1x

2x

Jy

Hy Lineárny klasifikátor

0)(

0)()q(

bifJ

bifH

xw

xwx

0)( bxw

Page 10: Rozpoznávanie obrazcov

Príznaky a obrazce

Kvalita vektora príznakov závisí od schopnosti rozdeliť vzorky do rôznych tried

•Vzorky z rovnakých tried by mali mať podobné hodnoty príznakov

•Vzorky z rôznych tried by mali mať odlišné hodnoty príznakov

“Good” features “Bad” features

Page 11: Rozpoznávanie obrazcov

Separabilné triedy - také, pre ktoré existujú oddeľujúce nadplochy. Lineárne separabilné – také, pre ktoré existujú oddeľujúce nadroviny. Väčšina reálnych problémov je reprezentovaná ako neseparabilné triedy, teda klasifikátor sa pomýli.

Page 12: Rozpoznávanie obrazcov

Komponenty PR systému

Sensors and preprocessing

Feature extraction

Classifier

Classassignment

• Sensors and preprocessing.• A feature extraction aims to create discriminative features

good for classification.• A classifier.• A teacher provides information about hidden state --

supervised learning.• A learning algorithm sets PR from training examples.

Learning algorithmTeacher

Pattern

Page 13: Rozpoznávanie obrazcov

Feature extraction methods

km

m

m

2

1

nx

x

x

2

11φ

km

m

m

m

3

2

1

nx

x

x

2

1

Feature extraction Feature selection

Problém môže byť vyjadrený ako optimalizácia parametrov featrure extractor .

Metódy s učiteľom: objektívnou fukciou je kritérium separability označených vzoriek, e.g., linear discriminat analysis (LDA).

Metódy bez učiteľa: hľadá sa reprezentácia nižšej dimenzie, ktorá zachová dôležité charakteristiky vstupných dát, e.g., principal component analysis (PCA).

φ(θ)

Page 14: Rozpoznávanie obrazcov

KlasifikátorKlasifikátor rozdelí priestor príznakov X na regióny označené triedou také že

||21 YXXXX }0{||21 YXXX and

1X 3X

2X

1X1X

2X

3X

Klasifikácia pozostáva z rozhodnutia, do ktorého regiónu vektor príznakov x patrí.

Hranice medzi regiónmi rozhodovania sa nazývajú rozhodovacie hranice (decision boundaries)

Page 15: Rozpoznávanie obrazcov

Reprezentácia klasifikátora

Klasifikátor je typicky reprezentovaný množinou diskriminačných funkcií

||,,1,:)( YX igi x

Klasifikátor priradí vektor príznakov x do i-tej triedy ak )()( xx ji gg ij

Vektor príznakov

Diskriminačná funkcia

Identifikátor triedy

)(1 xg

)(2 xg

)(|| xYg

maxx y

Page 16: Rozpoznávanie obrazcov

Potom je nadplocha medzi triedami a určená rovnicou = 0. Z toho vyplýva rozhodovacie pravidlo

Lineárne diskriminačné funkcie sú najjednoduchšie a široko používané

Druhá možnosť je založená na princípe minimálnej vzdialenosti. Predpokladajme, že je definovaných R etalónov ktoré reprezentujú ideálnych reprezentantov R tried. Rozhodovacie pravidlo je potom

r

s

xx sr gg

)(max)()(R1,2,...,

r xxx ss

r ggd

nrnrrr xqxqxqg ...q )( 2211r0x

Rvvv ,...,, 21

xvxvx -min)(R1,2,...,

r ss

rd

Page 17: Rozpoznávanie obrazcov

Dá sa ukázať, že pravidlo najbližšieho suseda je špeciálnym prípadom lineárnych diskriminačných funkcií.

Ak sú triedy lineárne separabilné, možno použiť metódu lineárnych diskriminačných funkcií alebo pravidlo najbližšieho suseda

ak nie sú triedy lineárne separabilné, možno použiť Φ-prevodník alebo nelineárne diskriminačné funkcie.

Page 18: Rozpoznávanie obrazcov

),d( , (q)min)( * qxq JJq

R ...,,, 21

)(...,),(),( 21 RPPP

R

rP1r

1.)(

Definujme J(q) ako stratu spojenú s použitím konkrétnehorozhodovacieho pravidla ω = d(x, q) v prípade nesprávnej klasifikácie, kde parameter q zvýrazňuje použitie konkrétneho pravidla. Potom pravidlo ω = d(x, q*) sa nazýva optimálne rozhodovacie pravidlo, ak dáva minimálnu strednú stratu, teda platí, že

Klasický príkld štatistického rozpoznávania, ktoré dáva minimálnu strednú stratu, je Bayesovo pravidlo, ktoré pracuje s 2 apriórnymi a 1 aposteriórnou pravdepodobnosťou.Pretože pri neseparabilných triedach nevieme jednoznačne rozhodnúť o triede, pokladáme ju za náhodnú premennú s možnými hodnotami

s apriórnymi pravdepodobnosťamipre ktoré platí

Page 19: Rozpoznávanie obrazcov

kde

je hustota pravdepodobnosti rozloženia príznakového vektora v príznakovom priestore bez ohľadu na triedu.

. Potom podmienená pravdepodobnosť, že vektor príznakov x patrí do triedy je daná vzťahom

)( rp x

R

R ,)(

)().()(

x

xx

p

PpP rr

r

R

1

)().()(r

rr Ppp xx

Väčšinou máme viac informácie ako iba apriórne pravdepodobnosti tried, nech máme aj podmienené pravdepodobnosti

, ktoré vyjadujú pravdepodobnosť objavenia sa príznakového vektora x za podmienky, že je známa trieda

Page 20: Rozpoznávanie obrazcov

Overfitting and underfitting

Problem: how rich class of classifications q(x;θ) to use.

underfitting overfittinggood fit

Page 21: Rozpoznávanie obrazcov

Support vector machines (SVM)

Snaží sa pri rozdeľovaní 2 separovatelných tried maximalizovať vzdialenosť medzi nimi (margin)

Vektory, ktoré sa nachádzajú najbližsie sa nazývaju podporné vektory (support vectors)

Page 22: Rozpoznávanie obrazcov

SVM 2 triedy označené ω, kde ω {-1, 1}

Oddelujúca hyperplocha w.x + b = 0

Maximalizovať okraje (margin) 2 hyperplochy sú definované

w.x + b = -1 w.x + b = 1

ktoré prechádzajú cez podporné vektory

Aby sme zaručili, že ziadne trénovacie vektory nebudú medzi týmito hyperplochami musíme dodržať nerovnosť

ωi (w.xi + b) ≥ 1

Page 23: Rozpoznávanie obrazcov

Kernel funkcieNelineárna transformácia priestoru, v ktorom použijeme lineárnu hyperplochu na oddelenie tried zodpovedápoužitiu nelineárneho hyperpovrchu v pôvodnom priestore

Page 24: Rozpoznávanie obrazcov

Učenie bez učiteľa

Vstup: trénovacie vektory {x1,…,x} bez informácie o skytom stave

Klastrovanie: cieľom je nájsť klastre dát s podobnými vlastnosťami

Classifier

Learning algorithm

θ

},,{ 1 xx },,{ 1 yy

Classifier

ΘY)(X: L

YΘX :q

Learning algorithm(supervised)

Trieda algoritmov učiacich sa bez učiteľa:

Page 25: Rozpoznávanie obrazcov

Example of unsupervised learning algorithm

k-Means clustering:

Classifier ||||minarg)q(

,,1i

kiy mxx

Goal is to minimize

1

2)q( ||||

ii ixmx

ij

ji

iII

,||

1xm })q(:{ ij ji xI

Learning algorithm

1m

2m

3m

},,{ 1 xx

},,{ 1 kmmθ

},,{ 1 yy

Page 26: Rozpoznávanie obrazcov

Neurónové siete Viaceré neurónové prístupy sú založené na

kombinácii elementárnych procesorov (neurónov), z ktorých každý má viacero vstupov a jeden výstup.

Každému vstupu je priradená váha a výstup je sumou váhovaných výstupov.

Rozpoznávanie obrazcov je jednou z mnohých oblastí použitia neurónových sietí.

Page 27: Rozpoznávanie obrazcov

Neural Networks : Multilayer Feedforward

Neural Networks Basic structure

Fig.3 Structure of multilayer feedforward neural networks

Page 28: Rozpoznávanie obrazcov

Neural Networks : Multilayer Feedforward

Neural Networks Training algorithm : back

propagation

Page 29: Rozpoznávanie obrazcov

Neural Networks : Multilayer Feedforward

Neural Networks 1. Initialization Assigning an arbitrary set of weights

throughout the network (not equally).

2. Iterative step a. Computing Oj for each node by using

training vector, then generating the error terms for output δq, where

, rq is the desired response.

b. Backward passing appropriate error signal is passed to each node and the corresponding weight changes are made.

(q q q q q= (r -O )h ' I )

Page 30: Rozpoznávanie obrazcov

Neural Networks Decision surface complexity

Table2 : Decision surface complexity of multilayer feedforward neural networks[1]

Page 31: Rozpoznávanie obrazcov

Syntactic Recognition : String Case

Input to the automata are unknown sentences

generated by the corresponding grammars

respectively. The grammar G = (N, Σ, P, S) N is a finite set of variables called

nonterminals, Σ is a finite set of constants called terminals, P is a set of rewriting rules called productions, and

S in N is called the starting symbol.

Page 32: Rozpoznávanie obrazcov

Syntactic Recognition : String Case

An example N={A,B,S},Σ={a,b,c} P={S→ aA, A→ bA, A→ bB, B→C} S→ aA→ abA→ abbA→ …. →abbbbbc L(G)={abnc|n 1}≧

Fig.6 An example of string language[1]

Page 33: Rozpoznávanie obrazcov

Syntactic Recognition : String Case

The finite automata Af = (Q, Σ, δ, q0, F)

Q is a finite, nonempty set of states,Σ is a finite input alphabet,δ is a mapping from Q×Σ into the

collection of all subsets of Q,

q0 is the starting state, and

F is a set of final states.

Page 34: Rozpoznávanie obrazcov

Syntactic Recognition : String Case

A simple automaton

Af = (Q, Σ, δ, q0, F)Q={q0,q1,q2}Σ={a, b} F=q0

δ(q0,a)={q2} δ(q0,b)={q1} δ(q1,a)={q2} δ(q1,b)={q0} δ(q2,a)={q0} δ(q2,b)={q1}Invalid input string : bababbb

Valid input string : aaabbbb

Fig.7 State machine of the automaton[1]