Download - Computer Vision
![Page 1: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/1.jpg)
Computer Vision
Klassifizierung, Boosting
Yun-Yi Lisa Wang
08.07.2004
![Page 2: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/2.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
2
Übersicht
• Motivation– Wozu braucht man Klassifizierung
• Grundlagen– Was ist Klassifizierung– Entscheidungsgrenze finden– Methoden zum Bau von Klassifikatoren
• Klassifizierung mittels Histrogramm• Auswahl der Merkmale• Verbesserung durch Boosting• Fazit
![Page 3: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/3.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
3
Motivation
• Fahrerassistenzsystem • Mensch-Maschine-Schnittstelle
Spracherkennung, Mimikerkennung
![Page 4: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/4.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
4
Klassifizierung
Was sind• Merkmale• Labeling• Klassen• Trainingsbeispiele • Trainingsmenge• Entscheidungsgrenze
ii yx ,
![Page 5: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/5.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
5
Entscheidungsgrenze finden
• Verlustfunktion
• Gesamtrisiko berechnen
• Gesamtrisiko minimieren
sonst 1,
jifür 0,)( jiL
12|12Pr21|21Pr LsLssR
![Page 6: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/6.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
6
Methode mit Normalverteilung
Parameter der Normalverteilung für Klasse k• Mittelwert • Varianz
Aktion: Klassifizierung von Stichprobe x• wähle die Klasse mit der geringsten Distanz zu x• verwende dabei Mahalanobis Distanz
kk
![Page 7: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/7.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
7
Mahalanobis Distanz
Unterschiedliche Gewichtung des Abstandsmaßes
• die Distanz hat ein größeres Gewicht in der Richtung der kleineren Abweichung
• die Distanz hat ein kleineres Gewicht in der Richtung der größeren Abweichung
12
1,;
21
kTx kk
kk xx
![Page 8: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/8.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
8
Methode mit „Nearest Neighbours“
• k nächste Nachbarn suchen• Einfache Mehrheit muss mehr als l sein
Neighbour-Nearest-, lk
![Page 9: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/9.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
9
Klassifikator mittels Histogramm
Wahrscheinlichkeitsmodell durch Histogramm
Vor- und Nachteil verglichen mit Normalverteilung:
Vorteil: realitätsnäher
Nachteil: rechenaufwendiger
![Page 10: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/10.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
10
Auswahl der Merkmale
Anforderungen:• Eindeutig für die Klasse• Invariant zur Veränderungen• Nicht zu viele auch nicht zu wenige Merkmale
Verschiedene Einheiten– Länge: im Pixel– Grauwert: – Winkel:
25503600
![Page 11: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/11.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
11
Verbesserung mit Boosting
• Erster Boosting Algorithmus aus dem Jahr 1989• Zur Zeit: Adaboost• Grundidee des Trainings:
Wir wollen t-mal trainieren, wobei t = T
1. Alle Trainingsdaten haben anfangs gleiches Gewicht
2. Geringste Fehlerwahrscheinlichkeit suchen
3. Damit Hypothese ht und deren Faktor αt feststellen
4. Gewicht für falsch klassifizierte Daten erhöhen
5. Wenn t < T : goto 2
6. End-Hypothese: ∑ ht * αt
![Page 12: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/12.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
12
Beispiel für Boosting
http://www.cs.technion.ac.il/~rani/LocBoost/index.html
![Page 13: Computer Vision](https://reader030.vdocuments.site/reader030/viewer/2022032709/568131db550346895d9842e6/html5/thumbnails/13.jpg)
Klassifizierung.ppt Yun-Yi Lisa Wang
13
Fazit
• Linearer Klassifikator• Dynamic Time Warping (Dynamische
Programmierung)• Hidden Markov Modelle (HMM)• Artificial Neural Network (ANN)
Trainingsmenge
Klassifikator
x
y