segmentation dimages couleur ou multispectrales par analyse dhistogrammes multidimensionnels sié...
TRANSCRIPT
Segmentation d’images couleur ou
multispectrales par analyse
d’histogrammes multidimensionnels
Sié OUATTARA(06-01-2009)
Directeur de thèse : Bertrand VIGOUROUXCo-encadrant : Alain CLEMENT
Doctorant en traitement d’image et signal au LISA1
PLAN
Contexte du travail Problématique Objectifs Etat de l’art sur la segmentation d’images Etat de l’art sur l’évaluation de la
segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion
2
Contexte du travail Problématique Objectifs Etat de l’art sur la segmentation d’images Etat de l’art sur l’évaluation de la
segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion
3
Traitement et analyse d’images
Science pluridisciplinaire (physique, électronique, mathématique et informatique)
Contribution dans divers domaines (médical, robotique, télédétection, …)
4
Nature des images à segmenter et analyser (aspect vectoriel)
Plan R Plan V Plan B Plans (R,V,B)
Plan 1
House
Plans (1,2,3) Plans (4,5,6) Plans (7,8,9)
M4 (9D)5
Cadre des travaux
Continuité de certains travaux entrepris au LISA
Analyse des histogrammes multidimensionnels (nD), n≥2
Histogramme nD compact
Segmentation d’images couleur ou multispectrales (images multicomposantes)
Travaux limités en général à l’analyse d’histogrammes 2D
Extension de la segmentation à l’analyse d’ histogrammes nD
6
Contexte du travail Problématique Objectifs Etat de l’art sur la segmentation d’images Etat de l’art sur l’évaluation de la
segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion
7
Travaux (non paramétriques) :
Limités généralement a l’analyse des histogrammes 2D (non paramétrique)[Clément et Vigouroux, 2003] (Plans RG); [Lezoray, 2003] combinaison de cartes de segmentation (RG,RB,GB) par LPE, etc.
- Non prise en compte de la corrélation entre les plans- Choix a priori des plans, réduction du nombre de plans- Modes des histogrammes marginaux diffèrent des modes des histogrammes nD
Peu de travaux sur l’analyse d’histogrammes nD non paramétriques ( n≥3)
Méthodes d’estimation de noyaux : [Gillet, 2001 ]; [Comaniciu et al., 2002]; etc.- (1) Grand volume de données, (2) Coût de traitement élevé
Aspect diffus des histogrammes nD Influence sur la qualité des résultats des méthodes de segmentation quand n augmente.
Nombre de classes élevé et donc problème de pertinences des classes construites Difficulté de traitement de l’information redondante
8
Contexte du travail Problématique Objectifs Etat de l’art sur la segmentation d’images Etat de l’art sur l’évaluation de la
segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion
9
Objectif globalMise en œuvre d’une méthode de segmentation d’images couleur
oumultispectrales par analyse d’histogrammes nD (n>=3).
Objectifs spécifiquesAnalyse des histogrammes nD ( n>=2)
Etiquetage en composantes connexes (ECC) des histogrammes nD
Réaliser une méthode de classification optimale à stratégie vectorielle en limitant la sur-segmentation
Evaluation de la segmentation10
PLAN Contexte du travail Objectifs Problématique Etat de l’art de la segmentation d’images Etat de l’art de l’évaluation de la
segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion
11
Etat de l’art
Définitions
Stratégies de segmentation
Approches de segmentation
Méthodes de classification
Choix d’une métrique et d’un espace couleur
Conclusion partielle
12
Définitions
Segmentation d’images: processus de décomposition d’une image en régions connexes ayant une homogénéité selon un critère, par exemple la couleur, la texture, etc. L’union de ces régions constitue l’image.
Cette définition n’impose pas l’unicité de la segmentation
Classification: étape préalable à la segmentation qui consiste à regrouper en différentes classes les pixels ayant des caractéristiques similaires (ex : couleur) .
Classification supervisée: classification intégrant des connaissances a priori de l’image ( ex: germes ou nombre de classes)
Classification non supervisée: classification en aveugle (ne nécessite aucune connaissance a priori de l’image)
Métrique: mesure de ressemblance entre deux éléments de l’image13
Etat de l’art
Définitions
Stratégies de segmentation
Approches de segmentation
Méthodes de classification
Choix d’une métrique et d’un espace couleur
Conclusion partielle
14
Stratégies de segmentation
Approche marginale
opère une segmentation sur chaque composante de l’image puis fusionne les cartes de segmentation en une seule.
Approche bi-marginale
segmente les couples de plans (ex : RG, RB, GB dans l’espace RVB) puis fusionne les cartes de segmentation.
Approche scalaire
fusionne d’abord les composantes en une seule puis la segmente .
Approche par réduction du nombre de plans
consiste à choisir d’abord un nombre de composantes a priori ou obtenu par une méthode de réduction d’espace (ACP, …) puis réalise la segmentation.
15
Stratégies de segmentation
Approche semi-vectorielle
ne prend pas en compte toute la corrélation entre les composantes de l’image. Rapide en temps de calcul.
Approche vectorielle
segmente directement l’image en considérant une information vectorielle (histogramme nD). Prend en compte la corrélation totale entre les plans. Couteux en temps de calcul
Approche vectorielle avec requantification
la résolution tonale (Q) est réduite à q (q <Q)
pour q ≥ 5 bits la qualité visuelle de l’image est sensiblement préservée et présente l’avantage d’être rapide pour q = 5 bits .
16
Etat de l’art
Définitions
Stratégies de segmentation
Approches de segmentation
Méthodes de classification
Choix d’une métrique et d’un espace couleur
Conclusion partielle
17
Approches de segmentionsDeux grandes approches :
Approches régions
Recherche les zones dans l’image selon un critère d’homogénéité.Deux méthodes :
Méthodes spatiales: partitionnement en régions dans le plan image en tenant compte de l’information attribut du pixel (couleur, …), par ex. croissance de régions, division-fusion, etc.
Méthodes de classification pixellaires: regroupement des méthodes de partitionnement basées uniquement sur les attributs des pixels (couleur, ...). Par ex. clustering, analyse d’histogrammes, etc.
Approches contours
extraction des bords entre objets en se basant sur la recherche de discontinuités ( méthodes dérivatives, morphologiques, …).
18
Etat de l’art
Définitions
Stratégies de segmentation
Approches de segmentation
Méthodes de classification
Choix d’un métrique et d’un espace couleur
Conclusion partielle
19
Méthodes de classification
classification nette: classification dans laquelle un pixel est affecté à une classe dont il est le plus proche selon un critère de distance ou de similarité.
classification floue: classification réalisant un partitionnent fou, c’est-à-dire un pixel appartient à une classe avec un degré d’appartenance, cette notion découle de la théorie des sous-ensembles flous que nous verrons dans une autre section.
Méthodes de classification
Deux grandes méthodes :
Les clusterings : fondées sur le principe que les pixels d’une même classes possèdent les mêmes caractéristiques radiométriques ( couleurs, …), ces techniques peuvent être nettes ou floues et nécessite la connaissance a priori du nombre de classes.
Exemple de méthodes : Centres mobiles [Forgy, 1965], K-Means [Hartigan, 1975], ISODATA [Takahashi et al., 1995], Nuées dynamiques [Diday, 1982], FCM [Bezdeck et al., 1984]. 20
Méthodes de classification
Méthodes de classification (suite)
Analyse d’histogrammes: considère que la distribution des spels de l’histogramme nD forme des modes de forte densité correspondant aux classes présentes.
Inconvenients : Une trop grande quantité de données des histogrammes nD à manipuler Un coup élevé en temps de calcul
Stratégies des méthodes d ’analyse d’histogrammes nD
méthodes paramétriques : elles expriment le problème de classification en termes probabilistes ou la classe est sensée suivre une distribution spécifique dans l’espace nD, classiquement une gaussienne. [Postaire, 1983] [Akaho, 1995]
méthodes non paramétriques : elles ne font référence à aucun modèle probabiliste et ces approches reposent sur la détection des modes. [Fukunaga et al, 1975], [Vasseur et Postaire, 10], [ Ouattara et Clément, 2008]
21
Méthodes de classification
Quelques travaux bibliographiques sur l’analyse d’histogramme
Recherche de modes ( pics) par :estimation de noyaux par approches paramétrique et non paramétrique (Mean-
shift) recherches de minimas (LPE ) seuillage basé sur la minimisation d’une fonctionnelle ([Otsu, 1979]).
Quelques travaux d’approches par seuillages
Auteur Annéestratégi
eType Fonctionnelle
Fisher 1958 1D multiénergie intra -
classe
Otsu 1979 1D binaire énergie inter-classe
Parker 1996 1D multi entropie
Rosin 2001 1D multi modes
Houladj et al. 2007 2D binaire entropieTravaux de segmentation par seuillage 22
Méthodes de classification
Quelques travaux bibliographiques sur l’analyse d’histogramme
Travaux d’approches par recherche de modes
Auteur Annéestratégi
e
Ohlander et al. 1978 1D-1D-1D
Tominaga 1990 1D-1D-1D
Lim and Lee 1990 1D-1D-1D
Schettini 1993 1D-1D-1D
Hemming et Rath 2001 1D
Lezoray 2003 1D-1D-1DTravaux de segmentation par recherche de modes ou pics
23
Méthodes de classification
Quelques travaux bibliographiques sur l’analyse d’histogramme
Travaux d’approches par recherche de modes ou pics (suite)
Auteur Année Stratégie Technique
Xuan et Fisher 2000 3Dquantification-
G.mixtures
Kurugolu et al. 2001 2D-2D-2D modes
Clément et Vigouroux 2002 2D modes
Lezoray et Charrier 2004 2D-2D-2D LPE
Mclahan et Peel 2000 nD Finite Mixtures Models
Comaniciu 2002 nD Mean shift
Ouattara et Clément 2008 nD modesTravaux de segmentation par recherche de modes ou pics
24
Etat de l’art
Stratégies de segmentation
Approches de segmentation
Méthodes de classification
Choix d’une métrique et d’un espace couleur
Conclusion partielle
25
Choix d’une métrique et d’un espace couleur
Choix d’une métrique
influence sur les résultats des méthodes de segmentation (ex : euclidienne, Mahalanobis, Tchebychev, etc.).
pas de métrique universelle
en segmentation couleur, difficulté à différencier des couleurs proches.
Nous utiliserons la métrique euclidienne.
Choix d’un espace couleur
dépend de la méthode envisagée, de la nature des images et du résultat recherché.
pas de meilleur espace couleur pour la segmentation pour tout type d’images [Liu et Yang ,1994] .
Il est conseillé de segmenter dans l’espace initial d’acquisition.26
Etat de l’art
Stratégies de segmentation
Approches de segmentation
Méthodes de classification nette et floue
Choix d’un métrique et d’un espace couleur
Conclusion partielle
27
Conclusion partielle
La classification ne répond pas à tous types de problèmes. On peut adjoindre une étape de traitement spatial: c’est la classification spatio-colorimétrique.
Les méthodes de clustering sont rapides mais leur inconvénient réside dans le fait que le résultat de segmentation dépend de l’initialisation.
Les méthodes paramétriques sont rapides mais présentent l’inconvénient d’un a priori sur la distribution statistique des classes.
Les méthodes semi-vectorielles et de réduction d’espace sont rapides mais présentent l’inconvénient de ne pas prendre en considération toute la corrélation entre les composantes de l’image.
Les méthodes proposées sont non paramétriques et vectorielles28
PLAN Contexte du travail Objectifs Problématique Généralités Etat de l’art de la segmentation d’images Etat de l’art de l’évaluation de la
segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion
29
Etat de l’art
Méthodes d’évaluation de segmentation
Analyse des Méthodes d’évaluation
30
Méthodes d’évaluation de segmentation
Généralités
Deux types de stratégies : [Chabrier, 2004] [Philipp-Pholiguet et Guigues, 2006].
Les méthodes supervisées : évaluation des segmentations par rapport à une segmentation de référence ou vérité terrain. Mesure de [Vinet, 1991].
Les méthodes non supervisées : classification des segmentations par ordre de pertinence grâce à des mesures de qualité sans connaissance a priori de l’image.
adaptées aux images naturelles. Mesures de [Levine et Nazif, 1985], [Liu et Yang, 1994], [Borsotti et al., 1998], [Zeboudj, 1988], [Rosenberger, 1999].
Remarque : Des méthodes de détermination du nombre de classes optimal peuvent être exploitées pour l’évaluation
31
Méthodes d’évaluation de segmentation
Méthodes supervisées
Mesure de Vinet [1991]
A : nombre total de pixel de l’image, Ck : couplage optimal entre régions de l’image segmentée et la segmentation de référence et K : nombre de régions de l’image segmentée
Méthodes non supervisées Critère d’uniformité intra-région de Levine et Nazif [1985]:
Mesure de Levine-Nazif = où σi est la variance de la région i et C une constante
de normalisation qui pourrait être la variance maximale de l’image
N.B : le complément à 1 de cette valeur est calculée pour évaluer la segmentation32
Méthodes d’évaluation de segmentation
Méthodes non supervisées (suite) Mesure de Borsotti [Borsotti et al.,1998]
N(Ai) : nombre de régions ayant une aire égale à AiA : nombre total de pixel de l’image, ei² : variance de la région i de l’image
segmentée et N: nombre de régions de l’image segmentée
Critère de Rosenberger (F(I)) [Chabrier et al., 2004]:
: Disparité intra-région ; : Disparité inter-région
33
Méthodes d’évaluation de segmentation
Méthodes non supervisées (suite)
Critère de Zeboudj [Cocquerez et Philipp, 1995]
Ai : nombre de pixel d’une
région Ri
A : nombre total de pixels de
l’image
C(Ri) : contraste d’une région Ri
CI(i) : contraste interne d’une région Ri
CE(i) : contraste externe d’une région Ri 34
Etat de l’art
Méthodes d’évaluation de segmentation
Analyse des Méthodes d’évaluation
35
Analyse des méthodes d’évaluation
Le critère de :
Levine et Nazif : favorise les segmentations à régions homogènes indépendamment de l’aire des régions
Borsotti : favorise aussi les segmentations à régions homogènes en privilégiant légèrement les régions à grands effectifs et pénalise les segmentations ayant des régions à effectifs égaux et la sur-segmentation
Rosenberger : favorise les segmentations à régions homogènes bien séparées, aussi des segmentations à régions proches à grand effectifs et tient compte de l’information spatiale.
Zeboudj : favorise des segmentations à régions homogènes et bien séparées et tient compte de l’information spatiale
N.B : Retenons le critère de Levine et de Nazif (simple et adapté à la classification) 36
Analyse des méthodes d’évaluation
Application aux méthodes d’évaluation
Choix de K-means pour étudier le comportement des méthodes d’évaluation
Test sur des images de Forsythia au nombre de 24 dont on a les vérités terrain
Principe de K-means L’algorithme k-means est en 4 étapes :
1. Choisir k objets formant ainsi k clusters
2. (Ré)affecter chaque objet O au cluster Ci de centre Mi tel que distance(O,Mi) est minimal
3. Recalculer Mi de chaque cluster (le barycentre) et l’énergie E
4. Aller à l’étape 2 si non stabilisation de E37
Méthodes d’évaluation de segmentation Application aux méthodes d’évaluation
IMG01 IMG05 IMG08 IMG24
Seg_01_Man Seg_05_Man Seg_08_Man Seg_24_Man
Seg_01_Kmeans Seg_05_Kmeans Seg_08_Kmeans Seg_24_Kmeans 38
Analyse des méthodes d’évaluation
Application aux méthodes d’évaluation (suite)
Evaluation non supervisée de segmentation manuelle et Kmeans du Forsythia
39
Méthodes d’évaluation de segmentation
Conclusion partielle
Les segmentations K-means et manuelle sont pertinentes variablement d’un critère à l’autre.
Le critère de Zeboudj et Rosenberger favorise la segmentation manuelle
Le critère de Levine et Borsotti favorise la segmentation par K-means
Conséquences
Le choix de la méthode d’évaluation dépend du but visé
Pas de méthode universelle de segmentation
Pas d’unicité du partitionnement d’une image,
40
Contexte du travail Objectifs Problématique Généralités Etat de l’art de la segmentation d’images Etat de l’art de l’évaluation de la
segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion
41
Méthodes de segmentation proposées
Histogrammes nD compact
ECC classique d’histogrammes nD compact
Méthode de classification nD
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Méthode de classification nD par requantification
Résistance des méthodes de segmentation nD au bruit
42
Méthodes de segmentation proposées
Histogrammes nD compact
ECC classique d’histogrammes nD compact
Méthode de classification nD
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Méthode de classification nD par requantification
Résistance des méthodes de segmentation nD au bruit
43
Histogrammes nD compact
un histogramme : graphique statistique permettant de représenter la distribution des spels ( niveaux de gris, couleur, …) c’est-à-dire l’occurrence de chaque spel.
D’un point de vue algorithmique l’histogramme est manipulé dans une structure de données sous forme de tableau.
Exemple de structure de codage d’histogramme
NG : Niveaux de GrisE : EffectifR : RougeV : VertB : Bleu
NG E
0 10
.. ..
200 37
.. ..
255 16
R V B E
0 0 0 0
.. .. .. ..
125
16 4523
.. .. .. ..
255
255
255
71Histogramme 1D Histogramme couleur (3D)
44
Histogrammes nD compact
Différentes structures d’histogrammes nD
Histogramme de Thomas [1991]
Obtenu à partir des 5 bits de poids forts de chaque composante de RGB (taille: 32X32X32).
Histogramme de Xiang [1997]
Une liste (R,G) code les valeurs de bleu prises par les pixels de l’image et le nombre de pixels RGB.
Histogramme de Balasubramania [1991]
Similaire à celui de Xiang mais les valeurs de B sont stockées dans un arbre
Histogramme nD compact [Clément et Vigouroux, 2001]
Similaire à celui de Thomas. Réduit de façon drastique l’espace mémoire occupé par l’histogramme sans perte en stockant uniquement les spels (ex: couleur) réellement présents dans l’image.
45
Histogrammes nD compact
Exemple d’un histogramme 3D compact
image synthétique couleur [synt_gdr ]( 256x256), résolution tonale 24 bits .
E
45092
1245
1950
3768
9050
4431
R V B
86 84 70
121
95 69
107
91 56
187
87 87
70 87 87
63108
99 Image synt_gdr et son histogramme 3D compact
46
Histogrammes nD compact
Avantage de Histogramme nD compactRéduit le volume de l’histogramme nD classique d’un facteur X
Pour une image multi-composantes de dimension MxNxP ( P étant le nombre de plans),
C : nombre de cellules réellement occupées ≤ MxN
E : nombre de bits nécessaire pour coder une cellule ≥ log2(MxN)
Q : résolution tonale de chaque plan
VolumeHistogramm
e nD
Synt_gr(256x256x3)
House(256x256x3) M4(838x762x9)
classique 128 Mo 128 Mo 3,6.1016 Mo
compact 0,029 Ko 0,129 Mo 1,22 Mo
47
Méthodes de segmentation proposées
Histogrammes nD compact
ECC classique d’histogrammes nD compact
Méthode de classification nD
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Méthode de classification nD par requantification
Résistance des méthodes de segmentation nD au bruit
48
ECC classique d’histogrammes nD compact
Bibliographie (deux concepts)
L’ECC réalisé sur des images binaires 2D puis sur des images nD binaires [ Haralick et al.,1992] [Sedgewick et Robert, 1998]
En théorie des graphes : recherche de composantes connexes (CC) réalisée mais pas sur le concept d’étiquetage. [Mény et al., 2005] [Cogis et Robert, 2003]
Dans cette section nous avons opté pour le concept d’ECC dans les images binaires
49
ECC classique d’histogrammes nD compact
Composante connexe: correspond mathématiquement à une classe d’équivalence
Un voisinage : relation qui lie des éléments d’un ensemble E, on considéra que notre relation de voisinage définit une relation d’équivalence.
Notion de voisinage (connexité) spatial dans les images binaires
La notion de voisinage a été généralisée par Rosenfeld [1979] dans un espace topologique nD discret.
Soit 2 voisinages en 2D définissant deux types de connexité.
4-voisins
2D
8-voisins ou full-connexité50
ECC classique d’histogrammes nD compact
Notion de voisinage spatial et de connexité spatiale dans les images binaires
Utilisation de la full-connexité car adaptée à la recherche d’objets dans les images binaires. Elle sera adaptée à l’histogrammes nD compact pour l’étiquetage.
En 3D, la full-connexité correspond à un 26 voisinage
En nD, la full-connexité correspond à 3n-1-voisins
51
ECC classique d’histogrammes nD compact
Exemple d’ECC d’une image 2D binaire (4 voisinage)
Les objets sont en blanc et le fond en noir
Image à une (1) Composante 4-connexe
NB : Le type de connexité influence le nombre de Composantes Connexes (CC) et leur forme géométrique
(a) Image binaire 2D
12 1
3 2 13 2 13 3 2 12 2 2 11 11 1 1 1 1
(b) régions connexes
étiquettes représentants population
1 1 24
2 1
3 1
(c) tableau d’équivalence final
52
ECC classique d’histogrammes nD compact
Adaptation de l’ECC à l’histogramme nD compact (Hc)
L’illustration est faite avec un histogramme 2D compact comme illustré ci-dessous
Un algorithme récursif permet de générer les voisins d’un spel ( (i,j)) puis de rechercher ses voisins dans l’Hc nD afin de déduire les étiquettes de ses voisins. L’histogramme compact nD est parcouru du haut vers le bas.
Plan I Plan J
0 0
… …
i-1 j-1
i-1 j
i-1 j+1
… …
i j-1
i j
… …
2Q-1 2Q-1
Axe J
Axe I
(i-1,j-1) (i-1,j) (i-1,j+1)
(i,j-1) (i,j)
53
ECC classique d’histogrammes nD compact
Complexité maximale de l’ algorithmique d’ECC (MaxHc)
n : nombre de spels de l’histogramme nD compactP : nombre de plans de l’imageQ : résolution tonale de chaque plan de l’image
MaxHc(n) = (k(n-k)) avec k = (2p.Q -1)/(1-2Q), Si n > k
MaxHc(n) = ( n2) avec k = (2p.Q -1)/(1-2Q), Si n ≤ k
54
ECC classique d’histogrammes nD compact
ECC de quelques images naturelles
Des images couleur et multi-spectrales de la base de données images du Gdr-isis et de l’université du sud de Californie
M4_9DRésolution=838x762x9
HouseRésolution=256x256
PeppersRésolution=512x512
MandrillRésolution=512x512
55
ECC classique d’histogrammes nD compact
ECC de quelques images naturelles
Nombre de composantes des Histogrammes nD compact des images précédentes
Nom imageNombre de spels histogramme nD
Nombre de composantes connexes(CC)
M4_9D 116425 94443
M4_6D 108815 11879
M4_3D 17850 5235
House 33925 6812
Peppers 53488 12443
Mandrill 61662 21859
56
ECC classique d’histogrammes nD compact
Etude morphologique des histogrammes nD compact
Influence du nombre de plans n sur la distribution de l’histogramme nD compact
Variation du nombre de spels de l’histogramme nD compact en fonction du nombre de plans
57
ECC classique d’histogrammes nD compact
Etude morphologique des histogrammes nD compact
Influence du nombre de plans n sur la distribution de l’histogramme nD compact
Variation du nombre de spels de l’histogramme nD de l’image ORGE en fonction de n (1 à 10)58
ECC classique d’histogrammes nD compact
Etude morphologique des histogrammes nD compact
Influence du nombre de plans n sur la distribution de l’histogramme nD compact
Variation du nombre de spels des histogrammes nD de l’image M4 en fonction de n (1 à 9)
59
ECC classique d’histogrammes nD compact
Etude morphologique des histogrammes nD compact
Influence du nombre de plans n sur la distribution l’histogramme nD compact
Variation du NED de l’histogramme nD compact en fonction du nombre de plans
60
ECC classique d’histogrammes nD compact
Etude morphologique des histogrammes nD compact
Influence du nombre de plans n sur le nombre de CC de l’histogramme nD compact
Variation du nombre de composantes connexes (CC) quand n varie d’images multispectrales
61
ECC classique d’histogrammes nD compact
Etude morphologique des histogrammes nD compact
Influence du nombre de plans n sur le nombre de CC de l’histogramme nD compact
Variation de l’effectif des composantes connexes quand n varie de M462
ECC classique d’histogrammes nD compact
Etude morphologique des histogrammes nD compact
Bilan sur la morphologie des histogrammes nD compact
Quand n croît :
• le nombre des spels augmente et l’occurrence des spels diminue pour tendre vers 1.• l’histogramme nD s’aplatit géométriquement
L’histogramme nD compact à effectifs compact (1 à NED) fournit géométriquement les mêmes modes que l’histogramme nD compact
Quand n croît
• le nombre de composantes connnexes (CC) de Hc augmente considérablement• les effectifs des composantes connexes diminuent en général
l’intégration d’un voisinage flou ou d’une similarité floue entre spels dans le processus d’ECC (connectivité floue) améliore la qualité de sélection des meilleurs pics et limite la sur-segmentation.
63
Méthodes de segmentation proposées
Histogrammes nD compact
ECC classique d’histogrammes nD compact
Méthode de classification nD
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Méthode de classification nD par requantification
Résistance des méthodes de segmentation nD au bruit
64
Méthode de classification nD
Principe de la classification nD (ImSegHier_nD)
Ce modèle repose sur: l’histogramme compact nD à effectifs compacts (1 à NED).
le choix d’un seuil d’effectif S qui impose le nombre de classes .
l’extraction des pics est basée sur l’algorithme d’ECC
Entourés d’un cercle : les feuilles ou pics retenus
En rouge : les nœuds construits
En noir : branches explorées et pics non retenus à cause de l’effectif <S
Exemple de classification hiérarchique nD pour un seuil S fixé, n=1 65
Méthode de classification nD Comparaison des résultats de ImSegHier_nD avec K-means
Quelques résultats de segmentation
Synt_Gdr
Seg1_ImSegHier_3D
Je veux 6 classes ?
Seg2_Kmeans_3D
- Même résultat
RR GG BB
6363 108108 9999
7070 123123 7777
8686 8484 7070
107107 9191 5656
121121 9595 6969
187187 8787 8787
Effectif(%)Effectif(%)
06,7606,76
13,8113,81
68,8068,80
02,9802,98
1,901,90
5,755,75
66
Méthode de classification nD
Quelques résultats de segmentation (suite)
Synt_RayonDispersion
Seg1_ImSegHier_3D
Je veux 6 classes ?
Seg2_Kmeans_3D
- Résultats différents
RR GG BB
6363 108108 9999
7070 123123 7777
8686 8484 7070
8787 8484 7070
8888 8484 7070
8989 8484 7070
9090 8484 7070
9191 8484 7070
107107 9191 5656
121121 9595 6969
187187 8787 8787
Effectif(%)Effectif(%)
06,7606,76
13,8113,81
32,0432,04
01,0701,07
0,760,76
1,221,22
0,460,46
33,2533,25
2,982,98
1,901,90
5,755,75
67
Méthode de classification nD
Quelques résultats de segmentation (suite)
Synt1ou 3_sie
RR GG BB
2020 2020 2020
2222 2020 2020
240240 240240 2020
Effectif(%)Effectif(%)
2525
2525
5050
- ImSegHier_3D ne peut pas fournir 2 classes
- k-means fournie les 2 classes visuellement évidentes
Je veux 2 classes ?
Seg1_ImSegHier_3D
Impossible
Seg2_Kmeans_3D68
Méthode de classification nD
Quelques résultats de segmentation (suite)
Synt2009_sie
RR GG BB
201201 102102 00
204204 102102 00
5151 00 204204
Effectif(%)Effectif(%)
32,348632,3486
45,776445,7764
21,875021,8750
Je veux 2 classes ?
Seg1_ImSegHier_3D Seg2_Kmeans_3D
- Résultats différents
69
Quelques résultats de segmentation (suite)
M4(9D)
Seg1_ImSegHier_9D (8 classes)
IRM(4D) HOUSE MANDRILL
Seg1_ImSegHier_4D (8 classes)
Seg1_ImSegHier_3D (5 classes)
Seg1_ImSegHier_3D (8 classes)
Seg2_Kmeans_9D (8 classes)
Seg2_Kmeans_4D (8 classes)
Seg2_Kmeans_3D (5 classes)
Seg2_Kmeans_3D (8 classes) 70
Méthode de classification nD Quelques résultats de segmentation (suite)
IMG01 IMG05 IMG08 IMG24
Seg_01_Man Seg_05_Man Seg_08_Man Seg_24_Man
Seg1_01_ImgSegHier Seg1_05_ImSegHier Seg1_08_ImSegHier Seg1_24_ImSegHier 71
Evaluation des résultats de segmentation de ImSegHier_nD
Nom imageCritère de Levine et Nazif
(complément)
ImSegHier_nD K-means
Synt_Gdr 1 1Synt_RayonDispersi
on 0,9995 0,9972
Synt1ou3 impossible 1
Synt2009 0,8161 1
House 0,9698 0,9553
Mandrill 0,8971 0,9192
IRM 0,9277 0,8927
M4 0,8608 0,8669 Evaluation non supervisée de la méthode ImSeghier_nD
72
Evaluation des résultats de segmentation de ImSegHier_nD
Bilan de l’évaluation
ImSeghier_nD donne de meilleurs résultats pour les 24 images de Forsythia
ImsegHier_nD moins satisfaisant en évaluation non supervisée
Nous proposons : (1) intégration de voisinage flou , (2) la requantification
Nom imageCritère de Vinet
ImSegHier_nD K-means
Forsythia ( IMG01) 05,78% 08,43%
Forsythia ( IMG05) 05,46% 09,84%
Forsythia ( IMG08) 05,46% 10,43%
Forsythia ( IMG24) 04,19% 09,44%
Evaluation supervisée de la méthode ImSeghier_nD
73
Méthodes de segmentation proposéesJustification des approches
Histogrammes nD compact
ECC classique d’histogrammes nD compact
Méthode de classification nD
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Méthode de classification nD par requantification
Résistance des méthodes de segmentation nD au bruit 74
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Optimisation de la méthode de segmentation ImsegHier_nD
Problèmes de Imseghier_nD :
sur-segmentation ( justifié par le nombre de CC)
mauvaise qualité de la segmentation ( évaluation segmentation non supervisée)
Analyse :
Similarité floue et requantification pour limiter la sur-segmentation
seuil S : pas toujours pertinent pour la sélection des meilleurs pics
Permettre à ImSegHier_nD d’intégrer les performances de K-means
75
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Analyse de la sélection de pics pertinents dans les histogrammes nD
But : choisir les pics pertinents afin d’éviter la sur-segmentation.
1er Cas : cas de référence
Pic1
Pic2
d12
Exemple de référence à pics bien séparés
d12 ≥ do, où do est la distance minimale nécessaire pour discriminer les 2 classes
Ei : Effectif du pic i
76
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Analyse de la sélection de pics pertinents dans les histogrammes nD
But : choisir les pics pertinents afin d’éviter la sur-segmentation.
2ème Cas :
Exemple d’histogramme à 3 pics avec E1 ≥ E2 > E3
Si S est choisi pour avoir deux pics, on sélectionnera que les pics 1 et 2, ce qui est faux car on devait choisir Pic12 et Pic 3.
Pic1 Pic2Pic3
Pic12
77
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Analyse de la sélection de pics pertinents dans les histogrammes nD
Le but de cette partie est de choisir les pics pertinents afin d’éviter la sur-segmentation.
3ème Cas :
Exemple d’histogramme à 3 pics d’effectifs égaux E1 = E2 = E3
Ce cas admet deux solutions a savoir 1 seule classe ou 3 classes.
Impossible d’avoir les 2 classes
Pic1
Pic2
Pic3
78
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Analyse de la sélection de pics pertinents dans les histogrammes nD
Solutions proposées pour résoudre les cas 2 et 3 :
Générer plus de clases et les fusionner en maximisant l’énergie inter-classe ( non abordé dans cette présentation)
Intégration d’un rayon de dispersion pour l’extraction des pics ( non abordé ici)
Intégration d’un modèle de voisinage flou dans le processus de classification , c à d en remplaçant l’ECC classique par l’ECCF (étiquetage en composantes connexes floues)
Requantification de l’image à différentes résolutions tonales inferieures q ( q <Q) puis appliquer ImSegHier_nD, avec Q la résolution tonale de chaque plan de l’image
.
79
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
La logique floue s’appuie sur la théorie mathématique des ensemble flous introduite par Zadeh en 1965 et constitue une extension de la théorie des ensembles classiques pour la prise en compte d’ensembles définis de façon imprécise.
Un sous-ensemble flou A ( ensemble floue A) d’un référentiel B est caractérisé par
une fonction d’appartenance notée à valeurs dans [0, 1]
Une relation floue (similarité floue)
80
A
:
: 0,1
( , ) ( , )
X
R
est un ensemble flou
relation floue est binaire si U V
Une relation floue sur deux univers U et V
La
R U V
u v u v
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Connexité floue
Différents travaux : [Udapa, 1996]; [Carvalho et al., 1999], etc.
voisinage flou k (similarité flou) :
N.B : un graphe de similarité entre spels peut être généré à partir de la relation floue K
Chemin entre deux spels c et d :
succession de spels k-connexe liant c et d, notions utilisées en théorie des graphes.
niyixiMaxYXd :1,),(
81
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Connexité floue
Coût d’un chemin P :
avec m≥2 sachant que et
Soit sous ensemble flou décrivant le coût d’un chemin k -connexe relatif au
chemin P est :
(1) (2) ( ), ,...,
mP C C C
(1) cC ( )m dC
(1) (2) ( 1)(2) (3) ( )( ) min , ), , ),..., , )( ( (
m mp k k kc c cc c c
82
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Connectivité floue
Relation floue ѱ sur k
sous ensemble flou ѱ caractérisé par la fonction d’appartenance calcule le coût global des chemins entre c et d,
Pcd : ensemble de tous les chemins reliant c et d Cette relation définit une relation d’équivalence (ѱ –connexe) N.B : En fixant une valeur de coût ϴ on peut extraire les composantes connexes floues ѱ –connexe correspondant à des ϴ-coupes .
( , ) ( )maxcd
p
c d pP
83
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Algorithme de connexité de floue (ECCF)
Principe similaire à l’ECC
Seul la recherche des voisins flous d’un spel de l’histogramme nD compact pour un coût ϴ donné est remplacé par la recherche de voisins classiques (on ne cherchera pas à déterminer tous les chemins pour étiqueter un spel).
N.B : un graphe de similarité peut être généré pour la recherche des composantes connexes floues
0,26 0,3 0,33 0,3 0,26
0,3 0,41 0,5 0,41 0,3
0,33 0,5 X(1)
Exemple de CCF ( ѱ –connexe) en 2D pour un coût minimum ϴ =0,2684
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Complexité au pire de l’ECCF ( Cp)
( 1)
: '
: ' ;
: ' ;
(1 )
( 1)
2
( 1)( 1). min( 1,| 1 ( 1). |)
2
2P Q
inv
in
m
Soient N Nombre de spels de l histogramme compact
P Nombre de spels de l image
Q Résolution tonale de chaque plan de l image
soient k et
k kSi N k Cp
Sinon
k kCp N k m m k
2
( 1)3,
2
N
k
N NCp P en pratique
85
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Application de l’ECCF
Nombre de composantes connexes floues pour différents coût ϴ
Variation du nombre de CCF en fonction de d(ϴ) 86
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Application de l’ECCF
Statistiques des composantes connexes floues pour différents coûts ϴ
Répartition en effectif des CCF pour différentes valeurs de ϴ 87
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Classification nD par voisinage flou (ImsegHier_Floue_nD)
Généralisation de ImSegHier_nD en remplaçant l’ECC par l’ECCF
quand ϴ = 0,5 , ImSegHier_Floue_nD correspond à ImSegHier_nD
Différentes segmentations d’un même nombre de classes sont réalisées pour différentes valeurs de ϴ,
choix de la segmentation la plus pertinente ce qui revient à déterminer le ϴ optimal..
88
Résultats de segmentation de ImSegHier_Floue_nD
Synt_RayonDispersion
Seg1( ϴ=0,5 ) (6 classes)
Synt1ou3 Synt2009Synt_gdr
Seg1( ϴ=0,5 ) (6 classes)
Seg1( ϴ=0,5 ) (2 classes)
Seg1( ϴ=0,5 ) (2 classes)
Seg2( ϴ= 0,20) (6 classes)
Seg2( ϴ=0,167 ) (6 classes)
Seg2( ϴ= 0,33) (2 classes)
Seg2( ϴ=0,25 ) (2 classes)
Impossible
89
Résultats de segmentation de ImSegHier_Floue_nD
M4(9D)
Seg1( ϴ=0,5 ) (8 classes)
IRM(4D) HOUSE MANDRILL
Seg1( ϴ=0,5 ) (8 classes)
Seg1( ϴ=0,5 ) (5 classes)
Seg1( ϴ=0,5 ) (8 classes)
Seg2( ϴ=0,25 ) (8 classes)
Seg2( ϴ=0,167 ) (8 classes)
Seg2( ϴ= 0,25) (5 classes)
Seg2( ϴ =0,167) (8 classes) 90
Méthodes de segmentation proposées
Histogrammes nD compact
ECC classique d’histogrammes nD compact
Méthode de classification nD
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Méthode de classification nD par requantification
Résistance des méthodes de segmentation nD au bruit
91
Méthode de segmentation nD par requantification
Principe de la méthode (ImSegHier_Requant_nD)
Principe est identique à ImSegHier_nD, mais l’image est requantifiée
Requantification limitée jusqu’à 5 bits (qualité visuelle de l’image presque préservée).
Principe de la requantification
Deux méthodes :
Par troncature : on supprime les (Q-q) bits de poids faibles
Par arrondi : la valeur de résolution q la plus proche de Q
Q : la résolution tonale de chaque plan de l’image (en général Q=8)q : la nouvelle résolution tonale de l’image requantifiée ( q ϵ {5,6,7} )
Nous avons opté pour l’approche par troncature
92
Résultats de segmentation de ImSegHier_Requant_nD
Synt_RayonDispersion
Seg1( q =7 bits ) (6 classes)
Synt1ou3 Synt2009Synt_gdr
Seg1( q=7 bits ) (6 classes)
Seg1( q=7 bits ) (2 classes)
Seg1( q=7 bits) (2 classes)
Seg2( q= 5 bits) (6 classes)
Seg2( q=5 bits ) (6 classes)
Seg2( q= 5 bits) (2 classes)
Seg2( q=5 bits ) (2 classes) 93
Résultats de segmentation de ImSegHier_Requant_nD
M4(9D)
Seg1( q= 7 bits ) (8 classes)
IRM(4D) HOUSE MANDRILL
Seg1( q= 6 bits ) (8 classes)
Seg1( q= 7 bits ) (5 classes)
Seg1( q= 7 bits ) (8 classes)
Seg2( q= 6 bits ) (8 classes)
Seg2( q= 5 bits ) (8 classes)
Seg2( q= 5 bits) (5 classes)
Seg2( q = 5 bits) (8 classes) 94
Méthodes de segmentation proposées
Histogrammes nD compact
ECC classique d’histogrammes nD compact
Méthode de classification nD
Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue
Méthode de classification nD par requantification
Résistance des méthodes de segmentation nD au bruit
95
Résistance des méthodes de segmentation nD au bruit
Resistance de la méthode au bruit (exemples de segmentation)
Synt_gdr Synt_gdr bruitée gaussien de variance σ = 0.02
Seg_Reference ( 6classes)
ϴ = 0,167Vinet =0,52%
ϴ = 0,2Vinet = 0,52%
ϴ = 0,33Vinet = 33,72%
ϴ = 0,5Vinet =35,99%
96
Résistance des méthodes de segmentation nD au bruit
Evaluation de la résistance de la méthode ImSegHier_Floue_nD au bruit (bruit gaussien non corrélé)σ Nombre de classes ,
2 3 4 5 6
0,005 0 0 0 0 0
0,01 0 0 0 0 0
0,015 0 0,0015 0,0015 0,024 0,053
0,02 0,0015 12,51 0,069 0,37 35,99
0,025 0,063 12,58 0,39 26,34 45,89
0,03 26,36 12,80 1,19 25,17 42,21
0,04 26,43 38,1 50,44 70,97 71,02
0,05 27,83 39,81 41,54 59,96 65,08
0.5
Résistance au bruit gaussien de la méthode par voisinage flou, les valeurs de Vinet calculés sont en % et expriment le % de pixels mal
classés.
Segmentation acceptable pour mesure Vinet ≤5%
97
Résistance des méthodes de classification nD au bruit
Comparaison de la résistance au bruit des deux méthodes de segmentation
Résistance des deux méthodes de au bruit gaussien, les valeurs de Vinet calculés sont en % et expriment le % de pixels mal classés.
Segmentation acceptable pour mesure vinet ≤5%
Synt gdr avec bruit gaussien additif de σ = 0,02
Mesure de Vinetθ q
0.5 0,33 0,20 0,17 5 6 7
2 classes 1,53.10-5 4,58.10-5 4,58.10-5 4,58.10-5 5.10-4 7,63.10-5 3,05.10-5
3 classes 0,1251 0,1252 0,1251 0,1251 0,1256 0,1252 0,1251
4 classes 0,00069 0,00072 0,00072 0,00072 0,0041 0,0011 0,00085
5 classes 0,0037 0,0036 0,0039 0,0039 0,0238 0,0059 0,0044
6 classes 0,3599 0,3372 0,0052 0,0052 NA 0,0158 0,0169
98
PLAN Contexte du travail Objectifs Problématique Généralités Etat de l’art Méthodes de segmentation proposées Evaluation de la segmentation Conclusion
99
Evaluation de la segmentation
Evaluation des méthodes de segmentation proposées
Discussion des résultats d’évaluation
Conclusion partielle
100
Evaluation des deux méthodes de segmentation proposées
Evaluation non supervisée des méthodes de segmentation nD
Nom imageCritère de Levine et Nazif (complément à 1)
ImSegHier_Floue_nD ImSegHier_Requant_nDK-
meansϴ=0,5 ϴ=0,33 ϴ=0,25 ϴ=0,20 ϴ=0,167 q =5 q = 6 q = 7
Synt_gdr 1 1 1 1 1 1 1 1 1
Synt_RayonDispersion
0,9995
0,9995
0,9995
0,9995
0,9999 0,9999 0,99990,999
90,997
2
Synt1ou3 NA 1 1 1 1 1 1 1 1
Synt20090,816
10,816
11 1 1 1 1
0,8161
1
House0,969
80,962
50,968
50,967
60,9680 0,9671 0,9693
0,9701
0,9553
Mandrill0,897
10,899
80,905
40,890
60,9141 0,8913 0,9004
0,9112
0,9192
IRM0,927
70,896
30,821
30,812
50,8297 0,8468 0,8930
0,8766
0,8927
M40,860
80,868
10,844
30,734
30,7891 0,7870 0,8007
0,8636
0,8669
101
Evaluation des deux méthodes de segmentation proposées
Evaluation supervisée des méthodes de segmentation nD
Nom imageCritère de Vinet
ImSegHier_Floue_nD(ϴ = 0,5)
ImSegHier_Requant_nD
(q = 5 bits)K-means
Forsythia ( IMG01) 05,78% 04,43% 08,43%
Forsythia ( IMG05) 05,46% 05,38% 09,84%
Forsythia ( IMG08) 05,46% 05,10% 10,43%
Forsythia ( IMG12) 03,65% 04,15% 06,93%
Forsythia ( IMG24) 04,19% 3,86% 09,44%
102
Evaluation de la segmentation
Evaluation des méthodes de segmentation proposées
Discussion des résultats d’évaluation
Conclusion partielle
103
Discussion des résultats d’évaluation
ImsegHier_Floue_nD est meilleur dans l’ensemble que ImSegHier_Requant_nD et K-means
ImSegHier_Requant_nD est moins performant en évaluation non supervisée à cause de la perte d’information due à la requantification mais s’est souvent révélée meilleure en évaluation supervisée
Sur les images de synthèse ImSegHier_Floue_nD et ImsegHier_Requant_nD se sont révélées meilleures que K-means
Sur certaines images réelles K-means s’est révélée souvent meilleure, ce qui confirme que :o Les images synthétiques ne représentent pas toutes les réalités [ Phillip-Foliguet et al., 2002]
o Il n’ y a pas de méthodes universelle pour tout type d’image [Lezoray et Chabrier, 2004]
ImsegHier_Requant_nD est sensible au bruit
104
Evaluation de la segmentation
Evaluation des méthodes de segmentation proposées
Discussion des résultats
Conclusion partielle
105
Conclusion partielle
Les performances d’une méthode de segmentation sont liées au critère d’évaluation choisi .
Nombre de classes
HouseParamètres
segmentationIntra Levine
et NazifBorsotti Zeboudj Rosenberger
5 Θ = 0,50 0,9698 0,1211 0,8424 0,4860 5 Θ = 0,33 0,9625 0,1372 0,7935 0,48645 Θ = 0,25 0,9685 0,1148 0,8114 0,48595 Θ = 0,20 0,9676 0,1225 0,8373 0,48595 Θ = 0,17 0,9680 0,1228 0,8375 0,48595 q = 5 0,9671 0,1450 0,8361 0,48685 q = 6 0,9693 0,1395 0,8384 0,48645 q = 7 0,9701 0,1211 0,8416 0,48598 Θ = 0,50 0,9693 0,0811 0,5331 0,49178 Θ = 0,33 0,9641 0,0864 0,8169 0,49148 Θ = 0,25 0,9398 0,0916 0,8300 0,49138 Θ = 0,20 0,9650 0,0902 0,8612 0,49188 Θ = 0,17 0,9686 0,0833 0,5189 0,49188 q = 5 0,9632 0,0986 0,5297 0,49568 q = 6 0,9575 0,1152 0,5461 0,49438 q = 7 0,9693 0,0807 0,5270 0,4917
106
Conclusion partielle (suite)
Nombre de classes
MandrillParamètres
segmentationIntra Levine
et NazifBorsotti Zeboudj Rosenberger
5 Θ = 0,50 0,9144 0,4043 0,3907 0,49675 Θ = 0,33 0,9115 0,4420 0,5053 0,49465 Θ = 0,25 0,9183 0,3476 0,3439 0,49555 Θ = 0,20 0,9059 0,4122 0,4440 0,49255 Θ = 0,17 0,9220 0,3565 0,4384 0,49215 q = 5 0,8942 0,5270 0,6145 0,49325 q = 6 0,9008 0,5004 0,5675 0,49325 q = 7 0,9132 0,4708 0,4286 0,49678 Θ = 0,50 0,8971 0,4229 0,5126 0,49748 Θ = 0,33 0,8998 0,4075 0,3679 0,49768 Θ = 0,25 0,9054 0,3636 0,4345 0,49718 Θ = 0,20 0,8906 0,4621 0,5168 0,49828 Θ = 0,17 0,9141 0,3102 0,4313 0,49738 q = 5 0,8913 0,4407 0,5934 0,49498 q = 6 0,9004 0,3473 0,5808 0,49578 q = 7 0,9112 0,3253 0,4109 0,4961
107
Conclusion partielle (suite)
Nombre de classes
IRMParamètres
segmentationIntra Levine
et NazifBorsotti Zeboudj Rosenberger
5 Θ = 0,50 0,9356 0,2216 0 0,50905 Θ = 0,33 0,9398 0,2202 0 0,50895 Θ = 0,25 0,8722 0,3167 0 0,51035 Θ = 0,20 0,8240 0,3318 0 0,51075 Θ = 0,17 0,8094 0,3444 0 0,51225 q = 5 0,8768 0,2132 0 0,50985 q = 6 0,9335 0,1793 0 0,50845 q = 7 0,9248 0,2153 0 0,50928 Θ = 0,50 0,9277 0,2786 0 0,50548 Θ = 0,33 0,8963 0,2339 0 0,50518 Θ = 0,25 0,8213 0,3528 0 0,50608 Θ = 0,20 0,8125 0,3853 0 0,50658 Θ = 0,17 0,8297 0,2801 0 0,50648 q = 5 0,8468 0,2373 0 0,50568 q = 6 0,8930 0,1830 0 0,50468 q = 7 0,8766 0,1908 0 0,5044
108
Conclusion partielle (suite)
Nombre de classes
M4Paramètres
segmentationIntra Levine
et NazifBorsotti Zeboudj Rosenberger
8 Θ = 0,50 0,8608 0,6050 0,6071 0,49348 Θ = 0,33 0,8681 0,5063 0,6419 0,49038 Θ = 0,25 0,8443 0,6674 0,7350 0,48208 Θ = 0,20 0,7343 0,6126 0,7184 0,48488 Θ = 0,17 0,7891 0,6026 0,5727 0,49088 q = 5 0,7870 0,4796 0,5942 0,48798 q = 6 0,8007 0,6405 0,6263 0,49078 q = 7 0,8636 0,5121 0,6357 0,4860
10 Θ = 0,50 0,8611 0,6755 0,6071 0,494710 Θ = 0,33 0,8412 0,4799 0,6479 0,491310 Θ = 0,25 0,8355 0,7423 0,7339 0,486410 Θ = 0,20 0,7144 0,5954 0,5815 0,489410 Θ = 0,17 0,7812 0,5705 0,6363 0,492010 q = 5 0,7715 0,4456 0,6026 0,490110 q = 6 0,7942 0,7150 0,6262 0,492610 q = 7 0,8649 0,5436 0,6438 0,4890
109
PLAN Contexte du travail Objectifs Problématique Généralités Etat de l’art Méthodes de segmentation proposées Evaluation de la segmentation Conclusion
110
Nous avons mis en œuvre des approches de classification nD originales du fait de leur caractère vectoriel et de leur compacité mémoire .
Nous avons proposés des solutions intéressantes pour résoudre le problème de sur-segmentation quand le nombre de plans des images est supérieur ou égal à 3.
Les méthodes de segmentations réalisées donnent des résultats encourageants au regard d’autres approches de classification.
Nous avons comparé les résultats de nos algorithmes de segmentation avec différentes méthodes d’évaluation.
Nous avons montré qu’il n’y a pas de méthodes d’évaluation universelle et qu’en fonction des images, les critères d’évaluation privilégient tour à tour certaines méthodes de segmentation.
ImsegHier_Floue_nD et ImsegHier_nD sont paramétrables afin de faire varier le nombre de classes.
Nos algorithmes de classification et d’ECC peuvent être exploités pour réaliser des classifications spatio-colorimétrique
111
JE VOUS REMERCIE POUR VOTRE ATTENTION
112