introduction aux métaheuristiques (3h)
DESCRIPTION
3 heures de cours d\'introduction aux métaheuristiques. Le cours couvre de la conception à l\'utilisation de ces algorithmes d\'optimisation globale (généralement stochastiques). Présenté à l\'École Nationale des Ponts et Chaussées en avril 2008.TRANSCRIPT
Mét
aheu
ristiq
u es
2008
05
MétaheuristiquesAlgorithmes itératifs (et stochastiques) d'optimisation globale
2
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Auteurs
Johann Dréo THALES Research &
Technology Laboratoire mathématiques &
techniques de la décision
Yann Collette Renault
3
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Optimisation
4
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Optimisation difficile
5
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Optimisation difficile
6
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Métaheuristique
7
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Plan
Problèmes Exemples Caractéristiques
Applications Validation Exemples
Métaheuristiques Exemples Synthèse
8
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Plan
Problèmes Exemples
Recherche opérationnelle Ingénierie Intelligence artificielle
Caractéristiques
Applications Validation Exemples
Métaheuristiques Exemples Synthèse
9
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recherche opérationnelle
Voyageur de commerce Minimiser la longueur du trajet
10
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recherche opérationnelle
Sac à dos Maximiser l'intérêt de la
sélection d'objets
Dak
e, C
CBY
SA
2.5
, http
://fr.
wik
iped
ia.o
rg/w
iki/I
mag
e:K
naps
ack.
svg
11
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recherche opérationnelle
Planification temporelle Déterminer un emploi du temps
12
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Ingénierie
Aérodynamique Maximiser la portance
13
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Ingénierie
Déplacement de bras robot Minimiser l'énergie dépensée
Adaptive Optimal Control for Redundantly Actuated Arms, Djordje Mitrovic, Stefan Klanke, and Sethu Vijayakumar, 2008
14
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Intelligence artificielle
IA jeu vidéo Maximiser le gain
15
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Caractéristiques des problèmes
Optimisation continue Variables réelles
Optimisation combinatoire Variables discrètes
Voisinage Implicite
Fonctions
Explicite Permutation
http://commons.wikimedia.org/wiki/Image:Redblack_tree_insert_case_5.png
16
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Difficultés avec les problèmes
Trouver le problème
Modélisation Expression mathématique Contraintes Qualification des solutions Objectifs contradictoires
17
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Difficultés avec les problèmes
Résolution Taille de l'espace des solutions
NP... Nombres de variables
Complexité Irrégularités Différentiabilité Continuité
Temps de calcul Fonction objectif par simulation
Conception/Production
18
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
NP
NP Algorithme Non déterministe Résolution Polynomiale Oracle Estimation valeur polynomiale
http://comm
ons.wikim
edia.org/wiki/Im
age:P_np_npcomplete_nphard.svg
19
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Caractéristiques nécessaires des problèmes
Problème structuré Voisinage Structure générale cohérente
Problème impossible : Fonction aléatoire
20
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Plan
Problèmes Exemples Caractéristiques
Applications Validation Exemples
Métaheuristiques Exemples
Recherche tabou Algorithmes évolutionnistes Recuit simulé Colonies de fourmis Estimation de distribution
Synthèse
21
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Métaheuristiques : un peu d'histoire
1954 : Barricelli, simulation évolution, optimisation
1965 : Rechenberg, stratégies d'évolution 1986 : terme métaheuristique, Fred Glover :
« La recherche avec tabou peut être vue comme une "métaheuristique", superposée à une autre heuristique. L'approche vise à éviter les optimums locaux par une stratégie d'interdiction (ou, plus généralement, de pénalisation) de certains mouvements. »
1988 : conférence, algorithmes génétiques 1989 : premier logiciel A.G. Commercial 1996 : algorithmes à estimation de distribution
22
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Terminologie
Fonction objectif Minimisation Monoobjectif
Solution Représentation Valeur
Échantillon Ensemble de solution
Voisinage
Stochastique Probabiliste + temps
Itératif Critère d'arrêt
23
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Plan
Problèmes Exemples Caractéristiques
Applications Validation Exemples
Métaheuristiques Exemples
Recherche tabou Algorithmes évolutionnistes Recuit simulé Colonies de fourmis Estimation de distribution
Synthèse
24
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recherche tabou
25
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recherche tabou
Recherche « tabou » ou « avec tabous »
Liste « tabou » de mouvements interdits Minimums locaux
Voisinage Initialisation Modification de solution existante
26
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recherche tabou
Stopinitialisation
Modificationvoisinage
Sélection dumeilleur voisin
Heuristiquespécialisée
MàJ mémoire
MàJ meilleuresolution
Itérer ?Oui
Non
27
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recherche tabou
Liste tabou
Voisinage
28
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recherche tabou
Liste tabou
Voisinage
!
29
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Plan
Problèmes Exemples Caractéristiques
Applications Validation Exemples
Métaheuristiques Exemples
Recherche tabou Algorithmes évolutionnistes Recuit simulé Colonies de fourmis Estimation de distribution
Synthèse
30
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithmes évolutionnistes
http://en.wikipedia.org/wiki/Image:Ape_skeletons.png
31
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithmes évolutionnistes
1965 : stratégies d’évolution1966 : programmation évolutionnaire1975 : algorithmes génétiques1980 : programmation génétique1986 : systèmes immunitaire artificiels
32
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithmes évolutionnistes
Métaheuristiques les plus connusDifférences historiques entre algorithmesConcepts équivalents Algorithmes génétiques Algorithmes évolutionnaires Algorithmes évolutionnistes
Algorithmes stochastiquesEnchaînement d'opérateurs
33
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Terminologie
Solution = individuÉchantillon = populationValeur = fitnessReprésentation = codage
http://ww
w.flickr.com
/photos/wishym
om/566394520/
34
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Opérateurs
« Opérateurs »
Sélection
Croisement
Mutation
Évaluation
Remplacement
0101100000
01000
00110
11011
11111 10101
10010 00001
One Max ∑i=0
4
x i
35
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Opérateurs
« Opérateurs »
Sélection
Croisement
Mutation
Évaluation
Remplacement
0101100000
01000
00110
11011
11111 10101
10010 00001
36
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Opérateurs
« Opérateurs »
Sélection
Croisement
Mutation
Évaluation
Remplacement
00001
1010110100
37
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Opérateurs
« Opérateurs »
Sélection
Croisement
Mutation
Évaluation
Remplacement
1010110100
38
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Opérateurs
« Opérateurs »
Sélection
Croisement
Mutation
Évaluation
Remplacement
1010110101
39
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Opérateurs
« Opérateurs »
Sélection
Croisement
Mutation
Évaluation
Remplacement
0101100000
01000
00110
11011
11111 10101
10010 00001
11001
11101
11100
40
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithmes évolutionnistes
41
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemples d'opérateurs
Sélection par « roulette proportionnelle » surface proportionnelle à sa valeur
Problème Biais selon échelle de la fonction objectif
x1x2x3x4
45%
20%20%
15%
42
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple d'opérateurs
Sélection par « tournoi stochastique » k individus Le meilleur est sélectionné n fois
01011 00000
0100000110
11011
11111 10101
10010
00001
00110 11011<
11011
0100010010 >
10010
43
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple d'opérateur
Mutation gaussienne Pour tout x :
xi + N im,s
44
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple d'opérateur
Simulated Binary Crossover
ui ∈ U0,1
bi = (2.ui)(1/(1+η)) si ui≤0.5 = (1/(1ui))(1/(1+η)) sinon
2.xi1(t+1) = (1bi).xi
1(t) + (1+bi).xi2(t)
2.xi2(t+1) = (1+bi).xi
1(t) + (1bi).xi2(t)
45
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple d'opérateur
Croisement multipoint Croisement uniforme
11 | 0010 | 1001 | 0111 | 00
1100101001011100
01 | 0010 | 0011 | 0111 | 10
110010100101110001110100 Masque
1100101001011100
1101111001001000
46
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Plan
Problèmes Exemples Caractéristiques
Applications Validation Exemples
Métaheuristiques Exemples
Recherche tabou Algorithmes évolutionnistes Recuit simulé Colonies de fourmis Estimation de distribution
Synthèse
47
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recuit simulé
http://commons.wikimedia.org/wiki/Image:Hot_metalwork.jpg
48
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Historique
Historique 1970 : Hastings propose l’algorithme de MetropolisHastings, 1983 : Kirkpatrick, Gelatt et Vecchi concoivent le recuit simulé 1985 : indépendamment de ceuxci, Černý propose le même algorithme
49
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recuit simulé
Coté physique
Coté optimisation
50
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Description classique
Méthode de descente Si voisin meilleur, gardé Sinon, accepte aléatoirement un voisin moins bon Probabilité commandé par un paramètre T (« température ») T décroît avec le temps
51
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithme
Xcourant: point de départ
T = T0
Xsuivant = voisin(Xcourant)
Si f(Xsuivant)<= f(Xcourant)
Ou si exp((f(Xcourant)f(Xsuivant))/T) > rand(0,1) et f(Xsuivant)>f(Xcourant)
Alors Xcourant = Xsuivant
T = g(T)
Fin
Loi de décroissancede la température
Contrôle de la probad’accepter une mauvaise
solution
52
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithme
Xcourant: point de départ
T = T0
Xsuivant = voisin(Xcourant)
Si f(Xsuivant)<= f(Xcourant)
Ou si exp((f(Xcourant)f(Xsuivant))/T) > rand(0,1) et f(Xsuivant)>f(Xcourant)
Alors Xcourant = Xsuivant
T = g(T)
Fin
Méthode deMetropolis
53
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
MetropolisHastings
Échantillonnage de distribution de probabilité Non intégrable, sans expression analytique, non normalisée Fonction objectif distribution de probabilité→
Via distribution de Boltzman
Recuit simulé échantillonner une distribution paramétrique (T)→
Algorithme de MetropolisHastings n'importe quelle distribution
p x= exp − f x /T
∑y
exp − f y/T
54
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Échantillonnage de distribution paramétrique
55
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Convergence
Garantie d'atteindre l'optimum en un temps fini.
En pratique : lim
t→∞
pt x =1
56
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Quelques problèmes
Ergodicité N'importe quelle solution atteignable Quasiergodicité : nombre fini de changements Voisinage
Convergence Quasiergodicité Décroissance par palier Décroissance graduelle
Tt ne décroit pas plus vite que : C/log(t)
C, constante liée à échelle fonction objectif
ergodique
non ergodique
t
T
57
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple variables continues
http://en.wikipedia.org/wiki/Image:Metropolis_hastings_algorithm.pnghttp://en.wikipedia.org/wiki/Image:3dRosenbrock.png
58
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Décroissance température
La loi classique:Tk = α.Tk1
Les lois adaptatives:
Van Laarhoven:
Huang:
Triki:
Tk=T
k−1
1
1 ln 1
3 T k−1T
k−1
T k=T k−1 exp −T k−1
T k−1
T k=T k−1 1−T k−1
2T k−1
59
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Décroissance température
λ.σ(Tk)
ln(1+δ)/Cmax. σ2(Tk)
ln(1+δ)/3.σ(Tk)
Δ(Tk)
Huang
Otten
Van Laarhoven
Loi de originale
60
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Revenu simulé
x
f(x)
p(x)
T1
T2<T1
x
61
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Parallel Rejectionless Annealing
xcourant
x1
x2
x3x4
x5
min(1,exp((f(x1)f(xcourant))/T))
min(1,exp((f(x2)f(xcourant))/T))
min(1,exp((f(x3)f(xcourant))/T))
min(1,exp((f(x4)f(xcourant))/T))
min(1,exp((f(x5)f(xcourant))/T))
62
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Plan
Problèmes Exemples
Recherche opérationnelle Ingénierie Intelligence artificielle
Caractéristiques
Applications Validation
Performances ? Paramétrage Validation
Exemples
Métaheuristiques Exemples
Recherche tabou Algorithmes évolutionnistes Recuit simulé Colonies de fourmis Estimation de distribution
Synthèse
63
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithmes de colonies de fourmis
64
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Historique
1959, PierrePaul Grassé : stigmergie. 1983, Deneubourg, comportement collectif 1988, Moyson et Manderick, autoorganisation 1989, travaux de Goss, Aron, Deneubourg et Pasteels 1989, modèle de comportement de recherche de nourriture 1991, M. Dorigo propose le Ant System 1997, première application aux réseaux de télécommunications 2000, première preuve de convergence 2004, preuve d'équivalence avec d'autres métaheuristiques
65
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Origine de l'idée
66
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithme de base : Ant System
InitialisationJusqu'à critère d'arrêt Pour chaque fourmis
Parcours d'un trajet Laisser piste (quantité fixe, étalée sur chaque arrête)
Évaporation
Fin
67
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Voyageur de commerce
68
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Ant System, détails
t itérations, k fourmis, n villes, Ji
k villes à visiter
Choix d'une ville : visibilité ηij = 1/dij
Choix ville
pijk t ={
ij tij
∑l∈J
ik
il t ij
si j∈J
ik
0 si j∉J ik }
Quantité de phéromone
Évaporation
ijkt ={
QLk t
si i , j ∈T kt
0 sinon }
ij t1=1−ij t ij t
69
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Hyper Cube & MinMax Ant Systems
MMAS τ
min< τ
ij< τ
max
Ergodicité
HCAS Problème codage binaire Normalisation « fonction de qualité »
i=1−i
∑s∈S
t
Q f s si
∑s∈St
Q f s
Qf s∣S1, , S
t=01− f s −LB
f −LB
70
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
AntNet
71
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Plan
Problèmes Exemples
Recherche opérationnelle Ingénierie Intelligence artificielle
Caractéristiques
Applications Validation
Performances ? Paramétrage Validation
Exemples
Métaheuristiques Exemples
Recherche tabou Algorithmes évolutionnistes Recuit simulé Colonies de fourmis Estimation de distribution
Synthèse
72
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Estimation de distribution
73
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Historique
1994 : apprentissage incrémental à population (PBIL) 1996 : algorithmes à estimation de distribution 1999 : compact genetic algorithm 2004 : équivalence avec d'autres métaheuristiques
74
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Origines
Idée originale Simplifier les algorithmes génétiques Un seul opérateur
Population Base Incremental LearningCompact Genetic Algorithm
75
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithme
Idées de base Distribution de probabilité choisie a priori Échantillonnage Opérateurs de réduction de variance ( sélection)→
76
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Algorithme
InitialisationJusqu'à critère d'arrêt Estimation des paramètres Tirage échantillon selon distribution Sélection
Fin
77
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple continu
Distributions : Uniforme Gaussienne univariante
78
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple continu
Modèles classiques Gaussienne univariante Mélange de gaussiennes univariantes Gaussienne multivariante Mélange de gaussiennes multivariantes
79
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple discret : OneMax
80
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple discret : OneMax
81
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Exemple discret : OneMax
82
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Métaheuristiques : synthèseht
tp://
flick
r.com
/pho
tos/m
pdeh
aan/
3177
3103
/
83
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Caractéristiques de base
Global Généraliste Stochastiques Facile à implémenter
84
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Parcours / population
85
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Intensification / diversification
Diversification = explorationIntensification = exploitation
86
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Explicite, Implicite, Direct
87
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Classification
88
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Plan
Problèmes Exemples Caractéristiques
Applications Validation
Performances ? Paramétrage Validation
Exemples
Métaheuristiques Exemples Synthèse
89
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Validation
http
://fli
ckr.c
om/p
hoto
s/ing
leite
s/953
8104
4/
90
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
No free lunch
Instance de méthode Algorithme Paramétrage
Instance de problème Modèle Caractéristiques
91
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Paramétrage
Instance métaheuristique 1 paramétrage optimal pour 1 instance de problème
Initialisation Critère d'arrêt Valeurs des paramètres
Quel paramétrage ? Critères de performance
Vitesse ou précision ? Production ou conception ?
92
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Performances
Vitesse(x)OUPrécision
93
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Vitesse et précision
94
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Vitesse et précision
+ Stochastique
95
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Conception / production
Conception Vitesse négligeable Précision cruciale Répétitions possibles
Recherche Diversification
Production Vitesse cruciale Précision négligeable 1 seul essai
Robustesse Intensification
f(x)
F
f(x)
F
96
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Validation
Probabiliste STATISTIQUE→
Plan d'expérience Paramétrage Répétitions Tests statistiques Analyse de données
97
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Paramétrage
Simple Combinaisons de paramètres Répétitions Paramétrage optimal
Moins simple Problème d'optimisation Problème d'estimation d'erreur
98
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Sequential Parameter Optimization
(I) analyse expérimentale De plusieurs jeux de paramètres
(II) estimation des performance Modèle de processus
stochastique
(III) détermination de jeux supplémentaires à tester
99
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Sequential Parameter Optimization
Évaluation expérimentale Plusieurs évaluations par jeu Meilleur jeu précédent reévalué Nouveaux jeux évalués autant
Modélisation Corrélation gaussienne Régression polynomiale ordre 2 Estimation des performances pour jeux non testés
Nouveaux jeux à tester Échantillonnage « Latin » de l'hypercube
Un seul essai par ligne/colonne
100
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Présentation
Bien Pas bieni
f(x)
101
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Boite à moustache
http
://en
.wik
iped
ia.o
rg/w
iki/I
mag
e:Bo
xplo
t_vs
_PD
F.pn
g
102
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Trouver le meilleur des deux
Test statistique Déterminer si deux échantillons proviennent de la même distribution Déterminer si deux méthodes se comportent différemment
Et donc, si l'un est meilleur que l'autre Hypothèse « nulle » : les deux sont identiques
Acceptée : on ne sait pas faire la différence Rejetée : ils sont différents Avec une certaine probabilité de se tromper
103
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Test « U » de WilcoxonMannWhitney
Caractéristiques Distributions non normales, mais similaires Échantillons indépendants Nombre de points faible Variables continues
Procédure Calcul du test Hypothèse nulle rejetée avec p > Pseuil différents→
Au mieux, Pseuil = 0.95
104
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Applications
http://commons.wikimedia.org/wiki/Image:Industry_Torrance.jpg
105
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Un peu d'origamihttp://www.flickr.com/photos/wetsun/211468558/
106
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Papier vole
Trouver la forme d'un morceau de papierqui met le plus de temps possible à tomber. Peter Bentley http://www.cs.ucl.ac.uk/staff/P.Bentley/
107
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Fonction objectif
Matériel : Ramette A4 Ciseaux Bac à sable A4 ~ 10 caillous numérotés Chronomètre Une fléchette
108
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Initialisation
Algorithme Initialisation
Lancer les cailloux dans le bac Reporter leur position sur la feuille
Problèmes de représentation (complexité, causalité, etc.)
109
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Évaluation
Évaluation Découper Chronométrer 5 lancés
http://www.flickr.com/photos/shereen84/2320321157/
110
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Croisement
Croisement Intervertir des points
111
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Mutation Lancé de fléchette sur chaque point Déplacer le point
Moins d'un centimètre suppression→
Raté ajout→
112
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Sélection/Remplacement
Remplacement Déchirer les formes les plus rapides
http://www.flickr.com/photos/vorty/1409444890/
113
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Résultats
Optimum 5 formes 10 générations
114
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Fond de l'oeilhttp://www.flickr.com/photos/raylopez/867883420/
115
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recalage d'image
Angiographie du fond de l'oeil
116
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Angiographie
117
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Recalage
Variables : vertical horizontal Rotation zoom
Objectif : Minimiser différence
Difficulté : Information pertinente Résolution
∑ i , j =1,1
l , h
∣I 1i , j−I 2i , j ∣
l⋅h
118
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Prétraitement
119
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Similarité
120
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Résolution
121
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Similarité
122
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Métaheuristiques
Colonies de fourmis Type multiagents Hybridation NelderMead
Modélisation simplifiée Paramétrage difficile
Estimation de distribution Gaussienne multivariante Initialisation adhoc
Choix distribution délicat Paramétrage intuitif
123
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Temps de calcul
124
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Filtrage
125
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Résolution
126
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Résultats
127
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Distribution
128
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Conclusion
129
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Conclusion : optimisation « difficile »
130
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Conclusion : Métaheuristiques
Global Généraliste Stochastiques Facile à implémenter
131
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Conclusion : choix
132
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Conclusion : applications
133
Mét
ahe u
ristiq
ues
– 20
08 0
5
125
Bibliographie
• (fr) Teghem & Pilrot, Optimisation approchée en recherche opérationnelle, Hermes, 2002. ISBN 2746204622
• (fr) Dréo, Petrowski, Taillard & Siarry, Métaheuristiques pour l’optimisation difficile, Eyrolles, 2003, ISBN 2212113684.
• (en) Blum & Roli, Metaheuristics in combinatorial optimization: Overview and conceptual comparison, ACM Computing Surveys, volume 35, numéro 3, septembre 2003, pages 268308. DOI:10.1145/937503.937505
• (en) Collet & Rennard, Introduction to Stochastic Optimization Algorithms, IDEA Group Inc, 2006, ISBN 1591409845.
• (en) BartzBeielstein, Experimental Research in Evolutionary Computation: The New Experimentalism, Springer, 2006, ISBN: 9783540320265.
http://www.flickr.com/photos/gadl/108218374/