rapport de fin de stage diana-cristiana ros¸u · rapport de fin de stage diana-cristiana ros¸u...
TRANSCRIPT
Laboratoire d’Informatique, Systèmes, Traitement de l’Information et de la Connaissance
FUSION D’INFORMATIONS POUR LE RECALAGE D’IMAGES RADARINTERFÉROMÉTRIQUES
Rapport de fin de stage
Diana-Cristiana Rosu
Encadrant :Emmanuel Trouvé
Table des matières
1 Introduction 1
2 Généralités 3
2.1 Les satellites Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.1 Le principe d’acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.2 Radar à Synthèse d’Ouverture . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.2.1 Le principe d’acquisition . . . . . . . . . . . . . . . . . . . . . 6
2.1.2.2 Caractéristiques des images RSO . . . . . . . . . . . . . . . . 6
2.2 Les satellites utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1 TerraSar-X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.2 RADARSAT-1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Différentes sources d’information 13
3.1 Les sources directes de données . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.1 Les données de télédétection . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.1.1 Les données TerraSAR-X . . . . . . . . . . . . . . . . . . . . . 14
3.1.1.2 Les données RADARSAR-1 . . . . . . . . . . . . . . . . . . . 16
3.1.1.3 La convergence de données de télédétection . . . . . . . . . . 17
3.2 Les sources indirectes de données . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Modèle numérique de terrain . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4 Notions d’interférométrie 20
4.1 La phase interférométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.1 La contribution des trajectoires orbitales . . . . . . . . . . . . . . . . . . 21
4.1.2 La contribution de la topographie . . . . . . . . . . . . . . . . . . . . . 22
4.1.2.1 Effet des erreurs de MNT . . . . . . . . . . . . . . . . . . . . . 23
4.1.3 La contribution de l’atmosphère . . . . . . . . . . . . . . . . . . . . . . 23
4.1.4 La contribution du déplacement . . . . . . . . . . . . . . . . . . . . . . 24
5 Modèles et mécanique satellitaire 25
5.1 Les orbites pour les satellites de télédétection . . . . . . . . . . . . . . . . . . . 25
5.2 Les modèles des orbites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.2.1 La forme de l’orbite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
i
TABLE DES MATIÈRES ii
5.2.2 Le déplacement sur l’orbite . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.3 Les modèles de la Terre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.4 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6 Applications et résultats 35
6.1 Convergence des formats de méta-données . . . . . . . . . . . . . . . . . . . . 35
6.2 Détermination fine des orbites . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.2.1 Technique batch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.2.1.1 Modèle polynomiale . . . . . . . . . . . . . . . . . . . . . . . 37
6.2.1.2 Modèle matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.2.1.3 Estimation des paramètres de régression . . . . . . . . . . . . 38
6.2.2 Chaîne de traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.2.3 Résultats d’émulation fine des orbites . . . . . . . . . . . . . . . . . . . 39
6.3 Fusion d’informations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.3.1 Géolocalisation des images RSO . . . . . . . . . . . . . . . . . . . . . . 45
6.3.2 Calcules sur des couples d’images RSO . . . . . . . . . . . . . . . . . . 50
6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
7 Les donnees utilisees 56
7.1 Formats de meta-donnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
7.1.1 Le format ROI-PAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
7.1.2 Le format RSLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
8 Implementation Overview 61
8.1 Parsers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
8.1.1 Processing Chain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
8.1.1.1 Conversion oriented parsing . . . . . . . . . . . . . . . . . . . 62
8.1.1.2 Extraction oriented parsing . . . . . . . . . . . . . . . . . . . . 63
8.2 Orbit Emulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8.2.1 Processing Chain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8.3 Geo-localisation in SAR Images . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
8.3.1 Processing Chain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
8.4 Processing over Pairs of Images . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
9 Usage examples 69
9.1 Parsers Usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
9.2 Orbit Emulation Usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
9.3 Orbit Computations Usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Liste de tableaux 74
Table des figures 75
Chapitre 1
Introduction
La Terre subit un changement continu, les plaques lithosphériques sont en mouvement,
les différents glaciers de la Terre sont dans une période de recul ou d’avancée, les régions
couvertes par les forêts s’étendent ou se réduisent, les déserts s’augmentent et les catas-
trophes naturelles ou les activités humaines modifient la surface de la Terre. La volonté de
surveiller, mesurer et comprendre les causes de ces changements sur la surface de la Terre et
leurs effets sur l’habitat humain sont à l’origine de la télédétection.
Mais le changement de la Terre peut aussi être observé et mesuré «in situ». Les don-
nées obtenues seront soit corrélées avec les données obtenues par télédétection, soit utilisées
comme vérité terrain dans l’étape de validation des résultats obtenues en utilisant les don-
nées de télédétection.
Dans ce mémoire nous nous intéressons à fusionner plusieurs sources d’informations
(des Modelés Numériques de Terrain, des méta-données satellitaires et des images satelli-
taires) pour mesurer de manière très précise les déplacements de surface en utilisant des
techniques interférométriques radar. Cependant, le modèle de mesure du déplacement n’est
pas trivial car il implique la soustraction des franges orbitales et topographiques de la dif-
férence de phase entre deux images SAR. Pour soustraire les franges orbitales nous avons
choisi d’utiliser les méta-données satellitaires qui nous fournissent les informations néces-
saires pour émuler les trajectoires du satellite. Pour soustraire les franges topographiques
nous utilisons demanière conjointe lesméta-données satellitaires et lesModelésNumériques
de Terrain.
Jusqu’à présent, nos efforts ont été concentrés dans deux directions : la mise en œuvre
de méthodes qui permettent une meilleure émulation de la trajectoire du satellite, indépen-
damment de son type, pour soustraire les franges orbitales et topographiques et la création
d’un ensemble d’information a priori qui permet le ré-échantillonnage de l’image Esclave
sur l’image Maître et la correction des mesures de déplacement par corrélation d’amplitude.
Le document est organisé comme suit :
Le chapitre 2 (Généralités) introduit la problématique générale de l’imagerie radar et il
présente l’importance de l’imagerie RADAR dans le contexte actuel.
Le chapitre 3 (Différentes sources d’information) présente les différentes sources d’in-
1
2
formations qui sont utilisées dans la chaîne de traitement.
Le chapitre 4 (Notions d’interférométrie) présente les notions d’interférométrie. Il présente
également les principaux obstacles rencontrés dans l’utilisation des images radar.
Le chapitre 5 (Modèles etmécanique satellitaire) présente les notions basiques d’orbitogra-
phie qui sont utilisée dans notre approche.
Le chapitre 6 (Applications et résultats) présente les approches considérées, les résultats
obtenus et, également, le domaine d’applications.
L’appendice 8 est une référence d’Application Programmer Interface pour les fonctions,
structures et programmes que nous avons développés pendant ce stage.
L’appendice 9 présente quelques exemples d’utilisations pour les fonctions et structures
qui ont été implantées.
Chapitre 2
Généralités
Les applications géophysiques de ’imagerie RSO ont explosé dans les années 1990 après
le lancement réussi des satellites radar civils ERS1 et RADARSAT (1991-1995), [12]. Plusieurs
agences spatiales ont confirmé le potentiel des techniques d’interférométrie et ont permis et
encouragés le développement de techniques de traitement qui coexiste avec des techniques
traditionnels.
Aujourd’hui, les images de la Terre sont acquises en continu. Une seule image satellitaire
peut montrer la propagation de la pollution de l’air à travers un continent, les dommages
produits dans une région par un tremblement de Terre, par des incendies de forêt, par un
ouragan. En analysant plusieurs images satellitaires, il est possible d’extraire des informa-
tions sur la hausse apparente du niveau des mers, l’appauvrissement de la couche d’ozone
par la pollution atmosphérique, l’impact des activités humaines sur l’environnement, le dé-
placement des glaciers, etc.
Ainsi, les observations de la Terre offrent une couverture objective à travers l’espace
et le temps et sont devenus de puissants outils scientifiques pour permettre une meilleure
compréhension et une meilleure gestion de la Terre et son environnement.
Les images satellitaires sont de deux types : des images optiques et des images radar.
2.1 Les satellites Radar
L’abréviation RADAR vient de la RAdio Detection And Ranging (détection et télémétrie
par radioélectricité).
Les données radar sont complémentaires des données optiques mais l’analyse et le traite-
ment de ces données complexes sont spécifiques. Cependant, pour obtenir les meilleurs ré-
sultats l’interprétation conjointe doit prendre en compte les avantages et les inconvénients
caractéristiques à chaque source de données, résumés dans le tableau 2.1.
Images Optiques Images Radar à Synthèse d’Ouver-
ture
3
2.1 Les satellites Radar 4
L’information est conforme à la per-
ception de l’environnement par l’œil
humain [2] donc plus facilement in-
terprétable [1].
Information acquise est plus riche (on
peut profiter de l’information d’am-
plitude aussi que de la phase[1], [2].
Avantages
Les informations contenues peuvent
être utilisées dans le processus de cal-
cul de MNT.
On peut utiliser plusieurs fréquences
afin de déterminer des informations à
différentes profondeur selon la péné-
tration des ondes électromagnétiques
a priori [1]
Des hautes résolutions spatiales. Le processus d’acquisition est
moins sensible aux conditions
météorologiques.
-
La technique de synthèse d’ouver-
ture permet des résolutions spa-
tiales proches de celles des images
optiques.[2]
Le processus d’acquisition est
très sensible aux conditions
météorologiques, aux caractéris-
tiques des objets vues et il est
strictement dépendent de la présence
d’une source d’illumination externe
parce qu’on utilise des capteurs
passifs.
La présence des déformations
géométriques induites par l’échantil-
lonnage en distance.[2], [1]
Désavantages
Ce sont des images de surface (il
n’y a pas d’accès à des informa-
tions cachées sous la végétation, sub-
surface, etc.).
La force du signal reçu en retour est
dépendante de la topographie. [1]
Les variations de luminosité im-
pliquent des ajustements col-
orimétriques. [1]
La spécificité de l’application peut
demander des données suffisamment
proches temporairement et par leur
conditions d’acquisition. [1]
-
Le bruit de speckle1 rend difficile l’in-
terprétation visuelle de la scène [2].
1Le speckle (le chatoiement) est l’ensemble de petites taches qui donnent l’aspect granuleux à une image. Cespetites taches sont dues soit à la diffusion des ondes d’un faisceau cohérent spatialement de lumière par unecible présentant des irrégularités à l’échelle de la longueur d’onde, soit à la propagation d’un faisceau cohérentdans une atmosphère caractérisée par des variations aléatoires d’indice de réfraction.
2.1 Les satellites Radar 5
TAB. 2.1: Les avantages et les désavantages des images radar et optiques
2.1.1 Le principe d’acquisition
Le principe de base du radar est d’éclairer un objet et d’analyser les réponses reçues,
avec des champs électromagnétiques de rayonnement, [13], émis puis réfléchis par les objets
étudiés dans un certain domaine de fréquence, [2].
Les capteurs employés par l’imagerie radar possèdent leur propre source d’illumination,
ils sont appelés capteurs actifs, et opèrent dans le domaine des micro-ondes [2]. Les ondes
centimètriques permettent d’imager la Terre indépendemment de la nébulosité, [4], parce
que les atténuations atmosphériques sont faibles,[1]. Dans le table 2.2 sont présentées les
bandes traditionnellement utilisées en radar.
La bande est choisi par rapport a l’application de télédétection, parce que la pénétration
du sol est directement proportionelle avec la longueur d’onde ; [4]. Dans l’étude de déplace-
ment des glaciers les bandes X, C, L et P ont été utilisées sur des systèmes aéroportés et
les bandes X (pour TerraSAR-X), [1] et C (pour ERS et RADARSAT), [2], pour les systèmes
satellitaires.
Le système radar est un système bistatique si il est composé par un émetteur et un récep-
teur qui ont chacun une antenne, [13] : Lorsque l’émetteur et le récepteur du radar partagent
une antenne commune, ce système est appelés radar monostatique, [2], et offre plus de sim-
plicité d’utilisation.
L’antenne de l’émetteur émet une onde électromagnétique. L’onde électromagnétique se
réfléchit sur la cible. L’antenne du récepteur reçoit l’onde réfléchie.
2.1.2 Radar à Synthèse d’Ouverture
En 1951, Wiley a découvert qu’il était possible d’obtenir une meilleure résolution que
celle prévue par le faisceau de l’antenne. Il a découvert que le déplacement de la plate-forme
peut être utilisé pour obtenir une résolution beaucoup plus fine que la taille de l’empreinte
de l’antenne. Dans ces premiers systèmes RSO, la résolution a été améliorée par rapport aux
radars à ouverture réelle, [13].
Bande Fréquence [GHz] Longueur d’onde [cm]
P 0.225 - 0.390 133.00 - 76.90L 0.390 - 1.550 76.90 - 19.30S 1.550 - 4.200 19.30 - 7.10C 4.200 - 5.750 7.10 - 5.20X 5.750 - 10.900 5.20 - 2.70Ku 10.900 - 22.000 2.70 - 1.36Ka 22.000 - 36.000 1.36 - 0.83
TAB. 2.2: Les bandes utilisées en radar
2.1 Les satellites Radar 6
Pour les systèmes RSO ainsi que pour les radars traditionnels les deux configurations,
monostatique et bistatique, sont possibles.
2.1.2.1 Le principe d’acquisition
Le Radar à Synthèse d’ouverture a pour principe d’analyser l’onde électromagnétique
émise par une antenne et retrodiffusée par une surface que l’on souhaite observer. Donc l’an-
tenne réceptrice reçoit un grande nombre d’échos radar d’une cible supposée fixe alors que
le système RSO se déplace le long d’une trajectoire, appelé l’ouverture synthétique, comme
en 2.1. La résolution est une fonction de l’angle d’incidence, [13]. Le lien entre l’analyse tem-
porelle du signal reçu et la distance entre le satellite et le sol repose sur sur l’hypothèse que
la célérité des ondes électromagnétiques est constante dans le milieu traversé. Donc pour
un capteur RSO la résolution pour une certaine distance δr dépend seulement de l’angle
d’incidence de l’onde plane sur le sol [4].
δx =δr
sin θ(2.1)
L’angle d’incidence2 est un facteur déterminant pour la force du signal reçu en retour,
[1]. Si l’angle d’incidence est important le signal en retour est plus faible.
2.1.2.2 Caractéristiques des images RSO
Si les images optiques sont directement interprétables, leur transformation étant proche
de celle de la vision humaine, les images RSO nécessitent un traitement complexe pour être
interprétable, car leur géométrie est différente de la géométrie optique.
Dans le cas des images radar, l’échantillonnage se fait d’une manière différente dans les
deux directions :
– dans la direction de la visée du radar - résolution temporelle
– dans la direction du déplacement du porteur - résolution définie par les caractéris-
tiques du radar et du traitement appelé "synthèse d’ouverture".
Cet aspect devient problématique pour l’échantillonnage en distance dans le cas d’une
topographie accidentée où les distorsions sont accentuées, c’est à dire que les distances entre
les points du sol ne sont pas conservées dans une image radar. Dans l’image 2.1.2.2 on peut
distinguer les différentes distorsions géométriques qui peuvent apparaître dans la direction
de la visée du radar :
1. La compression - apparaît dans le cas de pentes légères dont la direction d’inclination
est dans le même sens que la direction de la visée radar où deux distances égales en
réalité, la première sur un terrain plat et la deuxième dans une pente légère, paraissent
différentes. Plus spécifiquement la distance obtenue entre deux points sur la pente
2L’angle d’incidence est défini par l’angle formé par le faisceau émis par la source radar le la normale à lasurface au point où le signal est retrodiffusé, [1]
2.1 Les satellites Radar 7
FIG. 2.1: Acquisition des images RSO
paraît plus petite que celle entre deux points sur un terrain plat. Dans l’exemple de
2.1.2.2 : | ab |>| cd |.
2. La dilatation - apparaît dans le cas de pentes légères dont la direction d’inclination est
opposée à la direction de la visée radar où deux distances égales en réalité, la première
sur un terrain plat et la deuxième dans une pente légère, paraissent différentes, plus
spécifique la distance obtenue entre deux points sur la pente paraisse plus grande que
celle entre deux points sur un terrain plat. Dans l’exemple de 2.1.2.2 : | ab |<| gh |.
3. Le repliement actif - apparaît dans le cas de pentes abruptes où l’angle d’incidence locale
est plus petit que la pente sur laquelle on a choisi les deux points. Dans l’exemple ci-
dessous les points E et F sont inter-changés dans la projection radar.
4. Le repliement passif - points recouverts - touche les points situés juste avant une zone de
repliement actif qui sont recouverts par d’autres points.
2.1 Les satellites Radar 8
5. Le repliement passif - points recouvrants - touche les points situés juste après une zone de
repliement actif qui recouvrent d’autres points.
6. L’ombre - touche les points qui ne sont pas atteints par l’onde radar, donc le point dont
l’angle d’incidence local est supérieur à 90 ou lorsqu’un obstacle s’interpose entre eux
et le radar.
Donc, dans le signal bidimensionnel enregistré, caractérisé par τ 3 et Ψ4, chaque point
représente la réflectivité des cibles ayant pour coordonnées la distance correspondante - R,
donnée par τ - et la coordonnée y, donnée par Ψ, 2.1. Le signal qui contient ces informations
doit être traite selon chacune des deux directions pour fournir une information interprétable
par un analyseur humain, [14].
Dans les images RSO, comme indiqué en 2.1, on dispose d’une information plus riche
qu’en optique : l’amplitude et la phase.
L’image d’amplitude enregistre la réflectivité, la capacité variable du terrain pour envoyer
l’énergie incidente vers le radar,[12]. Cette propriété est utilisée pour bien déterminer des
cibles avec des réflectivités fortes (coins réflecteurs) qui servent de points de contrôle pour
les étapes de traitement ultérieur. L’image d’amplitude présente les caractéristiques spa-
tiales et les variations temporelles du coefficient de rétrodiffusion, observé dans diverses
applications comme la détection du changement de la surface de la Terre, [15].
L’image de phase enregistre plusieurs effets de facteurs impliques dans le processus d’ac-
quisition, [12].
L’image de phase liée à la distance entre le satellite et les cibles élémentaires. La sur-
face du terrain représentée par un pixel d’une image radar contient généralement des cen-
taines de cibles élémentaires. Chacune de ces cibles contribue au pixel par un coefficient de
réflexion complexe. Donc, la phase du pixel est l’argument d’un nombre complexe qui est la
somme cohérente des réponses élémentaires inconnues. Sachant que la phase peut tourner
pendant la réflexion en fonction des propriétés diélectriques de la cible, [12] ou en fonction
de la pénétration des ondes, ou être retardée en fonction de la répartition des réflecteurs
élémentaires, [14], la phase résultante est aléatoire. Ce terme généralement inaccessible est
appelé phase propre Φpropre, [14].
La phase enregistrée dans l’image de phase contient néanmoins, dit géométriqueΦgeometrique
qui représente le temps de trajet aller-retour t entre l’antenne et une cible réelle en cas d’un
jonction ponctuelle ou virtuelle en cas d’une cible étendue.
Φgeometrique = 2πtT0
T0 = λc
⇒ Φgeometrique =4πR
λ(2.2)
La mesure de distance radar-cible est accessible modulo λ/2 parce que la phase est con-
nue modulo 2π,[14].3le retard temporel entre l’impulsion et l’écho4l’angle de vue par rapport à la direction de pointage de l’antenne
2.1 Les satellites Radar 9
(a)
(b) (c)
FIG. 2.2: (a) Les distorsions géométriques qui peuvent apparaître dans une image radar,[1] ; (b), (c)Les distorsions irréversibles qui peuvent apparaître dans une image RSO, [1].
2.2 Les satellites utilisés 10
Φ = Φpropre + Φgeometrique (2.3)
La phase devient exploitable en formant des différences de phase qui font disparaître la
phase propre. On observe alors les effets dus à la topographie, à l’atmosphère et à l’orbite
et un éventuel déplacement des cibles entre les acquisitions. On introduit ainsi le concept
d’interférométrie en télédétection, présenté plus en détail dans le chapitre 4.
2.2 Les satellites utilisés
Dans nos travaux nous avons utilisé des images acquises par deux satellites RSO, TerraSar-
X et RADARSAT1. Dans la suite nous présentons les caractéristique significatives de ces
deux satellites.
2.2.1 TerraSar-X
TerraSAR-X est est une famille de satellites d’observation de la Terre radar allemands
développée dans le cadre d’un partenariat privé-public entre l’agence spatiale allemande
DLR et EADS Astrium Allemagne équipés avec des capteurs a synthèse d’ouverture dont
l’antenne est construit dans la technologie multi-éléments actives, [16]. Trois modes d’acqui-
sition sont possible, le mode conventionnel stripmap et les modes spotlight et ScanSAR.
Le mode stripmap est le mode traditionnel, caractéristique aussi pour les autres satellites.
En ce cas, la scène est éclairée avec une séquence continue d’impulsions tandis que le fais-
ceau de l’antenne est pointée à un angle fixe en élévation et azimut, ce qui résulte en une
image avec une qualité constante en azimut, [16].
Pour le mode spotlight on utilise une orientation du faisceau électrique en azimut pour
augmenter le temps d’illumination, donc pour augmenter la taille de l’ouverture synthé-
tique. Ainsi, on obtient une résolution plus élevée en azimut mais pour une scène de taille
plus petite.
Le mode ScanSAR n’est pas utilisé dans nos travaux.
Le capteur SAR de TerraSAR-X a des caractéristiques différentes par rapport à les autres
capteurs de satellites en ce qui concerne la fréquence utilisée, le cycle de phasage, la polari-
sation d’acquisition et la résolution disponible, [15], résumés dans le tableau 2.3 et extraites
du [16].
Les images acquises ont les pixels équidistants aussi en azimut, l’espacement étant donné
par d’intervalle de répétition des impulsions, (PRF - Pulse Repetition Frequency), alors que
en range, l’espacement est donné par la RSF - Range Sampling Frequency.
Caractéristique Valeurs
Dimension de l’antenne
l = 0.7 m
L = 0.7 m
antenne rectangulaire
2.2 Les satellites utilisés 11
Fréquence de la porteuse f = 9.65 GHz
Longueur d’onde λ = 3.1 cm
L’inclinaison i = 97.44
Le cycle de phasage 11 jours
Hauteur nominale de l’orbite à
l’équateur
514 km
Nombre d’orbites par jour 152/11 km
Angle d’incidenceStripmap : 30 à 60
Spotlight : 20 à 55
Polarisations HH, VH, HV, VV
Fréquence de répétition des impul-
sions
PRF ∈ [2.0, 6.5] KHz
Bande passante en range 150 MHz (max)
Résolution en distance Stripmap : δdslant ∈ [1.0, 1.9] m
Polarisation : single ou dual Spotlight : δdslant ∈ [1.0, 1.9] m
Résolution en azimut Stripmap : δa ∈ [3.3, 6.6] m
Polarisation : single ou dual Spotlight : δa ∈ [1.1, 2.2] m
TAB. 2.3: Les caractéristiques du capteurs TerraSAR-X
2.2.2 RADARSAT-1
RADARSAT-1 est un satellite doté d’un radar a synthèse d’ouverture lancé par l’Agence
spatiale canadienne. Sept modes d’acquisition sont possibles :
1. Fine - avec une résolution nominale de 8 m, des angles d’incidence dans l’intervalle
[37, 47].
2. Standard - avec une résolution nominale de 30 m, des angles d’incidence dans l’inter-
valle [20, 49].
3. Wide - avec une résolution nominale de 30 m, des angles d’incidence dans l’intervalle
[20, 45].
4. ScansSAR narrow - avec une résolution nominale de 50 m, des angles d’incidence dans
l’intervalle [20, 49].
5. ScanSAR wide - avec une résolution nominale de 100 m, des angles d’incidence dans
l’intervalle [20, 49].
6. Extended high - avec une résolution nominale dans l’intervalle [18, 27] m, des angles
d’incidence dans l’intervalle [52, 58].
7. Extended low - avec une résolution nominale de 30 m, des angles d’incidence dans l’in-
tervalle [10, 22].
2.2 Les satellites utilisés 12
Le capteur SAR de RADARSAT-1 a des caractéristiques spécifiques, résumés dans le
tableau 2.4 et extraites du site officiel du satellite5.
Caractéristique Valeurs
Dimension de l’antenne
l = 1.5 m
L = 15 m
antenne rectangulaire
Fréquence de la porteuse f = 5.3 GHz
Longueur d’onde λ = 5.6 cm
L’inclinaison i = 98.6
Le cycle de phasage 24 jours
Hauteur nominale de l’orbite à
l’équateur
798 km
Nombre d’orbites par jour 14 km
Polarisations HH
Fréquence de répétition des impul-
sions
PRF ∈ [1.27, 1.39] KHz
Bande passante en range 11.6, 17.3, 30.0 MHz
TAB. 2.4: Les caractéristiques du capteurs RADARSAT-1
5http ://www.asc-csa.gc.ca/eng/satellites/radarsat1/components.asp
Chapitre 3
Différentes sources d’information
Pour mesurer les déformations à la surface du globe (déterminées par les volcans, les
glaciers, les tremblement de la Terre, etc.),les informations disponibles ont été principale-
ment celles prélevées jusque dans les années ’80, site, en effectuant des expéditions dédiées
qui pouvaient être dangereuses et coûteuses. Les données acquises servaient aussi pour l’in-
terprétation ou la validation des résultats. Dans bien des cas, les données acquises ont été
insuffisantes pour extrapoler les résultats sur l’ensable du problème considéré.
Dernièrement, les résolutions des images de télédétection spatiale se sont accrues avec
les nouveaux capteurs satellitaires, permettant l’extraction des informations nécessaires [1].
Ainsi les informations obtenues sur le terrain sont devenues des informations utilisées plutôt
dans l’étape de validation que pour l’analyse.
Dans la suite on présentera les différentes sources de données qu’on a classifié en des
sources directes et indirectes, en fonction d’un traitement préalable ou du processus d’ac-
quisition.
3.1 Les sources directes de données
Dans nos travaux nous avons utilisé comme sources directes de données des images
radar à synthèse d’ouverture, acquises par deux satellites différents, TerraSAR-X et RADARSAT-
1.
3.1.1 Les données de télédétection
La télédétection a reçu plusieurs définitions, selon le domaine d’application. On peut
citer les définitions les plus représentatives du terme, [8] :
1. La télédétection inclut toutes les méthodes d’acquisition d’images ou d’autres formes
d’artefacts électromagnétiques de la surface de la Terre à distance, et le traitement des
données acquises. La télédétection, dans le sens le plus large, concerne la détection
et l’enregistrement des rayonnements électromagnétiques à partir de régions cibles
13
3.1 Les sources directes de données 14
dans le champ de vision de l’instrument capteur. Ce rayonnement peut provenir di-
rectement de composants séparés de la région cible, il peut aussi être l’énergie solaire
réfléchie par les régions cibles, ou bien provenir des réflexions de l’énergie transmise
à la zone cible à partir du capteur lui-même.
2. La télédétection est la science d’acquisition d’informations relatifs à un objet à partir
de mesures effectuées à une certaine distance de l’objet, c’est à dire sans entrer effec-
tivement en contact avec lui.
3. La télédétection désigne les effets conjoints de l’emploi de capteurs modernes, du
matériel informatique, de la théorie de l’information et de la méthodologie du traite-
ment, de la théorie des communications et des dispositifs, des véhicules aériens (des
avions, des satellites) et des grands systèmes théorétiques et pratiques, afin d’observer
la surface de la Terre.
Les principales sources d’information utilisées dans la télédétection sont les images op-
tiques et les images radar à synthèse d’ouverture, acquises en utilisant soit les satellites, soit
des systèmes aéroportés.
Dans nos travaux nous avons utilisé seulement des données satellitaires radar à synthèse
d’ouverture, les images satellitaire optiques étant utilisés pour valider les résultats ou pour
bien localiser les points de contrôle.
3.1.1.1 Les données TerraSAR-X
Les données du satellite TerraSAR-X ne sont pas seulement des images RSO, mais aussi
des meta-données. Dans la figure 3.1 on expose la structure du produit fournis.
3.1 Les sources directes de données 15
FIG. 3.1: La structure du produit TerraSAR-X
Les données que nous utilisons se trouve dans le répertoire IMAGEDATA, d’un produit
standard. Dans ce répertoire on trouve seulement les images complexes (COSAR - COm-
plex SAR) quand on reçoit le produit. Dans la figure 3.1 on a représenté aussi les images
d’amplitude qui ne sont pas fournis, mais générées avec les outils EFIDIR.
Les échantillons de données RSO sont stockés dans le même ordre qu’ils sont acquis par
l’instrument RSO, ligne de range par ligne de range, l’échantillon correspondant à near range
étant stocké le premier.
Les échantillons des images complexes RSO sont stockés sous forme de complexes en-
tiers 16 bit/16bit (4 Octets), l’ordre étant big-endian (MSB).
Une autre source de données que nous utilisons dans notre approche est le fichier .xml
qui contient aussi bien des informations générales (PRF, RSF, etc.) que des informations spé-
cifiques (les vecteurs d’état, etc.). Dans la figure 3.2 on présente les modules qui résident,
aussi bien que les modules utiles pour nous.
3.1 Les sources directes de données 16
FIG. 3.2: La structure de meta-données utilisées
Dans nos travaux nous utilisons seulement quelques informations disponibles dans le
fichier .xml, ces données étant encadrées par des carrés bruns.
3.1.1.2 Les données RADARSAR-1
Les données fournis par RADARSAT-1, avec la structure illustrée dans la figure 3.3 re-
sultent d’un traitement initial realisé par le logiciel GAMMA1 qui génère deux fichiers avec
l’extensions .rslc et .rslc.par. Le fichier avec l’extension .rslc.par contient des informations
nécessaires dans le traitement ultérieur (les vecteurs d’état, etc.). Dans l’annexe 7.1.2 nous
présentons le format d’un tel fichier.
1Gamma est une collection de logiciels qui permettent le traitement de data RSO, RSO Interférométrique etRSO Interférométrique différenciel aussi bien pour les systèmes aéroportés que pour les systèmes satellitaires.
3.1 Les sources directes de données 17
FIG. 3.3: La structure du produit RADARSAT-1
3.1.1.3 La convergence de données de télédétection
Actuellement, il existe plusieurs satellites de télédétection qui fournissent des produits
avec un haut degré de spécificité. Les données peuvent être traitées en utilisant différents
outils parmi lesquels ROI-PAC2. Cet outil a été utilisé pour le traitement des données provenant
d’autres satellites. Pour réutiliser la chaîne de traitement déjà en place il était nécessaire
d’adopter une stratégie visant à assurer la convergence au niveau de meta-données.
Pour l’estimation de l’orbite nous avons choisi d’utiliser un format qui est compatible
avec le format de sortie de ROI-PAC, comme celui présenté dans l’annexe 7.1
La première colonne du tableau correspond au temps des vecteurs d’état, les trois colonnes
suivantes correspondent aux trois dimensions de la position dans le repère terrestre et les
trois colonnes suivantes correspondent aux trois composantes de la vitesse. Chaque ligne
dans le tableau correspond à un vecteur d’état.
Dans nos travaux nous avons implanter des outils pour amener les meta-données spéci-
fiques pour TerraSAR-X et RADARSAT-1 dans un format ROI-PAC. Cette partie est présenté
plus en détail dans la section ??.
2ROI-PAC est un ensemble de programmes Fortran et C liés avec des scripts perl pour effectuer certainestâches dans le domaine RSO. Plus précisément, les programmes individuels effectuer : conditionnement dedonnées, traitement de l’image SAR, formation de l’interférogramme, estimation de la corrélation, déroulementde la phase, estimation de la topographie, la suppression de la topographie dans une interférogramme déformée,et le géocodage
3.2 Les sources indirectes de données 18
3.2 Les sources indirectes de données
On peut considérer comme sources indirectes de données toutes les informations qui
sont obtenues en utilisant les résultat de traitements plus complexes qu’un filtrage ou un
ajustement radiométrique. Dans cette catégorie on trouve par exemple lesmodèles numériques
de terrain, les interférogrammes, ou encore les résultats des simulations s’appuyant sur les
méta-informations.
3.3 Modèle numérique de terrain
Le modèle numérique de terrain est une représentation de la topographie d’une zone
terrestre sous une forme adaptée à son utilisation par des logiciels tels que les SIG (Système
d’information géographique) qui permettent de calculer des surfaces ou des volumes, de
déterminer une trajectoire de survol du terrain, de tracer des profils topographiques ou de
manipuler de façon quantitative le terrain étudié. Le modèle numérique de terrain est une
donnée indispensable dans le processus de traitement d’images radar, en particulier dans
l’étape de rectification3 [1]. Dans ce cas, la Terre est modelisée par un ellipsoïde (parce qu’on
évite de trop nombreuses conversions pour l’utilisation d’une projection cartographique,
difficile de mettre en place pour la géométrie RSO), l’information d’altitude étant donnée
par le MNT.
On peut utiliser aussi un MNT pour simuler une images radar [1] qui va être utilisée
après comme image maître dans l’étape interférométrique. Dans la figure 3.4 on illustre les
étapes suivies pour obtenir le MNT.
3Processus équivalent à un recalage, qui consiste à mettre en correspondance une image RSO et une grillegéoréférencée à la surface du globe.
3.3 Modèle numérique de terrain 19
FIG. 3.4: Les étapes suivies pour obtenir un MNT
Pour obtenir le modèle numérique de terrain on peut utiliser soit des images optiques,
cette approche étant considérée par l’auteur de [1], soit des images radar. Des erreurs peu-
vent se produire dans le processus de calcul du MNT, quel que soit l’approche choisie, ces
erreurs étant résumées dans le tableau 3.1
Causes des erreurs
Images optiques
Topographie du terrain (pente orientée dans le sens contraire à l’an-
gle du capteur) [1].
Contraste insuffisant [1].
Phénomène d’occultation [1].
Caractéristiques du système optique [9].
Incertitude de la position du système [9].
Images radar
Caractéristiques du système radar [9].
Incertitude de la position du système [9].
Spécificité de la géométrie des images radar [1].
TAB. 3.1: Les sources d’erreurs dans le processus de calcul du MNT.
Dans nos travaux nous avons utilisé des modèles numériques de terrain pour deux ré-
gions avec une topographie bien différente, un MNT de la région de Chamonix (France) au-
tour des glaciers de la Mer de Glace et d’Argentiere, caractérisée par de grandes différences
d’altitude, et un de la région de Manaus (Brasil), caractérisée par la planéité du terrain. Les
deux MNT sont illustrés dans ??
Chapitre 4
Notions d’interférométrie
L’interférométrie en télédétection active désigne la technique ou les méthodes utilisant
au moins deux images complexes d’un radar à synthèse d’ouverture, afin d’obtenir des in-
formations supplémentaires sur les objets présents dans la zone imagée, en exploitant l’in-
formation contenue dans la phase du signal RSO, [2].
Pour que l’information de phase soit utile il faut qu’on calcule la différence de phase
(l’interférogramme) pour mesurer le déplacement de la cible entre deux acquisitions succes-
sives, [15]. Pour que l’information soit correcte il faut soustraire les contributions parasites.
La partie de la phase qui est exploitée par cette technique est la partie géométrique. Dans
cette approche on considère que la phase propre, comme elle a été définie dans la section
2.1.2.2, peut être éliminée, [14], si nous faisons la différence de la phase des deux images,
[12]. Nous obtenons cet effet si les deux images sont acquises dans le même temps et si les
réflecteurs élémentaires résidents dans un pixel contribuent de la même manière, [12].
4.1 La phase interférométrique
Le principe de l’interférométrie repose sur des différences de phase entre deux ou plusieurs
images radar. Les images utilisées pour calculer la différence de phase peuvent être acquises
soit avec une différence de position (satellites en tandem) soit avec une différence temps
lorsque le satellite repasse sur la même orbite. Après l’enregistrement ces deux images peu-
vent être comparées. La différence de phase qui résulte est un nouveau type d’image appelé
un interférogramme, [12], qui contient notamment de l’information sur la géométrie du ter-
rain. À la mesure de phase contribuent beaucoup des phénomènes physiques qui créent des
franges dans l’interférogramme. Les facteurs qui contribuent sont :
– La topographie - φtopo
– L’atmosphère - φatmo
– L’orbite - φorbitale
– Le bruit - φbruit
– Le déplacement - φdepl
Donc, la phase différentielle est constitué d’une somme de termes :
20
4.1 La phase interférométrique 21
φ = φtopo + φatmo + φorbitale + φbruit + φdepl
L’utilisation de la phase interférométrique nécessite d’isoler ou supprimer les effets dus
à la topographie, à l’atmosphère et aux orbites.
Pour pouvoir supprimer les effets parasites il faut comprendre les causes qui les pro-
duisent. Dans les sections suivantes nous présentons les facteurs les plus importants.
4.1.1 La contribution des trajectoires orbitales
La plupart des différences de phase correspond à la différence du point de vue due à un
changement de trajectoire orbitale entre deux acquisitions d’images. Pour que l’effet inter-
férométrique ne disparaisse pas dans l’alliasing il faut que les deux images qui sont com-
parées enregistrent un déplacement qui varie de moins qu’une demi-longueur d’onde par
pixel, [12]. Cette condition, dite la condition fondamentale pour l’interférométrie[12], est illustrée
au sens mathématique, en notant L la longueur perpendiculaire à la trajectoire d’un pixel
sur le terrain, λ la longueur d’onde et θ1 et θ2 les angles d’incidence dans l’image maître et
l’image esclave, par la relation :
2L(sin θ1 − sin θ2) < λ (4.1)
La convergence ou la divergence des trajectoires orbitales, illustrée dans la figure 4.1 sur
toute la durée de l’orbite fournie avec une image peut également créer des franges dans la
direction azimutale ("along-track"). La contribution de la topographie dans l’interférogramme
dépend de la baseline, comme on le va voir dans la section 4.1.2.
FIG. 4.1: L’évolution de la baseline entre deux trajectoires orbitales pour deux images acquises en2008.09.29 respectivement 2008.10.10 par le satellite TerraSAR-X.
4.1 La phase interférométrique 22
4.1.2 La contribution de la topographie
La topographie contribue aussi dans l’interférogramme avec un effet stéréoscopique qui
apparaît parce que la Terre est vue de deux points de vue légèrement différents. L’effet
se manifeste sous la forme des franges entourant les régions topographiques comme des
courbes de niveau, dites franges topographiques, [12].
Nous pouvons obtenir unemesure sur le nombre de franges topographiques en analysant
l’altitude d’ambiguïté.
L’altitude d’ambiguïté, ea, est définie en [14] comme l’élévation modulo laquelle l’alti-
tude d’un point peut être déterminée à partir de sa phase dans l’interférogramme en consid-
érant l’élévation d’un point, donnée par l’équation 4.2, dans le contexte d’un chemin simple
(et pas aller-retour). Une définition plus simple est donnée en [12] où l’altitude d’ambiguïté
est définie comme la différence d’altitude qui génère une frange topographique.
z = δdSxdS
hB= δdS
tan θMdS
B(4.2)
Dans le sens mathématique l’altitude d’ambiguïté est définie par la relation 4.3 où les
variables sont définies dans la figure 4.2 :
ea =λ tan θMd
2B(4.3)
FIG. 4.2: La relation entre la différence de chemin et l’altitude
Donc, l’altitude d’ambiguïté est inversement proportionnelle avec la baseline définie dans
la section précédente. Ainsi, si la baseline est grande, l’altitude d’ambiguïté est plus petite,
4.1 La phase interférométrique 23
ce qui correspond à une meilleure précision altimétrique mais à un nombre de franges to-
pographiques plus important, [14].
4.1.2.1 Effet des erreurs de MNT
L’altitude d’ambiguïté de l’interférogramme dépend directement de la base perpendic-
ulaire entre deux orbites, définit par l’équation 4.3. Il faut que nous nous assurions avant
d’utiliser un MNT que la mesure de déplacement ne sera compromise par les erreurs in-
troduites par l’imprécision du MNT. Nous avons calculé l’erreur introduite en fonction de
l’altitude d’ambiguïté pour un couple image acquise le 29.09.2008 et le 10.09.2008 par le
satellite TerraSAR-X. L’erreur altimétrique, δz introduit une erreur de phase, δφ, définie par
4.4 et une erreur sur le déplacement, εdepl définie par les relations 4.5, [14]
δφ = 2πδz
ea(4.4)
εdepl =λ
2· δz
ea(4.5)
Nous avons obtenu la valeur d’altitude d’ambiguïté dans le centre de l’image à partir des
informations suivantes :
θM = 0.662276401757
λ = 3.1 · 10−2m
d = 634962.533139843727m
B = 176.77149688628m
ea = λ tan θMd2B
⇒
ea = 3.1·10−2·tan(0.662276401757)·634962.5331398477272·176.771496188628
= 43.413812269
(4.6)
En prenant une précision altimétrique de l’ordre de 10 m pour le MNT utilisé nous pou-
vons calculer l’erreur de déplacement :
δz = 10 ⇒ εdepl =3.1 · 10−2 · 10
2 · 43.413812269= 0.0035703m = 3.5703mm (4.7)
Considérant que les mouvements étudies sont de l’ordre du centimètre tandis que les
erreurs introduites par les erreurs d’altimétrie sont de l’ordre de quelques millimètres on
peut utiliser notre MNT sans introduire des erreurs systématiques graves dans la chaîne de
traitement.
4.1.3 La contribution de l’atmosphère
Si les deux images satellitaires ne sont pas acquises dans le même temps, comme dans
notre cas, l’état de l’atmosphère n’est plus le même. Donc toutes les différences dans la tro-
posphère ou dans l’ionosphère entre les deux dates d’acquisition peuvent changer la dis-
4.1 La phase interférométrique 24
tance apparente entre le radar et le sol. Les variations ionosphériques peuvent également
affecter la propagation des ondes radar. Un changement homogène dans l’atmosphère (en
ce qui concerne la pression, l’humidité et la température) peut être présenté par un relief
contrasté qui module l’épaisseur de la troposphère que le signal doit traverser,[12].
Tous ces effets apparaîssent comme des changements de phase dans l’interférogramme.
4.1.4 La contribution du déplacement
Le radar mesure dans un sens mathématique la variation scalaire dans la distance radar-
sol, i.e. la composante du vecteur de déplacement dans la direction de l’axe radar. Donc tous
les déplacements d’une partie de la scène imagée le long de la visée apparaîssent directe-
ment comme des changements de phase par rapport au reste de la scène. En autres termes
chaque déplacement le long de la visée radar avec une demi-longueur d’onde crée une nou-
velle frange dans l’interférogramme, [12].
Cette composante de la différence de phase est la plus recherchée, celle composante, que
nous voulons garder après la soustraction des franges considérées parasites.
Chapitre 5
Modèles et mécanique satellitaire
Pour une meilleure localisation des points dans une image satellitaire, il faut que nous
considérions les aspects liées aussi à la mécanique satellitaire [4] qui à la forme de la Terre.
Cet aspect s’avère particulièrement important si nousmanipulons des images RSO où l’échan-
tillonnage spécifique introduit des distorsions géométriques qui peuvent ou non être cor-
rigées en utilisant des données supplémentaires [1] (comme le modèle numérique de ter-
rain). En sachant que la localisation d’un objet [4] ponctuel s’effectue selon le choix d’un
référentiel qui peut être géographique1, cartographique2 ou cartésien3 nous cherchons à lo-
caliser les objets en considérant un référentiel cartésien.
5.1 Les orbites pour les satellites de télédétection
Pour choisir l’orbite du satellite utilisé en télédétection, on considère les aspects suivants,
[3] :
1 Il faut qu’il fournisse une couverture globale ou quasi globale de la Terre.
2 Il faut que la répétitivité soit accomplie, et sans lacunes.
3 Il faut que l’altitude du satellite soit la même pour la même région mais à des moments
différents.
4 Il faut que les conditions d’illumination soient les mêmes pour la même région mais à des
moments différents.
5 Il faut que les perturbations n’influencent pas le processus d’acquisition.
Les quatre premiers conditions sont remplies si on considère une orbite héliosynchrone.
La cinquième condition est remplie par des ajustements du semi-axe majeur de l’orbite.
1Nous considérons des objets géographiques de référence.2Nous considérons des objets cartographiques placés sur une carte.3Nous considérons un référentiel absolu sans nécessité de localisation géographique ou cartographique.
25
5.2 Les modèles des orbites 26
5.2 Les modèles des orbites
Des modèles complexes ont été élaborés pour faire face aux exigences des applications
dédiées pour lesquelles la précision est l’un des préoccupations majeures. Néanmoins, les
caractéristiques des orbites peuvent être décrites en utilisant des approximations simples,
principalement basées sur la mécanique newtonienne. Les lois du mouvement planétaire
sont les résultats des lois de Kepler.
5.2.1 La forme de l’orbite
En faisant l’hypothèse que la Terre possède une symétrie sphérique [4] et que la masse
du satellite est négligeable [3] par rapport à la masse de la Terre -MT = 5.974 · 1024kg- on
peut exprimer la force exercée par la Terre sur le satellite, dans les termes newtoniens :
F = G · MT · mS
r2(5.1)
et dans un format vectoriel :
~F = − ~gradU (5.2)
Si nous introduisons µ = G · MT - le coefficient de gravité - il en résulte :
~F = −µmS~r
r3(5.3)
avec l’accélération gravitationelle :
~r = −µ~r
r3(5.4)
FIG. 5.1: La relation entre les vecteurs représentatifs, d’après [3]
5.2 Les modèles des orbites 27
La force d’attraction gravitationnelle,~F, est antiparallèles avec le vecteur de position,~r,
le résultat étant que le satellite ne peut pas quitter le plan de l’orbite, c’est à dire que l’ac-
célération perpendiculaire au plan orbital est nulle. Ça peut être exprimé mathématique-
ment comme ci-dessous [3] :
~r × ~r = −µ 1r3 (~r × ~r) = 0
~r × ~r = ~r × ~r + ~r × ~r = ddt(~r × ~r) = M
ms
=⇒ ~r × ~r = ~h = const (5.5)
où × est le produit vectoriel de deux vecteurs, ~r est la vitesse du satellite tandis que ~r est
l’acceleration du satellite.
La relation ci-dessus spécifie que l’orbite est limitée à un plan parce que ~h - appelé mo-
ment cinétique spécifique - est perpendiculaire à tous les vecteurs, position et vitesse, et il a
aussi une valeur constante [3]. Si nous exprimons l’aire en fonction de ces vecteurs on peut
obtenir :
∆A = 12 | ~r × ~r∆t |= 1
2 | ~h | ∆t~h = const
=⇒ 2emeloi de Kepler (5.6)
où ∆A est definie comme dans la figure 5.1
La deuxième loi de Kepler spécifie que si la Terre représente le foyer d’un ellipse qui est
le plan orbital d’un satellite alors le rayon d’ellipse balaie des aires égales dans des inter-
valles de temps égaux. Pour trouver les paramètres qui caractérisent l’ellipse, en sachant
que les vecteurs moment cinétique spécifique et accélération sont perpendiculaires, nous
considérerons le produit vectoriel entre ces deux vecteurs :
~h × ~r = 1µ 1r3 · (~h × ~r)
~h × ~r = (~r × ~r) × r = ~r(~r · ~r) − ~r(~r · ~r)ddt(
~rr ) = 1
r~r − ~r
r2~r
= 1r3 [~r(~r · ~r) − ~r(~r · ~r)]
=⇒ ~h × ~r = r3 ddt(
~rr )
=⇒ ~h×~r = −µd
dt(~r
r)
(5.7)
∫
t
t+∆t~h × ~rdt =
∫
t
t+∆t
−µd
dt(~r
r)dt =⇒
~h × ~r = −µ(
~rr
)
− A
(~h × ~r) · ~r = −µr − A · ~r(~h × ~r) · ~r = −(~r × ~r) · ~h = ~h · ~h
=⇒ h2 = µr+Ar cos v
(5.8)
où avec v est noté l’anomalie vrai qui est l’angle entre la direction des apsides 4 et la direction
terre-satellite d’après [4]. Si on divise par µ on obtient les valeurs des paramètres de l’ellipse.
h2
µ= r +
Ar cos v
µ=⇒
p = h2
µ
e = Aµ
(5.9)
4La semi-grande axe de l’ellipse.
5.2 Les modèles des orbites 28
où p est le semi latus rectum de l’ellipse tandis que e est l’excentricité de l’ellipse. On peut ainsi
obtenir la relation pour le rayon de l’ellipse en fonction de ces deux paramètres, comme
ci-dessous :
r =p
1 + e cos v(5.10)
L’équation 5.10 définit le trajet du satellite, car elle établit une relation entre le vecteur de
position associé au satellite et la direction de référence A, [3]. L’équation peut être aussi
assimilée comme une extension de la première loi de Kepler qui spécifie que les orbites des
planètes sont des ellipses ([3]). Comme nous avons déjà dit, lq trajectoire dans le plan orbital
est une ellipse, donc, on peut obtenir les valeurs maximum et minimum pour la distance du
satellite par rapport au centre de la terre :
rmin = p1+e
rmax = p1−e
(5.11)
Les points correspondants sur l’orbite sont appelés périgée, respectivement apogée. En
sachant les valeurs pour ces distances on peut obtenir la valeur de la ligne des apsides.
a =rmin + rmax
2=
p
1 − e2(5.12)
Nous avons obtenu ainsi les paramètres qui déterminent la forme de l’orbite.
FIG. 5.2: Les paramètres de l’ellipse, d’après [4]
En considérant la loi de conservation d’énergie ou la loi vis-viva [3] on peut obtenir les
valeurs pour les vitesses dans les points significatifs, le périgée et l’apogée, aussi bien que
dans n’importe quel point sur l’ellipse :
vper =√
µa
√
1+e1−e
vap =√
µa
√
1−e1+e
v =√
µ√
2r − 1
a
(5.13)
Même si nous savons la vitesse du satellite, nous ne savons pas où il se trouve sur l’orbite
à un certain moment, parce que nous n’avons l’information du temps dans aucune équation
définie jusqu’à présent, qui sera introduite dans la suite.
5.2 Les modèles des orbites 29
5.2.2 Le déplacement sur l’orbite
Pour inclure le temps on considère un cercle circonscrit à l’ellipse par rapport auquel on
peut définir un nouveau paramètre, l’anomalie excentrique, E.
FIG. 5.3: La définition pour l’anomalie excentrique, E, d’après [3]
En fonction de ce paramètre on peut exprimer la position du satellite sur l’orbite (x, y),
où x, y et E sont fonctions du temps.
r2 = x2 + y2
r = a(1 − e cos E)(5.14)
On peut ainsi exprimer le module du moment cinétique spécifique en fonction de E,
comme ci-dessous :
h =| ~h |= ~x · ~y − ~y · ~x= a(cos E − e) · a
√1 − e2 cos EE + a
√1 − e2 sinE · a sinEE
= a2√
1 − e2E(1 − e cos E)
h =√
µa(1 − e2)
⇒
a2√
1 − e2E(1 − e cos E) =√
µa(1 − e2)
n =√
µa3
⇒ (1 − e cos E)E = n
(5.15)
Dans cette équation nous avons noté avec n le mouvement moyen. On intégrera main-
tenant par rapport au temps pour obtenir une relation remarquable.
∫
(t)E(1 − e cos E)dt =
∫
(t)ndt ⇒ E(t) − e sin E(t) = n(t − tp) (5.16)
La relation ci-dessus est connue comme l’équation de Kepler, en sachant que tp est le
temps du périgée, qui correspond au moment où l’anomalie excentrique est nulle. Nous
définissons encore un autre paramètre pour simplifier l’équation de Kepler, l’anomaliemoyenne,
qui, en faisant l’hypothèse que la vitesse est constante le long de l’ellipse (peu réaliste d’après
5.2 Les modèles des orbites 30
[4]) croît linéairement avec le temps [4], contrairement aux anomalies vraie et excentrique
[3].
M = n(t − tp) ⇒ E(t) − e sin E(t) = M (5.17)
En sachant que la période orbitale est l’intervalle dans lequel l’anomaliemoyenne change
avec 2π on peut extraire maintenant la relation ci-dessous :
T =2π
n= 2π
√
a3
µ(5.18)
Pour exprimer le mouvement du satellite dans un autre système référentiel que le plan
orbital naturel nous rajoutons deux vecteurs unité P et Q, le premier vecteur pointe vers le
périgée, tandis que le dernier est perpendiculaire au premier et correspond à une anomalie
vrai de 90. En ce cas, le vecteur de position est exprimé comme ci-dessous :
~r = x~P + y ~Q
= r cos v ~P + r sin v ~Q
= a(cos E − e)~P + a√
1 − e2 sinE ~Q
(5.19)
Le système de coordonnées le plus utilisé est le système équatorial de coordonnées, il-
lustré dans la figure 5.4, qui est aligné avec l’axe de rotation de la Terre et avec l’équateur
et ayant l’origine au centre de la Terre, l’axe Oz pointe vers le Nord tandis que le plan xOy
forme le plan équatorial5
5L’axe Ox est alignée avec l’équinoxe de printemps γ qui est en fait l’intersection du plan équatorial avec leplan orbital de la Terre [3].
5.2 Les modèles des orbites 31
FIG. 5.4: Le système équatorial de coordonnées c©IMCCE
Dans la figure ci-dessus les paramètres α et γ représentent l’ascension droite6, respec-
tivement la déclinaison7.
Pour indiquer l’orientation du plan orbital et le périgée par rapport au système de coor-
données équatoriales il faut introduir trois nouveaux paramètres :
L’inclinaison - i - l’angle de l’orbite par rapport au plan équatorial [4]. Une inclinaison de
plus de 90 indique un déplacement rétrograde du satellite autour de la Terre [3].
L’ascension droite du nœud ascendant -Ω - l’angle entre équinoxe de printemps γ et la di-
rection du nœud ascendant8 [4]. Cet angle est exprimé dans le plan équatorial.
L’argument du périgée - ω - l’angle entre la direction du nœud ascendant et celle du périgée.
Cet angle est exprimé dans le plan de l’orbite.
6L’ascension droite est l’équivalent de la longitude terrestre.7La déclinaison est l’équivalent de la latitude terrestre projetée sur la sphère céleste.8Le point sur l’orbite où le satellite traverse l’Équateur du sud au nord [3]
5.2 Les modèles des orbites 32
FIG. 5.5: Les angles qui indiquent l’orientation du plan orbital et le périgée par rapport au systèmede coordonnées équatoriales9
Pour exprimer la position du satellite dans l’espace en fonction de ces trois angles il faut
introduir dans le système orbital un nouveau vecteur unité, W :
~W =~h
h(5.20)
Ainsi la correspondance entre les deux systèmes de coordonnées est obtenue en utilisant
la relation suivante :
(x, y, z) = (r cos v, r sin v, 0) (5.21)
Si on effectue trois rotations, une rotation autour de l’axe définie par W avec un angle de
−ω, l’autre autour de la nouvelle axe Ox avec un angle de −i, et la dernière rotation autour
de la nouvelle axe Oz avec un angle de −Ω autour de l’axe on peut obtenir la position du
satellite en utilisant les vecteurs gaussiens, P , Q, W qui sont définit comme ci-dessus :
(P, Q, W ) = Rz(−Ω)Rx(−i)Rz(−ω)
P =
+ cos ω cosΩ − sin ω cos i sinΩ
+ cos ω sinΩ + sinω cos i cosΩ
+ sinω sin i
Q =
− sinω cos Ω − cos ω cos i sinΩ
− sinω sinΩ + sin ω cos i cos Ω
+ cos ω sin i
W =
+ sin i sinΩ
− sin i cosΩ
+ cos i
(5.22)
5.3 Les modèles de la Terre 33
5.3 Les modèles de la Terre
La Terre n’est pas une sphère parfaite, le plus simple modèle étant une sphère aplatie
dont l’axe de symétrie est confondue avec l’axe de rotation [4]. Le standard utilisé le plus
courant pour modéliser l’ellipsoïde terrestre est WGS84 qui définit les deux rayons remar-
quables, a10 et b11, comme ci-dessus :
a = 6378.137 km
b = 6356.752 km(5.23)
En sachant ces deux valeurs, et en plus la valeur de la latitude, Ψ, on peut ainsi déter-
miner le rayon de la Terre en utilisant la relation :
R =√
a2 cos Ψ + b2 sinΨ (5.24)
La non-sphéricité de la Terre modifie aussi l’expression qu’on a considéré pour la force
d’attraction. Heureusement seulement deux paramètres ont une influence notable :
L’aplatissement aux pôles - modélisée par le paramètre J2 = 1.0827 · 10−3.
La forme elliptique de l’équateur - introduit les paramètres : J22 = 1.803 · 10−6 et λ22 =
14.91
Ces paramètres interviennent dans la relation du potentiel de gravité :
U =µ
r
(
1 −∞
∑
n=2
(RT
r
)nJnPn cos Φ +
∞∑
n=2
∞∑
q=1
(RT
r
)nJnqPnq cos Φ cos(q(λ − λnq))
)
(5.25)
Où :
RT - le rayon terrestre
Φ - latitude de la projection sur le globe du point considéré
λ - longitude de la projection sur le globe du point considéré
Jn - harmonique zonale
Jnq - harmonique tesserale
λnq - longitude propre à l’harmonique tesserale
Pn - Polynôme de Legendre
En fait, le modèle elliptique n’est pas un modèle réaliste si on veux l’utiliser en consid-
érant aussi les altitudes de différentes points sur la Terre [1]. Le modèle elliptique est idéal
pour la cartographie à grande échelle. Donc on a besoin d’un modèle avec lequel on peut
aussi considérer les altitudes. Ce modèle est représenté par le géoïde.
10Le rayon à l’Équateur .11Le rayon aux pôles.
5.4 Conclusions 34
FIG. 5.6: Les modèles terrestres, [1]
5.4 Conclusions
Les modèles de la Terre et de l’orbite sont nécessaires dans le processus de recalage de
données (soit satellitaires ou aéroportées). La choix du modèle dépend de l’application ou
de la priorité des informations qui doivent être conservées pendant le traitement parce que
les transformations propres aux changement de référentiel sont irréversibles et le système
choisi peut conserver plus ou moins certaines informations. La choix est aussi influencé par
la géométrie des images utilisées. Dans la suite on va présenter la géométrie des images
radar pour lesquelles le meilleur système de coordonnées se révèle être WGS84 [1], parce
que : il est utilisable en tout point de la Terre et il évite de trop nombreuses conversions pour
l’utilisation d’une projection cartographique, difficile de mettre en place pour la géométrie
RSO.
Chapitre 6
Applications et résultats
6.1 Convergence des formats de méta-données
Jusqu’à présent, la chaîne est approprié pour le traitement d’un format commun, qui ré-
sulte d’un logiciel de pré-traitement, ROI-PAC, introduit dans la section 3.1.1.3. Pour rester
compatible avec l’infrastructure logistique nous avons choisi de réaliser des convertisseurs
pour le format .xml, qui accompagne les images acquises par le satellite TerraSAR-X, et
.rslc.par, qui décrit les images acquises par le satellite RADARSAT-1.
Les informations disponibles dans le fichier ROI-PAC ne sont pas suffisantes ni pour es-
timer l’orbite ni pour amener les Modèles Numériques de Terrain dans la géométrie SAR
si on travaille avec des images acquises par TerraSAR-X. Dans, le fichier .xml on dispose
d’informations qui concernent les aspects essentielles dans nos travaux, l’émulation de l’or-
bite et le re-échantillonage de l’image esclave sur l’image maître. Dans la figure 6.1 nous
présentons les informations qui sont extraites pour chaque étape de traitement.
6.2 Détermination fine des orbites
L’équation du mouvement, 5.16, et le modèle de la Terre, présentés dans le chapitre 5
fournissent le cadre de base pour décrire le mouvement du satellite par rapport à une sta-
tion au sol. Si on tient compte de sa position initiale, des vecteurs vitesse et de différents
paramètres du modèle, la position peut être calculé à instant quelconque, [3]. Le problème
devient complexe si nous voulons déterminer les éléments orbitalle ou les paramètres du
modèle étant donné un ensemble d’observations. Dans notre cas, l’ensemble d’observations
est représenté par les vecteurs d’état.
Même si les deux semblent équivalents, ils sont des aspects totalement distinctes. L’équa-
tion du mouvement est considéré par [3] comme une détermination préliminaire de l’orbite,
réalisé si on connaît les cinq éléments orbitale (l’inclinaison i, l’ascension droite du noeud
ascendant Ω, l’argument du périgée ω, la demi-axe grande de l’ellipse a et l’excentricité e)
tandis que la détermination des éléments de la position du satellite est considéré comme
estimation de l’orbite.
35
6.2 Détermination fine des orbites 36
FIG. 6.1: Les informations extraites d’un fichier .xml
La détermination préliminaire de l’orbite est nécessaire si on veut déterminer les erreurs
d’injection du lanceur, tandis que l’l’estimation de l’orbite est nécessaire, dans notre cas, pour
recaler les données RSO et pour extraire les franges orbitales des interférogrammes.
Pour l’estimation de l’orbite deux méthodes connues sous le nom de technique batch et tech-
nique séquentielle ont été proposées. La technique batch1 remonte à la fin du 18eme siècle, étant
introduite par Gauss, tandis que la technique séquentielle2 a été introduite il y a trente ans par
Kalman.
Notre approche converge vers la technique batch, étant fondé sur une adaptation de
la régression polynomiale sur cette technique. Dans la suite nous présentons les notions
théoriques sur les régressions polynomiales et les résultats obtenus avec notre méthode.
6.2.1 Technique batch
L’idée de base de cette technique appliquée à la détermination de l’orbite est de trouver la
trajectoire pour laquelle le carré de la différence entre l’observation modélisée et les mesures
réelles sont les plus petits possible, ou de trouver une trajectoire qui correspond le mieux
1La technique de moindres carrés2La technique du filtre
6.2 Détermination fine des orbites 37
aux observations au sens des moindres carrés pour les résidus.
Pour trouver la trajectoire qui correspond le mieux aux observations nous avons utilisé
le modèle de la régression polynomiale. Le modèle de la régression polynomiale de dégrée
n est définit, généralement, par la relation :
y(x) = a0 + a1x + a2x2 + . . . + anxn + ε (6.1)
Dans ce cas, la relation entre la variable indépendante x et la variable dépendante y est
modélisée en utilisant un polynôme. Le modèle de régression est non linéaire par rap-
port à la variable indépendante x, mais il est linéaire par rapport aux paramètres inconnus
a0, a1 . . . an, [11].
Dans la relation (6.1) ε est une variable aléatoire ayant une espérancemathématique nulle
(E[ε] = 0) et une variance égale à σ2 (E[ε2] = σ2, la même que la variance de la variable y,
[10]. Dans ce cas, x peut être aussi bien une variable aléatoire que un vecteur de variables
aléatoires.
6.2.1.1 Modèle polynomiale
Dans notre cas le dégrée de polynôme, préconise par les méta-données, est 7 et les vari-
ables impliquées dans le modèle sont les coordonnées, x, y, z comme des variables dépen-
dantes, tandis que le temps correspondant est la variable indépendante. Le modèle résultant
de la régression est exprimé par la relation :
xi = a0 + a1ti + a2t2i + . . . + a7t
7i + ε1i
yi = b0 + b1ti + b2t2i + . . . + b7t
7i + ε2i
zi = c0 + c1ti + c2t2i + . . . + c7t
7i + ε3i
(6.2)
où i prend des valeurs entre 1 etm,m étant le numéro des échantillons de x, y, z, disponibles à
l’instant t. Dans le cas des images TerraSAR-X par couple,m est 12, parce qu’on a 12 vecteurs
d’état. Donc on a un système de 12 équations avec 8 valeurs inconnus pour chaque coordon-
née. Le système d’équations correspondant à la coordonnée x s’écrit :
x1 = a0 + a1t1 + a2t21 + . . . + a7t
71 + ε11
x2 = a0 + a1t2 + a2t22 + . . . + a7t
72 + ε12
...
x12 = a0 + a1t12 + a2t212 + . . . + a7t
712 + ε112
(6.3)
Donc, la régression polynomiale est limité à l’estimation de paramètres, a0, a1 . . . a7, pour
x à l’estimation de leur qualité (l’erreur résiduelle) et à la vérification du modèle sur des
échantillons disponibles, [11]. Les échantillons disponibles sont des paires de valeurs (xi, ti),
(yi, ti) et (zi, ti).
6.2 Détermination fine des orbites 38
6.2.1.2 Modèle matriciel
Le système d’équations (6.3) peut être exprimé de façon plus compacte avec une notation
matricielle. En introduisant les notations suivantes :
X =
x1
x2
...
x12
C =
1 t1 t21 . . . t711 t2 t22 . . . t72...
1 t12 t212 . . . t712
E =
ε11
ε12
...
ε112
Θ =
a0
a1
...
a12
Nous pouvons ainsi écrire l’équation de définition pour le modèle de régression polynomi-
ale sous la forme matricielle :
X = CΘ + E (6.4)
6.2.1.3 Estimation des paramètres de régression
La méthode la plus utilisée pour la détermination des paramètres de régression est la
méthode des moindres carrés. Le principe de cette méthode est que les estimateurs des
paramètres doivent être choisit de manière à ce que la somme des différences au carré en-
tre les valeurs observées et les valeurs estimés soit minimum. Si nous définissons le résidu
comme la différence entre la valeur observée et la valeur estimée :
ei = xi − (a0 + a1ti + a2t2i + . . . a7t
7i ) (6.5)
on peut calculer l’Erreur Quadratique Moyenne :
Q =1
n
n∑
i=1
e2i =
1
n
n∑
i=1
[xi − (a0 + a1ti + a2t2i + . . . a7t
7i )]
2 (6.6)
qui est la quantité qui doit être minimisée.
Dans les conditions d’une régression polynomiale dont le modèle est exprimé par la
relation (6.1) et en disposant de m paires d’échantillons (y1, x1), (y2, x2) . . . (ym, xm) les esti-
mateurs sont obtenus en égalant à zéro les dérivées partiales par rapport à chaque paramètre
de l’erreur quadratique moyenne.
Dans notre cas, cette annulation est traduite par :
δQδa0
=∑12
i=1δ
δa0([xi − (a0 + a1ti + a2t
2i + . . . a7t
7i )]
2) = 0
δQδa1
=∑12
i=1δ
δa1([xi − (a0 + a1ti + a2t
2i + . . . a7t
7i )]
2) = 0...δQ
δ ˜a12=
∑12i=1
δδa12
([xi − (a0 + a1ti + a2t2i + . . . a7t
7i )]
2) = 0
(6.7)
6.2 Détermination fine des orbites 39
En termes de matrice, on peut facilement prouver que :
Q =[
e11e12
. . . e112
]
·
e11
e12
...
e112
= ETE= (X − CΘ)T (X − CΘ)
(6.8)
Donc, en dérivant cette dernière relation on obtient :
δQ = −δΘT CT (X − CΘ) − (X − XΘ)T CδΘ
= −2δΘT CT (X − CΘ)(6.9)
Le système présenté en (6.7) devient :
δQ = 0 =⇒
CT (X − CΘ) = 0
CT X − CT CΘ = 0 =⇒
CT X = CT CΘ
Θ = (CT C)−1CT X
(6.10)
Après avoir déterminé les valeurs des coefficients nous pouvons déterminer la valeur de
x, y, z quel que soit la valeur du t en utilisant l’équation (6.1).
Les coordonnées de la trajectoire du porteur pendant le vol x, y, z sont exprimer par
rapport a un referentiel terrestre cartesien de l’ellipsoide WGS-84.
6.2.2 Chaîne de traitement
Lemodèle théorétique peut être divisé en deux étapes de traitement, comme il est illustré
dans la figure 6.2 :
1. La détermination des coefficients
2. L’obtention des estimateurs de la trajectoire du satellite
6.2.3 Résultats d’émulation fine des orbites
La précision de l’approche a été vérifiée en comparant les résultats obtenus avec les fonc-
tions implantées en C, résumées dans le tableau 6.2 avec les résultats obtenus avec fonctions
natives Matlab, résumées dans le tableau 6.1 et avec les résultats obtenues avec le logiciel
DORIS3, illustrées dans la figure 6.3.
3DORIS - Delft Object−oriented Radar Interferometric Software est un nouveau logiciel de traitement InSARdéveloppé par l’Université de Technologie de Delft, écrit entièrement en C++ dans une manière modulaire,chaque module identifiant un algorithme diffèrent pour une étape de traitement.
6.2 Détermination fine des orbites 40
FIG. 6.2: La configuration du module d’estimation de l’orbite
FIG. 6.3: Les résultats obtenus avec le logiciel DORIS
6.2Déterm
ination
finedes
orbites
41
No x y z x − x y − y z − z EQR
1 5.126331e+06 1.990383e+05 4.587946e+06 1.765322e-05 1.495844e-05 1.271162e-05 2.640031e-052 5.076658e+06 1.801611e+05 4.643465e+06 -1.086444e-04 -9.575539e-05 -7.332023e-05 1.623224e-043 5.026341e+06 1.613349e+05 4.698415e+06 2.634274e-04 2.471019e-04 1.517422e-04 3.917640e-044 4.975386e+06 1.425630e+05 4.752790e+06 -3.012065e-04 -3.173135e-04 -9.290781e-05 4.472640e-045 4.923798e+06 1.238484e+05 4.806584e+06 1.383442e-04 1.972046e-04 -1.154244e-04 2.671172e-046 4.871586e+06 1.051946e+05 4.859789e+06 -2.433546e-06 -5.437147e-05 1.882873e-04 1.959957e-047 4.818754e+06 8.660454e+04 4.912400e+06 8.389354e-06 3.922460e-05 -1.760107e-05 4.380352e-058 4.765309e+06 6.808146e+04 4.964409e+06 3.549922e-05 -3.324106e-05 -1.091361e-04 1.194816e-049 4.711259e+06 4.962850e+04 5.015811e+06 -1.546741e-04 -3.849959e-05 4.471652e-05 1.655471e-0410 4.656609e+06 3.124876e+04 5.066599e+06 1.670225e-04 7.236802e-05 3.547780e-05 1.854516e-0411 4.601367e+06 1.294537e+04 5.116768e+06 -7.668231e-05 -3.899652e-05 -3.129989e-05 9.154555e-0512 4.545540e+06 -5.278616e+03 5.166310e+06 1.330767e-05 7.319951e-06 6.760471e-06 1.662467e-05max 2.634274e-04 2.471019e-04 1.882873e-04 4.472640e-04min -3.012065e-04 -3.173135e-04 -1.154244e-04 1.662467e-05moy -3.012065e-04 -3.173135e-04 -1.154244e-04 1.761098e-04
TAB. 6.1: Les résultats obtenus en utilisant les fonctions Matlab
6.2Déterm
ination
finedes
orbites
42
No x y z x − x y − y z − z EQR1 5.126331e+06 1.990383e+05 4.587946e+06 2.040993e-05 1.493006e-05 1.331978e-05 2.858126e-052 5.076658e+06 1.801611e+05 4.643465e+06 1.193387e-04 9.564584e-05 7.630885e-05 1.709178e-043 5.026341e+06 1.613349e+05 4.698415e+06 2.742223e-04 2.469788e-04 1.555271e-04 4.004811e-044 4.975386e+06 1.425630e+05 4.752790e+06 2.966104e-04 3.173510e-04 9.187125e-05 4.439930e-045 4.923798e+06 1.238484e+05 4.806584e+06 1.302212e-04 1.973078e-04 1.186198e-04 2.644969e-046 4.871586e+06 1.051946e+05 4.859789e+06 9.065494e-06 5.430369e-05 1.862328e-04 1.942003e-047 4.818754e+06 8.660454e+04 4.912400e+06 1.318287e-05 3.915146e-05 1.537148e-05 4.407842e-058 4.765309e+06 6.808146e+04 4.964409e+06 4.397519e-05 3.334413e-05 1.060106e-04 1.195152e-049 4.711259e+06 4.962850e+04 5.015811e+06 1.569893e-04 3.845637e-05 4.342012e-05 1.673614e-0410 4.656609e+06 3.124876e+04 5.066599e+06 1.572650e-04 7.249547e-05 3.163610e-05 1.760361e-0411 4.601367e+06 1.294537e+04 5.116768e+06 6.876327e-05 3.911005e-05 2.789497e-05 8.388154e-0512 4.545540e+06 -5.278616e+03 5.166310e+06 1.149252e-05 7.347316e-06 5.939044e-06 1.487728e-05max 2.966104e-04 3.173510e-04 1.862328e-04 4.439930e-04min 9.065494e-06 7.347316e-06 5.939044e-06 1.487728e-05moy 1.084614e-04 9.636850e-05 7.267933e-05 1.757017e-04
TAB. 6.2: Les résultats obtenus en utilisant les fonctions C
6.3 Fusion d’informations 43
6.3 Fusion d’informations
Dans nos travaux nous avons essayé de soustraire les franges orbitales et les franges
topographiques. Les régions étudiées, spécifiées par les Modèles Numériques de Terrain,
sont :
– la région de Chamonix (France) autour des glaciers Mer de Glace et Argentiére carac-
térisée par de grandes différences d’altitude. L’interférogramme de cette région con-
tient des franges orbitales (moins évidentes) et des franges topographiques (très évi-
dentes). La région de Chamonix est illustrée dans la figure 6.4.
– la région de Manaus (Brésil) caractérisée par la planéité du terrain. L’interférogramme
de cette région contient plutôt des franges orbitales que des franges topographiques.
La région de Manaus est illustrée dans la figure 6.5
FIG. 6.4: Le MNT de la région de Chamonix
6.3 Fusion d’informations 44
FIG. 6.5: Le MNT de la région de Manaus
Nos travaux se divisent en deux parties associées à la manière de traiter l’ensemble de
données utilisées. Le premier objectif a été de géolocaliser les images RSO. Dans ce cas,
nous voulons localiser le MNT dans l’image RSO et ainsi conaître, pour les points d’image
RSO qui appartiennent à la région imagée par le MNT, la latitude et la longitude. Nous
utilisons deux sources de données : les méta-données qui accompagnent les images RSO et
le MNT. Le deuxième objectif a été de calculer la déformation a priori liée à la topographie
et aux orbites. Dans ce cas nous utilisons trois sources de données : deux fichiers de méta-
données correspondants a deux images RSO,maître et esclave et unMNT. Dans la suite nous
présentons les algorithmes et les resultats obtenus dans les deux parties de nos travaux.
6.3 Fusion d’informations 45
6.3.1 Géolocalisation des images RSO
L’étape décrite dans la section 6.2 représente la partie initiale pour toutes les pistes que
nous avons essayé pendant le stage. Toutefois, nous nous sommes concentrés sur les images
acquises par le satellite TerraSAR-X, pour lesquelles on dispose des informations qui ont été
introduites dans la figure 6.1.
Les coordonnées de la trajectoire du porteur que nous obtenons dans la première étape
de traitement sont exprimées dans le référentiel terrestre cartésien tandis que tous les points
du MNT se trouve dans un système de projection lié à l’ellipsoïde WGS-84. Donc, dans une
première étape il faut que nous amenons les coordonnées des points du MNT dans le repère
cartésien.
La deuxième étape consiste a calculer pour chaque point du MNT sa projection sur la
trajectoire du porteur et on déduise également aussi le temps d’acquisition, c’est à dire l’in-
stant t sur la trajectoire où le point est vu par le satellite perpendiculairement à la trajectoire
(dans l’hypothèse dite "0 Doppler" où il y a pas de depointage de l’antenne). Pour arriver a
faire ça nous disposons :
– des coordonnées tridimensionnelles des points au solPij en considèrent le géoréférence-
ment du MNT
– la trajectoire émulée décrite par le couple (x, y, z, t)
Pendant le travail nous avons observé que la distance entre le point au sol Pij et chaque
point de la trajectoire par rapport au temps est une fonction quadratique comme illustré
dans la figure 6.6.
6.3 Fusion d’informations 46
FIG. 6.6: La fonction de distance entre le point au sol et la trajectoire
Cette hypothèse nous a permis d’implanter un algorithme de recherche du CPA - Closest
Point of Approach - très intuitif qui nous donne le minimum de la fonction en réalisant une
recherche dans l’ensemble de points de la trajectoires avec un pas de recherche de plus en
plus petit.
En sachant la distance entre le point au sol et sa projection sur la trajectoire aussi bien
que le temps d’acquisition du point au sol on peut facilement obtenir la position du point du
MNT dans l’image RSO. Ça sera possible parce que nous connaissons la fréquence d’échan-
tillonnage en range qui nous indique le pas en range et le temps d’acquisition de la première
colonne RSO et de la dernière colonne RSO.
L’organigramme de cette chaîne de traitement est présentée dans la figure 6.7
6.3 Fusion d’informations 47
FIG. 6.7: L’organigramme de module de géolocalisation d’image RSO
Pour vérifier les valeurs que nous avons obtenu, nous avons localisé dans l’image SAR
des cibles dont les coordonnées sont a priori connues. Les cibles que nous avons choisi sont
les coins réflecteurs dont les coordonnées sont données dans le tableau 6.3. Nous avons
obtenu des erreurs de quelques pixels de localisation, cf. tableau 6.3. La même expérience
a été répétée à partir des 5 points (4 coins et le centre de l’image) fournis dans les fichiers
.xml. On peut donc considérer que les images range et azimut, illustrées dans la figure 6.7
sont affectée par des erreurs négligeables.
Date Coordonnées Valeurs
Obtenus
Valeurs réelles Erreur
29.09.2008
Lat = 45.94161062N ligne = 8999 ligne = 9005 ∆ligne = 6
Long = 7.00493734E colonne = 9436 colonne = 9446 ∆colonne = 10
h = 2767 m
14.07.2009
Lat = 45.94176819N ligne = 14539 ligne = 14538 ∆ligne = 9
Long = 7.00450069E colonne = 12638 colonne = 12644 ∆colonne = 6
h = 2764 m
6.3 Fusion d’informations 48
TAB. 6.3: La vérité terrain pour géolocaliser une image SAR
Le résultats peuvent être vu dans la figure 6.9.
(a)
(b)
FIG. 6.8: Localisation du coin réflecteur installé sur le glacier d’Argentière dans les images TerraSAR-X (a) l’image acquise en 29.08.2009, (b) l’image acquise en 14.07.2009
Les images que nous avons obtenus en utilisant la chaîne de traitement décrite dans la
figure 6.7, dites LUT - Look-Up-Tables, sont utilisées pour permettre le passage entre les
6.3 Fusion d’informations 49
deux référentielles. Ces images constituent l’infrastructure pour le processus de rectifica-
tion radar pour obtenir des images géoreferences, elles fournissent les coordonnées radar
de chaque point au sol. Dans les images donnant l’azimut on peut observer les lignes de la
visée radar tandis que l’image de range contient la signature du relief (fig. 6.9(a)).
(a) (b)
FIG. 6.9: Localisation des points du MNT de Chamonix dans une image SAR (a) en range ; (b) enazimut
Une étape intermédiaire dans nos travaux a été d’obtenir des images de distance entre
chaque point du MNT et le point correspondant sur l’orbite (CPA). Cette valeur, si on con-
sidère aussi les information sur la première et la dernière colonne nous a permit d’obtenir
les indices en range des points du MNT. Si, en plus, on considère l’instant sur la trajectoire
où on voit les point du MNT, nous obtenons les en azimut, qui correspondent aux lignes de
visée radar. Les images de distance contiennent la signature du relief comme on peut l’ob-
server dans la figure 6.10 si nous faisons une comparaison entre l’image 6.10(a) et l’image
6.10(c). La région de Manaus est caractérisée par la planéité du terrain donc les distances
à la trajectoire varient d’une manière uniforme par rapport aux distances mesurées sur le
MNT de la vallée de Chamonix où les fortes différences d’altitude introduisent des fortes
différences en distances à la trajectoire.
6.3 Fusion d’informations 50
(a) (b)
(c) (d)
FIG. 6.10: La région de Chamonix (a) image de distance ; (b) image de temps ; La région de Manaus(c) image de distance ; (d) image de temps.
6.3.2 Calcules sur des couples d’images RSO
Undes objectifs de ce stage a été d’arriver à soustraire les franges orbitales et topographiques.
Dans ce cas, nous considérons deux images acquises dans des périodes différentes mais sur
des passes répétées : le satellite repasse pratiquement sur la même orbite a une distance
(baseline) qui varie de ± 150 m pour TerraSAR-X ou ± 1500 m pour RADARSAT-1, avec la
6.3 Fusion d’informations 51
Maître Esclave Valeurs fournies par Gamma Resultats
20060812 20061023 -369.9 -373.2120060812 20061116 -416.29 -419.820060812 20061210 193.11 195.7120060812 20070409 640.21 642.5320060812 20070527 732.47 735.6820060812 20070714 571.1 574.0820060812 20070924 -626.11 -631.3820060812 20071018 -458.72 -466.3620060812 20071111 -14.57 -36.820060812 20071205 -410.51 -414.5820060929 20061210 -644.03 -646.0320060929 20070409 -196.93 -197.6520060929 20070527 -104.67 -117.4720060929 20070714 -266.04 -272.0720061023 20061116 -46.39 -46.5920061023 20061210 563.01 565.1520061023 20070503 -614.16 -616.320061023 20070807 -419.97 -421.6520061023 20070924 -256.22 -258.1820061023 20071018 -88.82 -95.3620061023 20071111 355.32 356.5120061023 20071205 -40.61 -41.5820061116 20061210 609.4 611.6820061116 20070503 -567.77 -569.8920061116 20070807 -373.58 -375.1920061116 20070924 -209.83 -211.5820061116 20071018 -42.44 -52.13
TAB. 6.4: Les base perpendiculaires obtenues pour la région de Manaus avec des différentes couplesdes images
même orientation et la scène est vue des distances qui varient faiblement entre les acquisi-
tions, mais suffisamment pour créer des problèmes de recalage et des franges orbitales et
topographiques en InSAR.
Pour arriver à extraire les franges topographiques il faut que la baseline entre les deux
images n’introduise pas une altitude d’ambiguïté trop petite (pour éviter le problème d’alias-
ing), 4.1.2. Dans le tableau 6.4 nous présentons les valeurs que nous avons obtenus pour les
bases orthogonales pour la région deManaus. Pour la région deManaus les altitudes varient
entre 0 et 100 m donc il y a peut de franges topographiques. Dans les interférogrammes de
cette région, présentées dans la figure 6.13(b) les seules franges observables sont les franges
orbitales.
Dans le tableau 6.4 on trouve toujours une valeur plus grande en valeur absolue parce
que les valeurs qui sont fournis par le logiciel Gamma sont les valeurs obtenues pour "near
range". Par contre les valeurs obtenues en utilisant notre fonction correspondent au centre
de l’image.
6.3 Fusion d’informations 52
Pour observer les franges orbitales et topographiques il faut que nous calculons l’image
de différence des distances que nous avons introduit dans la section précédente. L’image
résultante contient les effets de la topographie, bien observables dans la région de Chamonix
sur les glaciers et sur la vallée de Chamonix et aussi les franges orbitales qui sont surtout
présentes dans la figure 6.3.2 qui correspond à la région de Manaus.
(a) (b)
FIG. 6.11: L’image de la différence des distances (a) région de Chamonix. (b) région de Manaus.
.
Maintenant nous pouvons obtenir l’interférogramme qui contient seulement les franges
topographiques et les franges orbitales. Cette images simulée doit être comparée avec la
vrai interférogramme qui résulte en différenciant les deux images RSO. L’interferogramme
est plus bruite parce qu’elle contient aussi les contributions de l’atmosphère et la contri-
bution que nous cherchons, du déplacement, mais nous pouvons encore repère les franges
topographiques sur les glaciers et au bord de la vallée de Chamonix et les franges orbitales,
bien observables sur l’interférogramme de Manaus.
6.3 Fusion d’informations 53
(a) (b)
(c) (d)
FIG. 6.12: La région de Chamonix acquise le 28.08.2008 et le 10.10.2008 (a) le MNT (b) l’interféro-gramme (c) l’interférogramme simulée (d) l’interférogramme simulée sur un terrain plat pour lememe couple.
.
6.3 Fusion d’informations 54
(a) (b)
(c)
FIG. 6.13: La région deManaus acquise le 29.09.2006 et le 27.05.2007 (a) le MNT (b) l’interférogrammesimulée (c) l’interférogramme simulée sur un terrain plat pour le meme couple.
.
Pour bien déceler les franges orbitales des franges topographiques sur la région de Cha-
monix on peut analyser l’image des franges orbitales que nous obtenons sur un MNT plat,
avec une altitude constante de 1000 m, que nous avons généré, 6.14(b).
6.4 Conclusion 55
(a) (b)
FIG. 6.14: (a)L’interférogramme sur la région de Chamonix pour le couple 2008.09.29 - 2008.10.10. (b)L’interférogramme simulée sur un terrain plat pour le meme couple..
Si nous observons les deux images résultats pour la région de Manaus, 6.13(b) et pour le
terrain plat, 6.14(b), on peut voir que elles se semblent très bien donc on peut conclure que
dans la région de Manaus on a plutôt des franges orbitales.
6.4 Conclusion
Les méthodes que nous avons proposées servent à l’analyse des franges orbitales et to-
pographiques dans une manière indépendante. Nous pouvons maintenant les extraire en
nous servant des images de différence de distance entre les points du MNT et les orbites.
En sachant la grandeur de la base perpendiculaire et la précision de MNT on peut pren-
dre la décision si pour un certain couple nous pouvons valider les résultats obtenus après
l’extraction des franges topographiques ou non.
En utilisant les images de range et azimut nous pouvons ensuite réaliser le récalage de
données.
7.1Form
atsdemeta-d
onnes
57
18823.5981031 4462731.96686455 1000533.88205218 5141711.71799737 5846.81199999999 -552.26900000000 -4954.0029999918830.1983386 4520923.73649014 994908.028225914 5091858.13684875 5791.42100000000 -572.87699999999 -5016.6130000018836.7985742 4578557.91410085 989076.836373121 5041381.50986397 5735.29399999999 -593.33600000000 -5078.6109999918843.3988098 4635627.18179380 983041.831560403 4990287.99391986 5678.43999999999 -613.63999999999 -5139.9889999918849.9990454 4692124.28949029 976804.570726169 4938583.82212789 5620.86399999999 -633.78599999999 -5200.7409999918856.5992810 4748042.06326728 970366.648983131 4886275.30331826 5562.57399999999 -653.77099999999 -5260.8569999918863.1995166 4803373.39806809 963729.694192429 4833368.82168166 5503.57700000000 -673.59199999999 -5320.3320000018869.7997522 4858111.26395112 956895.369470440 4779870.83204854 5443.88100000000 -693.24500000000 -5379.1580000018876.3999878 4912248.70488501 949865.373797074 4725787.86446139 5383.49399999999 -712.72599999999 -5437.3270000018883.0002234 4965778.84087320 942641.437102271 4671126.52199786 5322.42100000000 -732.03200000000 -5494.8320000018883.0002234 5018694.86589500 935225.324465837 4615893.47658046 5260.67299999999 -751.15999999999 -5551.6660000018883.0002234 5070990.05299783 927618.835865670 4560095.47320084 5198.25500000000 -770.10699999999 -5607.82200000
TAB. 7.1: Results obtained using Matlab
7.1 Formats de meta-donnes 58
7.1.2 Le format RSLC
Gamma Interferometric SAR Processor (ISP) - Image Parameter File
title: par_RSAT_SLC raw/20061210/LEA_01.001 slc/20061210.slc.par
raw/20061210/DAT_01.001 slc/20061210.slc
sensor: RSAT
date: 2006 11 16
start_time: 80470.073154 s
center_time: 80473.643460 s
end_time: 80477.213766 s
azimuth_line_time: 7.9685429e-04 s
line_header_size: 0
range_samples: 5790
azimuth_lines: 8962
range_looks: 1
azimuth_looks: 1
image_format: SCOMPLEX
image_geometry: SLANT_RANGE
range_scale_factor: 1.0000000e+00
azimuth_scale_factor: 1.0000000e+00
center_latitude: -3.1777296 degrees
center_longitude: -59.8693006 degrees
heading: -12.6439212 degrees
range_pixel_spacing: 4.638299 m
azimuth_pixel_spacing: 5.329375 m
near_range_slc: 1008778.4876 m
center_range_slc: 1022204.0441 m
far_range_slc: 1035629.6005 m
first_slant_range_polynomial: 0.00000 0.00000 0.00000e+00
0.00000e+00 0.00000e+00 0.00000e+00 s m 1 m^-1 m^-2 m^-3
center_slant_range_polynomial: 0.00000 0.00000 0.00000e+00
0.00000e+00 0.00000e+00 0.00000e+00 s m 1 m^-1 m^-2 m^-3
last_slant_range_polynomial: 0.00000 0.00000 0.00000e+00
0.00000e+00 0.00000e+00 0.00000e+00 s m 1 m^-1 m^-2 m^-3
incidence_angle: 41.6530 degrees
azimuth_deskew: ON
azimuth_angle: 90.0000 degrees
radar_frequency: 5.3000000e+09 Hz
adc_sampling_rate: 3.2317076e+07 Hz
chirp_bandwidth: 3.0299347e+07 Hz
7.1 Formats de meta-donnes 59
prf: 1254.934570 Hz
azimuth_proc_bandwidth: 900.00000 Hz
doppler_polynomial: -10092.48986 -1.34917e-02 4.44500e-08 0.00000e+00
Hz Hz/m Hz/m^2 Hz/m^3
doppler_poly_dot: 0.00000e+00 0.00000e+00 0.00000e+00 0.00000e+00
Hz/s Hz/s/m Hz/s/m^2 Hz/s/m^3
doppler_poly_ddot: 0.00000e+00 0.00000e+00 0.00000e+00 0.00000e+00
Hz/s^2 Hz/s^2/m Hz/s^2/m^2 Hz/s^2/m^3
receiver_gain: 0.0000 dB
calibration_gain: 60.0000 dB
sar_to_earth_center: 7173054.2675 m
earth_radius_below_sensor: 6378024.4999 m
earth_semi_major_axis: 6378137.0000 m
earth_semi_minor_axis: 6356752.3141 m
number_of_state_vectors: 9
time_of_first_state_vector: 80459.000000 s
state_vector_interval: 10.000000 s
state_vector_position_1: 3018792.7160 -6474459.7097 -651029.5209
m m m
state_vector_velocity_1: -1204.03002 -1290.85864 7340.95048
m/s m/s m/s
state_vector_position_2: 3006572.4184 -6486974.4624 -577633.3779
m m m
state_vector_velocity_2: -1238.24033 -1219.40710 7347.56808
m/s m/s m/s
state_vector_position_3: 2994010.9137 -6498776.2511 -504166.3912
m m m
state_vector_velocity_3: -1272.21883 -1147.76362 7353.39285
m/s m/s m/s
state_vector_position_4: 2981110.5524 -6509863.3316 -430636.2231
m m m
state_vector_velocity_4: -1305.96170 -1075.93600 7358.42413
m/s m/s m/s
state_vector_position_5: 2967873.7237 -6520234.0334 -357050.5604
m m m
state_vector_velocity_5: -1339.46513 -1003.93209 7362.66135
m/s m/s m/s
state_vector_position_6: 2954302.8550 -6529886.7590 -283417.1138
m m m
state_vector_velocity_6: -1372.72533 -931.75979 7366.10401
m/s m/s m/s
7.1 Formats de meta-donnes 60
state_vector_position_7: 2940400.4122 -6538819.9848 -209743.6181
m m m
state_vector_velocity_7: -1405.73855 -859.42703 7368.75168
m/s m/s m/s
state_vector_position_8: 2926168.8986 -6547032.2611 -136037.8321
m m m
state_vector_velocity_8: -1438.50107 -786.94177 7370.60404
m/s m/s m/s
state_vector_position_9: 2911610.8555 -6554522.2119 -62307.5387
m m m
state_vector_velocity_9: -1471.00919 -714.31205 7371.66082
m/s m/s m/s
Chapitre 8
Implementation Overview
This sections present some tools which were implemented during the elaboration of this
stage. The final goal was to permit the fusion of some different sources of information (as the
information provided by the meta-data accompanying the RSO images with the information
provided by the DEM). The twomain components are the parsers (a XML parser and a RSLC
parser) and the orbit propagator, described in detailed in section 8.1 and respectively 8.2.
The adjacent tools, functions and some generic considerations related to the design of the
processing chain are discussed in section ??.
8.1 Parsers
This section presents some tools which were implemented in order to permit a transpar-
ent work with metadata files provided with satellite products or that were generated using
different tools. The metadata formats supported are :
– .xml - which is the metadata file associated with TerraSAR-X products.
– .rsc - which is the metadata file generated using the ROI-PAC tool. The file should
contain seven columns. The first column contains the GPS time, the next three ones
contain the Cartesian coordinates of the satellite while the last three contain the veloc-
ity components.
– .rslc.par - which is the metadata file generated using the Gamma tool. It contains all
the information that we need in our work, presented in more detail in the section 8.2.
Some generic considerations related to the design of the processing chain are discussed
in section 8.1.1.
8.1.1 Processing Chain
The purpose is to implement a program able to generate a common format whichmay be
used in the next processing steps, this is the convergence in processing framework. For the
moment, the available EFIDIR tools are compatible with ROI-PAC file format. Themeta-data
may be provided as a XML file or as a RSLC file. We have created some tools that can extract
61
8.1 Parsers 62
the information available in a ROI-PAC file from XML and RSLC sources and present it in
a ROI-PAC format. We can imagine an operator that permits the convergence at this stage
described in the illustration 8.1.
FIG. 8.1: The functional diagram for the parsers usage.
Our work focuses on working with images provided by TerraSAR-X, therefore it was
necessary to implement some dedicated functions.We can address this in amodularmanner,
by considering two main objectives, one already mentioned and depicted in 8.1, the other
one being the extraction of some specific information from .xml files. The structure that can
summarize this approach is illustrated in the figure 8.2.
FIG. 8.2: The structure of the parsers concept.
We introduce the prototypes of the functions that perform the conversion between the
formats.
8.1.1.1 Conversion oriented parsing
For the beginning, the function which permits the conversion from XML to ROI-PAC :
void xml_2_roi_pac(char *data_in_file, char *data_out_file);
8.1 Parsers 63
is used in order to extract the values that resides in a ROI-PAC file from a XML file. Thus
*data_in_file is a XML file while *data_out_file is the ROI-PAC file obtained after
the parsing process.
Secondly, the function which ensures the conversion between RSLC format to ROI-PAC
format has the prototype :
void rslc_2_roi_pac(char *input_file, char *output_file);
As before, *input_file_name is the RSLC file, while *output_file is the ROI-PAC
file obtained after the parsing process.
8.1.1.2 Extraction oriented parsing
We introduce the signatures of the functions that perform the extraction of some specific
information from the .xml file.
General_xml_INFO get_general_xml_info (char *data_in_file);
The information and its signification are listed bellow :
1. nof_state_vectors - is the number of state vectors which resides in the .xml file.
2. nof_rows - is the number of rows of the SAR image.
3. nof_columns - is the number of columns of the SAR image.
4. time_gps_range_start - is the time stamp of the first row of the image.
5. time_gps_range_stop - is the time stamp of the last row of the image.
6. time_gps_fraction_start - is the fraction that should be added to the time_
gps_range_start in order to obtain the exact time of the acquisition start.
7. time_gps_fraction_stop - is the fraction that should be added to the time_gps_
range_range_stop in order to obtain the exact time of the acquisition end.
8. x_pos_antenna - is the x Cartesian dimension of the orientation of the antenna.
9. y_pos_antenna - is the y Cartesian dimension of the orientation of the antenna.
10. z_pos_antenna - is the z Cartesian dimension of the orientation of the antenna.
11. first_pixel - is the minimum range time of the entire scene.
12. last_pixel - is the maximum range time of the entire scene.
13. rsf - is the range sampling frequency
14. prf - is the pulse repetition frequency. It should be used to obtain the orbit emulation1
15. slant_range - is the pitch in slant.
16. spacing_azimuth - is the pitch in azimuth.
1For the programs that accept file formats other than xml there should be provided a parameter, this isdistance_between_points that is used to compute the number of points on the orbit. In those cases theprf is not considered.
8.2 Orbit Emulation 64
The prototype of the function that extracts the state vectors from the .xml file is :
State_vectors get_state_vectors_from_xml(
char *data_in_file,
General_xml_INFO gen_infos);
One can find interesting to hold the information extracted from a .xml or any other file in
another file .xml. To permit this we introduce a function having the prototype :
void write_general_informations_2_xml_file(
char *data_in_file,
int nof_state_vectors,
General_xml_INFO gen_infos,
State_vectors st_vect);
This function writes the values stored in the structures passed as parameters, gen_info
and st_vect respectively, in a .xml file. This function may be used even if the gen_info
structure is not available, by calling the function with a NULL value for the aforementioned
structure.
8.2 Orbit Emulation
This sections presents some tools which were implemented to permit the emulation of
the orbit in a very precise manner. This processing step assumes that the state vectors were
extracted in a previous processing stage in a file-format specific manner, this is, for .xml files
the position of the satellite embeds also the position of the antenna, while ROI-PAC and
RSLC files provide directly the position of the satellite.
Some generic considerations related to the design of the processing chain are discussed
in section 8.2.1.
8.2.1 Processing Chain
The purpose is to implement a tool which ensures the localization of the satellite in a
precise manner between two points well defined, with a approximated distance between
any two points decided by the user.
The approach we have considered is a polynomial regression in a least mean square
sense. Firstly, the coefficients of the polynomial are calculated. The degree of the polynomial
we use is 7. Secondly, the positions in all three dimensions are calculated. The framework is
depicted in the figure 8.3.
8.2 Orbit Emulation 65
FIG. 8.3: The functional diagram for the orbit emulation processing block.
We introduce the prototype of the function that performs the computation of the coeffi-
cients of the polynomial :
void polyfit(
double **x,
double **y,
int pol_deg,
int nof_stat_vec,
double *coefs);
The polynomial variable is x, and it should be computed in a previous step. The polyno-
mial values are stored in y. The values of the coefficients are stored in the variable coefs.
We can use this function to compute the coefficients for polynomials of different degrees,
but in our work we use the degree 7.
The prototype of the function that performs the estimation of the orbit, this is it calculates
the positions of the satellite in each dimension is given below :
void polyval(
double *coefs,
double **func_variable,
int pol_deg,
int nof_pairs,
double **func_value)
The coefficients computed using polyfit function are used to calculate the func_value,
this is the variable that stores the values of the position on one dimension. The points on the
orbit, this is the moments in time, are passed using func_variable. Before calling the
function the user should know the number of estimations and specify it using nof_pairs.
Both functions, polyval and polyfit should be used three times, one time for one
dimension as in the following example :
/* Compute the coefficients for each dimension, i.e. fit the polynomial*/
polyfit(st_vectors->x_pos, time_e, POL_DEG + 1, nof_st_vectors, coefs_x);
polyfit(st_vectors->y_pos, time_e, POL_DEG + 1, nof_st_vectors, coefs_y);
polyfit(st_vectors->z_pos, time_e, POL_DEG + 1, nof_st_vectors, coefs_z);
8.3 Geo-localisation in SAR Images 66
/* Interpolate on each dimension */
polyval(coefs_x, time_d, POL_DEG, nof_estim, estim->x_estim);
polyval(coefs_y, time_d, POL_DEG, nof_estim, estim->y_estim);
polyval(coefs_z, time_d, POL_DEG, nof_estim, estim->z_estim);
The user should be interested in doing this only if the propagation scenario is other than
the one imagined for the function orbit_propagation having the prototype :
Estimators orbit_propagation(
int nof_estim,
int nof_st_vectors,
State_vectors st_vectors,
double **time_e,
double **time_d)
This function fills a structure, Estimators, containing all the positions on all three di-
rections and also the normalized time, which is the same with time_d. This is the core
function of this processing stage in our approach.
8.3 Geo-localisation in SAR Images
This section presents some tools which were implemented to permit the geo-localisation
of SAR images in a precise manner. The processing step assumes that the trajectory of the
satellite is drawn using the principle described in the section 8.2.1. The geo-localisation of
SAR images consists some intermediary steps as the CPA computation for each point of a
certain DEM. This framework was designed to be compatible with all metadata files enu-
merated in the section 8.1 but some features are available only for TerraSAR-X product.
Some generic considerations related to the design of the processing chain are discussed
in section 8.3.1.
8.3.1 Processing Chain
The purpose is to implement a tool which ensures the geo-localisation, this is the map-
ping between a SAR image and a certain DEM. In order to accomplish this objective we
should localize each point of the DEM, both in time and Cartesian position, on the trajectory
described by the satellite. This aspect results in some artifacts of our approach, the range
image and the azimuth images.
The engine of this approach is a searching algorithm which looks for the CPA of a point
on the DEM on the drawn trajectory. The algorithm is a pseudo-selective one in a step-by-
step sense. This is, it decreases the boundaries of the searching interval by decreasing the
pitch of searching on every searching step.
An overview of the framework is given in the figure 8.4.
8.3 Geo-localisation in SAR Images 67
FIG. 8.4: The functional diagram for the SAR localisation processing block.
There are also some intermediate artifacts that can be obtained using the functions we
have implemented during this workout. The most important are the distance image and the
time of acquisition image considering the entire orbit. In order to compute the range and
azimuth images we consider only the acquisition interval.
We introduce the prototype of the function that computes the distance to the CPA :
traj_dist_in_time min_distance_point_traj(
int nof_estim,
coord_3d mnt_point,
Estimators estim)
This function localizes the CPA on a specific orbit, estim, for a specific point of the DEM,
mnt_point.
The functions used to generate the main artifacts of this processing stage are :
– azimuth_SAR - computes the lines of SAR image mapped on the current DEM
– range_SAR - computes the columns of SAR image mapped on the current DEM
The prototype of the function that generates the image of range is :
void range_SAR(
double firstPixel,
double lastPixel,
double rsf,
int ignored_val,
int nof_estim,
Estimators estim,
EFIDIRImage imMNT,
EFIDIRImage rangeImage)
This function generates the image of range considering some constraints that should be
provided, those are, firstPixel specifies the first column of the SAR image, lastPixel
specifies the last column of the SAR image, rsf is the range sampling frequency, estim is
8.4 Processing over Pairs of Images 68
the trajectory on which the estimation of the trajectory of the satellite of the current track,
imMNT is the imaged scene. Some of information related to the acquisition process are di-
rectly available for the TerraSAR-X product.
The prototype of the function that generates the image of azimuth is :
void azimuth_SAR(
int ignored_val,
int nof_estim,
Estimators estim,
EFIDIRImage imMNT,
EFIDIRImage acq_timeImage)
This function generates the image of azimuth, acq_timeImage for a specific orbit,
estim on a specific DEM, imMNT.
8.4 Processing over Pairs of Images
This section presents some tools which were implemented to facilitate the working with
pairs of satellite images. The processing step assumes that the trajectory of the satellite is
drawn using the principle described in the section 8.2.1. This processing stage permits to
compute some information characteristic to couples of images like the orthogonal baseline,
simple baseline or incidence angles. In order to accomplish this we do not consider any
specific processing chain.
Chapitre 9
Usage examples
In this section, excerpts from two basic examples are listed and commented, in order to
illustrate a usage model.
9.1 Parsers Usage
Define the input and output files as parameters of the program. This is handled by
EFIDIR functions :
define_param("input_file", STRING, "Input file: ", "(INPUT file)");
define_param("output_file", STRING, "Output rsc file: ", "(OUTPUT file)");
Retrieve the values provided by the user, operation handled also by EFIDIR functions :
input_file_name = get_string_value_param("input_file");
output_rsc_file_name = get_string_value_param("output_file");
Use either xml_2_roi_pac or rslc_2_roi_pac to generate the ROI-PAC file.
xml_2_roi_pac(input_file_name, output_rsc_file_name);
rslc_2_roi_pac(input_file_name, output_rsc_file_name);
The output file shall be created (it does not exist, otherwise overwritten) in the path spec-
ified as parameter for the output file. One should pay attention because the .rsc extension
is not added automatically, and should be provided by the user.
9.2 Orbit Emulation Usage
Define the input and output files as parameters of the program. This is handled by
EFIDIR functions :
define_param("file_type", INT, "Type of file:\n
0->xml file\n
1->ROI_PAC file\n
69
9.2 Orbit Emulation Usage 70
2->RSLC file", "(INPUT parameter)");
define_param("dist_between_points", DOUBLE,
"Approximation for the distance between orbit points: ",
"(INPUT parameter)");
define_param("ignored_val", INT, "The value in the mnt that
should be ignored: ", "(INPUT parameter)");
define_param("input_master_file", STRING,
"Input file for the master orbit: ",
"(INPUT file)");
define_param("input_slave_file", STRING,
"Input file for the slave orbit: ", "(INPUT file)");
define_param("mnt", STRING,
"Input mnt file: ", "(INPUT mnt file)");
define_param( "distance_offset", STRING,
"The image of distance offset between the master and slave images: ",
"OUTPUT image file");
Retrieve the values provided by the user, operation handled also by EFIDIR functions :
file_type = get_int_value_param("file_type");
dist_between_2_points = get_double_value_param("dist_between_points");
ignored_value = get_int_value_param("ignored_val");
input_file_master_file = get_string_value_param("input_master_file");
input_file_slave_file = get_string_value_param("input_slave_file");
input_mnt = get_string_value_param("mnt");
name_offset_img = get_string_value_param("distance_offset");
Get the state vectors from the file provided. One should not allocate memory for them
because this is handled internally in the functions that extract them.
If the input file is a XML file then you should follow the steps :
General_xml_INFO gen_info_master = get_general_xml_info(
input_file_master_file);
/* Update the nof_state_vectors variable */
nof_st_vectors_master_orbit = gen_info_master->nof_state_vectors;
/* Get the state vectors from the xml file */
st_vectors_master_orbit = get_state_vectors_from_xml(
input_file_master_file, gen_info_master);
If the input file is a ROI-PAC file then the following steps should be performed :
/* Update the nof_state_vectors variable */
nof_st_vectors_master_orbit = nb_lines(input_file_master_file);
9.2 Orbit Emulation Usage 71
/* Get the state vectors from the ROI-PAC file */
st_vectors_master_orbit = get_state_vectors_from_roi_pac(
input_file_master_file);
If the input file is a RSLC file one should pay attention because there is no specific func-
tion which extract the state vectors from it, but he may first generate the ROI-PAc file and
afterwards extract them from the resulting file.
char input_file_master_rsc[256];
/* Copy the name of the input master file */
strcpy(input_file_master_rsc, input_file_master_file);
/* Add the rsc extension */
strcat(input_file_master_rsc, ".rsc");
/* Convert the rslc files to ROI-PAC */
rslc_2_roi_pac(input_file_master_file, input_file_master_rsc);
/* Update the nof_state_vectors variable */
nof_st_vectors_master_orbit = nb_lines(input_file_slave_rsc);
/* Get the state vectors from the ROI-PAC file */
st_vectors_master_orbit = get_state_vectors_from_roi_pac(
input_file_master_rsc);
Compute the number of estimators that will be used based on the value of the parameter
dist_between_2_points.
nof_estims_master_orbit = compute_nof_points_on_orbit(
dist_between_2_points,
nof_st_vectors_master_orbit,
st_vectors_master_orbit);
Compute the variables of the polynomial for both the polynomial fitting and for polyno-
mial interpolation.
time_e_master_orbit = get_polynomial_variable_4_coeffs(
st_vectors_master_orbit,
nof_st_vectors_master_orbit);
time_d_master_orbit = get_polynomial_variable(
st_vectors_master_orbit,
nof_estims_master_orbit,
nof_st_vectors_master_orbit);
Propagate the orbit using the previous obtained values for the variables :
9.3 Orbit Computations Usage 72
estim_master_orbit = orbit_propagation(
nof_estims_master_orbit,
nof_st_vectors_master_orbit,
st_vectors_master_orbit,
time_e_master_orbit,
time_d_master_orbit);
9.3 Orbit Computations Usage
In this case the first steps should be those followed in order to compute the orbit, but
now considering two orbits, the master one and the slave one. Afterwards one should load
the DEM, using the functions already implemented in EFIDIR :
imMNT = read_image_open(input_mnt);
read_image_data(imMNT);
Allocate memory for the master and slave distance images and time of acquisition im-
ages. One should pay attention because if he want to save the images on the disk it should
consider to convert the resulting images to float.
MasterDistImg = (EFIDIRImage) new_image(imMNT->nr, imMNT->nc,
DATA_TYPE_DOUBLE);
MasterTimeImg = (EFIDIRImage) new_image(imMNT->nr, imMNT->nc,
DATA_TYPE_DOUBLE);
SlaveDistImg = (EFIDIRImage) new_image(imMNT->nr, imMNT->nc,
DATA_TYPE_DOUBLE);
SlaveTimeImg = (EFIDIRImage) new_image(imMNT->nr, imMNT->nc,
DATA_TYPE_DOUBLE);
Generate the images of distance and time.
distance_MNT_orbit(ignored_value, nof_estims_master_orbit,
estim_master_orbit, imMNT,
MasterDistImg, MasterTimeImg);
distance_MNT_orbit(ignored_value, nof_estims_slave_orbit,
estim_slave_orbit, imMNT,
SlaveDistImg, SlaveTimeImg);
Convert the image represented in double precision to a float, simple precision.
for (i = 0; i < imMNT->nr; i++)
for (j = 0; j < imMNT->nc; j++)
distance_offset_img->fl[i][j] =
9.3 Orbit Computations Usage 73
(float) tempDiffImg->db[i][j];
Georeference the resulting images :
info_map = get_image_param(imMNT, "map info");
set_image_param(distance_offset_img, "map info", info_map);
Write and close the resulting images :
/* Write and close the offset image */
write_image_data(distance_offset_img);
write_image_close(distance_offset_img);
If the image is a temporal one then one should not forget to free the memory before exit
the program :
/* Write and close the offset image */
free_image(tempDiffImg);
Those examples may be founded also in the srcsarlut_mains directory as : xml_or_
rslc_2_roi_pac.c that can be also used in order to convert any XML or RLSC file to
ROI-PAC file, compute_dist_diff_between_2_orbits.c which can be used to com-
pute the difference between the images of distance associated with two orbits, generate_
dist_time_img.cwhich can be used in order to compute the images of distance and time
for a specific orbit and base_line which can be used in order to generate the orthogonal
baseline image for a pair of orbits.
Liste des tableaux
2.1 Les avantages et les désavantages des images radar et optiques . . . . . . . . 5
2.2 Les bandes utilisées en radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Les caractéristiques du capteurs TerraSAR-X . . . . . . . . . . . . . . . . . . . 11
2.4 Les caractéristiques du capteurs RADARSAT-1 . . . . . . . . . . . . . . . . . . 12
3.1 Les sources d’erreurs dans le processus de calcul du MNT. . . . . . . . . . . . 19
6.1 Les résultats obtenus en utilisant les fonctions Matlab . . . . . . . . . . . . . . 41
6.2 Les résultats obtenus en utilisant les fonctions C . . . . . . . . . . . . . . . . . 42
6.3 La vérité terrain pour géolocaliser une image SAR . . . . . . . . . . . . . . . . 48
6.4 Les base perpendiculaires obtenues pour la région de Manaus avec des différentes couples des images
7.1 Results obtained using Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
74
Table des figures
2.1 L’acquisition des images RSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Distorsions géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.1 La structure du produit TerraSAR-X . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 La structure de meta-données utilisées . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 La structure du produit RADARSAT-1 . . . . . . . . . . . . . . . . . . . . . . . 17
3.4 Les étapes suivies pour obtenir un MNT . . . . . . . . . . . . . . . . . . . . . . 19
4.1 L’évolution de la baseline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 La relation entre la différence de chemin et l’altitude . . . . . . . . . . . . . . . 22
5.1 La relation entre les vecteurs représentatifs . . . . . . . . . . . . . . . . . . . . 26
5.2 Les paramètres de l’ellipse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.3 L’anomalie excentrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.4 Le système équatorial de coordonnées . . . . . . . . . . . . . . . . . . . . . . . 31
5.5 Les angles representatifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.6 Les modèles terrestres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.1 Les informations extraites d’un fichier .xml . . . . . . . . . . . . . . . . . . . . 36
6.2 La configuration du module d’estimation de l’orbite . . . . . . . . . . . . . . . 40
6.3 Les résultats obtenus avec le logiciel DORIS . . . . . . . . . . . . . . . . . . . . 40
6.4 Le MNT de la région de Chamonix . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.5 Le MNT de la region de Manaus . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.6 La fonction de distance entre le point au sol et la trajectoire . . . . . . . . . . . 46
6.7 L’organigramme de module de géolocalisation d’image RSO . . . . . . . . . . 47
6.8 Localisation du coin réflecteur installé sur le glacier d’Argentière . . . . . . . 48
6.9 Localisation des points du MNT de Chamonix dans une image SAR . . . . . . 49
6.10 Des artefacts pour la région de Chamonix . . . . . . . . . . . . . . . . . . . . . 50
6.11 Des images de la différence des distances . . . . . . . . . . . . . . . . . . . . . 52
6.12 Région de Chamonix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.13 Région de Manaus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.14 Interférogrammes sur la région de Chamonix . . . . . . . . . . . . . . . . . . . 55
75
TABLE DES FIGURES 76
8.1 Parsers configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8.2 The modular structure of parsers . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8.3 The functional diagram for the orbit emulation processing block . . . . . . . . 65
8.4 The functional diagram for the SAR localisation processing block . . . . . . . 67
List of Abbreviations
CPA - Closest point of approach
RSO - Radar à synthèse d’ouverture
SAR - Synthetic aperture radar
PRF - Pulse repetition frequency
RSF - Range sampling frequency
COSAR - Complex Synthetic aperture radar
MSB - Most Significant Bit
MNT - Modèle numérique de terrain
WGS - World Geodetic System
77
Bibliographie
[1] Ivan Pétillot, Combinaison d’informations hétérogènes : intégrations d’images RSO pour la
surveillance des glaciers alpins, Thèse de doctorat, Université de Savoie, Annecy, France,
Décembre 12 2008. 4, 5, 6, 9, 13, 18, 19, 25, 33, 34
[2] Gabriel Vasile, Imagerie Radar à Synthèse d’Ouverture interférométrique et polarimétrique.
Application au suivi des glaciers alpins, Thèse de doctorat, Université de Savoie, Annecy,
France, Juillet 20 2007. 4, 5, 20
[3] Oliver Montenbruck, Eberhard Gill, Satellite Orbits, Models, Methods and Applications,
Springer, pp. 3-46, 2000. 25, 26, 27, 28, 29, 30, 31, 35
[4] Jean-Marie Nicolas, Projet EFIDIR, SP1/WP1 : Recalage et rééchantillonage d’images com-
plexes, 2010. 5, 6, 25, 26, 27, 28, 30, 31, 33
[5] Sarah H. Parcak, Satellite Remote Sensing for Archaeology, Routledge, 2009.
[6] Jean-Marie Nicolas, Satellite Remote Sensing for Archaeology, 2010.
[7] R. Abdelfattah, J.M. Nicolas, M.R. Boussema, Impact of orbital parameters on DEM pro-
duction by SAR interferometry, 2000.
[8] James B. Campbell, Introduction to remote sensing, pp. 5-6, 2002. 13
[9] Sébastien Leprince, Sylvain Barbot, François Ayoub, Jean-Philippe Avouac, Auto-
matic and Precise Ortorectification, Coregistration and Subpixel Correlation of Satellite Images,
Application to Ground Deformation Measurements, 2007. 19
[10] T.T. Soong, Fundamentals of probability and statistics for engineers, pp. 335-341, 357-359,
2004. 37
[11] Douglas c. Montgomery, George C. Runger, Applied Statistics and Probability for Engi-
neers, pp. 447, 2003. 37
[12] Didier Massonet, Kurl Feigl Radar interferometry and its applicationto changes in the
Earth’s surface, Reviews of Geophysics, 36, 4, November 1998, pp. 441-500 3, 8, 20, 21,
22, 24
[13] Thomas Sjögren Development and evaluation of SAR Algorithms for image formation and
speed estimation in wideband SAR, Blekinge Institute of Technology Licentiate Disserta-
tion Series No.1010 :01, 2010, pp. 1-6 5, 6
[14] Emmanuel Trouvé, Imagerie interférentielle en radar à ouverture synthetique, Thèse de doc-
torat, Telecom Paris, Paris, France, Juillet 19 1996. 8, 20, 22, 23
78
BIBLIOGRAPHIE 79
[15] Renaud Fallourd, Olivier Harant, Emmanuel Trouvé, Jean-Marie Nicolas, Michel
Gay, Monitoring temperate glaciers by multi-temporal TerraSAR-X images and continuous
GPS measurements IEEE Journal of Selected Topics in Applied Earth Observations and
Remote Sensing, 2010, draft. 8, 10, 20
[16] TerraSAR-X Ground Segment Basic product specification Document, 2005 10
[17] TerraSAR-X Ground SegmentLevel 1b Product Format Specification, 2007