habilitation a diriger des rechercheshydrologie.org/the/arnaud_p_hdr.pdf · stochastique de...
TRANSCRIPT
Ecole Doctorale 251 – Sciences de l’Environnement
HABILITATION A DIRIGER DES
RECHERCHES
« L’aléa hydrométéorologique : estimation régionale
par simulation stochastique des processus »
CV Détaillé - Liste de publications - Manuscrit détaillé
HDR présentée par Patrick Arnaud à Aix-Marseille Université devant le jury :
Olivier BELLIER Professeur – HDR, Cerege – OSU Pytheas, AMU Président
Eric GAUME ICPEF - HDR, IFSTTAR, Nantes Rapporteur
Catherine FAVRE Professeur – HDR, Ense3, Grenoble Rapporteur
Roger MOUSSA Directeur de Recherche – HDR, INRA, Montpellier Rapporteur
Michel LANG IDEA – HDR, Irstea, Lyon Examinateur
Pierre RIBSTEIN Professeur – HDR, UMR Sisyphe, Paris VI Examinateur
Irstea – Centre d’Aix-en-Provence
RESUME
Issu d’une formation d’ingénieur en Sciences de l’Eau, je me suis orienté vers la recherche en
effectuant une thèse en hydrologie au Cemagref d’Aix-en-Provence portant sur une méthode
originale de prédétermination des crues, basée sur la simulation stochastique de pluies horaires.
Après quatre années en tant qu’enseignent-chercheur (ATER à l’Université Montpellier II puis
Maitre de Conférences à l’Ecole Nationale du Génie de l’Eau et de l’Environnement de Strasbourg),
j’ai réintégré le Cemagref, devenu aujourd’hui l’Irstea, pour poursuivre mes recherches sur l’étude
des risques hydrologiques associés aux événements extrêmes (de crues) à travers deux thématiques
principales que sont la prévention (ou prédétermination) et la prévision.
Depuis 2011, j’ai pris en charge l’animation et la programmation scientifique de l’équipe
Hydrologie, ainsi que de sa programmation et son suivi budgétaire. L’équipe est composée de 5
permanents (dont 4 chercheurs) et complétée par un effectif moyen annuel de 4 CDD de longue
durée (plus d’un an), de 3 thésards et de stagiaires.
Au cours de ces années, l’objectif de mes recherches a été de développer des approches
permettant d’appréhender au mieux l’aléa hydrométéorologique de l’ensemble d’un territoire. Ces
approches sont basées sur la modélisation des processus, en particulier de la relation pluie-débit.
Initialement complexes, ces approches ont cependant une finalité opérationnelle forte. Pour cela, un
compromis entre efficacité, robustesse et transposabilité des modélisations a été recherché, afin
d’aboutir à des méthodologies plus facilement régionalisables et applicables en sites non
instrumentés. Cette philosophie est un principe commun aux recherches développées par l’équipe et
auxquelles je participe en tant qu’animateur de l’équipe. Ces recherches concernent la
prédétermination et la prévision des crues et des étiages. Cependant, pour plus de concision, je
n’aborderai ici que la thématique de la prédétermination des crues extrêmes qui représente mon
champ d’investigation principal.
La problématique de la prédétermination des crues réside dans le besoin d’extrapoler en
fréquence et d’extrapoler dans l’espace un phénomène aléatoire très variable et relativement peu
observé par rapport à sa variabilité. Cette problématique est abordée ici par la modélisation et la
simulation des phénomènes, réalisées à partir de deux outils de modélisation : un générateur
stochastique de chroniques de pluies horaires et une modélisation hydrologique conceptuelle
permettant de transformer la pluie en événements de crues. Du couplage de ces modèles résulte une
méthode originale de prédétermination des crues extrêmes, la méthode SHYPRE (Simulation
d’Hydrogrammes pour la PREdétermination des crues) appartenant à la famille des méthodes dites
par simulation. Le développement de cette méthode est passé par les différentes étapes suivantes,
énumérées rapidement dans ce résumé et développées dans le manuscrit détaillé consacré à cet
aspect de mes recherches : un discours sur une méthode...
Recherches liées au développement de la méthode :
Développement d’un générateur stochastique de pluies horaires (§ B.1) : « pierre
angulaire » de la méthode, le générateur de pluies horaires a été initialement développé dans la
thèse de Cernesson [1993; 1996] sur des données méditerranéennes. La généralisation de son
champ d’application sur des données provenant de régimes climatiques différents a nécessité
des développements supplémentaires remettant en cause certaines hypothèses initiales [Arnaud,
1997; Patrick Arnaud and Jacques Lavabre, 1999a; b; Arnaud et al., 1999; Arnaud et al.,
2007]. L’utilisation de nouveaux outils mathématiques, tels que les copules, ont permis
d’affiner la prise en compte de dépendances entre des variables du modèle [Cantet, 2009;
Cantet and Arnaud, 2014] impactant le comportement du modèle vers les valeurs extrêmes.
Mise en œuvre régionale du générateur de pluie (§ B.2) : cette phase est primordiale pour
obtenir une information régionale sur l’aléa pluviométrique à pas de temps fins. Une descente
d’échelle temporelle statistique est réalisée en paramétrant le générateur de pluie horaire par
une information journalière. La plus grande disponibilité de l’information de pluies journalières
permet alors de faire reposer la régionalisation de l’approche sur une densité de points
d’observation plus dense, rendant cette régionalisation plus performante [Arnaud et al., 2006;
Arnaud et al., 2008a]. L’application et la régionalisation de la méthode ont été réalisées sur le
territoire national métropolitain et outre-mer (plus de 3000 postes étudiés) pour aboutir à une
base de données unique sur l’aléa pluviographique en France, à pas de temps fins [Arnaud and
Lavabre, 2010].
Le couplage avec une modélisation hydrologique parcimonieuse (§ C.1) : une modélisation
hydrologique a été choisie pour répondre à différents critères : modélisation des crues au pas de
temps horaire et fonctionnement événementiel (en période de crue), faible paramétrisation et
bonnes performances [Arnaud and Lavabre, 2002]. Le comportement asymptotique du modèle
(saturation progressive pour des pluies extrêmes) et les problèmes d’équifinalité ont aussi été
abordés au cours de la thèse de Yoann Aubert [2012]. Les hypothèses retenues conduisent à
une modélisation hydrologique à trois paramètres permettant de construire des scénarios de
crues statistiquement équivalents aux observations, et fournissant une information temporelle
complète disponible pour l’estimation de l’aléa (pointe, volume,…) mais aussi pour un
couplage avec d’autres modélisations (hydraulique par exemple).
Régionalisation de l’approche hydrologique (§ C.2) : la nature ponctuelle des pluies simulées
par le générateur et les difficultés liées à la régionalisation du modèle hydrologique ont conduit
à une simplification de l’approche appliquée dans le cadre régionale. Cette approche régionale
a été étudiée au cours de la thèse de Catherine Fouchier [2010] et approfondie au cours de celle
de Yoann Aubert [2012]. Ces travaux ont aboutit à la mise en œuvre de la méthode régionalisée
(SHYREG) sur l’ensemble du territoire français [Yoann Aubert et al., 2014; Organde et al.,
2013], produisant in fine une base de données nationale sur l’aléa hydrologique.
Recherches liées à la mise en œuvre de la méthode :
Analyse des performances/Benchmarking (§ B.5) : l’analyse des performances de la méthode
est nécessaire à la fois pour entrevoir les marges d’améliorations, mais aussi pour justifier son
développement par rapport aux autres méthodes disponibles en recherche et en opérationnel.
Ces comparaisons ont été initiées dès le développement de la méthode [Neppel et al., 2007b;
Tchiguirinskaia et al., 2008], et largement étendues dans le cadre d’un projet de recherche
ANR visant une inter-comparaison nationale des méthodes de prédétermination des crues
(projet ANR Extraflo - https://extraflo.cemagref.fr/ 2009-2013) ([Patrick Arnaud et al., 2014b;
Carreau et al., 2013; Kochanek et al., 2013; B. Renard et al., 2013; Veysseire et al., 2011]).
Les conclusions de ce projet ont mis en évidence de l’intérêt de l’approche pour ces qualités de
justesse et de robustesse dans ces estimations des valeurs extrêmes.
Détermination des incertitudes (§ B.3) : la complexité de la méthode peut laisser penser
qu’elle ait du mal à se caler, et par là, conduire à de fortes incertitudes. Dans un premier temps
ce sont les incertitudes sur les estimations fournies par le générateur de pluie qui ont été étudiée
dans la thèse de Aurélie Muller [Muller, 2006; Muller et al., 2009], dans un cadre bayésien par
des approches de type MCMC. Ces travaux ont montré que les intervalles de confiance de la
méthode développée étaient plus restreints que ceux des méthodes statistiques classiques, de
par une paramétrisation basée sur des valeurs moyennes. Des travaux sur la propagation des
incertitudes à travers les différentes étapes de modélisation ont été réalisé sur l’approche calée
localement [P. Arnaud et al., 2014], afin d’estimer les incertitudes sur les quantiles de débits
proposés. Un travail de thèse en cours, approfondit cette question sur l’approche régionalisée.
Changement climatique (§ B.4) : l’impact du changement climatique sur l’estimation des
valeurs extrêmes a été étudié à travers le « prisme » du générateur de pluie, dans le cadre du
travail de thèse de Philippe Cantet [Cantet, 2009; Cantet et al., 2011]. L’originalité de ce
travail a été d’étudier la stationnarité des pluies extrêmes à travers celle des paramètres du
générateur, définis par des valeurs moyennes moins fortement soumises aux problèmes
d’échantillonnage. Ce même générateur a aussi été calé sur des chroniques de pluies
journalières issues de projections climatiques, aux horizons 2050 et 2100. L’utilisation du
générateur de pluies permet de prendre en compte la non-linéarité entre les précipitations
moyennes et les précipitations extrêmes, non-linéarité difficilement appréhendée par les
modèles climatiques.
Couplage à une modélisation hydraulique (§ C.3.3) : l’intérêt de la méthode de
prédétermination basée sur la simulation est de proposer de multiples scénarios de crues à partir
desquels les distributions de fréquences de diverses caractéristiques liées aux crues peuvent être
extraites. L’utilisation de ces scénarios permet d’étudier de façon relativement exhaustive le
comportement des ouvrages hydrauliques soumis à l’aléa hydrologiques [Carvajal et al.,
2009a; Lavabre et al., 2009] et d’en déduire facilement la distribution de fréquence de leur
défaillance [Arnaud and Aubert, 2014].
L’approche complète, développée par ces différents travaux de recherche, a été mise en œuvre
sur le territoire nationale Français (Métropole et DOM) pour répondre à une demande
opérationnelle croissante de connaissance des aléas liés aux phénomènes hydrométéorologiques
extrêmes. Ce travail a conduit à l’élaboration d’une base de données, mise à disposition des services
de l’état dans le cadre de la mise en œuvre de la Directive Inondation, montrant ainsi l’intérêt de ce
travail de recherche, répondant à la demande de connaissances généralisées sur l’aléa hydrologique.
Des limites liées à la méthode ont aussi étaient déterminées. Des améliorations sont donc
attendues et nécessitent des investigations plus poussées sur les différentes étapes de sa conception.
Parmi ces développements futurs, devant faire l’objet de recherches supplémentaires, il y a :
- La modélisation de bassins au comportement spécifique : les hypothèses de simplification
nécessaires à une mise en œuvre régionale, conduisent à négliger certains processus et à les
modéliser de façon unique, que ce soit dans la modélisation des pluies ou dans la modélisation
de la relation pluie-débit. Des recherches sont donc à réaliser pour mieux prendre en compte
des particularités tels que la typologie des pluies, les échanges nappes-rivières, la fonte nivale
pouvant influer les débits de crues, les fonctionnements karstiques, la prise en compte de
l’abattement hydraulique des champs d’expansion des crues,…
- La descente d’échelle temporelle : le passage à des pas de temps infra-horaires, par des
méthodes de désagrégation de la pluie horaire par exemple, permettra d’adapter l’approche
aux problématiques de l’hydrologie urbaine ou à l’hydrologie des petits bassins montagneux
(crues et laves torrentielles, problème d’érosion,…). La modélisation hydrologique sera aussi
revue pour mieux mettre en avant la sensibilité des bassins à l’intensité des pluies sur des pas
de temps plus petits. Cette descente d’échelle temporelle étant liée à l’étude de bassins
versants de plus en plus petits, des questions relatives à la détermination régionale de la
relation pluie-débit se poseront, avec la recherche de descripteurs pertinents pour la
régionalisation.
- La prise en compte de la non-stationnarité : dans le contexte du changement climatique, les
scénarios fournis par les climatologues peuvent être intégrés dans le générateur de pluie et
être traduits en termes d’évolution du risque hydrologique. La complexité des processus et
leur interaction doivent être étudiées pour réduire les incertitudes liées à des hypothèses
simplificatrices trop fortes. Cela concerne la genèse des pluies, mais surtout la relation pluie-
débit qui va être directement influencée par la pluie mais aussi par les autres variables
climatiques impactant l’état hydrique des sols avant la crue.
- L’étude des incertitudes : les travaux menés sur les incertitudes associées au générateur de
pluie sont à poursuivre pour évaluer les incertitudes associées à la modélisation hydrologique
et aux hypothèses simplificatrices associées, en particulier pour l’approche régionalisée.
L’intérêt, et les performances, que présente l’approche par simulation des processus pour
l’étude de l’aléa hydrologique, nous poussent à poursuivre nos recherches en ce sens. De plus, des
interactions fortes avec les autres recherches effectuées par l’équipe nous font avancer dans le
domaine de la connaissance des risques hydrologiques en milieux non jaugés (prédétermination des
étiages et la prévision des crues rapides). Les résultats de ces recherches présentent un intérêt aussi
pour d’autres discipline nécessitant la connaissance de l’aléa hydro-climatique comme variable de
forçage (hydraulique, hydrobiologie, transfert de polluants,…)
1
Ecole Doctorale 251 – Sciences de l’Environnement
HABILITATION A DIRIGER DES RECHERCHES
Présentée à Aix-Marseille Université
CV DETAILLE
Parcours professionnel ......................................................................................................................................... 2
Responsabilités administratives ........................................................................................................................... 4
Enseignements ...................................................................................................................................................... 5
Encadrements d’étudiants .................................................................................................................................... 7
Irstea – Centre d’Aix-en-Provence
2
PARCOURS PROFESSIONNEL
Patrick ARNAUD
Né le 23 Octobre 1970
Ingénieur de Recherche – 1ère
classe – 4ème
échelon
Responsable de l’équipe Hydrologie de l’Unité de Recherche OHAX (Ouvrages hydrauliques et Hydrologie)
A Irstea (ex Cemagref) – centre d’Aix-en-Provence
Thème de Recherche ARCEAU (Aléas et Risques liés au Cycle de l'EAU)
Diplômes
Qualifications aux fonctions de maître de conférences : section 60 (mécanique) et section 37
(météorologie), année 1999.
Doctorat de l'Université Montpellier II, spécialité "Mécanique, génie mécanique, génie civil",
formation doctorale "Sciences de l'eau dans l'environnement continental", école doctorale
"Géosciences", année 1997.
Diplôme d'ingénieur de l'Institut des Sciences de l'Ingénieur de Montpellier (actuel Polytech
Montpellier), spécialité "Sciences et Technologies de l'Eau" (STE), année 1993.
D.E.A. national d'hydrologie, à l'Université Montpellier II, formation doctorale "Sciences de l'eau dans
l'environnement continental", école doctorale "Géosciences", année 1993.
Expériences professionnelles
Directeur adjoint de l’UR OHAX, Irstea - Centre d'Aix en Provence, depuis janvier 2011.
Animation scientifique de l’équipe Hydrologie de l’UR OHAX.
Programmation et budget de l’équipe Hydrologie.
Ingénieur de Recherche, Irstea - Centre d'Aix en Provence, depuis janvier 2004, UR OHAX.
Recherches et développements autour de méthodes de prédétermination des crues (méthodes par
simulation stochastique : SHYPRE/SHYREG)
Recherches et développements autour de modèles hydrologiques distribués adaptés à la prévision
des crues (modèle GR distribué et méthode AIGA).
Suivi de projets : Projets Interreg FRAMEA (2005-2008) et CRISTAL (2008-2011), ANR
Prediflood (2008-2011), ANR Extraflo (2009-2012), conventions pluri-annuelles Irstea-
MEDDE/DGPR…
Expertises scientifiques et techniques (appuis techniques) – volet hydrologique
Encadrements de thèses et de stages de Master.
Enseignements en hydrologie en formation initiale et continue.
3
Maître de conférences en hydrologie, à l'Ecole Nationale du Génie de l'Eau et de
l'Environnement de Strasbourg (ENGEES), section CNECA n°2, de mars 2001 à déc. 2003.
Recherches dans l’UMR CEVH (Centre d'Écologie Végétale et d'Hydrologie) sur la prévision des
crues par modélisation pluie-débit sur les bassins versants Vosgiens.
Enseignements (en Ecole d’Ingénieur, DEA, Master, Licence) : hydrologie, statistiques,
géostatistiques, informatique, programmation, système de gestion de bases de données,
bureautique.
Attaché Temporaire de l'Enseignement et de la Recherche (ATER) à temps plein à l'Institut des
Sciences de l'Ingénieur de Montpellier (ISIM) (filière : Sciences et Technologies de l'Eau) – Université
Montpellier II, d’octobre 1999 à février 2001.
Recherches sur la variabilité spatiale des champs de pluies et sur la modélisation hydrologique
spatialisée, dans l'équipe "Risques hydrologiques liés aux aléas extrêmes", de l'U.M.R
Hydrosciences.
Enseignements (en Ecole d’Ingénieur) : statistiques, analyse numérique, mathématiques,
informatique, programmation.
Contractuel au Cemagref en tant qu'ingénieur de recherche, dans l'équipe de recherche en Hydrologie
du groupement d'Aix-en-Provence, de décembre 1997 à septembre 1999.
Etude comparative de deux approches de prédétermination des crues
Etude de la prévision des crues par la modélisation conceptuelle.
Procédure de recalage des paramètres en temps réel.
Participation aux activités liées au fonctionnement de l'équipe de recherche.
Doctorant au Cemagref, d’octobre 1994 à novembre 1997.
modélisation stochastique de la pluie horaire ponctuelle.
modélisation conceptuelle globale de la transformation pluie-débit (modèles GR).
couplage de ces modélisations aux pas de temps horaire et journalier.
paramétrisation régionale du modèle de génération de pluie horaire.
Compétences acquises
compétences disciplinaires : Sciences de l’Univers : Hydrologie
autres compétences : modélisation, statistiques, gestion d’équipe (adjoint au chef d’UR) et de
projets (Conventions, ANR, Interreg)
compétences par champ d’application : aléas naturels (inondations, crues), prévision et prévention
des risques naturels.
4
RESPONSABILITES ADMINISTRATIVES
Directeur adjoint de l’Unité de Recherche « Ouvrages hydrauliques et Hydrologie » depuis 2011
Responsable de l’animation scientifique de l’équipe « Hydrologie » composée de six permanents
(quatre ingénieurs-chercheurs, un assistant ingénieur, une assistance de gestion), quatre ingénieurs
contractuels de longue durée (plus d’un an), trois thésards (en moyenne). La taille relativement petite de
l’équipe favorise un travail de proximité et de mise en commun des compétences (méthodes, données et
codes de calcul). Notre équipe gère aussi l’équipement d’un bassin versant de recherche sur le Réal
Collobrier (83) depuis 1966 (17 pluviographes et 11 limnigraphes sur 70 km²).
Responsable de la gestion budgétaire (budget moyen de 700 k€/an sur les 4 dernières années) et de la
programmation des moyens de l’équipe (CDD, sous-traitance, …).
Participation à des projets nationaux et internationaux (projets récents)
Projet CRISTAL - Interreg France-Italie (2008-2011) « Gestion des CRues par Intégration des
Systèmes Transfrontalier de prévision et de prévention des bassins versants ALpins ». Partenariat Irstea-
ARPA Piemonte Financement FEDER-CG06. Responsable de la coordination pour la partie française,
animation et organisation de séminaires. Ce projet a permis de mettre en place d’un radar en bande X
sur le Mont Vial (50km au Nord de Nice), en service depuis 2008. Des outils opérationnels ont été
développés pour fournir une information en temps réel sur le risque de crues, à partir de l’unique
information des Radars Météorologiques. http://www.risknet-alcotra.org/fr/index.cfm/base-donnees-
projets/cristal.html
Projet RHYTMME - CPER FEDER Région PACA (2008-2015) « Risques HYdrométéorologiques
en Territoires de Montagnes et MEditerranéens ». Le projet vise l’élaboration d’une plateforme de
services d’avertissement des risques hydrométéorologiques, exploitant un réseau de Radars de nouvelles
technologies en bande X. Dans le cadre de ce projet 3 nouveaux Radars en bande X ont été installés
dans les Alpes du Sud et une plateforme temps réel fournit des alertes sur le risque de crues. Co-pilotage
Météo-France/Irstea. http://rhytmme.irstea.fr/
Projet ANR PREDIFLOOD (2009-2012) « Prévision distribuée des crues pour la gestion des routes
en région Cévennes-Vivarais ». Ce projet a contribué aux développements et à la comparaison de
modélisations hydrologiques distribuées de prévision des crues adaptées à la prévision des coupures de
routes par submersion. Coordination LCPC, partenariat LCPC, Météo-France, LTHE, UMR PACTE,
Irstea. http://heberge.ifsttar.fr/prediflood/index.php
Projet ANR EXTRAFLO (2009-2013) « Prédétermination des valeurs extrêmes de pluies et de
crues ». Ce projet a permis la comparaison d’approche de prédétermination des pluies et des débits
extrêmes pour tester leurs performances et déterminer leur domaine d’application. Coordination Irstea,
partenariat EDF, HydroSciences Montpellier, Géosciences Montpellier, Météo-France.
https://extraflo.cemagref.fr/
Convention pluriannuelle avec le MEDDE : responsable de la partie « Prévention des Inondations »
pour l’équipe. Subventions de la DGPR (Direction Générale de la Prévention des Risques) pour nos
recherches sur la détermination de l’aléa hydro-météorologique à travers le développement de la
méthode SHYREG.
5
Recherche et maintien de partenariat forts
Collaboration étroite avec Météo-France, en particulier la Direction Sud-Est (brevet commun sur la
méthode AIGA, développement et exploitation de la base SHYREG et co-pilotage du projet CPER
RHYTMME).
MEDDE : conventions annuelles avec la DPPR/BRM (Bureau de Risque Météorologiques) et le
SCHAPI (Service Central d’hydrométéorologie et d’appui à la prévision des inondations)
Unité de Recherche externes dans le cadre de projets ANR (Extraflo et Prediflood) (voir
Partenariats liés aux projets)
Autres partenaires privilégiés : Institut de Mathématiques et Modélisation de Montpellier (UMR
5149) pour la direction de deux thèses, la Maison des Sciences de l’Eau (UMR Hydrosciences)
pour la direction de thèses et la comparaison d’approches, Université Avignon, ENGREF,
IFSTTAR…
Contrat de transfert de méthode vers le privé avec le Bureau d’Etude HYDRIS-Hydrologie.
Activités d’expertise
Organisation de journées thématiques/séminaires : séminaire de clôture du projet CRISTAL (Turin-
Italie), journées techniques dans le cadre du projet CRISTAL (Nice), séminaire « Régionalisation »
dans le cadre de l’animation du TR Arceau,…
Présentations techniques devant des instances : CTPBOH (Comité Technique Permanent des
Barrages et Ouvrages Hydrauliques), tables rondes d’élus (CR PACA), journée technique dans le cadre
de la Directive Inondation (DREALs), IPGR (Institut de Prévention et de Gestion des Risques
Urbains,…
Relecture d’articles scientifiques : 3 articles pour Hydrological Sciences Journal – 3 articles pour
Revue des Sciences de l’Eau.
Conférence invité : « Prise en compte de l’aléa hydrologique dans le dimensionnement et la gestion
des ouvrages hydrauliques » 8ème Journées Fiabilité des Matériaux et des Structures – Aix-en-
Provence, 9-10 avril 2014.
Autres : depuis 2011 - Représentant du personnel (suppléant) dans la commission administrative
paritaire du corps des ingénieurs de recherche – grade 1.
ENSEIGNEMENTS
2001-2003 – Maitre de Conférences à l’ENGEES (Ecole Nationale du Génie de l'Eau et de
l'Environnement de Strasbourg)
Cours en formation initiale 2ème cycle :
Hydrologie (les données, traitements statistiques, modélisation) : T.D. ENGEES et animation de
mini-projets.
Statistiques descriptive, probabilités, inférence statistique : Cours et T.D. ENGEES.
Mathématiques (algèbre linéaire, calcul vectoriel et intégral, équation différentielles) : T.D.
ENGEES.
Informatique, programmation (sous Visual Basic) : T.D. ENGEES
6
Système de Gestion de Base de Données (Access) : T.D. ENGEES.
Cours en formation initiale 3ème cycle :
Méthodes d'interpolation spatiale : Module optionnel du D.E.A. "Systèmes Spatiaux et
Environnement".
Hydrologie : Cours et T.D. en Mastère "Eau Potable et Assainissement".
Approfondissement Excel (solveur, fonctions avancées, macros) : T.D. en Mastère "Déchets".
Activités : Création de cours polycopiés (en statistiques), contrôle des connaissances, jury de soutenance,
jury de rattrapage, jury de recrutement.
1999-2001 –Attaché Temporaire de l’Enseignement et de la Recherche (ATER) à l'I.S.I.M. - STE
Cours en formation initiale 2ème cycle :
Statistiques (probabilité mathématique et distributions théoriques – inférence statistique) : cours et
T.D. en première année
Analyse numérique (méthodes d'interpolation et d'intégration, recherche de racines, résolution de
systèmes d'équations linéaires : approches directes et itératives) : cours et T.D. en première année,
T.P. en deuxième année
Mathématiques (opérateurs différentiels, transformations de Fourier et de Laplace, Filtrage) : T.D. en
première année, encadrement de projets de mathématiques (résolution d'équations aux dérivées
partielles).
Informatique, programmation (programmation sous Visual Basic) : T.P. de première année
Encadrement de deux projets industriels de fin d'étude et de deux stages de troisième année
Intervenant extérieur en formation initiale
Université d’Avignon – Master Hydrogéologie : « Modélisation des crues rapides » 18h/an (2008 à
2014)
Aix-Marseille-Université – Master SET – Filière GEMA et GERINAT – 4 heures de cours en 2014
et prévision de participation au futur CMI (Cursus de Master en Ingénierie).
Intervenant extérieur en formation continue
ENGREF - Montpellier et Mastère Gestion de l'Eau : « Prévision des crues » 12h/an (2008 à
2010)
IFORE AgroParisTech : « Sécurité des barrages » 2h/an (2008 à 2014)
IFORE – Toulouse : Formation des agents des Services de Prévision des Crues 6h/an (2008-2014)
C.N.E.A.R.C. (Centre National d'Études Agronomiques des Régions Chaudes) : cours de
Statistiques en 2001
ENTE (Ecole Nationale des Techniciens de l'Equipement) : Hydrologie 6h/an (1995 à1998)
7
ENCADREMENTS D’ETUDIANTS
Encadrements de thèses
Les encadrements de thèses cités ci-dessous correspondent à un encadrement quotidien de proximité que j’ai
assuré pour des doctorants accueillis dans l’équipe Hydrologie d’Irstea-Aix-en-Provence et dont la direction
était assurée par des directeurs de thèse hors Irstea.
Ces thèses m’ont amené à participer à chaque fois au jury de thèse.
1. Jean ODRY (2014-2016) : Etudiant de l’Ecole Centrale de Nantes « SHYREG amélioration et
incertitudes ». Débutera en novembre 2014, sous la direction de Corine Curt (reprise de la direction de
thèse prévue après mon HDR).
2. Yoann AUBERT (2009-2012) : Encadrement de la thèse « Estimation des valeurs extrêmes de débit par
la méthode SHYREG » sous la direction par Pierre Ribstein, Université Pierre et Marie Curie - UMR
7619 Sisyphe. Thèse soutenue le 12 mars 2012. Actuellement employé en CDI par BRLi.
3. Catherine FOUCHIER (2006-2010) : Encadrement de la thèse « Développement d’une méthodologie
d’alerte du risque d’inondation » sous la direction de Christophe Bouvier – Université Montpellier II –
UMR Hydrosciences. Thèse soutenue le 18 novembre 2010. Actuellement Ingénieure-Chercheuse (IPEF)
dans l’équipe Hydrologie – Irstea Aix-en-Provence
4. Philippe CANTET (2006-2009) : Encadrement de la thèse « Instationnarité climatique : impact sur les
crues. Approche par modélisation de la pluie en débit et aspect régional. » sous la direction de Jean-Noël
Bacro, Université Montpellier II – I3M. Thèse soutenue le 9 décembre 2009. Actuellement en CDD dans
l’équipe Hydrologie – Irstea Aix-en-Provence
5. Stéphanie DISS (2006-2009) : Co-encadrement avec Jacques Lavabre (Irstea-Aix) de la thèse « Apport
de l’imagerie radar pour la connaissance spatio-temporelle des champs de pluie. Utilisation pour une
modélisation prédictive des crues » sous la direction par Pierre Ribstein, Université Pierre et Marie Curie
- UMR 7619 Sisyphe. Thèse soutenue le 22 avril 2009. Actuellement employée en CDI au bureau d’étude
ARTELIA-Grenoble.
6. Aurélie MULLER (2003-2006) : Co-encadrement, avec Michel Lang (Irstea-Lyon), de la thèse
« Analyse du comportement asymptotique de la distribution des pluies extrêmes en France » sous la
direction de Jean-Noël Bacro, Université Montpellier II – I3M. Thèse soutenue le 24 novembre 2006.
Actuellement Maître de Conférences – Agrégée de Mathématiques à l’Université de Lorraine – Institut
Elie Cartan UMR 7502.
8
Comités de pilotage de thèses
1. Carine PONCELET : Calage régional des modèles hydrologiques, utilisé en site non jaugés. AgroParis
Tech. Accueil UR HBAN (Irstea – Antony)
2. David PENOT : « Cartographie de pluies extrêmes et application de la méthode SCHADEX en site non
jaugé ». Thèse soutenue le 17 octobre 2014 à EDF/DTG, Université Grenoble.
3. Annie ANDRIANASOLO : « Généralisation de l'approche d'ensemble pour la prévision hydrologique
dans les bassins versants non jaugés ». AgroParis Tech. Thèse soutenue le 19 décembre 2012.
4. Lionel BERTHET : « Prévision des crues au pas de temps horaire : pour une meilleure assimilation de
l’information de débit dans un modèle hydrologique». Ecole doctorale Géosciences et Ressources
naturelles – AgroParis Tech. Thèse soutenue le 14 février 2010.
5. Nicolas PUJOL : «Développement d’approches régionales et multivariées pour la détection de non
stationnarités d’extrêmes climatiques. Applications aux précipitations du pourtour méditerranéen
français». UMR Hydrosciences, Université Montpellier II. Thèse soutenue en 2008.
Encadrements de stages de niveau Bac +4/5
1. Alix GUILLOT, 2013 : « Détermination des bassins versants français influencés par la présence de zones
karstiques ». Master 2 Pro Eaux Souterraine, Université Joseph Fourier, Grenoble.
2. Anthony CARUSO, 2011 : « Application de la méthode SHYREG dans le cadre de l'Evaluation
Préliminaire des Risques d'Inondation». Master 2 Pro : Université François Rabelais –Tours.
3. Camille MOULARD, 2010 : « Apport des connaissances en hydrogéologie pour la régionalisation d'un
modèle hydrologique». Master 2 Recherche, Université d’Avignon.
4. Yoann AUBERT, 2008 : « Génération d'hydrogrammes de crue pour le dimensionnement d'ouvrages :
recherche d'un paramètre de transfert "équivalent" ». Stage de 3ème
année ingénieur ENPC.
5. Jérémy MICHEL, 2006 : « Prévision de crues sur le bassin du Gardon à Anduze. Etude de différentes
approches : globales et spatialisées. » stage de 3ème
année ingénieur TPE.
6. Malek KARED, 2005 : « Influence de la variabilité spatiale de la pluie sur la paramétrisation des
modèles hydrologiques globaux. », stage de Master2 professionnel.
7. Jean-Luc PAYAN, 2003 : « Prévision des crues sur les petits bassins versants : rôle de la variabilité
spatiale des pluies». Stage de D.E.A.
8. Colette MORVAN, 1999 : « Effets chroniques des Rejets Urbains par Temps de Pluie : recherche d'une
année pluvieuse représentative. ». Stage de 3ème
année ingénieur ISIM
9. Mathieu MONCHY-OLIVET, 1999 : « Recherche d'une procédure d'optimisation en temps réel d'un
modèle hydrologique adapté à la prévision des crues. ». Stage de Maitrise.
1
Ecole Doctorale 251 – Sciences de l’Environnement
HABILITATION A DIRIGER DES RECHERCHES
Présentée à Aix-Marseille Université
LISTE DE PUBLICATIONS
SYNTHESE .......................................................................................................................................................... 2
LISTE DETAILLEE ............................................................................................................................................ 2
Publications d’articles de revues scientifiques à comité de lecture ........................................................................... 2
Publications d’ouvrage ou chapitre d’ouvrage scientifique....................................................................................... 5
Communications scientifiques en congrès ................................................................................................................ 5
Posters ....................................................................................................................................................................... 9
Irstea – Centre d’Aix-en-Provence
2
SYNTHESE
Entre 1999 et 2014, j’ai publié ou co-publié 37 articles scientifiques à comité de lecture dont 21 dans des revues
d’impact Factor > 1. Le tableau suivant présente une synthèse de ces publications listées par la suite. J’ai écris un
guide méthodologique (Edition QUAE) et participé à la rédaction d’un chapitre d’ouvrage scientifique. J’ai participé à
une cinquantaine de colloques dont 16 en tant qu’orateur principal, et présenté une quinzaine de posters. Je n’ai pas
reporté ici les rapports scientifiques qui doivent être de l’ordre de la quarantaine.
Abbreviated Journal Title ISSN Impact
Factor 2014
5-Year
Impact
Factor (#)
En tant que
1er Auteur
En tant que
co-auteur
ATMOS. RES. 0169-8095 2.421 2.364 1
C.R. GEOSC.I 1631-0713 1.698 1.917 1 1
HYDROL EARTH SYST SC 1027-5606 3.642 3.984 1
HYDROLOG SCI J 0262-6667 1.252 1.720 4 3
J HYDROL 0022-1694 2.693 3.654 1 3
J HYDROL ENG 1084-0699 1.624 1.633 1
NAT. HAZARD EARTH SYS. 1561-8633 1.826 2.111 1
STOCH ENV RES RISK A 1436-3240 2.673 1.888 2
WATER RESOUR RES 0043-1397 3.709 3.448 1 1
Autres : Europ. J of Env. ans Civil Eng.
(IF 0,437) / La Houille Blanche (IF
0.233) / Revue des Sciences de l’eau …
< 1 < 1
5
11
TOTAL : 37 Articles
13 24
(#) Source : 2012 JCR Science Edition
LISTE DETAILLEE
(*) Etudiants encadrés ou co-encadrés.
Publications d’articles de revues scientifiques à comité de lecture
1. Arnaud P., Cantet P.(*), Aubert Y.(*) (2014) Relevance of an at-site flood frequency analysis method
for extreme events based on stochastic simulation of hourly rainfall. Hydrological Sciences Journal
DOI:10.1080/02626667.2014.965174
2. Kochanek K., Renard B., Arnaud P., Aubert Y.(*), Lang M., Cipriani T., Sauquet E. (2014) A data-
based comparison of flood frequency analysis methods used in France. Natural Hazards an Earth
System Sciences, 14, 295-308. DOI: 10.5194/nhess-14-295-2014.
3
3. Arnaud P., Aubert Y.(*), Organde D., Cantet P.(*), Fouchier C.(*), Folton N. (2014) Estimation de
l’aléa hydrométéorologique par une méthode par simulation : la méthode SHYREG – Présentation –
Performances – Base de données. La Houille Blanche - Revue Internationale de l’Eau. 2 (2014) 20-26.
4. Cantet P.(*), Arnaud P. (2014) Extreme rainfall analysis by a stochastic model : impact of the copula
choice on the sub-daily rainfall generation. Stochastic Environmental Research and Risk Assessment.
28 (6) 1479-1492. DOI 10.1007/s00477-014-0852-0
5. Defrance D., Javelle, P., Organde, D., Ecrepont, S., Andréassian, V., and Arnaud, P.: Using damage
reports to assess different versions of a hydrological early warning system, Hydrol. Earth Syst. Sci.
Discuss., 11, 4365-4401, DOI : 10.5194/hessd-11-4365-2014, 2014.
6. Lang M., Arnaud P., Carreau J., Deaux N., Dezileau L., Garavaglia F., Latapie A., Neppel L., Paquet
E., Renard B., Soubeyroux J.-M., Terrier B., Veysseire J.-M., Aubert Y.(*), Auffray A., Borchi F.,
Bernardara P., Carre J.-C., Chambon D., Cipriani T., Delgado J.-L., Doumenc H., Fantin R., Jourdain
S., Kochanek K., Paquier A., Sauquet E. and Tramblay Y. (2014) Résultats du projet ExtraFlo (ANR
2009-2013) sur l'estimation des pluies et crues extrêmes. La Houille Blanche - Revue Internationale de
l’Eau. 2 (2014) 5-13.
7. Aubert Y(*), Arnaud P., Ribstein P., Fine J.-A. (2014) La méthode SHYREG débit - application sur
1605 bassins versants en France Métropolitaine. Hydrological Sciences Journal, 59 (5) 2014, 993-1005.
DOI: 10.1080/02626667.2014.902061.
8. Neppel L., Arnaud P., Borchi F., Carreau J., Garavaglia F., Lang M ., Paquet E., Renard B.,
Soubeyroux J.M. and Veysseire J.M. (2014) Résultats du projet Extraflo sur la comparaison des
méthodes d'estimation des pluies extrêmes en France. La Houille Blanche - Revue Internationale de
l’Eau. 2 (2014) 14-19.
9. Paquet E., Aubert Y.(*), Arnaud P., Royet P. et Fine J.A., (2014) Prédétermination des crues et cotes de
projet par les méthodes SHYPRE et SCHADEX – Application à un aménagement fictif sur le Tech. La
Houille Blanche. 5 (2014) 65-72. DOI 10.1051/lhb/2014052
10. Javelle, P., Demargne, J., Defrance, D., Pansu, J., Arnaud, P. (2013) Evaluating flash flood warnings at
ungauged locations: a case study with the AIGA warning system, Hydrological Sciences Journal -
Special issue: Weather Radar and Hydrology. 59(7) 1390-1402. DOI : 10.1080/02626667.2014.923970
11. Carreau, J., Neppel L., Arnaud P. and Cantet P.(*) (2013) Extreme rainfall analysis at ungauged sites
in the South of France : comparison of three approaches." Journal de la Société Française de Statistique
154 (2) 119-138.
12. Tolsa M., Aubert Y.(*), Le Coz J., Renard B., Arnaud P. (2013) Fine J.A., Organde D. Méthode de
consolidation des courbes de tarage pour les crues d’occurrence rare sur le bassin versant expérimental
du Real Collobrier. La Houille Blanche - Revue Internationale de l’Eau n°6, 2013, 16-23. DOI
10.1051/lhb/2013045.
13. Renard B., Kochanek K., Lang M., Garavaglia F., Paquet E., Neppel L., Najib K., Carreau J., Arnaud
P., Aubert Y.(*), Borchi F., Soubeyroux J.-M., Jourdain S., Veysseire J.-M., Sauquet E., Cipriani T. and
Auffray A.. (2013) Data-based comparison of frequency analysis methods: a general framework. Water
Resources Research, vol. 49, p. 1-19, DOI: 10.1002/wrcr.20087
14. Organde D., Arnaud P., Fine J.-A., Fouchier C.(*), Folton N., Lavabre J. (2013) Régionalisation d'une
méthode de prédétermination de crue sur l'ensemble du territoire français : la méthode SHYREG. Revue
des sciences de l'eau / Journal of Water Science 26 (1) 65-78. DOI: 10.7202/1014920ar.
4
15. Javelle P., Pansu J., Arnaud P., Bidet Y., and Janet B. (2012), The AIGA method: an operational
method using radar rainfall for flood warning in the south of France, in Weather Radar and Hydrology,
edited by R. J. Moore, S. J. Cole and A. J. Illingworth, pp. 550-555, Int Assoc Hydrological Sciences,
Wallingford.
16. Organde, D., P. Arnaud, E. Moreau, S. Diss (*), P. Javelle, J. A. Fine, and J. Testud (2012), A rainfall-
runoff model and a French-Italian X-band radar network for flood forecasting in the southern Alps, in
Weather Radar and Hydrology, edited by R. J. Moore, S. J. Cole and A. J. Illingworth, pp. 460-465, Int
Assoc Hydrological Sciences, Wallingford.
17. Hoang C.T., Tchiguirinskaia I, Schertzer D., Arnaud P., Lavabre J. and Lovejoy S. (2012) Assessing
the high frequency quality of long rainfall series. Journal of Hydrology 438-439 (2012) 39-51.
18. Arnaud P., J. Lavabre, Fouchier C.(*), Diss S.(*), Javelle P. (2011). "Sensitivity of hydrological
models to uncertainties in rainfall input." Hydrological Sciences Journal 56 (3) 397-410.
19. Cantet P.(*), J.-N. Bacro, Arnaud P. (2011). "Using a rainfall stochastic generator to detect trends in
extreme rainfall." Stochastic Environmental Research and Risk Assessment 2011 (25) 429-441.
20. Javelle, P., Fouchier C.(*), Arnaud P. Lavabre J. (2010). "Flash flood warning at ungauged locations
using radar rainfall and antecedent soil moisture estimations." Journal of Hydrology, 394 (1-2) 267-274.
DOI 10.1016/j.jhydrol.2010.03.032
21. Lavabre J., Arnaud P., Royet P., Finé J.A., Delichère S., Fang Z.X., Foussard F. (2010). Design flood
or design water level ? The departement du Gard's flood attenuation dams example. Houille Blanche-
Revue Internationale de l’eau, n° 2-2010, p. 58 – 64.
22. Carvajal C., Peyras L., Arnaud P., and Royet P. (2009) Probabilistic Modelling of Flood Water Level
for Dam Reservoirs. Journal of Hydrologic Engineering, 14 (3) 223-232.
23. Carvajal C., Peyras L., Arnaud P., Boissier D., Royet P. (2009) Assessment of hydraulic load acting on
dams including filling variability and stochastic simulations. European Journal of Environmental and
Civil Engineering 01/2009. 13 (4) 399-411.
24. Arnaud P., Lavabre J., Sol B. et Desouches Ch. (2008) Regionalization of an hourly rainfall generating
model over metropolitan France for flood hazard estimation. Hydrological Sciences Journal, 53 (1) 34-
47.
25. Muller A.(*), Arnaud P., Lang M., Lavabre J. (2008) Uncertainties of extreme rainfall quantiles
estimated by a stochastic rainfall model and by a generalized Pareto distribution. Hydrological Sciences
Journal, 54 (3) 417-429.
26. Arnaud P., Fine J.A. and Lavabre J., 2007. An hourly rainfall generation model adapted to all types of
climate. Atmospheric Research, 85 (2) 230-242.
27. Neppel L., Arnaud P., Lavabre J. (2007) Extreme rainfall mapping : comparison between two
approaches in the Mediterranean area. Comptes Rendus de l'Académie des Sciences, séries II-a – Earth
and Planetary Science 339 (2007) 820–830
28. Arnaud P., Lavabre J., Sol B. et Desouches C. (2006). Rainfall risk of France. La Houille Blanche –
Revue Internationale de l’Eau (5) 102-111.
29. Kreis N., Leviandier T. and Arnaud P. (2005) Hydrological and hydraulics modelling to assess
mitigation effectiveness of floodplain reconnection in the context of a mountain river. International
Journal of River Basin Management Vol. 3, n°2, 117–123.
5
30. Arnaud P., Lavabre J. (2002) Coupled rainfall model and discharge model for flood frequency
estimation. Water Resources Research, 38 (6) 11-1-11-11, DOI : DOI: 10.1029/2001WR000474.
31. Arnaud P., Bouvier C., Cisneros L. and Dominguez R. (2002) Influence of rainfall localization on the
flood study. Journal of Hydrology, 260 (1-4) 216-230.
32. Leviandier T., Lavabre J., Arnaud P. (2000) Rainfall contrast enhancing clustering processes and flood
analysis.Journal of Hydrology, 240 (1-2) 62-79.
33. Arnaud P., Lavabre J. (2000) La modélisation stochastique des pluies horaires et leur transformation en
débits pour la prédétermination des crues. Revue des Sciences de l'Eau, 13 (4) 441-462.
34. Arnaud P., Lavabre J. (1999) Using a stochastic model for generating hourly hyetographs to study
extreme rainfalls. Hydrological Sciences Journal, 44 (3) 433-446.
35. Arnaud P., Lavabre J. (1999) A new approach for extreme rainfall estimation. Comptes Rendus de
l'Acadamie des Sciences, séries II-a – Earth and Planetary Science, Paris, 328 (9) 615-620.
36. Lavabre J., Arnaud P., Masson J.M., Folton N. (1999) Apport de la modélisation de la pluie en débit
pour la connaissance de la ressource en eau et la prédétermination des crues. La Houille Blanche –
Revue Internationale de l’Eau, 54, n°3-4, 67-72.
37. Arnaud P., Lavabre J., Masson J.-M. (1999) Amélioration des performances d’un modèle stochastique
de génération de hyétogrammes horaires. Revue des Sciences de l'Eau, 12 (2) 251-271.
Publications d’ouvrage ou chapitre d’ouvrage scientifique
Arnaud P., Lavabre J. (2010). Guide méthodologique sur l’approche SHYPRE. Partie 1 : analyse du
risque pluvial. Edition QUAE, 125 pages.
Fourmigué P., Arnaud, P. (2009). Modèle à réservoirs en hydrologie. De la goutte de pluie jusqu'à la mer
- Traité d'hydraulique environnementale. Volume 4. Modèles mathématiques en hydraulique maritime et
modèles de transport. Lavoisier; Hermès Science Publications, Paris, p. 227 – 238
Communications scientifiques en congrès
1. Arnaud P., Paquet E., Aubert Y.(*), Royet P., Fine J.A., Lang M. (2015) Estimation de la distribution
de cotes de retenue par simulation stochastique pluie-débit. Cas d'un barrage fictif. Vingt cinquième
congrès des grands barrages, 2015 Norvège, juin 2015.
2. Organde D., Javelle P., Demargne J., Arnaud P., Caseri A., Fine J.-A., de Saint Aubin C. (2015)
Implementing the national AIGA flash flood warning system in France. Geophysical Research Abstracts
Vol. 17, EGU2015-12820 - EGU General Assembly 2015.
3. Arnaud P. et Aubert Y(*). (2014) Prise en compte de l’aléa hydrologique dans le dimensionnement et la
gestion des ouvrages hydrauliques – 8ème
Journées Fiabilité des Matériaux et des Structures – Aix-en-
Provence, 9-10 avril 2014.
6
4. Cantet P.(*), Arnaud P. (2014) Using a stochastic hydrological model to study the sensitivity of flood
frequency to climate change. Geophysical Research Abstracts, vol 16, EGU2014-7220. EGU General
Assembly 2014.
5. Arnaud P, Aubert Y.(*), Organde D., Cantet P. (*), Fouchier C. (*), Folton N. (2013) Estimation de
l’aléa hydrométéorologique par une méthode par simulation : la méthode SHYREG : Présentation –
performances – bases de données. Congrès SHF : « Evénements extrêmes d’inondation 2013 », Lyon,
13-14 novembre 2013.
6. Paquet E., Aubert Y.(*), Arnaud P., Royet P, Fine J.A. (2013) Prédétermination des crues et côtes de
projet par les méthodes SHYPRE et SCHADEX – Application à un aménagement fictif sur le Tech.
Congrès SHF : « Evénements extrêmes d’inondation 2013 », Lyon, 13-14 novembre 2013.
7. Folton, N., Arnaud, P. (2012) Régionalisation d'une modélisation hydrologique distribuée pour la
cartographie des débits d’étiage. Application au territoire français. 9ème congrès international
GRUTTTEE 2012, Aix-en-Provence, 29-31 octobre 2012 29/10/2012-31/10/2012, Aix-en-Provence,
FRA. 5 p.
8. Folton N., Tolsa M., Arnaud P. (2012). Le Bassin de recherche du Réal Collobrier - Étude des
processus hydrologiques en milieu méditerranéen a échelle fine. 50 ans de l'Orgeval 20/11/2012-
23/11/2012, Paris, FRA. Actes du Colloque 50 ans de l'Orgeval et 37èmes journées du GFHN. 7 p.
9. Pons F., Bader B., Caruso A., Arnaud P. and Leblois E. (2012) Cartino Project: A French automatized
hazard floodmap. Simhydro 2012 conference, Nice 12-14/10/2012.
10. Kochanek, K., Renard, B., Lang, M., Arnaud, P. (2012) Comparison of several at-site flood frequency
models on a large set of French discharge series. 2nd European Conference of Flood risk management
20/11/2012-22/11/2012, Rotterdam, NLD. Comprehensive Flood Risk Management. p. 183-190.
11. Organde D, Arnaud P, Moreau E, Diss S. (*), Javelle P, Fine J-A, (2012) A rainfall–runoff model and a
French-Italian X-band radar network for flood forecasting in the southern Alps, Weather Radar and
Hydrology, Proceedings of a symposium held in Exeter, UK, April 2011, IAHS Publ. 351, 2012, 460-
465
12. Pons F., Bader B., Chassé P., Caruso A., Arnaud P., Leblois E.. Cartino Project : An French
automatized hazard floodmap. In proceeding of Simhydro 2012, at Sophia-Antipolis, Nice.
13. Javelle P., Pansu J., Arnaud P., Bidet Y., Janet B., The AIGA method: an operational method using
radar rainfall for flood warning in the south of France, Weather Radar and Hydrology, Proceedings of a
symposium held in Exeter, UK, April 2011, IAHS Publ. 351, 2012, 550-555
14. Lavabre, J., Arnaud, P.,Royet, P.,Fine, J.A.,Delichère, S., Fang, Z.X., Foussard, F. Crues de projet ou
cotes de projet ? Exemple des barrages écrêteurs de crue du département du Gard. Paris, Colloques SHF
« Dimensionnement et Fonctionnement des Evacuateurs de crues » des 20-21 janvier 2009.
15. Peyras, L., Arnaud, P., Royet, P., Carvajal, C., Boissier, D. - 2009. Modélisation probabiliste de la cote
de remplissage d'un barrage. Colloque CFBR-SHF : «Dimensionnement et fonctionnement des
évacuateurs de crues» 20/01/2009-21/01/2009, Paris, FRA. 8 p.
16. Javelle, P., Berthet, L., Arnaud, P., Lavabre, J., Perrin, C. - 2008. Comparaison de deux versions du
modèle GR pour la prévision des crues sur un grand échantillon de bassins versants français. Colloque
SHF-191e CST «Prévisions hydrométéorologiques», Lyon, 18-19 novembre 2008. Colloque SHF-191e
CST «Prévisions hydrométéorologiques», 18/11/2008 - 19/11/2008, Lyon, FRA. 5 p.
17. Lavabre, J., P. Arnaud and J.-P. Mizzi (2008). La méthode AIGA : un dispositif d'alerte des crues.
Description et aspects opérationnels. . Colloque SHF - 191e CST-«Prévisions hydrométéorologiques», ,
Lyon, 18-19 novembre 2008. .
18. Lavabre J., Arnaud P., Folton N. Impact d’un incendie de forêt sur l’hydrologie d’un petit bassin
versant méditerranéen. In Publication S.H.F. L’eau, l’homme et la nature. 24èmes journées de
l’hydraulique. Congrès de la Société Hydrotechnique de France. Paris, 18-20 septembre 1996, pages
151-162.
7
19. Moreau, E., Testud J., Organde D., Arnaud, P., Javelle P., Fiquet, M. (2012). RAINPOL a web
platform for hydro meteorological monitoring from an X-band dual polarization radar. Seminary ERAD
Toulouse.
20. Cremonini R., Lavabre J., Arnaud P., Fiquet M., Ponzone M., Testud J. et Organde D. (2010)
CRISTAL : a project to manage hydrological risk in alpine areas by x-band polarimetric radar. ERAD
2010 - the sixth european conference on radar in meteorology and hydrology
21. Garavaglia F., Paquet E., Lang M., Renard B., Arnaud P., Aubert Y., Carre J.M., and Bernardara P.,
Flood risk assessment in France: comparison of extreme flood estimation methods (EXTRAFLO
project, action 7). Geophysical Research Abstracts, Vol. 14, EGU2012-6111, 2012, EGU General
Assembly 2012.
22. Renard, B., Kochanek, K., Lang, M., Arnaud, P., Aubert, Y., Cipriani, T., Sauquet, E. - 2012. A data-
based comparison of flood frequency analysis approaches used in France. AGU Fall Meeting
02/12/2012-07/12/2012, San Francisco, USA. 15 p.
23. Maire A, Fouchier C., Arnaud P., Aubert Y. (2011). Assessment of the daily areal reduction factor of
precipitations with distributed rainfall data: a means of improvement of a prediction method of extremes
events in France. EGU General Assembly, May 2012, Vienna.
24. Naulin P., Payrastre O., Gaume E., Delrieu G., Arnaud P., Lutoff C. and Vincendon B., Prediflood: A
French research project aiming at developing a road submersion warning system for flash flood prone
areas. Vol 12, Plinius 12 47, 12 th Plinius Conference on Mediterranean Storms, Corfus Island Greece,
Sept 2010.
25. Tchiguirinskaia I., Arnaud P., Schertzer D. and Lavabre J. The Return Periods of Hydro-
Meteorological Extremes: Comparison of two Stochastic Models of Heavy Rains. EGU General
Assembly 2009, vol 11, EGU2009 10256.
26. Tchiguirinskaia I., Arnaud P., Schertzer D. and Lavabre J. Extrêmes multifractals, incertitudes et
estimation des quantiles hydrologiques, enjeux pour la région parisienne. Colloque CNFSH-2009, 11-12
Juin 2009, Paris.
27. Tchiguirinskaia I., Arnaud P., Lavabre J. and Schertzer D., 2008. Intercomparison of two stochastic
methods to simulate heavy rains and floods. Abstract 2nd International HyMeX Workshop, 2-4 juin
2008. Ecole Polytechnique, Palaiseau, France
28. Lang M., Muller A., Arnaud P., Lavabre. Comparison of uncertainties in extreme rainfall distribution
using a QPD distribution and the SHYPRE regional stochastic rainfall model. Unesco workshop:
Modelling Floods and Droughts, Uncertainty estimates for Water Resources Management. Prague, 14-
15 march 2008.
29. Diss, S., Arnaud, P., Lavabre J. et Testud J., Contribution of the rain rate by radar in operational flood
forecasting. International Symposium “Weather Radar and Hydrology 2008”, Grenoble, 10-12 mars
2008.
30. Cantet, P., Arnaud, P. - 2008. Impact of climate change on hydrological risks. World Water Congress,
Montpellier 01/09/2008-04/09/2008, Montpellier.
31. Fouchier C., Arnaud P., Lavabre J., Mizzi J.P. AIGA: an operational tool for flood warning in southern
France. Principle and performances on Mediterranean flash floods. Abstract EGU Vienne, AUT, 15-20
avril 2007.
32. Lavabre J., Fourmigue P., Arnaud P., Fromental A.M., Fine J.A. Utilisation de modèles de
transformation de la pluie en débit pour la prévision des crues. Analyse des performances de différentes
modélisations, Q87, R29, Vol IV – 22éme congrès des grands barrages, Barcelone, juin 2006, 407-428.
33. Arnaud P., Lavabre J., Sol B., Desouches. Cartographie de l'aléa pluviographique de la France.
Colloque SHF sur les Valeurs rares et extrêmes de débit pour une meilleure maîtrise des risques, Lyon,
15-16 Mars 2006. 14 p.
8
34. Fine J.A., Arnaud P., Fouchier C., Lavabre J., 2005. Intérêt d'un modèle spatialisé pour la prévision des
crues sur un bassin versant non homogène. Actes du Colloque SIRNAT, Montpellier 2005.
35. Arnaud P., Lavabre J., Sol B., Desouches Ch., 2005. Cartographie de l'alea pluviographique de la
France, Actes du colloque « Système d’information et risques naturels (SIRNAT) », Montpellier – 10-
11 mars 2005.
36. Lavabre J., Folton N., Arnaud P., Pasquier C., 2001. Prédétermination régionale des débits de crue ;
exemple d'application à la Corse. International seminar – Hydrology of the Mediterranean Regions,
Montpellier, 11-13 october 2000, 357-365.
37. Leviandier T., Kreis N., Arnaud P., Drogue G., Bariz R., and Herrmann A., 2001. Sensitivity analysis
of hydraulic and rainfall-runoff models as premiminary investigations of climatic change influence on
flood risk. In Management of Hydroclimatologic risks in the Rhin Meuse basin. Luxembourg Centre de
recherches public Gabriel Lippmann. Novembre 2001.
38. Arnaud P., Modèle de prédétermination des crues basé sur la simulation : méthode SHYPRE :
application à la région méditerranéenne. International seminar – Hydrology of the Mediterranean
Regions, Montpellier, 11-13 october 2000.
39. Lavabre J., Arnaud P. Prédétermination des pluies extrêmes. Colloque SHF - Catastrophes naturelles –
Aléas extrêmes et niveaux de protection de référence. 10 octobre 2000 – Paris.
40. Arnaud P., Lang M. et Lavabre J., 1999. Estimation des probabilités de crues extrêmes – Comparaison
des méthodes SHYPRE et AGREGEE. Séminaire de l'Action scientifique structurante 1998 – Risques
naturels – 19 mars 1999, Paris.
41. Lavabre J., Folton N., Arnaud P. et Martin C. Impact d’un incendie de forêt sur l’hydrologie d’un petit
bassin versant méditerranéen ; incertitudes liées à la méthodologie d’analyse et à la métrologie.
Séminaire Les bassins versants expérimentaux de Draix, Draix Le Brusquet Digne, 22-24 octobre 1997,
p. 41-52.
42. Arnaud, P., Lavabre, J. - 1999. Modèle de prédétermination des crues basé sur la simulation : méthode
SHYPRE. Colloque de la SHF crues de la normale à l'extrême, Lyon, 10-11 mars 1999. 6 p.
43. Arnaud, P., Lavabre, J. - 1999. Flood predetermination model based on hourly rainfalls stochastic
generation. Poster EGS XXIII General Assembly session NH2-03: flood hazards an flood risk regional
analysis of extremes, Nice, 20-24 avril 1998. 1 p.
44. Arnaud P., Lavabre J., Folton N., Michel C. Hydrological response of a little mediterranean basin
flows after fire. Conférence internationale : XXIII General assembly, E.G.S. (European Geophysical
Society), Nice, 20-24 april 1998.
45. Arnaud P., Picard S., Lavabre J. et Douguedroit A.. Hourly rainfall stochastic generation : application
on French mediterranean seaboard. XXIII General assembly, E.G.S. (European Geophysical Society),
Nice, 20-24 april 1998.
46. Lavabre J., Arnaud P., Masson J.M., Folton N. Apport de la modélisation de la pluie en débit pour la
connaissance de la ressource en eau et la prédétermination des crues. In Publication S.H.F. L’école
française de l'eau au service du développement mondial. 25èmes journées de l’hydraulique. Congrès de
la Société Hydrotechnique de France. Chambéry, 15-18 septembre 1998, pages 349-358.
47. Arnaud P., Picard S., Lavabre J., Douguedroit A. Modélisation stochastique des pluies horaires.
Application à la région méditerranéenne française. Association Internationale de Climatologie, 10ème
colloque international de climatologie, Québec, 9-12 septembre 1997, 8 pages.
48. Arnaud P., Lavabre J. Simulation du fonctionnement hydrologique d’une retenue d’eau. Comité
National Suisse des Grands Barrages, Research in the Field Dams, CIGB-ICOLD, Crans-Montana,
Suisse, 7-9 septembre 1995, pages 641-652.
49. Arnaud P., Lavabre J. Contribution of hyetograph simulation to the knowledge of extreme rainfalls.
Rainfall modelling, 1995 annual general meeting à l'Institute of Environmental and Biological Sciences,
Lancaster University, 17 may 1995.
9
50. Arnaud P., Lavabre J., Couplage de modèles de simulation de hyétogrammes aux pas de temps horaire
et journalier. Séminaire Inter-chercheurs – Les modèles au Cemagref. Gif-sur-Yvette - 13 et 13 octobre
1995, p.23-31.
51. Lavabre J., Arnaud P. Apport de la modélisation des hyétogrammes horaires pour la connaissance des
pluies extrêmes. Méthodes statistiques et Bayesiennes en hydrologie, Conférence internationale en
l’honneur de Jacques BERNIER, UNESCO, Paris, 11-13 septembre 1995, chapitre II, 10 pages.
52. Arnaud P., Lavabre J., 1997. Simulation du fonctionnement hydrologique d’un bassin versant :
application à la conception et à la gestion d’un barrage. In Ingénieries-E.A.T., n°10, pages 43-54.
53. Lavabre J., Arnaud P., Folton N., Michel C., 1996. Les écoulements d’un petit bassin versant
méditerranéen après incendie de forêt. In Ingénieries-E.A.T., n°7, pages 21-30.
Posters
1. Aubert Y., Arnaud P., Fine J.-A., Cantet P., 2014. Rainfall frequency analysis using a hourly rainfall
model calibrated on weather patterns : application on Reunion Island. Geophysical Research Abstracts,
vol 16, EGU2014-7220.EGU General Assembly 2014.
2. Folton N., Cantet P., Arnaud P., Fouchier C. - 2012. Prise en compte de scénarios de changement
climatique dans des méthodes de cartographie de l'aléa hydrologique : application aux pluies intenses et
aux débits d'étiage.. CNFCG Les changements Globaux : enjeux et défis, Toulouse, 9-11 juillet 2012
09/07/2012-11/07/2012, Toulouse, FRA. 1 p.
3. Defrance, D., Javelle, P., Arnaud, P., Andreassian, V., Moreau, E., Meriaux, P. - 2011. Flash flood
warning methods: how to evaluate them? An application in the French Southern Alps using the AIGA
warning method and different rainfall input data.. EGU General Assembly 2011 03/04/2011-
08/04/2011, Vienna, AUT.
4. Lang, M., Renard, B., Kochaneck, K., Sauquet, E., Garavaglia, F., Paquet, E., Soubeyroux, J.M.,
Jourdain, S., Veysseire, J.M., Borchi, F., Neppel,, L., Najib, K., Arnaud, P., Aubert, Y., Auffray, A. -
2011. Data-based comparison of frequency analysis approaches: methodological framework and
application to rainfall-runoff data in France. EGU General Assembly 2011 03/05/2011-08/05/2011,
Vienna, AUT. 1 p.
5. Fouchier C., Javelle P., Arnaud P., DeFrance D. (2010). Looking at catchments in colors: why not? But
what if we can't even look at them? EGU Leonardo Topical Conference on the hydrological cycle
“Looking at Catchments in Colors”, 10-12 November 2010, Luxembourg.
6. Fouchier C., Javelle P., Diss S., Arnaud P., Lavabre J., and Organde D., A simple distributed model for
flood forecasting. Poster EGU General Assembly 2010.
7. Lang, M., Renard, B., Kochanek, K., Sauquet, E., Garavaglia, F., Paquet, E., Soubeyroux, J.M.,
Jourdain, S., Veysseire, J., Borchi, F., Neppel, L., Najib, K., Arnaud P., Aubert, Y., Auffray, A. -.
Data-Based Comparison of Frequency Analysis Approaches: Methodological Framework and
Application to Rainfall / Runoff Data in France. AGU Fall Meeting, 13/12/2010 - 17/12/2010, San
Francisco, USA. 1 p.
8. Javelle, P., Defrance, D., Aubert, Y., Diss, S., Cantet, P., Tolsa, M., Fouchier, C., Arnaud, P., Lavabre,
J., Breil, D. - 2010. Application of the AIGA flash flood warning method to the 15th of June 2010 event
on the Nartuby and Argens rivers (South of France). EGU Leonardo Topical Conference on the
hydrological cycle Looking at Catchments in Colors 10/11/2010-12/11/2010, Luxembourg, LUX. 1 p.
9. Javelle, P., Fouchier, C., Arnaud, P., Lavabre, J. - 2010. Flash flood warning at ungauged locations
using radar rainfall and antecedent soil moisture estimations.. European Geosciences Union General
assembly 2010, Vienna, AUT, 2-7 May 2010 02/05/2010-07/05/2010, Vienna, AUT. 1 p.
10
10. Aubert, Y. Arnaud P. (2009). Comportement vers les valeurs extrêmes des distributions de fréquence
des pluies et des débits : réflexions sur l’équifinalité des modèles de transformation de la pluie en débit.
Poster Journée Doctoriale ENTPE.
11. Javelle P., Berthet L., Arnaud P., Lavabre J., 2008. Monsters in flood forecasting: can we reduce the
number of 'outlier' catchments by using two different model initialization strategies?, Court of Miracles
Workshop, Paris, June 18th-20th 2008.
12. Cantet, P., Arnaud, P. - 2008. Impact of Climate Change on Extreme Rainfall in France Through Trend
Detections in Average Climatic Characteristics. AGU fall, San Francisco, USA, December 2008 San
Francisco, USA.
13. Arnaud P., Modèle de prédétermination des crues basé sur la simulation : méthode SHYPRE :
application à la région méditerranéenne. International seminar – Hydrology of the Mediterranean
Regions, Montpellier, 11-13 october 2000.
14. Arnaud P., Lavabre J. Modèle de prédétermination des crues basé sur la simulation : méthode
SHYPRE. Crues de la normale à l'extrême – Colloque SHF - 160ème session du CST – Lyon, 10-
11/03/1999.
15. Arnaud P., Lavabre J. Flood predetermination model based on hourly rainfalls stochastic generation.
XXIII General assembly, E.G.S. (European Geophysical Society), Nice, 20-24 april 1998, Annales
geophysicae, part II: hydrology, oceans and atmosphere, supplement II to volume 16, 1999.
16. Arnaud P., Lavabre J. Apport de la modélisation des hyétogrammes horaires pour la connaissance des
pluies extrêmes. Méthodes statistiques et Bayesiennes en hydrologie, la Conférence internationale en
l’honneur de Jacques BERNIER, UNESCO, Paris, 11-13 septembre 1995.
1
Ecole Doctorale 251 – Sciences de l’Environnement
HABILITATION A DIRIGER DES RECHERCHES
Présentée à Aix-Marseille Université
Manuscrit détaillé
Partie « Synthèse des activités de recherches et projet scientifique »
L’aléa hydrométéorologique : estimation régionale
par simulation stochastique des processus.
Irstea – Centre d’Aix-en-Provence
2
SOMMAIRE GENERAL
Sommaire général ...................................................................................................................... 2
Environnement scientifique ...................................................................................................... 3
A – Contexte et état de l’art sur la prédétermination des crues ................................ 4
A.1 L’aléa hydrométéorologique .................................................................................... 5
A.2 Les « approches probabilistes directes » .................................................................. 8
A.3 Les « approches par simulation » ........................................................................... 14
A.4 La démarche scientifique choisie ........................................................................... 20
B – Simulation de pluies horaires pour l’estimation de l’aléa pluviographique ........ 21
B.1 Développement d’un générateur stochastique de pluies horaires. ......................... 23
B.2 Estimation de l’aléa pluvial en site non instrumenté ............................................. 37
B.3 Etude des incertitudes du générateur de pluie ........................................................ 44
B.4 Etude de la non-stationnarité des pluies extrêmes ................................................. 52
B.5 Conclusion et perspectives ..................................................................................... 60
C - Estimation de l’aléa hydrologique par la simulation des crues ......................... 62
C.1 Modélisation hydrologique parcimonieuse ............................................................ 65
C.2 Mise en œuvre régionale de l’approche par simulation ......................................... 71
C.3 Evaluation des performances de la méthode et applications .................................. 79
C.4 Etude des incertitudes de la méthode par simulation ............................................. 87
D – Conclusions et Persepctives scientifiques ............................................................ 97
D.1 Modélisation des processus .................................................................................... 98
D.2 Impact du changement global sur les extrêmes hydrologiques ............................ 102
D.3 Ouverture vers d’autres thématiques. ................................................................... 103
E - Références bibliographiques citées ........................................................................ 107
3
ENVIRONNEMENT SCIENTIFIQUE
Mes travaux de recherche, menés au sein de l’EPST Irstea (ex-Cemagref), dépendent du
thème de recherche ARCEAU (Aléas et Risques liés au Cycle de l’EAU). Ce thème de recherche
regroupe des équipes de plusieurs centres (Antony – Aix-en-Provence – Lyon – Montpellier) qui
travaillent sur des activités couvrant «l’étude du cycle de l’eau, la connaissance et la gestion des
ressources, des aléas et des risques associés (inondation, sècheresse, pollution) et l’évaluation du
changement global » (http://www.irstea.fr/la-recherche/themes-de-recherche/arceau). L’équipe du
centre d’Aix-en-Provence est spécialisée en Hydrologie et fait partie de l’Unité de Recherche
OHAX (Ouvrages hydrauliques et Hydrologie d’AiX). La proximité avec des chercheurs travaillant
sur les ouvrages hydrauliques a aussi conduit l’équipe à s’intéresser aux problèmes liés à la
protection des ouvrages hydrauliques (barrages, digues,…) face au risque de crues.
L’équipe de recherche, dont j’ai la charge en tant qu’animateur scientifique depuis 2011,
travaille sur les risques hydrologiques à partir du développement d’approches basées sur la
modélisation des processus. « L'objectif est de fournir des connaissances sur le risque hydrologique
(excès et pénurie) en tout point d'un territoire et donc en milieux non jaugés. Ces méthodes
régionales s'appuient sur l'exploitation de l'ensemble des données disponibles sur ce territoire. Le
domaine d'étude actuel est le territoire Français, DOM compris.» http://www.irstea.fr/la-
recherche/unites-de-recherche/ohax/hydrologie. Cet objectif se décline en des approches
probabilistes (prédétermination des crues et des étiages) et en des approches prévisionnistes
(prévision/alerte en crue). L’usage d’informations hydro-climatiques (longues séries chronologiques
de pluies et de débits, et information spatiale fournie par les radars météorologiques) et de
modélisations du processus de transformation de la pluie en débit, nous permet aussi d’appréhender
l’impact du changement global sur l’évolution de l’aléa hydrologique.
Pour ma part, mon activité de recherche principale s’est orientée vers l’étude de l’aléa lié aux
crues. Cette recherche sur la prédétermination des crues est abordée par une approche originale
basée sur la simulation de scénarios de crues à pas de temps fins, appliquée à des jeux de données
exhaustifs, puis régionalisée. L’objectif est d’appréhender cet aléa dans toute sa composante
temporelle et fréquentielle, en fournissant l’ensemble des caractéristiques nécessaires à la
connaissance de l’aléa hydrométéorologique à partir d’une même modélisation. Ces travaux ont été
menés dans le cadre de ma thèse [Arnaud, 1997], après ceux initiés par Cernesson [1993], puis dans
le cadre de projets de recherches (subventions de la Direction Générale de la Prévention des
Risques du MEDDE, projet ANR Extraflo) et lors de thèses accueillies par l’équipe et que j’ai
encadrées ou co-encadrées [Aubert, 2012; Cantet, 2009; Diss, 2009; Fouchier, 2010; Muller, 2006].
Ils m’ont permis d’approfondir mes connaissances dans des domaines tels que la statistique, la
modélisation stochastique, la modélisation hydrologique, l’étude des incertitudes, la régionalisation,
etc. Ce sont ces points qui sont présentés à travers cette synthèse, portant d’une part sur l’estimation
de l’aléa pluvial et d’autre part sur l’estimation de l’aléa hydrologique, en faisant référence au
mieux aux travaux de recherches auxquels j’ai participé directement ou à travers l’encadrement
d’étudiants.
4
A – CONTEXTE ET ETAT DE L’ART SUR LA
PREDETERMINATION DES CRUES
De façon un peu béotienne, la prédétermination des crues pose les
questions suivantes :
- Quelle est la hauteur d’eau qui peut être atteinte dans cette rivière ?
- Cette hauteur d’eau est-elle fréquente ou rare ?
- Comment cette hauteur d’eau évolue-t-elle le long de la rivière ?
- La rivière voisine présente-t-elle les mêmes caractéristiques ?
- Ces caractéristiques sont-elles immuables dans le temps ?
- Quels sont les facteurs pouvant expliqués leur variation ?
- Dans quelle mesure peut-on se protéger face à la montée des eaux ?
- …
Autant de questions que se posent toutes personnes, habitant ou devant gérer des activités à
proximité d’un cours, et soumises au risque de voir ce cours d’eau « sortir de son lit » et provoquer
des inondations...
La prédétermination des crues est donc un champ de recherche de l’hydrologie qui vise à
répondre à ces questions, en s’appuyant sur l’observation du phénomène, afin de se prémunir du
risque d’inondation. La difficulté de cette thématique réside dans la nécessité de fournir une
information sur un phénomène très variable et insuffisamment observé. La recherche de méthodes
d’extrapolation est donc nécessaire : extrapolation en fréquence pour estimer des phénomènes
extrêmes par nature peu observés et extrapolation dans l’espace pour estimer le phénomène le long
d’un réseau hydrographique instrumenté très ponctuellement…
Le pont Saint Nicolas lors de la crue du Gard pendant la crue des 8-9 septembre 2002.
Pendant la crue Après la crue
Repères de crues du
Vidourle à Sommières
5
A.1 L’aléa hydrométéorologique
L’aléa hydrométéorologique peut être défini comme « un processus ou phénomène de nature
atmosphérique, hydrologique ou océanographique susceptible de provoquer des pertes en vies
humaines, des blessures ou autres impacts sur la santé, des dégâts matériels, la perte des moyens
de subsistance et des services, des perturbations sociales et économiques ou une dégradation
environnementale » [UNISDR, 2009]. Il inclut donc un très grand nombre de phénomènes naturels
liés aux grandeurs climatiques telles que le vent (tornades, tempêtes, submersions marines..), les
précipitations (cyclones, orages, neige, grêle,..), les températures (vagues de chaleurs,…), les
ruissellements associés aux précipitations (crues soudaines, inondation,…). Dans le cadre de mes
recherches, et donc pour la suite de mes propos, l’aléa hydrométéorologique étudié se restreindra
aux pluies intenses et aux crues qui en résultent.
Situées au premier rang des catastrophes naturelles dans le monde, les inondations causent en
moyenne 20 000 victimes par an. Sur le territoire français parcouru par 160 000 km de cours d'eau,
c’est une surface de 22 000 km² qui est reconnue particulièrement inondable, répartie sur 7 600
communes et touchant 2 millions de riverains [DGPR, 2004]. Les crues occasionnent ainsi près de
80% des dommages associés aux aléas naturels. La lutte contre ce phénomène passe bien sûr par la
mise en place de systèmes d’alerte ou de prévision du phénomène, permettant d’en réduire l’impact
lors de son apparition. En amont de la gestion de crise, une gestion préventive est nécessaire pour à
la fois mettre en place des ouvrages de protections au niveau ou en amont des zones à risque
(digues, barrages écrêteurs de crues, bassins de rétention, …) et à la fois déterminer les zones
susceptibles d’être soumises aux inondations afin de limiter leur occupation. La mise en place de
dispositifs de protection face aux risques de crues nécessite alors une bonne connaissance de cet
aléa naturel. L’étude de l’aléa hydrologique représente alors un des axes de recherche que compte
l’hydrologie : la prédétermination des débits de crues et des pluies qui les génèrent.
En général, la prédétermination d’un aléa se résume à associer une valeur caractéristique de
cet aléa à sa probabilité de dépassement, généralement ramenée à une probabilité de dépassement
annuelle (facilement traduite en période de retour). L’observation du phénomène1 sur de longues
périodes permet alors d’extraire, pour une caractéristique, des valeurs indépendantes à partir
desquelles une distribution de fréquence empirique peut être établie. Cette distribution guidera alors
le choix d’un modèle théorique qui permettra d’extrapoler vers des fréquences plus rares et
d’estimer ainsi différents niveaux de l’aléa (du courant à l’exceptionnel) en fonction des enjeux
associés (Figure 1). Cette approche est dite « probabiliste » par opposition aux approches
« maximalistes » telles que la PMP (Probable Maximum Precipitation) ou la PMF (Probable
1 Dans le cas des crues, l’aléa étudié est généralement la pluviométrie et/ou les débits des cours d’eau. Les
variables caractérisant ces aléas sont des pluies maximales ou des débits maximums déterminés sur une durée courte,
liée à la période intense du phénomène. L’estimation de ces aléas hydrométéorologiques est nécessaire en aménagement
du territoire rural ou urbain, pour le dimensionnement d'ouvrages hydrauliques, de ponts, de voies de communication à
proximité de cours d'eau, etc.
6
Maximum Flood). Ces dernières tentent alors de déterminer des événements extrêmes, résultant de
la maximisation des conditions pouvant les générer [Collier and Hardaker, 1996; Hansen, 1987;
Hershfield, 1961; D. Koutsoyiannis, 1999; Myers, 1967]. Ces méthodes n’offrent donc pas la
possibilité de graduer l’aléa, pourtant nécessaire pour aborder une gestion socio-économique du
risque hydrologique [Hubert, 2005]. En effet, de nombreuses règlementations sont liées à la
détermination du niveau de l’aléa « crue » comme par exemple la fréquence décennale pour le
passage en CATNAT (Catastrophe naturelle) d’un événement, la fréquence centennale pour la
détermination d’un PPRi (Plan de Prévention des Risques inondation) ou la fréquence millénale
pour le dimensionnement d’évacuateurs de crue de certains grands barrages, voire au-delà dans la
protection des installations nucléaires.
Figure 1 : Principe général de la prédétermination [Arnaud and Lavabre, 2010].
Les méthodes probabilistes proposent donc de fournir une information sur l’ensemble de la
distribution de fréquence d’un aléa en s’appuyant sur différentes modélisations. Ces modélisations
sont multiples et peuvent être classées en deux familles présentées rapidement dans les paragraphes
suivants :
a) Les approches s’appuyant sur l’ajustement de lois de probabilité, directement sur la ou les
variables d’intérêt, appelées ici « approches probabilistes directes ».
b) Les approches basées sur la simulation des processus ou « approches stochastiques » qui
visent à introduire une composante aléatoire dans une modélisation déterministe. Dans ce
cas des ajustements de lois de probabilité sont aussi effectués, mais sur les variables
intermédiaires en complément d’une modélisation déterministe.
Les approches probabilistes directes sont les plus fréquemment utilisées car développées
depuis plus longtemps. Avec le développement des moyens informatiques, les méthodes par
simulation se sont développées et font l’objet de nombreuses publications dans le domaine de
l’hydrologie fréquentielle.
Cependant la mise en œuvre de ces méthodes de prédétermination de l’aléa reste soumise au
problème de l’observation du phénomène. En effet, par nature les événements extrêmes sont rares et
par conséquent peu observés. Par exemple, un événement centennal à une probabilité d’apparition
annuelle de 1/100. On a donc une chance sur 100 de l’observer chaque année, et sur une chronique
7
d’observation de 50 ans (donc conséquente), on a 60% « de chance » de ne pas observer un
événement centennal et donc seulement 40% de chance de voir un ou plusieurs événements
centennaux. Pour un événement millénal, la probabilité d’en observer un ou plusieurs sur une
période d’observation de 50 ans est de moins de 5%. Les méthodes développées devront donc
permettre d’évaluer avec le plus de fiabilité possible la fréquence des événements extrêmes, en
s’appuyant sur un échantillon de valeurs observées nécessairement peu représentatif de ces valeurs
extrêmes.
A cette difficulté s’ajoute le problème de la connaissance régionale de l’aléa, c'est-à-dire son
estimation en tout point d’un territoire. En effet l’aléa hydrométéorologique présente parfois une
forte variabilité spatiale qui n’est pas « captable » par le réseau de mesures. L’observation plus
précise des phénomènes sur certains bassins versants de recherche montrent cette forte variabilité
[Arnaud, 2010]. Malheureusement cette information n’est disponible que partiellement et ne pourra
jamais être exhaustive par manque de moyens. Les approches de prédétermination de l’aléa devront
donc être adaptées pour permettre son estimation sur des zones non-instrumentées.
De manière générale, l’hydrologie est une disciple complexe et relativement récente dans le
monde de la recherche [Musy and Higy, 2004] dont l’objectif est étudié le cycle de l’eau résultant
de l’interaction entre de nombreux processus. Ces processus sont difficiles à comprendre et à
modéliser de part leur complexité et leur observation partielle. L’hydrologie statistique est une
branche de cette discipline qui vise à fournir une information synthétique sur la variabilité spatio-
temporelle des processus hydrologiques à partir de l’analyse des observations de chroniques hydro-
climatiques.
La majeure partie de mes recherches s’est focalisée sur cette discipline qu’est l’hydrologie
statistique, dans l’objectif de trouver des méthodes permettant de rendre compte au mieux de la
variabilité spatiale et temporelle de l’aléa hydrologique sur de grands territoires, en présence ou en
l’absence d’observations. Dans les paragraphes suivants, un état de l’art sur les méthodes
actuellement disponibles est présenté pour amener à une réflexion sur le choix de la démarche
scientifique choisie. Les méthodes de prédétermination probabilistes existantes sont présentées en
fonction de leur appartenance aux deux familles évoquées plus haut : les « approches probabilistes
directes » et les « approches par simulation ». Cette présentation n’est surement pas exhaustive,
mais elle permet de situer l’approche que je développe avec mon équipe dans le contexte de la
recherche actuelle sur le sujet.
8
A.2 Les « approches probabilistes directes »
A.2.1 Généralités sur les approches probabilistes
La recherche de lois de probabilité décrivant directement les phénomènes aléatoires extrêmes
a connu de nombreux développements de part les enjeux qu’elle représente pour la gestion des
risques qui leur sont associés (naturels mais aussi économiques, sociologiques et autres). Une
branche des statistiques s’est donc intéressée au domaine des valeurs extrêmes en développant des
lois théoriques fondées sur la théorie dites des valeurs extrêmes [Stuart. Coles, 2001]. Ces lois,
utilisées en hydrologie, sont présentées dans de nombreux ouvrages destinés à des applications
concrètes d’ingénierie [Chow et al., 1988; Lang and Lavabre, 2007; Llamas, 1993].
L’ajustement d’un modèle probabiliste (loi de probabilité) passe par différentes étapes qui
multiplient les chemins pour estimer l’aléa : choix de la variable, choix de la méthode
d’échantillonnage, choix de la loi de probabilité, choix de la méthode d’ajustement des
paramètres,… (Figure 2).
Figure 2 : Etapes associées à l’ajustement d’une loi de probabilité.
A partir d’une série chronologique, l’objectif est bien d’aboutir à une distribution de
probabilité théorique en adéquation avec la distribution de fréquence empirique de la variable
étudiée. Parmi les étapes à réaliser, les options qui s’offrent à l’hydrologue sont nombreuses :
9
a) L’échantillonnage de la variable d’intérêt : l’étude d’un phénomène hydrométéorologique se
fait généralement à partir de chroniques d’observations du phénomène, à un pas de temps
donné (parfois variable). Pour l’étude des caractéristiques extrêmes du phénomène, des valeurs
maximales sont échantillonnées à partir de ces observations. Ces valeurs maximales peuvent
être échantillonnées de deux façons : un échantillonnage de valeurs maximales par bloc (la
chronique est découpée en périodes d’observations définies sur lesquelles la valeur observée
maximale est extraite) ou un échantillonnage par valeurs supérieures à un seuil élevé (toutes les
valeurs supérieures à un seuil suffisamment élevé, pour ne retenir que les valeurs « record »
indépendantes entre elles). Les valeurs maximales ainsi échantillonnées seront alors
considérées comme les réalisations d’une variable aléatoire dont on cherchera à identifier la
distribution de probabilité par l’ajustement d’une loi de probabilité théorique. Au-delà de la
méthode d'échantillonnage, il est bien clair que l'échantillon est tributaire des caractéristiques
de la période d'observation, c’est à dire de sa durée (plus la durée d’observation sera grande,
plus l’échantillon sera représentatif) et de sa position par rapport à des successions d'années
sèches et humides (bien que les hypothèses de stationnarité du phénomène et de l’indépendance
des années successives soient généralement faites). L’objectif de l’échantillonnage reste de
déterminer un ensemble de valeurs indépendantes, appartenant à une même population.
Les deux types d’échantillonnage présentés sont généralement réalisés sur l’ensemble des
valeurs observées d’une série chronologique, en faisant l’hypothèse que ces valeurs
représentent un même phénomène. Cette hypothèse peut être remise en cause, en mettant en
avant des processus différents au cours de l’année (par exemple, certains bassins présentent des
crues issues d’un régime « nival » et « pluvial » n’ayant pas les mêmes caractéristiques). La
chronique des observations peut alors être découpée en « sous chroniques » dans lesquelles le
phénomène observé sera alors plus facilement considéré comme appartenant à une même
population. C’est le cas des analyses réalisées par saison, ou par type de temps [Garavaglia et
al., 2011]. Dans ce cas, chaque « sous-chronique » est analysée séparément par des lois
« saisonnières » qui seront combinées pour fournir une loi de probabilité composite, annuelle.
b) Le choix d’une loi de probabilité : ce choix va dépendre de la méthode d’échantillonnage
utilisé. L’étude des valeurs maximales par bloc (comme par exemple les valeurs maximales
annuelles) ont conduit Fisher et Tippett [1928] à montrer que la distribution de ces variables ne
peut suivre que trois lois de probabilité : la loi de Fréchet [1927], de Gumbel [1935] et de
Weibull [1951]. Ces lois seront reformulées en une loi plus générale appelée loi GEV (loi
généralisée des extrêmes ou Generalized Extreme Value distribution) [Jenkinson, 1955]. Des
développements similaires ont été réalisés pour un échantillonnage de valeurs supérieures à un
seuil élevé et ont conduit à définir la loi GP (loi Pareto généralisée ou Generalized Pareto
distribution) [Pickands, 1975] dont la loi exponentielle est un cas particulier. L’étude des
valeurs supérieures à un seuil permet de s’affranchir du coté réducteur d’un échantillonnage par
bloc qui impose un seul maximum par bloc (par an par exemple). La difficulté réside cependant
dans la détermination du seuil de sélection qui ne doit, ni être trop élevé ni trop bas. Les
ouvrages de Coles [2001] ou Beirlant et al. [2004] réalisent une synthèse des multiples travaux
sur la théorie des valeurs extrêmes en présentant les différentes lois qui en résultent en fonction
de l’échantillonnage choisi, les différentes méthodes d’estimation des paramètres
(vraisemblance, L-moments, moments pondérés,…), l’estimation des intervalles de confiances
10
associés,… D’autres lois de probabilité théoriques peuvent être utilisées comme la loi log-
Pearson Type III retenue par le gouvernement fédéral américain [(WRC), 1967].
c) L’estimation des paramètres : La plupart des lois de probabilités utilisées en hydrologie pour
étudier les valeurs extrêmes, présentent 2 ou 3 paramètres. Ces paramètres permettent
généralement de caractériser la tendance centrale de la variable (paramètre de position), la
dispersion des valeurs autour de ces valeurs « centrales » (paramètre d’échelle) et la
dissymétrie de la distribution (paramètre de forme). Il existe de nombreuses méthodes
d’estimation des paramètres, étudiées par de nombreux auteurs en fonction de la loi de
probabilité utilisée. Parmi ces méthodes il y a : la méthode des moments (elle consiste à mettre
en lien les moments de la variable avec les paramètres de la loi de probabilité théorique), la
méthode du maximum de vraisemblance (introduite par Fisher en 1922 [Aldrich, 1997], elle
vise à déterminer le paramétrage qui maximise les probabilités des réalisations observées), la
méthode des L-moment (basée sur des combinaisons linéaires des moments de probabilité
pondérés),…
L’application de ces méthodes statistiques sur des données locales reste particulièrement
sensible aux problèmes de l'échantillonnage. L'ajustement statistique reste très fortement influencé
par la présence, ou l'absence, des valeurs "exceptionnelles" dans l'échantillon des observations, en
particulier lors de la détermination d’un paramètre de forme. Le poids de ces valeurs, souvent
entachées d'une forte incertitude métrologique, devient extrêmement important dans la
prédétermination des quantiles rares (extrapolation en fréquence). De manière générale, il n’est pas
recommandé d’utiliser ces approches pour une extrapolation des distributions de fréquences vers les
valeurs extrêmes, lorsqu’elles sont calées localement [Lang et al., 2013].
Pour réduire les effets de l’échantillonnage, très dommageable pour l’estimation des valeurs
rares et extrêmes, des approches complémentaires ont été développées. Afin de mieux prendre en
compte le poids des valeurs extrêmes, une des solutions est donc d’enrichir l’échantillon des valeurs
observées, pour augmenter sa représentativité. Pour cela, la recherche d’informations sur d’autres
sites de mesure (approche régionale), sur différentes variables caractéristiques (approche multi-
durées), sur des données historiques (approche historique) est réalisée. Un bref aperçu du principe
des approches les plus courantes est donné dans les paragraphes suivants.
A.2.2 Les méthodes régionales
La méthode dite des « années-stations » ou les approches régionales utilisent l'information de
plusieurs stations pour réduire l'influence des erreurs sur les données et l’influence de
l’échantillonnage des valeurs exceptionnelles. Elles peuvent être utilisées pour le traitement
statistique des pluies, comme pour les débits. Il y a la méthode de l’index de crue [Darlymple, 1960]
qui a initié ces approches, largement utilisées actuellement [J.R.M. Hosking and Wallis, 1997; Merz
and Blöschl, 2005; Ribatet et al., 2007; Stedinger and Tasker, 1985]. L’homogénéité spatiale des
données doit être vérifiée par diverses méthodes statistiques [J. R. M. Hosking and Wallis, 1993].
Après « homogénéisation » ou « normalisation », les données de différentes stations de mesure sont
agglomérées et étudiées de façon régionale. L'accroissement de l'effectif permet l'utilisation de
11
façon robuste de lois à 3 paramètres, comme la loi GEV [Neppel et al., 2007a], voire des lois à 4
paramètres comme la loi TCEV présentée par Rossi [1984].
Notons que de nombreuses applications de méthodes régionales conduisent à des valeurs
négatives pour les coefficients de forme de la loi GEV ou GPD utilisées sur des données de pluies
journalières (-0.15 en Espagne [Ferrer, 1992] ; -0.15 en Grèce [Demetris Koutsoyiannis, 2004] ; -
0.13 sur la région Languedoc [Dominguez et al., 2005]), signifiant un comportement asymptotique
plus qu’exponentiel pour cette variable. Les approches régionales sont largement préférables aux
approches locales, à condition de s’assurer de l’indépendance des données agglomérées et de leur
homogénéité.
A.2.3 Les approches multi-variées
Une autre façon d’augmenter la représentativité de l’échantillon des données observées est
d’étudier en même temps plusieurs variables d’un même phénomène. C’est le cas par exemple
lorsque la pluviométrie est étudiée sur l’ensemble de ces durées, à travers l’analyse des courbes
IDF (Intensité-Durée-Fréquence)[Demetris. Koutsoyiannis et al., 1998]. Des approches du type QdF
(Débit-Durée-Fréquence) étudient aussi l’ensemble des durées pour les débits [Pierre Javelle et al.,
1999]. L’hypothèse sous-jacente est que les pluies (ou les débits) de différentes durées sont
dépendantes entre elles et leur dépendance est liée à la durée sur laquelle le phénomène est étudié.
C’est aussi une hypothèse des méthodes multifractales qui considère une certaine invariance
d’échelle du phénomène. Cette hypothèse permet une nette réduction du nombre de paramètres pour
modéliser un phénomène complexe [Burlando and Rosso, 1996].
Les modèles multi-durées présentent un grand intérêt en ingénierie puisque des données
journalières peuvent être utilisées pour estimer des quantiles à des pas de temps plus fins. Ces
données journalières, plus largement disponibles que les données à pas de temps plus fins peuvent
alors améliorer l’estimation des pluies à pas de temps fins. Par exemple, Muller et al. [2009]
montrent, sur une longue chronique de pluies à Marseille, que les enregistrements journaliers sont
de meilleure qualité et présentent moins de lacunes que les enregistrements horaires, en particulier
lors des événements extrêmes. Dans ce cas, les estimations des quantiles de pluies de courtes durées
réalisées par une approche multi-durées sont plus robustes et plus fiables que celles obtenues par
une approche classique par durée de pluie.
A.2.4 Les approches historiques
Leur objectif est d’utiliser une information historique pour consolider la distribution des
valeurs observées avec des valeurs plus anciennes que les données systématiques (chroniques) [J.
Miquel, 1983; J Miquel, 1984]. L'utilisation de l'information historique dans une analyse
fréquentielle permet de mieux intégrer l'information réellement disponible et devrait donc permettre
d'améliorer l'estimation des quantiles de grandes périodes de retour. Ces approches sont surtout
appliquées pour intégrer l’information relative aux grandes crues qui se sont produites avant le
début de la période de mesures systématiques. Des approches bayésiennes sont alors utilisées pour
traiter des informations partielles et souvent associées à de fortes incertitudes [Gaume et al., 2010;
12
Naulet et al., 2005; Neppel et al., 2010; Payrastre et al., 2011]. De façon générale, l'utilisation de
l'information historique conduit à une diminution de l'impact des valeurs singulières dans les séries
d'enregistrements systématiques et à une diminution de l'écart-type des estimations [Ouarda et al.,
1998]. L’incertitude d’échantillonnage sur les quantiles estimés est donc réduite lorsque
l’information historique est exploitée. Une des difficultés de cette approche est peut être
l’estimation des débits de crues historiques, en particulier le passage des hauteurs d’eau (niveaux
historiques atteints) aux débits [Naulet, 2002; Naulet et al., 2005]. Des efforts particuliers sont
réalisés pour centraliser cette information indispensable pour consolider l’estimation des valeurs
extrêmes. A titre d’exemple, la base nationale BDHI recense les crues mémorables observées en
France (http://bdhi.fr/appli/web/welcome), surtout pour les grands cours d’eau traversant les
grandes villes. Les pluies extrêmes sont aussi renseignées par Météo-France pour maintenir la
mémoire des records observés (http://pluiesextremes.meteo.fr/). A noter que la pluviométrie
bénéficie généralement de données systématiques plus longues que les données de débit.
A.2.5 Combinaison de lois ajustées sur différentes variables d’intérêt
La prédétermination des débits peut aussi être approchée par l'étude statistique des pluies.
Généralement, cette étude amène à la détermination d'une pluie de projet liée à une probabilité
d'apparition. Cette pluie de projet peut être établie de deux façons [C.I.G.B., 1992] :
- par une approche probabiliste utilisant les méthodes statistiques locales appliquées sur la
pluie. Dans ce cas, la pluie de projet est liée à une probabilité d'apparition ou une période de retour.
Son élaboration repose sur l'analyse statistique de divers éléments (hauteur, durée, forme) des
événements pluvieux [Sighomnou and Desbordes, 1988].
- par une approche maximaliste ou d'événement maximal probable : la pluie de projet est
alors définie comme la plus forte précipitation physiquement possible sur une surface donnée, pour
un site et une époque donnés [Collier and Hardaker, 1996; Hershfield, 1961; D. Koutsoyiannis,
1999].
La pluie de projet est transformée en crue de projet par une modélisation hydrologique simple.
Cette crue de projet sert alors directement au dimensionnement des ouvrages hydrauliques. Divers
problèmes apparaissent alors, comme le problème d'échantillonnage sous-jacent à l'étude statistique
des pluies servant à l'élaboration de la pluie de projet (problème identique à l'étude statistique des
débits seuls) ou le problème de l'affectation d'une fréquence à une pluie de projet synthétique, puis
celui de l'affectation d'une fréquence à l'hydrogramme qui en résulte.
L'information fréquentielle des pluies peut aussi être utilisée directement pour renseigner le
comportement des débits vers les fréquences rares. C'est le principe de la méthode du Gradex mise
au point par Guillot et Duband [1967]. Dans un diagramme de Gumbel, l'extrapolation de la
distribution de fréquences des débits est réalisée de façon parallèle à la distribution de fréquences
des pluies, en faisant l'hypothèse de la saturation des sols pour les pluies de fréquences rares. Des
variantes à la méthode du Gradex ont été développées en faisant varier progressivement le
comportement asymptotique des débits en fonction de la période de retour étudiée [Margoum et al.,
1994].
13
L'utilisation de l'information pluviométrique améliore la connaissance des quantiles de crues
rares. Cependant, l'absence de chroniques suffisamment longues, les problèmes de métrologie lors
de l'observation de forts événements (pluviomètres qui débordent, stations limnimétriques noyées
ou emportées) et la difficulté d'attribuer une fréquence aux valeurs exceptionnelles observées,
rendent les résultats de ces méthodes statistiques extrêmement sensibles à l'échantillonnage des
valeurs fortes.
Les approches probabilistes directes s’appuient sur des développements théoriques en
statistiques, liés en particulier aux recherches issues de la théorie des valeurs extrêmes. Cet aspect
de l’hydrologie statistique fait l’objet de nombreux travaux à la frontière entre l’hydrologie et les
mathématiques appliquées.
Les méthodes présentées bénéficient donc d’un cadre théorique fort, mais s’appuient aussi
sur des approches plus empiriques essayant de mettre en avant les processus, à l’instar des
méthodes prenant en compte la pluie pour estimer des débits.
La pratique a conduit aussi les hydrologues à essayer de s’affranchir au mieux des problèmes
d’échantillonnage particulièrement importants pour l’estimation de valeurs extrêmes. L’échantillon
des valeurs traitées est donc régulièrement enrichi par de l’information soit historique soit
régionale.
Les méthodes présentées restent cependant strictement liées à l’étude de la variable d’intérêt
et ne permettent pas la prise en compte du phénomène dans sa complexité temporelle. C’est pour
essayer de répondre à cette limitation que les méthodes par simulation ont été développées.
14
A.3 Les « approches par simulation »
Les recherches en milieu non jaugé ont conduit certains chercheurs à introduire, dans
l'estimation des quantiles de crues, l'utilisation de générateurs de pluie couplés à une transformation
de la pluie en débit. Cette approche a été initiée par Eagleson [1972] et utilisée dans de nombreuses
autres études. Les méthodes par simulation sont basées sur deux éléments principaux [Cadavid et
al., 1991]: un modèle probabiliste qui introduit une composante stochastique à travers un modèle de
pluie ; un modèle de transformation de la pluie en débit qui fournit un débit de pointe et une forme
de crue pour une pluie efficace donnée.
Par la combinaison de ces deux éléments, les débits de pointe ou d’autres variables
hydrologiques peuvent être extraits des scénarios de crues simulés, pour déterminer leur distribution
de probabilité de façon empirique. Ces méthodes sont généralement appliquées sur des bassins de
moins de 10 000 km². Au delà, les problèmes d’hétérogénéité climatique et hydrologique
deviennent trop importants, ainsi que les problèmes liés à l’estimation de la dépendance spatiale des
événements extrêmes (problèmes de concomitance des crues).
Ces méthodes par simulation (Continuous Simulation Modelling : CSM) font l’objet d’une
activité de recherche croissante [Li et al., 2014]. En Europe, le projet Européen FloodFreq COST 7
ES0901 Action (http://www.cost-floodfreq.eu/) présente par exemple, différentes méthodes de
prédétermination des crues basées sur des approches par simulation [Willems et al., 2012] : aux
Royaumes Unis [Kjeldsen, 2007], en France [Arnaud and Lavabre, 2002; Paquet et al., 2013], en
Grèce [Loukas, 2002], en République tchèque [Blazkova and Beven, 2002] et en Slovaquie
[Hlavcova et al., 2004].
L’analyse bibliographique de ces méthodes montre de multiples variantes liées au type de
modélisations mises en œuvre, soit au niveau de la prédétermination de la pluie et soit au niveau du
passage au débit. Elle montre que [Willems et al., 2012] :
- Les simulations d’événements de pluies peuvent être « continues » ou « événementielles »,
« ponctuelles » ou « spatiales ». Les modélisations mises en œuvre sont aussi très variées, du
simple tirage aléatoire de pluies journalières à la simulation complète de hyétogrammes
horaires.
- En général les méthodes prennent en compte les effets orographiques de la pluie et certaines
peuvent fonctionner en sites non-jaugés.
- La moitié des méthodes fonctionnent avec une modélisation hydrologique globale, les autres
avec des approches semi-distribuées. Les modèles hydrologiques utilisés sont extrêmement
nombreux et correspondent généralement aux modèles développés par les chercheurs dans le
cadre d’autres utilisations.
- L’incertitude de ces méthodes est difficile à prendre en compte et fait l’objet d’une
recherche active.
15
De même que pour les approches probabilistes directes, il est donc impossible d’être exhaustif
sur les méthodes existantes. La présentation faite ici, regroupe différentes approches de
modélisation de la pluie, en les classant en trois groupes : les approches ponctuelles basées sur des
processus agrégatifs, celles basées sur des processus désagrégatifs et les approches spatiales
générant des champs de pluie. Le passage au débit est présenté en fonction du degré de complexité
modélisé dans la relation pluie-débit.
A.3.1 La simulation des pluies
La pluie résulte de processus physiques naturels dont les principes fondamentaux sont connus.
Les phénomènes énergétiques et mécaniques concernant la physique atmosphérique sont alors à la
base des modèles de prévision météorologique. Mais ces modèles sont associés des échelles souvent
trop grandes pour être utilisés en hydrologie. Le phénomène de précipitation est alors plutôt
considéré comme un phénomène aléatoire qui peut être étudié de façon statistique par le biais
d’approches stochastiques, à la base des générateurs de pluies.
Les modèles de génération de pluies sont plus fréquemment associés à un pas de temps
journalier [Buishand, 1978; Thompson et al., 2007]. La modélisation des pluies au pas de temps
journalier est en effet plus simple car le phénomène est moins complexe qu’aux pas de temps plus
fins. L’information est d’ailleurs bien plus importante au pas de temps journalier, ce qui facilite leur
mise en application. L’étude des crues nécessite souvent d’avoir une information à pas de temps
infra-journalier. Bien que leur développement soit plus réduit qu’au pas de temps journalier, les
modélisations de chroniques de pluies à pas de temps fins ont fait l’objet de nombreuses recherches
à travers différentes approches.
1. Les approches ponctuelles agrégatives
Initiés par les travaux de LeCam [1961], certains modèles sont basés sur des processus
d’agrégation, par la combinaison de deux processus aléatoires : le positionnement de cellules
pluvieuses (en définissant leur occurrence et la durée qui les sépare), puis la détermination de leur
quantile d’eau (en définissant la durée et l’intensité de ces cellules). Les auteurs de ce processus
[Neyman and Scott, 1958] l'élaborèrent pour traiter de façon probabiliste des phénomènes de
cosmologie (représentation de galaxies).
C'est Waymire et Gupta [1981] qui furent les premiers à utiliser ce processus pour décrire
l'occurrence des épisodes pluvieux, ainsi que des cellules pluvieuses qui les composent. Ces cellules
pluvieuses ainsi générées et positionnées, sont affectées d'une durée et d'une intensité. La pluie sur
chaque pas de temps est alors déterminée par la somme des intensités des cellules présentes sur le
pas de temps. Deux approches sont principalement utilisées pour positionner les cellules pluvieuses
dans la chronique : le processus de Neyman-Scott et le processus de Bartlett-Lewis [David
Cameron et al., 2000] (Figure 3).
16
Figure 3 : Principe des modèles basés sur un processus d’agrégation.
Ces modèles fonctionnent en continu. Ils nécessitent un nombre relativement faible de
paramètres pour générer des épisodes pluvieux (5 ou 6), mais qui doivent être déterminés pour
chaque mois (d'où plus de 60 valeurs) ou du moins par saisons.
Le calage de ces paramètres n’est pas directement lié à l’observation du phénomène qu’ils
sont censés représenter (nombre de cellules, leur durée, leur intensité,…) mais plutôt une
adéquation à postériori des résultats de la modélisation avec les caractéristiques statistiques de
pluies observées (valeur moyenne ou variance de pluies de différentes durées, auto-corrélation des
pluies horaires, probabilité de valeurs nulles,…).
Les différents travaux sur ces modèles [Cowpertwait, 1991; Rodriguez-Iturbe et al., 1987]
montrent que cette approche donne des résultats relativement bons. Ces modèles sont capables de
reproduire correctement la distribution des pluies à différents pas de temps. Des développements sur
ces modèles ont porté sur la régionalisation de leurs paramètres [Cowpertwait et al., 1996], sur leur
capacité à reproduire des valeurs extrêmes [David Cameron et al., 2000] et sur l’étude de leur
incertitudes [Favre et al., 2004].
D’autres modèles sont basés sur une simulation « directe » de hyétogrammes, définie à partir
de l’analyse descriptive qui est faite du signal observé. Ces modèles partent aussi du principe que la
pluie peut être assimilée à un processus aléatoire et intermittent (succession d'états secs et
pluvieux). A la différence des approches présentées plus haut, les caractéristiques des
hyétogrammes sont directement déterminées à partir des hyétogrammes observées. L’observation
directe de ces variables permet un calage à priori des lois de probabilité que les caractérisent. Ces
lois serviront alors à reconstruire le signal de pluie. Ces modèles reposent aussi sur l'hypothèse
d'indépendance des variables décrivant les hyétogrammes, ainsi que sur l'hypothèse de stationnarité
Origine de l'épisode (Processus de Poisson)
Durée d'activité des épisodes (loi exponentielle)
( PRO CESSUS DE BARTLETT-LEWIS )
Origine des cellules (Processus de Poisson )
( PRO CESSUS DE NEYMAN-SCO TT )
Nombre de cellules par épisode (loi de Poisson ou loi géométrique)C = 4 C = 3
1 1 22 343
Origine des cellules à partir de l'origine de l'épisode
1 1 22 34 3
A chaque instant, la pluie est égale à la somme
Durée des cellules (loi exponentielle)
(loi exponentielle)
Intensité des cellules (loi exponentielle)
des intensités présentent à cet instant.
temps
temps
temps
temps
temps
temps
temps
temps
17
du phénomène étudié. Ce type de modèle est souvent retrouvé au pas de temps horaire [Patrick
Arnaud and J. Lavabre, 1999; F. Cernesson, 1993; Lebel, 1984; Tourasse, 1981], mais aussi au pas
de temps journalier [Buishand, 1978]. L'élaboration de ce type de modèle se résume donc à trouver
les bonnes variables aléatoires indépendantes décrivant le processus de pluie, ainsi que les lois de
probabilité qui les représentent le mieux. La reconstruction du signal s'effectue grâce à une
hiérarchisation logique du tirage des différentes variables, afin de parvenir à une représentation la
plus fidèle possible du signal de départ, tout en respectant la définition des variables utilisées. La
validation du modèle consiste à étudier sa capacité à reproduire des variables représentatives du
signal simulé, non utilisées lors du calage du modèle. Sur cette base, différents modèles peuvent
être élaborés (comme celui développé dans notre approche), les différences provenant en particulier
du choix des variables descriptives et de leurs lois de probabilité.
2. Les approches ponctuelles désagrégatives
Parmi ces approches, il y a des modèles basés sur la désagrégation de la pluie journalière
[Econopouly et al., 1990; Demetris koutsoyiannis, 1994]. L'élaboration de tels modèles trouve son
intérêt dans la disponibilité plus large des données journalières par rapport aux données horaires.
Une première approche, présentée par Glasbey et al [1995] consiste à simuler des séries de
pluies horaires à partir d'un modèle horaire, qui n’est pas forcément calé, et de les contraindre à
respecter les totaux journaliers observés. La simulation des pluies horaires se fait donc de façon
inconditionnelle, jusqu'à obtenir une séquence ayant des totaux horaires satisfaisants. La méthode
présentée agrège donc des pluies horaires simulées avant de désagréger la pluie journalière observée
ou générée par un modèle journalier. Les résultats sont indépendants du modèle horaire qui peut
être du type de ceux présentés précédemment. Les modèles de génération de chroniques de pluies
journalières ne manquant pas (toute la famille des modèles auto-régressifs ou autres...), leur
couplage avec cette approche de désagrégation fournit une nouvelle méthode d'étude des
distributions des pluies à pas de temps fins.
Des modèles basés sur des processus de cascades multiplicatives, ont aussi été développés
[Gupta and Waymire, 1993; Over and Gupta, 1994] et permettent parfois une désagrégation sur des
pas de temps inférieurs à l’heure [Gaume et al., 2007; Molnar and Burlando, 2005]. Ils exploitent la
propriété d’invariance d’échelle issue de la théorie des fractales, pour répartir la pluie sur un pas de
temps successivement divisé par deux.
D’autres approches visent à désagréger des événements pluvieux simulés sans forme
(uniquement leur durée, leur intensité moyenne et la durée entre deux événements), en leur
appliquant un « profil d’averse ». Ce profil d’averse correspond à une courbe adimensionnelle de
répartition de la pluie en fonction du temps (courbe de Huff [1967]). L’analyse des pluies horaires
observées permet la détermination de plusieurs « profils » qui seront alors tirés aléatoirement pour
produire des pluies horaires [Acreman, 1990; Eagleson, 1972; Heneker et al., 2001]. Les résultats
de ces modèles sont cependant fortement tributaires la dépendance entre les variables modélisant les
cumuls des événements (entre la durée et l’intensité) et la dépendance des « profils » choisis en
fonction du cumul des averses. Pour pallier à ces dépendances, une classification peut être faite sur
18
les événements (par type de perturbation ou par saison) pour prendre en compte une certaine
typologie des événements pluvieux [D. Cameron et al., 2000; Cameron et al., 1999].
Remarque : La désagrégation reste une approche intéressante que nous avons étudiée pour
passer aux pas de temps infra-horaires [cantet, 2014; Fine, 2009]. Dans ce cas, les modèles de
désagrégation utilisés sont différents de ceux pouvant exister pour désagréger la pluie journalière.
3. Les approches spatiales
Les générateurs de champs de pluies, ou générateurs spatiaux, permettent de prendre en
compte la structure spatiale de la pluie, occultée dans les approches ponctuelles, si ce n’est par le
biais du coefficient d’abattement spatial qui permet d’estimer une pluie moyenne sur une surface.
Le développement de ces approches est plus récent car elles nécessitent une information
conséquente sur la pluviométrie pour étudier sa structure spatiale. Cette information devient de plus
en plus disponible à des échelles fines grâce aux développements de l’imagerie radar [Krajewski
and Smith, 2002].
Les générateurs de champs de pluies s’appuient soit sur des approches géostatistiques avec
l’étude de la fonction de covariance spatiale de la pluie [Bouvier et al., 2003; Leblois and Creutin,
2013; Mantoglou and Wilson, 1982], soit sur des approches de type « agrégatives » qui modélisent
la génération de cellules pluvieuses dans l’espace et le temps [Rodriguez Iturbe and Eagleson,
1987; Waymire et al., 1984; Willems, 2001]. Des approches multifractales sont aussi utilisées pour
modéliser des champs de pluies à différentes échelles d’espace (souvent par désagrégation), avec un
nombre de paramètres moins important [Deidda, 1999; Gaume et al., 2007].
Ces générateurs de champs spatiaux présentent des intérêts évidents pour l’étude des
phénomènes courants, mais ils sont peu utilisés dans le cadre de la prédétermination des pluies ou
des crues car ils n’ont pas encore été évalués dans leur capacité à générer des événements extrêmes.
A.3.2 Le passage aux débits
Les pluies simulées par les différentes approches présentées (§ A.3.1) peuvent être
transformées en événements de crues par le biais de modèles hydrologiques. La modélisation
hydrologique est une discipline très « féconde » car il existe une multitude de modélisations plus ou
moins complexes, s’appuyant sur des approches différentes. Ces modèles sont généralement utilisés
pour reconstituer des crues observées. Ils sont aussi utilisés en prévision de crues, pour déterminer
l’évolution des débits dans un futur proche, à partir d’hypothèses sur les pluies à venir. Ici, on
s’intéresse à leur utilisation pour la prédétermination des débits. Une classification de ces modèles
hydrologiques est présentée en fonction de la simplification qui est faite dans la modélisation des
processus. Trois types de modèles sont différenciés :
19
- Les modèles empiriques : en simplifiant au maximum le processus, ils ne s’intéressent qu’à la
réponse du système. Cette réponse est modélisée grâce à une équation ou à un opérateur dont
les paramètres sont déterminés par les résultats expérimentaux. Ces modèles sont assimilés à
une « boite noire » donnant une description purement mathématique du fonctionnement du
système, sans faire appel à une notion liée à la physique du processus. Ces modèles sont très
dépendants des données et donc difficilement extrapolables au-delà de leur condition
d’élaboration. Couplées à l’information de la pluie (caractérisée généralement par un quantile),
il y a par exemple la formulation simple de la méthode rationnelle introduite par Kuichling
[1889], la méthode du Gradex [Guillot and Duband, 1967] et ses dérivées [Margoum et al.,
1994], les méthodes régionales CRUPEDIX et SOCOSE [Ministère de l'Agriculture et al.,
1980], …
- Les modèles conceptuels : ils sont basés sur une conception simple du processus qui ne fait
pas vraiment appel aux processus physiques mis en jeu. Ces processus physiques et leur
interaction sont modélisés par des opérateurs dont les paramètres n’auront pas de significations
physiques réelles. Ces modèles sont surement ceux qui présentent le plus de développements,
surement parce qu’ils présentent un bon compromis entre leur facilité de mise en œuvre et leurs
bonnes performances. Couplés à des générateurs de chroniques de pluies, il y a par exemple le
modèle hydrologique MORDOR [Garcon, 1999] utilisé dans la méthode SCHADEX
développée par EDF [Paquet et al., 2006; Paquet et al., 2013], le modèle GR3H [Yang, 1993]
utilisé dans la méthode SHYPRE développée par Irstea [Arnaud and Lavabre, 2002], des
modèles basés sur l’hydrogramme unitaire couplés avec des générateurs basés sur le processus
de Poisson [Hebson and Wood, 1982; Rodriguez-Iturbe and Valdes, 1979],…
- Les modèles mécanistes : aussi appelés modèles à base physique ou théoriques, ils cherchent à
représenter et à expliquer le fonctionnement du système par la description de ses mécanismes
internes, avec l’utilisation de lois physiques théoriques. Les paramètres de ces modèles sont
censés être mesurables. Les difficultés de la mise en place de ces modèles restent liées à la
complexité des processus hydrologiques et à la disponibilité de données relatives à la mesure de
ses différentes composantes. Couplés à des générateurs de chroniques de pluies, il y a les
modèles basées sur la théorie de l'onde cinématique [Cadavid et al., 1991; Eagleson, 1972;
Shen et al., 1990], le modèle TOPMODEL [Beven and Kirkby, 1979; Blazkova and Beven,
1997],...
Le couplage des modèles hydrologiques aux générateurs de pluies pose des questions
méthodologiques particulières. Quelle que soit la modélisation hydrologique choisie, elle sera
soumise à des pluies simulées, parfois extrêmes, et donc dépassant les conditions de calage des
modèles. Le problème du comportement de la modélisation face à ces pluies extrêmes est lié à la
non-linéarité des processus hydrologiques que la modélisation alors devra prendre en compte. Les
hypothèses faites lors de la conception du modèle auront alors des conséquences importantes pour
la prédétermination des valeurs extrêmes, parfois difficiles à apprécier lors du calage sur des
valeurs observées plus courantes. Se pose alors le problème d’équifinalité des modèles. Ces
modèles devront de plus avoir un paramétrage indépendant de la pluie, pour assurer de leur
utilisation sur toute la gamme de fréquence des pluies simulées.
20
A.4 La démarche scientifique choisie
L’estimation fréquentielle des crues est un véritable sujet de recherche dans le domaine des
sciences de l’environnement, et plus particulièrement dans la discipline « hydrologie ». Comme la
plupart des sciences de l’environnement, l’hydrologie est une discipline en interaction étroite avec
d’autres disciplines. Les flux d’eau sont la conséquence de plusieurs processus liés entre autres à la
météorologie (ou physique de l’atmosphère), à la géologie, la géographie ... Ces flux d’eau
représentent aussi un facteur impactant les écosystèmes terrestres et aquatiques. La connaissance de
la variabilité spatiale et temporelle des flux d’eau sur l’ensemble d’un territoire est donc une
variable d’entrée influant l’étude de nombreux systèmes environnementaux mais aussi anthropiques
(comportement des ouvrages, aménagement du territoire, sécurité des personnes…).
La complexité des processus hydrologiques et leur nature aléatoire fournissent donc des
questionnements qui alimentent la recherche sur le thème de l’estimation fréquentielle de l’aléa
hydrologique. L’état de l’art sur les méthodes disponibles et en développement, a conduit notre
équipe de recherches, à développer une méthode de prédétermination des crues basée sur la
simulation des processus. Cette approche permet de fournir un maximum d’informations sur la
connaissance régionale de l’aléa hydrologique nécessaires à d’autres disciplines.
Les développements initiaux autour de cette approche ont été réalisés par deux travaux de
thèse [Flavie Cernesson, 1993] et [Arnaud, 1997], suivant l’idée de Jacques Lavabre, alors
animateur de l’équipe. Les développements suivants ont été réalisés par une succession de travaux
de thèses pour lesquels j’ai assuré l’encadrement ou le co-encadrement, [Muller, 2006], [Cantet,
2009], [Fouchier, 2010] et [Aubert, 2012].
Au cours de ces années de recherche, la méthode a évolué, mais avec l’objectif affiché de
produire une information temporelle complète sur l’aléa lié aux crues, en tout point d’un territoire.
Cette approche choisie est donc une approche par simulation directe des processus. Elle est basée
sur le développement d’un générateur de pluies au pas de temps horaires (présenté dans la partie B
de ce document) couplé à une modélisation hydrologique simple (présentée dans la partie C de ce
document). Dans un premier temps cette méthode a été développée sur des données
hydrométéorologiques situées en milieu méditerranéen, puis étendue à d’autres contextes
climatiques (tropicaux et tempérés). Le développement des modèles associés à la méthode a été
consciemment contraint par la recherche d’une parcimonie dans la paramétrisation, afin d’éviter la
redondance des paramètres et faciliter ainsi leur régionalisation.
La méthode ainsi développée, présente une certaine complexité contrôlée par un souci de
transposabilité et de performances. Elle a alors été éprouvée dans le cadre d’un projet de recherche
ANR (projet Extraflo) visant la comparaison de méthodes de prédétermination développées en
France, appliquées sur un même jeu de données et confrontées à un panel important de
configurations d’application. Cette méthode, nommée SHYPRE (Simulation d’Hydrogramme pour
la PREdéternimation de crues), a fait l’objet de 80% de mes travaux de recherches et est présentée
dans ce manuscrit.
22
L’estimation de l’aléa pluvial permet d’appréhender les risques associés aux pluies plus ou
moins intenses (ruissellement, laves torrentielles, crues plus ou moins rapides, inondations et autres
phénomènes induits tels que le transport solide ou de polluants…). Il permet de déterminer
l’occurrence ou la « gravité » d’un événement pluvieux observé, ou à l’inverse de prédéterminer un
événement pluvieux pour une fréquence d’apparition donnée.
Par exemple, les procédures de classement des événements en CATastrophes NATurelles
(CATNAT) passent par la détermination de la période de retour des pluies liées à ces événements
(classement en CATNAT des événements de période de retour supérieure à 10 ans). Plus
récemment, des méthodes d’alerte aux phénomènes de ruissellements rapides reposent sur la
qualification en période de retour des pluies observées (en plus de celles des débits). C’est le cas de
la méthode AIGA2 qui définit des niveaux d’alertes associés à des seuils sur les périodes de retour
(2, 10 et 50 ans) des pluies maximales observées par les radars météorologiques [Fouchier et al.,
2007; P. Javelle et al., 2012; Lavabre and Gregoris, 2006]. Sur ce principe, Météo-France a mis au
point un service d’Avertissement aux Pluies Intenses à l’échelle des Communes (service APIC) mis
en œuvre en 2012 (https://apic.meteo.fr/).
L’estimation de l’aléa pluvial est aussi nécessaire dans de nombreuses méthodes de
dimensionnement de réseau d’assainissement, ou pour des méthodes d’estimation de l’aléa
hydrologique combinant l’information fréquentielle des pluies à celles des débits (voir § A.2.5).
La prévention des risques hydrologiques nécessite alors d’avoir une connaissance sur l’aléa
pluviométrique, qui s’exprime par :
- une connaissance sur les valeurs extrêmes : nécessité de pouvoir extrapoler l’information
vers les fréquences rares et extrêmes
- une connaissance sur les intensités de pluie, fournie par une information sur des pas de
temps relativement fins (infra-journalier)
- une connaissance régionale, c'est-à-dire disponible sur l’ensemble d’un territoire donné.
Face au problème de la disponibilité de l’information pluviométrique à pas de temps fins
(chroniques trop courtes, lacunes, faible couverture spatiale, …), les générateurs de pluies offrent
une alternative en simulant des chroniques de pluies statistiquement équivalentes aux chroniques de
pluies observées. La modélisation de ces pluies permet alors de générer de multiples scénarios de
pluies probables directement utilisables pour l’étude du risque pluvial, mais aussi comme variables
d’entrée pour différentes modélisations (hydrologique, transport solide, transfert de polluants, …).
L’intérêt de ces modèles est alors de fournir une information temporelle complète sur des
événements pluvieux probables.
C’est dans ce contexte, qu’un générateur stochastique de hyétogrammes horaires a fait l’objet
de développements et d’applications depuis une vingtaine d’année par l’équipe de recherche en
hydrologie d’Irstea - Centre d’Aix-en-Provence. Les recherches associées à ce générateur de pluie
sont présentées dans cette partie du manuscrit.
2 AIGA : Adaptation d’Information Géographique pour l’Alerte en crues (http://www.irstea.fr/la-
recherche/unites-de-recherche/ohax/hydrologie/aiga).
23
B.1 Développement d’un générateur stochastique de pluies horaires.
Ce générateur de pluies horaires a été développé dans le cadre de deux thèses [Arnaud, 1997;
Flavie Cernesson, 1993] et a subit des améliorations dans le cadre de la thèse de Philippe Cantet
[2009]. Il est fortement basé sur l’analyse descriptive du signal de pluie au pas de temps horaire,
permettant de définir des variables directement quantifiables à partir des hyétogrammes horaires
observés. C’est sur ce point particulier que l’approche se distingue des approches plus
« populaires » basées sur les processus d’agrégation du type Neumann-Scott et Bartlett-Lewis qui
définissent une structure à priori de la pluie pour la modélisation, sans l’analyser directement sur les
hyétogrammes observés.
B.1.1 Le principe
Le générateur est basé sur le principe des approches ponctuelles agrégatives (voir § A.3.1) qui
visent la simulation directe de hyétogrammes. C’est un modèle événementiel, c'est à dire qu'il crée
de façon indépendante et discontinue des événements pluvieux au pas de temps horaire. Le nombre
moyen d'événements par saison3 est respecté, ce qui permet de déterminer des probabilités
annuelles, bien que les événements ne soient pas positionnés dans une chronique. La saisonnalité
des pluies est cependant respectée car la mise en œuvre est faite sur des échantillons saisonniers.
Cette mise en œuvre du générateur de pluies horaires implique trois étapes, présentées sur le
schéma de la Figure 4 et détaillées dans les paragraphes suivants.
1. La première étape est l’analyse descriptive des hyétogrammes observés qui déterminera la
structure et le calage du générateur. Elle conduit au choix des variables qui définissent au
mieux la structure temporelle du phénomène et au choix des lois de probabilité qui vont décrire
ces variables (§ B.1.2). L’hypothèse d’indépendance des variables descriptives les unes par
rapport aux autres doit alors être vérifiée (§ B.1.4). Les paramètres des lois de probabilité de
chaque variable sont ensuite estimés à partir d’un ajustement statistique des distributions de
fréquences des valeurs observées.
2. La seconde étape est la simulation d’événements pluvieux : différentes valeurs des variables
définies à l’étape précédente sont générées par une méthode de Monte Carlo, c'est-à-dire par un
tirage aléatoire dans leur loi de probabilité théorique préalablement calée. La génération des
variables est réalisée suivant un ordre dicté par la construction des événements pluvieux (§
B.1.3). L'hypothèse initiale d'indépendance des différentes variables descriptives permet le
3 Deux saisons ont été choisies pour différencier les pluies d’ « été » plutôt intenses et courtes (de juin à
novembre) et les pluies d’ « hiver » plutôt longues et moins intenses (de décembre à mai), bien que ce découpage puisse
être contestable suivant la climatologie des régions étudiées.
24
tirage des valeurs des variables indépendamment les unes des autres. Si l’hypothèse
d’indépendance n’est pas vérifiée, une prise en compte de la dépendance des variables est alors
nécessaire.
3. La dernière étape est la validation des résultats obtenus : à partir de la simulation d’une
multitude d’événements, associée à une longue période de simulation, des caractéristiques
pluviographiques non utilisées par le modèle sont extraites. Les distributions de fréquences de
ces variables de contrôle (les pluies maximales de 1 à 72 heures) permettent de rendre compte
statistiquement de la cohérence temporelle des événements simulés, par comparaison avec les
distributions empiriques des valeurs observées de ces mêmes variables (§ B.1.5). Ces variables
de contrôles ont été choisies en lien avec l’objectif de cette modélisation : reproduire des
valeurs extrêmes.
Figure 4 : Principe du modèle de pluie horaire de SHYPRE.
Dans cette approche, l’effort est mis dans l’analyse descriptive du signal de pluie au pas de
temps horaire. Le calage de la méthode porte donc sur l’estimation de la distribution de fréquence
de ces variables représentant la structure interne du signal temporel de pluies (des hyétogrammes).
Les variables de validation sont les distributions de fréquences des pluies maximales de différentes
durées. Ces variables sont généralement les variables d’intérêt étudiées par les hydrologues pour le
calage des approches statistiques directes. Ici ce sont des variables de validation non utilisées au
cours du calage du modèle.
25
B.1.2 Analyse descriptive des pluies horaires observées
L’approche choisie est événementielle et l’analyse des observations (et donc le calage du
modèle) se fait sur la base d’événements pluvieux sélectionnés à partir d’un critère journalier4, de
sorte qu’ils soient significatifs ou représentatifs des pluies maximales. Au pas de temps horaire, un
événement (pouvant durer de 1 à plusieurs jours) est considéré comme étant une succession
d’averses. Une averse est elle-même définie comme une succession de pluies horaires ne présentant
qu'un maximum local, avec une décroissance des pluies autour de ce maximum local. Le choix
d’une analyse des hyétogrammes sur la base des averses permet de prendre en compte
implicitement l’auto-corrélation forte qu’il y a entre les pluies horaires successives d’un événement
pluvieux. L’échantillonnage des événements pluvieux conduit à la définition de la première variable
du modèle : la variable « NE » qui est le nombre d'événement pluvieux par an. L’analyse des pluies
au pas de temps horaire est ensuite réalisée événement par événement (exemple Figure 5).
Figure 5 : Détail de l’analyse d’un événement pluvieux : calcul des valeurs des différentes variables
descriptives.
Un événement pluvieux comportera dont une ou plusieurs périodes pluvieuses (variable
« NG » = nombre de périodes pluvieuses dans un événement). Les périodes pluvieuses sont
séparées par un ou plusieurs pas de temps horaires sans pluie (variable « DIA » = durée inter-
averses). Une période pluvieuse comporte alors une ou plusieurs averses successives (variable
« NA » = nombre d’averses par période pluvieuse) séparées par un minimum relatif affecté
arbitrairement à l’averse qui le précède.
4 Les événements pluvieux sont définis comme étant une succession de pluies journalières supérieures à 4 mm et
comprenant au moins un cumul journalier supérieur à 20 mm. Chaque événement pluvieux sélectionné suivant ce critère
est alors analysé au pas de temps horaire.
26
Chaque averse est ensuite définie par différentes variables que sont :
• la durée de l'averse (en heure) : variable « DA »,
• le volume de l'averse (en mm) : variable « VOL »,
• le rapport entre la pluie horaire maximale de l'averse et son volume : variable « RX »,
• et la position relative de la pluie horaire maximale dans l'averse : variable « RPX ».
L’analyse descriptive des événements pluvieux enregistrés sur une station pluviographique
conduit à étudier plusieurs événements par an, composés de plusieurs périodes pluvieuses ayant
elles-mêmes plusieurs averses. L’effectif des variables étudiées est alors bien supérieur à une valeur
par an, ce qui participera à la robustesse de l’approche (pour trente années d’observation, l’effectif
des échantillons sur lesquels portent l’ajustement des lois de probabilité internes au modèle, varie
entre 100 et 1500 réalisations suivant les variables et le poste étudié).
Les huit variables ainsi définies sont utilisées pour décrire les événements pluvieux observés.
L'étude d'une cinquantaine de postes pluviographiques, situés dans les départements du pourtour
méditerranéen français, a permis de déterminer les lois de probabilités théoriques qui reproduisent
au mieux les distributions de fréquences empiriques des différentes variables [Flavie Cernesson,
1993] : la loi de Poisson est utilisée pour les variables NE et DA ; la loi géométrique est utilisée
pour les variables NG, NA et DIA ; la loi normale, tronquée entre 0 et 1, est utilisée pour la variable
PRX ; la loi uniforme pour la variable RX et une loi exponentielle pour la variable VOL.
L’application de ces lois sur de nouvelles séries de mesures, en climat tempéré et tropical, a aussi
montré leur pertinence, conduisant à les garder quelle que soit la zone d’étude [Arnaud, 1997].
L’analyse quantitative des volumes des averses et de leur durée, a montré la nécessité de
distinguer deux types d’averses. Une typologie des averses a fait l’objet de différents tests. Les
travaux effectués sur le modèle en climat méditerranéen ont conduit à la définition d’averses dites
«principales » et d’averses dites « ordinaires ». Un événement pluvieux comptait une seule averse
principale qui était celle qui apporte la plus grande quantité d’eau lors de l’événement. Toutes les
autres averses étaient alors définies comme étant des averses ordinaires [Cernesson et al., 1996].
Cette typologie s’est avérée insuffisante pour caractériser les pluies extrêmes observées sous
d’autres climats. En effet, l'analyse des hyétogrammes observés sur l’île de la Réunion (records
mondiaux de pluviométrie), a montré la nécessité de considérer plus d’une averse « principale » par
événement [Fine and Lavabre, 2003]. Afin de ne pas alourdir la paramétrisation du modèle, dans
l’objectif de sa régionalisation, la solution retenue a été de définir une typologie des averses basée
sur un critère journalier. Ce critère doit permettre de distinguer les averses responsables des forts
cumuls de pluie. Une averse principale par événement est alors retenue, à laquelle sont rajoutées
autant d’averses principales que de jours où la pluie journalière a dépassé 50 mm. Ce seuil de 50
mm, fixé quelque soit le climat, a été choisi empiriquement pour ne pas donner trop d’importance à
des événements pluvieux longs mais peu intenses [Arnaud and Lavabre, 2010]. Ce seuil conduit à
la détermination d’une neuvième variable qui est le nombre d’averses principales de l’événement
(variable « NAVP »). Cette typologie des averses ne concerne que les variables VOL, DA et RX,
qui seront caractérisées par des lois de probabilité ajustées sur les deux échantillons distincts
d’averses. Pour la variable RPX, la distinction des types d’averses n’est pas nécessaire. Le Tableau
1, issus de [Arnaud and Lavabre, 2010], indique les différentes lois de probabilité et leurs
paramètres associés, pour chaque variable du modèle.
27
Tableau 1 : lois de probabilité associées à chaque variable descriptive [Arnaud and Lavabre, 2010].
Ces lois théoriques, calées sur les distributions empiriques des valeurs observées, vont servir à
générer de façon aléatoire chacune des variables nécessaires à la simulation d’un événement.
B.1.3 Simulation d’événements et variables de contrôle
Des hyétogrammes horaires sont construits, averse après averse, à partir des variables
descriptives générées par un tirage aléatoire dans leur loi de probabilité théorique. Pour cela la loi
de probabilité est inversée, en exprimant la valeur de la variable en fonction de sa probabilité
cumulée. Un nombre aléatoire est ensuite généré suivant une loi uniforme entre 0 et 1 pour être
assimilé à une probabilité cumulée et en déduire une valeur aléatoire de la variable (principe
classique dans les méthodes stochastiques). La génération des variables se fait indépendamment au
fur et à mesure des besoins, suivant un ordre précis présenté dans la Figure 6. Le modèle simule
ainsi une multitude des scénarios de pluies horaires.
28
Figure 6 - Organisation des tirages aléatoires des différentes variables nécessaires à la construction
de hyétogrammes.
Par exemple, pour générer un échantillon d’événements équivalents à 100 ans de données, il
faut générer 100 valeurs de la variable NE suivant sa loi calée sur les observations de la saison « été
» (juin à novembre) et 100 valeurs de cette même variable suivant sa loi calée sur les observations
de la saison « hiver » (décembre à mai). La somme de ces 200 valeurs de NE correspond alors au
nombre total d’événements à générer. Puis pour chacun des événements à générer, les variables
descriptives sont générées en prenant en compte leurs lois de probabilité ajustées sur la saison
appropriée. Pour simuler un événement l’ordre des tirages aléatoires effectués est le suivant :
Tirage du nombre de périodes pluvieuses : NG
Pour chaque période pluvieuse, tirage du nombre d’averses qui la compose et de la durée
sèche qui la sépare de la période pluvieuse suivante. On génère donc NG valeurs de NA et
(NG-1) valeurs de DIA. Par sommation, le nombre total d’averses composant l’événement
peut être calculé.
Tirage du nombre d’averses principales à considérer. Ce nombre sera borné par le nombre
d’averses total déterminé précédemment. On génère ensuite la position des averses
principales dans l’événement.
29
Pour chaque averse, les valeurs des variables DA, VOL sont générées en distinguant les
averses principales et les averses ordinaires. La détermination de la durée de chaque averse
et la connaissance des durées inter-averses permettent alors de positionner les différentes
averses dans le temps, et de déduire la durée totale de l’événement. La quantité de pluie
totale de l’événement est obtenue par sommation de toutes les valeurs de la variable VOL.
Pour chaque averse, les valeurs des variables RX (en distinguant la typologie de l’averse) et
RPX sont générées. Le maximum horaire de chaque averse (le produit de VOL par RX) et sa
position sont alors déterminés.
Il reste alors à répartir la quantité restante, soit (1-RX).VOL, de façon aléatoire de part et
d’autre du maximum horaire, en respectant la décroissance des pluies lorsque l’on s’éloigne
du maximum. La définition d’une averse est alors respectée (succession de pluies horaires
ne présentant qu’un maximum relatif).
Un échantillon d’événements pluvieux au pas de temps horaire est ainsi généré, dont l’effectif
est proportionnel au nombre d’années simulées. Cet échantillon doit être statistiquement équivalent
à l’échantillon des événements observés. Pour vérifier cela, l’échantillon des événements pluvieux
simulés est comparé à l’échantillon des événements pluvieux observés utilisés lors du calage du
générateur. Cette comparaison ne peut être que statistique. Pour juger de la pertinence de la
structure temporelle des événements simulés, différentes durées d’analyse doivent être prises en
compte. Le contrôle de la cohérence statistique et de la structure temporelle des événements simulés
est basé sur l’analyse des distributions de fréquences des pluies de différentes durées (courbes
Intensité Durée Fréquence IDF). Ces variables ne sont pas utilisées lors de la modélisation. Elles
sont déduites des hyétogrammes simulés, de la même façon que pour les hyétogrammes observés.
Les variables de contrôle sont donc les pluies maximales sur des durées de 1 à 72 heures, extraites
des hyétogrammes, qu’ils soient observés ou simulés.
Pour les simulations, les courbes IDF déduites des hyétogrammes simulés, sont issus de
simulations 100 fois plus longues que la plus grande période de retour désirée. On ne s’intéresse
alors qu’à des valeurs de rang supérieur à 100, faiblement influencée par l’échantillonnage des
simulations.
B.1.4 Etude de la dépendance des variables
Une des hypothèses de base des générateurs stochastiques de pluie est l’indépendance des
variables du modèle. Ces variables peuvent ainsi être générées de façon indépendante lors de la
modélisation. Le choix des variables du modèle peut être influencé par cette hypothèse lors de la
conception du modèle. Toutefois, l’étude de la dépendance des variables entre elles reste nécessaire
pour vérifier cette hypothèse.
Notons que cette étude est possible car notre approche est basée sur une réelle analyse
descriptive de la pluie. En effet, l’observation directe des variables composant le modèle et
décrivant la pluie, permet l’observation et l’étude de leurs dépendances. C’est une divergence
30
méthodologique avec les approches basées sur une modélisation à priori de la pluie et calée à
postériori sur les résultats de cette modélisation (principe les modèles reprenant les processus de
Neyman-Scott ou Bartlett-Lewis).
Une première étude a montré qu’il existe une dépendance entre les réalisations d’une même
variable au cours de certains événements pluvieux [Patrick Arnaud and Jacques Lavabre, 1999a;
b]. Cette observation appelée « persistance », correspond à l’existence d’une dépendance statistique
entre les averses d’un même événement pluvieux. Elle est visible pour la variable « volume des
averses principales », lorsque l’on a plus d’une averse principale dans un événement. On observe
que plus le nombre d'averses principales d’un événement est élevé, plus on a de chance d'avoir
parmi elles une averse principale très forte. Cette
probabilité est supérieure à celle attendue en cas
d’indépendance, comme le montre le graphique ci-
contre. De plus, quand une de ces averses principales
est très forte, c'est généralement l'ensemble des
averses principales de l'événement qui sont
importantes. Cette persistance des averses
principales, a donc été observée et modélisée dans un
premier temps de façon empirique, pour retrouver ses
caractéristiques observées [Arnaud and Lavabre,
2010; Arnaud et al., 2007]. Elle a une conséquence
directe sur la modélisation des valeurs extrêmes.
La thèse de Philippe Cantet [2009] a permis d’introduire un formalisme mathématique dans la
modélisation de cette persistance, avec l’utilisation des copules. Les copules, introduites par
[Hoeffding, 1940; Sklar, 1959], sont des outils mathématiques puissants, de plus en plus utilisés
pour prendre en compte la dépendance entre variables
aléatoires, indépendamment de leur distribution de
probabilité marginale [Genest and Favre, 2007; Nelsen,
2006; Salvadori et al., 2007]. Dans le cas de la persistance,
la dépendance entre les valeurs a été modélisée par une
copule de Gumbel [Gumbel, 1961], qui permet la
génération de variables asymptotiquement dépendantes.
Cette copule, par nature symétrique, a été adaptée pour la
modélisation de la dépendance des « volumes ordonnées »
des averses principales5 au sein d’un même événement
pluvieux (exemple ci-contre pour des événements ayant
deux averses principales). Cette dépendance est par nature
5 La dépendance des averses principales d’un d’événement est étudiée non pas de façon chronologique (la
fréquence de l’averse i d’un événement est-elle dépendante de l’averse i+1 ?), mais de façon « ordonnée » (la fréquence
de la (i)ème
plus forte averse d’un événement est-elle dépendante de la (i+1)ème
plus forte averse ?).
31
représentée dans un domaine « triangulaire » car les couples de valeurs étudiés (Xi, Xi+1) vérifient la
relation Xi > Xi+1 pour i = 1,…,n-1, où Xi est la ième
plus forte valeur [Cantet, 2009].
La persistance des averses a pu être étudiée directement sur l’observation des caractéristiques
des averses. C’est un des atouts que présente cette approche « directe » qui se base sur la
description fine de la structure des événements pluvieux et qui tente de la reproduire au mieux. La
modélisation de la persistance des averses permet la modélisation d’événements pluvieux extrêmes
présentant de forts cumuls, comme par exemple dans les régions cévenoles ou en milieu tropical.
Des copules ont aussi été utilisées pour modéliser la dépendance entre deux variables
différentes. C’est le cas de la relation « Volume-Durée » des averses principales : cette dépendance
a été modélisée par une copule de Frank qui s’est avérée la mieux adaptée aux observations [Cantet
and Arnaud, 2014].
Les observations servant à caler les paramètres des copules sont des fréquences indépendantes
des lois marginales des variables, ce qui permet l’agglomération des données fournies par plusieurs
postes. La dépendance peut donc être modélisée de façon unique pour l’ensemble des postes d’une
même région. C’est donc une composante régionale sur la structure des pluies qui est déterminée à
travers les paramètres des copules. Cette approche est suffisante et permet de garder une certaine
robustesse dans l’estimation de paramètres sensibles influant sur le comportement asymptotique du
modèle.
B.1.5 Application et analyse des performances
Les recherches initiales sur le générateur de pluie ont été réalisées sur les données d’une
cinquantaine de postes pluviographiques situés sur le pourtour méditerranéen français. Dans le
cadre de l’extension de l’approche sur l’ensemble du territoire français, le modèle a été appliqué sur
de nouveaux postes situés sur l’ensemble du territoire métropolitain, ainsi que sur des postes situés
en outre-mer (Îles de la Réunion, de la Martinique et de la Guadeloupe, et la Nouvelle Calédonie).
Au total, le générateur de pluies horaires a été testé sur 407 postes pluviographiques, localisés sur
les cartes de la Figure 7. De façon indicative, ces postes sont regroupés selon leur climatologie.
Quatre types de climats sont définis :
le climat « alpin » : 29 postes sont situés dans le massif alpin, à une altitude moyenne
de 950 mètres, avec 75% des postes à plus de 500 mètres6.
le climat « méditerranéen » : 90 postes sont situés dans les départements des régions
du Sud Est de la France, à proximité de la mer Méditerranée.
6 Le traitement des données de pluies a été réalisé exclusivement sur des données de précipitations liquides. Les
événements pluvieux sont formes neigeuses ont été supprimés de l’analyse pour ne pas influence l’analyse de la
structure des averses au sein d’un événement pluvieux.
32
le climat « tempéré » : 98 postes sont situés sur le reste du territoire métropolitain
français, à une altitude moyenne de 182 m, avec 95% des postes à moins de 500
mètres.
le climat « tropical » : 52 postes sont situés sur l’île de la Réunion, 17 postes sur l’île
de la Martinique, 13 sur l’île de la Guadeloupe et 108 en Nouvelle Calédonie.
Figure 7 : localisation des postes pluviographiques étudiés.
Appliqué sur ces postes horaires, le générateur de pluie présente une bonne restitution des
quantiles de pluie de différentes durées. Cela signifie que les scénarios de pluies générés ont des
caractéristiques temporelles statistiquement équivalentes à celles des observations et que le modèle
s’adapte bien à différents types de climats, en utilisation toujours la même structure [Arnaud et al.,
2007]. La structure du modèle est donc suffisamment pertinente pour que la paramétrisation suffise
à caler le générateur sur des données allant du climat tempéré au climat tropical.
La méthode a aussi été évaluée dans le cadre du projet ANR Extraflo7. Dans le cadre de ce
projet, la comparaison de plusieurs méthodes de prédétermination s’est appuyée sur un cadre
rigoureux permettant d’appliquer chaque méthode sur les mêmes données (associées à des
échantillonnages variés) et les confronter aux mêmes critères d’évaluation suite à des procédures de
calage/validation [B. Renard et al., 2013]. Le paragraphe suivant présente les critères développés
dans le cadre de ce projet et qui seront utilisés dans plusieurs paragraphes de ce document.
7 Le projet ANR Extraflo 2009-2013 (https://extraflo.cemagref.fr/) du programme RiskNat de l’ANR, avait pour
objectif de mieux connaitre les domaines d’application des différentes méthodes d’estimation des pluies et des crues
extrêmes. Ce projet s’est appuyé sur des actions de comparaison des différentes méthodes utilisées en France, soumises
à une procédure commune permettant de qualifier la justesse et la stabilité des estimations suivant différentes
configurations d’application (locale, régionale) et d’échantillonnage.
33
a - Cadre d’évaluation lié au projet ANR Extraflo
Le principe du projet a été de tester différentes méthodes de prédétermination, utilisées dans
des situations différentes. Ces mises en situation sont liées à des échantillonnages réalisés sur les
données, afin de contraindre l’utilisation de certaines observations pour le calage des méthodes et
d’autres pour leur validation. Suivant la nature des méthodes, les échantillonnages peuvent être
différents comme le schématise la Figure 8. Sur ce schéma, chaque « bâton » représente une
chronique de données (pluie ou débit) subdivisés en « carré » qui correspondent à une année de
cette chronique. Les couleurs indiquent dans quels cas ces données sont utilisées : en calage de
paramètres locaux (couleur bleue), en calage de paramètres régionaux (couleur verte) et en
validation (couleur saumon).
Figure 8 : Principe des décompositions en fonction de la nature des approches.
Ce cadre définit aussi des critères d’évaluation permettant de juger les résultats des approches
au regard des observations. La description précise de cette plateforme d’évaluation est donnée par
[B. Renard et al., 2013]. Les critères d’évaluation utilisés sont décrits rapidement ici. Ils évaluent la
« justesse » et la « stabilité » des méthodes.
La justesse d’une méthode de prédétermination est liée à sa capacité à attribuer aux
observations des probabilités d’apparition justes, c'est-à-dire respectant une distribution théorique
bien définie. Deux critères, dont la détermination est illustrée par la Figure 9, ont été définis ainsi :
Le critère NT correspond aux nombres d’observations qui dépassent un certain seuil. Ce
seuil, associé à une période de retour T, est déterminé par la méthode testée (c’est le quantile
de période de retour T). La distribution théorique de ce nombre de dépassement d’un seuil
est alors associée à une loi Binomiale de paramètres n (nombre d’années d’observations) et
1/T (fréquence annuelle de succès) [B. Renard et al., 2013].
Le critère FF, utilisé dans d’autres travaux [England et al., 2003; Garavaglia et al., 2011],
correspond à la fréquence que donne une méthode à la plus forte valeur observée en n
années d’observation. La distribution théorique de cette variable est associée à une loi
Beta(n,1) de paramètre n (nombre d’années d’observation) [Kumaraswamy, 1980].
34
Figure 9 : Principe du calcul des critères de justesse NT et FF [Patrick Arnaud et al., 2014a].
Dans un premier temps, les méthodes sont calées (courbe verte) sur les observations de
l’échantillon de calage (points verts) (Figure 9). Sur les observations du jeu de validation (points
bleus), les valeurs de ces variables NT et FF sont calculées. Leurs probabilités d’apparition (P(NT)
et P(FF)) sont obtenues par inversion des lois de probabilités théoriques de ces variables (loi
Binomiale pour NT et loi Beta pour FF) et doivent alors suivre une loi uniforme si le modèle est
juste. La justesse des méthodes est jugée par l’écart qui existe entre la probabilité observée et la
probabilité théorique des variables NT et FF (Graphique du bas de la Figure 9). Si la distribution de
fréquence des variables P(NT) et P(FF) s’alignent autour de la bissectrice, la méthode ne présente
alors pas de biais systématiques.
Un examen graphique permet d’apprécier les biais que peut présenter une méthode. Si la
distribution est respectivement en dessous ou en dessus de la bissectrice, alors la méthode
respectivement sous-estime ou surestime globalement les quantiles de crues. Dans le cas où la
distribution présente une courbe en « S », cela signifie que la méthode est sur-paramétrée.
La stabilité d’une méthode de prédétermination est liée à sa capacité à produire des résultats
proches, lorsqu’elle est calée sur des échantillons différents. Pour juger de la stabilité d’une
méthode, celle-ci est calée indépendamment sur deux échantillons de données (C1 et C2) et fournit
deux estimations de quantiles ( ). Pour différentes périodes de retour (T) et à chaque site
(i), les écarts relatifs entre les quantiles sont calculés suivant la formulation :
35
La distribution de fréquence des valeurs de la variable SPAN doit alors être proche de la
valeur zéro, pour les méthodes les plus stables.
L’analyse graphique de ces différents critères (de justesse et de stabilité) peut être synthétisée
par le calcul de « scores ». Ces « scores » sont basés sur le calcul de l’aire comprise entre la
distribution observée et la distribution théorique de chaque critère. Une normalisation de cette aire
permet de faire varier tous les « scores » entre les valeurs 0 (mauvaise performance) et 1
(performance maximale). Ces scores sont présentés dans diverses publications liées aux projets
(voir paragraphes suivants) et dans la partie C.3 sur l’estimation des débits de crues.
b - Les résultats du projet ANR Extraflo pour la détermination ponctuelle des pluies
extrêmes
Les résultats du projet ANR Extraflo sur les méthodes « locales » d’estimation de l’aléa
pluviométrique sont présentés dans un rapport [Veysseire et al., 2012] qui compare les résultats du
générateur de pluie de la méthode SHYPRE, avec l’utilisation de plusieurs lois de probabilité
sélectionnées (à 2 et 3 paramètres : exponentielle, loi GEV et loi de Pareto généralisée), ainsi que la
loi MEWP (mélanges de lois exponentielles calées par types de temps) développée par EDF/GDF
[Garavaglia et al., 2011]. Dans le cadre de ce projet, les comparaisons ont été faites uniquement sur
l’estimation des quantiles de pluies journalières. Comme la seule information utilisée dans ce projet
est une information journalière (entre 671 et 1568 stations de mesures suivant les échantillonnages
réalisés8), la version de SHYPRE utilisée est une version « journalisée », présentée dans la partie
B.2.1. Des résultats sont aussi disponibles aux pas de temps infra-journaliers et présentés
dans[Cantet and Arnaud, 2014].
Concernant les méthodes d’estimation locale de l’aléa pluvial, le projet ANR Extraflo conclut
que parmi les lois statistiques dites « classiques », les meilleurs résultats sont donnés par
l’utilisation de la loi de Pareto ajustée par les moments pondérés. Cependant le constat est fait que :
« SHYPRE (le générateur de pluie) apparaît comme la méthode la plus juste devant la loi de Pareto
et la loi MEWP. … On constate que la robustesse de la loi de Pareto est inférieure à celles de la loi
MEWP et de SHYPRE» [Veysseire et al., 2012]. On observe les mêmes conclusions lorsque l’on
s’intéresse aux données infra-journalières (217 stations) [Cantet and Arnaud, 2014].
8 Les méthodes sont évaluées sur différentes périodes de calage et validation, permettant de les mettre dans des
configurations différentes : un échantillonnage de 50% (respectivement 33%) des années pour le calage et 50%
(respectivement 67%) des données pour la validation permet de juger de la justesse des méthodes ; un échantillonnage
sans l’année « du record » en calage (pour des séries de 20, 30 et 50 ans d’observation) et avec le « record » en
validation permet de juger de la capacité des méthodes à prédéterminer les valeurs extrêmes ; un échantillonnage de
deux périodes distinctes de calage (de 10, 15 et 25 ans chacune) permet de juger de la stabilité des méthodes.
36
Le générateur stochastique de chronique de pluies horaires qui a été développé est donc basé
sur l’analyse de variables aléatoires décrivant au mieux le signal de pluie au pas de temps horaire.
Ces variables aléatoires sont définies par leur distribution de probabilité, ajustée sur l’échantillon
des valeurs observées. L’observation des variables internes du générateur de pluie permet aussi
d’évaluer directement la pertinence des hypothèses faites sur leur loi de probabilité théorique et sur
la dépendance qui peut exister entre elles. Ce point contribue à la complexité de la méthode qui
tend à modéliser la structure interne des hyétogrammes de pluie à partir de leur observation (car
« on modélise ce que l’on voit …»), mais permet aussi de s’affranchir d’hypothèses de modélisation
souvent présentes dans d’autres types de générateurs de pluies (type Neyman-Scott).
L’ajustement de lois de probabilité sur les variables internes du modèle pourrait laisser
penser que cette modélisation reste soumise aux mêmes difficultés de calage que les « approches
classiques ». Ce n’est pas le cas pour deux raisons :
d’une part l’effectif des valeurs observées sur lequel porte l’ajustement des lois est
nettement plus important que lorsque l’on s’intéresse à une seule observation par événement
(la pluie maximale en 24 heures de l’événement par exemple), voire à une seule observation
par an (échantillonnage des valeurs maximales annuelles). En effet, on a plusieurs
événements par an qui sont composés de plusieurs averses. L’analyse des lois
caractéristiques des averses repose généralement sur des échantillons d’effectif supérieur à
100 voire 1000.
d’autre part, un effort particulier a été fait dans le choix des lois de probabilité utilisées, en
choisissant des lois robustes, c'est-à-dire le plus faiblement paramétrées. Les lois les plus
sensibles sont étudiées de façon adimensionnelle afin d’augmenter la représentativité de
l’échantillon par agglomération des variables (sorte de composante « régionale »). C’est le
cas par exemple de la loi représentant le volume des averses.
La prise en compte de la dépendance entre les variables du modèle est aussi un point
important dans le développement du générateur. Cette dépendance est observée et sa modélisation
a été orientée par cette observation. Cette modélisation a été réalisée par le biais de copules dont le
calage a été réalisé de façon régionale, et dont l’influence reste forte sur la modélisation des
valeurs extrêmes.
Le générateur de pluie développé présente de nombreuses qualités mises en avant lors de sa
comparaison à d’autres approches. Parmi elles, la justesse qui est la qualité primordiale de ce
genre d’approche. En particulier, sa capacité prédictive qui conduit à produire des estimations
justes des valeurs extrêmes malgré leur absence dans les échantillons de calage. La stabilité que
montre la méthode est aussi une qualité importante. De plus, la méthode est par nature une
approche multi-durées, puisqu’elle permet de fournir une information sur les pluies de différentes
durées avec la même modélisation. Les avancées réalisées sur ce modèle nous permettent alors
d’envisager son utilisation pour l’estimation régionale de l’aléa hydrologique. Cependant une
étape préalable de régionalisation est nécessaire pour pouvoir l’utiliser en sites non jaugés.
37
B.2 Estimation de l’aléa pluvial en site non instrumenté
L’objectif énoncé ici est de passer d’une estimation localisée de l’aléa à une estimation
régionalisée. Le générateur de pluies horaires développé a été éprouvé dans les contextes
climatiques très variés que l’on peut rencontrer en France, y compris dans les départements d’outre-
mer. La structure du générateur de pluies est restée la même, avec la même définition des variables,
les mêmes lois de probabilité associées à ces variables et la même procédure de caractérisation des
dépendances. A partir de cette structure unique qui modélise correctement la structure temporelle
des pluies horaires, le modèle s’ajuste au contexte local par le biais du calage de ces paramètres. Ce
calage peut être local (certains paramètres sont déterminés pour chaque station de mesure) ou
régional (certains paramètres sont déterminés pour une région donnée : c’est le cas des paramètres
de dépendance des copules, les seuils pour la loi des durées d’averses ou la sélection des
événements pluvieux à analyser,…).
L’application du générateur de pluie est alors possible si l’on dispose d’informations au pas
de temps horaire pour caler les différents paramètres du modèle. Cependant, cette information
(issue des pluviographes) reste insuffisante pour espérer réaliser une cartographie directe des vingt
paramètres du modèle de pluies horaires, estimés localement à partir de l’information horaire. En
revanche, l’information de pluie au pas de temps journalier (obtenue en plus par le réseau des
pluviomètres) est plus largement disponible sur l’ensemble du territoire français, tant en nombre de
stations de mesure qu’en durée des chroniques observées. C’est pourquoi, une première étape vers
la régionalisation du générateur a été de trouver une paramétrisation issue de l’information des
pluies journalières.
B.2.1 Etude de sensibilité et simplification de la paramétrisation
Le modèle a été initialement calé à partir de l’information pluviographique locale, répartis de
façon relativement homogène sur l’ensemble du territoire français. Un jeu de vingt paramètres
horaires par saison est déterminé pour chacun des 217 postes pluviographiques étudiés. Une analyse
de sensibilité a permis de fixer quinze de ces paramètres par saison, dont la variabilité géographique
n’est pas nécessairement la conséquence d’une particularité climatique [Arnaud, 1997]. Ces
paramètres, permettant de reproduire des hyétogrammes de forme réaliste, sont souvent peu
variables, ou dans une gamme où le modèle est peu sensible. Le fait de les fixer à leur valeur
médiane pour l’ensemble du territoire Français, ou pour un département donné (cas de l’application
aux DOM), ne dégrade pas les performances du modèle [Arnaud and Lavabre, 2010]. Il reste donc
cinq paramètres horaires principaux qu’il faut chercher à expliquer par l’intermédiaire de
l’information journalière. Ces paramètres sont : le nombre d’événement moyen par saison (variable
NE), le volume moyen des averses dites “principales” (produisant les plus forts volumes) (variable
VOLP) et celui des averses dites “ordinaires” (variable VOLO), le nombre moyen d’averses
principales (variable NAVP) et le nombre moyen d’averses dans un événement (variable NA).
38
Sur la base de la définition d’un événement pluvieux (succession de pluies journalières
supérieures à 4 mm et possédant au moins une pluie journalière supérieure à 20 mm), trois
paramètres journaliers ont été définis et déterminés pour les deux saisons étudiées :
a. le paramètre µNE est le nombre moyen d’événements analysés par saison. Il traduit
l’occurrence saisonnière des événements pluvieux significatifs d’un poste (plus de 20 mm de
pluie dans une journée). Il correspond d’ailleurs à un des cinq paramètres principaux à
expliquer.
b. le paramètre µPJMAX (en mm) correspond à la moyenne des pluies journalières maximales
de chaque événement pluvieux sélectionné dans une saison. Ce paramètre rend compte de
l’intensité pluviométrique du poste. Il permet d’expliquer le volume moyen des averses et le
nombre d’averses principales.
c. le paramètre µDTOT (en jour) représente la moyenne des durées des événements pluvieux
d’une saison. Cette caractéristique de durée permet d’expliquer le paramètre horaire
caractérisant le nombre d’averses à générer en moyenne dans un événement pluvieux.
Pour des raisons de continuité dans la régionalisation, des relations uniques ont été établies
sur l’ensemble du territoire métropolitain, entre les paramètres horaires et les paramètres
journaliers. Ces relations sont par contre différentes dans les DOM (en climat tropical).
Les paramètres journaliers ont été calculés à partir des séries horaires, sur la plus grande
période d’observation possible de chaque poste. Cela permet d’augmenter leur représentativité,
même si ces périodes peuvent différer d’un poste à l’autre9. Le choix d’une période commune
d’observation a par contre été respecté lors de l’étape de régionalisation des paramètres journaliers
présentée plus loin. Des régressions linéaires simples ont été établies entre les paramètres horaires
et journaliers. Elles présentent des coefficients de détermination (r2) compris entre 0.8 et 0.9
[Arnaud and Lavabre, 2010]. Les résultats du générateur de pluies paramétré par l’information
journalière sont comparés à ceux obtenus par la paramétrisation horaire. Ils montrent des
performances très proches et largement acceptables. On restitue en effet les quantiles biennaux des
pluies de différentes durées avec des écarts relatifs (par rapport aux quantiles “observés”)
généralement compris entre ±5% et rarement en dehors de l’intervalle ±10%.
Cette nouvelle paramétrisation permet d’envisager une mise en œuvre du générateur de pluies
horaires par un calage basé uniquement sur des données journalières. Les performances du modèle
paramétré par l’information journalière, ont été évaluées sur 2812 postes journaliers fournis par
Météo-France (avec au moins 20 ans de mesures sur la période d’observation 1977–2002) [Arnaud
and Lavabre, 2010]. C’est aussi cette version du générateur qui a été testée dans le cadre du projet
ANR Extraflo, ne disposant que d’informations journalières.
9 L’objectif est d’établir ici des régressions entre variables horaires et journalières, et non pas entre les valeurs
des paramètres de postes voisins, ce qui sera fait lors de la régionalisation. Une période commune et homogène n’est
donc pas impérative dans ce cas. Par contre, la période est commune sur un même poste, pour calculer ses paramètres
horaires et journaliers.
39
B.2.2 Cartographie des paramètres
L’utilisation du générateur de pluies horaires est donc possible à partir de la connaissance de
paramètres journaliers. Ces paramètres ont été déterminés sur les données de 2812 stations en
France métropolitaine, mais aussi sur 62 stations sur l’Ile de la Guadeloupe, 56 stations sur l’île de
la Martinique, 93 stations sur l’île de la Réunion et 158 stations sur la Nouvelle Calédonie. En
métropole, la cartographie des paramètres journaliers a été réalisée par Météo-France à partir de
l’information des 2812 pluviomètres [Sol and Desouches, 2005] et à partir d’une approche de type
“Aurelhy” [Benichou and Le Breton, 1987]. Pour cela, la France métropolitaine a été découpée en
onze zones climatiques homogènes au sens des paramètres à régionaliser. Sur chaque zone, une
régression linéaire multiple (appelée “fonction géographique”) a été étudiée entre chaque paramètre
et des variables caractérisant l’environnement géographique. Un découpage plus important aurait
diminué le nombre de postes disponibles pour établir les régressions, et donc les corrélations
obtenues auraient été moins significatives. Les variables environnementales étudiées sont de trois
types :
Altitude : l’altitude moyenne sur 25 km2 a été calculée pour chaque pixel d’un km
2. Le
choix d’un relief lissé permet de ne pas prendre en compte la variabilité fine du relief, sans
signification réelle vis-à-vis de la variabilité de la pluviométrie.
Paysage : le relief autour de chaque pixel (pris en compte sur un carré de 30 km de coté
centré sur le pixel) a fait l’objet d’une analyse en composantes principales. Douze vecteurs
propres issus de cette analyse ont alors été retenus pour expliquer le “paysage” autour du
pixel. Le premier vecteur propre (CP1) représente par exemple une cuvette ou un monticule,
le second (CP2) représente une pente NW/SE, etc.
Distances : des critères de distances aux mers, aux grands fleuves, aux crêtes des grandes
chaînes montagneuses ou encore aux grandes vallées ont aussi été calculés sur les zones
homogènes.
Les variables environnementales retenues, pour les différents paramètres et pour les
différentes zones, sont celles qui apportent une explication significative sur la variabilité des
paramètres journaliers. On retient dans la plupart des cas trois ou quatre prédicteurs, la valeur
médiane du coefficient de détermination des régressions étant de 0.58. Les résidus à la régression,
calculés aux 2812 points d’observation, sont ensuite interpolés par krigeage et ajoutés à la “fonction
géographique” pour obtenir un champ final spatialisé à la résolution d’un km². Pour le krigeage des
résidus, un variogramme sphérique sans effet de pépite a été utilisé. L’exemple de la Figure 10
montre ces différentes étapes de régionalisation, à travers la cartographie du paramètre µPJMAX de
la saison “été” sur la zone alpine. Bien que les caractéristiques de pluies extrêmes soient souvent
corrélées avec l’altitude [Weisse and Bois, 2001], l’altitude n’a pas été retenue comme variable
explicative de la variabilité du paramètre µPJMAX, arrivant en quatrième position après la distance
à la mer, l’effet des grandes vallées (CP1) et de leur orientation (CP2). Le choix de ces variables
n’est pas anodin lors de l’extrapolation des résultats sur les zones de hautes altitudes où
l’information pluviométrique devient plus rare.
40
Figure 10 : Progression dans la cartographie des variables journalières : exemple de la variable
µPJMAX pour la saison « été » sur la zone « Alpine » [Sol and Desouches, 2005].
Les cartes finales sont obtenues par assemblage des cartes calculées sur les onze zones
définies. Chaque zone débordant sur sa voisine sur une distance de 15 km, les variables sont alors
calculées sur les zones de chevauchement par une moyenne des valeurs des deux ou trois zones
superposées, pondérées par l’inverse de la distance à la limite des zones. La Figure 11 présente les
cartes des paramètres journaliers permettant de mettre en œuvre le générateur de pluies horaires en
tout point du territoire métropolitaine français [Arnaud, 2010; Arnaud et al., 2008c].
La répartition spatiale de ces paramètres montre une cohérence climatique qui souligne la
pertinence de la paramétrisation du modèle pour estimer les pluies intenses, sous des climats
variables. Des zones se différencient à travers les valeurs des trois paramètres journaliers. Les
régions méditerranéennes sont caractérisées par de fortes intensités de pluie, conduisant à de forts
cumuls journaliers, d’autant plus marqués sur les reliefs cévenols. Ces régions ne présentent pas
pour autant les plus fortes occurrences de pluie, ni les plus fortes durées. Les régions côtières non-
méditerranéennes (côtes atlantiques, côtes de la Manche et mer du Nord) ainsi que les régions
d’altitude présentent une pluviométrie marquée par des événements plutôt longs mais pas
nécessairement intenses. L’occurrence des événements semble par contre corrélée positivement
avec l’altitude. Les valeurs élevées du paramètre µNE sont présentes sur les régions alpines (Alpes
du nord), le massif central, les Vosges et les Pyrénées. Les plus faibles valeurs pour l’ensemble des
trois paramètres sont observées pour le bassin Parisien et le nord de la France. Ces cartes montrent
aussi la cohérence saisonnière des paramètres. La saison “été” est caractérisée par des paramètres
caractéristiques de pluies plus intenses mais plus courtes que pour la saison “hiver”.
A partir de la cartographie des paramètres journaliers et grâce à la paramétrisation journalière
du générateur de pluies horaires, des simulations de chroniques de pluies horaires peuvent être
faites pour chaque pixel d’un km2. Les courbes intensités–durées–fréquences (courbes IDF)
synthétisant l’information pluviographique sont alors établies à partir de ces simulations pour
obtenir à l’échelle de la France et à la résolution kilométrique, les quantiles des pluies maximales de
1 à 72 h pour des périodes de retour de 2 à 1000 ans (par exemple).
41
Figure 11 : Cartographie au km² des paramètres µNE, µPJMAX et µDTOT [Arnaud, 2010] : à
gauche la saison « été » et à droite la saison « hiver ».
Notons que la méthode d’interpolation utilisée est relativement classique. L’utilisation
d’autres méthodes d’interpolation ont récemment été étudiées pour régionaliser ces variables
journalières et montrent des performances un peu meilleures, comme avec l’utilisation de la
méthode par krigeage à dérives externes [Loudegui Djimdou, 2014].
42
B.2.3 Contrôle des résultats
Un premier contrôle des résultats a été fait à partir de l’information de 612 postes
pluviométriques supplémentaires non utilisés. Pour ces postes, les quantiles de pluies journalières
ont été calculés par l’ajustement d’une loi exponentielle sur la distribution des N plus fortes valeurs
observées (N étant le nombre d’années d’observations). Ces quantiles sont alors comparés à ceux
obtenus par la régionalisation du générateur de pluies horaires, au niveau du pixel associé à ces
postes. Les graphiques de la Figure 12 montrent les valeurs biennales et décennales des pluies
journalières calculées sur les 2812 postes ayant servi à la régionalisation et sur les 612 postes ayant
servi au contrôle. La méthode d’interpolation choisie passe par les valeurs aux points d’observation.
Les écarts observés sur les 2812 postes de régionalisation cumulent donc à la fois les erreurs de
modélisation et les erreurs dues à la paramétrisation journalière. Si les écarts sont très faibles pour
les quantiles biennaux, les écarts plus forts pour les valeurs décennales traduisent aussi la
divergence des deux approches comparées (ajustement et simulation) en extrapolation. Les écarts
observés sur les 2812 postes de calage servent aussi à relativiser les écarts sur les 612 postes de
validation pour lesquels les erreurs dues à la régionalisation sont rajoutées.
Figure 12 : Restitution des pluies journalières biennales et décennales par le modèle “régionalisé”:
performances aux 2812 postes de régionalisation et aux 612 postes de validation.
La régionalisation de l’approche conduit à une bonne restitution des pluies là où le modèle n’a
pas été calé. Dans 95% des cas on obtient un écart relatif pour le quantile de pluies journalières
biennal inférieur à ±20% par rapport à l’estimation par une loi de probabilité exponentielle (qui
pour le quantile biennal est proche de la distribution observée).
L’application régionale de la méthode a été comparée à d’autres méthodes permettant
l’estimation régionale des quantiles de pluie. Faute d’informations suffisantes au pas de temps
horaires, les comparaisons ont été faites au pas de temps journalier. Une première étude a été
réalisée sur la région méditerranéenne [Neppel et al., 2007b] en comparant les résultats de trois
méthodes : l’interpolation directe de quantiles estimés localement par une loi exponentielle,
43
l’application d’une loi statistique régionale dont les paramètres ont été régionalisés et la méthode
par simulation (le simulateur de pluie présenté). Les résultats montrent que la loi régionale et le
simulateur de pluies conduisent à des résultats très proches malgré leur forte différence
méthodologique. Les résultats montrent aussi que ces méthodes sont nettement plus stables que
l’interpolation directe de quantiles de pluies ajustés localement.
Les résultats du projet ANR Extraflo vont aussi dans ce sens, avec un panel de méthodes et de
tests supplémentaires, mélangeant entre autres les approches locales et régionales [Neppel et al.,
2014]. Il en résulte que les méthodes « purement statistiques » ayant une composante régionale sont
préférables aux méthodes calées seulement par l’information locale. Pour les méthodes purement
régionales, la comparaison est faite entre une interpolation des paramètres d’une loi GEV (méthode
SIGEV), l’utilisation d’une loi régionale (loi GEV calée sur les pluies normalisées par la moyenne
[index value]) et le simulateur de pluies (méthode SHYPRE). Si la méthode SIGEV est à proscrire,
la loi régionale et le simulateur de pluies présentent des performances équivalentes [Carreau et al.,
2013]. Il est souligné qu’actuellement au niveau national, seul le simulateur de pluies permet
d’obtenir aussi une information régionale sur les pluies à pas de temps infra-journaliers.
Les développements du générateur de pluies horaires ont permis une réelle avancée dans
l’estimation du risque pluvial. Ces travaux de recherche ont conduit à une méthode complète, mise
en œuvre sur de grands territoires et largement documentée en particulier par la rédaction d’un
ouvrage de synthèse [Arnaud and Lavabre, 2010]. Outre les thèses et les publications associées, la
validation et la reconnaissance scientifique de la méthode a été établie suite au projet de recherche
ANR Extraflo, qui a permis de situer les très bonnes performances de la méthode par rapport à de
nombreuses autres méthodes développées par la communauté scientifique.
On propose ainsi, plus qu’une méthode, un véritable outil régionalisé sur l’ensemble de la
France et sur les DOM, permettant la simulation de scénarios de pluies horaires directement
utilisables pour la prédétermination des pluies à pas de temps infra-journalier et destinés à être
transformés en scénarios de crues. L’avantage de cette approche est de se caler sur une
information journalière pour prendre en compte la pluviométrie locale, et de s’appuyer sur une
analyse régionale des pluies horaires pour définir leur structure temporelle, influençant
indirectement le comportement asymptotique du modèle vers les événements extrêmes.
Des recherches supplémentaires ont été réalisées en parallèle du développement du générateur
de pluies et de sa régionalisation. Elles concernent la recherche des incertitudes associées à la
méthode et son application dans un contexte de changement climatique. Ces deux points ayant fait
l’objet d’une thèse chacun, sont rapidement présentés dans les paragraphes suivants.
44
B.3 Etude des incertitudes du générateur de pluie
De façon générale, les incertitudes peuvent être dues aux données ou au modèle. Ces
incertitudes peuvent être attribuées : aux problèmes d’échantillonnage des données ou aux erreurs
de mesures, aux procédures de calage les paramètres, à la structure du modèle utilisé,… Il est
cependant difficile de prendre en compte simultanément l’ensemble des sources d’incertitudes
associées à une méthode.
Lors de l’élaboration du générateur de pluie, l’analyse des performances de la méthode,
qu’elle soit calée localement (§ B.1.5) ou appliquée dans sa version régionalisée (§B.2.3), a montré
qu’elle était juste et stable si l’on reprend les conclusions du projet ANR Extraflo. La justesse de la
méthode s’explique par une modélisation correcte du signal de pluie, avec une prise en compte
pertinente des processus conduisant aux valeurs extrêmes (tels que la persistance des averses au sein
d’un même événement pluvieux ou la dépendance entre certaines variables). La stabilité de la
méthode est liée à sa paramétrisation réalisée par des valeurs moyennes et par une paramétrisation
régionale des paramètres les plus sensibles à l’échantillonnage. Ces points font que malgré sa
complexité et un nombre de paramètres élevé, la méthode ne devrait pas présenter une incertitude
très élevée dans l’estimation des quantiles extrêmes.
Si ce résultat est intuitif, un formalisme plus scientifique sur les incertitudes de la méthode est
nécessaire. C’est dans ce cadre que la thèse de Aurélie Muller a débuté en 2003, sous la direction de
Jean-Noël Bacro, professeur de l’Université de Montpellier II (école doctorale « Information,
Structures et Systèmes ») et que j’ai co-encadré avec Michel Lang (Irstea-Lyon). Ce paragraphe est
une synthèse des recherches menées sur les incertitudes du générateur de pluie dans le cadre de
cette thèse [Muller, 2006; Muller et al., 2009] et qui ont été poursuivi par la suite. L’analyse porte
dans un premier temps sur un exemple associé à l’étude de la longue série de pluie enregistrée à
Marseille. Une comparaison est faite entre les incertitudes liées à l’application du générateur de
pluies et celles liées à l’utilisation d’une loi statistique. L’effet de la taille de l’échantillonnage sur
ces incertitudes est aussi étudié. Une généralisation est ensuite proposée.
B.3.1 La méthode utilisée
Afin d’évaluer les incertitudes sur les quantiles fournis par le simulateur de pluie, une
comparaison a été faite avec les incertitudes fournies par une approche probabiliste directe. Les
incertitudes associées à la loi de probabilité Pareto généralisée (GPD) ajustée par la méthode des
moments pondérés, ont été étudiées. L’analyse de ces incertitudes est menée dans un cadre
Bayésien, en exploitant les données de pluies journalières de la longue série de Marseille (122 ans,
1882-2003) dans le Sud de la France. On considère donc que l’estimation des paramètres d’un
modèle est tributaire des données d'entrée, et en particulier de l'incertitude liée à l'échantillonnage
45
de ces données. La distribution a posteriori des paramètres représente la variabilité aléatoire des
paramètres étant donné les observations avec lesquelles ils ont été estimés.
Dans le cas de l’utilisation du générateur de pluies, paramétré par l’information
journalière, les lois marginales des paramètres sont des lois normales, puisque les
paramètres journaliers sont estimés par des moyennes d’un grand nombre de valeurs. Sur la
série de Marseille, la corrélation estimée entre les paramètres est de 0.22 (r²) entre µPJMAX
et µDTOT, et inférieure à 5% entre µNE et les deux autres paramètres. On modélise alors la
distribution jointe des paramètres par une loi normale en trois dimensions, avec des lois
marginales indépendantes, centrées sur les estimateurs des paramètres et de variances égales
aux variances d’échantillonnage des paramètres. On simule ensuite des pluies par le
générateur, avec différents jeux de paramètres (µNE, µPJMAX et µDTOT) tirés au hasard
dans la loi jointe. On retient alors la médiane et les intervalles de confiance des quantiles
déduits des chroniques de pluies horaires générées.
Dans le cas de la loi GPD10
, la loi a posteriori des paramètres, notée post, est calculée dans
le cadre Bayésien par la relation :
Ckxxvraiskpriorxxkpost nn /),,...,(),(),...,,( 11
où :
- ),( kprior est la distribution a priori des paramètres, elle traduit les connaissances
relatives aux paramètres, sans tenir compte des observations ;
- C est une constante ;
- ),,...,( 1 kxxvrais n désigne la vraisemblance des observations supérieures au
seuil u sous l'hypothèse de la distribution GPD de paramètres , k :
n
i
in kxgkxxvrais
1
1 ),(),,...,(
avec
0//)(exp),(
0//)(1),(1/1
ksiuxkxg
ksiuxkkxgk
La loi a priori utilisée ici est la loi lognormale de paramètres 0 et 100 pour α, uniforme
entre -1 et 1 pour k. Ces distributions a priori sont semblables à celles de [S. Coles et al.,
2003] pour les paramètres de la GEV. L'algorithme utilisé pour simuler la loi a posteriori des
paramètres est un algorithme MCMC combinant 1000 itérations de Gibbs-Metropolis puis
80000 itérations de Metropolis [Muller et al., 2008; Benjamin Renard et al., 2006].
10
Le simulateur génère des événements indépendants, caractérisés par la présence d’une pluie journalière
supérieure à 20 mm, comme pour les événements observés utilisés pour le calage de la méthode. La distribution
empirique résultant de l’analyse des événements pluvieux générés s’apparente donc à une distribution de valeur
supérieure à un seuil. C’est pourquoi la loi GPD est étudiée ici.
46
B.3.2 Application à une longue série
Les intervalles de confiances associés aux estimations des quantiles de pluies journalières ont
été calculés pour les deux approches sur les données de la saison « été » (de juin à novembre) de la
série de 122 ans de Marseille : simulation de chroniques (notée SHYPRE), ajustement statistique
classique (notée GPD).
- Pour le simulateur, les paramètres sont calculés sur 122 années de mesures, ce qui
correspond à 444 événements pluvieux sur la saison considérée. Les variances marginales
des paramètres sont donc faibles, étant donné le grand nombre d’années et d’événements.
- Pour la loi GPD, les paramètres ont été calculés sur les pluies journalières des 444
événements (dépassement du seuil 20 mm), valeurs supposées indépendantes car la pluie
journalière entre deux événements passe sous le seuil des 4 mm.
Les résultats sont présentés sur la Figure 13. On constate que les intervalles de confiance des
quantiles issus du générateur sont plus étroits que ceux de la distribution estimée par la loi GPD.
Ceci est dû au fait que le générateur n’utilise que des moments d’ordre 1 pour l’estimation de ses
paramètres (µNE, µPJMAX et µDTOT), tandis que la loi GPD utilise les moments d’ordres 2 et 3
dans l’estimation des paramètres α et k par les moments pondérés. On peut aussi remarquer que
l’intervalle de confiance est plus faible pour le générateur bien que l’on ait trois paramètres (µNE,
µPJMAX et µDTOT) et donc trois degrés de liberté11
au lieu de deux pour la loi GPD (α et k). Les
écarts entre les deux approches seraient un peu plus marqués si le même nombre de paramètres
avait été utilisé.
Figure 13 : Intervalles de confiance à 90% calculés pour l’estimation des quantiles de pluies
journalières, par la méthode SHYPRE et par l’ajustement d’une loi GPD [Muller et al., 2009].
11
A noter que ces trois paramètres sont en fait utilisés pour générer des quantiles de pluies de différentes durées.
C’est la même paramétrisation qui conduit à la distribution des pluies journalières comme à celles des pluies d’autres
durées (de 1h à 72h).
47
B.3.3 Application à des sous-séries de 20 ans
En général, l’étude du risque pluviométrique ou hydrologique repose sur l’analyse de séries
chronologiques d’une durée moyenne de vingt à trente ans. Les séries peuvent d’ailleurs être encore
plus courtes pour les valeurs infra-journalières. Par le biais de l’échantillonnage, une chronique de
20 ans peut contenir aucune, une ou plusieurs valeurs extrêmes. C’est cet aspect de
l’échantillonnage qui a été étudié en découpant la série de 122 ans en six sous-séries successives de
20 ans. Les résultats fournis par les deux modèles sont alors comparés. La méthode utilisée est
encore la méthode bayésienne présentée dans le paragraphe précédent, mais appliquée cette fois aux
sous-séries de 20 ans. Le Tableau 2 présente les statistiques associées à chaque sous-série, ainsi que
les valeurs fortes (pluies journalières supérieures à 100 mm). Pour les paramètres, les moyennes
sont présentées avec les valeurs des écarts-types entre parenthèses.
Tableau 2 : Valeurs de paramètres journaliers caractéristiques de six sous-séries de 20 ans du poste
pluviométrique de Marseille [Muller, 2006].
Si chaque sous-série de 20 ans présente un nombre d’événements équivalent (paramètre µNE
peu variable), elles peuvent être sensiblement différentes en termes de hauteur d’eau précipitée et en
termes d’occurrence de valeurs extrêmes. Les intervalles de confiance présentés, sur la Figure 14,
présentent des distributions d’allure symétrique pour le générateur, tandis qu’on trouve des
distributions à forte dissymétrie pour la loi GPD.
La forme de la distribution marginale des quantiles dépend d’une part de la distribution des
paramètres et d’autre part de la sensibilité des modèles à leurs paramètres. Si les distributions des
paramètres sont relativement symétriques pour les deux modèles (moins pour la GPD), la sensibilité
des modèles à leurs paramètres n’est pas la même. La distribution des paramètres (loi normale) et la
loi marginale des quantiles liées au simulateur de pluies sont semblables : la relation entre les
paramètres du générateur et les quantiles fournis par le générateur semble être linéaire. Les résultats
de la loi GPD sont eux par contre très sensibles aux valeurs du paramètre de forme k. Bien que ce
paramètre ait une distribution à faible dissymétrie, la sensibilité de la loi GPD aux valeurs
négative12
de k conduit à une dissymétrie positive forte pour les quantiles rares.
12
Les valeurs négatives de k indiquent un comportement asymptotique supérieur à la loi exponentielle.
48
Figure 14 : Intervalles de confiance à 90% des quantiles de pluies journalières décennales et
millénales des six sous-séries de 20 ans de pluies de Marseille [Muller, 2006].
Les incertitudes des quantiles se révèlent plus fortes avec la GPD qu’avec le générateur au vu
de l’amplitude des intervalles de confiance. La forte incertitude de la GPD sur les séries 5 et 6
conduit à de forts coefficients d’asymétrie (2.4 ; 3.9) et d’aplatissement (10.7 ; 23) sur ces séries.
On peut noter que les intervalles de confiance donnés par la loi GPD peuvent conduire à des valeurs
physiquement irréalistes. En effet la borne de 2500 mm d’eau précipités en un jour est inconcevable
sur la région d’étude. Les valeurs maximales observées sur la région atteignant difficilement les 500
mm. En France le record de pluie journalière observé est de l’ordre de 1000 mm, et au niveau
mondial de l’ordre de 1800 mm (record sur l’île de la Réunion).
Les écarts relatifs entre les estimations médianes des quantiles décennaux des six sous-séries
sont relativement faibles et similaires pour les deux approches. Suivant les sous-séries étudiées, on
estime les pluies journalières décennales entre 80 et 120 mm, avec les deux modèles. Par contre, en
extrapolation, les résultats des deux modèles divergent. L’estimation des valeurs millénales
médianes varient de 100 à 350 mm (rapport de 1 à 3,5) pour la loi GPD et de 220 à 350 mm pour le
générateur de pluie (rapport de 1 à 1,6). L’extrême largeur des intervalles de confiance de la loi
GPD vers les fréquences rares garantit leur recouvrement dans le cas où différentes sous-séries sont
utilisées en entrée, mais ils n’en sont pas plus réalistes et ni informatifs. Cette application illustre le
problème de la sensibilité de la loi GPD appliquées de façon locale, en particulier pour une
utilisation en extrapolation vers les fréquences rares.
Ces résultats montrent aussi la stabilité de l’approche par simulation face à l’échantillonnage.
Ce point est directement lié à la forte stabilité de ces paramètres qui sont estimés par des valeurs
moyennes. L’approche par simulation est donc moins sensible à l’échantillonnage que la loi GPD
calée localement, ce qui rejoint les conclusions du projet ANR Extraflo qui ne recommande pas
l’utilisation d’une loi statistique « locale », mais plutôt l’utilisation d’une loi régionale.
49
B.3.4 Comparaison à une loi régionale
Le générateur paramétré par l’information journalière devrait être comparé à une approche
régionale puisqu’il utilise l’information de plusieurs postes pour modéliser certaines de ses
composantes, comme la persistance des averses. C’est une raison pour laquelle cette méthode
présente des intervalles de confiance plus étroits qu’une loi de probabilité ajustée localement. Pour
comparer les intervalles de confiance de l’approche par simulation avec une loi GPD régionale,
Muller [Muller et al., 2009] a refait les calculs présentés dans les paragraphes précédents, en
prenant une valeur constante pour le paramètre de forme de la loi GPD. En prenant un paramètre de
forme constant, dit « régional », égal à -0,119 pour la série de Marseille, on trouve les intervalles de
confiances présentés sur les graphiques de la Figure 15.
Figure 15 : Intervalles de confiance à 90% des quantiles de pluies journalières, obtenus par
« SHYPRE » et par l’ajustement d’une loi « GPD régionale » (paramètre de forme fixé) [Muller et
al., 2009].
Dans ce cas les intervalles de confiance de la loi GPD sont nettement plus réduits que
précédemment. Ils deviennent alors proches de ceux de « SHYPRE », bien que légèrement plus
grands pour les périodes de retour courantes. Le fait d'avoir fixé le paramètre de forme de la loi
GPD, permet de se rapprocher des conditions d’utilisation d'une approche régionale. Cependant,
dans une approche régionale, la détermination de ce paramètre garde une certaine incertitude qui
n’a pas été prise en compte ici (c’est le cas aussi pour certains paramètres fixés dans la méthode par
simulation). Cette application montre l’intérêt des approches dites « régionales », qui sont des
méthodes moins sensibles à l'échantillonnage des valeurs extrêmes, car elles prennent en compte
l'information disponible sur des postes proches et comparables, pour réduire l’effet de
l’échantillonnage et par conséquent les intervalles de confiances.
50
B.3.5 Généralisation de l’approche
Une généralisation de l’approche a été effectuée sur l’ensemble
des postes pluviographiques disponibles sur le territoire français, afin
évaluer de façon systématique l’incertitude associée aux sorties du
générateur de pluie. La procédure est la même que celle appliquée sur
la série de Marseille (voir figure ci-contre). Le jeu de paramètres du
générateur de pluie ( ) est obtenu par le calcul de six valeurs
moyennes (3 variables pour les 2 saisons). Leur distribution
d’échantillonnage peut donc être estimée comme étant celle d’une
moyenne calculée sur un grand nombre de valeurs. Dans ce cas, la
distribution d’échantillonnage de la moyenne suit une loi normale de
moyenne égale à la moyenne de la variable ( ) et d’écart-type égal à
l’écart-type de la variable ( ) réduit par la racine carrée de l’effectif
de la variable ( ) : . Différents jeux de paramètres ( ) peuvent alors être générés
de façon aléatoire pour simuler des pluies et obtenir ainsi différentes distributions de fréquences des
pluies maximales, représentant l’incertitude liée à la paramétrisation du générateur de pluie13
.
Figure 16 : Distributions des paramètres , et n des trois variables journalières NE, PJMAX et
DTOT, pour les deux saisons (hiver et été).
La Figure 16 représente des distributions des paramètres ( ), ( ) et ( ) permettant de calculer
la distribution d’échantillonnage des trois paramètres journaliers du générateur. Sur cette figure, les
box-plots représentent les centiles 5%, 25%, 50%, 75% et 95% des valeurs déterminées sur 3424
postes pluviographiques journaliers de France métropolitaine. En noir la distribution des valeurs
moyennes des variables, en bleu la distribution des écart-types et en vert la distribution des effectifs.
Concernant les effectifs ( ), le premier box-plot représente le nombre d’années d’observation
(compris entre 15 et 55 ans avec une valeur médiane à 45 ans) à partir duquel le paramètre µNE est
13
On fait l’hypothèse que les 6 paramètres sont indépendants pour procéder par tirages aléatoires indépendants
dans leur distribution d’échantillonnage. Cette hypothèse est raisonnable pour les paramètres d’une même saison, mais
elle pourrait être remise en cause entre les mêmes paramètres de deux saisons.
51
calculé, et les deux second box-plots représentent le nombre d’événements (valeurs médianes
respectivement de 110 et 150 pour les saisons « hiver » et « été ») à partir duquel les paramètres
µPJMAX et µDTOT sont calculés. On dispose donc, pour les 6 paramètres, des éléments permettant
de calculer leur distribution d’échantillonnage.
Pour chaque poste, la génération de NB jeux de paramètres conduit à NB distributions de
fréquence des pluies représentant l’incertitude de la méthode. Pour chaque quantile de pluies, les
bornes supérieures et inférieures associées aux probabilités de non dépassement de 95% et
5% ( et ) sont déterminées et leur différence représente l’intervalle de confiance à 90% :
. Pour comparer ces intervalles de confiance, on calcule l’amplitude relative de
l’intervalle de confiance à travers son ratio à la valeur médiane :
. La répartition
spatiale de ce ratio et sa distribution pour différentes périodes de retour sont représentés sur la
Figure 17, pour le quantile de pluies journalières déterminé par le simulateur de pluies.
Figure 17 : Amplitude relative de l’IC90% des quantiles de pluies journalières : à gauche répartition
spatiale pour le quantile T=10 ans, à droite distribution pour différentes périodes de retour.
La Figure 17 montre que :
- Les amplitudes relatives de l’intervalle de confiance sont plus élevées sur les régions
méditerranéennes (présentant des écarts-types de µPJMAX les plus élevés), mais aussi pour
certaines régions du Bassin Parisien et d’Aquitaine où le nombre d’événements est faible.
- Les amplitudes relatives croissent en moyenne avec la période de retour. Ce résultat n’est
pas surprenant, mais il faut noter que cet accroissement de l’amplitude relative est faible
pour des périodes de retour pourtant élevées.
L’étude des incertitudes reste une étape importante. Les résultats présentés peuvent paraitre
triviaux à postériori, mais ils permettent de fixer les idées sur les intervalles de confiance associés à
la méthode par simulation et justifier ainsi l’effort de recherche d’une paramétrisation « robuste ».
Ces résultats permettent aussi d’expliquer la stabilité de la méthode par simulation. Cependant,
certains points doivent encore être étudiés comme l’influence de la paramétrisation de certaines
composantes régionales (comme les copules) sur les incertitudes des estimations.
52
B.4 Etude de la non-stationnarité des pluies extrêmes
Les méthodes actuelles d’estimation de l’aléa reposent sur l’hypothèse de stationnarité des
phénomènes. Ces hypothèses sont mises à rude épreuve avec la mise en évidence du changement
climatique [IPCC, 2007]. Si les observations actuelles montrent une augmentation significative des
températures ou une évolution de la pluviométrie moyenne annuelle, l’avis des experts est plus
mitigé concernant l’occurrence et l’intensité des phénomènes extrêmes. Le problème vient d’une
part du manque de recul dans les chroniques de pluies observées qui ne permet pas d’évaluer une
tendance pour les phénomènes extrêmes, et d’autre part de la difficulté rencontrée par les modèles
climatiques globaux pour modéliser les processus météorologiques extrêmes. Dans ce contexte,
doit-on remettre en cause les méthodes de prédétermination des risques hydrologiques ?
Se posent alors différentes questions :
- l’hypothèse de stationnarité des phénomènes climatiques peut-elle être mise à mal dans le
domaine des valeurs extrêmes ?
- Comment caractériser une éventuelle non-stationnarité « observée » et comment évaluer son
évolution passée et à venir ?
- Quel impact aurait une évolution des caractéristiques climatiques sur l’aléa hydrologique
extrême ?
Ces questions ont été abordées dans la thèse de Philippe Cantet [2009], dirigée par Jean-Noël
Bacro et que j’ai co-encadré. L’idée originale est de s’appuyer sur le générateur des chroniques de
pluies. La mise en évidence d’un changement dans les caractéristiques descriptives des pluies
(occurrence des événements, durée des événements, intensité des averses, …) pourra alors se
traduire en termes d’impact sur les valeurs extrêmes de pluies. Ce paragraphe présente donc les
résultats obtenus dans le cadre de cette thèse [Cantet, 2009; Cantet et al., 2011].
B.4.1 Détection de tendances
Si l’augmentation des températures moyennes a été mise en évidence [IPCC, 2007], on peut
penser que cela a un impact direct sur le cycle de l’eau et par conséquent sur les précipitations. Les
tendances observées sur les précipitations moyennes annuelles concluent à une légère hausse sur la
globalité de la planète, mais avec une forte disparité suivant les régions : à la hausse en Amérique
du Nord et en Europe du Nord et de l’Ouest [Groisman et al., 2001; Schönwiese and Rapp, 1997;
Zhang et al., 2000], mais à la baisse en Chine et sur les régions méditerranéennes [Xoplaki et al.,
2004; Zhai et al., 1999]. Les tendances sur les valeurs extrêmes sont beaucoup plus difficiles à
détecter [Dubuisson and Moisselin, 2006]. De plus les modèles climatiques (Global Climate
Models : GCM) ont des difficultés à modéliser les processus extrêmes [Moberg and Jones, 2004].
Les approches classiques, basées sur l’ajustement de lois de probabilité et sur la détection de
tendances dans l’estimation de leurs paramètres, sont limitées par la représentativité des séries
observées (trop courtes, peu nombreuses) [Pujol et al., 2007; B. Renard, 2006].
53
Le problème de l’échantillonnage lié aux valeurs extrêmes rendant difficile la détection de
tendances, il a été choisi de travailler de façon indirecte sur les paramètres du générateur de pluie.
Bien que basés sur des valeurs moyennes, ces paramètres permettent d’estimer correctement les
valeurs extrêmes (§ B.1.5). De plus, l’usage d’une structure unique du générateur pour tous les
types de climat, permet d’appréhender des processus pluvieux différents (phénomènes convectifs,
frontaux, orographiques, cycloniques, …) uniquement à partir de sa paramétrisation. Les résultats
présentés par la suite sont donc basés sur l’hypothèse que si les processus pluvieux changent, cela
sera visible sur la paramétrisation du générateur, et qu’il n’est pas nécessaire de revenir sur la
structure du modèle.
Les travaux menés sur la détection de tendance ont donc portés sur des variables journalières
permettant de caractériser des pluies fortes et servant à la paramétrisation du générateur de pluies (à
travers leur moyenne)14
, à savoir :
- La variable NE : nombre d’événement pluvieux par saison.
- La variable PJMAX : la pluie journalière maximale d’événement d’une saison donnée.
- La variable DTOT : la durée d’un événement d’une saison donnée.
L’objectif est de déterminer si ces variables présentent une évolution temporelle (cas de
l’instationnarité) ou si elles peuvent être considérées comme stables dans le temps (stationnarité).
Pour cela, un test sur le(s) paramètre(s) des lois décrivant ces variables a été réalisé et appliqué sur
139 stations pluviométriques de références sélectionnées par Météo-France pour leur qualité et leur
période d’observation relativement longue (1960-2003). Le test du rapport du maximum de
vraisemblance a été utilisé [Stuart. Coles, 2001; B. Renard, 2006]. Ce test permet de comparer deux
modèles et (le modèle étant un cas particulier du modèle ). Le modèle est associé
à une hypothèse de stationnarité, c'est-à-dire que ses paramètres sont fixes dans le temps. Le modèle
est associé à une hypothèse d’instationnarité car ses paramètres sont linéairement variables avec
le temps. L’hypothèse nulle considère alors que le modèle est le plus adapté aux données,
contre l’hypothèse alternative qui considère que le modèle est meilleur. Le test est basé sur le
calage de la « déviance statistique » définie par :
où est la log-vraisemblance de l’échantillon des observations suivant le modèle
et le vecteur de paramètres maximisant cette log-vraisemblance. Sous l’hypothèse et avec un
échantillon suffisamment grand, suit une loi du Khi2 de degré de liberté égal à la différence du
nombre de paramètres des deux modèles ( ). Ainsi, l’hypothèse est rejetée avec un risque
de première espèce si avec
14
L’étude directe de la stationnarité des paramètres (et non pas des variables), c'est-à-dire des moyennes des
variables étudiées (soit µNE, µPJMAX et µDTOT) aurait été possible si ces variables suivaient une loi gaussienne. Ce
n’est pas le cas, c’est pourquoi on s’est focalisé sur la distribution des variables et l’évolution des paramètres de leur loi,
pour ensuite revenir à l’estimation de la moyenne de la variable.
54
Ce test a surtout été appliqué sur les deux variables NE et PJMAX. La variable DTOT n’ayant
pas d’impact significatif sur les extrêmes, son traitement n’est pas détaillé ici :
La variable NE représente l’occurrence des événements et peut être assimilé à un
processus de Poisson d’intensité . Dans ce cas, on peut étudier soit le nombre
d’occurrence des événements (qui suit une loi de Poisson d’intensité ), soit la durée entre
les événements ou « temps d’attente » (qui suit une loi exponentielle aussi d’intensité ).
Des tests de stationnarité existent pour ces deux variables. Par simulation il s’est avéré que
le test sur les « temps d’attente » est meilleur [Cantet, 2009]. Dans le cas de ce test, la log-
vraisemblance à calculer est :
avec .
Les deux hypothèses testées sont : et
La variable PJMAX est associée à des événements sélectionnés au dessus d’un seuil u
( = 20 mm). Elle peut être associée à une loi de Pareto généralisée (GPD). Pour des
raisons liées au problème d’échantillonnage, il a été supposé que le paramètre de forme de
la loi GPD ( ) est constant, comme suggéré par Renard [2006]. Ainsi, la non stationnarité
sera caractérisée par un paramètre d’échelle variant avec le temps : . Dans ce cas la
log-vraisemblance à calculer est :
Les deux hypothèses testées sont alors: et
Ce test a été appliqué suivant deux configurations :
- Une approche locale où la tendance des variables est étudiée indépendamment pour chaque
station de mesure.
- Une approche régionale où les valeurs ont été agglomérées sur des zones homogènes pour
déterminer une loi régionale. Dans ce cas, la détermination des zones homogènes a été
réalisée par la méthode hiérarchique ascendante de Ward [Saporta, 2006]15
. Sur les quatre
zones homogènes définies, une loi régionale a été déterminée pour les variables NE et
PJMAX, en prenant en compte de façon originale la dépendance spatiale de valeurs [Cantet
et al., 2011].
15
Cette procédure permet de former des groupes (clusters) tels que la
variance à l’intérieur des groupes soit minimale, de façon à ce que ces groupes
soient les plus homogènes possible. Le regroupement a été réalisé en prenant
en compte l’ensemble des paramètres (µNE, µDTOT et µPJMAX des deux
saisons), ainsi que les coordonnées des postes de mesures. Une information
supplémentaire de 2761 stations non prises en compte pour l’étude des
tendances, a été utilisée pour établir ces quatre zones homogènes, présentées
sur la carte ci-contre [Cantet et al., 2011].
55
Par l’approche locale, les résultats obtenus sont difficilement interprétables en termes
d’évolution temporelle, car localement des postes voisins peuvent avoir des tendances opposées, ce
qui n’est pas compatible avec l’échelle spatiale du processus climatique. On peut cependant
entrevoir des tendances régionales, confirmées par l’approche régionale (Tableau 3).
Par l’approche régionale, les plus gros changements observés ont lieu pour la saison
« Hiver » où le nombre d’événements (NEWinter) augmente significativement sur l’ensemble de la
France, mis à part sur le pourtour méditerranéen où il baisse. Cette hausse touche plus
particulièrement la zone « continentale » qui présente aussi une augmentation du nombre
d’événements pluvieux en saison « Eté » (NESummer). Une augmentation des intensités pluvieuses est
aussi relevée sur les zones « d’altitude ».
Tableau 3 : Résultats des tests de tendances déterminées entre 1960 et 2003 par l’approche
régionale [Cantet et al., 2011]
La stationnarité (ou la non-stationnarité) des paramètres des lois décrivant les variables
journalières (NE, PJMAX et DTOT) a été évaluée suivant une tendance linéaire. Si cette tendance
est significative au vue des tests appliqués, la moyenne de ces variables peut alors être déterminée
au cours du temps. Ces moyennes ont donc été calculées pour l’année 2003 (dernière année des
observations) en prenant en compte d’éventuelles non-stationnarités, puis calculées dans le cadre
d’une hypothèse de stationnarité (moyenne sur toutes les valeurs). Deux jeux de paramètres
utilisables par le générateur de pluies ont été constitués pour produire des quantiles pour différentes
périodes de retour : soit pour les quantiles calculés en prenant en compte la non-
stationnarité et pour les quantiles calculés sous hypothèse de stationnarité. Sur chaque station
pluviométrique, le ratio
est calculé. Le graphique de la Figure 18 présente l’évolution du
ratio pour =5, 10, 100 et 1000 ans en fonction du ratio , obtenus avec l’approche
« locale » de la stationnarité, pour le quantile de la pluie maximale en 24 heures.
Ce graphique permet d’apprécier l’évolution des quantiles pour différentes périodes de retour.
Il permet aussi de visualiser l’impact de la non-stationnarité en fonction de la période de retour.
L’impact de cette non-stationnarité est d’autant plus important que l’on s’intéresse aux événements
extrêmes (de périodes de retour élevées).
56
Figure 18 : Evolution du ratio pour =5, 10, 100 et 1000 ans en fonction du ratio , avec
l’analyse « locale », pour le quantile de la pluie maximale en 24 h [Cantet et al., 2011].
Une autre façon de présenter ces résultats, est d’étudier non plus l’évolution du quantile mais
celle de la période de retour d’une même valeur de pluie. Les quantiles centennaux ont donc été
calculés sous hypothèse de stationnarité, puis la période de retour de ces valeurs a été évaluée
suivant une estimation prenant en compte la non-stationnarité (Figure 19).
Figure 19 : Evolution de la période de retour des quantiles de pluies en 24 h estimés comme
centennaux sous hypothèse de stationnarité : cas de l’approche locale (a) et de l’approche régionale
(b) [Cantet et al., 2011].
On observe que la prise en compte de la non-stationnarité conduit à estimer un aléa plus
fréquent en France que sous hypothèse de stationnarité, hormis en zone méditerranéenne.
Cependant les écarts restent relativement faibles du fait que les événements de pluies les plus
intenses se produisent généralement lors de la saison « été », saison pour laquelle l’évolution des
paramètres est la plus faible. L’analyse saisonnière est donc importante car une analyse annuelle
aurait conduit à observer une augmentation du nombre d’événement sans pouvoir les attribuer à des
événements moins intenses.
57
B.4.2 Prise en compte de projections climatiques
L’étude des tendances sur les paramètres du générateur de pluies permet de réviser
l’estimation de l’aléa dans un contexte lié au présent. Par exemple, si une tendance à l’augmentation
est observée sur une période, la probabilité d’apparition d’un événement donné sera plus forte en fin
de période (donc dans le présent qui intéresse les aménageurs) qu’en début de période.
L’extrapolation dans un horizon plus lointain sera conditionnée par le maintien de la tendance
observée dans le passé.
L’évolution du climat futur est tributaire des conditions présentes (effet d’inertie) et de
scénarios futurs sur les émissions de gaz à effet de serre (GES) par exemple. Pour se projeter dans
un climat futur, de nombreuses recherches portent sur les modèles climatiques prenant en compte
différents scénarii d’émission de GES jusqu’en 2100 et proposent des scénarios climatiques
associés16
. En France, le modèle ARPEGE-Climat est utilisé par le CNRM (Centre National de
Recherche en Météorologie). L’ensemble des projections climatiques produites sont alors
désagrégées de façon statistique à une résolution plus fine de 8x8 km sur la France et une partie de
la Suisse, grâce aux données SAFRAN [Boé et al., 2006]. Ce sont ces données qui ont été mises à
disposition par le CNRM, pour tester leur utilisation par le simulateur de pluies horaires.
L’objectif de ce travail a consisté à caler le générateur de pluies sur des chroniques de pluies
issues de projections climatiques. La difficulté qu’ont les modèles de climat à générer des valeurs
extrêmes ne leur permet actuellement pas de faire des estimations de l’aléa. De plus, la résolution
temporelle de ces modèles est rarement en dessous du pas de temps journalier et ne permet pas non
plus d’évaluer l’évolution des intensités pluvieuses. Le « filtre » proposé par le générateur de pluie
est alors utilisé pour convertir les informations de pluies journalières issues de projections
climatiques, en information sur l’évolution de l’aléa pluvial.
Les données utilisées correspondent à des chroniques de précipitations journalières (liquides
uniquement) simulées sur différentes périodes de 20 ans (1980-2001 / 2046-2066 / 2081-2100) à
une résolution 8x8 km sur la France. Ces chroniques ont permis de calculer les paramètres
journalières du générateur de pluie (µNE, µPJMAX et µDTOT pour les deux saisons « Hiver » et
« Eté ») sur les trois périodes. A partir de ces nouvelles valeurs de paramètres il est facile de mettre
en œuvre le générateur de pluies et d’extraire des simulations les différents quantiles de pluies.
Une première comparaison est faite sur les quantiles correspondant à la période actuelle, soit
1980-2001. Dans ce cas, on dispose des quantiles issus des « données observées » (résultats
présentés dans le paragraphe B.2.2 issus des pluviomètres) et des quantiles issus des données du
modèle climatique. Les résultats sont présentés sur les graphiques de la Figure 20.
16
Il existe 4 scénarii principaux (A1, A2, B1 et B2) pouvant présenter des variantes, associés à l’évolution
démographique, économique, technologique…
58
Figure 20 : Ecarts relatifs entre les quantiles SHYREG issus d’un calage sur les observations et
ceux issus d’un calage sur les chroniques simulées par le modèle ARPEGE-climat, période 1980-
2001 : pluies maximales en 24 heures de périodes de retour 2 et 10 ans [Cantet, 2009].
Le modèle climatique conduit à des quantiles de pluies systématiquement inférieurs à
l’observation. Ce point est probablement dû à la donnée SAFRAN servant à la descente d’échelle
du modèle climatique et qui correspond à une pluie moyenne sur 64 km², alors que les pluies
« observées » sont des données ponctuelles. Les différences peuvent aussi provenir du modèle
climatique qui a des difficultés à produire des valeurs extrêmes, ce qui biaise aussi le calcul de la
moyenne des paramètres du générateur de pluie (en particulier µPJMAX). Ces résultats montrent
qu’il est difficile d’utiliser directement les sorties de modèles de climat pour réaliser des
statistiques. Dans le cadre du travail effectué, l’intérêt réside plus dans l’évaluation des variations
des valeurs qu’à l’étude de leur valeur absolue. L’évolution des quantiles a donc été étudiée suivant
les différents horizons de projection à travers le calcul du ratio des quantiles obtenus sous chaque
période (QPériode 2/QPériode 1) (Figure 21).
Figure 21 : Evolution des quantiles SHYREG entre différentes périodes de calage : cas de la pluie
maximale en 24 heures de période de retour 100 ans [Cantet, 2009].
59
Les résultats obtenus ne montrent pas une évolution générale et uniforme à l’échelle de la
France. Les régions soumises à une augmentation de la pluviométrie seraient la vallée du Rhône,
l’Ouest de la région parisienne et le Nord-est. A l’inverse, la région des Pyrénées, la Bourgogne et
la Bretagne seraient moins touchées par les événements extrêmes.
Ces résultats n’ont pas vocation à être interprétés car ils sont totalement tributaires des
résultats des projections climatiques et des modèles qui les produisent. Il faudrait répéter ces calculs
avec d’autres modèles et d’autres scénarios d’évolution. Ils illustrent juste une application possible
de l’utilisation du générateur de pluies horaires dans la recherche de l’évaluation des pluies
extrêmes en contexte de changement climatique.
Le travail mené au cours de la thèse de Philippe Cantet [2009] et dirigé par Jean-Noël Bacro
du département de Mathématiques Appliquées de l’Université Montpellier II a bénéficié de forts
développements méthodologiques, en particulier dans la mise en place et le choix de tests
appropriés à la problématique de la paramétrisation du générateur de pluie. Le recours à des
simulations a permis le choix des approches les plus pertinentes, la détermination des tests les plus
significatifs et la détermination de seuils associés à ces tests.
Les résultats présentés ont montré qu’une approche de détection de tendance régionale était
plus pertinente qu’une approche locale.
Les résultats sur la non-stationnarité montrent que le générateur de pluies est un outil
original permettant de traduire une connaissance abordable sur l’évolution des pluies journalières
moyennes en estimation des pluies extrêmes à pas de temps fins. Il a été montré que l’observation
de tendances sur des valeurs moyennes peut se traduire par des tendances accentuées sur les
valeurs extrêmes. Cette non linéarité est importante pour l’estimation des pluies extrêmes et est
difficilement prise en compte par les modèles climatiques.
Dans le cadre de l’estimation de l’impact du changement climatique sur l’aléa hydrologique,
l’utilisation d’une information sur l’évolution de la pluie reste particulièrement pertinente. Les
tendances observées sur les pluies sont moins tributaires des problèmes de stationnarité que les
données hydrologiques, qui elles sont plus tributaires à la métrologie ou à des impacts
anthropiques d’occupation des sols, indépendants du changement climatique [B. Renard, 2006].
60
B.5 Conclusion et perspectives
Les travaux de recherche présentés dans cette partie sont directement liés au développement
d’un générateur de pluies horaires destiné à produire de l’information sur l’aléa pluvial. Cette
approche par simulation de scénarios de pluies est originale par rapport aux approches statistiques
classiques. L’intérêt de cette approche est lié à sa nature. La modélisation de scénarios de pluies et
leur simulation sur de très longues périodes permet d’aborder la prédétermination de l’aléa dans
toute sa complexité temporelle à partir d’une seule modélisation, et de s’affranchir par exemple de
la construction de pluies de projet dont on ne maitrise pas l’occurrence réelle.
L’intérêt lié à la nature de l’approche n’a de sens que si l’information qu’elle produit est juste.
Ce point essentiel a été évalué tout le long du développement de la méthode. Cette évaluation
systématique a permis la recherche de points d’amélioration pour augmenter la justesse de
l’approche. Des améliorations notables ont été réalisées avec l’étude de la dépendance des variables
du modèle et en particulier l’observation du phénomène dit de « persistance » qui conditionne la
génération d’une même variable. L’usage des copules a permis la prise en compte de façon
régionale de ces dépendances observées. Les améliorations progressives du générateur de pluie ont
abouti à un modèle qui a été testé et évalué sur un très grand nombre de stations de mesures (plus de
3000) présentant une forte variabilité climatique. Les résultats de son évaluation, menée dans le
cadre de son développement et dans le cadre de comparaison à d’autres approches, ont montré sa
justesse et particulièrement sa stabilité, qui la place parmi les méthodes de prédétermination
recommandées en France pour l’estimation des valeurs extrêmes. En particulier, il a été montré que
la méthode avait une « capacité prédictive » forte car elle conduisait à une bonne estimation de
valeurs « record » sans que celles-ci ne fassent partie des observations lors du calage de la méthode.
Malgré sa complexité, la force de l’approche réside aussi dans l’analyse descriptive
importante qui est faite du signal de pluie. Peu d’hypothèses sont faites sur sa modélisation. Chaque
variable est observée, de même que sa dépendance avec les autres variables. Les lois de probabilité
choisies et les tirages aléatoires effectués lors de la génération des pluies sont directement orientés
par leur observation sur les chroniques de pluies enregistrées. Les performances de la méthode sont
donc liées à la pertinence de la modélisation mise en œuvre, mais aussi au choix délibéré d’une
paramétrisation peu sensible à l’échantillonnage. La prise en compte de façon régionale de certaines
composantes, l’analyse de variables abondamment observées (sur la base d’averses) et une
paramétrisation essentiellement basée sur des moyennes, lui confèrent ses propriétés de stabilité.
Localement, le générateur de pluie peut être calé à partir de données horaires. Une
paramétrisation basée sur une information journalière a été mise en place et a permis le calage du
générateur de pluies à partir d’une information plus largement disponible. La régionalisation de la
méthode est alors possible et a été réalisée sur l’ensemble du territoire national. La comparaison
avec l’utilisation de lois statistiques régionales a montré des capacités équivalentes en termes de
61
justesse et stabilité, avec en plus la capacité de fournir une information multi-durée à partir d’une
même paramétrisation, là où les lois régionales doivent être ajustées pour chaque durée de pluie.
L’outil développé présente un grand intérêt pour la connaissance régionale de l’aléa
pluviographique. La base de données à laquelle le développement de ces recherches a abouti,
fournit une information précieuse mise à disposition dans le cadre d’études hydrologiques. Les
applications sont nombreuses, en particulier pour fournir une information pertinente dans
l’estimation de l’aléa hydrologique (voir partie suivante) ou qualifier des événements (méthode
AIGA et service APIC).
La non-stationnarité des pluies extrêmes a aussi été étudiée. Elle repose sur l’hypothèse que,
le générateur de pluies développé est capable de reproduire de multiples configurations climatiques
(du climat tempéré continental au climat tropical) grâce à la même structure et uniquement
paramétré par une information journalière. Cette modélisation est alors capable, par le biais d’une
paramétrisation journalière basée sur des valeurs moyennes, de reproduire des chroniques de pluies
horaires statistiquement équivalentes aux chroniques observées. De ces chroniques simulées on peut
alors facilement extraire une information fréquentielle des pluies maximales de différentes durées
(de 1 heure à plusieurs jours) pertinente pour l’étude des pluies extrêmes. Des tendances sur des
valeurs moyennes sont alors plus facilement détectables et directement traduites en termes
d’évolution des valeurs extrêmes.
Les avantages liés à sa nature et ses performances, donne à cette approche un intérêt qui nous
pousse à poursuivre son développement. Des questions restent donc en suspens et doivent faire
l’objet de recherches et développements plus poussés. Ces questions reprises dans la partie D
concernent par exemple :
- la prise en compte d’une typologie des événements en lien avec les configurations
météorologiques qui les génèrent, pourrait être plus pertinente qu’une analyse par saison,
- l’application de la méthode sur des climats plus secs est envisagée,
- l’étude d’une modélisation à pas de temps fins a déjà fait l’objet de pistes de recherches sur
la base de méthodes de désagrégation de l’information horaire vers des pas de temps plus
fins,
- la recherche de méthodes de régionalisation plus performantes,
- la modélisation de pluies de bassins par la prise en compte de l’abattement,
- la poursuite des recherches sur l’évaluation de l’impact du changement climatique,
- la poursuite des recherches sur l’évaluation des incertitudes, avec par exemple la prise en
compte des incertitudes sur la détermination des paramètres régionaux des copules, …
Ces recherches sur l’estimation de l’aléa pluvial sont importantes en soi. Elles présentent
surtout un grand intérêt pour l’estimation de l’aléa hydrologique qui résulte des pluies extrêmes. Ce
travail de recherche est présenté dans la partie suivante. Il est abordé par la simulation de
chroniques de crues issues d’une transformation hydrologique des pluies modélisées par le
générateur de pluies horaires.
62
C - ESTIMATION DE L’ALÉA
HYDROLOGIQUE PAR LA SIMULATION
DES CRUES
Saint Pargoire (34) 29/09/2014 - Source Midi-
Libre
Montagnac (34) le 29/09/2014 - Source Midi-Libre
63
La prédétermination d’aléa hydrologique consiste à associer une grandeur hydrologique à sa
période de retour (§ A.1). Elle passe par l’analyse statistique des observations disponibles sur un
bassin versant donné. Les méthodes employées passent souvent par l’ajustement de lois de
probabilités théoriques sur les distributions de fréquences empiriques des valeurs observées. La
non-linéarité des processus hydrologiques, liée à la saturation progressive des bassins versants, a
conduit certaines méthodes à s’appuyer sur la connaissance des pluies pour extrapoler les
distributions de fréquences des débits. Par nature, c’est le cas des méthodes par simulation des
processus qui tentent de modéliser le signal de pluie et la relation pluie-débit, afin de simuler des
scénarios de crues d’où sont tirées les distributions de fréquence des débits maximums.
Le besoin d’une connaissance de l’aléa hydrologique sur des bassins non instrumentés,
nécessite des méthodes de transposition de l’information. Deux approches sont possibles : passer
soit par l’interpolation spatiale directement de la grandeur hydrologique [Cipriani et al., 2012], soit
par l’interpolation spatiale des paramètres des modèles/méthodes (statistiques ou non) pour pouvoir
les appliquer en sites non-jaugés (c’est le cas des méthodes par simulation). En hydrologie, quelle
que soit la méthode, l’interpolation spatiale vise le transfert de l’information observée sur certains
bassins versants, vers des bassins versants non-jaugés. Différentes méthodes de transfert peuvent
être utilisées : les méthodes basées sur le voisinage, les méthodes déterministes basées sur des
régressions avec les caractéristiques physiques des bassins, les méthodes géostatistiques, ou la
combinaison de ces différentes méthodes [Merz and Blöschl, 2005].
La méthode par simulation développée dans le cadre de mes recherches et présentée dans ce
manuscrit permet d’estimer l’aléa hydrologique par couplage d’un générateur de pluie à une
modélisation hydrologique. Cette approche fournit une information temporelle complète sur l’aléa,
elle prend en compte la non-linéarité du processus hydrologique et sa régionalisation porte sur sa
paramétrisation. La méthode complète est donc présentée dans cette partie, suivant différentes
configurations de mise en œuvre liées à l’information disponible (« locale » ou « régionale », voir
Figure 22).
Figure 22 : Les différents modes de fonctionnement de la méthode par simulation développée.
Le développement du générateur de pluie (présenté dans la partie B de ce manuscrit) permet
d’estimer l’aléa pluvial, par la simulation de chroniques de pluies horaires. Le passage aux débits
consiste donc à « brancher » un modèle hydrologique à la sortie de générateur de pluie pour
64
modéliser des chroniques de crues. On parlera alors de la méthode « SHYPRE » [Arnaud, 1997;
Arnaud and Lavabre, 2002; Flavie Cernesson, 1993] qui couple le générateur de pluie au modèle
hydrologique GR3H. Dans ce cas, la mise en œuvre de la méthode nécessite : d’une part la
connaissance locale des pluies horaires sur le bassin pour caler le « simulateur de pluies horaires
ponctuel » et déterminer d’un coefficient d’ « abattement de la pluie » et d’autre part la
connaissance des débits à l’exutoire pour le calage du modèle hydrologique « GR3H ».
Des adaptations ont été réalisées pour simplifier l’approche initiale, en vue de faciliter sa
régionalisation [Yoann Aubert et al., 2014; Organde et al., 2013], un des objectifs de la méthode
étant son utilisation pour la connaissance régionale (donc aussi en sites non-jaugés) des débits de
crue extrêmes. Dans ce cas, on parlera de la méthode « SHYREG » (SHYpre REGionalisé) et les
adaptations apportées sont :
La régionalisation du générateur de pluies horaires (B.2). Ce travail a nécessité la
paramétrisation du générateur de pluie par une information journalière plus abondante. Sur cette
base, la régionalisation a gagné en précision (plus d’informations) sans dégradation notable des
performances du générateur [Arnaud et al., 2008b]. On parlera de « simulateur de pluies
horaires régional ».
La simulation pixélisée et la régionalisation du modèle hydrologique. Il a été choisi de
réaliser une transformation des pluies horaires simulées en débits de crue simulés, sur des pixels
d’un km² pour lesquels on dispose des valeurs des paramètres du générateur de pluie. Ce passage
au pixel est imposé par la nature ponctuelle des pluies modélisées par le générateur. Il nous
permet aussi de simplifier le modèle hydrologique (nommé « GR simple »). Deux étapes sont
nécessaires. Dans un premier temps, les pluies horaires générées à chaque pixel sont
transformées en scénarios de crues par le modèle hydrologique simplifié. La simplification du
modèle conduit à le paramétrer par un seul paramètre. Les scénarios de crue permettent d’obtenir
des quantiles de débits au km² (débits spécifiques). Ces quantiles de débits spécifiques sont
ensuite agglomérés à l’échelle des bassins versants. L’agrégation de cette information est réalisée
en prenant en compte, de façon indifférenciée, l’abattement spatial lié aux pluies et l’abattement
spatio-temporel lié à l’hydraulique (« Abattement Pluvio-Hydro : FTS ») [Fouchier, 2010]. Pour
cela une fonction d’abattement des débits agglomérés est utilisée et dépend seulement de la
surface du bassin et de la durée étudiée. Cette fonction est unique sur un territoire donné. Le
calage de la méthode (« SHYREG local ») porte alors sur un seul paramètre, optimisé de façon à
respecter au mieux l’information connue sur les débits. La régionalisation de l’approche porte
alors sur ce seul paramètre de calage [Organde et al., 2013] qui sera alors utilisé dans l’approche
« SHYREG régional » (Figure 22).
Les paragraphes suivants présentent les travaux de recherches effectués pour mettre en œuvre
ces différents modes de fonctionnement de la méthode : couplage du générateur de pluie avec une
modélisation hydrologique, simplification de l’approche, agrégation des quantiles de crues et
régionalisation de la méthode sur l’ensemble du territoire français.
65
C.1 Modélisation hydrologique parcimonieuse
Il existe une multitude de modèles hydrologiques qui permettraient de transformer les
chroniques de pluies simulées en chroniques de débits. Le choix s’est porté sur un modèle
conceptuel simple et parcimonieux issu de la famille des modèles à réservoirs GR
(http://webgr.irstea.fr/). L’intérêt de ces modèles est de présenter un très bon rapport
« performances/paramètres ». En effet, avec un faible paramétrage ces modèles conduisent à de très
bonnes performances [Perrin et al., 2001], ce qui est un atout dans une optique de régionalisation
de l’approche.
C.1.1 Utilisation du modèle GR3H
Dans sa version « SHYPRE », l’approche utilise le modèle GR3H [Yang, 1993]. Ce modèle
fonctionne au pas de temps horaire, il est composé de 2 réservoirs et de 2 hydrogrammes unitaires.
Sa structure est identique à celle du modèle journalier GR3J présenté par Edijatno et Michel [1989].
Le schéma de la Figure 23 présente sa structure.
Pluie : P
Structure
du modèle
GR3H
Ps = (1-(S/A)²).P
S
Débit : Q = Qr + Qd
Pr
B R
Qd
0,9Pr 0,1Pr
C
Transfert
Pr = (S/A)².P
Production
Réservoir A
Réservoir
HU1
R
S
HU2
C 2C
Qr (t) = R(t)5/4B
4
S0/A
R0= f(Q0)
Initialisation
Figure 23 : Structure du modèle GR3H
Le modèle a trois paramètres (A, B, C) liés à sa structure et deux paramètres liés à son
initialisation (en mode événementiel). Généralement dans une utilisation continue du modèle,
l’initialisation ne fait pas l’objet d’une optimisation car les états initiaux sont déterminés par une
période de « chauffe » ou « d’initialisation » suffisante pour que les valeurs initiales imposées
n’aient plus d’impact sur les résultats produits au-delà de cette période. Dans le cas d’une utilisation
en mode « événementiel », la période de « chauffe » n’est pas possible et l’initialisation fait l’objet
66
d’une optimisation. Le calage du modèle GR3H en mode événementiel se ferait donc sur 5
paramètres au lieu de 3. Une étude de sensibilité du modèle à ses paramètres a permis de réduire à
trois le nombre de paramètres importants pour le calage du modèle hydrologique fonctionnant en
mode événementiel [Arnaud, 1997; Arnaud and Lavabre, 2000]. Ces trois paramètres sont S0/A (le
taux de remplissage du réservoir A) B (la capacité maximal du réservoir de transfert) et C (le temps
de montée des deux hydrogrammes unitaires). Le paramètre A est imposé à une valeur fixe17
et le
niveau de remplissage du réservoir B (R0) est déduit du débit initial de chaque crue (Q0).
Sur un bassin versant, présentant des observations de pluies horaires et des chroniques de
débits, le calage du modèle hydrologique est possible. Un pluviomètre représentatif est choisi, sur
lequel portera le calage du générateur de pluie. La relation pluie-débit (via le calage du modèle
GR3H) se fera entre les pluies observées sur ce pluviomètre et les débits observés à l’exutoire.
Dans une première version de la méthode [Arnaud, 1997], les trois paramètres ont été
optimisés pour chaque crue observée, ce qui permet d’en déduire leur distribution de fréquence. En
simulation, un jeu de paramètres (S0/A, B et C) doit alors être généré par un tirage aléatoire dans
leur loi de probabilité respective : la loi normale tronquée entre 0 et 1 pour S0/A et la loi log normale
pour B et C. La valeur de Q0, servant à initialiser le réservoir B, est fixée à la valeur médiane
observée sur les crues du bassin versant considéré.
L'examen de l'indépendance des paramètres a aussi été réalisé. Les paramètres sont
linéairement indépendants de la pluie (coefficients de corrélation non significatifs), ce qui permet de
les générer de façon aléatoire quel que soit l'événement de pluie généré. Le paramètre C est
indépendant des deux autres paramètres, ce qui permet aussi de le générer aléatoirement. Une
liaison linéaire a par contre été constatée entre les valeurs du logarithme népérien de B et les valeurs
de S0/A. Cette liaison a alors été intégrée lors de la génération des paramètres B et S0/A par
l'intermédiaire du coefficient de détermination de la régression entre S0/A et Ln(B). La valeur de
S0/A est générée de façon aléatoire, et la valeur de B en est déduite en tenant compte à la fois des
paramètres de la régression entre S0/A et Ln(B) et de la dispersion observée autour de cette
régression [Arnaud and Lavabre, 1997]. Des essais ultérieurs ont montré que la prise en compte de
cette dépendance entre ces deux paramètres et la prise en compte de la variabilité des paramètres via
un tirage aléatoire dans leur loi, n’avait pas un réel impact sur les résultats de l’approche, permettant
finalement de ne considérer ces paramètres qu’à travers leur valeur médiane saisonnière.
Des applications du couplage de ce modèle avec le générateur de pluie sont présentées dans
différents travaux [Arnaud and Lavabre, 2000; 2002; Arnaud et al., 1997], en particulier sur des
bassins méditerranéens présentant une forte variabilité dans les débits. Il a été montré que par
rapport aux méthodes classiques de prédétermination, la méthode développée est beaucoup moins
sensible aux problèmes d'échantillonnage en particulier des valeurs extrêmes, comme le montre
l’exemple présenté sur les graphiques de la Figure 24.
17
Dans un premier temps la valeur du paramètre A a été fixée à 330 mm [Arnaud and Lavabre, 2000] puis
imposée par une valeur fonction de l’hydrogéologie du bassin versant [Aubert, 2012], permettant ainsi de modéliser des
bassins versants ayant des capacités de stockages plus ou moins importantes liées à des échanges forts (en perte) avec le
milieu souterrain (bassin parisien, régions landaises, …).
67
Figure 24 : Distribution de fréquence des débits de pointe observés et simulés par SHYPRE, pour
deux périodes d’observations différentes [Arnaud and Lavabre, 2002].
La stabilité de la paramétrisation de ces deux modèles (le générateur de pluie et le modèle
hydrologique GR3H) face à la présence d'événements extrêmes, ainsi que la large utilisation de
l'information pluviométrique permettent d'expliquer cette robustesse. La méthode est capable
d'estimer correctement des débits de pointe de périodes de retour élevées même avec un
échantillonnage d'événements ordinaires. Un intérêt supplémentaire que présente la méthode réside
dans l'information temporelle qu'elle fournit. Le générateur de pluie étant à la base de la méthode, la
modélisation pluie-débit est nécessaire pour garder l'intérêt de l'information temporelle, en
transformant les hyétogrammes simulés en événements de crues "réalistes". L'étude complète des
débits à l'aval des ouvrages hydrauliques est alors possible évitant l'utilisation de pluie ou de crue de
projet (voir § C.3.3).
La méthode ainsi déroulée correspond au mode de fonctionnement dit « SHYPRE local »
utilisant des chroniques observées de pluies et de débits à pas de temps fins, nécessaires pour caler
le modèle GR3H. Dans ce cas plusieurs paramètres (trois) sont associés au calage le modèle
hydrologique, ce qui peut ensuite contraindre la régionalisation de l’approche. Le problème de la
représentativité de la pluie sur le bassin est aussi une limite car le générateur reste un générateur
ponctuel et les chroniques de pluies simulées ont donc des caractéristiques moins « lissées » qu’une
pluie de bassin. Une option aurait été de travailler sur le développement d’un générateur de pluie de
bassin, calé sur des chroniques de pluies de bassins. Dans le cas de pluies horaires, cette option est
difficilement applicable de part la faible densité du réseau de mesure pluviographique (information
à pas de temps infra-quotidien). Une autre option serait d’appliquer un coefficient d’abattement
spatial directement sur les pluies horaires simulées. Cette option n’est cependant pas pertinente car
l’abattement des pluies est variable suivant la durée de la pluie à laquelle on s’intéresse. Il faudrait
donc proposer un abattement quantitatif sur la pluie totale d’un événement, avec un lissage des
intensités. Cette option n’a pas été choisie. Le développement d’un générateur spatial de champs de
pluie correspond par contre à une autre approche qui implique une connaissance sur la structure
68
spatiale de la pluie à pas de temps horaire, disponible uniquement depuis quelques années avec le
développement des radars météorologiques. Cette approche spatiale reste cependant difficile à
appliquer pour l’estimation des valeurs extrêmes et nécessiterait de plus d’utiliser une modélisation
hydrologique spatialisée (bien qu’une approche globale soit aussi utilisable).
Le choix fait a été de travailler sur une modélisation au pixel, permettant de fournir des
quantiles de débits spécifiques qui feront l’objet d’un abattement spatial global, attribué à la fois à
la pluie et à l’hydraulique. Cette approche développée par la suite a permis une simplification de la
modélisation hydrologique, réalisée sur une même maille de calcul, le kilomètre carré. Cette
modélisation est, comme dans la plupart du temps, orientée par la question qui est posée… et qui
concerne ici la connaissance des caractéristiques des crues extrêmes en sites dépourvus
d’information.
C.1.2 Simplification du modèle GR3H pour un fonctionnement pixélisé
Afin de proposer des modifications et une simplification dans la structure du modèle GR3H
pour modéliser les crues sur des mailles élémentaires de un km², le modèle GR3H a été appliqué sur
une douzaine de petits bassins versants de superficie voisine du km² (entre 0,64 et 16 km², médiane
à 1,5 km², moyenne à 3,7 km²) [Arnaud, 2005]. Ces bassins sont présents sous différents climats : 6
bassins en zones méditerranéennes pluvieuses, 3 bassins alpins (Suisse) et 3 bassins tropicaux (Île
de la Martinique). La capacité du premier réservoir (A) reste fixée comme pour le modèle GR3H.
Une première simplification du modèle GR3H a été de supprimer les deux hydrogrammes
unitaires caractérisés par le paramètre C, pour les remplacer par un hydrogramme unitaire simple
placé au début de la modélisation. Cet hydrogramme unitaire répartit la pluie suivant deux pas de
temps horaires : 70% au pas de temps de la pluie et 30% au pas de temps suivant. Cet opérateur
permet un lissage des intensités horaires de pluie et ne fait pas l’objet d’une optimisation. Cette
simplification n’a pas d’impacts notables sur la capacité du modèle à restituer les crues observées,
d’une part parce que le paramètre B permet de compenser légèrement, mais aussi parce que
l’application sur des petits bassins versants ne conduisait pas à des valeurs du paramètre C très
variables.
Une seconde simplification a été apportée au niveau réservoir de transfert B, dont la capacité a
été fixée (à 50 mm), de même que sa valeur initiale de remplissage (initialisé à 30%). Le débit
initial Q0 est simplement ajouté à l’hydrogramme simulé et ne sert plus à l’initialisation de B. Cette
simplification, possible lorsque l’on veut modéliser des bassins versants sur une taille identique et
élémentaire, peut être compensée par le calage du dernier paramètre S0/A. En effet, le transfert étant
finalement supposé unique sur tous les bassins (d’un km²), la variabilité des écoulements va
provenir de la pluie et de la production du bassin. Les calages ont montré que cette hypothèse était
raisonnable et que le modèle ainsi simplifié conduisait à des résultats très satisfaisants sur des petits
bassins versants, en respectant la pointe des hydrogrammes et leur volume. Une
« désynchronisation » entre les hydrogrammes observés et modélisés est cependant possible, mais si
ce point peut être gênant en prévision des crues, il n’a pas d’importance en prédétermination.
69
La version simplifiée de GR3H (Figure 25) présente différents avantages. Sans dégrader
notablement les performances du modèle en restitution des crues, on réduit l'impact des paramètres
C et Q0 sur les résultats du modèle. En effet, ces deux paramètres avaient respectivement un rôle de
transfert et de production qui pouvait influencer les valeurs prises par les deux paramètres
principaux du modèle (B et S0/A), rendant ainsi difficile la maîtrise du comportement du modèle.18
Pluie : P (i)
Structure
simplifiée du
modèle GR3H
Ps = (1-(S/A)²).P
S
Débit : Q = Qr + Q0
B = 50 mm R
Pr = (S/A)².P
Réservoir A Réservoir
R
S
Qr (t) = R(t)5/4B
4
S0/A
Initialisation
R0/B = 0,3
P = 0,7P(i) + 0,3P(i-1)
Figure 25 : Structure du modèle GR3H simplifié : GRsimple
Cette version du modèle présente des caractéristiques intéressantes pour son utilisation en
prédétermination des crues :
parcimonie : on fait le gain d’un paramètre (C) en supprimant les deux hydrogrammes
unitaires de GR3H. En effet, le décalage temporel entre les pluies et les débits ne présente
aucun intérêt en prédétermination. En restitution des crues (calage du modèle), les erreurs de
synchronisme peuvent être évitées par un décalage temporel de la pluie observée (décalage
non utilisé en simulation). Ce décalage temporel est alors neutre dans la modélisation par
rapport à l’utilisation d’un hydrogramme unitaire qui introduit un étalement de la pluie dans
le temps. Cependant dans le cadre des petits bassins versants étudiés, aucun décalage n’est
nécessaire. Le paramètre B et son état initial ont aussi été fixés.
indépendance des paramètres : la suppression des hydrogrammes unitaires et le fait de
fixer le taux de remplissage du réservoir B conduit à une meilleure distinction des
paramètres entre eux en réduisant les effets compensatoires de paramètres ayant le même
rôle. Ce point est particulièrement intéressant pour aider à la régionalisation des paramètres.
Le calage du modèle hydrologique à l’échelle du km² est donc porté sur un seul paramètre
de production (S0/A) les autres paramètres étant fixés.
18
Notons que cette structure a été reprise dans le cadre de l’élaboration d’une version distribuée (spatiale) du
modèle GR3H, appelée GRD (GR Distribué), utilisée pour réaliser une modélisation hydrologique adaptée à la
prévision des crues (Arnaud et al, 2011). Cette structure permet alors de modéliser la contribution de chaque pixel du
bassin versant soumis à l’information pluviométrique pixellisée apportée par la mesure des radars météorologiques
(Javelle et al, 2010).
70
Le comportement de la modélisation vers les fréquences rares a aussi été étudié en soumettant
la modélisation hydrologique réalisée, aux pluies extrêmes simulées par le générateur de pluies
horaires. On a alors mis en évidence le problème de l’équifinalité des paramètres, posant le
problème du choix de la modélisation à retenir. En effet, un dilemme se présente. Il existe plusieurs
solutions (sur la structure et sur la paramétrisation) qui permettent de conduire à une restitution
équivalente des crues observées, par l’effet de compensations. Cependant, si ces modélisations sont
équivalentes pour la restitution des crues observées, leur utilisation avec des pluies de fréquences
exceptionnelles conduit parfois à des résultats très différents. Le choix et la validation de la
modélisation à retenir sont alors très difficiles. La réduction du nombre de paramètres permet en
partie de résoudre ce problème important.
Cette question s’est posée en particulier pour la valeur du paramètre A dont la valeur fixée a
une influence non négligeable sur le comportement asymptotique du modèle vers les valeurs
extrêmes. Ce point a été abordé dans le cadre de la thèse de Yoann Aubert [2012] et a conduit a un
choix pertinent pour le paramètre A utilisé dans le cadre de l’application régionale de la méthode
[Yoann Aubert et al., 2014] présentée dans le paragraphe suivant.
Le couplage du générateur de pluie avec une modélisation hydrologique permet d’étudier
l’aléa hydrologique dans toute sa composante temporelle, de la même façon que pour les pluies. Le
modèle hydrologique a été choisi pour être performant tout en étant parcimonieux. Avec seulement
trois paramètres, le modèle GR3H répond à ces critères. Le couplage avec le générateur de pluies a
nécessité l’étude de la dépendance des paramètres avec la pluie ainsi que de leur dépendance entre
eux (le modèle étant événementiel, plusieurs jeux de paramètres sont déterminés pour un même
bassin), afin d’être éventuellement pris en compte lors de la simulation.
Dans l’objectif de régionalisation de l’approche, destinée aussi a été utilisable en sites non-
jaugés, la transformation pluie-débit a été simplifiée au maximum. Cette simplification est justifiée
par la résolution spatiale sur laquelle est faite la transformation des pluies simulées en débits. A
cette résolution spatiale, c’est la production du modèle qui présente le plus de variabilité, le
transfert pouvant être supposé invariant d’un pixel à l’autre, en première approximation. La
réduction du nombre de paramètres est guidée par une limite imposée par la capacité du modèle à
restituer les débits de pointe et les volumes de crues sur des bassins de l’ordre de un km². Une
structure simple, basée sur le modèle GR3H dont certaines composantes sont simplifiées et certains
paramètres fixés, permet de répondre à cet objectif en ne gardant qu’un paramètre de calage.
A cette étape, la simplification permet aussi de supprimer le problème de la dépendance des
paramètres entre eux (puisqu’il n’en reste plus qu’un) mais qu’il faut prendre en compte dans une
approche plus complète.
Les simplifications réalisées à cette étape restent un préalable « pour dérouler » la méthode
jusqu’à son utilisation finale en sites non-jaugés, sur des bassins de toutes tailles. La recherche
effectuée a consisté à trouver les hypothèses simplificatrices les plus pertinentes pour ne pas nuire
à la justesse des résultats sur des petits bassins. L’analyse des résultats sur l’approche complète
permettra ensuite de revenir sur certaines hypothèses simplificatrices en étudiant les zones
géographiques et les types de bassins où l’approche est mise en défaut.
71
C.2 Mise en œuvre régionale de l’approche par simulation
Cette partie présente la version régionale de la méthode « SHYPRE ». Cette version nommée
« SHYREG » est développée pour une application régionale (estimation en sites non jaugés). Elle
s’appuie fortement sur la connaissance régionale de la pluviométrie pour estimer les quantiles de
crues courants à extrêmes. Cette information pluviométrique est estimée suite au travail de
cartographie des paramètres du générateur de pluies horaires.
C.2.1 Rappel sur la mise en œuvre régionale du générateur de pluies horaires
Ce paragraphe rappelle de façon synthétique les étapes présentées dans le paragraphe B.2, qui
ont abouti à la production de la base de données SHYREG-pluie utilisée pour l’estimation des crues
et présentée en détail dans un guide méthodologique [Arnaud and Lavabre, 2010]. L’élaboration de
cette base est passée par différentes étapes représentées sur la Figure 26 :
Figure 26 : Principe de l’élaboration de la base SHYREG-pluie
72
1 - Le calage d’un générateur de pluie. Le principe est de décrire les chroniques de pluies
horaires par l’intermédiaire de différentes variables aléatoires. Ces variables sont au nombre de
9 (nombre d’événements pluvieux par an, nombre d’averses par événement, durées des averses,
volumes des averses, etc.). Elles sont toutes associées à une loi de probabilité adaptée qui
permet le tirage aléatoire des valeurs nécessaires pour simuler des chroniques de pluies horaires
(Cernesson, Lavabre et al. 1996). La dépendance entre certaines variables a été mise en
évidence et modélisée (Cantet 2009). Le calage du modèle, effectué pour deux saisons, a été
réalisé sur 217 postes horaires de référence et les résultats contrôlés sur 207 autres postes.
2 - La paramétrisation du générateur par une information journalière. Par le biais de
corrélations linéaires, les paramètres les plus importants du générateur de pluie sont facilement
déterminés par des caractéristiques journalières de la pluie. D’autres paramètres sont fixés à des
valeurs régionales. L’intérêt de cette paramétrisation par l’information journalière est de
disposer d’une information pluviométrique nettement plus dense au pas de temps journalier
qu’au pas de temps horaire. Cette paramétrisation, basée sur des caractéristiques moyennes,
garantit la stabilité de la méthode face aux problèmes d’échantillonnage des observations.
3 - La régionalisation des paramètres journaliers. Les trois paramètres journaliers permettant de
mettre en œuvre le générateur de pluie horaire ont été déterminés sur 2812 chroniques de pluies
journalières observées sur la période 1977-2002. Ces trois paramètres caractérisant
l’occurrence, la durée et l’intensité des pluies, ont alors été régionalisés à une maille de 1x1 km
en utilisant une méthode de type AURELHY (Benichou and Le Breton 1987) par Météo-France
(Sol and Desouches 2005).
4 - La simulation de chroniques de pluies. A partir des trois paramètres journaliers régionalisés
sur une maille d’un km², la génération d’un échantillon d’événements pluvieux indépendants
est réalisée au pas de temps horaire. Cet échantillon est alors statistiquement équivalant à un
échantillon de plusieurs milliers d’années d’observation, sous hypothèse de stationnarité.
5 - Extraction des quantiles de pluies (courbes IDF). Les événements pluvieux simulés sont
analysés comme des observations en extrayant les valeurs de pluies maximales de différentes
durées. Ces valeurs sont ensuite classées pour déterminer des distributions empiriques d’où
sont extraits directement les quantiles empiriques de pluies de différentes durées, sans
ajustement de lois. On obtient ainsi une base de données de courbes Intensité-Durée-Fréquence
à la maille de un km², représentant la pluie ponctuelle.
La régionalisation du générateur de pluie permet son utilisation sur l’ensemble du territoire
d’étude. Elle fournit une information pixélisée robuste et pertinente de l’aléa pluvial, prenant en
compte l’information pluviométrique régionale et une information topographique. La
paramétrisation régionalisée du générateur permet dont de générer en tout point du territoire des
chroniques synthétiques de pluies horaires qui seront alors utilisées par le modèle hydrologique
GRsimple.
73
C.2.2 Principe et calage de la méthode SHYREG
Le calage de la méthode SHYREG consiste à trouver une paramétrisation du modèle
hydrologique qui permette de se caler sur la distribution de fréquence empirique des débits
maximums observés aux stations jaugées. Cette phase correspond au mode de fonctionnement
appelé « SHYREG local » de la Figure 22 et comprend deux étapes.
Figure 27 : principe du calage de la méthode SHYREG
Ces étapes de calage décrites dans la Figure 27 sont :
Etape 1 : une simulation au pixel :
La première étape consiste à générer des quantiles de débits de crue à la maille du pixel (un
km²). Pour cela, des événements indépendants de pluies horaires sont simulés à chaque maille, à
partir des paramètres régionalisés du générateur de pluie. Ces événements de pluies sont
transformés en événements de crues indépendants par le modèle hydrologique simplifié (§ C.1.2).
Des simulations sont réalisées pour différentes valeurs de l’unique paramètre S0/A. Finalement, pour
74
chaque valeur de S0/A, et à chaque pixel, des événements de crues sont simulés avec la pluie locale.
Les quantiles de crues sont extraits de façon empirique de ces événements simulés. A l’ensemble
des débits générés, on rajoute un débit de base (noté Q0). Le débit de base utilisé correspond à une
estimation du débit spécifique mensuel moyen, fourni par une méthode régionale d’estimation de la
ressource en eau (la méthode LOIEAU : [Folton and Lavabre, 2006; 2007]). Bien que cette valeur
soit souvent négligeable face aux débits de crues simulés, il est important de la prendre en compte
lors du calage de la méthode. En effet, elle permet de distinguer la partie « ruissellement » de la
partie « écoulement de base » qui ne dépend pas directement des pluies générées au cours de la
crue. Cette prise en compte permet d’éviter un biais dans le calage [Aubert, 2012].
La variabilité spatiale des débits, pour une même durée, une même période de retour et une
même valeur de S0/A, est assurée principalement par la pluviométrie (variabilité des paramètres du
générateur), mais aussi par la taille du réservoir A et à moindre échelle par le débit de base Q0. La
notion de durée caractéristique du bassin versant a été, sinon éludée sur cette modélisation au km²,
tout au moins considérée comme identique pour tous les pixels. Le paramétrage local ne porte donc
que sur le rendement des pluies, à travers le calage du paramètre S0/A. Lors de son calage, ce
paramètre doit alors compenser les hypothèses faites sur les autres paramètres qui ont été fixés. La
méthode n’étant pas continue, on suppose que les événements pluvieux, générés de manière
indépendante, se produisent toujours sur un système dont l’état initial est un état moyen, toujours le
même, et est donné par le paramètre S0/A. Les deux saisons sont cependant prises en compte en
optimisant une valeur du paramètre S0/A pour chaque saison.
Comme pour les pluies, les événements de crues générés sont associés à une période de
simulation et sont analysés empiriquement pour calculer des valeurs de quantiles de crue
directement lus sur la distribution empirique. Seuls les quantiles de périodes de retour 100 fois plus
faibles que la durée de simulation sont retenus pour garantir une stabilité de la fréquence empirique.
Pour obtenir des quantiles millénaux on simule donc l’équivalent de 100 000 ans d’événements
pluvieux que l’on transforme en crues et on retient les caractéristiques de rang 100. Ce travail est
effectué en chacun des 550 000 pixels recouvrant le territoire de la France métropolitaine.
Etape 2 : le calcul aux exutoires des bassins versants
La seconde étape consiste à calculer pour les différentes valeurs du paramètre S0/A, les
quantiles de débits de crues aux exutoires des bassins versants jaugés. Ainsi, pour chaque bassin
versant et pour chaque valeur de S0/A, les débits spécifiques sont moyennés sur les pixels
appartenant au bassin. On calcule donc la grandeur
qui est la moyenne des
débits de durée (pour le débit de pointe, ) et de période de retour des pixels de un km²
contenus dans le bassin, notés pour à . Ces débits moyennés sont ensuite
réduits par une fonction d’abattement qui dépend de la surface du bassin (km²) et de la durée du
débit moyen. Cette fonction sert à prendre en compte simultanément l’abattement des pluies avec la
surface, mais aussi un abattement de nature hydraulique [Aubert, 2012; Fouchier, 2010]. Elle
75
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
1 10 100 1000 10000
f1(S)
f2(S)
s’exprime par le biais de deux équations dépendant de la durée sur
laquelle le débit moyen est calculé :
avec
Les paramètres 1, 2, 1, 2, et ont été optimisés de façon unique sur un échantillon de
1291 bassins versants en France et sont considérés comme constants sur l’ensemble de la France
Métropolitaine19
. On obtient alors pour chaque bassin versant les quantiles de débits de différentes
durées : . Le calage consiste alors à trouver la valeur du paramètre qui minimise
les écarts entre la distribution empirique et la distribution fournie par la méthode. En pratique un
écart relatif est calculé entre six quantiles issus des observations (débits de pointe et débits moyens
journaliers de périodes de retour 2, 5 et 10 ans) et les six mêmes quantiles fournis par la méthode
SHYREG. Les quantiles issus des observations sont obtenus par l’ajustement d’une loi de
probabilité GEV dont le paramètre de forme a été borné (sa valeur doit être comprise entre 0 et 0,4).
Le choix de cette loi a relativement peu d’importance tant que l’on reste dans le domaine des
fréquences courantes (T<10 ans), nécessaire au calage de la méthode20
. Ainsi, pour chaque bassin
versant jaugé, la méthode peut-être calée en optimisant un seul paramètre. C’est sur ce paramètre
que portera la régionalisation nécessaire pour pouvoir appliquer la méthode tout le long du réseau
hydrographique (et donc en milieu non jaugé). C’est dans cette configuration que la méthode a été
évaluée et comparée à l’usage des méthodes statistiques classiques. Les résultats sont présentés dans
le paragraphe C.3.
C.2.3 Régionalisation de la méthode
La méthode choisie repose sur la recherche de régressions entre le paramètre optimisé sur
chaque bassin versant de calage et des variables environnementales, puis sur l’interpolation spatiale
des résidus à ces régressions [Hydris, 2009].
19
Ces paramètres prennent respectivement les valeurs 0,01 / 0,25 / 0,24 / 10 / 5 et 0,9, avec de faibles variations
lorsque l’on fait varié l’échantillon de calage lors de procédures de calage/validation. 20
Un poids est affecté aux différents quantiles dans le calcul du critère d’écart. Les quantiles de période de retour
2 et 5 ans ont un poids de 2 et le quantile de période de retour 10 ans a un poids de 1, afin de limiter l’impact de
l’échantillonnage sur le calage de la méthode.
Surfa
ce (km²)
76
Figure 28 : Principe de la régionalisation du paramètre du modèle hydrologique.
Comme le présente le schéma de la Figure 28, cette régionalisation passe par plusieurs étapes :
1. La détermination des valeurs optimales du paramètre. Cette valeur est issue de l’étape
de calage présentée au paragraphe précédent. Dans ce cas, le paramètre est considéré comme
constant pour l’ensemble des pixels d’un même bassin versant.
2. La recherche de variables explicatives consiste à trouver des corrélations entre les valeurs
optimales du paramètre à régionaliser et des valeurs de variables environnementales
moyennées sur les bassins versants. Dans le cas de la régionalisation de notre paramètre, les
variables disponibles qui permettent d’expliquer au mieux sa variabilité sont la densité du
réseau de drainage21
, l’hydrogéologie22
[Moulard, 2010] et une variable de bilan hydrique.
On détermine alors une carte du paramètre dite « S0/A expliqué », avec un coefficient de
détermination de l’ordre de 40%.
3. Cartographie des résidus. Les corrélations trouvées précédemment permettent d’expliquer
une partie de la variabilité spatiale du paramètre. Les résidus à cette régression sont alors
calculés pour chaque bassin versant. Ces résidus sont ensuite cartographiés en attribuant à
chaque pixel de la zone, la valeur du résidu du bassin le plus petit présent sur ce pixel (cas
21
La densité de drainage a été calculée à partir de la BDCarthage (référentiel sur le réseau hydrographique en
France http://www.sandre.eaufrance.fr), permettant le calcul d’un indice correspondant au pourcentage de pixels de
100x100 m traversés par le réseau hydrographique, sur une surface de 1 km². 22
L’information hydrogéologique a été obtenue par digitalisation d’une carte élaborée par Margat en 1978. Cette
information a été classifiée par grands types d’aquifères (Moulard, 2010).
77
de bassins emboités). Une interpolation simple du type IDW (inverse de la distance au carré)
est réalisée pour prendre en compte les tendances régionales à la surestimation ou la sous-
estimation de la valeur optimale du paramètre. Une carte dite des « résidus » obtenue et
éventuellement lissée. La carte dite « S0/A régionalisée » est alors la somme des cartes
« S0/A expliqué » et « résidus ».
4. Intégration de zones spécifiques. A partir de l’information issue de la base de données
d’occupation des sols (Corine Land Cover : http://www.eea.europa.eu), des pixels ont été
définis dont la valeur du paramètre est imposée. Ces pixels de un km² sont ceux concernés
majoritairement par la présence de zones urbaines, périurbaines et plans d’eau que l’on
considère comme fortement ou totalement imperméable. A noter que sur ces pixels la valeur
de S0/A était alors imposée dès la première étape d’optimisation.
5. Le contrôle consiste à vérifier la concordance entre les valeurs optimales du paramètre et
celles fournies par la régionalisation. La présence de bassins emboités et la procédure
adoptée, ne permet pas de retrouver exactement les valeurs des paramètres optimums même
en prenant en compte les résidus.
Cette procédure a été testée sur différents échantillons de calage/validation pour déterminer la
meilleure procédure à adopter : choix des variables explicatives à retenir, méthode d’interpolation
des résidus et lissage à appliquer [Organde et al., 2013]. C’est cette procédure optimale en
validation qui a ensuite été appliquée sur l’échantillon complet de bassins jaugés. D’autres
procédures de régionalisation sont encore à tester, comme les méthodes de voisinage, pour essayer
d’améliorer la régionalisation du paramètre hydrologique. Ces recherches sont en cours dans le
cadre de la thèse de Jean Odry (2015-2017).
La régionalisation du paramètre S0/A permet de mettre en œuvre la méthode sur l’ensemble
des pixels de la zone d’étude. Le déroulement complet de la méthode est alors possible en tout point
du réseau hydrographie. Ce mode de fonctionnement correspond à celui appelé « SHYREG régional »
dans la Figure 22. Sa mise en œuvre opérationnelle a été réalisée sur l’ensemble du territoire
national Français et a conduit à une base de données nationale sur l’aléa hydrologique équivalente à
celle produite sur l’aléa pluvial (Figure 29). Notons que cette base de données est associée à la
procédure d’agglomération et d’abattement des quantiles estimés dans un premier temps à l’échelle
des pixels kilométriques. La procédure d’agglomération et d’abattement est alors réalisée en
utilisant les directions d’écoulement, nécessaires pour déterminer numériquement le contour de tout
bassin versant. Pour la mise en œuvre nationale de la méthode, les directions d’écoulement à une
résolution de 50 m fournies par le SCHAPI (Service Central d’Hydrométéorologie et d’Appui à la
Prévision des Inondations) ont été utilisées. Cette base des directions d’écoulement a été travaillée
pour retrouver le réseau hydrographique de la BD Carthage et les bassins des stations
hydrométriques. Elle peut être considérée comme une base de référence nationale pour la
délimitation des bassins versants topographiques. Un calcul automatique des contours de bassin
versant a d’ailleurs été réalisé et a conduit à l’élaboration d’une base de près de 140 000 contours de
bassins associés à des tronçons hydrographiques [Patrick Arnaud et al., 2014b; Organde et al.,
2013].
78
Figure 29 : Création des bases de données SHYREG-débit.
Les bases SHYREG-débit (Figure 29) sont donc le résultat de l’application de la méthode
SHYREG sur le territoire national. C’est une approche régionale qui résulte de l’utilisation d’une
information hydrométéorologique la plus exhaustive possible, disponible sur les bases de données
nationales. Elle intègre la variabilité spatiale des statistiques sur les pluies. C’est une approche qui
présente aussi l’avantage d’être homogène sur l’ensemble du territoire et qui propose, en une seule
régionalisation, l’estimation de l’ensemble des caractéristiques des crues (débit de pointe, volumes,
durées, …).
D’un point de vue scientifique, cette base est le résultat de nombreuses recherches produites
par des travaux de thèses et des projets scientifiques pour répondre à des questions liées à la
connaissance des processus complexes à partir d’informations incomplètes. La problématique à
résoudre est liée d’un part à l’extrapolation en fréquence d’un phénomène dont les réalisations
sont observées de façon très limitée par rapport aux fréquences que l’on désire connaitre
(probabilité de dépassement annuelle de 10-2
à 10-4
), et d’autre part à l’extrapolation dans l’espace
d’un phénomène observé très partiellement malgré sa forte variabilité spatiale. La méthode
développée et choisie permet de répondre au mieux à cette problématique tout en essayant de
produire des résultats les plus justes possibles. L’évaluation des performances de la méthode est
donc un point important pour justifier son développement.
79
C.3 Evaluation des performances de la méthode et applications
La méthode développée a fait l’objet d’une évaluation de ses performances à travers différents
travaux synthétisés dans ce paragraphe. Ces travaux sont relatifs à des études propres au
développement de la méthode et à des études réalisées dans le cadre du projet ANR Extraflo
(https://extraflo.cemagref.fr/) de comparaison de méthodes de prédétermination de crues.
Les études propres à la mise en place de la méthode SHYREG-débit sur le territoire national
s’appuient sur un jeu de données de 1605 bassins versants, jugés non influencés par les
gestionnaires (information banque HYDRO), non spécifiques (par exemple non fortement
karstiques) et présentant au minimum dix ans de données et une surface inférieure à 10 000 km².
Dans le cadre du projet Extraflo, la base de données des bassins versants étudiés est variable en
fonction des tests effectués (de 508 stations à 1172 stations extraites de la base des 1605 bassins
précédents).
C.3.1 Evaluation de la méthode appliquée localement (SHYREG Local)
Une première évaluation des résultats a été réalisée lors du développement de la méthode sur
des bassins versants méditerranéens [Arnaud, 1997; Arnaud and Lavabre, 1998; 2000; 2002], puis
étendu sur des régimes hydrologiques plus variés, sur 1290 bassins versants français [Fouchier,
2010; Organde et al., 2013]. Les derniers résultats, appliqués sur 1605 bassins versants, montrent
qu’à partir de la détermination d’un seul paramètre la méthode restitue correctement les quantiles de
fréquences courantes (périodes de retour < 10 ans) ajustés par une loi GEV sur les observations.
Pour les quantiles plus extrêmes (périodes de retour > 10 ans), différents critères ont été utilisés
pour juger de la pertinence de la méthode : la bonne adéquation avec les distributions empiriques
issues de longues chroniques, la saturation progressive du modèle hydrologique et la stabilité des
quantiles estimés [Aubert, 2012; Yoann Aubert et al., 2014].
Une évaluation plus approfondie a été réalisée au cours du projet ANR Extraflo dont le cadre
méthodologique [B. Renard et al., 2013] et les critères d’évaluation ont été présentés rapidement
dans le paragraphe B.1.5. Pour l’évaluation des approches dites « locales », les méthodes ont été
testées par des procédures de calage/validation sur différents échantillons. La Figure 30 présente
une synthèse de certains résultats. Elle présente les valeurs des « scores » de justesse et stabilité
calculés pour les estimations de quantiles issus de la méthode SHYREG calée localement (courbe
noire). Les mêmes critères ont été calculés pour les estimations de quantiles issus de l’usage de lois
de probabilité classiques telles que la distribution de Gumbel (courbes rouge et bleu), la
distribution GEV (courbe verte et turquoise) et la distribution GEV « bornée » (courbe rose).
80
La notation de la Figure 30 correspond à la combinaison d’un score et d’un échantillonnage :
- les scores sont issus des critères SPAN (critère de stabilité des estimations, calculé pour les
quantiles 10, 100 et 1000 ans), NT (critère de justesse des estimations, calculé pour les
périodes de retour T=10 ans et 100 ans) et FF (critère de justesse sur la valeur maximale de
l’échantillon). Ils ont été calculés pour la méthode SHYREG, pour les lois de Gumbel et GEV
ajustées par le maximum de vraisemblance (respectivement Gum_MV et GEV_MV) et par les
L-moments (respectivement Gum_LM et GEV_LM) et pour la loi GEV dont le coefficient de
forme est borné entre les valeurs 0 et 0,4 et ajustée par le maximum de vraisemblance
(GEVB_MV).
- les échantillonnages sont composés de la manière suivante pour les critères de justesse (NT
et FF) : 50% des années pour le calage et 50% des années pour la validation (noté « _50% »),
33% des années pour le calage et 67% des années pour la validation (noté « _33% »),
échantillon de 15 ans, 30 ans et 40 ans tronqué de leur valeur record pour le calage et avec la
valeur record pour la validation (notés respectivement « _x15 », « _x30 » et « _x40 »). Pour
le critère de stabilité (SPAN), les deux périodes de calage sont de 10, 15 et 20 ans chacune
(notées « _10 », « _15 » et « _20 »).
Figure 30 : résultats issus du projet ARN Extraflo, méthodes de prédétermination de crues locales :
comparaison de la méthode SHYREG avec des méthodes statistiques classiques (ajustement de lois
de Gumbel et GEV).
Sur ce graphique, présentant la valeur des scores calculés sur les échantillons de validation,
plus la courbe est excentrée plus les résultats de la méthode sont bons. Dans l’ensemble, la méthode
SHYREG montre largement les meilleures valeurs pour le critère de stabilité. Ses critères sont
particulièrement insensibles à la période de retour, alors que pour les méthodes d’ajustement
SHYREG
81
classiques (loi de Gumbel ou GEV) la stabilité devient très mauvaise pour les grandes périodes de
retour, en particulier pour les lois à trois paramètres (GEV). En termes de justesse, la méthode
SHYREG présente aussi de meilleurs résultats que les ajustements de loi de probabilité, sur les
échantillons de validation. Dans sa version locale, la méthode SHYPRE présente donc des
performances meilleures que les méthodes d’ajustement classiquement utilisées en hydrologie, pour
estimer les valeurs de débits extrêmes.
Ces résultats ont été détaillés dans [Patrick Arnaud et al., 2014a]. Ils montrent que la méthode
SHYREG est très stable. Cette caractéristique est liée à deux points. D’une part la méthode s’appuie
sur une information statistique régionale de la pluie, et d’autre part sur une modélisation
hydrologique simple (calage réalisé par un seul paramètre, les autres sont fixés de façon régionale à
priori et indépendamment de l’information hydrologique disponible sur le bassin considéré). La
méthode présente aussi de très bons critères de justesse, supérieurs à ceux trouvés avec les
méthodes statistiques classiques testées. Une étude complémentaire a montré que pour obtenir des
critères de justesse équivalents à la méthode SHYREG, l’utilisation de loi statistique régionale est
nécessaire [Kochanek et al., 2013] et [Lang et al., 2014]. La justesse de la méthode est liée à la
nature de l’approche qui propose une estimation des débits extrêmes conditionnée par l’information
régionale des pluies extrêmes. Cette information pluviométrique fournie par la méthode a d’ailleurs
aussi été jugée juste et stable [Carreau et al., 2013]. Il a aussi été montré que la méthode permet de
fournir des estimations « prédictives » pertinentes, en attribuant par exemple des périodes de retour
correctes à des valeurs « record » absentes des données de calage, ce qui est surement la qualité la
plus importante d’une méthode de prédétermination des valeurs extrêmes...
C.3.2 Evaluation de la méthode appliquée régionalement : SHYREG régional.
L’évaluation de la méthode a été réalisée en la calant et en la régionalisant sur un premier jeu
de bassins versants (parmi 1290 disponibles) et en contrôlant sa mise en œuvre régionale sur le jeu
de bassins versants de validation. Pour cela, deux types de découpages ont été réalisés :
« 50/50 » : 50% des bassins choisis au hasard sont utilisés pour le calage et les 50% restant
servent à contrôler la méthode.
« GB/PB » : les bassins les plus grands sont choisis pour le calage (872 bassins de surface >
100km²) et les bassins les plus petits (418 bassins restant de surface < 100km²) sont gardés
pour la validation.
Afin de relativiser les résultats obtenus par la méthode, une comparaison à la méthode
Crupedix [CTGREF et al., 1980-1982] a été réalisée (actuellement la seule méthode régionale
établie sur l’ensemble du territoire français). La méthode Crupedix initialement établie pour estimer
les débits de pointe décennaux (QP10) est appliquée ici sur les débits de pointe, mais aussi sur les
débits journaliers décennaux (QJ10). Un recalage des coefficients de la formule est réalisé dans les
deux cas. Les coefficients a, b, c et d de la relation suivante sont ajustés sur les bassins de calage :
82
cb
Sd
PJRaQ
10
Où
- R est le coefficient régional de la méthode (carte de valeurs comprises entre 0,13 et 1,75)
- S est la surface du bassin versant
- PJ10 est la pluie journalière décennale (ici fournie par la méthode SHYREG Pluie)
Les tableaux suivants comparent les critères de Nash obtenus en appliquant une formulation
du type « Crupedix» et en appliquant la méthode SHYREG. On note respectivement QP10 et QJ10
les débits de pointe et les débits journaliers décennaux, et QPS10 et QJS10 les débits pseudo-
spécifiques de pointes et journaliers pour la période de retour 10 ans.
La méthode SHYREG conduit à des
résultats nettement meilleurs que la
formulation « Crupedix». Cette formulation
n’est pas adaptée pour expliquer la
variabilité des débits journaliers pseudo-
spécifiques, même après recalage des
coefficients.
Pour le découpage « GB/PB », les
résultats en validation sont très mauvais
pour la méthode « Crupedix».
Des résultats équivalents sont trouvés en multipliant les échantillonnages de calage /
validation [Hydris, 2009; Organde et al., 2012]. Malgré un recalage des coefficients de la formule
de Crupedix, les résultats sont nettement moins bons que ceux obtenus par SHYREG. Si une
nouvelle régionalisation du coefficient R serait surement nécessaire, cette formulation ne semble
cependant pas adaptée pour estimer les quantiles de débits journaliers. La descente d’échelle semble
aussi difficilement appréhendée par une formulation simple telle que celle de la méthode Crupedix.
On voit aussi l’inconvénient que représente une approche de ce type pour estimer les débits de
toutes durées et toutes fréquences. En effet, un recalage des coefficients (et du paramètre régional
R) serait surement nécessaire pour chaque durée et chaque période de retour.
Dans le cadre du projet ARN Extraflo, d’autres méthodes régionales ont été comparées avec
SHYREG [Kochanek et al., 2013] : régionalisation des paramètres d’une loi de Gumbel calée
localement et la loi régionale des débits estimées par une loi GEV par sous-régions homogènes
[Cipriani et al., 2012]. Il en résulte que dans leur version régionale :
- Quelle que soit la méthode régionale d’estimation des débits de crues étudiée, elle est
nettement moins juste que dans sa version locale.
- Il en ressort une tendance à ne pas reproduire suffisamment la variabilité spatiale des débits.
Type CRUPEDIX
Type CRUPEDIX
SHYREG
SHYREG
83
- Une analyse fine des critères de justesse montre que les méthodes d’ajustement de lois sur
les débits de crue conduisent à estimer certaines valeurs maximales comme « impossibles »
(probabilité de 1 pour la fréquence du FF), alors que la méthode SHYREG ne le fait pas. Ce
point est probablement lié à l’utilisation, par la méthode SHYREG, de l’information des
pluies pour extrapoler les distributions des débits.
- La méthode SHYREG reste nettement plus stable que les méthodes régionales basées sur
l’ajustement de lois de probabilité.
Le développement de la méthode de prédétermination des crues par simulation de scénarios
représente un effort de recherche important pour mon équipe et pour moi-même. En partant d’un
besoin très opérationnel (besoin d’outils permettant la prédétermination régionale des débits de
crues, nécessaires pour les questions d’ingénierie liées au dimensionnement d’ouvrages, à la
détermination de zones inondables, à la qualification des événements extrêmes, …), nous avons pris
le partie de développer une méthode à priori complexe pour répondre à la complexité du problème :
estimer des phénomènes rares et extrêmes en site non instrumentés, par des méthodes justes et
stables…
La spécificité de ces recherches réside dans l’effort d’extrapolation de connaissances sur les
processus, à partir d’une observation restreinte. Une extrapolation en fréquence vers des valeurs
extrêmes par nature rarement observées, est un premier point de blocage qui concerne largement la
communauté des hydrologues. Ce point est généralement abordé par des méthodes statistiques
parfois très théoriques. L’intégration de notions plus proches des processus (comme la modélisation
de la structure de la pluie et la modélisation de la transformation des pluies en débits) apporte un
réel intérêt aux méthodes de prédétermination des crues. L’extrapolation (ou interpolation) spatiale
vise à étendre la connaissance au-delà des sites de mesures. Cette extrapolation fait appel à des
méthodes communes à de multiples disciplines des sciences de l’environnement, comme les
géostatistiques. Ces méthodes sont relativement bien adaptées à des variables dont la variabilité
spatiale est relativement structurée. C’est le cas de la pluie. En hydrologie, la variabilité spatiale
des caractéristiques de fonctionnement des bassins versant est fortement influencée par les
caractéristiques de sols et par la continuité topographique des bassins (relation amont-aval), qui
rend plus difficile l’application des méthodes classiques. L’intérêt d’une approche basée sur la
relation pluie-débit est qu’une partie de la variabilité des débits est estimée par la variabilité de la
pluie, et une autre partie de la variabilité des débits est estimée par la variabilité de la relation
pluie-débit. Ces deux composantes ayant des structures spatiales totalement différentes, elles
peuvent alors être traitées séparément.
La méthode développée présente dont un « angle » de recherche relativement original et
complet sur les processus caractérisant les phénomènes hydrologiques extrêmes, dont la pertinence
est justifiée par les bonnes performances obtenues lors de son évaluation.
84
C.3.3 Simulation d’hydrogrammes
Les approches stochastiques permettent d’intégrer une composante aléatoire dans un
processus déterministe. Dans le cas de la prédétermination des crues, les approches stochastiques
permettent d’intégrer une composante aléatoire dans le processus hydrologique de la transformation
pluie-débit. Cette composante aléatoire est fournie par la génération de scénarios de pluies dans le
cas de l’approche que nous avons présenté jusque là.
Les résultats présentés dans les paragraphes précédents (C.1 et C.2)
montrent que la méthode développée apporte une information pertinente sur
l’aléa hydrologique en site jaugé comme en site non-jaugé. La mise en œuvre
régionale de la méthode par simulation nous a progressivement conduits à des
simplifications, afin de diminuer le nombre de paramètres et faciliter la
régionalisation. Pour cela, la modélisation hydrologique couplée à la simulation
de pluies a été réalisée sur des pixels d’un km². A l’échelle du bassin versant, une
agrégation de l’information statistique obtenue sur chacun de ses pixels est
réalisée. Cette approche nous fait cependant perdre la notion de simulation
d’hydrogrammes sur un bassin versant, nécessaire à un couplage avec une
modélisation hydraulique. Un quatrième mode de fonctionnement de l’approche
(voir schéma ci-contre) est alors envisagé pour bénéficier des résultats sur la
méthode SHYREG, dont le comportement asymptotique a été éprouvé et jugé comme juste et
stable. Ce quatrième mode de fonctionnement nécessite la recherche d’une paramétrisation du
modèle GR3H permettant de retrouver les quantiles de crues extrêmes fournis par la méthode
SHYREG locale ou régionale.
La recherche d’une paramétrisation dite « équivalente » a été réalisée sur 334 bassins versants
de climatologie très contrastée et a montré qu’il était facile de trouver un jeu de paramètre
permettant de retrouver les distribution de fréquences de la méthode SHYREG, tout en générant des
hydrogrammes de crues représentatifs du fonctionnement du bassin versant [Aubert, 2008]. Il est
donc possible de caler la méthode SHYPRE sur des quantiles SHYREG dont les performances ont
été largement étudiées.
La génération d’hydrogrammes de crues représentatifs du fonctionnement d’un bassin versant
peut donc être utilisée pour l’étude du comportement hydraulique des ouvrages face au risque de
crues. Comme cela a été vu au paragraphe A.3, ces approches par simulation présentent un intérêt
croisant de la part des scientifiques, car elles permettent d’appréhender au mieux un processus
complexe présentant une très forte variabilité. Ces scénarios de crues dont on maitrise les
caractéristiques statistiques peuvent alors être soumis au fonctionnement d’ouvrages hydrauliques et
permettent d’étudier directement la distribution de fréquence de la réponse de l’ouvrage à cet aléa.
La réponse de l’ouvrage dépend de son fonctionnement propre, de sa gestion et de sa probabilité de
défaillance, que l’on peut facilement modéliser. L’approche par simulation permet donc d’étudier
de façon relativement intégrée, l’ensemble des scénarios de fonctionnement d’un ouvrage, couplé à
l’ensemble des scénarios de crues possibles.
85
Une première application a été présentée pour la simulation du fonctionnement hydrologique
d’une retenue pour la gestion de son barrage [Arnaud and Lavabre, 1995; 1997]. D’autres
applications entrent dans le cadre du dimensionnement d’organes évacuateurs de crues de grands
barrages. Ce dimensionnement est lié à la cote atteinte par le plan d’eau en cas de fortes crues
[Carvajal et al., 2009a; Carvajal et al., 2009b; Lavabre et al., 2010]. Dans ce cas, l’hypothèse
réductrice de la notion de crue de projet peut être supprimée. En effet, la crue de projet est
généralement construite autour d’une seule caractéristique de crues (souvent un quantile du débit de
pointe) et d’une hypothèse sur la forme de la crue (et donc souvent sur son volume). On fait ainsi
l’hypothèse d’équivalence entre la période de retour de cette crue et celle de la caractéristique qui a
servi à sa construction, ainsi que d’équivalence entre cette période de retour et la période de retour
de l’impact que la crue de projet produit sur l’ouvrage (par exemple, la cote atteinte par le plan
d’eau). L’approche par simulation permet par contre la détermination d’une distribution de
fréquence de la cote atteinte par le plan d’eau soumis aux multiples scénarios de crues. Cette
distribution peut alors être comparée à la distribution des cotes observées. L’approche permet aussi,
d’attribuer une fréquence d’apparition à une cote donnée et de tester différentes hypothèses de
dimensionnement des ouvrages.
Dans la cadre du projet ANR Extraflo, deux méthodes par simulation développées en France
ont été appliquées sur un bassin versant, avec un même jeu de données pour être comparées : la
méthode SCHADEX développée par EdF [Paquet et al., 2013] et la méthode SHYPRE développée
à Irstea. Les résultats concernant ces deux méthodes par simulation montrent des convergences pour
les fréquences d’occurrence extrêmes, à la fois sur l’estimation de l’aléa hydrologique mais aussi
sur l’estimation de la distribution des cotes du plan d’eau [Paquet et al., 2014]. Ces distributions de
cotes simulées, par les deux approches, montrent une bonne cohérence par rapport aux observations.
Ce point est important car les deux méthodes ne se calent à aucun moment sur les cotes maximales
annuelles observées. Cela montre que l’ensemble de la chaine de modélisation est représentative la
réalité : la simulation des pluies, leur transformation en débits et la modélisation hydraulique du
comportement de l’ouvrage. La comparaison avec l’approche classique (hydrogramme de référence
et hypothèse sur la cote initiale) montre l’intérêt de l’approche par simulation qui fournit des
scénarios diversifiés et évite que les valeurs « dimensionnantes » ne dépendent trop d’hypothèses
lourdes [Arnaud et al., 2015]. Les résultats présentés dans ces études sont évidemment très liés au
contexte hydrologique du bassin, aux types d’organes hydrauliques testés et aux caractéristiques de
l’aménagement étudié, et ne sauraient être généralisés.
Ces approches permettent aussi l’étude de la défaillance possible des ouvrages [Arnaud and
Aubert, 2014]. Des modifications dans les lois hydrauliques des ouvrages peuvent être introduites
pour modéliser cette défaillance. Cette défaillance peut alors être considérée comme aléatoire ou
conditionnelle (par exemple, plus les crues sont importantes plus le risque d’embâcles est probable
et la défaillance possible). La Figure 31 montre par exemple, la distribution de fréquence des cotes
atteintes sur une retenue d’eau fictive, soumise à l’aléa hydrologique caractéristique de son bassin
amont. Cette distribution est variable suivant les hypothèses faites sur la cote initiale de la retenue
avant l’arrivée de la crue (cette cote étant tributaire soit des épisodes précédents, soit des règles de
86
gestion de la retenue) et sur la défaillance des organes évacuateurs de crues. Sur le graphique, le
trait plein horizontal bleu correspond à la cote du déversoir et le trait plein horizontal rouge la cote
du barrage.
Figure 31 : distributions des cotes d’un retenue fournies par la méthode SHYPRE suivant
différentes hypothèses de cotes initiales et suivant différentes hypothèses de défaillance de
l’ouvrage (issu de [Arnaud et al., 2015]).
L’approche présentée permet alors une mise en fréquence de la réponse du système en tenant
compte de toutes les composantes de l’hydrologie et de l’hydraulique de manière plus rigoureuse
qu’une approche déterministe classique par crue de projet.
Les approches par simulation fournissent une information temporelle et fréquentielle
exhaustive sur l’aléa hydrologique. Leurs modèles peuvent être couplés à d’autres modélisations
telles que des modèles d’hydraulique fluviale (pour étudier le risque d’inondation) ou des
modélisations du comportement des ouvrages hydrauliques (types d’évacuateurs, cote initiale du
plan d’eau, défaillance de l’évacuateur) soumis aux aléas extrêmes. La prise en compte de l’aléa
dans sa complexité et dans sa variabilité est importante pour bien appréhender le comportement
des ouvrages soumis aux aléas naturels. La nature de l’ouvrage, sa gestion, ses défaillances sont
autant de points qui peuvent conduire à des comportements plus ou moins sensibles à l’aléa. Ces
approches permettent d’appréhender et de tester des scénarios de gestion, de faciliter la conception
des ouvrages en optimisant leur dimensionnement. Elles permettent aussi de prendre en compte les
incertitudes sur les aléas et sur le fonctionnement de l’ouvrage, pour estimer des intervalles de
confiance dans la réponse probabiliste qu’elle fournit aux problèmes étudiés.
87
C.4 Etude des incertitudes de la méthode par simulation
L’étude des incertitudes est relativement complexe dans les approches couplant plusieurs
étapes de modélisation et multipliant ainsi les facteurs d’incertitudes. Dans l’approche par
simulation présentée jusque là, une première étape a été réalisée par l’étude des incertitudes du
générateur de pluie. Cette étude (cf. § B.3) a été réalisée lors de la thèse de Aurélie Muller [Muller,
2006; Muller et al., 2009] sur quelques stations pluviométriques, et récemment complétée sur
l’ensemble des postes du territoire métropolitain français. Il est montré que pour les pluies, la
méthode SHYREG produit des intervalles de confiances plus étroits que ceux produits par
l’ajustement d’une loi à trois paramètres (loi GEV). Concernant les incertitudes liées à la seconde
étape, la modélisation pluie-débit, on peut s’appuyer sur des travaux menés sur l’estimation des
incertitudes liées au paramétrage des modèles hydrologiques, dans un contexte de simple simulation
[Bourgin, 2014; Coron, 2013]. Bien que réalisés en simple simulation, la méthodologie peut être
transposée au contexte de la prédétermination des crues.
Cette partie présente un travail sur l’estimation des incertitudes des quantiles fournis par la
méthode SHYREG, incertitudes dues à la modélisation hydrologique. Ce travail reste exploratoire
et ne traite que les incertitudes liées au calage du modèle hydrologique sur les données de bassins
versants jaugés, tout en prenant en compte la propagation des incertitudes liées à la pluie.
C.4.1 Procédure pour estimer les incertitudes dues au calage de l’approche
Le travail présenté ici vise à estimer les incertitudes de la méthode calée avec des
observations. Ces observations sont des chroniques de pluies (horaires ou journalières) pour caler le
jeu de paramètres du générateur de pluies ( ) et une chronique de débits (ou par défaut les valeurs
maximales annuelles permettant l’estimation de quantiles courants de crues) pour caler le paramètre
hydrologique . Cela représente un jeu de huit paramètres (trois pour la pluie et un pour le
pluie-débit, pour les deux saisons), les autres paramètres de la méthode étant constants quel que soit
le bassin versant étudié23
. La prise en compte de l’incertitude liée à la détermination des paramètres
et est réalisée de façon très différente pour les deux modélisations mises en jeu.
Pour le générateur de pluies :
On procède comme cela a été présenté dans le paragraphe B.3.5. Le jeu de paramètre ( ) est
obtenu par le calcul de six valeurs moyennes (3 variables x 2 saisons) dont les distributions
d’échantillonnage suivent une loi normale de moyenne égale à la moyenne de la variable ( ) et
d’écart-type égal à l’écart-type de la variable ( ) réduit par la racine carrée de l’effectif de la
variable ( ).
23
Notons cependant que leur détermination reste aussi soumise à une incertitude de second ordre, qu’il faudra
prendre en compte ultérieurement dans l’approche régionale.
88
Pour le modèle hydrologique :
Le paramètre est calé de façon à respecter les quantiles de crues courants (périodes de
retour 2, 5 et 10 ans) des débits de pointe et des débits moyens journaliers estimés par l’ajustement
une loi de probabilité24
. La distribution de fréquence de ce paramètre n’a pas connue à priori. Pour
estimer la variabilité de ce paramètre, son calage va être réalisé en faisant varier de façon aléatoire
l’échantillon des observations en utilisant des procédures de Bootstrap. Dans ce cas, les années
d’observations sont supposées indépendantes et les variables que l’on en extrait (les valeurs
maximales par exemple) sont identiquement distribuées (iid). Des échantillons sont alors générés
par un tirage aléatoire avec remise des années d’observation (ou maximums annuels). La procédure
d’évaluation est donc la suivante :
Pour un bassin versant disposant de N années
d’observations, un échantillon de N années issues d’un
tirage aléatoire avec remise des années est généré.
Les valeurs maximales de cet échantillon servent à caler la
loi GEVB pour déterminer les quantiles de périodes de
retour 2, 5 et 10 ans, qui serviront au calage de , mais
aussi l’ensemble de la distribution des débits pour estimer
l’intervalle de confiance associé à la loi GEVB. La loi de
Gumbel sera aussi calée pour comparaison.
La valeur de est alors calée pour fournir la
distribution de fréquences des débits estimée par la
méthode SHYREG.
Les points précédents sont répétés NB fois (NB étant le
nombre d’échantillonnage Bootstrap).
A partir des NB distributions obtenues, les intervalles de confiance 90% et de la distribution
médiane sont calculés.
Ces deux procédures permettent donc de déterminer les incertitudes associées au calcul des
paramètres de la méthode. Ces incertitudes sur les paramètres sont alors directement traduites en
incertitudes sur les quantiles de pluies et de crues fournis par la méthode SHYREG.
Tests effectués :
Les sources d’incertitudes étudiées sont celles du paramétrage du générateur de pluie et de la
modélisation hydrologique. Différents tests ont été effectués pour étudier le poids de chaque source
d’incertitude sur les incertitudes des résultats du modèle, de façon indépendante ou combinée. Ces
cas sont :
24
La loi de probabilité choisie est une loi GEV dont le paramètre de forme est optimisé tout en étant contraint à
être compris entre 0 et 0,4 : cette loi est notée GEVB (pour GEV Bornée) et présente de bons résultats selon les critères
calculés dans le projet ARN Extraflo (C.3.1).
89
Cas 1. : Incertitudes liées au paramétrage du générateur de pluie. Ce cas permet d’évaluer
l’incertitude liée à l’information de pluie en fournissant des distributions de pluies accompagnées
d’un intervalle de confiance (IC) (voir § B.3.5). Il permet ici d’évaluer la propagation de cette
incertitude sur les distributions de débits de la méthode, sans modifier la paramétrisation du modèle
hydrologique.
Cas 2. : Incertitudes liées à l’échantillonnage des débits. Ce cas permet d’évaluer uniquement
l’incertitude liée à l’observation des débits, en considérant toujours la même source d’information
sur les pluies. Ce cas conduit a des intervalles de confiance uniquement sur la distribution des
débits.
Cas 3. : Incertitudes liées aux pluies et aux débits pris indépendamment. Dans ce cas, les
incertitudes sur les paramètres du générateur de pluie et les incertitudes sur la paramétrisation du
modèle hydrologique sont considérées comme indépendantes. Un échantillon de pluies ( ) est
généré à partir d’un jeu de paramètres ( ), puis il est transformé en débit par un paramètre
qui a été déterminé à partir des débits ré-échantillonnés mais en considérant les pluies non ré-
échantillonnées (paramètres initiaux de calage). Dans ce cas, il y a bien une indépendance entre les
incertitudes prises en compte aux niveaux des deux modélisations.
90
Cas 4. : Incertitudes liées aux pluies et aux débits en prenant en compte leur dépendance dans
les observations25
. Contrairement au cas 3, le paramètre est déterminé en prenant en
compte la nouvelle paramétrisation des pluies. Ce cas part du principe qu’il y a une dépendance
entre la pluie (et son ré-échantillonnage) et le calage de la relation pluie-débit. En effet, l’incertitude
sur la pluie peut être compensée par le paramètre de la relation pluie-débit lors de son calage.
C.4.2 Application et résultats
Le travail a été réalisé sur les données des bassins
versants jaugés répertoriés dans la base de données HYDRO
(http://www.hydro.eaufrance.fr/ ). Ces données correspondent à
1162 bassins versants localisés sur la carte ci-contre. Leur
surface est comprise entre 1 et 2000 km², avec une médiane à
180 km². Ces stations de mesure ont été critiquées lors de
l’étude de régionalisation de la méthode SHYREG [Yoann
Aubert et al., 2014; Organde et al., 2013]. Ces stations
présentent une information hydrométrique de plus de 20 ans
(avec une médiane à 40 ans).
Les données de pluie utilisées sont les données SAFRAN qui nous ont permis d’estimer un
écart-type pour les différents paramètres du générateur de pluie ainsi que l’effectif des échantillons
sur lesquels ont été calculés les paramètres (exemple sur la Figure 32). La valeur moyenne des
paramètres de pluie est par contre la même que celle qui a servi à calculer la base de données
SHYREG-Pluie [Arnaud and Lavabre, 2010]. Pour simuler les pluies associées aux bassins
versants, les valeurs des paramètres utilisés sont les valeurs déterminées aux centroïdes des bassins
versants. Cette approximation a été faite pour des raisons de temps de calculs, et influence peu les
résultats par rapport à une utilisation de l’ensemble des pixels du bassin versant.
25
Lors du calage d’un modèle hydrologique (relation pluie-débit), on ne dissocie généralement pas les années
d’observation des pluies et les années d’observation des débits. En effet, des années de faible pluviométrie vont
généralement être associées à des années de faibles écoulements, et inversement. La relation pluie-débit devrait alors
être indépendante de cette variabilité temporelle.
91
Figure 32 : Exemple illustrant la variabilité des caractéristiques d’échantillonnage d’un
paramètre du générateur de pluies (paramètres PJMAX été : et ).
Les données pour évaluer les intervalles de confiance de la méthode SHYREG sont donc
disponibles pour une application locale sur 1162 bassins versants sur l’ensemble de la France
métropolitaine.
Les différents cas présentés dans le paragraphe « Tests effectués » ont été testés, en réalisant
un nombre de simulations (NB) suffisamment grand pour fournir un intervalle de confiance stable.
Un nombre NB de l’ordre 200 est suffisant pour obtenir cette stabilité. A partir des NB simulations,
correspondant à NB jeux de paramètres probables, on obtient donc NB distributions de fréquences
de pluies et de débits fournies par la méthode. A partir de ces distributions et pour chaque quantile
de crues, la médiane des NB valeurs obtenues ainsi que les quantiles 5% et 95% (respect.
et ) sont calculés pour déterminer un intervalle de confiance à 90 %, noté IC90. A titre
d’exemple, la Figure 33 montre (en gris) les différentes distributions issues des échantillons générés
(ici 200 échantillons) pour prendre en compte les incertitudes de SHYREG dans les quatre cas
testés. En couleur bleu, sont représentées la distribution médiane (trait plein) et l’intervalle de
confiance à 90% (traits en pointillés).
Figure 33 : Intervalles de confiances associés au calage de différents modèles (SHYREG, loi de
Gumbel et loi GEVB) sur différents échantillons bootstrap : exemple de la station de l’Ill à Altkirch
(A1050310).
Cas 1 Cas 2 Cas 3 Cas 4
92
Pour synthétiser l’information sur les intervalles de confiance, le ratio (A) de IC90 par la
médiane est calculé sur chaque bassin et pour différents quantiles :
Ce critère donne une idée de l’« Amplitude relative » de l’intervalle de confiance d’une
méthode pour un quantile donné. La distribution de fréquence de ce ratio calculé sur les quantiles
des 1162 stations est représentée à l’aide d’un box-plot.
Analyse globale :
Le critère d’amplitude relative de l’intervalle de confiance ( ) est calculé sur les 1162
bassins. Sa distribution est représentée par des boxplots affichant les quantiles 5%, 25%, 50%,75%
et 95% du critère. A titre d’exemple, la Figure 34 présente ces boxplots pour les incertitudes du
quantile de période de retour 2 ans, associés à différents traitements :
- Quantile de la pluie journalière (en noir)
- Quantile du débit de pointe estimé par SHYREG, pour les 4 cas testés (en bleu)
P_BOOT + Q_FIXE : cas 1
P_FIXE + Q_BOOT : cas 2
P_BOOT + Q_BOOT : cas 3
(P+Q)_BOOT : cas 4
- Quantile du débit de pointe estimé par l’ajustement d’une loi de Gumbel (en vert)
- Quantile du débit de pointe estimé par l’ajustement d’une loi GEV Bornée (en rouge)
Figure 34 : Distribution de l’amplitude relative des intervalles de confiance
associés à la prise en compte de sources d’incertitudes variables.
Pour le quantile de période de retour 2 ans, les incertitudes sur la pluie sont moins importantes
que celles des débits. Parmi les incertitudes des débits, celle attribuée qu’aux observations de pluie
(cas 1) est proche que celle attribuée qu’aux observations de débits (cas 2). Logiquement, la prise en
compte simultanée et indépendante des deux sources d’incertitudes conduit à des incertitudes plus
grandes (cas 3). Par contre, la prise en compte de la dépendance entre les deux sources
93
d’incertitudes permet de réduire l’amplitude relative des incertitudes sur les résultats de la méthode
SHYREG. Enfin, les incertitudes associées à l’usage de lois de probabilité sont du même ordre de
grandeur que celles associées à la méthode SHYREG. Ces résultats sont cependant valables pour les
fréquences courantes, c'est-à-dire dans le domaine de calage des méthodes. En extrapolation vers les
fréquences rares et extrêmes, les conclusions sont différentes. Les résultats sont présentés sur les
graphiques de la Figure 35.
Figure 35 : Distribution de l’amplitude relative des intervalles de confiance associés à la prise en
compte de sources d’incertitudes variables, pour différentes périodes de retour.
L’analyse des graphiques de la Figure 35 montre que :
- En moyenne, l’amplitude relative de l’incertitude sur les quantiles des pluies reste toujours
inférieure à celle des débits.
- Les intervalles de confiance sur les débits sont très proches pour les quantiles courants (< 10
ans) entre la méthode SHYREG et les ajustements de lois (Gumbel/GEVB). Ce point est
prévisible car la méthode SHYREG se cale sur les quantiles courants issus du calage de la
loi GEVB. Elle est donc à priori soumise à la même incertitude sur le domaine de calage.
- En extrapolation, les incertitudes liées à l’utilisation d’une loi à trois paramètres (GEVB)
deviennent très importantes. L’utilisation de ces lois est d’ailleurs fortement déconseillée en
calage « local ». Pour conforter l’estimation du paramètre de forme de la loi GEV (3ème
paramètre), une approche régionale est nécessaire et permet alors de réduire l’incertitude
dans les estimations des valeurs extrêmes.
- En extrapolation, les incertitudes liées à SHYREG et à l’utilisation de la loi de Gumbel (2
paramètres) sont similaires. SHYREG a donc des intervalles de confiance d’amplitudes
relatives équivalentes à l’utilisation d’une loi de probabilité à deux paramètres, malgré le
calage de quatre paramètres (x 2 saisons). Notons cependant que si les amplitudes relatives
sont proches, elles le sont autour de quantiles qui peuvent être totalement différents mais
jugés plus justes dans le cas de la méthode SHYREG. En effet, les conclusions du projet
ANR Extraflo [Lang et al., 2014] ne recommandent pas l’utilisation d’une loi de Gumbel
pour l’estimation des quantiles de crues extrêmes.
94
Analyse par périodes de retour :
L’analyse des résultats par périodes de retour sont représentés pour la méthode SHYREG sur
les graphiques de la Figure 36, montrant l’évolution des amplitudes relatives des intervalles de
confiance des différents tests, en fonction de la période de retour considérée.
Figure 36 : Distribution de l’amplitude relative des intervalles de confiance pour différentes
périodes de retour, en fonction des cas testés (prise en compte de sources d’incertitudes variables).
Les graphiques montrent :
- l’amplification de l’incertitude des débits due à l’observation des pluies (cas 1) et la diminution
de l’incertitude des débits due uniquement au calage du modèle pluie-débit (cas 2) lorsque l’on
s’intéresse aux valeurs extrêmes. A partir de la période de retour 10 ans, les valeurs extrêmes
fournies par SHYREG sont faiblement influencées par le calage du paramètre , au regard
des incertitudes dues la pluie (comparaison des cas 1 et 2). En effet, la saturation progressive du
modèle hydrologique vers les événements rares et extrêmes, rendent la méthode plus sensible à
l’information de pluie qu’à l’information sur les débits observés.
- Les incertitudes liées aux données de pluies et celles liées aux données de débits observés
doivent être prises en compte de manière dépendante car le calage du paramètre va
dépendre de l’information disponible sur la pluie. Cette prise en compte va conduire à réduire
l’incertitude sur les débits, quelle que soit la période de retour (écart entre le cas 3 et le cas 4).
Analyse par types de bassins versants
Une analyse complémentaire a été effectuée pour qualifier l’incertitude des débits en fonction
de la typologie des bassins versants. Dans ce cas, seul le cas 4 est considéré, c'est-à-dire à
l’incertitude sur l’estimation des débits due à la prise en compte simultanée et dépendante de
l’incertitude liée à l’observation des pluies et des débits.
Les graphiques de la Figure 37, présentent les amplitudes relatives des intervalles de
confiance calculées sur des groupes de bassins versants de même effectif (de l’ordre d’un quart de
l’échantillon pour chaque « typologie »). Ces groupes ont été créés en fonction de la durée
d’observation des débits, de la taille des bassins versants et du débit spécifique de chaque bassin
(pour distinguer les bassins plus ou moins productifs, ou soumis à une pluviométrie plus ou moins
importante).
Cas 1 Cas 2 Cas 3 Cas 4
95
Figure 37 : Rôle de la durée d’observation, de la surface du bassin et du débit spécifique
sur les incertitudes de la méthode SHYREG, pour les quantiles de crues de périodes de
retour 10 et 1000 ans.
Les résultats montrent que :
Pour le rôle de la durée d’observation : l’incertitude diminue lorsque la durée
d’observation des débits augmente. Ce résultat bien que trival permet de quantifier la
variation de l’incertitude avec la durée d’observation. A noter que la classification est liée
au nombre d’années d’observation sur les débits. Le nombre d’année d’observation sur les
pluies reste le même quelque soit le bassin versant, et correspond à 25 années entre 1977 et
2002.
Pour le rôle de la surface du bassin : une légère tendance se dessine, avec des incertitudes
un peu plus grandes pour les petits bassins que pour les grands. Ce point peut s’expliquer
par des problèmes d’échantillonnage des valeurs extrêmes plus importants sur les petits
bassins qui sont plus aléatoirement touchés par des événements pluvieux forts, ainsi que
par une difficulté potentiellement plus importante à bien reproduire la transformation
pluie-débit sur des petits bassins, en lien avec l’information pluviométrique disponible
(voir par ex. [Merz et al., 2009]).
Pour le rôle des caractéristiques hydrologiques (en termes de production) : il se dégage là
encore une légère tendance à avoir des incertitudes plus faibles sur les bassins plutôt
« productifs ». Ce point peut aussi s’expliquer par le fait que sur ces bassins, la saturation
est plus rapidement obtenue, ainsi l’incertitude liée au calage de aura un moindre
impact. Cependant, ce résultat est atténué par le fait que les bassins les plus productifs, ou
96
du moins associés aux plus grands débits spécifiques sont aussi associés aux pluviométries
les plus intenses (régions méditerranéennes) qui présentent les plus fortes incertitudes sur
la pluie (voir la carte de écart-types de la Figure 32).
Enfin, les graphiques de la Figure 38 présentent la répartition spatiale de ces amplitudes
relatives des incertitudes des quantiles SHYREG. Les pluies présentent des incertitudes plus fortes
sur la région méditerranéenne, alors que les débits présentent des incertitudes d’ampleurs plus
aléatoires sur l’ensemble du territoire.
Figure 38 : Localisation de l’amplitude relative des incertitudes sur les quantiles de pluie
SHYREG et sur les quantiles de débits SHYREG, pour la période de retour 100 ans.
Le travail présenté sur les incertitudes est un travail prospectif pour appréhender les
intervalles de confiance liés à la méthode SHYREG. Effectué dans un premier temps sur la mise en
œuvre locale de la méthode (calée sur des données), il prend en compte les deux principales
composantes à l’origine des incertitudes : l’échantillonnage des pluies et l’échantillonnage des
débits observés servant aux calages des paramètres de la méthode.
Les incertitudes sur les quantiles de pluies sont plus faibles que les incertitudes sur les
quantiles de crues. Cependant, malgré une paramétrisation basée sur 4 paramètres par saison,
l’amplitude des incertitudes sur les quantiles de crues fournis par la méthode SHYREG sont de
l’ordre de grandeur de ceux associés à l’utilisation d’une loi statistique à deux paramètres (loi de
Gumbel) et sont nettement inférieurs à ceux associés à l’utilisation d’une loi à trois paramètres calée
localement (loi GEV).
Les intervalles de confiance de la méthode SHYREG sont donc relativement faibles au regard
de la complexité de la méthode qui pouvait laisser présager de fortes incertitudes dues à la
paramétrisation de deux modélisations couplées. La prise en compte de la dépendance dans le
calage de ces deux modèles est nécessaire pour ne pas surévaluer les incertitudes.
Des analyses supplémentaires de la méthode régionalisée sont prévues pour estimer les
incertitudes associées à l’estimation des paramètres fixés régionalement et associées à la méthode
de régionalisation choisie.
97
D – CONCLUSIONS ET PERSEPCTIVES
SCIENTIFIQUES
Les développements présentés dans les paragraphes précédents montrent l’intérêt des
approches par simulation pour l’estimation de l’aléa hydrologique, et plus particulièrement les
avancées et les performances liées la méthode SHYPRE/SHYREG développée par Irstea depuis
quelques années. Les recherches associées à cette approche ont permis de répondre aux besoins de
connaissances sur l’aléa hydrologique, les plus justes, fiables et exhaustives possibles en terme
d’information temporelle et fréquentielle, et disponibles en tout point d’un territoire.
Des avancées notables ont été réalisées dans le domaine de la génération stochastique des
pluies à pas de temps fins : modélisation de régimes pluviométriques très contrastés, prise en
compte des dépendances statistiques entre certaines variables, contrôle du comportement
asymptotique, études des incertitudes, … La recherche d’une modélisation hydrologique
parcimonieuse et qui prenne en compte la non-linéarité des processus impliqués dans la relation
pluie-débit a été un autre objectif important. Enfin, la régionalisation de ces modèles est essentielle
pour appliquer les méthodes au contexte du non jaugé. Pour effectuer ces recherches, des jeux de
données exhaustifs ont été utilisés, garantissant que la méthode développée pouvait être largement
utilisées dans des contextes très variables.
Les performances de l’approche par simulation développée, ont été reconnues suite à une
étude comparative d’envergure entre différentes méthodes de prédétermination des pluies et des
crues extrêmes développées par différents laboratoires de recherches en France et souvent étudiées
par l’ensemble de la communauté scientifique travaillant sur l’estimation fréquentielle de l’aléa.
Suite à ces travaux, la méthode est actuellement recommandée pour les atouts qu’elle présente dans
l’estimation de l’aléa hydrologique, et commence à faire référence pour de nombreuses applications
telles que l’élaboration de PPRi, le dimensionnement d’ouvrages hydrauliques, l’estimation de
l’occurrence des événements,…
La nature de l’approche, qui vise à reproduire au mieux les phénomènes observés, son large
spectre d’application et sa paramétrisation robuste et parcimonieuse sont autant d’atouts pour
envisager son utilisation pour l’estimation de l’aléa hydrologique en contexte de changement
global. En effet dans l’approche développée, les phénomènes extrêmes sont modélisés par des
paramètres moyens, plus facilement maitrisables, et les processus conduisant aux crues extrêmes
sont étudiés séparément.
Il n’en demeure pas moins que des améliorations sont attendues et que des perspectives de
recherches supplémentaires sont déjà en projet pour améliorer la méthode et élargir son champ
d’application. Ces perspectives concernent trois champs de recherches présentés ci-après:
- La modélisation des processus, en lien direct avec l’amélioration de la méthode.
- L’étude de l’impact du changement global sur la prédétermination de l’aléa hydrologique.
- La prise en compte de scénarios dans la modélisation de processus sensibles aux crues.
98
D.1 Modélisation des processus
Les travaux de recherches concernant la modélisation des processus visent à élargir le
domaine d’application de la méthode développée. Les résultats sur les performances de la méthode
appliquée de façon semi-automatique sur les données du territoire national [Patrick Arnaud et al.,
2014a] et les limites liées aux hypothèses simplificatrices émises pour cette mise en œuvre [Arnaud
et al., 2013; Patrick Arnaud et al., 2014b] donnent des pistes d’améliorations possibles.
Certaines d’entre elles concernent la modélisation des processus de pluies, d’autres
concernent la modélisation des processus hydrologique. Enfin d’autres pistes d’améliorations plus
transversales concernent les deux composantes de la méthode à travers la recherche de méthodes de
régionalisation plus pertinentes et la détermination complète des incertitudes associées directement
à la méthode ainsi qu’à sa régionalisation.
Perspectives concernant le générateur de pluies :
- Typologie des perturbations : Une analyse des configurations météorologiques qui
génèrent les événements pluvieux (types de perturbations, périodes liées à l’ENSO,…)
peut être plus pertinence qu’une analyse par saison pour différencier des
échantillons. Cette question a commencé à être étudiée et semble apporter des
améliorations en régime tropical [Y. Aubert et al., 2014]. Le calage par type de temps a
d’ailleurs été adopté dans le cadre de l’ajustement de la loi MEWP [Garavaglia et al.,
2011]. La pertinence de la typologie des événements simulés peut d’ailleurs être un atout
dans l’étude de l’impact du changement climatique, pour coupler le générateur avec des
projections climatiques plus « phénoménologiques ». En effet, l’évolution climatique peut
être induite par un changement du type de perturbations (plus d’orages, moins de
phénomènes frontaux, plus de cyclones dans certaines zones,…) plus que par une simple
variation de l’occurrence ou des intensités des événements actuels. Cette analyse par type
de perturbations plutôt que par saisons devrait aussi faciliter la transposition de la méthode
à d’autres régions/pays aux climats encore plus variés (climats plus secs par exemple).
- Descente d’échelle temporelle : le passage à des pas de temps infra-horaires a déjà fait
l’objet de pistes de recherches [cantet, 2014] à travers l’étude de modèles de
désagrégation de l’information horaire vers des pas de temps fins (jusqu’à 5 minutes).
Cette information sera précieuse pour l’étude des phénomènes de ruissellement en zones
urbaines ou sur les petits bassins versants montagnards pour lesquels les temps de réponse
sont très courts. La difficulté actuelle reste de respecter l’ensemble des caractéristiques de
la pluie à ces pas de temps (quantiles, auto-corrélation, intermittences,…). La disponibilité
des données à pas de temps fins reste aussi un obstacle à ces études, en particulier la
profondeur temporelle des observations. Pour entreprendre ce travail, Météo-France a mis
à notre disposition les pluies observées au pas de temps 6 minutes sur 1179 postes
pluviographiques de la France Métropolitaine, mais dont la durée d’observation débute en
99
2005, soit moins de 10 ans d’observation. Si cette information n’est pas assez « longue »
pour une étude statistique des valeurs extrêmes, elle est suffisante pour commencer à
étudier la structure des pluies infra-horaires et élaborer des modèles de désagrégation.
- Modélisation spatiale de la pluie : le générateur de pluie développé reste un générateur
ponctuel. Il permet d’appréhender correctement les valeurs de pluies extrêmes.
L’intégration de l’information spatiale peut se faire par le biais de coefficients
d’abattement. Ces coefficients ont été déterminés sur la France, suite à une analyse des
pluies SAFRAN26
et des réanalyses des radars météorologiques27
(Maire 2011). Ils
présentent une variabilité qui dépend de la zone étudiée, mais aussi de la durée de pluie
considérée et de sa période de retour. Une comparaison avec les résultats d’un générateur
de champs de pluie tel que celui développé par l’équipe d’Irstea-Lyon [Leblois and
Creutin, 2013] est envisagé. Un couplage des deux modélisations pourrait aussi consolider
le comportement asymptotique du générateur de champs pluvieux vers les valeurs
extrêmes, par celui validé par le générateur ponctuel.
• Perspectives concernant la modélisation hydrologique : l’application locale de la méthode a
montré des performances inégales suivant les zones géographiques étudiées. Ce point vient en
partie du fait que l’on ne s’autorise pas à multiplier les paramètres de calage, afin de faciliter
l’étape de régionalisation. En particulier certaines hypothèses sont relativement fortes comme
celle d’imposer pour certains paramètres une valeur unique et d’imposer une régionalisation
globale sur tout le territoire national. Une amélioration de la méthode dans des contextes
hydrologiques variés doit être abordée dans un premier temps par :
- Etude des paramètres constants de la méthode : un calage par grandes zones
hydrologiques (Hydro-Eco-Région par exemple [Wasson et al., 2002]) de certains
paramètres actuellement fixés sur l’ensemble du territoire français, doit permettre d’affiner
la méthode. L’intégration de connaissances nouvelles sur l’abattement spatial des pluies
peut être intéressante à introduire dans la paramétrisation à priori de la fonction
d’abattement spatial de la méthode. Une typologie sur les bassins versants devrait aussi
permettre d’imposer certains paramètres en fonction de certaines caractéristiques des
bassins (classe de pente, nature des sols ou de la végétation,…). Ce travail consistera donc
à effectuer une paramétrisation régionale à priori, fixée par grandes zones ou par grands
types de bassins versants, avant d’effectuer le calage local de la méthode.
26
SAFRAN/France est un système d’analyse à méso échelle de variables atmosphériques près de la surface. Il
utilise des observations de surface, combinées à des données d’analyse de modèles météorologiques pour produire des
paramètres horaires (température, humidité, vent, précipitations solides et liquides, rayonnement solaire et infrarouge
incident), qui sont analysés par pas de 300m d’altitude. Ils sont ensuite interpolés sur une grille de calcul régulière (8 x
8 km) (Sources Météo-France : http://www.cnrm.meteo.fr/ ) 27
Réanalyse Radar : les données COMEPHORE (COmbinaison en vue de la Meilleure Estimation de la
Précipitation HOraiRE) combinent l’information du réseau de pluviographes et l’information des radars
météorologiques pour fournir une lame d’eau au pas de temps horaire sur une grille de un km² sur la France sur la
période de 1997 à 2006.
100
- Modélisation des bassins versants particuliers : certains bassins versants sont plus
difficiles à modéliser, de part une relation pluie-débit marquée par des phénomènes plus
singuliers : c’est le cas des bassins versants karstiques, mais aussi de certains bassins où les
écoulements en période de crues ne sont pas essentiellement attribués au ruissellement (cas
des bassins avec de forts échanges avec les nappes ou ceux fortement impactés par la fonte
nivale). Ces phénomènes actuellement trop occultés en période de crue, doivent être mieux
appréhendés dans notre approche.
• Perspectives concernant la régionalisation :
- Régionalisation des paramètres du générateur de pluie : la régionalisation des paramètres
du générateur de pluie a été réalisée par une méthode qui pourrait être améliorée. De
premiers essais ont été réalisés pour améliorer la régionalisation d’un des paramètres du
générateur de pluies [Loudegui Djimdou, 2014]. Parmi les différentes techniques de
spatialisation (méthodes barycentriques, triangularisation, régression, krigeage simple,
ordinaire et universel,…) c’est la méthode par krigeage à dérives externes, choisies selon la
méthode proposée par Cantet [2012] qui présente les meilleures performances. La
poursuite de ces travaux est dont à réaliser pour l’ensemble des variables du générateur.
- Amélioration des techniques de régionalisation des paramètres hydrologiques : la
régionalisation de l’approche représente surement la plus grande marge de progression. Les
améliorations des performances locales devraient déjà se traduire aussi par des
améliorations au niveau de l’application régionale, surtout si l’effort a été fait de ne pas
introduire une paramétrisation supplémentaire. La dégradation en mode régional est liée à
la perte d’information locale lors de la régionalisation de la méthode. De nouvelles
techniques de régionalisation doivent permettre de nettement améliorer les performances
de l’approche régionale. La première consistera à traiter le problème des bassins versants
emboités qui crée actuellement un biais dans notre approche28
. Une approche permettant de
respecter les valeurs optimales des bassins de calage lors de la régionalisation, doit être
étudiée. Des développements ont déjà étaient initiés en ce sens mais doivent être finalisés.
De plus, la méthode de régionalisation mise en œuvre doit permettre la prise en compte des
dépendances amont-aval qui existent dans la paramétrisation des modèles hydrologiques.
Des techniques géostatistiques comme le topkriging [Sauquet et al., 2000; Skoien et al.,
2006] seront testées et comparées à des méthodes plus simples, comme des méthodes par
voisinage qui donnent actuellement de meilleurs résultats que les méthodes géostatistiques
telles que le krigeage pour la régionalisation des paramètres du modèle hydrologique.
28
Le problème provient du fait que le calage de la méthode nécessite l’hypothèse d’uniformité du paramètre
hydrologique sur l’ensemble du bassin. Dans le cas de bassins emboités, un pixel peut alors être associé à plusieurs
valeurs de paramètre optimal. Le choix a été fait d’en calculer une valeur « moyenne » qui est alors forcément différente
de la valeur optimale.
101
- Recherche de descripteurs pertinents pour la descente d’échelle spatiale : le passage à
des pas de temps plus fins que l’heure et la pertinence de l’information produite sur des
petits bassins non jaugés, nécessite de résoudre le problème de descente d’échelle spatiale.
L’objectif est de trouver les règles de passage d’une information généralement connue sur
des bassins versants plutôt grands, vers des bassins versants plus petits où l’observation
devient rare29
. Actuellement il est pratiquement impossible de contrôler la variabilité
spatiale des processus hydrologiques à l’échelle des petits bassins sur l’ensemble d’un
territoire, avec l’observation disponible (de l’ordre de 150 bassins versants jaugés de moins
de 10 km²). La descente d’échelle est alors réalisée par un paramétrage déduit de
corrélations avec des variables environnementales, ou par une hypothèse d’homogénéité
des paramètres sur le bassin. Cependant, l’observation du comportement de certains petits
bassins versants limitrophes (cas des bassins de recherche du Réal Collobrier ou de Draix)
présentant des caractéristiques environnementales et climatiques très proches, mais dont le
comportement hydrologique est extrêmement variable (quantiles de crues pouvant passer
de 1 à 10 sur deux bassins voisins de même taille), montre qu’il est difficile de trouver des
explications à la variabilité des écoulements à des échelles fines. Cette problématique est
un véritable défi pour espérer fournir une connaissance pertinente de l’aléa hydrologique
sur les petits bassins versants de moins de 10 km².
• Perspectives concernant l’estimation des incertitudes : pour les méthodes purement
statistiques, la détermination d’un intervalle de confiance est relativement aisée. Elle est basée
sur les développements mathématiques à partir des formulations des lois de probabilités
étudiées, que ce soit des lois locales ou régionales [Sveinsson et al., 2003]. Pour les méthodes
par simulation, la détermination d’un intervalle de confiance est moins immédiate. Elle passe
généralement par des approches bayesiennes [Cameron et al., 1999; Gaume et al., 2010]. La
poursuite des études déjà initiées sur la méthode SHYREG doit maintenant porter sur la prise
en compte des incertitudes liées à la détermination des paramètres régionaux, que ce soit pour
le générateur de pluies, comme dans la modélisation hydrologique.
L’ensemble de ces points de recherche vise à améliorer la méthode développée et à étendre
son domaine d’application, afin de réduire les limites d’application définies actuellement [Arnaud
et al., 2013]. Certaines de ces perspectives sont en cours de réalisation, en partie dans le cadre de la
thèse de Jean Odry débutée en décembre 2014, et en partie dans des travaux de recherches en
cours.
29
En France, les 2430 bassins versants instrumentés de taille inférieure à 1000 km² couvrent 54 % du territoire et
les 1025 bassins versants de moins de 100 km² couvrent 7% du territoire. Seulement 150 bassins versants instrumentés
ont une surface inférieure à 10km².
102
D.2 Impact du changement global sur les extrêmes hydrologiques
Les recherches sur le changement climatique et sur ces impacts, représentent une activité
forte en sciences de l’environnement. Cette problématique est largement étudiée par la
communauté scientifique locale (par exemples par le Centre Européen de Recherche et
d’Enseignement des Géosciences de l’Environnement, CEREGE, https://www.cerege.fr/ ou par le
Labex-OTMed http://www.otmed.fr/ ) ce qui nous pousse à poursuivre nos travaux de recherche
sur ce thème.
De part sa structure reposant sur la modélisation de la pluie et sur la modélisation de la
relation pluie-débit, la méthode par simulation (SHYPRE/SHYREG) permet d’appréhender de
façon originale l’impact du changement global (changement climatique et changement
d’occupation des sols) sur les crues extrêmes. Les travaux menés jusqu’ici ont montré que la
méthode par simulation des processus peut prendre en compte les tendances observées sur les
pluies [Cantet, 2009; Cantet et al., 2011] pour les traduire en évolution des valeurs extrêmes. Des
travaux menés en 2013 [Cantet, 2013] ont montré l’impact de l’évolution des pluies sur les
quantiles de crues. Un premier travail prospectif a été réalisé sur l’impact que peut avoir une
modification de la relation pluie-débit sur l’estimation des crues. Cependant, ces modifications (de
la pluie et de la relation pluie-débit) ont été étudiées de façon indépendante. La poursuite de ce
travail nécessite d’aborder les points suivants :
L’étude de l’interaction entre l’évolution climatique et les processus générateurs de
crues : les processus liés au cycle de l’eau sont nombreux mais certains peuvent être
négligés lors de la modélisation des crues. C’est le cas de l’évaporation par exemple ou de
certains écoulements lents. Si ces processus sont négligés lors de la crue, ils conditionnent
fortement l’état de saturation hydrique dans lequel se trouve un bassin versant au début d’un
épisode pluvieux. L’objectif affiché ici est de déterminer les phénomènes intervenant sur la
saturation des sols, qui elle, influence la relation pluie-débit lors des crues. Par exemple, une
saturation plus élevée des sols peut provenir soit d’une occurrence plus marquée des pluies,
soit d’une modification de la nature des précipitations (pluie/neige), soit d’une évolution du
phénomène l’évaporation,…
L’estimation du débit de base sur lequel s’ajoutent les ruissellements peut aussi avoir
son importance dans l’estimation des quantiles courants sur lesquels se base la calage de la
méthode. A ce titre, une modification des écoulements liés à la fonte de la neige peut
modifier l’estimation des débits de crues courants ou leur saisonnalité. Ces processus
doivent être étudiés et modélisés pour proposer une initialisation plus pertinente de la
méthode par simulation. Une modélisation en continue de l’approche est aussi envisagée, ou
bien son couplage à une modélisation continue journalière [Arnaud and Lavabre, 1997].
103
L’étude de l’évolution de l’occupation du sol : le changement climatique peut avoir des
conséquences fortes sur l’occupation du sol. A titre d’exemple, un climat plus sec pourrait
modifier la végétation voire augmenter la fréquence des incendies dans certaines régions, ce
qui modifierait la relation pluie-débit (modification de la demande hydrique, de
l’interception végétale, de la vitesse de propagation des ruissellements, de l’érosion des
sols,…).
Indépendamment du changement climatique, l’aménagement du territoire peut
introduire des modifications dans l’occupation des sols impactant les écoulements de
versants (imperméabilisation) et les écoulements de réseaux (endiguements,…). Ces
évolutions de l’occupation des sols doivent être étudiées et intégrées dans les approches
d’analyse fréquentielle des crues. L’approche par simulation, modélisant la relation pluie-
débit est alors adaptée pour répondre à cette problématique. Pour cela, il faut trouver les
relations pertinentes entre la paramétrisation des modèles hydrologiques et les modifications
de l’occupation des sols.
L’évaluation des incertitudes : les travaux sur les projections climatiques montrent certes
des tendances, mais avec de fortes incertitudes associées. C’est pourquoi les résultats seront
exprimés de façon relative, pour montrer la sensibilité de l’approche aux variations possibles
du climat, plus que pour proposer des projections sur l’évolution l’aléa hydrologique. Le
travail sur les incertitudes de l’approche est donc à approfondir et à coupler avec les
incertitudes liées aux projections climatiques.
L’évaluation des incertitudes sur les projections climatiques passe aussi par
l’utilisation de scénarios climatiques provenant de plusieurs modèles climatiques.
Actuellement les tests ont été effectués uniquement sur les sorties du modèle ARPEGE-
Climat, d’autres résultats de modèles étant disponibles.
D.3 Ouverture vers d’autres thématiques.
Une des particularités de l’approche de prédétermination des crues par simulation
développée, est de proposer des scénarios de pluies et de crues au pas de temps horaire, dont les
caractéristiques statistiques des valeurs courantes à extrêmes sont maitrisées. Ces scénarios, utilisés
pour en déduire des caractéristiques statistiques sur l’aléa hydrométéorologique (quantiles de pluies
et de débits), peuvent aussi être utilisés comme données d’entrée d’un modèle hydraulique pour
effectuer des statistiques sur la réponse du modèle plutôt que de soumettre le modèle à une crue de
projet théorique.
Sur ce principe, le couplage à de nombreuses modélisations est possible, avec des
applications multiples : modèles hydrauliques pour le dimensionnement d’ouvrages, pour la
104
cartographie de zones inondables, pour le test de scénarios d’aménagement,… des modèles
mécanistes de transport de matières solides pour évaluer le charriage, modéliser les laves
torrentielles, … des modèles de transfert de polluants…
Les applications sont nombreuses mais nécessitent l’aménagement de la méthode :
L’échantillonnage des événements simulés : la simulation de milliers de scénarios de crues
n’est peut être pas assimilable par toutes les modélisations pour lesquels un couplage est
envisagé. La recherche d’un échantillon de scénarios de crues « type », suffisamment
représentatif de l’ensemble des scénarios possibles est alors à rechercher pour limiter la
multiplication des calculs [Helms et al., 2012]. Ce travail sur l’échantillonnage a été abordé
dans le cas d’une étude pour le dimensionnement des évacuateurs de crues d’un barrage. La
forme d’un hydrogramme dit « équivalent » a été déterminée, dont les conséquences sur
l’ouvrage est proche de la conséquence moyenne de plusieurs hydrogrammes fournis par la
méthode de simulation. Ce genre de démarche simplificatrice peut avoir son utilisé pour le
couplage de la méthode avec d’autres modélisations plus complexes.
Passage à une modélisation en continue journalière : le positionnement des événements
pluvieux dans une chronique a déjà abordée par le couplage d’une approche continue
journalière avec la modélisation événementielle horaire [Arnaud, 1997; Arnaud and
Lavabre, 1995; 1997]. Ce positionnement présente l’intérêt de pouvoir attribuer une
saisonnalité aux événements pluvieux mais aussi aux conditions de saturation ou aux débits
de base à prendre en compte au moment où un événement pluvieux est modélisé. Cela
permet aussi de mieux prendre en compte l’impact du changement de régime hydrologique
que peut engendrer le changement climatique. Ce point déjà évoquer plus haut parait
important pour multiplier les applications et couplage possibles de la méthode.
Remarque : les approches par simulation permettent de confronter certaines modélisations à
des données d’entrée simulées (sur les pluies ou sur les débits) qui peuvent dépasser le champ des
valeurs observées sur lequel ces modèles sont généralement conçus (cas des valeurs extrêmes par
exemple). Une attention particulière doit être faite pour réaliser des modélisations prenant en
compte l’éventuelle non linéarité des processus ou du moins restant valides dans une gamme
d’application large.
Des interactions fortes existent aussi entre les recherches effectuées sur la méthode SHYREG
et les autres recherches développées par l’équipe Hydrologie. Ces interactions concernent :
La prévision des crues en sites non-jaugées : l’équipe développe un modèle d’alerte de
crues basé sur la détermination en temps réel de la période de retour des événements
observées : c’est le principe de la méthode brevetée AIGA
[P. Javelle et al., 2012; Lavabre
and Gregoris, 2005]. Cette approche est développée sur l’ensemble du territoire national.
Les quantiles SHYREG servent de base pour qualifier les événements, que sont les pluies
observées sur différentes durées (obtenues par les radars météorologiques) ou les débits
modélisés par un modèle hydrologique distribué (GRD, [Arnaud et al., 2011; Diss, 2009]),
105
dont la structure et la paramétrisation sont proches de celles utilisées pour la méthode
SHYREG. Un lien étroit existe donc en ces deux méthodes, au-delà des techniques
transversales présentées plus loin.
L’étude de la ressource en eau : l’équipe développe aussi un modèle hydrologique
fonctionnant en continu au pas de temps mensuel, et actuellement à l’étude pour un
fonctionnement au pas de temps journalier : c’est la méthode LOIEAU [Folton and Lavabre,
2006; 2007]. Cette approche, développée pour la prédétermination de la ressource en eau,
présente des liens forts avec la méthode de prédétermination SHYREG. C’est aussi une
méthode de prédétermination régionalisée basée sur la modélisation hydrologique. Certains
résultats de cette méthode fournissent une information sur les états hydriques des bassins et
les débits avant les périodes pluvieuses, pouvant être utilisée pour initialiser les modèles de
crues. Un couplage plus fort entre les deux méthodes SHYREG et LOIEAU est envisagé.
Des recherches transversales : les méthodes développées dans l’équipe ont en commun
plusieurs points de recherches liés à leur objectif et leur nature. Ce sont des méthodes qui
visent à étudier les phénomènes hydrologiques dans la gamme complète des événements
courants à extrêmes, par la modélisation des processus, et destinées à être régionalisées pour
pouvoir être appliquées en sites non-instrumentés. Ces points de recherches communs
concernent :
o La modélisation hydrologique : la relation pluie-débit recherchée doit faire un
compromis entre justesse et parcimonie, l’objectif de régionalisation étant un point
important. Cet objectif commun à l’ensemble des méthodes développées permet
d’échanger sur les structures des modèles les plus adaptées (actuellement modèles à
réservoir de type GR), sur les procédures de calage (réflexions sur les critères et
techniques d’optimisation, sur les procédures de calage/validation,…), sur les processus
les plus importants à prendre en compte, l’analyse critique des données, etc.
o La régionalisation : elle porte dans tous les cas sur des variables climatiques ou sur les
paramètres des modèles hydrologiques. Les descripteurs utilisés sont mis en commun
ainsi que les méthodes d’interpolation. La problématique de la régionalisation des
paramètres de modèle est essentielle, et doit faire appel à des techniques particulières à
développer. En effet si les méthodes géostatistiques sont adaptées à la spatialisation des
variables climatiques, voire à des grandeurs hydrologiques (fortement influencées par les
variables climatiques), ça semble moins évident pour les paramètres des modèles
hydrologiques. En effet, dans ce cas, la composante climatique a été enlevée, et la
variabilité spatiale des paramètres ne provient plus que de la nature des bassins versants,
pouvant présenter des discontinuités fortes et une structure spatiale particulière (deux
exutoires très proches mais sur des versants différents auront peut-être plus de différences
qu’avec des exutoires avals plus éloignés). Actuellement, les méthodes simples par
voisinage semblent conduire à de meilleurs résultats.
o Les approches distribuées : la disponibilité croissante de l’information spatiale sur les
pluies, mais aussi sur les autres composantes du cycle de l’eau (Neige, ETP,
106
température,…) pousse à vouloir les utiliser pour prendre en compte la variabilité spatiale
des processus. L’objectif est alors de développer des approches distribuées qui ne
complexifient pas la structure des modèles ou du moins le nombre de paramètres à caler.
L’objectif serait alors de « dé-biaiser » la paramétrisation des approches globales qui tend
à compenser la perte d’information sur la variabilité spatiale des données [Arnaud et al.,
2011; Fouchier, 2010].
o Les incertitudes : l’étude des incertitudes fait partie des attentes de plus en plus présentes
dans le développement des modèles. La complexité des modèles nécessite l’utilisation de
techniques adaptées, souvent liées à des processus d’échantillonnage et de simulations.
Ces recherches de techniques sont communes aux différentes approches hydrologiques
développées. Les techniques développées en prévision d’ensemble sont aussi testées pour
étudier les incertitudes.
o Le changement global : le développement d’approches basées sur la modélisation
hydrologique, avec comme données d’entrée des variables climatiques, permet d’étudier
l’impact de la non stationnarité du climat sur la ressources en eau ou sur les risques
d’inondation. La recherche de liaison entre les paramètres hydrologiques et des variables
environnementales pour la régionalisation des approches, fournie une liste d’indicateurs
permettant d’étudier l’impact du changement d’occupation des sols sur les écoulements.
Ces recherches sont aussi transversales ou mutualisables entre les méthodes.
Les développements futurs sur les recherches en hydrologie développées par notre équipe, en
lien étroit avec les hydrologues de l’établissement, sont nombreux. Notre projet est aussi d’apporter
nos compétences particulières en hydrologie appliquée, au collectif des hydrologues de la nouvelle
université Aix-Marseille.
Outre les projets et conventions actuels liés à la poursuite de nos recherches sur les méthodes
développées, des projets sont en cours de montage sur les thèmes suivants :
- La modélisation des crues sur les petits bassins de montagnes, passage à pas de temps fins :
projet FASEP avec le Brésil, projet FEDER avec la région de l’Ile de la Réunion, et les
suites du projet RHYTMME en PACA.
- L’étude de la ressource en eau en contexte de changement climatique en région PACA,
montage d’un projet CPER Recherche 2014-2020, sur le volet « Climat ».
- L’exploitation d’informations sur les dégâts pour introduire la notion d’exposition et de
vulnérabilité dans les déclanchements d’alerte (projet ANR Jeune chercheur porté par
l’Université d’Avignon, partenariat : Ifsttar, Cerema, CCR, Irstea et projet PORTE).
- …
Autant de projets en construction qui nous permettent d’envisager la poursuite de nos
recherches en hydrologie appliquée aux valeurs extrêmes (basses et hautes) en site non jaugés.
107
E - RÉFÉRENCES BIBLIOGRAPHIQUES
CITÉES
(WRC), W. R. C. (1967), A uniform technique for determining flow frequencies, Water Resour. Council Bull., 15. Acreman, M. C. (1990), A simple stochastic model of hourly rainfall for Farnborough, England., Hydrological
Sciences Journal, 35(2), 119-148. Aldrich (1997), R.A. Fisher and the Making of Maximum Likehood 1912-1922, Statistical Science, 17(3), 162-176. Arnaud, P. (1997), Modèle de prédétermination de crues basé sur la simulation. Extension de sa zone de validité,
paramétrisation du modèle horaire par l'information journalière et couplage des deux pas de temps. , in Thèse de l'Université Montpellier II. , edited, p. 258 p. + annexes.
Arnaud, P. (2005), Simplification de gr3h pour la prédétermination des crues. Application sur des petits bassins versants., in Note interne., edited, p. 26 p.
Arnaud, P. (2010), Estimation de l’aléa « ruissellement » par la méthode SHYREG. Éléments de réflexions sur la difficulté d’estimation de l’aléa ruissellement., Rapport d'étude, 22 pages.
Arnaud, P., and J. Lavabre (1995), Simulation du fonctionnement hydrologique d'une retenue d'eau., paper presented at Comité National Suisse des Grands Barrages, Research in the Field Dams, , Crans-Montana, Suisse, 7-9 septembre 1995.
Arnaud, P., and J. Lavabre (1997), Simulation du fonctionnement hydrologique d'un bassin versant : application à la conception et à la gestion d'un barrage., Ingénierie EAT, n° 120, 43-54.
Arnaud, P., and J. Lavabre (1998), Flood determination model based on hourly rainfalls stochastic generation., paper presented at XXIII General assembly, E.G.S. (European Geophysical Society), Nice, 20-24 avril 1998
Arnaud, P., and J. Lavabre (1999a), Using a stochastic model for generating hourly hyetographs to study extreme rainfalls., Hydrological Sciences Journal, 44((3)), 433-446.
Arnaud, P., and J. Lavabre (1999b), Nouvelle approche de la prédétermination des pluies extrêmes., in Compte Rendu à l'Académie des Sciences, Sciences de la Terre et des planètes, Géosciences de surface, hydrologie-hydrogéologie, edited by A. d. Sciences, pp. 615-620.
Arnaud, P., and J. Lavabre (1999), Using a stochastic model for generating hourly hyetographs to study extreme rainfalls., Hydrological Sciences Journal, 44(3), 443-445.
Arnaud, P., and J. Lavabre (2000), Using a stochastic model for generating hourly rainfall and a rainfall-runoff transformation model for flood frequency estimation Revue des sciences de l'eau, 13(4), 441-462.
Arnaud, P., and J. Lavabre (2002), Coupled rainfall model and discharge model for flood frequency estimation., Water Resources Research, 38(6).
Arnaud, P., and J. Lavabre (2010), Estimation de l'aléa pluvial en France métropolitaine, edited, p. 158 pages, QUAE, Paris. Update Sciences & Technologies.
Arnaud, P., and Y. Aubert (2014), Prise en compte de l’aléa hydrologique dans le dimensionnement et la gestion des ouvrages hydrauliques (conférence invité), Fiabilité des matériaux et des structures. Analyse des risques et fiabilités des systèmes dans leur environnement., JFMS 2014 - ISTE Editions, 171-183.
Arnaud, P., J. Lavabre, and J.-M. Masson (1999), Amélioration des performances d'un modèle stochastique de génération de hyétogrammes horaires : application au pourtour méditerranéen français., Revue des Sciences de l’Eau, 12(2), 251-271.
Arnaud, P., J.-A. Fine, and J. Lavabre (2007), An hourly rainfall generation model adapted to all types of climate., Atmospheric Research, 85(2007), 230-242.
Arnaud, P., P. Cantet, and Y. Aubert (2014a), Relevance of an at-site flood frequency analysis method for extreme events based on stochastic simulation of hourly rainfall, Accepted Hydrological Sciences Journal., 20 pages.
Arnaud, P., S. Picard, J. Lavabre, and A. Douguedroit (1997), Modélisation stochastique des pluies horaires. Application à la région méditerranéenne française., paper presented at 10è colloque international de climatologie, Québec, 9-12 sept. 1997.
Arnaud, P., J. Lavabre, B. Sol, and C. Desouches (2006), Cartographie de l'aléa pluviographique de la France La houille blanche, 5, 102-111.
Arnaud, P., J. Lavabre, B. Sol, and C. Desouches (2008a), Regionalization of an hourly rainfall generating model over metropolitan France for flood hazard estimation., Hydrological Sciences Journal, 53 (1) 34-47.
108
Arnaud, P., J. Lavabre, B. Sol, and C. Desouches (2008b), Regionalization of an hourly rainfall generating model over metropolitan France for flood hazard estimation, Hydrological Sciences Journal, 53(1), 34-47.
Arnaud, P., J. Lavabre, B. Sol, and C. Desouches (2008c), Regionalization of an hourly rainfall model in French territory for rainfall risk estimation., Hydrological Sciences Journal, 53(1), 21p.
Arnaud, P., Y. Eglin, B. Janet, and O. Payrastre (2013), Bases de données SHYREG-débit : méthode, performances et limites, Notice utilisateurs - Publication Irstea, 35 pages.
Arnaud, P., J. Lavabre, C. Fouchier, S. Diss, and P. Javelle (2011), Sensitivity of hydrological models to uncertainties in rainfall input, Hydrological Sciences Journal, 56(3), 397-410.
Arnaud, P., P. cantet, C. Perrin, F. Bourgin, and G. Thirel (2014), Détermination des incertitudes de la méthode SHYREG calée localement., Rapport Convention SNRH -Irstea 2014, 20.
Arnaud, P., Y. Aubert, D. Organde, P. Cantet, C. Fouchier, and N. Folton (2014b), Estimation de l’aléa hydrométéorologique par une méthode par simulation : la méthode SHYREG – Présentation – Performances – Base de données., la Houille Blanche - Revue Internationale de l'Eau, 2(2014), 20-26.
Arnaud, P., E. Paquet, Y. Aubert, P. Royet, J.-A. Fine, and M. Lang (2015), Estimation de la distribution de cotes de retenue par simulation stochastique pluie-débit. Cas d'un barrage fictif, paper presented at Vingt cinquième congrés des grands barrages, Norvège, juin 2015.
Aubert, Y. (2008), Recherche d’une modélisation équivalente pour générer des hydrogrammes de crue pour le dimensionnement d’ouvrage., in Mémoire de Master SAGE "systèmes aquatiques et gestion de l'eau". ENPC., edited, p. 69 p.
Aubert, Y. (2012), Estimation des valeurs extrêmes de débit par la méthode SHYREG : réflexions sur l'équifinalité dans la modélisation de la transformation pluie en débit, thesis, 317 pp, Université Paris VI, Paris.
Aubert, Y., P. Arnaud, J. A. Fine, and P. Cantet (2014), Rainfall frequency analysis using a hourly rainfall model calibrated on weather patterns : application on Reunion Island, paper presented at EGU General Assembly 2014-7220, Geophysical Research Abstracts, Viennes (Austria).
Aubert, Y., P. Arnaud, P. Ribstein, and J.-A. Fine (2014), La méthode SHYREG débit - application sur 1605 bassins versants en France Métropolitaine, Hydrological Sciences Journal., 59(5), 993-1005.
Beirlant, J., Y. Goegebeur, J. Segers, and J. Teugels (2004), Statistics of Extremes: Theory and Applications, 522 pp., John Wiley & Sons.
Benichou, P., and O. Le Breton (1987), Prise en compte de la topographie pour la cartographie des champs pluviométriques statistiques., La Météorologie, 7ème série(19), 23-34.
Beven, K., and M. J. Kirkby (1979), A physically based variable contributing area model of basin hydrology., Hydrological Sciences Bulletin, 24(1), 43-69.
Blazkova, S., and K. Beven (1997), Flood frequency prediction for data limited catchments in the Czech Republic using a stochastic rainfall model and TOPMODEL., Journal of Hydrology, 195, 256-278.
Blazkova, S., and K. J. Beven (2002), Flood frequency estimation by continuous simulation for a catchment treated as ungauged (with uncertainty), Water Resources Research, 38(8), 14-11–14-14.
Boé, J., L. Terray, F. Habets, and E. Martin (2006), A simple statistical-dynamical downscaling scheme based on weather types and conditional resampling., Journal of Geophysical Research-Atmospheres, 111(D23), D23106.
Bouvier, C., L. Cisneros, R. Dominguez, J.-P. Laborde, and T. Lebel (2003), Generating rainfall fields using principal components (PC) decomposition of the covariance matrix: A case study in Mexico City, Journal of Hydrology, 278(1-4), 107-120.
Buishand, T. A. (1978), Some remarks on the use of daily rainfall models., Journal of Hydrology, 36, 295-308. Burlando, P., and R. Rosso (1996), Scaling and multiscaling models of depth-duration-frequency curves for storm
precipitation, Journal of Hydrology, 187(1-2), 45-64. C.I.G.B. (1992), Choix de la crue de projet. Méthodes actuelles. , Bulletin 82 de la Commission Internationale des
Grands Barrages, 233. Cadavid, L., J. T. B. Obeysekera, and H. W. Shen (1991), Flood frequency derivation from kinematic wave., Journal
of Hydraulic Engineering, 117(4), 489-510. Cameron, D., K. Beven, and J. Tawn (2000), Modelling extreme rainfalls using a modified random pulse Bartlett-
Lewis stochastic rainfall model (with uncertainty), Advances in Water Resources, 24(2), 203-211. Cameron, D., K. Beven, and J. Tawn (2000), An evaluation of three stochastic rainfall models, Journal of
Hydrology, 228(1-2), 130-149. Cameron, D. S., K. J. Beven, J. Tawn, S. Blazkova, and P. Naden (1999), Flood frequency estimation by continuous
simulation for a gauged upland catchment (with uncertainty), Journal of Hydrology, 219(3–4), 169-187. Cantet, P. (2009), Impacts du changement climatique sur les pluies extrêmes par l'utilisation d'un générateur
stochastique de pluies, thesis, 230 pp, Université de Montpellier II - I3M, Montpellier.
109
Cantet, P. (2012), Spatialisation de normales climatiques : méthodes et résultats sur la Martinique, Convention de recherche et développement partagés DEAL Martinique / Météo-France DIRAG.
Cantet, P. (2013), Impacts du changement climatique sur les crues : utilisation de projections climatiques dans l'estimation de débits extrêmes par la méthode SHYREG., Rapport d'étude Irstea - Convention multirisque Irstea-DGPR 2013, 26 pages.
cantet, P. (2014), Base SHYREG pour les quantiles de pluies infra-horaires, Rapport d'étude Irstea, Projet CPER RHYTMME, 25 pages.
Cantet, P., and P. Arnaud (2014), Extreme rainfall analysis by a stochastic model: impact of the copula choice on the sub-daily rainfall generation, Stochastic Environmental Research and Risk Assessment, 28(6), 1479-1492.
Cantet, P., J.-N. Bacro, and P. Arnaud (2011), Using a rainfall stochastic generator to detect trends in extreme rainfall, Stoch Environ Res Risk Assess, 25(3), 429-441.
Carreau, J., L. Neppel, P. Arnaud, and P. Cantet (2013), Extreme rainfall analysis at ungauged sites in the South of France : comparison of three approaches, Journal de la Société Française de Statistique, 154(2), 119-138.
Carvajal, C., L. Peyras, P. Arnaud, and P. Royet (2009a), Probabilistic Modelling of Flood Water Level for Dam Reservoirs, Journal of Hydrologic Engineering, 14(3), 223-232.
Carvajal, C., L. Peyras, P. Arnaud, D. Boissier, and P. Royet (2009b), Assessment of Hydraulic Load Acting on Dams including Filling Variability and Stochastic Simulations, European Journal Of Environmental and Civil Engineering, 13(4), 399-411.
Cernesson, F. (1993), Modèle simple de prédétermination des crues de fréquences courante à rare sur petits bassins versants méditerranéens., in Thèse de doctorat de l'Université Montpellier II, edited, p. 240 p + annexes.
Cernesson, F. (1993), Modèle simple de prédetermination des crues de fréquences courantes à rares sur petits bassins versants méditéranéens, Université Montpellier II thesis.
Cernesson, F., J. Lavabre, and J.-M. Masson (1996), Stochastic model for generating hourly hyetographs. , Atmospheric Research, n° 42, 149-161.
Chow, V. T., D. R. Maidment, and L. W. Mays (1988), Applied Hydrology., Mc Graw-Hill book compagny, 572 pages.
Cipriani, T., T. Toilliez, and E. Sauquet (2012), Estimation régionale des débits décennaux et durées caractéristiques de crue en France, La Houille Blanche, 1, 16-20.
Coles, S. (2001), An introduction to Statistical Modeling of Extreme Values, ed. Springer-Verlag, Heidelberg, Germany.
Coles, S., L. R. Pericchi, and S. Sisson (2003), A fully probabilistic approach to extreme rainfall modeling., Journal of Hydrology, 273(1-4), 35-50.
Collier, C. G., and P. J. Hardaker (1996), Estimating probable maximum precipitation using a storm model approach., Journal of Hydrology, 183(3-4), 277-306.
Cowpertwait, P. S. P. (1991), Further developments of the Neyman-Scott clustered point process for modelling rainfall., Water Resources Research, 27(7), 1431-1438.
Cowpertwait, P. S. P., P. E. O'Connell, A. V. Metcalfe, and J. A. Mawdsley (1996), Stochastic point process modelling of rainfall. II. Regionalisation and disaggregation, Journal of Hydrology, 175(1-4), 47-65.
CTGREF, SRAE, and D. S.-H (1980-1982), Synthèse nationale sur les crues des petits bassins versants. Fascicule 3 : la méthode Crupedix., Information technique n°8-2 (juin 1980).
Darlymple, T. (1960), Flood-frequency analysis, Water Supply Pap., 1543A - US Geol Surv. Deidda, R. (1999), Multifractal analysis and simulation of rainfall fields in space, Physics and Chemistry of the
Earth, Part B: Hydrology, Oceans and Atmosphere, 24(1–2), 73-78. DGPR, M.-. (2004), Les inondations - Dossier d'information, Edition Ministère de l'Ecologie et du Développement
Durable, 20 pages. Diss, S. (2009), Apport de l’imagerie radar pour la connaissance spatio-temporelle des champs de pluie.
Utilisation pour une modélisation prédictive des crues, Université Paris 6 thesis, 259 pp, Paris. Dominguez, R., C. Bouvier, L. Neppel, and H. Niel (2005), Approche régionale pour l’estimation des distributions
ponctuelles des pluies journalières dans le Languedoc-Roussillon (France) / Regional approach for the estimation of low-frequency distribution of daily rainfall in the Languedoc-Roussillon region, France, Hydrological Sciences Journal/Journal des Sciences Hydrologiques, 50(1), 17-29.
Dubuisson, B., and J. Moisselin (2006), Evolution des extrêmes climatiques en France à partir des séries observées, La Houille Blanche, 6, 42-47.
Eagleson, P. S. (1972), Dynamics of flood frequency., Water Resources Research, 8(4), 878-898. Econopouly, T. W., D. R. David, and D. A. Woolhiser (1990), Parameter transferability for a daily rainfall
disaggregation model., Journal of Hydrology, 118, 209-228. Edijatno, and C. Michel (1989), Un modèle pluie-débit à trois paramètres., La Houille Blanche, 2, 113-121.
110
England, J. F., R. D. Jarrett, and J. D. Salas (2003), Data-based comparisons of moments estimators using historical and paleoflood data, Journal of Hydrology, 278(1–4), 172-196.
Favre, A.-C., A. Musy, and S. Morgenthaler (2004), Unbiased parameter estimation of the Neyman-Scott model for rainfall simulation with related confidence interval, Journal of Hydrology, 286(1-4), 168-178.
Ferrer, J.-P. (1992), Analyse statistique de pluies maximales journalières - Comparaison de différentes méthodes et application au bassin Guadalhorce (Espagne), Hydrologie continentale, 7(1), 23-31.
Fine, J.-A. (2009), SHYPRE, désagrégation au pas de temps 5 minutes : modèle pluie-débit, Rapport d'étude Hydris.
Fine, J.-A., and J. Lavabre (2003), Synthèse des débits de crue sur l'Ile de la Réunion. Phase I : la pluviométrie. Éléments pour la régionalisation du modèle de simulation. , edited, p. 24 p.
Fisher, R. A., and L. H. C. Tippett (1928), Limiting forms of the frequency distribution of the largest and smallest member of a sample, Proc. Cambridge Phil. Soc., 24, 180-190.
Folton, N., and J. Lavabre (2006), Regionalization of a monthly rainfall-runoff model for the southern half of France based on a sample of 880 gauged catchments, IAHS Publication Large Sample Basin Experiments for Hydrological Model Parameterization: Results of the Model Parameter Experiment - MOPEX, vol. 4, 264-277.
Folton, N., and J. Lavabre (2007), Approche par modélisation pluie-débit pour la connaissance régionale de la ressource en eau: application à la moitié du territoire français, Houille-Blanche, n° 03-2007, 64-70.
Fouchier, C. (2010), Développement d’une méthodologie pour la connaissance régionale des crues, thesis, 231 pp, Université Montpellier II Sciences et techniques du Languedoc,, Montpellier.
Fouchier, C., P. Arnaud, J. Lavabre, and J.-P. Mizzi (2007), AIGA: an operational tool for flood warning in southern France. Principle and performances on Mediterranean flash floods. , paper presented at Assemblée générale de l'EGU, 15-20 avril 2007.
Fréchet, M. (1927), Sur la loi de probabilité de l'écart maximun., Ann. Soc. Polonaise Math., 6, 93-116. Garavaglia, F., M. Lang, E. Paquet, J. Gailhard, R. Garcon, and B. Renard (2011), Reliability and robustness of
rainfall compound distribution model based on weather pattern sub-sampling, Hydrology and Earth System Sciences, 15(2), 519-532.
Garcon, R. (1999), Modèle global pluie-débit pour la prévision et la prédétermination des crues, La Houille Blanche, 7-8, 88-95.
Gaume, E., N. Mouhous, and H. Andrieu (2007), Rainfall stochastic disaggregation models: Calibration and validation of a multiplicative cascade model, Advances in Water Resources, 30(5), 1301-1319.
Gaume, E., L. Gaál, A. Viglione, J. Szolgay, S. Kohnová, and G. Blöschl (2010), Bayesian MCMC approach to regional flood frequency analyses involving extraordinary flood events at ungauged sites, Journal of Hydrology, 394(1–2), 101-117.
Genest, C., and A. Favre (2007), Everything you always wanted to know about copula modeling but were afraid to ask, Journal of Hydrologic Engineering, 12, 347-368.
Glasbey, C. A., G. Cooper, and M. B. McEchan (1995), Disagregation of daily rainfall by conditional simalution from a point-process model., Journal of Hydrology, 165, 1-9.
Groisman, P. Y., R. W. Knight, and T. R. Karl (2001), Heavy Precipitation and High Streamflow in the Contiguous United States: Trends in the Twentieth Century, Bulletin of the American Meteorological Society, 82(2), 219-246.
Guillot, P., and D. Duband (1967), La méthode du Gradex pour le calcul de la probabilité des crues à partir des pluies., I.A.S.H., Publication, 84.
Gumbel, E. J. (1935), Les valeurs extrêmes des distributions statistiques., Annales de l'I.H.P., 5(2), 115-158. Gumbel, E. J. (1961), Bivariate logistic distributions, Journal of the American Statistical Association the American Statistical Associatio, 1005, 335-349. Gupta, V., and E. Waymire (1993), A statistical analysis of mesoscale rainfall as a random cascade, Journal of
Applied Meteorology, 32, 251-267. Hansen, E. M. (1987), Probable maximum precipitation for design floods in the United States, Journal of
Hydrology, 96(1987), 267-278. Hebson, C., and E. F. Wood (1982), A derived flood frequency distribution using Horton order ratios., Water
Resources Research, 18(5), 1509-1518. Helms, M., J. Ihringer, and M. R. (2012), Hydrological simulation of extreme flood scenarios for operational flood
management at the Middle Elbe river, Advances in Geosciences, 32, 41-48. Heneker, T. M., M. F. Lambert, and G. Kuczera (2001), A point rainfall model for risk-based design. Journal of
Hydrology, Journal of Hydrology, 247(1-2), 54-71. Hershfield, D. M. (1961), Estimating the Probable Maximum Precipitation., Proc. American Society of Civil
Engineers, Journal Hydraulics Division, 87, 99-106.
111
Hlavcova, K., S. Kohnová, J. Szolgay, and M. Zvolensky (2004), Estimation of rainfall flood risk on the Torysa river, J. Hydrol. Hydromec., 52(3), 141-155.
Hoeffding, W. (1940), Masstabinvariante korrelationstheorie, Schrijtfen Math. Inst. Inst, Angew. Math. Univ. Berlin.(5), 179-233.
Hosking, J. R. M., and J. R. Wallis (1993), Some statistics useful in regional frequency analysis., Water Resour. Res., 29(2), 271-281.
Hosking, J. R. M., and J. R. Wallis (1997), Regional frequency analysis: an approach based on L-moments, Cambridge University Press.
Hubert, P. (2005), La prédétermination des crues, Comptes Rendus Geoscience, 337(1–2), 219-227. Huff, F. A. (1967), Time distribution of rainfall in Heavy storms, Water Resources Research, 3(4), 1007-1019. Hydris (2009), Cartographie des débits de crue en Métropole. Régionalisation du modèle pluie-débit.
Détermination des débits de crues de référence par l’application de la méthode SHYPRE régionalisée sur la métropole. 2. Calibration du modèle de transformation de la pluie en débit, recherche de variable explicatives et régionalisation du modèle, in Rapport d'étude, edited, p. 32 p.
IPCC (2007), Climate change 2007: the physical science basis. Contribution of working group I to the fourth assessment report of the intergovernmental panel on climate change, Cambridge University Press, Cambridge.
Javelle, P., J.-M. Grésillon, and G. Galéa (1999), Modélisation des courbes débit-durée-fréquence en crues et invariance d'échelle, Comptes Rendus de l'Académie des Sciences - Series IIA - Earth and Planetary Science, 329(1), 39-44.
Javelle, P., J. Pansu, P. Arnaud, Y. Bidet, and B. Janet (2012), The AIGA method: an operational method using radar rainfall for flood warning in the south of France, in Weather Radar and Hydrology, edited by R. J. Moore, S. J. Cole and A. J. Illingworth, pp. 550-555, Int Assoc Hydrological Sciences, Wallingford.
Jenkinson, A. F. (1955), The frequency distribution of the annual maximum (or minimum) values of meteorological elements., Quarterly Journal of the Royal Meteorological Society, 81, 158-171.
Kjeldsen, T. R. (2007), The revitalised FSR/FEH rainfall-runoff method - a user handbook., Centre for Ecology ans Hydrology - Wallingford, UK.
Kochanek, K., B. Renard, P. Arnaud, Y. Aubert, M. Lang, T. Cipriani, and E. Sauquet (2013), A data-base comparison of flood frequency analysis methods used in France, Accepted Natural Hazards and Earth System Sciences, 20 pages.
koutsoyiannis, D. (1994), A stochastic disaggregation method for design storm and flood synthesis, Journal of Hydrology, 156(193-225).
Koutsoyiannis, D. (1999), A probabilistic view of hershfield's method for estimating probable maximum precipitation., Water Resources Research, 35(4), 1313-1322.
Koutsoyiannis, D. (2004), Statistics of extremes and estimation of extreme rainfall: II. Empirical investigation of long rainfall records, Hydrological Sciences Journal, 49(4), 591-610.
Koutsoyiannis, D., D. Kozonis, and A. Manetas (1998), A mathematical framework for studying rainfall intensity-duration-frequency relationships., Journal of Hydrology, 206(1-2), 118-135.
Krajewski, W. F., and J. A. Smith (2002), Radar hydrology: rainfall estimation, Advances in Water Resources, 25(8-12), 1387-1394.
Kuichling, E. (1889), The relation between the rainfall and the discharge of sewers in populous districts, Transactions of the American Society Civil Engineers, 20, 1-56.
Kumaraswamy, P. (1980), A generalized probability density function for double-bounded random processes, Journal of Hydrology, 46(1-2), 79-88.
Lang, M., and J. Lavabre (2007), Estimation de la crue centennale pour les plans de prévention des risques d'inondations, edited, p. 232 p, QUAE, Paris.
Lang, M., et al. (2013), Domaines d’application des méthodes de prédétermination des pluies et crues extrêmes - Rapport V., Projet ANR-08-RISK-03-01 - Extraflo.
Lang, M., et al. (2014), Résultats du projet ExtraFlo (ANR 2009-2013) sur l’estimation des pluies et crues extrêmes, La Houille Blanche, 2, 5-13.
Lavabre, J., and Y. Gregoris (2005), AIGA : un dispositif d'alerte des crues sur l'ensemble du réseau hydrographique., In Ingénieries(n° 44), 3-12.
Lavabre, J., and Y. Gregoris (2006), AIGA : un dispositif d'alerte des crues. Application à la région méditerranéenne française, paper presented at FRIEND 2006. Water Resource Variability : analyses and impacts, AISH Publications, La Havane (Cuba), 27/11 au 1/12/2006.
Lavabre, J., P. Arnaud, P. Royet, J.-A. Fine, S. Delichère, Z.-X. Fang, and F. Foussard (2009), Crue de projet ou cote de projet ? Exemple des barrages écrêteurs de crue du département du Gard. , paper presented at Colloque CFBR-SHF: «Dimensionnement et fonctionnement des évacuateurs de crues», Lyon, 20-21 janvier 2009.
112
Lavabre, J., P. Arnaud, P. Royet, J.-A. Fine, S. Delichère, F. Zhong-Xue, and F. Foussard (2010), Crues de projet ou cotes de projet ? Exemple des barrages écrêteurs de crue du département du Gard, La Houille Blanche, n° 2-2010, 58-64.
Lebel, T. (1984), Moyenne spatiale de la pluie sur un bassin versant : estimation optimale, génération stochastique et gradex des valeurs extrêmes., Thèse INPG, Grenoble, 350 pages.
Leblois, E., and J.-D. Creutin (2013), Space-time simulation of intermittent rainfall with prescribed advection field: Adaptation of the turning band method, Water Resources Research, 49(6), 3375-3387.
LeCam, L. (1961), A stochastic description of precipitation., Proceedings of the Fourth Berkeley Symposium on Mathematical Statistics and Probability, edited by J. Neyman, 165-186.
Li, J., M. Thyer, M. Lambert, G. Kuczera, and A. Metcalfe (2014), An efficient causative event-based approach for deriving the annual flood frequency distribution, Journal of Hydrology, 510(0), 412-423.
Llamas, J. (1993), Hydrologie générale principes et applications., 2° édition, Gaëtan Morin éditeur, Paris, 527 pages.
Loudegui Djimdou, M. (2014), Comparaison de méthodes de spatialisation pour régionaliser un paramètre d'un générateur de pluies, Rapport de stage - Université de Caen - Basse Normandie, 57 pages.
Loukas, A. (2002), Flood frequency estimation by a derived distribution procedure, Journal of Hydrology, 255(1–4), 69-89.
Mantoglou, A., and J. L. Wilson (1982), The turning bands method for simulation of random fields using line generation by a spectral method, Water Resources Research, 18(5), 1379-1394. Margoum, M., G. Oberlin, M. Lang, and R. Weingartner (1994), Estimation des crues rares et extrêmes : principes
du modèle AGREGEE., Hydrologie continentale, 9(1), 85-100. Merz, R., and G. Blöschl (2005), Flood frequency regionalisation—spatial proximity vs. catchment attributes,
Journal of Hydrology, 302(1–4), 283-306. Merz, R., J. Parajka, and G. Bloschl (2009), Scale effects in conceptual hydrological modeling., Water Resources
Research, 45(W09405). Ministère de l'Agriculture, Services Régionaux de l'Aménagement des Eaux (S.R.A.E.), Direction de
l'Aménagement Service de l4hydraulique (D.A.S.H.), and C.T.G.R.E.F. (1980), Synthèse nationale sur les crues des petits bassins versants. Fascicule 2, la méthode SOCOSE (janvier 1980) - Fascicule 3, la méthode CRUPEDIX (juillet 1980), 38.
Miquel, J. (1983), Crue : un modèle d'estimation des probabilités des débits de crue., La houille blanche, 2, 95-103.
Miquel, J. (1984), Guide pratique d'estimation des probabilités de crues, Eyrolles ed., 160 pp., EDF, Paris. Moberg, A., and P. D. Jones (2004), Regional climate model simulations of daily maximum and minimum near-
surface temperature across Europe compared with observed station data 1961-1990, Climate Dynamics, 23, 695-715. Molnar, P., and P. Burlando (2005), Preservation of rainfall properties in stochastic disaggregation by a simple
random cascade model, Atmospheric Research, 77, 137-151. Moulard, C. (2010), Apport de l’information hydrogéologique pour la régionalisation de deux modèles
hydrologiques de surface, MASTER « Hydrogéologie, Sol et Environnement », université d'Avignon, 60 pages. Muller, A. (2006), Analyse du comportement asymptotique de la distribution des pluies extrêmes en France.,
thesis, 246 pp, Université Montpellier II - I3M, Montpellier. Muller, A., J.-N. Bacro, and M. Lang (2008), Bayesian comparison of different rainfall depth-duration-frequency
relationships., Stochastic Environmental Research and Risk Assessment, 22(1), 33-46. Muller, A., P. Arnaud, M. Lang, and J. Lavabre (2009), Uncertainties of extreme rainfall quantiles estimated by a
stochastic rainfall model and by a generalized Pareto distribution., Hydrological Sciences Journal, 54(3), 417-429. Musy, A., and C. Higy (2004), Hydrologie - Tome 1 : Une science de la nature., Presses Polytechniques et
Universitaires Romandes, 1, 314. Myers, V. A. (1967), Estimation of extreme precipitation for spillway design floods., Tech. Mem. WBTM HYDRO-5,
U.S. Weather Bur., Washington, D.C., 29 pages. Naulet, R. (2002), Utilisation de l’information des crues historiques pour une meilleure prédétermination du
risque d’inondation. Application au bassin de l’Ardèche à Vallon-Pont-d’Arc et St-Martind’Ardèche. Thèse, Université Joseph Fourier Grenoble, Université du Québec, Cemagref Lyon, Inrs-Ete Québec, (2002), 322p, Thèse, Université Joseph Fourier, Grenoble - Université du Québec, 322 pages.
Naulet, R., M. Lang, T. B. M. J. Ouarda, D. Coeur, B. Bobée, A. Recking, and D. Moussay (2005), Flood frequency analysis on the Ardèche river using French documentary sources from the two last centuries., Journal of Hydrology, Special Issue “Applications of palaeoflood hydrology and historical data in flood risk analysis »(312), 58-78.
Nelsen, R. B. (2006), An introduction to copulas, Springer Verlag.
113
Neppel, L., P. Arnaud, and J. Lavabre (2007a), Cartographie des pluies extrêmes - Comparaison de deux approches appliquées en milieu méditerranéen., Comptes-rendus de l'Académie des sciences Paris Sciences de la terre et des planètes, 339(2007), 820–830.
Neppel, L., P. Arnaud, and J. Lavabre (2007b), Cartographie des pluies extrêmes ; comparaison de deux approches appliquées en milieu méditerranéen, edited, pp. 820-830, Compte rendu à l'Académie des Sciences.
Neppel, L., B. Renard, M. Lang, P.-A. Ayral, D. Coeur, E. Gaume, N. Jacob, O. Payrastre, P. K., and F. Vinet (2010), Flood frequency analysis using historical data: accounting for random and systematic errors. , Hydrological Sciences Journal, 52(2), 192-208.
Neppel, L., P. Arnaud, F. Borchi, J. Carreau, F. Garavaglia, M. Lang, E. Paquet, B. Renard, J. M. Soubeyroux, and J. M. Veysseire (2014), Résultats du projet Extraflo sur la comparaison des méthodes d'estimation des pluies extrêmes en France, La Houille Blanche - Revue Internationale de l'Eau, 2(2014), 14-19.
Neyman, J., and E. Scott (1958), Statistical approach to problems of cosmology., Journal of Royal Statistical Society, seris b (methodological), 20(1), 1-43.
Organde, D., P. Arnaud, and J.-A. fine (2012), Régionalisation d'une méthode de prédétermination de crue sur l'ensemble du territoire français : la méthode SHYREG, Revue des Sciences de l’Eau, in press.
Organde, D., P. Arnaud, J.-A. Fine, C. Fouchier, N. Folton, and J. Lavabre (2013), Régionalisation d'une méthode de prédétermination de crue sur l'ensemble du territoire français : la méthode SHYREG, Revue des Sciences de l’Eau, 26(1), 65-78.
Ouarda, T. B. M. J., P. F. Rasmussen, B. Bobée, and J. Bernier (1998), Utilisation de l'information historique en analyse hydrologique fréquentielle, Revue de Sciences de l'Eau, 11(n° spécial), 41-49.
Over, T., and V. K. Gupta (1994), Statistical analysis of mesoscale rainfall : dependence of a random cascade generator on large scale forcing, Journal of Applied Meteorology, 33, 1526-1542.
Paquet, E., J. Gailhard, and R. Garçon (2006), Evolution de la méthode du Gradex : approche par type de temps et modélisation hydrologique, La houille blanche, 5(2006).
Paquet, E., F. Garavaglia, R. Garçon, and J. Gailhard (2013), The SCHADEX method: A semi-continuous rainfall–runoff simulation for extreme flood estimation, Journal of Hydrology, 495(0), 23-37.
Paquet, E., Y. Aubert, P. Arnaud, P. Royet, and J.-A. Fine (2014), Prédétermination des crues et côtes de projet par les méthodes SHYPRE et SCHADEX – Application à un aménagement fictif sur le Tech, La Houille Blanche - Revue Internationale de l'Eau, 5(2014), 61-68.
Payrastre, O., E. Gaume, and H. Andrieu (2011), Usefulness of historical information for flood frequency analyses: developments based on a case study., Water Resources Research, 47(W08511).
Perrin, C., C. Michel, and V. Andreassian (2001), Does a large number of parameters enhance model performance? Comparative assessment of common catchment model structures on 429 catchments, Journal of Hydrology, 242(3-4), 275-301.
Pickands, J. (1975), Statistical inference using extreme order statistics, Ann. Stat., 3, 119-131. Pujol, N., L. Neppel, and R. Sabatier (2007), Regional tests for trend detection in maximum precipitation series in
the French Mediterranean region, Hydrol. Sci. J, 52(5), 956-973. Renard, B. (2006), Détection et prise en compte d'éventuels impacts du changement climatique sur les extrêmes
hydrologiques en France, thesis, INP Grenoble. Renard, B., V. Garreta, and M. Lang (2006), An application of Bayesian analysis and Markov chain Monte Carlo
methods to the estimation of a regional trend in annual maxima., Water Resources Research, 42(W12422, doi:10.1029/2005WR004591), 17 pages.
Renard, B., et al. (2013), Data-based comparison of frequency analysis methods: A general framework, Water Resources Research, 49(2), 825-843.
Ribatet, M., E. Sauquet, J.-M. Grésillon, and T. B. M. J. Ouarda (2007), A regional Bayesian POT model for flood frequency analysis., Stochastic Environmental Research and Risk Assessment, 21(4), 327-339.
Rodriguez-Iturbe, I., and J. B. Valdes (1979), The Geomorphologic structure of Hydrologic Response., Water Resources Research, 15(6), 1409-1420.
Rodriguez-Iturbe, I., D. R. Cox, and F. R. S. e. V. Isham (1987), Some models for rainfall based on stochastic point processes., Proc. Royal Society London, A410, 269-288.
Rodriguez Iturbe, I., and P. S. Eagleson (1987), Mathematical methods of rainstorm events in space and time, Water Resources Research, 23(1), 181-190.
Rossi, F., M. Fiorentino, and P. Versace (1984), Two component extreme value distribution for flood frequency analysis., Water Resources Research, 20(7), 847-856.
Salvadori, G., C. De Michele, N. T. Kottegoda, and R. Rosso (2007), Extremes in nature : an approach using copulas, Springer.
Saporta, G. (2006), Probabilites, analyse des donnees et statistique.
114
Sauquet, E., L. Gottschalk, and E. Leblois (2000), Mapping average annual runoff: a hierarchical approach applying a stochastic interpolation scheme, Hydrological Sciences Journal, 45, 799-815.
Schönwiese, C. D., and J. Rapp (1997), Climate Trend Atlas of Europe Based on Observations, 1891-1990, Kluwer Academic Pub.
Shen, H. W., G. J. Koch, and J. T. B. Obeysekera (1990), Physically based flood features and frequencies., Journal of Hydraulic Engineering, 116(4), 494-514.
Sighomnou, D., and M. Desbordes (1988), Recherche d'un modèle de pluie de projet adapté aux précipitations de la zone tropicale africaine., Hydrologie continentale, 3(2), 131-139.
Sklar, A. (1959), Fonctions de répartition à n dimensions et leurs marges0, Publ. Inst, Statistics Univ. Paris(8), 229-231.
Skoien, J. O., R. Merz, and G. Bloschl (2006), Top-kriging – geostatistics on stream networks, Hydrology and Earth System Sciences, 10(2006), 277-287.
Sol, B., and C. Desouches (2005), Spatialisation à résolution kilométrique sur la France de paramètres liés aux précipitations. , Rapport d’étude Météo-France., Convention Météo-France DPPR n°03/1735., 41 pages.
Stedinger, J. R., and G. D. Tasker (1985), Regional hydrologic analysis: 1. Ordinary, weighted and genaralized least squares compared., Water Resources Research, 21(9), 1421-1432.
Sveinsson, O. G. B., J. D. Salas, and D. C. Boes (2003), Uncertainty of quantile estimators using the population index flood method, Water Resources Research, 39(8), SWC2.1-SWC2.20.
Tchiguirinskaia, I., P. Arnaud, J. Lavabre, and D. Schertzer (2008), Intercomparison of two stochastic methods to simulate heavy rains and floods. Résumé, paper presented at 2nd International HyMeX Workshop, 2-4 juin 2008. , Ecole Polytechnique, Palaiseau, France.
Thompson, C. S., P. J. Thomson, and X. Zheng (2007), Fitting a multisite daily rainfall model to New Zealand data, Journal of Hydrology, 340(1-2), 25-39.
Tourasse, P. (1981), Analyses spatiales et temporelles des précipitations et utilisation opérationnelle dans un système de prévision de crues. Application aux régions cévenoles., Thèse INPG, Grenoble, 190 pages.
UNISDR (2009), Terminologie pour la prévention des risques de catastrophe, 39. Veysseire, J. M., J. M. Soubeyroux, P. Arnaud, F. Garavaglia, F. Borchi, and R. Fantin (2011), Inter-comparaison
des méthodes probabilistes : comparaison des méthodes locales pour l’estimation des pluies extrêmes, in Projet ANR-08-RISK-03-01, edited, p. 44.
Veysseire, J. M., J. M. Soubeyroux, P. Arnaud, F. Garavaglia, F. Borchi, and R. Fantin (2012), Inter-comparaison des méthodes probabilistes. Rapport III.1 comparaison des méthodes locales pour l’estimation des pluies extrêmes, in Projet ANR-08-RISK-03-01, edited, p. 44.
Wasson, J. G., A. Chandesris, H. Pella, and L. Blanc (2002), Définition des hydro-écorégions françaises métropolitaines., Rapport final Cemagref-MEDD.
Waymire, E., and V. K. Gupta (1981), The mathematical structure of rainfall representations : a review of the stochastic rainfall models., Water Resources Research, 17(5), 1261-1272.
Waymire, E., V. K. Gupta, and I. Rodriguez Iturbe (1984), A Spectral Theory of Rainfall Intensity at the Meso-β Scale, Water Resources Research, 20(10), 1453-1465.
Weibull, W. (1951), A statistical distribution function of wide applicability, J. Appl. Mech.-Trans. ASME, 18(3), 293-297.
Weisse, A. K., and P. Bois (2001), Topographic effects on statistical characteristics of heavy rainfall and mapping in the French Alps, J. Appl. Meteor., 40(4), 720-740.
Willems, P. (2001), A spatial rainfall generator for small spatial scales, Journal of Hydrology, 252(126-144). Willems, P., et al. (2012), Rewiew of European simulation methods for flood-frequency-estimation. WG3: Flood
frequency analysis using rainfall-runoff methods., Report of Cost Action ES0901., 66 pages. Xoplaki, E., l.-R. J. F. Gonz\'a, J. Luterbacher, and H. Wanner (2004), Wet season Mediterranean precipitation
variability: influence of large-scale dynamics and trends, Climate Dynamics, 23(1), 63-78. Yang, X. (1993), Mise au point d'une méthode d'utilisation d'un modèle pluie-débit conceptuel pour la prévision
des crues en temps réel, thesis, 205 pp, Ecole Nationale des Ponts et Chaussées, CERGRENE. Zhai, P., A. Sun, F. Ren, X. Liu, B. Gao, and Q. Zhang (1999), Changes of Climate Extremes in China, Climatic
Change, 42(1), 203-218. Zhang, X., L. A. Vincent, W. D. Hogg, and A. Niitsoo (2000), Temperature and Precipitation Trends in Canada
During the 20th Century, Atmosphere-Ocean, 38(3), 395-429.