simulations numériques
DESCRIPTION
PN. Simulations Numériques. Réflexions -- Prospective du PNG ASSNA- 15 Décembre 2003. Notre place dans le monde. 3ème en Europe, après Allemagne et UK en performances 5ème mondial (USA, Japon). From Top500 de Nov 2003. Evolution des performances. - PowerPoint PPT PresentationTRANSCRIPT
Simulations Numériques
Réflexions -- Prospective du PNG
ASSNA- 15 Décembre 2003
PN
2
Notre place dans le monde
From Top500 de Nov 2003
3ème en Europe, aprèsAllemagne et UKen performances
5ème mondial (USA, Japon)
3
Evolution des performances
IDRIS: Cray T3E, puis IBM Power 3, 4, NEC SX 5Parmi les Top10: Earth Simulator by NEC est le num 1 (40 Teraflops)Perf = sum des 12 suivants!
Cines: IBM Pow 32 SGI OriginTop15: 11 USA, 2 Japon, 1 Chine1 France: CEABruyères le ChatelCompaq-HP15ème place!
4
Statistiques à partir des TOP-500
5
6
Grapes dans le monde
7
Algorithmes variés Ncorps pur t ~ N2
Grape: machine dédiée (PP)GRAPE-5 14 s/dt pour 128 000 particules ou Tree 106 part.
Codes FFT, PM (particule-mesh) en N log N
Codes en arbre en N log N (Barnes/Hut, GADGET..)
Code P3M (PP-PM) et Adaptive P3M Couchman HYDRA
Variante TPM pour Tree/Particle-Mesh, introduit par Xu (1995) incorpore à la partie PM un code en arbre pour la partie PP. Avec TPM, 109 particules (Bode et al 2000) – le record actuel
8
Algorithmes (suite) HPM pour Hierarchical Particle-Mesh Villumsen 1989
ART pour Adaptive Refinement Tree Kravstov et al
AMR Adaptive Mesh Refinement RAMSES (Teyssier 02)
MLAPM de Knebe et al 2000, enzo de Bryan et al 2002hydrodynamique + auto-gravité. Efficacité de la résolution de l'équation de Poisson sur des grilles + grande dynamique des sous-grilles.
Voir sur NEMO une série d’algorithmes et de sitesdisponibles http://bima.astro.umd.edu/nemo/
9
Performances scalaires Test effectué sur une évolution de 5 Myr avec 100 000 particules stellaires et 20 000 particules de gaz en PMSPH (sans formation stellaire) avec les conditions initiales NGAA (H. Wozniak) ____________________________________________________|machine | durée (min 19 steps) | durée par dt (sec) ||------------------------------------------------------------------------------|| NEC SX5 (Idris) en scalaire | 2.953 | 9.3 ||------------------------------------------------------------------------------|| DIGITAL EV 766 Mhz (LAM) | 2.824 | 8.9 ||------------------------------------------------------------------------------|| AMD-Athlon 1.4 Ghz (PC) | 2.158 | 6.8 ||------------------------------------------------------------------------------|| IBM SP3 Power 3 (Idris) | 1.616 | 5.1 ||------------------------------------------------------------------------------|| COMPAQ DS20E (LAM) | 1.119 | 3.5 |
10
Comparaison de divers codes/machines FFT 1283 utile (méthode de James), 360 000 particules(2 millions de cellules) + collisions de 150 000 particules1sec CPU /dt sur la NEC SX5: 99.5% Vectorisation ratio
Beam-scheme ou SPH, ~5sec/dt
Polaire 2D (64 x 96) 100 000 + collisions 1sec/dtsur COMPAQ DS20E (scalaire)
Tree-code 15-30sec, pour 100 000 part. en scalaire (DS20E)
GADGET: performances comparables + parallélisation
Simul cosmologique (Ninin-Sémelin) 500 000 particules de z=50 à z=4.34 processors= 8269s 8 proc= 4074 16 proc= 2887
11
BH86
falcON
FVFPS
BH86, treecode Barnes/Hut, = 0.8
falcON: Dehnen JCP 2002, 10xFaster and momentum-conserving C++tree + FMM expansionFVFPS: Londrillo et al 2003 (F90 + MPI) = (M) min=0.5
FVFPS
Nb of processors
12
Mémoire vive (RAM)
La mémoire a beaucoup progressé aussi, les grosses simulationsdemandent des machines parallèles (mais le CPU aussi!)
Pour les FFT2563 0.13 Go 5123 1 Go (en Real*8, 64bits)
10 Tableaux ~100 Mo pour un million de particules
106 part 0.1 Godonc 107 particules possibles avec 1 Go
Par proc aujourd'hui, il est courant d'avoir 4Go RAM(ex. AMD- Opteron, Alpha-servers...)
13
Equipes "galaxies" dans le monde
USARutgers: Sellwood, Merritt et al. Grape6 +machine //, ou beowulf. Codes PM et N2 pour les AGN
Hawaii: Barnes et al, TreeSPH
Museum of Natural history (NY): PF: Grande concentration Grape6,surtout pour l’étude des amas globulaires. Piet Hut et al.
Kentucky & Georgia Tech. Shlosman & Heller. PF : SPH. Couplage avec obs parties centrales des galaxies.
Case Western Chris Mihos. PF: SPH, interactionsMaryland: Peter Teuben: NEMO
Santa-Cruz, Harvard: Hernquist, TreeSPH
14
CANADACITA : Dubinski, O Neil et al PF : paralléllisme
JAPONHongo (Tokyo) : J. Makino, Y. Funato et al. Grapes +6PF : très grande expérience grapes.
Komaba (Tokyo) : Fukushige et al. Plusieurs Grapes
Mitaka (Tokyo) : Wada et al. Surtout SPH. Concentrationde grapes: 16 grape5, réparties sur 8 nœuds+ système de grape6
Rieken (Tokyo) : Ebisuzaki, Kawai et al.Centre des grapes MDNoguchi Sendai, Habe Hokaido, Bekki, Hozumi, Kyoto etc.
15
AUSTRALIESwinbourne commence
ALLEMAGNEPotsdam : Steinmetz, Dehnen, Klessen et al. 8 grape5 sur 8 noeuds d'un beowulf, PF: cosmologie.
Heidelberg MPI : Burkert, Naab et al. Grapes. 1 grape6, plusieursgrape5 et grape3. PF: Interactions et fusions de galaxies à disque, SPH,
Kiel : Hensler, Theis, Kroupa, Harfst et al. 1 grape3. PF : chemodynamique.Heidelberg Rechen Institut : Spurzem et al. PF : Coll Manheim
Munich: Springel et al GADGET
Ukraine: Berczik et al. PF: galaxies naines
16
UKCambridge : 1 grape6, surtout pour l’étude des amas globulaires.
SUISSEGenève : Pfenniger, Revaz, et al. Grand Beowulf. PF : structure orbitale et en dynamique des galaxies barrées.Basel : Gerhard, Samland et al. PF: notre Galaxie. SPH, chemodynZurich: Lilly, Carollo, Moore et al: nouveau groupe (PNG-PNC)
ESPAGNEPlusieurs beowulfs. Parmis eux Tarragone, Granada
ITALIEPadova: Lia, Carraro et al PF: populations stellaires
GRECEAthènes : Contopoulos, Patsis et al. grape3 PF:structure orbitale, chaos
17
Types de simulations « PNG »
1/ les codes type 'dynamique des galaxies'' (N corps, SPH, Hydro, ...)
2/ Synthèse de populations stellaires /évolutive
3/ hydro/transfert + physique atomique (noyaux actifs)
18
Type N-corps: France
1/ + formation stellaire "calibration spectro-photométrique et/ouchimique" (pas de réel feedback auto-cohérent) - Combes, Melchior, Bournaud, et al.- Wozniak & Michel-Dansac
2/ SSP + une dynamique simple Prantzos & Boissier
2/ + 3/ mais sans l'hydroMoy, Rocca & Fioc : PEGASE + CLOUDY(Rocca & Fioc : PEGASE 2 + diffusion poussières = transfert; public)
2/ + 3/Moy & Englmaier : PEGASE + CLOUDY + SPH (en cours)
19
1/ N-corps + gaz + chemoParis (Obs Paris, Meudon, CEA)Lyon (Obs + coll Genève?, Wozniak et al)Marseille (Athanassoula et al.)Strasbourg (Ibata, Boily, Pichon)Nice (code Hydra?)
2/ Synthèse de populations Paris (Charlot, Rocca, Moy, Fioc et al, PEGASE)Toulouse+Paris (Schaerer et al, Starburst+PHOTO)Besançon (Robin et al.), Meudon (Pelat et al)
A l’interface avec PNC: Simulations hybrides + SAMGalics (Guiderdoni et al.), Multizooms (Semelin, Combes)
20
Prospective et besoins
Orientations scientifiques à donner Thèmes à développer dans l'avenir?
1) Quantitatif plus de particules, plus de résolution2) Qualitatif: explorer les phénomènes physiques
Efforts à encourager:-- faut-il mettre plus de codes dans le domaine public?-- faut-il plus de coopérations entre groupes?-- faut-il des tâches de service (type CNAP?)-- postes fléchés?--aides: ingénieurs des centres nationaux?
21
Le Projet Horizon
A l'interface avec le PNC, besoin d'une base de données de simulations lourdes Projet à mener comme une manip spatialeLes produits seraient accessibles à tous, afin de préparer lesexpériences (Herschel, ALMA, VLT, JWST, etc…)
Projet de simulations de taille 100 fois supérieure à ce qui sefait actuellement: plus de dynamique, plus de physique
Effort mis à la visualisation, l'exploitation, en tant que basesde données, et Observatoire Virtuel
Teyssier, Colombi, Combes, Guiderdoni
22
Tâche de service CNAP liée à la modélisation numérique
Tâches de service nouvelles: activités numériques directement reliées aux TGE à la fois en amont (préparation des instruments), puis à leur exploitationMise à disposition de la communauté de codes numériquesCes codes comporteraient par exemple: logiciels de simulations à finalité astrophysique, Hydro et Transfert de Rayonnement, MHD, dynamique N-corps (TREE-SPH), de chimie quantique et de dynamique moléculaire spécifiques aux molécules d'intérêt astrophysique, etc..
Développés, mis à jour, documentés dans des centres spécialisés qui assureraient la portabilité, l'aide à l'utilisateur, sa formation (y compris en DEA, post-DEA), l'animation scientifique, etc..
23
Conclusions
Depuis l'effort de prospective de 2002-2003 (Colle-sur-Loup Mars03)
les chercheurs s'organisent, les équipes entreprennent des projets encommun, plus ambitieux
Le matériel progresse (IDRIS, et aussi méso-équipement, MPOPM,fermes de PC jeunes équipes (ATIP)
Réactions positives: dans un proche avenir, les équipes françaises pourraient revenir dans la compétition de haut niveau(avec postes nécessaires)
couplage avec les grands instrumentsbases de données, OV