-
Cosmologie: une simulation numérique a permis de faire tenir 25 milliards de galaxies sur un super-calculateur doté de 5.000 processeurs graphiques (GPU) en parallèle!____¤201706
Une étude, dont les résultats intitulés «PKDGRAV3: beyond trillion particle cosmological simulations for the next era of galaxy surveys» sont publiés dans la revue Computational Astrophysics and Cosmology, rapporte qu'une simulation numérique a permis de «faire tenir 25 milliards de galaxies (soit la bagatelle de 3 billions (3.1012) de particules)» sur «un super-calculateur doté de 5.000 processeurs graphiques (GPU) en parallèle».
Cette prouesse a été effectuée en vue «de mieux comprendre la formation de notre univers et notamment les phénomènes intervenant dans la dynamique de la matière noire et surtout de l'énergie noire, cette entité invisible qui constituerait 68% d'énergie de l'Univers».
Ces types de simulation vont en particulier contribuer au «calibrage du satellite Euclid, dont la mission est de comprendre l'origine de l'accélération de l'expansion de l'univers» (Du fait que la simulation ici présentée «repose sur l'hypothèse d'un univers en expansion régi par la loi de la gravitation», elle pourra permettre «de détecter la moindre déviation entre celle-ci et les futures mesures d'Euclid»).
Pour aboutir à la distribution spatiale actuelle de l'ensemble de la matière, que «les spécialistes appellent la 'toile d'araignée cosmique' (cosmic web)», la simulation s'est appuyée sur «la théorie de la gravitation énoncée par Einstein (la fameuse relativité générale)» avec pour conditions initiales les données du «rayonnement cosmologique de fond mesuré grâce au satellite Planck, lancé en 2009».
Cette procédure a permis de «prédire, à l'aide des lois de la physique, comment les petites fluctuations perçues par Planck dans les micro-ondes ont évolué pour donner lieu aux amas de galaxies et à la distribution actuelle d'énergie dans l'espace» avec une grande précision, puisque sont également prises en compte «les petites galaxies, souvent absentes de ce type de simulations» (plus précisément les galaxies au-dessus «de 10% de la taille de la Voie lactée, ce qui correspond approximativement à la taille du Grand nuage de Magellan»).
De plus, comme aujourd'hui «les physiciens sont obligés d'introduire la constante cosmologique dans les équations d'Einstein pour expliquer l'expansion, sujette à de houleux débats théoriques», l'enjeu de ces travaux est également «de constituer un large catalogue de simulations basées sur différents modèles de la physique».
Concrètement, la simulation numérique réalisée «n'a nécessité que 80 heures de calcul sur le super-calculateur suisse 'Piz Daint', doté de 5.000 processeurs graphiques (GPUs) fonctionnant en parallèle, grâce à la faible occupation en mémoire du programme réalisé, appelé PKDGRAV3»: soulignons que «l'algorithme numérique utilisé pour calculer la gravité, appelé méthode multipolaire rapide (en anglais, fast multipole method)», qui «n'avait auparavant jamais été transposée à l'architecture d'un supercalculateur parallèle», a permis de «déployer une force de frappe supplémentaire».
En outre, «le code a été optimisé pour les processeurs graphiques (GPUs), des microprocesseurs à l'origine développés pour les cartes graphiques», ce qui s'accorde avec le super-calculateur suisse, 'Piz Daint', qui «utilise justement des GPU». On peut dire, au bout du compte, que «c'est l'industrie du jeu vidéo qui a rendu possible» cette simulation astrophysique.
Tags : Cosmologie, 2017, Computational Astrophysics and Cosmology, Univers, matière noire, galaxies, GPU, Euclid, Planck, processeurs, cartes graphiques
-
Commentaires