Record-breaking run on Frontier sets new bar for simulating the universe in exascale era
Un record battu par Frontier établit une nouvelle norme pour la simulation de l'univers à l'ère de l'exascale
par Jeremy Rumsey, Oak Ridge National Laboratory
Un petit échantillon des simulations de Frontier révèle l'évolution de l'univers en expansion dans une région contenant un amas massif de galaxies depuis des milliards d'années jusqu'à nos jours (à gauche). Les zones rouges montrent des gaz plus chauds, avec des températures atteignant 100 millions de Kelvin ou plus. En zoomant (à droite), les particules traceuses d'étoiles suivent la formation des galaxies et leur mouvement au fil du temps. Crédit : Argonne National Laboratory, U.S Dept of Energy
L'univers vient de devenir beaucoup plus grand, du moins dans le monde des simulations informatiques. Début novembre, des chercheurs du laboratoire national d'Argonne du ministère de l'Énergie ont utilisé le supercalculateur le plus rapide de la planète pour exécuter la plus grande simulation astrophysique de l'univers jamais réalisée.
Cette réussite a été réalisée à l'aide du supercalculateur Frontier du laboratoire national d'Oak Ridge. Ces calculs établissent une nouvelle référence pour les simulations d'hydrodynamique cosmologique et fournissent une nouvelle base pour simuler simultanément la physique de la matière atomique et de la matière noire. La taille de la simulation correspond aux relevés effectués par de grands observatoires de télescopes, un exploit qui jusqu'à présent n'était pas possible à cette échelle.
"Il y a deux composants dans l'univers : la matière noire - qui, pour autant que nous le sachions, n'interagit que par gravitation - et la matière conventionnelle, ou matière atomique", a déclaré le chef de projet Salman Habib, directeur de la division des sciences informatiques à Argonne.
"Donc, si nous voulons savoir ce que fait l'univers, nous devons simuler ces deux choses : la gravité ainsi que toutes les autres physiques, y compris le gaz chaud et la formation des étoiles, des trous noirs et des galaxies", a-t-il déclaré. "Le 'cuisine de l'astrophysique' pour ainsi dire. Ces simulations sont ce que nous appelons des simulations d'hydrodynamique cosmologique".
Sans surprise, les simulations d'hydrodynamique cosmologique sont beaucoup plus coûteuses en termes de calcul et beaucoup plus difficiles à réaliser que les simulations d'un univers en expansion qui ne prennent en compte que les effets de la gravité.
« Par exemple, si nous devions simuler une grande partie de l'univers étudiée par l'un des grands télescopes tels que l'observatoire Rubin au Chili, nous parlerions d'énormes morceaux de temps - des milliards d'années d'expansion », a déclaré Habib. « Jusqu'à récemment, nous ne pouvions même pas imaginer faire une simulation aussi importante, sauf dans l'approximation de la gravité uniquement. »
Le code du supercalculateur utilisé dans la simulation s'appelle HACC, abréviation de Hardware/Hybrid Accelerated Cosmology Code. Il a été développé il y a environ 15 ans pour des machines à l'échelle du péta-échelle. En 2012 et 2013, HACC a été finaliste du prix Gordon Bell en informatique de l'Association for Computing Machinery.
Le supercalculateur le plus rapide de la planète, capable d'exécuter la plus grande simulation astrophysique de l'univers jamais réalisée. Ce film montre la formation du plus grand objet de la simulation Frontier-E. Le panneau de gauche montre un sous-volume de 64x64x76 Mpc/h de la simulation (environ 1e-5 du volume de simulation complet) autour du grand objet, le panneau de droite offrant un aperçu plus détaillé. Dans chaque panneau, nous montrons le champ de densité du gaz coloré par sa température. Dans le panneau de droite, les cercles blancs montrent les particules d'étoiles et les cercles noirs ouverts montrent les particules AGN. Crédit : Argonne National Laboratory, U.S Dept. of Energy
Plus tard, HACC a été considérablement mis à niveau dans le cadre d'ExaSky, un projet spécial dirigé par Habib dans le cadre du projet Exascale Computing Project, ou ECP. Le projet a réuni des milliers d'experts pour développer des applications scientifiques avancées et des outils logiciels pour la prochaine vague de supercalculateurs de classe exascale capables d'effectuer plus d'un quintillion, ou un milliard de milliards, de calculs par seconde.
Dans le cadre d'ExaSky, l'équipe de recherche HACC a passé les sept dernières années à ajouter de nouvelles fonctionnalités au code et à le réoptimiser pour qu'il fonctionne sur des machines exascale alimentées par des accélérateurs GPU. L'ECP exigeait que les codes s'exécutent environ 50 fois plus vite qu'auparavant sur Titan, le supercalculateur le plus rapide au moment du lancement de l'ECP. Exécuté sur le supercalculateur Frontier de classe exascale, HACC était près de 300 fois plus rapide que l'exécution de référence.
Les nouvelles simulations ont atteint leurs performances record en utilisant environ 9 000 nœuds de calcul de Frontier, alimentés par des GPU AMD Instinct MI250X. Frontier est situé à l'Oak Ridge Leadership Computing Facility, ou OLCF, de l'ORNL.
Découvrez les dernières nouveautés en matière de science, de technologie et d'espace avec plus de 100 000 abonnés qui comptent sur Phys.org pour des informations quotidiennes. Inscrivez-vous à notre newsletter gratuite et recevez des mises à jour sur les avancées, les innovations et les recherches qui comptent, quotidiennement ou hebdomadairement.
"Ce n'est pas seulement la taille du domaine physique qui est nécessaire pour faire une comparaison directe avec les observations d'enquête modernes rendues possibles par le calcul exascale", a déclaré Bronson Messer, directeur scientifique de l'OLCF. "C'est aussi le réalisme physique ajouté par l'inclusion des baryons et de toute la physique dynamique qui fait de cette simulation un véritable tour de force pour Frontier."
Outre Habib, les membres de l'équipe HACC impliqués dans la réalisation et d'autres simulations menant au travail sur Frontier incluent Michael Buehlmann, JD Emberson, Katrin Heitmann, Patricia Larsen, Adrian Pope, Esteban Rangel et Nicholas Frontiere qui ont dirigé les simulations Frontier.
Avant les exécutions sur Frontier, des analyses de paramètres pour HACC ont été effectuées sur le supercalculateur Perlmutter au National Energy Research Scientific Computing Center, ou NERSC, au Lawrence Berkeley National Laboratory. HACC a également été exécuté à grande échelle sur le supercalculateur Aurora de classe exascale à Argonne Leadership C
XXXXXXXXXXX
COMMENTAIRES
Bien plus que ce genre de performances j attends de Lawrance Livermore Lab des nouvelles sir leurs dernièes experimentation de libération d 'éenergie par fusion nucléaire des atomes légers .....
XXXXXXXXXXXProvided by Oak Ridge National Laboratory
Explore further
Frontier supercomputer hits new highs in third year of exascale
Feedback to editors
Aucun commentaire:
Enregistrer un commentaire