dimanche 30 novembre 2025

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER

 

samedi 29 novembre 2025

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER

 



Supercomputer simulates quantum chip in unprecedented detail

An supercalculateur simule une puce quantique avec une précision inédite


Par Elizabeth Ball, Laboratoire national Lawrence Berkeley


Édité par Gaby Clark, relu par Robert Egan


Note de la rédaction


Une équipe de chercheurs a utilisé la quasi-totalité des 7 168 GPU NVIDIA du supercalculateur Perlmutter pendant 24 heures pour capturer la structure et le fonctionnement d'une puce multicouche. Cette puce mesure 10 millimètres carrés et 0,3 millimètre d'épaisseur, avec des gravures d'un micron seulement. Crédit : Zhi Jackie Yao/Berkeley Lab


Un vaste réseau de chercheurs du Laboratoire national Lawrence Berkeley (Berkeley Lab) et de l'Université de Californie à Berkeley a collaboré pour réaliser une simulation inédite d'une micropuce quantique, une avancée majeure dans le perfectionnement des puces nécessaires à cette technologie de nouvelle génération. La simulation a utilisé plus de 7 000 GPU NVIDIA sur le supercalculateur Perlmutter du National Energy Research Scientific Computing Center (NERSC), une infrastructure de calcul du Département de l'Énergie des États-Unis (DOE).


La modélisation des puces quantiques permet aux chercheurs de comprendre leur fonctionnement et leurs performances avant leur fabrication, garantissant ainsi leur bon fonctionnement et la détection d'éventuels problèmes. Zhi Jackie Yao et Andy Nonaka, chercheurs au sein du Quantum Systems Accelerator (QSA) et de la division Applied Mathematics and Computational Research (AMCR) du Berkeley Lab, développent des modèles électromagnétiques pour simuler ces puces, une étape cruciale dans le processus de production de matériel quantique plus performant.


« Le modèle de calcul prédit l'impact des choix de conception sur la propagation des ondes électromagnétiques dans la puce », explique Nonaka, « afin de garantir un couplage de signal optimal et d'éviter toute diaphonie indésirable. »


Ici, ils ont utilisé leur outil de modélisation exascale, ARTEMIS, pour modéliser et optimiser une puce conçue dans le cadre d'une collaboration entre le Laboratoire de nanoélectronique quantique d'Irfan Siddiqi à l'Université de Californie à Berkeley et le banc d'essai quantique avancé (AQT) du Berkeley Lab. Ces travaux seront présentés lors d'une démonstration technique par Yao à la Conférence internationale sur le calcul haute performance, les réseaux, le stockage et l'analyse (SC25).


La conception de puces quantiques intègre l'ingénierie micro-ondes traditionnelle ainsi que la physique avancée des basses températures. De ce fait, un outil de modélisation électromagnétique classique comme ARTEMIS, développé dans le cadre du projet de calcul exascale du Département de l'Énergie des États-Unis (DOE), s'avère un choix naturel pour ce type de modélisation.


Une simulation de grande envergure pour une puce minuscule


Toutes les simulations de puces quantiques ne nécessitent pas une telle puissance de calcul, mais la modélisation des détails infimes de cette puce minuscule et extrêmement complexe a mobilisé la quasi-totalité de la puissance du processeur Perlmutter. Les chercheurs ont utilisé la quasi-totalité des 7 168 GPU NVIDIA pendant 24 heures pour modéliser la structure et le fonctionnement d'une puce multicouche de seulement 10 millimètres carrés et 0,3 millimètre d'épaisseur, avec des gravures d'un micron de large.


« À ma connaissance, personne n'a jamais réalisé de modélisation physique de circuits microélectroniques à l'échelle d'un système Perlmutter complet. Nous avons utilisé près de 7 000 GPU », a déclaré Nonaka.


« Nous avons discrétisé la puce en 11 milliards de cellules de grille. Nous avons pu effectuer plus d'un million d'itérations temporelles en sept heures, ce qui nous a permis d'évaluer trois configurations de circuit en une seule journée sur Perlmutter. Ces simulations auraient été impossibles dans ce délai sans le système complet.»


C'est ce niveau de détail qui rend cette simulation unique. Alors que d'autres simulations ont tendance à traiter les puces comme des « boîtes noires » en raison des limitations des capacités de modélisation, l'utilisation des GPU massivement parallèles de Perlmutter a donné à Yao et Nonaka la puissance de calcul nécessaire pour examiner les détails physiques et montrer le mécanisme de la puce en action.

C’est ce niveau de détail qui rend cette simulation unique. Alors que d’autres simulations ont tendance à considérer les puces comme des « boîtes noires » en raison des limitations de modélisation, l’utilisation des GPU massivement parallèles de Perlmutter a permis à Yao et Nonaka d’exploiter la puissance de calcul nécessaire pour analyser les détails physiques et révéler le fonctionnement du mécanisme de la puce.


« Nous effectuons une simulation physique complète, ce qui signifie que nous prenons en compte le matériau utilisé sur la puce, son agencement, le câblage des fils métalliques (niobium ou autres), la construction des résonateurs, la taille, la forme et le matériau utilisé », explique Yao. « Ces détails physiques sont essentiels à nos yeux et nous les intégrons à notre modèle. »


Découvrez les dernières actualités scientifiques, technologiques et spatiales grâce à plus de 100 000 abonnés qui font confiance à Phys.org pour leurs analyses quotidiennes. Inscrivez-vous à notre newsletter gratuite et recevez chaque jour ou chaque semaine des informations sur les percées, les innovations et les recherches importantes.


Courriel


Outre sa représentation détaillée de la puce, la simulation a reproduit les conditions des expériences en laboratoire : la communication entre les qubits et avec les autres composants du circuit quantique.


La combinaison de ces qualités – une attention particulière portée à la conception physique de la puce et la capacité de simuler en temps réel – contribue à l’unicité de cette simulation, explique Yao : « Cette combinaison est essentielle, car nous utilisons l’équation aux dérivées partielles, l’équation de Maxwell, et nous l’appliquons au domaine temporel afin d’intégrer les comportements non linéaires. L’ensemble de ces éléments nous confère une capacité unique.»


Le NERSC a soutenu de nombreux projets en sciences de l’information quantique grâce au programme « Quantum Information Science @ Perlmutter », qui octroie des heures de la réserve discrétionnaire du directeur sur le supercalculateur Perlmutter à des projets quantiques prometteurs. L’équipe affirme néanmoins que la réalisation d’une simulation de cette envergure a représenté un défi stimulant.


« Ce projet se distingue comme l'un des plus ambitieux jamais menés sur Perlmutter dans le domaine quantique. Il exploite les capacités de calcul d'ARTEMIS et du NERSC pour capturer les détails du matériel quantique sur plus de quatre ordres de grandeur », a déclaré Katie Klymko, ingénieure en informatique quantique au NERSC et ayant participé au projet.


Modélisation de la prochaine étape


L'équipe prévoit ensuite de réaliser davantage de simulations afin d'affiner sa compréhension quantitative de la conception de la puce et d'observer son fonctionnement au sein d'un système plus vaste.


« Nous souhaitons effectuer une simulation plus quantitative afin de pouvoir la post-traiter et quantifier le comportement spectral du système », a expliqué Yao. « Nous voulons observer comment le qubit entre en résonance avec le reste du circuit. Dans le domaine fréquentiel, nous souhaitons la comparer à d'autres simulations fréquentielles pour nous assurer de sa validité quantitative. »


Enfin, la simulation sera soumise à l'épreuve ultime : la comparaison avec le monde physique. Une fois la puce fabriquée et testée, Yao et Nonaka évalueront la précision de leur modèle et procéderont aux ajustements nécessaires.


Nonaka et Yao ont souligné qu'une simulation aussi détaillée de cette technologie n'aurait pas été possible sans une étroite collaboration au sein de la communauté de Berkeley, de l'AMCR au QSA, en passant par l'AQT et le NERSC, qui a apporté son expertise et sa puissance de calcul. Cette collaboration a permis d'obtenir des résultats importants pour l'avancement de la science, a déclaré Bert de Jong, directeur du QSA.


« Cette simulation inédite, rendue possible par un large partenariat entre scientifiques et ingénieurs, représente une avancée cruciale pour accélérer la conception et le développement de matériel quantique », a-t-il affirmé. « Des puces quantiques plus puissantes et plus performantes offriront de nouvelles possibilités aux chercheurs et ouvriront de nouvelles perspectives scientifiques. »



XXXXXXXXXXX


RESUME


Un supercalculateur simule une puce quantique avec une précision inédite


Une micropuce quantique a été simulée avec une précision sans précédent grâce à plus de 7 000 GPU sur le supercalculateur Perlmutter. Ce dispositif modélise 11 milliards de cellules de la grille et capture des caractéristiques physiques fines telles que la composition des matériaux et le câblage. Cette approche permet de prédire avec précision les performances et le comportement électromagnétique de la puce, contribuant ainsi à l’optimisation et au développement de matériel quantique avancé.


XXXXXXXXX


COMMENTAIRES


Il s 'agit d un développement technologique  important  pour les projets de Lawrance  Berkeley ;mais au fait que fait le laboratoire de Berkeley ?

Premier laboratoire du système fédéral de laboratoires, le LBNL compte parmi ses physiciens et chimistes neuf lauréats du prix Nobel. Aujourd'hui, ce laboratoire pluridisciplinaire mène des recherches sur les matériaux avancés, les sciences de la vie, l'efficacité énergétique, les détecteurs et les accélérateurs, répondant ainsi aux besoins du pays en matière de technologie et d'environnement.

xxxxx

Quel est plus précisément 

le rôle du laboratoire ?

On peut dire que l'objectif général du laboratoire est de fournir des données analytiques d'une exactitude et d'une fiabilité adéquates en un laps de temps acceptable et pour un coût convenable. ...et  cela pout tout sujert  ''sensible''  et discret  .


XXXXXX

Provided by Lawrence Berkeley National Laboratory 


Explore further


First full simulation of 50-qubit universal quantum computer achieved


vendredi 28 novembre 2025

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER

 





New magnetic component discovered in the Faraday effect after nearly two centuries

Découverte d'une nouvelle composante magnétique dans l'effet Faraday après près de deux siècles


Université hébraïque de Jérusalem


Édité par Lisa Lock, révisé par Robert Egan


Notes de la rédaction


Effet Faraday. Crédit : Enrique Sahagún


Des chercheurs de l'Université hébraïque de Jérusalem ont découvert que la composante magnétique de la lumière joue un rôle direct dans l'effet Faraday, remettant en question une hypothèse vieille de 180 ans selon laquelle seul son champ électrique importait.


Leurs résultats, publiés dans Scientific Reports, montrent que la lumière peut influencer magnétiquement la matière, et pas seulement l'illuminer. Cette découverte ouvre de nouvelles perspectives en optique, en spintronique et en technologies quantiques.


L'étude a été menée par le Dr Amir Capua et Benjamin Assouline de l'Institut de génie électrique et de physique appliquée de l'Université hébraïque de Jérusalem. Elle présente la première preuve théorique que le champ magnétique oscillant de la lumière contribue directement à l'effet Faraday, un phénomène dans lequel la polarisation de la lumière tourne lorsqu'elle traverse un matériau exposé à un champ magnétique constant.


« En termes simples, il s'agit d'une interaction entre la lumière et le magnétisme », explique le Dr Capua. « Le champ magnétique statique "tord" la lumière, et celle-ci, à son tour, révèle les propriétés magnétiques du matériau. Nous avons constaté que la composante magnétique de la lumière a un effet de premier ordre ; elle est étonnamment active dans ce processus. »


Depuis sa découverte en 1845 par le scientifique britannique Michael Faraday, cet effet était attribué à l'interaction entre le champ électrique de la lumière et les charges électriques de la matière. Cependant, cette nouvelle recherche démontre que le champ magnétique de la lumière, longtemps considéré comme négligeable, contribue de manière directe et mesurable à cet effet en interagissant avec les spins.


À l'aide de calculs avancés basés sur l'équation de Landau-Lifshitz-Gilbert (LLG), qui décrit le mouvement des spins dans les systèmes magnétiques, les chercheurs ont montré que le champ magnétique de la lumière peut générer un couple magnétique à l'intérieur du matériau, tout comme un champ magnétique statique.


« Autrement dit », explique Capua, « la lumière n'illumine pas seulement la matière, elle l'influence magnétiquement. »


Pour quantifier cette influence, l'équipe a appliqué son modèle au grenat de terbium-gallium (TGG), un cristal couramment utilisé pour mesurer l'effet Faraday. Ils ont constaté que le champ magnétique de la lumière représente environ 17 % de la rotation observée dans le spectre visible et jusqu'à 70 % dans l'infrarouge.

« Nos résultats montrent que la lumière interagit avec la matière non seulement par son champ électrique, mais aussi par son champ magnétique, une composante largement négligée jusqu'à présent », explique Assouline.


Cette découverte ouvre la voie à de nouvelles perspectives en optique et en magnétisme, notamment pour des applications en spintronique, en stockage optique de données et en contrôle magnétique par la lumière. Elle pourrait même contribuer au développement futur des technologies d'informatique quantique basées sur le spin.



XXXXXXXXXXXXXXXXXX


 RESUME


Découverte d'une nouvelle composante magnétique dans l'effet Faraday après près de deux siècles


La composante magnétique de la lumière contribue directement à l'effet Faraday, contrairement à l'idée longtemps admise que seul le champ électrique était impliqué. Les calculs indiquent que cette contribution magnétique représente jusqu'à 17 % de la rotation de polarisation dans le visible et jusqu'à 70 % dans l'infrarouge, ouvrant de nouvelles perspectives pour les technologies optiques et spintroniques.

XXXXXXXXXXXXXXXX


COMMENTAIRES


Poour mes élèves j'espère qu'il est notoire que la lumiere visible naturelle 

se propâge   avec un plan de polarisation  en rotation permanente ...Mais

ce qui est interessant c 'est de noter  que  celle ci est due à un vecteur magnetique variable avec la fréquence   .. ????

XXXXXXXXXXXX

More information: Faraday Effects Emerging from the Optical Magnetic Field, Scientific Reports (2025). DOI: 10.1038/s41598-025-24492-9


Journal information: Scientific Reports 


Provided by Hebrew University of Jerusalem 


Explore further


Magnetic fields can map the universe—here's how


jeudi 27 novembre 2025

sciences energies environnement blogger

 





Physicists demonstrate the constancy of the speed of light with unprecedented accuracy


Des physiciens démontrent la constance de la vitesse de la lumière avec une précision sans précédent


Université autonome de Barcelone


Édité par Gaby Clark, révisé par Robert Egan


Notes de l'éditeur


Crédit : Domaine public CC0


En 1887, l'une des expériences les plus importantes de l'histoire de la physique eut lieu. Les scientifiques américains Michelson et Morley ne parvinrent pas à mesurer la vitesse de la Terre en comparant la vitesse de la lumière dans le sens du mouvement terrestre à celle perpendiculaire à ce mouvement. Cette mesure nulle, sans doute la plus importante de l'histoire des sciences, amena Einstein à postuler la constance de la vitesse de la lumière et, par conséquent, à formuler sa théorie de la relativité restreinte.


Cette théorie implique que toutes les lois de la physique sont les mêmes, indépendamment du mouvement relatif entre les observateurs – un concept connu sous le nom d'invariance de Lorentz.


Parallèlement, la théorie quantique s'est développée, l'invariance de Lorentz étant au cœur de tous ses cadres théoriques, en particulier la théorie quantique des champs et le modèle standard de la physique des particules. Cette dernière est la théorie la plus rigoureusement testée jamais développée et a été vérifiée avec une précision incroyable.


Pourquoi les physiciens remettent-ils encore en question l'invariance de Lorentz ?


Alors, pourquoi douter de l'invariance de Lorentz après 115 ans de succès ininterrompu ?


La réponse commence une fois de plus avec Albert Einstein, cette fois avec sa théorie de la relativité générale, qui décrit la gravité comme une déformation de la géométrie. Une théorie qui s'est également révélée extrêmement performante, ayant été testée avec une grande précision dans de nombreuses circonstances, allant de la gravité faible à la gravité très forte.


Le problème réside dans l'incompatibilité fondamentale entre les fonctions d'onde de probabilité de la théorie quantique des champs et leur propagation à travers une géométrie courbe, ainsi que leurs modifications de la courbure de l'espace-temps. La plupart des tentatives de concilier les deux théories dans un cadre commun de gravité quantique ont abouti à la nécessité de briser l'invariance de Lorentz, même légèrement.


Ainsi, la quête de Michelson et Morley se poursuit aujourd'hui, grâce aux expériences de laboratoire modernes réalisées avec des technologies considérablement améliorées.


Test de l'invariance de Lorentz avec les rayons gamma


Plusieurs théories de la gravité quantique violant l'invariance de Lorentz prédisent une dépendance de la vitesse de la lumière à l'énergie des photons. Toute déviation par rapport à une vitesse de la lumière constante doit être extrêmement faible pour rester compatible avec les contraintes actuelles, mais elle peut devenir détectable aux très hautes énergies photoniques, connues sous le nom de rayons gamma de très haute énergie.


Une équipe de chercheurs dirigée par Mercè Guerrero, ancienne étudiante de l'UAB, et Anna Campoy-Ordaz, doctorante à l'IEEC de l'UAB, avec la participation de Robertus Potting de l'Université de l'Algarve et de Markus Gaug, maître de conférences au Département de physique de l'UAB et également rattaché à l'IEEC, a testé l'invariance de Lorentz avec une précision sans précédent grâce à l'astrophysique. L'étude est publiée dans la revue Physical Review D.


Ceci est possible car de minuscules différences dans la vitesse de groupe des photons peuvent s'accumuler et engendrer des retards mesurables dans leur arrivée sur Terre si les photons étaient émis simultanément par une source située à très grande distance.


L'équipe a combiné un ensemble de limites existantes issues de mesures astrophysiques de rayons gamma de très haute énergie à l'aide d'une nouvelle méthode statistique afin de tester une série de paramètres violant l'invariance de Lorentz, actuellement privilégiés par les théoriciens, de l'extension du modèle standard (SME).


Que révèlent les derniers résultats ?


Les chercheurs espéraient prouver qu'Einstein avait tort, mais, comme tant d'autres avant eux, ils n'y sont pas parvenus. Néanmoins, les nouvelles limites améliorent les précédentes d'un ordre de grandeur.


Dans l'intervalle, la recherche visant à tester expérimentalement les prédictions des théories de la gravité quantique se poursuit, avec l'arrivée imminente d'instruments de nouvelle génération – tels que l'observatoire Cherenkov Telescope Array – conçus pour améliorer considérablement la détection des rayons gamma de très haute énergie provenant de sources lointaines.



XXXXXXXX


RESUME 


Des physiciens démontrent la constance de la vitesse de la lumière avec une précision sans précédent.




Des expériences récentes, basées sur des observations astrophysiques de rayons gamma de très haute énergie, ont permis de tester la constance de la vitesse de la lumière avec une précision inédite. Aucune déviation par rapport à l'invariance de Lorentz n'a été détectée, et de nouvelles contraintes sur les violations possibles améliorent les limites précédentes d'un ordre de grandeur, confirmant ainsi l'invariance de la vitesse de la lumière pour différentes énergies photoniques.


XXXXXXXXXXXXXXXXX


COMMENTAIRES


Mes élèves sont fous de l 'histoire des sciences ! Leur premoiere  question est donc :Comment a été mesurée la vitesse de la lumière ?C 'est déjà

trés vieux historiquement, 

Qui a le premier tenté de déterminer la vitesse de la lumière ?Eh bien c 'est encore Galilée!

En fait c'est lui au 17ème siècle qui le premier va tenter de mesurer la vitesse de propagation de la lumière. Ensuitre

des scientifiques ont mesuré le temps de parcours de la lumière en fonction d'une distance connue dans le Système solaire, tel le diamètre de l'orbite terrestre. Ole Christensen Rømer effectue en 1676 une mesure astronomique qui lui permet de prédire que la vitesse de la lumière n'est pas infiniment grande  ....Plus tard

Léon Foucault effectue une première expérience du calcul de la vitesse de la lumière en 1850. Il prouve alors que la lumière se déplace plus vite dans l'air que dans l'eau. Il ne va préciser ses résultats qu'en 1862 avec une nouvelle expérience dotée d'instruments de mesure plus précis.

2/Mais surtout le principr de la a relativité restreinte faitde la vitesse de la lumière (dans le vide) une grandeur invariante, qui reste inchangée quelle que soit la position de l'observateur. 

En conséquence   la verification de la constance de la vitesse des photons  quelle que soit leur énergie  est encore une preuve de plus !

XXXXXXXXXXXXXXX


More information: Merce Guerrero et al, Bounding anisotropic Lorentz invariance violation from measurements of the effective energy scale of quantum gravity, Physical Review D (2025). DOI: 10.1103/k3xg-wkrc


Journal information: Physical Review D 


Provided by Autonomous University of Barcelona 


Explore further


High Altitude Water Cherenkov observatory tests speed of light

Facebook


SCIENCES ENERGIES ENVIRONNEMENT BLOGGER





The simulated Milky Way: 100 billion stars using 7 million CPU cores


Édité par Sadie Harley, relu par Robert Egan

Notes de la rédaction : Vues de face (à gauche) et de profil (à droite) d’un disque galactique de gaz. Ces instantanés de la distribution du gaz après une explosion de supernova ont été générés par un modèle de substitution basé sur l’apprentissage profond. Crédit : RIKEN

Des chercheurs ont réalisé avec succès la première simulation mondiale de la Voie lactée représentant fidèlement plus de 100 milliards d’étoiles individuelles sur une période de 10 000 ans. Cet exploit a été accompli en combinant intelligence artificielle (IA) et simulations numériques. Non seulement la simulation représente 100 fois plus d’étoiles individuelles que les modèles de pointe précédents, mais elle a été produite plus de 100 fois plus rapidement.

Publiée dans les actes de la Conférence internationale sur le calcul haute performance, les réseaux, le stockage et l’analyse, cette étude représente une avancée majeure à l’intersection de l’astrophysique, du calcul haute performance et de l’IA. Au-delà de l'astrophysique, cette nouvelle méthodologie peut servir à modéliser d'autres phénomènes tels que le changement climatique et les régimes météorologiques.

Les défis de la simulation de la Voie lactée

Les astrophysiciens s'efforcent de créer une simulation de la Voie lactée jusqu'à ses étoiles individuelles, afin de confronter les théories de la formation, de la structure et de l'évolution stellaire des galaxies aux observations réelles. L'élaboration de modèles précis de l'évolution des galaxies est complexe car elle doit prendre en compte la gravité, la dynamique des fluides, les explosions de supernovae et la synthèse des éléments, autant de phénomènes qui se produisent à des échelles spatiales et temporelles très différentes.

Jusqu'à présent, les scientifiques n'étaient pas parvenus à modéliser de grandes galaxies comme la Voie lactée tout en conservant une haute résolution au niveau stellaire. Les simulations les plus performantes actuelles ont une limite supérieure de masse d'environ un milliard de soleils, alors que la Voie lactée compte plus de 100 milliards d'étoiles. Cela signifie que la plus petite « particule » du modèle est en réalité un amas d'étoiles d'une masse équivalente à 100 soleils. Ce qui arrive aux étoiles individuelles est moyenné, et seuls les événements à grande échelle peuvent être simulés avec précision.

Le problème fondamental réside dans le nombre d'années séparant chaque étape de la simulation : les changements rapides au niveau des étoiles individuelles, comme l'évolution des supernovae, ne peuvent être observés que si l'intervalle de temps entre chaque instantané de la galaxie est suffisamment court.

Limites de calcul et nécessité d'innovation

Or, le traitement de pas de temps plus courts exige plus de temps et de ressources de calcul. Outre la limite de masse actuellement imposée, si la meilleure simulation physique conventionnelle à ce jour tentait de simuler la Voie lactée jusqu'à l'échelle de l'étoile individuelle, il lui faudrait 315 heures pour chaque million d'années de simulation.

À ce rythme, simuler ne serait-ce qu'un milliard d'années d'évolution galactique prendrait plus de 36 ans en temps réel. Cependant, l'ajout incessant de cœurs de supercalculateurs n'est pas une solution viable. Non seulement ils consomment une quantité d'énergie considérable, mais l'augmentation du nombre de cœurs n'accélérera pas nécessairement le processus, car l'efficacité diminue.

En réponse à ce défi, Keiya Hirashima, du Centre RIKEN pour les sciences théoriques et mathématiques interdisciplinaires (iTHEMS) au Japon, avec des collègues de l'Université de Tokyo et de l'Universitat de Barcelona en Espagne, a développé une nouvelle approche qui combine un modèle de substitution d'apprentissage profond avec des simulations physiques.
Le modèle de substitution a été entraîné sur des simulations haute résolution d'une supernova et a appris à prédire l'expansion du gaz environnant pendant les 100 000 années suivant une explosion de supernova, sans utiliser les ressources du reste du modèle. Ce raccourci d'IA a permis à la simulation de modéliser simultanément la dynamique globale de la galaxie ainsi que des phénomènes à fine échelle tels que les explosions de supernova.

Pour vérifier les performances de la simulation, l'équipe a comparé les résultats avec des tests à grande échelle effectués à l'aide du supercalculateur Fugaku de RIKEN et du système de supercalculateur Miyabi de l'Université de Tokyo.

Découvrez les dernières actualités scientifiques, technologiques et spatiales avec plus de 100 000 abonnés qui font confiance à Phys.org pour leurs analyses quotidiennes. Inscrivez-vous à notre newsletter gratuite et recevez quotidiennement ou hebdomadairement des informations sur les découvertes, les innovations et les recherches importantes.

Courriel

Résultats révolutionnaires et implications majeures

Non seulement cette méthode permet de résoudre l'échelle de chaque étoile dans les grandes galaxies de plus de 100 milliards d'étoiles, mais la simulation d'un million d'années n'a pris que 2,78 heures. Cela signifie que le milliard d'années souhaité pourrait être simulé en seulement 115 jours, au lieu de 36 ans.

Au-delà de l'astrophysique, cette approche pourrait transformer d'autres simulations multi-échelles – comme celles utilisées en météorologie, en océanographie et en climatologie – où les simulations doivent relier les processus à petite et à grande échelle.

« Je pense que l'intégration de l'IA au calcul haute performance marque un tournant fondamental dans notre approche des problèmes multi-échelles et multi-physiques en sciences informatiques », déclare Hirashima.

« Cette avancée montre également que les simulations accélérées par l'IA peuvent dépasser la simple reconnaissance de formes pour devenir un véritable outil de découverte scientifique, nous aidant à retracer l'émergence des éléments à l'origine de la vie au sein de notre galaxie. »
XXXXXXXXXXXXXXXXXXX
RESUME

La Voie lactée simulée : 100 milliards d’étoiles grâce à 7 millions de cœurs de processeur



Une simulation de la Voie lactée a modélisé avec précision plus de 100 milliards d’étoiles individuelles sur une période de 10 000 ans grâce à l’intégration de l’intelligence artificielle et des méthodes numériques. Cette approche permet d’obtenir des améliorations d’un facteur 100 en termes de résolution et de vitesse par rapport aux modèles précédents. Elle autorise des simulations détaillées et efficaces à l’échelle galactique et présente des applications potentielles dans la modélisation du climat et de la météorologie.


XXXXXXXXXXXX

COMMENTAIRES
Encore un travail interessant et qi montre le bon usage de l' I A 
xxxxxxxxx
100 milliars d 'etoiles répertoriables ?????
La question qui se posera aux lecteurs  sera probablement  '' alors combien de planètes  ???
XXXXXXXXXXX
Selon une étude publiée en janvier 2013 , qui exploite des observations du télescope spatial Kepler, il y aurait au minimum une planète par étoile dans notre Galaxie, ce qui permet d'estimer qu'elle contiendrait 100 à 400 milliards de planètes. Le nombre de nébuleuses planétaires s'élève à environ 3 000.
xxxxxxxx
Je dois helas dire aux élèves que les 5OOO exoplanètes détèctées  pas une seule  ne donne de signes évidents  de vie 
xxxxxx
Cet univers est impitoyablement minéral !!!
Sommes nous dans un paradis  sans le savoir  ????!!!!!!!!


XXXXXXXXXXXXXX
More information: Keiya Hirashima et al, The First Star-by-star N-body/Hydrodynamics Simulation of Our Galaxy Coupling with a Surrogate Model, Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis (2025). DOI: 10.1145/3712285.3759866

Provided by RIKEN 

Explore further

Machine learning outpaces supercomputers for simulating galaxy evolution coupled with supernova explosion

mardi 25 novembre 2025

QCIENCES ENERGIES ENVIRONNEMENT BLOGGER






Theia and Earth were neighbors, new research suggests


AA
Quand Théia et la Terre étaient voisines ....selon de nouvelles recherches

Par la Société Max Planck

Édité par Sadie Harley, révisé par Robert Egan


Par la Société Max Planck

Édité par Sadie Harley, révisé par Robert Egan

Notes de la rédaction
Crédit : Domaine public CC0

Il y a environ 4,5 milliards d'années, l'événement le plus marquant de l'histoire de la Terre s'est produit : un énorme corps céleste nommé Théia est entré en collision avec la jeune Terre. Les circonstances exactes de la collision et ses conséquences restent encore mal connues. Ce qui est certain, en revanche, c'est que la taille, la composition et l'orbite de la Terre ont été modifiées, et que cet impact a donné naissance à notre fidèle compagnon spatial, la Lune.

Quel type de corps a pu bouleverser à ce point le cours de l'évolution de notre planète ? Quelle était la taille de Théia ? De quoi était-elle composée ? Et de quelle partie du système solaire provenait-elle ?

Répondre à ces questions est complexe. Après tout, Théia a été entièrement détruite lors de la collision. Néanmoins, on en trouve encore des traces aujourd'hui, notamment dans la composition de la Terre et de la Lune.

Dans une étude publiée dans la revue Science, des chercheurs de l'Institut Max Planck de recherche sur le système solaire (MPS) et de l'Université de Chicago utilisent ces informations pour déduire la liste possible des constituants de Théia, et donc son lieu d'origine.

« La composition d'un corps céleste retrace toute son histoire de formation, y compris son lieu d'origine », explique Thorsten Kleine, directeur du MPS et co-auteur de cette étude.

Les proportions de certains isotopes métalliques présents dans un corps sont particulièrement révélatrices. Les isotopes sont des variantes d'un même élément qui diffèrent uniquement par le nombre de neutrons dans leur noyau atomique, et donc par leur masse.

Au début du système solaire, les isotopes d'un élément donné n'étaient probablement pas répartis uniformément. Aux confins du système solaire, par exemple, les proportions d'isotopes étaient légèrement différentes de celles observées près du Soleil. L'information sur l'origine des constituants initiaux d'un corps est ainsi stockée dans sa composition isotopique.

À la recherche de traces de Théia sur Terre et sur la Lune

Dans cette étude, l'équipe de recherche a déterminé avec une précision inédite le rapport des différents isotopes du fer dans les roches terrestres et lunaires. Pour ce faire, elle a examiné 15 roches terrestres et six échantillons lunaires rapportés sur Terre par les astronautes des missions Apollo.

Le résultat n'est guère surprenant : comme l'avaient déjà montré des mesures antérieures des rapports isotopiques du chrome, du calcium, du titane et du zirconium, la Terre et la Lune sont indiscernables à cet égard.

Cependant, cette grande similitude ne permet pas de tirer de conclusions directes concernant Théia. Il existe tout simplement trop de scénarios de collision possibles. Bien que la plupart des modèles supposent que la lune s'est formée presque exclusivement à partir de matériaux provenant de Théia, il est également possible qu'elle soit principalement composée de matériaux issus du manteau primitif de la Terre ou que les roches terrestres et lunaires se soient mélangées de manière indissociable.

Reconstitution d'une planète

Afin d'en apprendre davantage sur Théia, les chercheurs ont appliqué une méthode de reconstitution planétaire. En se basant sur la correspondance des rapports isotopiques dans les roches terrestres et lunaires actuelles, l'équipe a exploré différentes compositions et tailles de Théia, ainsi que la composition de la Terre primitive, qui auraient pu conduire à cet état final.

Dans leurs recherches, les chercheurs ont examiné non seulement les isotopes du fer, mais aussi ceux du chrome, du molybdène et du zirconium. Ces différents éléments permettent d'accéder à différentes phases de la formation planétaire.

Bien avant la rencontre dévastatrice avec Théia, un processus de tri s'était déjà produit au sein de la Terre primitive. Lors de la formation du noyau de fer, certains éléments comme le fer et le molybdène s'y sont accumulés ; ils étaient par la suite largement absents du manteau rocheux.

Le fer présent aujourd'hui dans le manteau terrestre ne peut donc provenir que d'après la formation du noyau, par exemple à bord de Théia. D'autres éléments, comme le zirconium, qui ne se sont pas enfoncés dans le noyau, témoignent de toute l'histoire de la formation de notre planète.

Découvrez les dernières actualités scientifiques, technologiques et spatiales grâce à plus de 100 000 abonnés qui font confiance à Phys.org pour leurs analyses quotidiennes. Inscrivez-vous à notre newsletter gratuite et recevez chaque jour ou chaque semaine des informations sur les découvertes, les innovations et les recherches importantes.

Courriel
Météorites comme référence

Parmi les compositions mathématiquement possibles de Théia et de la Terre primitive, résultant des calculs, certaines peuvent être écartées car jugées improbables.

« Le scénario le plus convaincant est que la plupart des éléments constitutifs de la Terre et de Théia proviennent du système solaire interne. La Terre et Théia étaient probablement voisines », explique Timo Hopp, scientifique au MPS et auteur principal de la nouvelle étude.

Si la composition de la Terre primitive peut être représentée principalement par un mélange de classes de météorites connues, ce n'est pas le cas pour Théia. Différentes classes de météorites proviennent de différentes régions du système solaire externe. Elles servent donc de référence pour les matériaux disponibles lors de la formation de la Terre et de Théia.

Dans le cas de Théia, cependant, des matériaux jusqu'alors inconnus pourraient également avoir contribué à sa formation. Les chercheurs pensent que ces matériaux proviennent d'une région plus proche du Soleil que celle de la Terre. Les calculs suggèrent donc que Théia s'est formée plus près du Soleil que notre planète.

XXXXXXXXXXXXXX

RESUME
Théia et la Terre étaient voisines, selon de nouvelles recherches.
L’analyse des isotopes du fer et d’autres métaux dans des roches terrestres et lunaires indique que la Terre et Théia, le corps qui est entré en collision avec la Terre primitive pour former la Lune, proviennent probablement du système solaire interne et étaient des embryons planétaires voisins. La composition de Théia suggère qu’elle s’est formée encore plus près du Soleil que la Terre, peut-être à partir de matériaux du système solaire jusqu’alors inconnus.

XXXXXXXXXXXXXXXXX

COMMENTAIRES

Article tres interessant mais qui soulève la curiosite de mes élèves  encore plus que d 'habitude !*
Voici leurs questions ;
1/Quand Théia a-t-elle percuté la Terre ?
Lorsque l'impacteur Théia a frappé la Terre il y a 4,5 milliards d'années, il a volé en éclat et des nuages de vapeur et de débris en fusion ont enveloppé la Terre avant de s'amalgamer peu àpeu
pour former la Lune.
2/Quelle taille pouvait avoir Théia ???
 Selon l’hypothèse de l’impact géant, Théia avait à peu près la taille de Mars et orbitait autour du Soleil sur une trajectoire similaire à celle de la Terre.
3/Les débris de Théia ont ils formé la Ceinture des astéroides  ???
Certains peiut etre   car 
la plupart des astéroïdes sont bien plus loin  car
 situés dans la ceinture principale, entre Mars et Jupiter. Cependant, certains se retrouvent sur l'orbite de Jupiter,restant 
 prisonniers de l'attraction de la planète géante et de celle du Soleil. Appelé « troyens », ils sont confinés à 60° de part et d'autre de Jupiter.2
XXXXXXXXXXXX

More information: Timo Hopp et al, The Moon-forming impactor Theia originated from the inner Solar System, Science (2025). DOI: 10.1126/science.ado0623. www.science.org/doi/10.1126/science.ado0623

Journal information: Science 

Provided by Max Planck Society 

Explore further