dimanche 15 février 2026

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER

 





aEarth's largest volcanic event reshaped an oceanic plate, seismic wave analysis reveals

by Okayama University of Science


edited by Stephanie Baum, reviewed by Robert Egan

 Editors' notes

 The GIST

Le plus grand événement volcanique survenu sur Terre a remodelé une plaque océanique, révèle l'analyse des ondes sismiques


Université des Sciences d'Okayama


Édité par Stephanie Baum, révisé par Robert Egan


Notes de la rédaction


The GIST


Ajouter comme source privilégiée


Carte montrant le plateau d'Ontong Java (OJP) et les trajets des ondes Po et So. Le contour de l'OJP (Coffin et al., 2006) est représenté par un trait noir. Les lignes colorées indiquent les trajets des ondes Po et So observées sur l'OJP. L'échelle de couleurs indique l'énergie des ondes So par rapport aux ondes Po (ESo/EPo). Les triangles vides et pleins indiquent respectivement les stations sismiques de fond océanique et les stations sismiques insulaires. Crédit : Geophysical Research Letters (2025). DOI : 10.1029/2025gl115219

Une équipe de recherche a révélé, grâce à l’analyse des ondes sismiques, que la plaque océanique sous le plateau d’Ontong Java – le plus grand plateau océanique du monde – a été profondément altérée par une intense activité volcanique lors de sa formation. L’étude est publiée dans la revue Geophysical Research Letters.


Structure complexe sous le plateau


La plaque océanique sous le plateau d’Ontong Java (OJP) présente une structure composite constituée de couches superposées par des essaims de dykes. Des anomalies de faible vitesse sismique au sein de la plaque suggèrent une modification chimique par un magma issu d’un panache thermochimique. Ces résultats démontrent que les plaques océaniques peuvent subir d’importantes modifications physico-chimiques dues à une activité volcanique de grande ampleur, contribuant ainsi à une meilleure compréhension des processus de formation des plaques.


Ces travaux de recherche ont été menés par Azusa Shito, maître de conférences à l’Université des sciences d’Okayama, en collaboration avec Akira Ishikawa, professeur associé à l’Institut des sciences de Tokyo, et Masako Yoshikawa, professeure à l’Université d’Hiroshima.


Volcanisme massif et extinctions massives


Le plateau d'Ontong Java (OJP), le plus grand plateau océanique du monde, est situé dans l'océan Pacifique. Il s'est formé il y a environ 110 à 120 millions d'années suite à une activité volcanique sous-marine. Cette activité volcanique, considérée comme la plus importante de l'histoire de la Terre, aurait profondément modifié l'environnement global de l'époque et déclenché des extinctions massives.


Des études récentes suggèrent que cette activité volcanique d'envergure a été provoquée par un panache thermochimique, une remontée de magma provenant des profondeurs du manteau. Cependant, les effets de la remontée de magma depuis les profondeurs du manteau sur les plaques océaniques préexistantes restent encore mal compris.


Analyse des ondes Po et So


Dans cette étude, l'équipe a analysé les ondes sismiques à haute fréquence, appelées ondes Po et So, enregistrées par des sismomètres de fond marin déployés autour de l'OJP ainsi que par des sismomètres installés sur des îles océaniques. Les ondes Po et So se propagent au sein des plaques océaniques, et leurs caractéristiques de propagation sont fortement influencées par la structure interne de la plaque.


Dans des conditions normales, les ondes Po et So sont générées lorsque les ondes P et S subissent de multiples diffusions au sein des structures stratifiées de la plaque océanique, ce qui leur permet de parcourir des distances de plusieurs milliers de kilomètres. Cependant, les ondes Po et So observées autour de l'OJP ont révélé une caractéristique frappante : alors que les ondes Po se propageaient efficacement, les ondes So étaient fortement atténuées.


Une plaque composite, chimiquement altérée


Pour reproduire cette observation, les chercheurs ont estimé la structure interne de la plaque à l'aide d'une modélisation des formes d'onde sismiques. Les résultats ont indiqué que la plaque océanique sous l'OJP possède une structure composite dans laquelle des structures stratifiées (lamination horizontale) sont recoupées par des essaims de dykes (intrusion verticale).


De plus, l'équipe a constaté que les ondes Po et So se propageant à travers la plaque sous l'OJP se déplacent beaucoup plus lentement que celles se propageant dans les plaques océaniques typiques. Pour expliquer ces observations, les auteurs proposent un modèle dans lequel un magma issu d'un panache thermochimique remonte à travers la plaque, formant des essaims de dykes, et provoque ensuite une modification chimique (fertilisation) de la plaque.


Le modèle de modification physico-chimique des plaques océaniques présenté dans cette étude devrait contribuer à une compréhension plus complète des processus de formation des plaques.


XXXXXXXXXXXXXX


RESUME

Le plus grand événement volcanique de l'histoire de la Terre a remodelé une plaque océanique, révèle l'analyse des ondes sismiques.


L'analyse des ondes sismiques montre que la plaque océanique située sous le plateau d'Ontong Java présente une structure complexe, composée de formations stratifiées et d'essaims de dykes, résultant d'une intense activité volcanique liée à un panache mantellique profond. Les faibles vitesses sismiques et l'atténuation des ondes indiquent une modification chimique significative de la plaque, soulignant ainsi que le volcanisme à grande échelle peut profondément altérer la composition et la structure des plaques océaniques.


XXXXXXXXXXXX


COMMENTAIRES

La Terre  est batie  sur  un ensemble  de plaques   tectoniques  continentales ou maritime   qui s'entre choquent  comme du chewing gomme !!!

 Je ne croyais  pas  qu 'il soit possible  de tracer  un historique   précis du mouvement des plaques  ... Do,c bravo pour cette etude 


XXXXXXXXX

Publication details

Azusa Shito et al, Dike Swarms in the Oceanic Lithosphere Beneath the Ontong Java Plateau, Geophysical Research Letters (2025). DOI: 10.1029/2025gl115219


Journal information: Geophysical Research Letters 


samedi 14 février 2026

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER

 




Infrared running of gravity offers a field-theoretic route to dark matter phenomena

ALa propagation infrarouge de la gravité offre une voie théorique vers les phénomènes de matière noire


Par Naman Kumar


Édité par Lisa Lock, relu par Robert Egan


Notes de la rédaction


The GIST

Ajouter comme source privilégiée


Les étoiles des galaxies spirales orbitent à des vitesses quasi constantes loin du centre galactique. Crédit : Astronomie : Roen Kelly. M33 : ESO


Le mystère de la matière noire — invisible, omniprésente et essentielle à la cosmologie standard — plane sur la physique depuis des décennies. Dans une nouvelle étude, j'explore une possibilité différente : plutôt que de postuler de nouvelles particules, je propose que la gravité elle-même se comporte peut-être différemment aux plus grandes échelles.


Dans mon article récemment publié dans Physics Letters B, j'examine comment la gravité pourrait évoluer à travers le prisme de la théorie quantique des champs. Au lieu de supposer que la constante gravitationnelle de Newton est absolument fixe aux distances cosmiques, j'étudie les conséquences de son évolution – c'est-à-dire de sa variation avec l'échelle – dans le domaine infrarouge profond, où les longueurs d'onde sont énormes et où les hypothèses standard peuvent ne plus être valides.


Un nouveau regard sur la gravité à grande échelle


Dans les théories quantiques des champs, les constantes de couplage dépendent généralement de l'énergie ou de l'échelle de longueur – c'est le principe de la variation du groupe de renormalisation. Bien que cette variation soit bien étudiée aux échelles microscopiques (hautes énergies), je me suis demandé si un concept similaire pouvait s'appliquer en sens inverse à des distances immenses.


Il en ressort un argument théorique convaincant en faveur d'un scénario dans lequel l'intensité effective de la gravité varie subtilement sur les distances galactiques. En particulier, une forme spécifique de variation infrarouge produit un potentiel gravitationnel qui s'écarte de la loi de force usuelle (1/r²), produisant à la place un terme correctif logarithmique. Étonnamment, une telle correction induit une force à longue portée (1/r), générant naturellement des courbes de rotation plates dans les galaxies, un effet traditionnellement attribué aux halos de matière noire.


Contrairement à de nombreuses propositions de gravité modifiée qui introduisent manuellement de nouveaux termes, ce comportement découle directement d'arguments d'échelle issus de la théorie des champs et est indépendant des complémentations ultraviolettes spécifiques.


Confrontation avec les observations


Pour tester cette idée, j'ai appliqué le modèle aux données observées de rotation galactique. En utilisant uniquement la distribution mesurée de la masse baryonique visible et un seul paramètre d'échelle de transition, les courbes de rotation prédites correspondent à l'aplatissement observé sur une large gamme de rayons. Ces résultats suggèrent que le scénario de mouvement infrarouge pourrait expliquer la rotation des galaxies sans faire intervenir une composante dominante de matière noire froide.


Implications pour la cosmologie


Les implications dépassent le cadre des galaxies individuelles. Dans l'Univers primordial — à l'époque du fond diffus cosmologique et lors de la formation des structures — toute variation de la gravité doit être suffisamment faible pour ne pas interférer avec les mesures cosmologiques de précision. Dans le cadre de la gravité infrarouge, les corrections croissent lentement avec l'échelle et le temps, préservant ainsi la cohérence avec les contraintes de l'Univers primordial et ne devenant pertinentes qu'aux époques ultérieures et à grande échelle.


Bien que cette approche ne remplace pas encore totalement la matière noire dans le modèle cosmologique standard – notamment pour expliquer la formation détaillée des structures et les données de lentilles gravitationnelles –, elle met en lumière la complexité potentiellement cachée de la gravité et invite à réévaluer l'origine des effets de la matière noire.


Prochaines étapes et questions ouvertes


Un défi majeur consiste à approfondir l'étude de la phénoménologie de la gravité infrarouge dans les contextes cosmologiques, y compris les lentilles gravitationnelles et la dynamique des amas, et à identifier, dans les futurs relevés, des signatures potentielles permettant de distinguer ce scénario des alternatives basées sur la matière noire particulaire.


Mes travaux ouvrent la voie à une compréhension des phénomènes de matière noire non pas comme des particules manquantes, mais comme une caractéristique subtile de la gravitation elle-même – une conséquence profonde de la dépendance à l'échelle dans une théorie quantique des champs de la gravité.


Cet article fait partie du Science X Dialog, où les chercheurs peuvent partager les résultats de leurs articles de recherche publiés. Consultez cette page pour plus d'informations sur le Science X Dialog et les modalités de participation.



XXXXXXXXXXXXXXX


RESUME



La variation de la gravité dans l'infrarouge offre une voie théorique vers l'explication des phénomènes de matière noire.

Permettre à la constante gravitationnelle de Newton de varier à grande échelle (infrarouge) dans le cadre de la théorie quantique des champs conduit à un potentiel gravitationnel modifié par une correction logarithmique, induisant une force en 1/r à longue portée. Cette modification permet de reproduire des courbes de rotation galactiques plates en utilisant uniquement la masse visible, expliquant potentiellement les effets de la matière noire sans l'introduction de nouvelles particules, tout en restant compatible avec les contraintes de l'Univers primordial.

XXXXXXXXXXXX


COMMENTAIRES


Cet article  nous ramène sur les traces  de l'équation de la gravité  selon la théorie  MOND  !

XXXXXXXXXXXXPublication details

Naman Kumar, Marginal IR running of gravity as a natural explanation for dark matter, Physics Letters B (2025). DOI: 10.1016/j.physletb.2025.140008


Journal information: Physics Letters B 


vendredi 13 février 2026

sciences energies environnement blogger

 




Dark matter, not a black hole, could power Milky Way's heart

AAccueil

Astronomie et Espace

Astronomie

5 février 2026


La matière noire, et non un trou noir, pourrait être le moteur de la Voie lactée


Par la Royal Astronomical Society


Édité par Gaby Clark, relu par Robert Egan


Notes de la rédaction


The GIST

Ajouter comme source privilégiée


Représentation artistique de la Voie lactée, où les étoiles les plus proches du noyau se déplacent à des vitesses quasi relativistes (définies comme des vitesses constituant une fraction significative de la vitesse de la lumière, généralement estimée à 10 % ou plus) autour d'un noyau dense de matière noire, sans trou noir en son centre. À des distances plus importantes, le halo, constitué de cette même distribution invisible de matière noire, continue d'influencer les mouvements des étoiles situées en périphérie de notre galaxie, traçant ainsi sa courbe de rotation caractéristique. Crédit : Valentina Crespi et al. Licence : Attribution (CC BY 4.0)


Selon des astronomes, notre galaxie, la Voie lactée, n'abriterait pas un trou noir supermassif en son centre, mais plutôt un immense amas de matière noire mystérieuse exerçant une influence gravitationnelle similaire. Ils pensent que cette substance invisible, qui constitue la majeure partie de la masse de l'Univers, peut expliquer à la fois le mouvement intense des étoiles à quelques heures-lumière (unité de mesure des distances au sein de notre système solaire) du centre galactique et la douce rotation à grande échelle de toute la matière située aux confins de la Voie lactée.


Cette nouvelle étude a été publiée aujourd'hui dans les Monthly Notices of the Royal Astronomical Society.


Repenser le cœur obscur de la Voie lactée


Elle remet en question la théorie dominante selon laquelle Sagittarius A* (Sgr A*), un trou noir supposé au cœur de notre galaxie, serait responsable des orbites observées d'un groupe d'étoiles, les étoiles S, qui tournent à des vitesses vertigineuses pouvant atteindre plusieurs milliers de kilomètres par seconde.


L'équipe internationale de chercheurs a avancé une hypothèse alternative : un type spécifique de matière noire, composé de fermions (particules subatomiques légères), pourrait créer une structure cosmique unique, compatible avec nos connaissances sur le noyau de la Voie lactée.


En théorie, cette structure produirait un noyau ultra-dense et compact, entouré d'un vaste halo diffus, l'ensemble formant une entité unique.


Ce noyau interne serait si compact et massif qu'il pourrait imiter l'attraction gravitationnelle d'un trou noir et expliquer les orbites des étoiles S observées lors d'études précédentes, ainsi que celles des objets enveloppés de poussière, appelés sources G, situés à proximité.


La carte détaillée du halo externe par Gaia


Les données les plus récentes de la mission Gaia DR3 de l'Agence spatiale européenne (ESA) sont particulièrement importantes pour cette nouvelle recherche. Elles ont permis de cartographier avec précision la courbe de rotation du halo externe de la Voie lactée, révélant comment les étoiles et le gaz orbitent loin du centre.


L'observation d'un ralentissement de la courbe de rotation de notre galaxie, connu sous le nom de déclin képlérien, s'explique, selon les chercheurs, par le halo externe de leur modèle de matière noire, combiné aux composantes de masse traditionnelles du disque et du bulbe, constituées de matière ordinaire.


Ceci, ajoutent-ils, renforce le modèle « fermionique » en mettant en évidence une différence structurelle fondamentale. Alors que les halos de matière noire froide traditionnels s'étendent selon une longue queue en « loi de puissance », le modèle fermionique prédit une structure plus compacte, conduisant à des queues de halo plus compactes.


Ces recherches ont été menées par une collaboration internationale impliquant l'Institut d'astrophysique de La Plata en Argentine, le Réseau international du Centre d'astrophysique relativiste et l'Institut national d'astrophysique en Italie, le Groupe de recherche sur la relativité et la gravitation en Colombie et l'Institut de physique de l'Université de Cologne en Allemagne.


« C’est la première fois qu’un modèle de matière noire parvient à relier ces échelles très différentes et les orbites variées des objets, y compris les données modernes sur les courbes de rotation et les étoiles centrales », a déclaré le Dr Carlos Argüelles, co-auteur de l’étude et membre de l’Institut d’astrophysique de La Plata.


« Nous ne nous contentons pas de remplacer le trou noir par un objet sombre ; nous proposons que l’objet central supermassif et le halo de matière noire de la galaxie soient deux manifestations d’une même substance continue. »




Courriel

Imiter l’ombre d’un trou noir


Point crucial, ce modèle de matière noire fermionique avait déjà passé un test significatif. Une étude précédente de Pelle et son équipe, également publiée dans MNRAS, a montré que lorsqu'un disque d'accrétion illumine ces noyaux denses de matière noire, il projette une ombre remarquablement similaire à celle observée par la collaboration Event Horizon Telescope (EHT) pour Sgr A*.


« C'est un point crucial », a déclaré Valentina Crespi, auteure principale de l'étude et chercheuse à l'Institut d'astrophysique de La Plata.


« Notre modèle explique non seulement les orbites des étoiles et la rotation de la galaxie, mais il est également cohérent avec la célèbre image de l'« ombre du trou noir ». La matière noire dense… »


XXXXXXXXXXXXX


RESUME

La matière noire, et non un trou noir, pourrait être à l'origine du cœur de la Voie lactée.


Un noyau dense de matière noire fermionique, plutôt qu'un trou noir supermassif, pourrait expliquer à la fois les orbites rapides des étoiles proches du centre de la Voie lactée et la rotation à grande échelle de la galaxie. Ce modèle rend compte de caractéristiques observées telles que l'« ombre » centrale et correspond aux données de la courbe de rotation de Gaia, offrant ainsi une explication unifiée de la structure du noyau et du halo de la galaxie.

XXXXXXXXXX


COMMENTAIRES


Cet article  nous cntraint  a une cetaine prudence dans  notre  intrerprétation des trous noirs ! 

-'' Pourquoi (me demandent les élèves )????Une des observations  astronomiques les plus sures  c 'est l 'éffondrement d''uune etoile  et la création d 'un trou noir stellaire  ; n 'est ce pas  Sir???'' 

Et alors je leur réponds  : -''Oui certains  .....Mais comment  expliquer  ces trous noirs supermassifs  de masse calculée de milliards  de masse solaire  et qui necessiteraient  des milliards d 'années de formation  ?????

XXXXXXXX

Conclusion :mettons alors de coé  ce concept de trou noir central supermassif  ???

XXXXX

Mais un autre élève  lève le doigt : ''Cette propôsition de l' article  de le  remplacer par une structure  hyper dens  de fermions noirs  invisible  est elle vraiment crédible   ....alors qu 'on cherche  depuis  une vingtaine  d 'années  à observer  et caracteriser  cette particule de matière noire     .....et toujours sans succés   ni théorie possible  ?????

XXXXXXXXXX

Re -conclusion sur le toit : le doute et encore le  DOUTE  !!!!!!!


XXXXXXXXXXXX

Publication details

V Crespi et al, The dynamics of S-stars and G-sources orbiting a supermassive compact object made of fermionic dark matter, Monthly Notices of the Royal Astronomical Society (2026). DOI: 10.1093/mnras/staf1854


jeudi 12 février 2026

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER






Why snakes can go months between meals: A genetic explanation

apport du 4 février 2026

Pourquoi les serpents peuvent-ils jeûner pendant des mois ? Une explication génétique

Par Paul Arnold, Phys.org

Édité par Gaby Clark, relu par Robert Egan

Notes de la rédaction

The GIST

Ajouter comme source privilégiée

La perte du gène GHRL, qui implique un manque ou une diminution de l’oxydation des acides gras dans les muscles locomoteurs, est probablement due à l’évolution d’un régime alimentaire intermittent. Crédit : Open Biology (2026). DOI : 10.1098/rsob.250162
Les serpents sont sans doute parmi les plus grands prédateurs de la nature, capables d’engloutir des cerfs entiers, voire des crocodiles. Mais leur capacité à jeûner pendant des mois, voire une année entière, est tout aussi impressionnante. Une équipe internationale de scientifiques pense avoir percé le mystère de cette particularité.

Disparition du signal de faim

Dans une étude publiée dans la revue Open Biology, des chercheurs rapportent que les serpents ont perdu le gène de la ghréline, souvent appelé gène de l'hormone de la faim, car il régule l'appétit et signale le moment de manger. Par conséquent, sans cette hormone signalant la faim, ils peuvent survivre de longues périodes sans manger.

L'équipe a fait cette découverte après avoir analysé les génomes de 112 espèces de reptiles, dont des serpents, des tortues et des crocodiles, en utilisant notamment la comparaison de séquences et des outils de détection de pertes de gènes.

Chez tous les serpents étudiés, parmi lesquels des pythons, des boas et des vipères, les gènes de la ghréline et d'une enzyme appelée MBOAT4 (qui active la ghréline) ont été perdus ou fortement altérés. Le même phénomène a été observé chez les caméléons et certains agames à tête de crapaud, une espèce de lézard.

Adaptation évolutive

Comme la perte de ces gènes s'est produite chez plusieurs groupes différents de reptiles, les auteurs de l'étude pensent qu'il ne s'agit pas d'une erreur. Il pourrait s'agir d'une adaptation à leurs habitudes alimentaires extrêmes. Par exemple, les serpents et les caméléons adoptent une stratégie de prédation à l'affût, également appelée prédation par embuscade. Au lieu de chasser activement leurs proies, ils restent dissimulés et attendent le moment opportun pour frapper. Cette attente peut durer des semaines, voire des mois. Chez ces animaux, une hormone signalant continuellement la faim serait contre-productive.

Les chercheurs suggèrent également que la perte du système de la ghréline remplit une autre fonction vitale : permettre à ces reptiles de minimiser leur consommation d'énergie pendant l'attente d'une proie. Chez les mammifères, la ghréline indique normalement à l'organisme de brûler les graisses comme source d'énergie pendant le jeûne. Cependant, les serpents ont développé une stratégie différente. Au lieu d'épuiser leurs réserves, ils entrent dans un état d'économie d'énergie extrême.

« Cette étude suggère que l'alimentation intermittente de ces groupes s'est accompagnée de la perte de gènes impliqués dans l'homéostasie énergétique », ont commenté les auteurs dans leur étude.

De nouvelles pistes pour la santé humaine

Au-delà de notre compréhension de l'évolution des reptiles, les chercheurs estiment que leurs travaux pourraient avoir des retombées importantes sur la santé humaine. L'étude de la façon dont ces animaux gèrent le jeûne extrême et les variations énergétiques pourrait fournir aux experts médicaux des pistes pour traiter des affections comme l'obésité, ainsi que d'autres maladies métaboliques où l'organisme peine à réguler les niveaux de graisse et d'énergie.

XXXXXXXXXXXXXXXX

RESUME

Pourquoi les serpents peuvent jeûner pendant des mois : une explication génétique

Les serpents peuvent survivre de longues périodes sans se nourrir grâce à la perte du gène de la ghréline et de son enzyme activatrice MBOAT4, qui régulent la faim et la dépense énergétique. Cette adaptation génétique, également présente chez d’autres reptiles, favorise leur stratégie de chasse à l’affût en minimisant les signaux de faim et en économisant l’énergie lors de jeûnes prolongés. Les connaissances acquises sur ce mécanisme pourraient éclairer la recherche sur les maladies métaboliques chez l’humain.

XXXXXXXXXX

COMMENTAIRES
Je lis  les articles de paléontologie par curiosité mais les élèves 
se demandent
aussi :
Comment dansles os du bassin d’un serpent apportent la preuve de l’évolution des serpents ? Par des ''reliques morophologiques''
2/Quel serpent a des pattes ?
En d'autres termes, Pachyrhachis est un serpent et le fossile nommé Estesius est simplement la partie postérieure de Pachyrhachis, lequel est donc un serpent à pattes, tout au moins à pattes postérieures ! Il doit être nommé Pachyrhachis problematicus, du nom du premier des deux fossiles décrits.
3/Les pythons ont-ils des pattes ?
Certains serpents actuels, comme les vipères, sont totalement dépourvus de membres, tandis que des serpents plus primitifs, tels que les boas et les pythons, possèdent une ceinture pelvienne et des fémurs rudimentaires . Les chercheurs ont étudié la perte des membres antérieurs et la perte des membres postérieurs comme des événements évolutifs distincts.
XXXXXXXXXXX
Publication details
Rui Resende Pinto et al, Ghrelin and MBOAT4 are lost in Serpentes, Open Biology (2026). DOI: 10.1098/rsob.250162

Journal information: Open Biology 

mercredi 11 février 2026

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER





A 'crazy' dice proof leads to a new understanding of a fundamental law of physics

Le démonstration par dés révèle une nouvelle loi fondamentale de la physique


Par Whitney Clavin, Institut de Technologie de Californie


Édité par Robert Egan, révisé par Andrew Zinin


Notes des éditeurs


L'essentiel


Ajouter comme source privilégiée


Crédit : Institut de Technologie de Californie


À l'heure actuelle, les molécules de l'air autour de vous se meuvent de façon chaotique et imprévisible. Pour comprendre de tels systèmes, les physiciens utilisent une loi appelée distribution de Boltzmann qui, plutôt que de décrire la position exacte de chaque particule, décrit la probabilité de trouver le système dans chacun de ses états possibles. Cela leur permet de faire des prédictions sur l'ensemble du système, même si les mouvements individuels des particules sont aléatoires. C'est comme lancer un dé : chaque lancer est imprévisible, mais si vous le lancez encore et encore, une suite de probabilités se dégagera.


Développée dans la seconde moitié du XIXe siècle par Ludwig Boltzmann, physicien et mathématicien autrichien, la distribution de Boltzmann est aujourd'hui largement utilisée pour modéliser des systèmes dans de nombreux domaines, de l'intelligence artificielle à l'économie, où elle est appelée « logit multinomial ».


Des économistes ont récemment approfondi l'étude de cette loi universelle et abouti à un résultat surprenant : la distribution de Boltzmann, comme le démontre leur démonstration mathématique, est la seule loi capable de décrire avec précision des systèmes indépendants, ou découplés.


Ces travaux de recherche, publiés dans la revue Mathematische Annalen, sont l'œuvre de deux économistes et mathématiciens issus de la physique : Omer Tamuz, professeur d'économie et de mathématiques au Caltech, et Fedor Sandomirskiy, ancien postdoctorant au Caltech et actuellement maître de conférences en économie à l'université de Princeton.


« C'est un exemple de la façon dont la pensée mathématique abstraite peut faire le lien entre différents domaines – en l'occurrence, en reliant des concepts de la théorie économique à la physique », explique Tamuz. « L'environnement interdisciplinaire de Caltech favorise des découvertes comme celle-ci. »


Pour comprendre pourquoi un scientifique s'intéresserait à des systèmes sans lien apparent, prenons l'exemple d'un économiste qui étudie comment les consommateurs choisissent entre deux marques de céréales. Lors de l'élaboration d'une théorie décrivant ce comportement, les scientifiques doivent s'assurer que leur modèle simplifié n'établit pas de liens absurdes. Par exemple, si le modèle prédisait que la préférence d'une personne pour une marque de céréales dépendait du liquide vaisselle acheté ce jour-là ou de la couleur de la chemise portée au magasin, les scientifiques sauraient que le modèle présente une faille.


« Nous préférons ne pas prendre en compte des choix supplémentaires qui semblent sans rapport, comme le savon choisi par le client dans un autre rayon », explique Tamuz. « Nous nous posons la question suivante : dans quelles circonstances l'intégration de ce choix apparemment sans lien laisserait-elle la prédiction du modèle inchangée ? »


Bien que la distribution de Boltzmann décrive avec précision de tels systèmes sans lien apparent, Tamuz et Sandomirskiy se sont interrogés : existe-t-il d'autres théories capables d'en faire autant ?


« Tout le monde utilise la même théorie », a conclu Tamuz. « Mais quelles autres théories possèdent cette propriété intéressante de maintenir correctement l'absence de lien entre des comportements sans rapport ? Devrions-nous plutôt utiliser ces théories ? Si de telles théories existent, elles pourraient s'avérer utiles aussi bien en économie qu'en physique. Dans le cas contraire, nous apprendrions que la distribution de Boltzmann est la seule théorie physique cohérente et que le modèle logit multinomial est le seul modèle économique capable de prédire des choix indépendants dans des situations sans rapport. »


Omer Tamuz et ses dés « fous ». Crédit : Caltech/Whitney Clavin


Un lancer de dé


Pour trouver d'autres théories susceptibles de s'appliquer à des systèmes sans rapport, les économistes ont mis au point de nouvelles méthodes pour tester les fondements mathématiques. Tamuz aime utiliser des dés pour expliquer leur approche. Chaque lancer de dé est aléatoire – on peut obtenir 1, 2, 3, 4, 5 ou 6 – et peut être interprété comme le comportement d'un individu ou d'un système physique. Si vous lancez le dé plusieurs fois, une régularité se dégagera : chaque résultat, les nombres de 1 à 6, apparaîtra environ une fois sur six. C'est la distribution d'un seul dé.


Si vous lancez deux dés et additionnez leurs résultats, vous obtiendrez une distribution différente. Par exemple, la probabilité d'obtenir un total de 2 est de 1/36 car il n'y a qu'une seule façon d'obtenir un 2 (deux 1). En revanche, la probabilité d'obtenir un 8 est de 5/36 car il y a cinq façons d'obtenir un 8 (deux 4, deux 3 et deux 5, deux 5 et deux 3, deux 2 et deux 6, et deux 6).


Il est important de noter que le résultat d'un dé ne donne aucune information sur le résultat de l'autre, car il s'agit de deux systèmes physiques indépendants. Pour reprendre l'exemple économique, un dé est comparable au choix des céréales, et l'autre au choix du liquide vaisselle. Ces choix aléatoires ne devraient pas s'influencer mutuellement.

Un lancer de dés


Pour trouver d'autres théories possibles applicables à des systèmes non liés, les économistes ont mis au point de nouvelles méthodes pour tester les équations sous-jacentes. Tamuz aime utiliser des dés pour expliquer leur approche. Chaque lancer de dé est aléatoire – on peut obtenir 1, 2, 3, 4, 5 ou 6 – et peut être interprété comme le comportement d'un individu ou d'un système physique. En lançant le dé plusieurs fois, une régularité se dessine : chaque résultat, les nombres de 1 à 6, apparaît environ une fois sur six. C'est la distribution d'un seul dé.


Si l'on lance deux dés et que l'on additionne leurs résultats, on obtient une distribution différente. Par exemple, la probabilité d'obtenir un total de 2 est de 1/36 car il n'y a qu'une seule façon d'obtenir 2 (un 1 et un 1). Mais la probabilité d'obtenir un 8 est de 5/36 car il existe cinq façons d'obtenir un 8 (deux 4, deux 3 et deux 5, deux 5 et deux 3, deux 2 et deux 6, et deux 6 et deux 2).


Il est important de noter que le résultat d'un dé ne donne aucune information sur le résultat de l'autre, puisqu'il s'agit de deux systèmes physiques indépendants. Pour reprendre l'exemple économique, un dé est comparable au choix des céréales, et l'autre au choix du liquide vaisselle. Ces choix aléatoires ne devraient pas s'influencer mutuellement.


Pour comprendre comment les chercheurs ont testé des théories alternatives à la distribution de Boltzmann, il est nécessaire d'introduire une paire de dés « atypiques », comme les dés de Sicherman, inventés en 1977 par le colonel George Sicherman, créateur de casse-têtes et passionné de mathématiques.


Une paire de dés « atypiques », ou dés de Sicherman, inventés en 1977 par le colonel George Sicherman, créateur de casse-têtes et passionné de mathématiques. Crédit : Caltech/Whitney Clavin


Tamuz (qui, d'ailleurs, garde une paire de dés de Sicherman sur son bureau) explique que les nombres inscrits sur ces dés à six faces sont pour le moins originaux : l'un des dés affiche les nombres 1, 3, 4, 5, 6, 8, et l'autre, 1, 2, 2, 3, 3, 4.


Bien que chaque dé soit très différent d'un dé classique, si vous les lanciez tous les deux et ne notiez que le total, vous ne pourriez pas les distinguer de dés ordinaires. Comme pour les dés classiques, la probabilité d'obtenir un total de 2 avec des dés de Sicherman est de 1/36, et celle d'obtenir 8 est de 5/36. Autrement dit, la distribution de probabilité des sommes obtenues avec chaque type de dé est la même.


Découvrez les dernières actualités scientifiques, technologiques et spatiales grâce à plus de 100 000 abonnés qui font confiance à Phys.org pour leurs analyses quotidiennes. Inscrivez-vous à notre newsletter gratuite et recevez quotidiennement ou hebdomadairement les dernières actualités, innovations et recherches importantes.


Tamuz et Sandomirskiy ont compris qu'ils pouvaient utiliser les mathématiques sous-jacentes à ces dés de Sicherman pour tester des théories alternatives. Si une théorie expliquait que les dés normaux et les dés « faux » présentaient les mêmes distributions de probabilité des sommes, elle validait sa capacité à décrire avec précision des systèmes indépendants. En revanche, si les dés normaux et les dés « faux » présentaient des distributions de probabilité des sommes différentes (comme dans l'exemple absurde où le choix du savon influencerait celui des céréales), la théorie était invalidée.


Pour tester d'autres théories alternatives, l'astuce consistait à trouver davantage d'exemples de dés « faux » que les dés de Sicherman. Chaque nouvel exemple découvert permettait de tester d'autres théories. Il existe une infinité de théories possibles, qu'ils ont pu associer à une infinité de paires théoriques de dés « faux ». Finalement, ils ont élaboré une démonstration mathématique qui a invalidé toutes les théories alternatives et montré que la distribution de Boltzmann, éprouvée et largement utilisée en science depuis plus d'un siècle, est la seule valable.


En termes mathématiques, la recherche se résume à des polynômes, des fonctions telles que f(x) = x₁ + 3x₂ + x₃, que vous avez peut-être déjà vues en cours d'algèbre.


Toutes les distributions mentionnées ci-dessus, qu'il s'agisse de la distribution de Boltzmann ou d'autres théories, peuvent être représentées par des polynômes. Par exemple, le premier dé de Sicherman, dont les faces sont 1, 3, 4, 5, 6 et 8, est représenté par f(x) = x₁ + x₃ + x₄ + x₅ + x₆ + x₈.


Le second dé de Sicherman, dont les faces sont 1, 2, 2, 3, 3 et 4, est représenté par g(x) = x₁ + 2x₂ + 2x₃ + x₄.


Le produit de ces polynômes, f(x) · g(x), est un autre polynôme qui représente la distribution des sommes. Cette distribution est identique à celle des sommes de deux dés réguliers, chacune représentée par h(x) = x₁ + x₂ + x₃ + x₄ + x₅ + x₆. Ainsi, le produit de h(x) et h(x) est équivalent au produit de f(x) et g(x).


Ce résultat mathématique illustre l'indépendance des systèmes non liés. La démonstration mathématique finale des chercheurs a nécessité une compréhension inédite de ces polynômes.


« Nous ne savions pas à quoi nous attendre au départ », explique Sandomirskiy. « Ces prédictions paradoxales nous intriguaient et nous nous demandions ce que signifiait l'absence de telles prédictions pour une théorie. Finalement, nous avons compris qu'il s'agissait nécessairement de la théorie de Boltzmann. Nous avons découvert une nouvelle perspective sur un concept fondamental des manuels scolaires depuis plus d'un siècle. »


XXXXXXXXXXX


RESUME


Une démonstration mathématique surprenante, basée sur l'expérience des dés de Sicherman, révèle une nouvelle vérité sur une loi fondamentale de la physique.


Cette démonstration prouve que la distribution de Boltzmann est la seule à pouvoir décrire des systèmes indépendants, ou non couplés, excluant ainsi toute autre théorie. À l'aide de représentations polynomiales et d'exemples comme les dés de Sicherman, l'analyse montre que seule la distribution de Boltzmann préserve l'indépendance des choix non liés, confirmant son rôle fondamental en physique comme en économie.


XXXXXXXXXXX


COMMENTAIRE

1/Je ne connaissais les dés de Sicherman !

2/

Les dés de Sicherman concernent plus précisemment une paire de dés à jouer affichant des nombres entiers différents de ceux de dés ordinaires, mais dont la somme possède néanmoins une loi de probabilité identique.

3/Quelle est l'histoire dés dés ?

La présence de dés cubiques vieux de plus de 4 000 ans dans des tombes de la vallée de l'Indus (ouest du sous-continent indien) semble pointer vers une origine asiatique de la forme aujourd'hui habituelle — le jeu de dé est mentionné le Rig-Veda (compilé entre environ 1500 et 900 av. J. -C.)1

XXXXXXXXXXXXXXXXX

More information

Fedor Sandomirskiy et al, On the origin of the Boltzmann distribution, Mathematische Annalen (2025). DOI: 10.1007/s00208-025-03263-x

 

mardi 10 février 2026

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER

 



Global warming is speeding breakdown of major greenhouse gas, research shows

Le réchauffement climatique accélère la décomposition d'un important gaz à effet de serre, selon une étude


Par Brian Bell, Université de Californie à Irvine


Édité par Gaby Clark, relu par Robert Egan


Notes de la rédaction


The GIST

Ajouter comme source privilégiée

Crédit : Unsplash/CC0 Domaine public


Des scientifiques de l'Université de Californie à Irvine ont découvert que le changement climatique accélère la décomposition de l'oxyde nitreux (N₂O), un puissant gaz à effet de serre et agent de destruction de la couche d'ozone, dans l'atmosphère. Cette découverte introduit une incertitude considérable dans les projections climatiques pour le reste du XXIe siècle.


Des données satellitaires révèlent une évolution de la durée de vie


Grâce à des observations satellitaires étendues du sondeur micro-ondes Limb Sounder de la NASA, couvrant deux décennies (2004-2024), des chercheurs du Département des sciences du système terrestre de l'UC Irvine ont constaté que la durée de vie atmosphérique du N₂O diminue de 1,4 % par décennie. Ce changement, dû aux modifications de la circulation et de la température stratosphériques induites par le changement climatique, est d'une ampleur comparable aux différences observées entre les divers scénarios d'émissions actuellement utilisés par le GIEC pour ses évaluations climatiques.


Les scientifiques de l'UC Irvine ont présenté leurs conclusions dans un article publié aujourd'hui dans les Proceedings of the National Academy of Sciences.


Un facteur crucial mais négligé


« La modification du cycle de vie de l'oxyde nitreux atmosphérique est un élément essentiel du problème qui a été largement négligé », explique Michael Prather, professeur de sciences du système terrestre à l'UC Irvine et co-auteur de l'étude. « Alors que la plupart des recherches se sont concentrées sur la projection de l'évolution des émissions de N₂O dues aux activités humaines, nous avons démontré que le changement climatique lui-même modifie la vitesse à laquelle ce gaz se décompose dans la stratosphère – et cet effet ne peut être ignoré dans les futures évaluations climatiques. »


Selon les climatologues, l'oxyde nitreux est le troisième gaz à effet de serre à longue durée de vie le plus important après le dioxyde de carbone et le méthane, et il est actuellement la principale substance appauvrissant la couche d'ozone d'origine humaine. Avec des concentrations atmosphériques atteignant environ 337 parties par milliard en 2024 et augmentant d'environ 3 % par décennie, il est crucial de comprendre le comportement du N₂O pour atténuer le changement climatique et protéger la couche d'ozone stratosphérique, selon Prather.


L'évolution du puits de carbone complexifie les projections futures.


Les recherches révèlent que la projection de l'abondance du N₂O atmosphérique nécessite non seulement de comprendre les émissions issues de l'agriculture, de l'industrie et des sources naturelles, mais aussi de prendre en compte l'impact du changement climatique sur le puits stratosphérique où le N₂O est détruit. La stratosphère est la couche atmosphérique située entre 10 et 50 kilomètres au-dessus de la surface de la Terre.


Parmi les principales conclusions de l'étude, on note que la durée de vie moyenne actuelle du N₂O est de 117 ans, mais qu'elle diminue d'environ un an et demi par décennie. Cette diminution est cohérente avec les changements observés dans la circulation stratosphérique et les profils de température. Extrapolée à l'horizon 2100, cette évolution de la durée de vie entraîne des variations de la concentration d'oxyde nitreux atmosphérique équivalentes à des variations importantes des scénarios d'émissions de gaz à effet de serre du GIEC.


Les auteurs de l'étude soulignent que si l'accumulation de dioxyde de carbone dans l'atmosphère entraîne un réchauffement près de la surface terrestre, le CO₂ refroidit la stratosphère, ce qui affecte les réactions chimiques détruisant le N₂O et produisant des oxydes d'azote qui appauvrissent la couche d'ozone.


« Ce refroidissement, combiné à des modifications des schémas de circulation atmosphérique, accélère le transport du N₂O vers les régions où il est détruit. Il s'agit d'une boucle de rétroaction qui complexifie davantage les projections climatiques », explique Calum Wilson, doctorant en sciences du système Terre à l'Université de Californie à Irvine et co-auteur de l'étude.

Découvrez les dernières avancées scientifiques, technologiques et spatiales grâce à plus de 100 000 abonnés qui font confiance à Phys.org pour leur veille quotidienne. Inscrivez-vous à notre newsletter gratuite et recevez quotidiennement ou hebdomadairement les dernières informations sur les découvertes, les innovations et les recherches importantes.


Courriel

L'incertitude rivalise avec les scénarios d'émissions


Cette recherche démontre que l'incertitude liée à l'évolution de la durée de vie du N₂O est comparable à celle qui existe entre les différents scénarios socio-économiques partagés (SSP), utilisés par les climatologues pour projeter les concentrations futures de gaz à effet de serre selon différentes hypothèses de politiques et de développement.


Par exemple, les scientifiques ont constaté que la poursuite de la tendance observée à la baisse de la durée de vie du N₂O réduirait les niveaux de N₂O projetés d'une quantité équivalente à celle qu'on obtiendrait en passant d'un scénario à fortes émissions (SSP3-7.0) à un scénario à émissions modérées (SSP1-2.6 ou SSP2-4.5), sans aucune modification des émissions réelles.


Selon Prather, les conclusions de l'étude ont des implications importantes pour les modèles et projections climatiques jusqu'en 2100, les calculs du potentiel de réchauffement climatique du N₂O, les évaluations de l'appauvrissement de la couche d'ozone, la politique climatique internationale dans le cadre de l'Accord de Paris et les stratégies de réduction des émissions agricoles et industrielles.


Comportement du protoxyde d'azote en altitude


Le protoxyde d'azote s'accumule dans la basse atmosphère, provenant à la fois de sources naturelles telles que les sols et l'eau des océans, et d'activités humaines comme l'agriculture, la combustion des énergies fossiles et les procédés industriels. Il est ensuite transporté dans la stratosphère tropicale par les courants atmosphériques globaux, où le rayonnement ultraviolet et des réactions chimiques le décomposent.


Le principal puits, responsable de 90 % de l'élimination du N₂O, est sa décomposition par le rayonnement solaire dans la moyenne et la haute stratosphère, à environ 25 à 40 kilomètres au-dessus de la surface terrestre. Les 10 % restants sont détruits par réaction avec des atomes d'oxygène excités.


Au cours de ce processus, certaines molécules de N₂O produisent des oxydes d'azote qui catalysent la destruction de l'ozone. Le N₂O est ainsi devenu la principale substance appauvrissant la couche d'ozone d'origine humaine à l'heure actuelle, après l'élimination progressive des chlorofluorocarbones (CFC) dans le cadre du Protocole de Montréal – fruit des recherches primées par le prix Nobel menées par le professeur F. Sherwood Rowland de l'Université de Californie à Irvine et le chercheur postdoctoral Mario Molina.


Prochaines étapes pour les modélisateurs du climat


Les auteurs de l'étude soulignent que, bien que leur analyse observationnelle et leur compréhension théorique mettent clairement en évidence des changements de la durée de vie du N₂O induits par le climat, des expériences de modélisation chimie-climat exhaustives sont nécessaires pour quantifier pleinement tous les mécanismes de rétroaction impliqués, en particulier la chaîne complète N₂O → oxydes d'azote → ozone → photolyse du N₂O (décomposition par la lumière solaire) → durée de vie du N₂O.


Des études complémentaires sont également nécessaires sur les variations régionales de la circulation stratosphérique, les interactions avec d'autres modifications de la composition atmosphérique et l'amélioration des projections selon différents scénarios climatiques.


« Ce travail met en lumière une lacune des modèles actuels du système terrestre », a ajouté Prather. « La chimie et la dynamique stratosphériques présentent des incertitudes dans la projection des émissions de N2O qui sont aussi importantes que les incertitudes liées aux différents scénarios d'émissions. Nous devons intégrer ces effets dans les modèles utilisés pour les évaluations climatiques internationales. »


XXXXXXXXXXXXXXX


RESUME

Le réchauffement climatique accélère la décomposition d'un important gaz à effet de serre, selon une étude.


L'oxyde nitreux (N₂O) atmosphérique se décompose plus rapidement en raison des modifications de la circulation stratosphérique et de la température induites par le changement climatique, sa durée de vie diminuant de 1,4 % par décennie. Cette situation introduit une incertitude dans les projections futures de N₂O, comparable aux différences observées entre les principaux scénarios d'émissions, ce qui complexifie les évaluations du climat et de l'ozone et souligne la nécessité d'améliorer la modélisation.


XXXXXXXXXX


COMMENTAIRES

On n een finit plus  avec ce foutu changement de climat !! A prés  le CO2  et lee CH4 voilà maintenant  que gae hilarant  N2O   vient nous démolir notre couche d  ozone O3   ! 

Mes élèves vont me demander  a quoi sevent des prédictions s iimprécises !


XXXXXXXXXXXX


Publication details

Michael J. Prather et al, Projecting nitrous oxide over the 21st century, uncertainty related to stratospheric loss, Proceedings of the National Academy of Sciences (2026). DOI: 10.1073/pnas.2524123123


Journal information: Proceeding

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER

 


Did we just see a black hole explode? Physicists think so—and it could explain (almost) everything



Avons-nous assisté à l'explosion d'un trou noir ? Des physiciens le pensent, et cela pourrait expliquer (presque) tout.


Par l'Université du Massachusetts à Amherst

Édité par Gaby Clark, révisé par Robert Egan

Notes de la rédaction

The GIST
Ajouter comme source privilégiée

Avons-nous assisté à l'explosion d'un trou noir ? Les physiciens de l'UMass Amherst le pensent. Cette illustration propose une vision fantaisiste de petits trous noirs primordiaux. Crédit : Université du Massachusetts à Amherst

En 2023, une particule subatomique appelée neutrino a percuté la Terre avec une énergie si élevée qu'elle semblait impossible. En effet, aucune source connue dans l'univers n'est capable de produire une telle énergie : 100 000 fois supérieure à celle de la particule la plus énergétique jamais produite par le Grand collisionneur de hadrons (LHC), l'accélérateur de particules le plus puissant au monde. Cependant, une équipe de physiciens de l'Université du Massachusetts à Amherst a récemment émis l'hypothèse qu'un tel phénomène pourrait se produire lors de l'explosion d'un type particulier de trou noir, appelé « trou noir primordial quasi-extrémal ».

Dans une nouvelle étude publiée dans Physical Review Letters, l'équipe explique non seulement l'existence du neutrino, autrement impossible, mais démontre également que cette particule élémentaire pourrait révéler la nature fondamentale de l'univers.

De l'effondrement stellaire à l'univers primordial

Les trous noirs existent, et nous comprenons bien leur cycle de vie : une étoile ancienne et massive épuise son combustible, implose en une supernova d'une puissance colossale et laisse derrière elle une région de l'espace-temps où la gravité est si intense que rien, pas même la lumière, ne peut s'en échapper. Ces trous noirs sont incroyablement massifs et sont fondamentalement stables.

Mais, comme l'a souligné le physicien Stephen Hawking en 1970, un autre type de trou noir – un trou noir primordial (TNP) – pourrait être créé non pas par l'effondrement d'une étoile, mais à partir des conditions primordiales de l'univers peu après le Big Bang. Les trous noirs primordiaux (PBH) n'existent pour l'instant qu'en théorie et, comme les trous noirs classiques, leur densité est telle que presque rien ne peut s'en échapper – ce qui leur confère leur couleur noire. Cependant, malgré leur densité, les PBH pourraient être beaucoup plus légers que les trous noirs que nous avons observés jusqu'à présent. De plus, Hawking a démontré que les PBH pouvaient émettre lentement des particules via ce que l'on appelle aujourd'hui le « rayonnement de Hawking » s'ils atteignaient une température suffisamment élevée.

Comment les trous noirs en évaporation pourraient exploser

« Plus un trou noir est léger, plus il devrait être chaud et plus il émettra de particules », explique Andrea Thamm, co-auteure de cette nouvelle étude et professeure adjointe de physique à l'Université du Massachusetts à Amherst. « À mesure que les PBH s'évaporent, ils deviennent de plus en plus légers, et donc de plus en plus chauds, émettant toujours plus de rayonnement dans un processus d'emballement jusqu'à l'explosion. C'est ce rayonnement de Hawking que nos télescopes peuvent détecter. »

Si une telle explosion était observée, elle nous fournirait un catalogue définitif de toutes les particules subatomiques existantes, y compris celles que nous avons déjà observées, comme les électrons, les quarks et les bosons de Higgs, celles que nous n'avons fait qu'émettre des hypothèses, comme les particules de matière noire, ainsi que tout ce qui est, à ce jour, totalement inconnu de la science. L'équipe de l'UMass Amherst a précédemment démontré que de telles explosions pourraient se produire avec une fréquence surprenante – environ tous les dix ans – et que si nous y prêtions attention, nos instruments d'observation du cosmos actuels pourraient les enregistrer.

Jusqu'ici, rien de bien nouveau.

L'apparition d'un neutrino « impossible »

Puis, en 2023, une expérience appelée la collaboration KM3NeT a capturé ce neutrino impossible – exactement le type de preuve que l'équipe de l'UMass Amherst avait émis l'hypothèse que nous pourrions bientôt observer.

Mais il y avait un hic : une expérience similaire, appelée IceCube, également conçue pour capturer les neutrinos cosmiques de haute énergie, n’a non seulement pas enregistré l’événement, mais n’avait jamais rien détecté d’une puissance ne serait-ce qu’un centième de celle d’IceCube. Si l’univers est relativement dense en trous noirs primordiaux (PBH) et que ces derniers explosent fréquemment, ne devrions-nous pas être bombardés de neutrinos de haute énergie ? Comment expliquer cette différence ?

Découvrez les dernières actualités scientifiques, technologiques et spatiales grâce à plus de 100 000 abonnés qui font confiance à Phys.org pour leurs analyses quotidiennes. Inscrivez-vous à notre newsletter gratuite et recevez chaque jour ou chaque semaine des informations sur les découvertes, les innovations et les recherches importantes.

Courriel

L'explication par la charge sombre

« Nous pensons que les trous noirs primordiaux (PBH) dotés d'une "charge sombre" — ce que nous appelons des PBH quasi-extrémaux — constituent le chaînon manquant », explique Joaquim Iguaz Juan, chercheur postdoctoral en physique à l'UMass Amherst et co-auteur de l'article. La charge sombre est essentiellement une copie de la force électrique classique, mais incluant une version hypothétique et très lourde de l'électron, que l'équipe nomme « électron sombre ».

« Il existe d'autres modèles de PBH, plus simples », indique Michael Baker, co-auteur et professeur adjoint de physique à l'UMass Amherst ; « notre modèle de charge sombre est plus complexe, ce qui signifie qu'il pourrait fournir une représentation plus fidèle de la réalité. Le plus fascinant est de constater que notre modèle peut expliquer ce phénomène jusque-là inexplicable. »

« Un PBH doté d'une charge sombre », ajoute Thamm, « possède des propriétés uniques et se comporte d'une manière particulière. »
Lien entre les neutrinos et la matière noire

L'équipe est convaincue que son modèle de trous noirs primordiaux (PBH) à charge sombre peut non seulement expliquer le neutrino, mais aussi résoudre le mystère de la matière noire. « Les observations des galaxies et du fond diffus cosmologique suggèrent l'existence d'une forme de matière noire », déclare Baker.

« Si notre hypothèse de charge sombre est avérée », ajoute Iguaz Juan, « alors nous pensons qu'il pourrait exister une population significative de PBH, ce qui serait cohérent avec d'autres observations astrophysiques et expliquerait toute la matière noire manquante dans l'univers. »

« L'observation du neutrino de haute énergie a été un événement incroyable », conclut Baker. « Elle nous a ouvert une nouvelle fenêtre sur l'univers. Mais nous pourrions maintenant être sur le point de vérifier expérimentalement le rayonnement de Hawking, d'obtenir des preuves de l'existence de trous noirs primordiaux et de nouvelles particules au-delà du modèle standard, et d'explorer…

XXXXXXXXXXXXXX

RESUME

Avons-nous assisté à l'explosion d'un trou noir ? Les physiciens le pensent, et cela pourrait expliquer (presque) tout.
Un neutrino de haute énergie détecté en 2023 pourrait s'expliquer par l'évaporation explosive de trous noirs primordiaux quasi-extrémaux possédant une hypothétique « charge sombre ». Ce modèle rend compte du neutrino observé et pourrait relier les trous noirs primordiaux à la matière noire, apportant potentiellement des preuves de l'existence du rayonnement de Hawking et de nouvelles particules au-delà du Modèle Standard.

XXXXXXXXXXX

COMMENTAITES

Cet Article  est basé sur ce résultat de neutrino  pharahonique et il nous lance dans des hypothèses et des moèles  trés aventureux ....
Mais apres tout pourquoi pas  puisque le rayonnement de Hawkings est déjà par lui meme une audacieuse supposition !!!!

xxxxxxxxxxxxxx
Publication details
Explaining the PeV neutrino fluxes at KM3NeT and IceCube with quasi-extremal primordial black holes, Physical Review Letters (2025). DOI: 10.1103/r793-p7ct. On arXiv : DOI: 10.48550/arxiv.2505.22722

Journal information: Physical Review Letters  , arXiv 

Key concepts