mercredi 11 février 2026

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER





A 'crazy' dice proof leads to a new understanding of a fundamental law of physics

Le démonstration par dés révèle une nouvelle loi fondamentale de la physique


Par Whitney Clavin, Institut de Technologie de Californie


Édité par Robert Egan, révisé par Andrew Zinin


Notes des éditeurs


L'essentiel


Ajouter comme source privilégiée


Crédit : Institut de Technologie de Californie


À l'heure actuelle, les molécules de l'air autour de vous se meuvent de façon chaotique et imprévisible. Pour comprendre de tels systèmes, les physiciens utilisent une loi appelée distribution de Boltzmann qui, plutôt que de décrire la position exacte de chaque particule, décrit la probabilité de trouver le système dans chacun de ses états possibles. Cela leur permet de faire des prédictions sur l'ensemble du système, même si les mouvements individuels des particules sont aléatoires. C'est comme lancer un dé : chaque lancer est imprévisible, mais si vous le lancez encore et encore, une suite de probabilités se dégagera.


Développée dans la seconde moitié du XIXe siècle par Ludwig Boltzmann, physicien et mathématicien autrichien, la distribution de Boltzmann est aujourd'hui largement utilisée pour modéliser des systèmes dans de nombreux domaines, de l'intelligence artificielle à l'économie, où elle est appelée « logit multinomial ».


Des économistes ont récemment approfondi l'étude de cette loi universelle et abouti à un résultat surprenant : la distribution de Boltzmann, comme le démontre leur démonstration mathématique, est la seule loi capable de décrire avec précision des systèmes indépendants, ou découplés.


Ces travaux de recherche, publiés dans la revue Mathematische Annalen, sont l'œuvre de deux économistes et mathématiciens issus de la physique : Omer Tamuz, professeur d'économie et de mathématiques au Caltech, et Fedor Sandomirskiy, ancien postdoctorant au Caltech et actuellement maître de conférences en économie à l'université de Princeton.


« C'est un exemple de la façon dont la pensée mathématique abstraite peut faire le lien entre différents domaines – en l'occurrence, en reliant des concepts de la théorie économique à la physique », explique Tamuz. « L'environnement interdisciplinaire de Caltech favorise des découvertes comme celle-ci. »


Pour comprendre pourquoi un scientifique s'intéresserait à des systèmes sans lien apparent, prenons l'exemple d'un économiste qui étudie comment les consommateurs choisissent entre deux marques de céréales. Lors de l'élaboration d'une théorie décrivant ce comportement, les scientifiques doivent s'assurer que leur modèle simplifié n'établit pas de liens absurdes. Par exemple, si le modèle prédisait que la préférence d'une personne pour une marque de céréales dépendait du liquide vaisselle acheté ce jour-là ou de la couleur de la chemise portée au magasin, les scientifiques sauraient que le modèle présente une faille.


« Nous préférons ne pas prendre en compte des choix supplémentaires qui semblent sans rapport, comme le savon choisi par le client dans un autre rayon », explique Tamuz. « Nous nous posons la question suivante : dans quelles circonstances l'intégration de ce choix apparemment sans lien laisserait-elle la prédiction du modèle inchangée ? »


Bien que la distribution de Boltzmann décrive avec précision de tels systèmes sans lien apparent, Tamuz et Sandomirskiy se sont interrogés : existe-t-il d'autres théories capables d'en faire autant ?


« Tout le monde utilise la même théorie », a conclu Tamuz. « Mais quelles autres théories possèdent cette propriété intéressante de maintenir correctement l'absence de lien entre des comportements sans rapport ? Devrions-nous plutôt utiliser ces théories ? Si de telles théories existent, elles pourraient s'avérer utiles aussi bien en économie qu'en physique. Dans le cas contraire, nous apprendrions que la distribution de Boltzmann est la seule théorie physique cohérente et que le modèle logit multinomial est le seul modèle économique capable de prédire des choix indépendants dans des situations sans rapport. »


Omer Tamuz et ses dés « fous ». Crédit : Caltech/Whitney Clavin


Un lancer de dé


Pour trouver d'autres théories susceptibles de s'appliquer à des systèmes sans rapport, les économistes ont mis au point de nouvelles méthodes pour tester les fondements mathématiques. Tamuz aime utiliser des dés pour expliquer leur approche. Chaque lancer de dé est aléatoire – on peut obtenir 1, 2, 3, 4, 5 ou 6 – et peut être interprété comme le comportement d'un individu ou d'un système physique. Si vous lancez le dé plusieurs fois, une régularité se dégagera : chaque résultat, les nombres de 1 à 6, apparaîtra environ une fois sur six. C'est la distribution d'un seul dé.


Si vous lancez deux dés et additionnez leurs résultats, vous obtiendrez une distribution différente. Par exemple, la probabilité d'obtenir un total de 2 est de 1/36 car il n'y a qu'une seule façon d'obtenir un 2 (deux 1). En revanche, la probabilité d'obtenir un 8 est de 5/36 car il y a cinq façons d'obtenir un 8 (deux 4, deux 3 et deux 5, deux 5 et deux 3, deux 2 et deux 6, et deux 6).


Il est important de noter que le résultat d'un dé ne donne aucune information sur le résultat de l'autre, car il s'agit de deux systèmes physiques indépendants. Pour reprendre l'exemple économique, un dé est comparable au choix des céréales, et l'autre au choix du liquide vaisselle. Ces choix aléatoires ne devraient pas s'influencer mutuellement.

Un lancer de dés


Pour trouver d'autres théories possibles applicables à des systèmes non liés, les économistes ont mis au point de nouvelles méthodes pour tester les équations sous-jacentes. Tamuz aime utiliser des dés pour expliquer leur approche. Chaque lancer de dé est aléatoire – on peut obtenir 1, 2, 3, 4, 5 ou 6 – et peut être interprété comme le comportement d'un individu ou d'un système physique. En lançant le dé plusieurs fois, une régularité se dessine : chaque résultat, les nombres de 1 à 6, apparaît environ une fois sur six. C'est la distribution d'un seul dé.


Si l'on lance deux dés et que l'on additionne leurs résultats, on obtient une distribution différente. Par exemple, la probabilité d'obtenir un total de 2 est de 1/36 car il n'y a qu'une seule façon d'obtenir 2 (un 1 et un 1). Mais la probabilité d'obtenir un 8 est de 5/36 car il existe cinq façons d'obtenir un 8 (deux 4, deux 3 et deux 5, deux 5 et deux 3, deux 2 et deux 6, et deux 6 et deux 2).


Il est important de noter que le résultat d'un dé ne donne aucune information sur le résultat de l'autre, puisqu'il s'agit de deux systèmes physiques indépendants. Pour reprendre l'exemple économique, un dé est comparable au choix des céréales, et l'autre au choix du liquide vaisselle. Ces choix aléatoires ne devraient pas s'influencer mutuellement.


Pour comprendre comment les chercheurs ont testé des théories alternatives à la distribution de Boltzmann, il est nécessaire d'introduire une paire de dés « atypiques », comme les dés de Sicherman, inventés en 1977 par le colonel George Sicherman, créateur de casse-têtes et passionné de mathématiques.


Une paire de dés « atypiques », ou dés de Sicherman, inventés en 1977 par le colonel George Sicherman, créateur de casse-têtes et passionné de mathématiques. Crédit : Caltech/Whitney Clavin


Tamuz (qui, d'ailleurs, garde une paire de dés de Sicherman sur son bureau) explique que les nombres inscrits sur ces dés à six faces sont pour le moins originaux : l'un des dés affiche les nombres 1, 3, 4, 5, 6, 8, et l'autre, 1, 2, 2, 3, 3, 4.


Bien que chaque dé soit très différent d'un dé classique, si vous les lanciez tous les deux et ne notiez que le total, vous ne pourriez pas les distinguer de dés ordinaires. Comme pour les dés classiques, la probabilité d'obtenir un total de 2 avec des dés de Sicherman est de 1/36, et celle d'obtenir 8 est de 5/36. Autrement dit, la distribution de probabilité des sommes obtenues avec chaque type de dé est la même.


Découvrez les dernières actualités scientifiques, technologiques et spatiales grâce à plus de 100 000 abonnés qui font confiance à Phys.org pour leurs analyses quotidiennes. Inscrivez-vous à notre newsletter gratuite et recevez quotidiennement ou hebdomadairement les dernières actualités, innovations et recherches importantes.


Tamuz et Sandomirskiy ont compris qu'ils pouvaient utiliser les mathématiques sous-jacentes à ces dés de Sicherman pour tester des théories alternatives. Si une théorie expliquait que les dés normaux et les dés « faux » présentaient les mêmes distributions de probabilité des sommes, elle validait sa capacité à décrire avec précision des systèmes indépendants. En revanche, si les dés normaux et les dés « faux » présentaient des distributions de probabilité des sommes différentes (comme dans l'exemple absurde où le choix du savon influencerait celui des céréales), la théorie était invalidée.


Pour tester d'autres théories alternatives, l'astuce consistait à trouver davantage d'exemples de dés « faux » que les dés de Sicherman. Chaque nouvel exemple découvert permettait de tester d'autres théories. Il existe une infinité de théories possibles, qu'ils ont pu associer à une infinité de paires théoriques de dés « faux ». Finalement, ils ont élaboré une démonstration mathématique qui a invalidé toutes les théories alternatives et montré que la distribution de Boltzmann, éprouvée et largement utilisée en science depuis plus d'un siècle, est la seule valable.


En termes mathématiques, la recherche se résume à des polynômes, des fonctions telles que f(x) = x₁ + 3x₂ + x₃, que vous avez peut-être déjà vues en cours d'algèbre.


Toutes les distributions mentionnées ci-dessus, qu'il s'agisse de la distribution de Boltzmann ou d'autres théories, peuvent être représentées par des polynômes. Par exemple, le premier dé de Sicherman, dont les faces sont 1, 3, 4, 5, 6 et 8, est représenté par f(x) = x₁ + x₃ + x₄ + x₅ + x₆ + x₈.


Le second dé de Sicherman, dont les faces sont 1, 2, 2, 3, 3 et 4, est représenté par g(x) = x₁ + 2x₂ + 2x₃ + x₄.


Le produit de ces polynômes, f(x) · g(x), est un autre polynôme qui représente la distribution des sommes. Cette distribution est identique à celle des sommes de deux dés réguliers, chacune représentée par h(x) = x₁ + x₂ + x₃ + x₄ + x₅ + x₆. Ainsi, le produit de h(x) et h(x) est équivalent au produit de f(x) et g(x).


Ce résultat mathématique illustre l'indépendance des systèmes non liés. La démonstration mathématique finale des chercheurs a nécessité une compréhension inédite de ces polynômes.


« Nous ne savions pas à quoi nous attendre au départ », explique Sandomirskiy. « Ces prédictions paradoxales nous intriguaient et nous nous demandions ce que signifiait l'absence de telles prédictions pour une théorie. Finalement, nous avons compris qu'il s'agissait nécessairement de la théorie de Boltzmann. Nous avons découvert une nouvelle perspective sur un concept fondamental des manuels scolaires depuis plus d'un siècle. »


XXXXXXXXXXX


RESUME


Une démonstration mathématique surprenante, basée sur l'expérience des dés de Sicherman, révèle une nouvelle vérité sur une loi fondamentale de la physique.


Cette démonstration prouve que la distribution de Boltzmann est la seule à pouvoir décrire des systèmes indépendants, ou non couplés, excluant ainsi toute autre théorie. À l'aide de représentations polynomiales et d'exemples comme les dés de Sicherman, l'analyse montre que seule la distribution de Boltzmann préserve l'indépendance des choix non liés, confirmant son rôle fondamental en physique comme en économie.


XXXXXXXXXXX


COMMENTAIRE

1/Je ne connaissais les dés de Sicherman !

2/

Les dés de Sicherman concernent plus précisemment une paire de dés à jouer affichant des nombres entiers différents de ceux de dés ordinaires, mais dont la somme possède néanmoins une loi de probabilité identique.

3/Quelle est l'histoire dés dés ?

La présence de dés cubiques vieux de plus de 4 000 ans dans des tombes de la vallée de l'Indus (ouest du sous-continent indien) semble pointer vers une origine asiatique de la forme aujourd'hui habituelle — le jeu de dé est mentionné le Rig-Veda (compilé entre environ 1500 et 900 av. J. -C.)1

XXXXXXXXXXXXXXXXX

More information

Fedor Sandomirskiy et al, On the origin of the Boltzmann distribution, Mathematische Annalen (2025). DOI: 10.1007/s00208-025-03263-x

 

mardi 10 février 2026

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER

 



Global warming is speeding breakdown of major greenhouse gas, research shows

Le réchauffement climatique accélère la décomposition d'un important gaz à effet de serre, selon une étude


Par Brian Bell, Université de Californie à Irvine


Édité par Gaby Clark, relu par Robert Egan


Notes de la rédaction


The GIST

Ajouter comme source privilégiée

Crédit : Unsplash/CC0 Domaine public


Des scientifiques de l'Université de Californie à Irvine ont découvert que le changement climatique accélère la décomposition de l'oxyde nitreux (N₂O), un puissant gaz à effet de serre et agent de destruction de la couche d'ozone, dans l'atmosphère. Cette découverte introduit une incertitude considérable dans les projections climatiques pour le reste du XXIe siècle.


Des données satellitaires révèlent une évolution de la durée de vie


Grâce à des observations satellitaires étendues du sondeur micro-ondes Limb Sounder de la NASA, couvrant deux décennies (2004-2024), des chercheurs du Département des sciences du système terrestre de l'UC Irvine ont constaté que la durée de vie atmosphérique du N₂O diminue de 1,4 % par décennie. Ce changement, dû aux modifications de la circulation et de la température stratosphériques induites par le changement climatique, est d'une ampleur comparable aux différences observées entre les divers scénarios d'émissions actuellement utilisés par le GIEC pour ses évaluations climatiques.


Les scientifiques de l'UC Irvine ont présenté leurs conclusions dans un article publié aujourd'hui dans les Proceedings of the National Academy of Sciences.


Un facteur crucial mais négligé


« La modification du cycle de vie de l'oxyde nitreux atmosphérique est un élément essentiel du problème qui a été largement négligé », explique Michael Prather, professeur de sciences du système terrestre à l'UC Irvine et co-auteur de l'étude. « Alors que la plupart des recherches se sont concentrées sur la projection de l'évolution des émissions de N₂O dues aux activités humaines, nous avons démontré que le changement climatique lui-même modifie la vitesse à laquelle ce gaz se décompose dans la stratosphère – et cet effet ne peut être ignoré dans les futures évaluations climatiques. »


Selon les climatologues, l'oxyde nitreux est le troisième gaz à effet de serre à longue durée de vie le plus important après le dioxyde de carbone et le méthane, et il est actuellement la principale substance appauvrissant la couche d'ozone d'origine humaine. Avec des concentrations atmosphériques atteignant environ 337 parties par milliard en 2024 et augmentant d'environ 3 % par décennie, il est crucial de comprendre le comportement du N₂O pour atténuer le changement climatique et protéger la couche d'ozone stratosphérique, selon Prather.


L'évolution du puits de carbone complexifie les projections futures.


Les recherches révèlent que la projection de l'abondance du N₂O atmosphérique nécessite non seulement de comprendre les émissions issues de l'agriculture, de l'industrie et des sources naturelles, mais aussi de prendre en compte l'impact du changement climatique sur le puits stratosphérique où le N₂O est détruit. La stratosphère est la couche atmosphérique située entre 10 et 50 kilomètres au-dessus de la surface de la Terre.


Parmi les principales conclusions de l'étude, on note que la durée de vie moyenne actuelle du N₂O est de 117 ans, mais qu'elle diminue d'environ un an et demi par décennie. Cette diminution est cohérente avec les changements observés dans la circulation stratosphérique et les profils de température. Extrapolée à l'horizon 2100, cette évolution de la durée de vie entraîne des variations de la concentration d'oxyde nitreux atmosphérique équivalentes à des variations importantes des scénarios d'émissions de gaz à effet de serre du GIEC.


Les auteurs de l'étude soulignent que si l'accumulation de dioxyde de carbone dans l'atmosphère entraîne un réchauffement près de la surface terrestre, le CO₂ refroidit la stratosphère, ce qui affecte les réactions chimiques détruisant le N₂O et produisant des oxydes d'azote qui appauvrissent la couche d'ozone.


« Ce refroidissement, combiné à des modifications des schémas de circulation atmosphérique, accélère le transport du N₂O vers les régions où il est détruit. Il s'agit d'une boucle de rétroaction qui complexifie davantage les projections climatiques », explique Calum Wilson, doctorant en sciences du système Terre à l'Université de Californie à Irvine et co-auteur de l'étude.

Découvrez les dernières avancées scientifiques, technologiques et spatiales grâce à plus de 100 000 abonnés qui font confiance à Phys.org pour leur veille quotidienne. Inscrivez-vous à notre newsletter gratuite et recevez quotidiennement ou hebdomadairement les dernières informations sur les découvertes, les innovations et les recherches importantes.


Courriel

L'incertitude rivalise avec les scénarios d'émissions


Cette recherche démontre que l'incertitude liée à l'évolution de la durée de vie du N₂O est comparable à celle qui existe entre les différents scénarios socio-économiques partagés (SSP), utilisés par les climatologues pour projeter les concentrations futures de gaz à effet de serre selon différentes hypothèses de politiques et de développement.


Par exemple, les scientifiques ont constaté que la poursuite de la tendance observée à la baisse de la durée de vie du N₂O réduirait les niveaux de N₂O projetés d'une quantité équivalente à celle qu'on obtiendrait en passant d'un scénario à fortes émissions (SSP3-7.0) à un scénario à émissions modérées (SSP1-2.6 ou SSP2-4.5), sans aucune modification des émissions réelles.


Selon Prather, les conclusions de l'étude ont des implications importantes pour les modèles et projections climatiques jusqu'en 2100, les calculs du potentiel de réchauffement climatique du N₂O, les évaluations de l'appauvrissement de la couche d'ozone, la politique climatique internationale dans le cadre de l'Accord de Paris et les stratégies de réduction des émissions agricoles et industrielles.


Comportement du protoxyde d'azote en altitude


Le protoxyde d'azote s'accumule dans la basse atmosphère, provenant à la fois de sources naturelles telles que les sols et l'eau des océans, et d'activités humaines comme l'agriculture, la combustion des énergies fossiles et les procédés industriels. Il est ensuite transporté dans la stratosphère tropicale par les courants atmosphériques globaux, où le rayonnement ultraviolet et des réactions chimiques le décomposent.


Le principal puits, responsable de 90 % de l'élimination du N₂O, est sa décomposition par le rayonnement solaire dans la moyenne et la haute stratosphère, à environ 25 à 40 kilomètres au-dessus de la surface terrestre. Les 10 % restants sont détruits par réaction avec des atomes d'oxygène excités.


Au cours de ce processus, certaines molécules de N₂O produisent des oxydes d'azote qui catalysent la destruction de l'ozone. Le N₂O est ainsi devenu la principale substance appauvrissant la couche d'ozone d'origine humaine à l'heure actuelle, après l'élimination progressive des chlorofluorocarbones (CFC) dans le cadre du Protocole de Montréal – fruit des recherches primées par le prix Nobel menées par le professeur F. Sherwood Rowland de l'Université de Californie à Irvine et le chercheur postdoctoral Mario Molina.


Prochaines étapes pour les modélisateurs du climat


Les auteurs de l'étude soulignent que, bien que leur analyse observationnelle et leur compréhension théorique mettent clairement en évidence des changements de la durée de vie du N₂O induits par le climat, des expériences de modélisation chimie-climat exhaustives sont nécessaires pour quantifier pleinement tous les mécanismes de rétroaction impliqués, en particulier la chaîne complète N₂O → oxydes d'azote → ozone → photolyse du N₂O (décomposition par la lumière solaire) → durée de vie du N₂O.


Des études complémentaires sont également nécessaires sur les variations régionales de la circulation stratosphérique, les interactions avec d'autres modifications de la composition atmosphérique et l'amélioration des projections selon différents scénarios climatiques.


« Ce travail met en lumière une lacune des modèles actuels du système terrestre », a ajouté Prather. « La chimie et la dynamique stratosphériques présentent des incertitudes dans la projection des émissions de N2O qui sont aussi importantes que les incertitudes liées aux différents scénarios d'émissions. Nous devons intégrer ces effets dans les modèles utilisés pour les évaluations climatiques internationales. »


XXXXXXXXXXXXXXX


RESUME

Le réchauffement climatique accélère la décomposition d'un important gaz à effet de serre, selon une étude.


L'oxyde nitreux (N₂O) atmosphérique se décompose plus rapidement en raison des modifications de la circulation stratosphérique et de la température induites par le changement climatique, sa durée de vie diminuant de 1,4 % par décennie. Cette situation introduit une incertitude dans les projections futures de N₂O, comparable aux différences observées entre les principaux scénarios d'émissions, ce qui complexifie les évaluations du climat et de l'ozone et souligne la nécessité d'améliorer la modélisation.


XXXXXXXXXX


COMMENTAIRES

On n een finit plus  avec ce foutu changement de climat !! A prés  le CO2  et lee CH4 voilà maintenant  que gae hilarant  N2O   vient nous démolir notre couche d  ozone O3   ! 

Mes élèves vont me demander  a quoi sevent des prédictions s iimprécises !


XXXXXXXXXXXX


Publication details

Michael J. Prather et al, Projecting nitrous oxide over the 21st century, uncertainty related to stratospheric loss, Proceedings of the National Academy of Sciences (2026). DOI: 10.1073/pnas.2524123123


Journal information: Proceeding

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER

 


Did we just see a black hole explode? Physicists think so—and it could explain (almost) everything



Avons-nous assisté à l'explosion d'un trou noir ? Des physiciens le pensent, et cela pourrait expliquer (presque) tout.


Par l'Université du Massachusetts à Amherst

Édité par Gaby Clark, révisé par Robert Egan

Notes de la rédaction

The GIST
Ajouter comme source privilégiée

Avons-nous assisté à l'explosion d'un trou noir ? Les physiciens de l'UMass Amherst le pensent. Cette illustration propose une vision fantaisiste de petits trous noirs primordiaux. Crédit : Université du Massachusetts à Amherst

En 2023, une particule subatomique appelée neutrino a percuté la Terre avec une énergie si élevée qu'elle semblait impossible. En effet, aucune source connue dans l'univers n'est capable de produire une telle énergie : 100 000 fois supérieure à celle de la particule la plus énergétique jamais produite par le Grand collisionneur de hadrons (LHC), l'accélérateur de particules le plus puissant au monde. Cependant, une équipe de physiciens de l'Université du Massachusetts à Amherst a récemment émis l'hypothèse qu'un tel phénomène pourrait se produire lors de l'explosion d'un type particulier de trou noir, appelé « trou noir primordial quasi-extrémal ».

Dans une nouvelle étude publiée dans Physical Review Letters, l'équipe explique non seulement l'existence du neutrino, autrement impossible, mais démontre également que cette particule élémentaire pourrait révéler la nature fondamentale de l'univers.

De l'effondrement stellaire à l'univers primordial

Les trous noirs existent, et nous comprenons bien leur cycle de vie : une étoile ancienne et massive épuise son combustible, implose en une supernova d'une puissance colossale et laisse derrière elle une région de l'espace-temps où la gravité est si intense que rien, pas même la lumière, ne peut s'en échapper. Ces trous noirs sont incroyablement massifs et sont fondamentalement stables.

Mais, comme l'a souligné le physicien Stephen Hawking en 1970, un autre type de trou noir – un trou noir primordial (TNP) – pourrait être créé non pas par l'effondrement d'une étoile, mais à partir des conditions primordiales de l'univers peu après le Big Bang. Les trous noirs primordiaux (PBH) n'existent pour l'instant qu'en théorie et, comme les trous noirs classiques, leur densité est telle que presque rien ne peut s'en échapper – ce qui leur confère leur couleur noire. Cependant, malgré leur densité, les PBH pourraient être beaucoup plus légers que les trous noirs que nous avons observés jusqu'à présent. De plus, Hawking a démontré que les PBH pouvaient émettre lentement des particules via ce que l'on appelle aujourd'hui le « rayonnement de Hawking » s'ils atteignaient une température suffisamment élevée.

Comment les trous noirs en évaporation pourraient exploser

« Plus un trou noir est léger, plus il devrait être chaud et plus il émettra de particules », explique Andrea Thamm, co-auteure de cette nouvelle étude et professeure adjointe de physique à l'Université du Massachusetts à Amherst. « À mesure que les PBH s'évaporent, ils deviennent de plus en plus légers, et donc de plus en plus chauds, émettant toujours plus de rayonnement dans un processus d'emballement jusqu'à l'explosion. C'est ce rayonnement de Hawking que nos télescopes peuvent détecter. »

Si une telle explosion était observée, elle nous fournirait un catalogue définitif de toutes les particules subatomiques existantes, y compris celles que nous avons déjà observées, comme les électrons, les quarks et les bosons de Higgs, celles que nous n'avons fait qu'émettre des hypothèses, comme les particules de matière noire, ainsi que tout ce qui est, à ce jour, totalement inconnu de la science. L'équipe de l'UMass Amherst a précédemment démontré que de telles explosions pourraient se produire avec une fréquence surprenante – environ tous les dix ans – et que si nous y prêtions attention, nos instruments d'observation du cosmos actuels pourraient les enregistrer.

Jusqu'ici, rien de bien nouveau.

L'apparition d'un neutrino « impossible »

Puis, en 2023, une expérience appelée la collaboration KM3NeT a capturé ce neutrino impossible – exactement le type de preuve que l'équipe de l'UMass Amherst avait émis l'hypothèse que nous pourrions bientôt observer.

Mais il y avait un hic : une expérience similaire, appelée IceCube, également conçue pour capturer les neutrinos cosmiques de haute énergie, n’a non seulement pas enregistré l’événement, mais n’avait jamais rien détecté d’une puissance ne serait-ce qu’un centième de celle d’IceCube. Si l’univers est relativement dense en trous noirs primordiaux (PBH) et que ces derniers explosent fréquemment, ne devrions-nous pas être bombardés de neutrinos de haute énergie ? Comment expliquer cette différence ?

Découvrez les dernières actualités scientifiques, technologiques et spatiales grâce à plus de 100 000 abonnés qui font confiance à Phys.org pour leurs analyses quotidiennes. Inscrivez-vous à notre newsletter gratuite et recevez chaque jour ou chaque semaine des informations sur les découvertes, les innovations et les recherches importantes.

Courriel

L'explication par la charge sombre

« Nous pensons que les trous noirs primordiaux (PBH) dotés d'une "charge sombre" — ce que nous appelons des PBH quasi-extrémaux — constituent le chaînon manquant », explique Joaquim Iguaz Juan, chercheur postdoctoral en physique à l'UMass Amherst et co-auteur de l'article. La charge sombre est essentiellement une copie de la force électrique classique, mais incluant une version hypothétique et très lourde de l'électron, que l'équipe nomme « électron sombre ».

« Il existe d'autres modèles de PBH, plus simples », indique Michael Baker, co-auteur et professeur adjoint de physique à l'UMass Amherst ; « notre modèle de charge sombre est plus complexe, ce qui signifie qu'il pourrait fournir une représentation plus fidèle de la réalité. Le plus fascinant est de constater que notre modèle peut expliquer ce phénomène jusque-là inexplicable. »

« Un PBH doté d'une charge sombre », ajoute Thamm, « possède des propriétés uniques et se comporte d'une manière particulière. »
Lien entre les neutrinos et la matière noire

L'équipe est convaincue que son modèle de trous noirs primordiaux (PBH) à charge sombre peut non seulement expliquer le neutrino, mais aussi résoudre le mystère de la matière noire. « Les observations des galaxies et du fond diffus cosmologique suggèrent l'existence d'une forme de matière noire », déclare Baker.

« Si notre hypothèse de charge sombre est avérée », ajoute Iguaz Juan, « alors nous pensons qu'il pourrait exister une population significative de PBH, ce qui serait cohérent avec d'autres observations astrophysiques et expliquerait toute la matière noire manquante dans l'univers. »

« L'observation du neutrino de haute énergie a été un événement incroyable », conclut Baker. « Elle nous a ouvert une nouvelle fenêtre sur l'univers. Mais nous pourrions maintenant être sur le point de vérifier expérimentalement le rayonnement de Hawking, d'obtenir des preuves de l'existence de trous noirs primordiaux et de nouvelles particules au-delà du modèle standard, et d'explorer…

XXXXXXXXXXXXXX

RESUME

Avons-nous assisté à l'explosion d'un trou noir ? Les physiciens le pensent, et cela pourrait expliquer (presque) tout.
Un neutrino de haute énergie détecté en 2023 pourrait s'expliquer par l'évaporation explosive de trous noirs primordiaux quasi-extrémaux possédant une hypothétique « charge sombre ». Ce modèle rend compte du neutrino observé et pourrait relier les trous noirs primordiaux à la matière noire, apportant potentiellement des preuves de l'existence du rayonnement de Hawking et de nouvelles particules au-delà du Modèle Standard.

XXXXXXXXXXX

COMMENTAITES

Cet Article  est basé sur ce résultat de neutrino  pharahonique et il nous lance dans des hypothèses et des moèles  trés aventureux ....
Mais apres tout pourquoi pas  puisque le rayonnement de Hawkings est déjà par lui meme une audacieuse supposition !!!!

xxxxxxxxxxxxxx
Publication details
Explaining the PeV neutrino fluxes at KM3NeT and IceCube with quasi-extremal primordial black holes, Physical Review Letters (2025). DOI: 10.1103/r793-p7ct. On arXiv : DOI: 10.48550/arxiv.2505.22722

Journal information: Physical Review Letters  , arXiv 

Key concepts

lundi 9 février 2026

SCIENCES ENENERGIES ENVIRONNEMENT BLOGGER

 





Cher Olivier Hartmanshenn,


Conseil : Personnalisez votre newsletter ScienceX


Saviez-vous que vous pouvez personnaliser la newsletter ScienceX selon vos centres d'intérêt ? Choisissez les sujets qui vous intéressent et décidez du contenu que vous recevez : de notre newsletter quotidienne en semaine à l'édition hebdomadaire du dimanche. Votre newsletter peut être aussi ciblée ou généraliste que vous le souhaitez.


Vous pouvez modifier vos préférences à tout moment dans les paramètres de votre compte.


Voici votre newsletter ScienceX personnalisée pour la semaine 6 :


Questions-réponses : La consommation de cannabis chez les adultes d'âge moyen et les personnes âgées est liée à un volume cérébral plus important et à de meilleures fonctions cognitives


Chez les adultes de 40 à 77 ans, une consommation plus importante de cannabis au cours de la vie est généralement associée à un volume plus important dans plusieurs régions du cerveau et à de meilleures fonctions cognitives. Une consommation modérée est souvent corrélée aux résultats les plus favorables, bien que certaines mesures suggèrent une consommation plus élevée. Une seule région, le cortex cingulaire postérieur, a montré un volume réduit avec une consommation plus élevée. Des différences liées au sexe et des effets dose-dépendants sont observés, mais la causalité reste incertaine.


Avons-nous assisté à l'explosion d'un trou noir ? Les physiciens le pensent, et cela pourrait expliquer (presque) tout.


Un neutrino de haute énergie détecté en 2023 pourrait s'expliquer par l'évaporation explosive de trous noirs primordiaux quasi-extrémaux possédant une hypothétique « charge noire ». Ce modèle rend compte du neutrino observé et pourrait relier les trous noirs primordiaux à la matière noire, apportant potentiellement des preuves de l'existence du rayonnement de Hawking et de nouvelles particules au-delà du Modèle Standard.


L'exposition aux brûlures a joué un rôle clé dans l'évolution humaine, suggère une étude.


L'exposition régulière aux brûlures dues à l'utilisation du feu a probablement induit des adaptations génétiques chez l'humain, améliorant la cicatrisation, l'inflammation et les réponses immunitaires par rapport aux autres primates. Ces adaptations ont amélioré la survie après des brûlures mineures, mais peuvent contribuer à des conséquences néfastes après des brûlures graves, telles qu'une inflammation excessive et des cicatrices. Cette pression évolutive est propre à l'humain et influence les soins modernes prodigués aux brûlés.


Les médicaments amaigrissants sont à l'origine d'un désastre environnemental : une nouvelle méthode en phase aqueuse vise à y remédier.


La production de médicaments peptidiques, essentiels pour des traitements comme les agonistes du GLP-1, repose sur la synthèse peptidique en phase solide (SPPS), qui génère d'importantes quantités de déchets de solvants toxiques, notamment le diméthylformamide (DMF). Une nouvelle méthode de synthèse en phase aqueuse permet une production de peptides à haut rendement et de haute pureté sans solvants organiques, réduisant considérablement l'impact environnemental et favorisant une production pharmaceutique plus durable.


Le réchauffement climatique accélère la décomposition d'un important gaz à effet de serre, selon une étude.


L'oxyde nitreux (N₂O) atmosphérique se décompose plus rapidement en raison des modifications de la circulation stratosphérique et de la température induites par le changement climatique, sa durée de vie diminuant de 1,4 % par décennie. Cette situation introduit une incertitude dans les projections futures de N₂O, comparable aux différences observées entre les principaux scénarios d'émissions, ce qui complexifie les évaluations du climat et de l'ozone et souligne la nécessité d'améliorer la modélisation.


Une démonstration surprenante à l'aide de dés révèle une nouvelle interprétation d'une loi fondamentale de la physique.


Une démonstration mathématique prouve que la distribution de Boltzmann est la seule à pouvoir décrire des systèmes indépendants, ou non couplés, excluant ainsi toutes les autres théories. À l'aide de représentations polynomiales et d'exemples comme les dés de Sicherman, l'analyse montre que seule la distribution de Boltzmann préserve l'indépendance des choix non liés, renforçant son rôle fondamental en physique et en économie.


Des géologues ont peut-être résolu le mystère du cours ascendant de la Green River.


Des indices suggèrent qu'un glissement de terrain lithosphérique sous les monts Uinta a provoqué un affaissement temporaire, permettant à la Green River de creuser son profond canyon à travers la chaîne il y a moins de 8 millions d'années. L'imagerie et la modélisation sismiques révèlent une anomalie du sous-sol et un soulèvement compatibles avec ce processus, remettant en question les théories précédentes sur le tracé de la rivière.


Des scientifiques découvrent des cristaux temporels « en lévitation » que l’on peut tenir dans la main


Un nouveau type de cristal temporel a été observé : il est composé de billes de polystyrène en lévitation grâce à des ondes sonores et interagit par le biais de forces non réciproques, véhiculées par les ondes, qui ne respectent pas la troisième loi de Newton. Ces cristaux visibles et portables oscillent spontanément, élargissant ainsi le champ des applications potentielles en technologies quantiques et offrant un éclairage nouveau sur les interactions non réciproques dans les systèmes biologiques.


Des cerfs aux mésanges : comment la diminution des interactions sociales pourrait accroître le risque d’extinction


Les espèces à socialité lâche, qui forment des associations temporaires plutôt que des groupes stables, pourraient être confrontées à un risque d’extinction plus élevé, car le déclin de leurs populations réduit leurs interactions sociales. Contrairement aux espèces à socialité très forte qui peuvent compenser la perte de membres du groupe, les animaux à socialité lâche ne remplacent pas activement les liens perdus, ce qui les rend plus vulnérables aux effets négatifs de la réduction des interactions sociales.


Une étude révèle que certaines eaux en bouteille contiennent plus de microplastiques que l’eau du robinet


L’eau en bouteille contient jusqu’à trois fois plus de microplastiques.

Envoyer des commentaires

Utilisez les flèches pour afficher la traduction complète.


Pourquoi les serpents peuvent-ils rester des mois sans manger ? Une explication génétique


Les serpents peuvent endurer de longues périodes sans se nourrir grâce à la perte du gène de la ghréline et de son enzyme activatrice MBOAT4, qui régulent la faim et la dépense énergétique. Cette adaptation génétique, également présente chez d’autres reptiles, favorise leur stratégie de prédation à l’affût en minimisant les signaux de faim et en économisant l’énergie lors de jeûnes prolongés. Les connaissances acquises sur ce mécanisme pourraient éclairer la recherche sur les maladies métaboliques chez l’humain.


La matière noire, et non un trou noir, pourrait être le moteur de la Voie lactée


Un noyau dense de matière noire fermionique, plutôt qu’un trou noir supermassif, pourrait expliquer à la fois les orbites rapides des étoiles proches du centre de la Voie lactée et la rotation à grande échelle de la galaxie. Ce modèle rend compte de caractéristiques observées telles que l’« ombre » centrale et correspond aux données de la courbe de rotation de Gaia, offrant une explication unifiée de la structure du noyau et du halo de la galaxie.


La modélisation infrarouge de la gravité offre une voie théorique des champs vers l'explication des phénomènes de matière noire.


Permettre à la constante gravitationnelle de Newton de varier à grande échelle (infrarouge) dans le cadre de la théorie quantique des champs conduit à un potentiel gravitationnel modifié par une correction logarithmique, induisant une force en 1/r à longue portée. Cette modification permet de reproduire des courbes de rotation galactiques plates en utilisant uniquement la masse visible, expliquant potentiellement les effets de la matière noire sans l'introduction de nouvelles particules, tout en restant compatible avec les contraintes de l'Univers primordial.


Des algues cultivées en laboratoire éliminent les microplastiques de l'eau.


Des algues génétiquement modifiées produisant du limonène peuvent fixer et éliminer efficacement les microplastiques de l'eau en formant des agrégats hydrophobes faciles à collecter. Cette approche permet également aux algues de dépolluer les eaux usées en absorbant les nutriments en excès, et les microplastiques récupérés peuvent être transformés en bioplastiques, répondant ainsi simultanément aux enjeux de la pollution et de la valorisation des ressources.


Un comprimé expérimental réduit considérablement le « mauvais » cholestérol


L'enlicitide, un médicament oral, a réduit le cholestérol LDL d'environ 60 % chez les patients atteints ou à risque de maladie cardiovasculaire athéroscléreuse, même en association avec un traitement par statines. L'enlicitide cible la PCSK9, comme les traitements injectables, mais se prend sous forme de comprimé. La réduction du LDL et d'autres marqueurs lipidiques s'est maintenue pendant plus d'un an. D'autres essais cliniques évaluent son impact sur les événements cardiovasculaires.


Une nouvelle étude utilise les Néandertaliens pour démontrer le fossé entre l'IA générative et les connaissances scientifiques


Les images et les récits sur les Néandertaliens générés par l'IA générative s'appuient fréquemment sur des informations obsolètes ou inexactes, reflétant souvent des connaissances scientifiques datant de plusieurs décennies. La précision des résultats de l'IA dépend de l'accès à des sources scientifiques à jour, et des biais et des informations erronées importants ont été observés. Un meilleur accès de l'IA aux recherches actuelles est nécessaire pour améliorer sa fiabilité.


La longueur des doigts pourrait fournir un indice crucial pour comprendre l'évolution du cerveau humain.


Un rapport élevé entre les longueurs des doigts 2D et 4D, indiquant une plus grande exposition prénatale aux œstrogènes, est associé à un périmètre crânien plus important à la naissance chez les garçons, suggérant un lien entre les hormones prénatales et la taille du cerveau. Ceci appuie l'idée qu'une augmentation de la taille du cerveau au cours de l'évolution humaine pourrait être liée à une exposition prénatale plus élevée aux œstrogènes, en particulier chez les hommes.


Le plus grand événement volcanique sur Terre a remodelé une plaque océanique, révèle l'analyse des ondes sismiques.


L'analyse des ondes sismiques montre que la plaque océanique sous le plateau d'Ontong Java présente une structure complexe avec des formations stratifiées et des essaims de dykes, résultant d'une intense activité volcanique liée à un panache mantellique profond. Les faibles vitesses sismiques et l'atténuation des ondes indiquent une modification chimique significative de la plaque, soulignant que le volcanisme à grande échelle peut profondément altérer la composition et la structure des plaques océaniques.


Une molécule d'ARN nouvellement identifiée pourrait favoriser la survie des patients atteints de cancer.


Un nouvel ARN non codant, CUL1-IPA, issu du gène CUL1, est essentiel au maintien de l'intégrité et de la fonction du nucléole. Des taux élevés de CUL1-IPA sont associés à un pronostic plus défavorable dans le myélome multiple et la leucémie lymphoïde chronique, ce qui suggère son potentiel en tant que biomarqueur et cible thérapeutique dans les cancers du sang.


Le climat entre dans une ère de dépassement : la science et les politiques publiques doivent réagir.


Les températures mondiales devraient dépasser l’objectif de 1,5 °C fixé par l’Accord de Paris d’ici une décennie, marquant ainsi l’entrée dans une ère de « dépassement ». Ce changement exige de repenser la responsabilité en matière de politiques climatiques, en intégrant l’équité, la responsabilité historique et des approches coordonnées pour la capture du carbone, l’adaptation et le financement des pertes et dommages afin de faire face à l’aggravation des risques climatiques.

Envoyer des commentaires

dimanche 8 février 2026

SCIENCES ENERGIES ENVIRONNEMENT BLOGGER