lundi 6 avril 2026

SCIENCES ENERGIES ENVIRONNEMENT

 





Cosmologists collaborate to sharpen measurements of the Hubble constant

by Sam Jarman, Phys.org


edited by Sadie Harley, reviewed by Robert Ega


Des cosmologistes collaborent pour affiner les mesures de la constante de Hubble


Par Sam Jarman, Phys.org


Édité par Sadie Harley, relu par Robert Egan


Notes de la rédaction


The GIST

Ajouter comme source privilégiée

Unification des observations pour une constante de Hubble unique. Crédit : Adam Riess


Réunissant des experts de renom dans le domaine, une collaboration internationale de cosmologistes a mis au point une méthode unifiée pour mesurer la valeur de la constante de Hubble. Publiée dans Astronomy & Astrophysics, cette avancée majeure pourrait nous rapprocher de la compréhension des raisons pour lesquelles l'univers semble s'étendre plus rapidement que ne le prédit notre modèle cosmologique standard.


Lorsque les astronomes observent des galaxies lointaines, une corrélation positive nette se dégage entre leur distance à la Terre et leur vitesse d'expansion. Cette relation remarquablement linéaire est décrite par une constante appelée constante de Hubble, qui indique la vitesse d'expansion actuelle de l'univers. Elle permet, à son tour, de calculer le temps écoulé depuis le Big Bang, actuellement notre meilleure estimation de l'âge de l'univers.


Une énigme non résolue


Cependant, cette apparente simplicité masque l'un des plus grands mystères de la cosmologie. Lorsque les chercheurs déduisent la constante de Hubble à partir de modèles cosmologiques intégrant notre meilleure compréhension théorique de l'expansion de l'Univers — fondée sur les observations de l'Univers primordial —, les valeurs obtenues diffèrent significativement de celles obtenues par des mesures astronomiques directes et locales.


« Le modèle cosmologique dominant prédit que la constante de Hubble devrait être inférieure de 10 % à la valeur que nous mesurons directement », explique Stefano Casertano, auteur principal de l'étude et chercheur au Space Telescope Science Institute de Baltimore. « C'est ce qu'on appelle la tension de Hubble, et cette différence est plus de cinq fois supérieure à l'incertitude combinée des modèles et des mesures. »


Ce décalage révèle des phénomènes physiques sous-jacents à l'expansion de l'Univers qui ne sont pas encore pleinement expliqués. Mais avant de pouvoir explorer plus en profondeur les causes de la tension de Hubble, les chercheurs doivent d'abord s'attaquer aux différences entre leurs propres mesures de la constante de Hubble.


Au cours des dernières décennies, de nombreuses méthodes ont émergé pour mesurer cette valeur — et bien que leurs résultats soient globalement similaires, ils ne sont pas identiques. Du fait que ces techniques reposent sur différents indicateurs de distance et étapes d'étalonnage, il s'est avéré difficile pour les cosmologistes de les combiner en une mesure unique et unifiée, de manière statistiquement rigoureuse.


Unification des prédictions


En 2025, l'Institut international des sciences spatiales (ISSI) de Berne s'est penché sur ce problème en organisant un atelier spécial. Cet événement a réuni tous les experts du domaine afin de déterminer les points communs entre ces mesures, ainsi que leurs spécificités et leurs complémentarités.


« Nous avons ensuite élaboré un cadre statistique permettant de combiner correctement toutes ces mesures et d'identifier d'éventuelles incohérences », explique Adam Riess, co-auteur de l'étude et également membre de l'Institut des sciences du télescope spatial.


Grâce à cette approche rigoureuse, les membres de la collaboration ont pu s'accorder sur une mesure compatible et cohérente malgré leurs différentes techniques. Ils ont ainsi pu parvenir à un consensus sur une valeur unique pour la constante de Hubble.


« Il s'agit de la mesure la plus précise à ce jour, atteignant pour la première fois une précision de 1 % », précise Casertano. Nous avons également constaté qu'aucune mesure ni aucun élément ne sont essentiels à ce résultat ; n'importe quel composant peut être éliminé sans que la valeur de la constante de Hubble ne soit modifiée.


Découvrez les dernières actualités scientifiques, technologiques et spatiales grâce à plus de 100 000 abonnés qui font confiance à Phys.org pour leurs analyses quotidiennes. Inscrivez-vous à notre newsletter gratuite et recevez chaque jour ou chaque semaine des informations sur les percées, les innovations et les recherches importantes.


Courriel


La tension de Hubble persiste


Surtout, cette nouvelle valeur accentue l'écart avec les prédictions concernant l'Univers primordial, correspondant à une tension de plus de cinq écarts-types. Plutôt que de réduire le désaccord, cette précision accrue confirme qu'il demeure statistiquement significatif.


« La confirmation de la tension de Hubble nous incite d'autant plus à réexaminer les fondements du modèle cosmologique actuel et à identifier tout nouveau phénomène susceptible de modifier l'évolution de l'Univers », explique Riess.


Grâce à cette mesure améliorée de la constante de Hubble, la collaboration espère que les chercheurs pourront réaliser les tests les plus rigoureux à ce jour sur la physique sous-jacente à la tension de Hubble, nous rapprochant peut-être de la résolution de l'un des plus grands mystères de la cosmologie.




XXXXXXXXXXXXXXX


RESUME


Des cosmologistes collaborent pour affiner les mesures de la constante de Hubble


Une collaboration internationale a mis au point une méthode unifiée et statistiquement rigoureuse pour combiner différentes mesures de la constante de Hubble, atteignant une précision de 1 %. La valeur obtenue présente un écart significatif – supérieur à cinq écarts-types – avec les prédictions des modèles de l'Univers primordial, confirmant la persistance de cet écart et soulignant des aspects physiques non résolus de l'expansion cosmique.


XXXXXXXXXXXXXX


COMMENTAIRES 

Voila un article qui me fait plaisir ! Je vous ai présenté la semaine derniere  le graphique extrait de wilipedia  sur la '' constante '' de Hubble et qui ne me satisfesait pas   du tout !  Ceci dit j estime  que toutes les th éories  sur l expansion  de l univers  sont a remettre a plat ainsi que les tests et mesures de distances  stellaires et intergalactiques !!


xxxxxxxxxxxxPublication details

The Local Distance Network: A community consensus report on the measurement of the Hubble constant at ∼1% precision, Astronomy & Astrophysics (2026). DOI: 10.1051/0004-6361/202557993. On arXiv: DOI: 10.48550/arxiv.2510.23823


Journal information: Astronomy & Astrophysics  , arXiv 


dimanche 5 avril 2026

SCIENCES ENERGFIES ENVIRONNEMENT

TRADUCTIONµ

Cher Olivier Hartmanshenn,


Voici votre bulletin Science X personnalisé pour la semaine 14 :


Des cosmologistes collaborent pour affiner les mesures de la constante de Hubble


Une collaboration internationale a mis au point une méthode unifiée et statistiquement rigoureuse pour combiner différentes mesures de la constante de Hubble, atteignant une précision de 1 %. La valeur obtenue reste en net écart – supérieur à cinq écarts-types – avec les prédictions des modèles de l’Univers primordial, confirmant la persistance de la tension de Hubble et soulignant des aspects physiques non résolus de l’expansion cosmique.


Observation de paires d’atomes existant à deux endroits simultanément pour la première fois


Des atomes d’hélium ont été observés expérimentalement dans une superposition quantique, existant à deux endroits simultanément tout en étant intriqués en mouvement. Cette prouesse, démontrée auparavant uniquement avec des photons sans masse, confirme que les particules massives peuvent présenter un tel comportement quantique. Ces découvertes offrent une nouvelle plateforme pour explorer l’interaction entre la mécanique quantique et la gravité.


Des éclairs célestes inexpliqués des années 1950 : une analyse indépendante confirme leur existence


Une analyse indépendante de plaques photographiques des années 1950 de l’Observatoire de Hambourg confirme l’existence de brefs éclairs célestes inexpliqués, précédemment détectés par l’Observatoire Palomar. Ces phénomènes transitoires, d’une durée inférieure à une seconde et antérieurs aux satellites artificiels, présentent des caractéristiques incompatibles avec les sources astrophysiques connues, suggérant une possible réflexion par des objets plats en rotation proches de la Terre.


La population mondiale met la Terre à rude épreuve


La population et les modes de consommation actuels de la Terre ont dépassé la capacité durable de la planète, intensifiant les pressions sur la sécurité alimentaire, le climat et les écosystèmes. Le taux de croissance démographique a commencé à diminuer dans les années 1960, mais la population mondiale devrait atteindre un pic de 11,7 à 12,4 milliards d’habitants d’ici 2070, bien au-delà du niveau durable estimé à 2,5 milliards. La taille de la population et la consommation exercent toutes deux une pression sur l’environnement, soulignant la nécessité de changements urgents dans l’utilisation des ressources et d’une coopération internationale pour assurer une stabilité à long terme.


Trente vers inédits d'Empédocle découverts sur un papyrus du Caire


Un papyrus du Caire vieux de 2 000 ans contient 30 vers inédits d'Empédocle, offrant ainsi le premier témoignage textuel direct de son œuvre, notamment sur les émanations de particules et la perception sensorielle. Cette découverte éclaire son influence sur les penseurs ultérieurs et suggère qu'il a anticipé les idées atomistes, offrant de nouvelles perspectives sur le développement de la philosophie grecque.


La durée de rétablissement après un effondrement soudain du pergélisol varie de 10 ans à un siècle, selon une étude


La durée de rétablissement de la végétation après un effondrement soudain du pergélisol est très variable : d'une dizaine d'années dans les régions du bas Arctique à un siècle dans le haut Arctique ou en haute altitude. Ce temps de rétablissement est étroitement lié à la productivité primaire brute du site. Si le couvert végétal peut se reconstituer, la composition spécifique d'origine met plus de temps à se rétablir. Les plantes ligneuses peuvent contribuer à stabiliser le sol et à améliorer le stockage du carbone après l'effondrement.


Un échafaudage en graphène recrute les cellules osseuses et favorise la régénération osseuse.


Des échafaudages à base de graphène, associés au chitosane, améliorent significativement la régénération osseuse en agissant comme des structures bioactives et temporaires qui stimulent l'adhésion cellulaire, la vascularisation et la différenciation ostéogénique. Chez le rat, ces matériaux ont permis une réparation osseuse de près de 90 % en un mois, surpassant ainsi d'autres biomatériaux testés. De futures applications pourraient inclure l'intégration de cellules souches pour une meilleure cicatrisation osseuse.


Terraformation de Mars : Modélisation d'aérosols artificiels pour réchauffer la planète.


La modélisation d'aérosols artificiels, tels que des disques de graphène et des tiges d'aluminium, dans l'atmosphère martienne indique que leur distribution globale pourrait augmenter les températures de surface jusqu'à 35 °C en 15 années martiennes, permettant potentiellement la présence d'eau liquide. L'effet de réchauffement est relativement insensible au taux de libération et à la saison, mais des incertitudes subsistent quant aux rétroactions impliquant la vapeur d'eau, la poussière et les processus d'élimination des aérosols.


Consommation de cannabis et de tabac liée à une réduction du volume cérébral


La consommation de cannabis et de tabac est associée à une réduction du volume cérébral dans certaines régions, notamment l'amygdale, l'insula, le pallidum et la substance grise en général. La consommation régulière de l'une ou l'autre de ces substances est corrélée à un déclin accéléré de la substance grise, et une consommation plus élevée de tabac est liée à un hippocampe plus petit. Ces modifications structurelles peuvent avoir un impact sur les fonctions cognitives et émotionnelles.


Les bactéries intestinales pourraient influencer le comportement social par l'odorat


Chez la souris, les bactéries intestinales produisent de la triméthylamine (TMA), une molécule à l'odeur piquante détectée par le récepteur olfactif TAAR5, qui influence les comportements sociaux tels que l'agressivité et l'établissement de la hiérarchie. Perturber la production de TMA ou la fonction de TAAR5 réduit l'agressivité et retarde l'établissement de la hiérarchie, démontrant ainsi un lien direct entre les microbes intestinaux et le comportement social via l'odorat. Des mécanismes similaires pourraient exis


avité issue de la positivité : une unique particule massive de spin 3/2 rend la gravité logiquement inévitable, selon une étude.


L’existence d’une unique particule massive de spin 3/2 dans une théorie quantique, sous les contraintes de causalité et d’unitarité, implique nécessairement la présence de la gravité et détermine de manière unique la structure de la supergravité. La supersymétrie et des relations spécifiques entre les constantes physiques en découlent logiquement, et pour les particules chargées, la théorie impose la mesure de la charge et g = 2.


Les secrets des trous noirs et de la masse du Higgs pourraient être cachés dans une géométrie à 7 dimensions.


Un modèle de gravité d’Einstein-Cartan à 7 dimensions avec torsion prédit que l’évaporation d’un trou noir s’arrête à un résidu stable, préservant l’information quantique et résolvant le paradoxe de l’information. La structure de ce résidu encode l’information dans ses modes quasi-normaux et pourrait contribuer à la matière noire. La réduction dimensionnelle de cette géométrie conduit naturellement à l’échelle électrofaible, reliant la physique des trous noirs à la masse du Higgs.


Ondes gravitationnelles : une origine possible de la matière noire


Les ondes gravitationnelles présentes dans l’Univers primordial pourraient avoir contribué à la production de matière noire en se convertissant en fermions sans masse ou quasi sans masse, lesquels auraient ensuite acquis une masse pour devenir des particules de matière noire. Ce mécanisme offre une explication inédite de l’origine de la matière noire, distincte des scénarios précédemment explorés, et ouvre de nouvelles perspectives pour la recherche théorique et numérique.


Un minuscule poisson africain surpris en train d’escalader une cascade de 15 mètres


Des poissons-coquilles (Parakneria thysi) du bassin supérieur du Congo ont été observés escaladant des cascades de 15 mètres, grâce à des coussinets de nageoires et des muscles spécialisés leur permettant d’adhérer à la roche mouillée. Seuls les individus de moins de 48 mm peuvent achever l’ascension, qui dure près de 10 heures et nécessite de fréquentes pauses. Cette migration a lieu lors des crues, probablement pour la reconstitution de l’habitat ou pour échapper aux prédateurs, mais elle est menacée par la pêche illégale et la destruction de son habitat.


Les profondeurs de Neptune et d'Uranus pourraient être « superioniques ».


Des simulations indiquent que, sous les pressions et températures extrêmes qui règnent à l'intérieur d'Uranus et de Neptune, l'hydrure de carbone (CH) pourrait former un état superionique quasi unidimensionnel, où les atomes d'hydrogène se déplacent le long de trajectoires spirales au sein d'une structure carbonée ordonnée. Cet état pourrait influencer la conductivité thermique et électrique à l'intérieur des planètes et contribuer à la compréhension des phases de la matière exotique.


Ondulations de l'espace-temps et le nombre le plus controversé de l'Univers


La constante de Hubble, qui quantifie le taux d'expansion de l'Univers, donne des valeurs contradictoires selon la méthode de mesure : environ 67 km s⁻¹ Mpc⁻¹ à partir du fond diffus cosmologique et environ 73 km s⁻¹ Mpc⁻¹ à partir des supernovae. Une nouvelle approche utilisant les « sirènes sombres » d'ondes gravitationnelles donne une valeur intermédiaire de 69,9 km s⁻¹ Mpc⁻¹, offrant une contrainte indépendante et mettant en évidence d'éventuelles lacunes dans les modèles cosmologiques actuels.


L'étoile la plus primitive jamais découverte dans l'Univers connu


SDSS J0715-7334 a été identifiée comme l'étoile la plus primitive connue, avec moins de 0,005 % de la métallicité du Soleil et des abondances extrêmement faibles en fer et en carbone. Cette étoile de deuxième génération, située à environ 80 000 années-lumière, apporte un éclairage nouveau sur la formation des premières étoiles et l'évolution chimique dans l'Univers, étant 40 fois plus pauvre en métaux que l'étoile la plus pauvre en fer connue jusqu'à présent.


Particules fantomatiques : le rayonnement sombre pourrait avoir été confondu avec des neutrinos


Les observations cosmologiques interprétées comme des preuves de l'existence de neutrinos fortement interagissants pourraient en réalité résulter de la transformation d'une partie des neutrinos de l'Univers primordial en rayonnement sombre. Ce rayonnement sombre, indiscernable des neutrinos dans les données cosmologiques, pourrait expliquer les anomalies observées sans contredire les contraintes de laboratoire et pourrait avoir un impact sur des questions non résolues telles que la masse des neutrinos et la tension de Hubble.


Un trésor fossilifère spectaculaire repousse les origines des animaux complexes.


Les fossiles de la faune de Jiangchuan, dans le sud-ouest de la Chine, indiquent que de nombreux groupes d'animaux complexes, notamment les premiers deutérostomiens et bilatériens, existaient au moins 4 millions d'années avant le Cambrien, repoussant ainsi la chronologie de la diversification animale à la fin de l'Édiacarien (il y a 554 à 539 millions d'années). Leur conservation exceptionnelle révèle des détails anatomiques et suggère que les lacunes observées jusqu'à présent dans la recherche de fossiles pourraient être dues à des biais de conservation.


Les premières données de l'observatoire Vera C. Rubin révèlent plus de 11 000 nouveaux astéroïdes.


Les observations préliminaires de l'observatoire Vera C. Rubin ont permis d'identifier plus de 11 000 nouveaux astéroïdes et 380 objets transneptuniens (OTN), dont deux présentent des orbites très allongées s'étendant sur près de 1 000 UA du Soleil. L'étude a également permis de découvrir 33 nouveaux objets géocroiseurs (OGC), dont aucun ne représente une menace. Les capacités avancées de l'observatoire Rubin devraient permettre d'accroître considérablement le nombre d'astéroïdes et d'OTN connus.

Envoyer des commentaires

SCIENCES ENERGIES ENVIRONNEMENT

 

samedi 4 avril 2026

SCIENCES ENERGIES ENVIRONNEMENT









Cet article complète  la série consacréé  à l 'activité nucléaire de l 'IRAN   et diffusée sur Google/Blogger  lors des dimanches de mars

XXXXXXX

La presse et les média  font état de quantés d uranium importantes (environ 441 kilogrammes d'uranium, enrichi à 60 % ),
J'ignore l 'origine de ces valeurs que je présume venir  de l 'AIEA   à partir  de données irannienes  économiques de rentrées de minerais ou de yellow cake  ...
 Ces indications journalistiques  sont pour moi trés douteuses car si un pays désire se doter  d'armes nucléires il doit necessairement passer  pour atteindre le niveau d'un coposé d uranium chimiquent gazux   ....et l"hexa fluorure UF6 est le seul possible  à pression et temp"rature convenables !
Je ne vois pas de raisons pour l 'IRAN    de quitter  cette  chimie pour  passer  en formule métal  ...D'autant que cela requirt  un savoir faire   et une configuration  différent de l'hyper centrifugation ....Alors rappelez vous  que le concept de masse crtique et de réflectivité des neutrons  ne doivent pas etre néglogés  
....Rendus a ce point  je rappelle  que les média  américains nous ont abreuvés  d'informations sur les bombardements répétés subits  par les laboratoires ,les ateliers  et les structures  ....et ils ne fonctionneraient plus sauf
 s'ils  ontcjappé  en tunnels  et protectiond diverses

xxxxxxxxxxx
NB  Références internt 
1/L'Iran avait bien accéléré son rythme de production d ...

Connaissance des Énergies
https://www.connaissancedesenergies.org › ...
·
Translate this page
4 Sept 2025 — À cette date, l'AIEA a constaté que le total d'uranium enrichi à 60% de l'Iran s'élevait à 440,9 kg, soit une hausse de 32,3 kg par rapport au ..

2/Frappes américaines sur les sites nucléaires iraniens

Wikipédia
https://fr.wikipedia.org › wiki › Frappes_américaines_s...
About featur
A ce jour XLes États-Unis et Israël continuent de bombarder l'Iran. Déjà 15 000 cibles ont été atteintes, selon eux. 

XXXXXXXXXXXXXXX

vendredi 3 avril 2026

SCIENCES ENERGIES ENVIRONNEMENT




S

hift in key cosmic inflation measurement could be a statistical artifact

Un décalage dans une mesure clé de l'inflation cosmique pourrait être un artefact statistique


Par l'Institut Kavli de physique et de mathématiques de l'Univers


Édité par Sadie Harley, relu par Robert Egan


Notes des éditeurs


Le GIST

Ajouter comme source privilégiée


Comparaison des contraintes issues d'ACT (bleu), DESI BAO (gris) et ACT+DESI (rouge) pour les paramètres BAO et l'indice spectral ns. La bande rose représente les valeurs de ns pour les modèles d'inflation privilégiés après Planck. On observe un décalage dans les valeurs des paramètres privilégiés entre ACT et DESI ou ACT+DESI, illustrant la tension BAO-CMB, avec un décalage conséquent de ns hors de la bande rose. Crédit : Ferreira et al.


Depuis quelques décennies, les chercheurs étudient l'aspect de l'Univers dans ses premières secondes. Il est généralement admis que l'Univers s'est dilaté de manière exponentielle dans la première fraction de seconde après le Big Bang. Les chercheurs utilisent ns, l'indice spectral scalaire, pour caractériser la distribution des fluctuations de densité primordiales à différentes échelles de longueur dans l'Univers primordial. La valeur de ns est une observable centrale en cosmologie inflationnaire, car différents scénarios inflationnaires prédisent des valeurs distinctes pour cette quantité, ce qui en fait un puissant critère de discrimination entre les modèles.


Grâce aux mesures de haute précision du satellite Planck, l'indice spectral scalaire ns était considéré comme fortement contraint. Cette mesure a joué un rôle central dans la définition du paysage des modèles inflationnaires viables.


À mesure que la précision de ns s'améliorait, l'attention s'est de plus en plus portée sur d'autres observables, telles que le rapport tenseur-scalaire et les non-gaussianités primordiales, comme prochains critères de discrimination de la physique inflationnaire.


Un défi pour l'inflation en 2025


Ceci était vrai jusqu'en 2025, lorsque deux groupes de chercheurs ont combiné différents ensembles de données astrophysiques pour obtenir une valeur de ns qui a remis en question certains des modèles d'inflation les plus connus, replaçant ce paramètre au cœur du débat.


Cependant, une équipe de chercheurs dirigée par Elisa Ferreira, professeure adjointe de projet à l'Institut Kavli de physique et de mathématiques de l'Univers (Kavli IPMU, WPI) de l'Université de Tokyo, a démontré que cet écart provient d'une interaction statistique subtile entre les mesures du fond diffus cosmologique (CMB) et des oscillations acoustiques baryoniques (BAO). Cette découverte souligne l'importance de la cohérence des données dans la valeur déduite de ns.


Ces travaux sont publiés dans la revue Physical Review D.


Comprendre la tension BAO-CMB


Dans cette étude, l'équipe a analysé l'influence de la combinaison des données BAO et des observations du CMB sur la valeur déduite de l'indice spectral scalaire ns. Elle a montré que le décalage observé pour ns résulte d'une légère tension entre ces ensembles de données – la « tension BAO-CMB » – qui se répercute sur les contraintes des paramètres inflationnaires.


Lorsque cet effet est correctement pris en compte, les arguments contre les modèles inflationnaires standards s'affaiblissent considérablement.


En particulier, les auteurs démontrent que le décalage de ns est lié à des variations de paramètres cosmologiques tardifs, tels que la densité de matière. Ceci suggère que le résultat ne reflète pas principalement de nouvelles informations sur la physique de l'inflation, mais plutôt une cohérence interne aux données.


L'étude souligne l'importance d'évaluer soigneusement les tensions entre les différents jeux de données avant de tirer des conclusions définitives sur les modèles fondamentaux de l'Univers primordial.


Conséquences pour l'avenir de l'inflation


Par conséquent, la valeur déduite de ns n'est pas déterminée de manière univoque en présence de la tension BAO-CMB. Différentes combinaisons de jeux de données cosmologiques conduisent à des décalages statistiquement significatifs. Les contraintes actuelles sur l'inflation dépendent donc fortement de la manière dont les données tardives sont intégrées.


Tant que l'origine de cette tension n'est pas élucidée, il reste difficile de déterminer quelle valeur de ns doit être considérée comme la plus fiable. Le décalage pourrait être dû à des erreurs systématiques inconnues, à des choix d'analyse, ou potentiellement à une nouvelle physique.


Résoudre ce problème est essentiel avant de tirer des conclusions définitives sur les modèles inflationnaires et la physique de l'Univers primordial.



XXXXXXXXXXXXXX

RESUME


Un décalage dans une mesure clé de l’inflation cosmique pourrait être un artefact statistique.




Une analyse récente montre que les décalages de l’indice spectral scalaire ns, un paramètre clé de la cosmologie inflationnaire, résultent d’une tension statistique entre les données du fond diffus cosmologique et celles des oscillations acoustiques baryoniques. Cette tension affecte les contraintes sur les modèles d’inflation, indiquant que les valeurs actuelles de ns pourraient refléter des incohérences dans les données plutôt qu’une nouvelle physique.


XXXXXXXXXX


COMMENTAIRES

 Voici comme d 'habitude  les questions des élèves  et les réponse  ...

1/Sur  quoi repose le concept clé de l'inflation cosmique ?


Alors que la théorie du Big Bang propose une expansion constante de l'univers, la théorie de l'inflation cosmique postule une brève période d'inflation rapide. Durant cette période, l'univers a connu une croissance exponentielle, dépassant la vitesse de la lumière, Avant de perdre de l'énergie et de ralentir son expansion.

2/Que se serait -il passé durant les 10,43 premières secondes de l'univers ?


La période allant jusqu'à 10−43 secondes après le début de l'expansion, l'époque de Planck, fut une phase où les quatre forces fondamentales — la force électromagnétique, la force nucléaire forte, la force nucléaire faible et la force gravitationnelle — étaient unifiées en une seule.

3/Quel est le fait demeurant le plus terrifiant concernant l'univers ?

 Nous  restons  dans l incoinnu  profond ,à savoir la matière noire et énergie sombre


L'un des aspects les plus effrayants de l'espace est que nous ne connaissons la composition que d'une infime partie de l'Univers. Selon l'Agence spatiale européenne, l'Univers est composé, en gros, de 5 % de matière ordinaire, 25 % de matière noire et 70 % d'énergie sombre.²Une physique inconnue?????


4/Indépendamment de  ceconcept de l'inflation

Stephen Hawking a-t-il prouvé que le temps a eu un commencement ?


L’idée que le temps a commencé par un Big Bang a été défendue au début des années 1930 par le prêtre et astronome belge Georges Lemaître. Albert Einstein l’a rejetée, car elle lui rappelait les dogmes chrétiens. Mais finalement, Hawking et Roger Penrose ont donné raison à Lemaître.


XXXXXXXXXXPublication details

Elisa G. M. Ferreira et al, BAO-CMB tension and implications for inflation, Physical Review D (2026). DOI: 10.1103/lq71-b84v. On arXiv: DOI: 10.48550/arxiv.2507.12459


Journal information: Physical 


jeudi 2 avril 2026

SCIENCES ENERGIES ENVIRONNEMENT

 


ndependent measurement strengthens the case for toponium



Une mesure indépendante renforce l'hypothèse de l'existence du toponium


Par le CERN


Édité par Lisa Lock, relu par Andrew Zinin


Notes de la rédaction


The GIST

Ajouter comme source privilégiée

Représentation artistique du toponium. Crédit : D. Dominguez/CERN


Une nouvelle mesure indépendante réalisée par l'expérience CMS au LHC confirme l'existence de la particule composite la plus massive jamais observée : l'union momentanée d'un quark top et de son antiquark.


On a longtemps pensé que le quark top, la particule élémentaire la plus lourde et la plus éphémère connue, se désintégrait trop rapidement pour former des états liés. Cependant, un nouveau résultat de la collaboration CMS, présenté cette semaine aux Rencontres de Moriond, conforte l'observation de l'année dernière selon laquelle les quarks top peuvent, en réalité, s'apparier brièvement avec leurs antiquarks. Cet état lié éphémère, appelé toponium, serait la particule composite la plus massive jamais observée, complétant ainsi la famille des états quark-antiquark liés par l'interaction forte.


La majeure partie de la matière qui nous entoure est constituée d'atomes, dans lesquels les électrons sont liés aux protons par l'interaction électromagnétique. Mais les protons eux-mêmes ne sont pas des particules élémentaires. Ils appartiennent à une vaste famille de particules composites appelées hadrons, dans lesquelles les quarks sont maintenus ensemble par l'interaction forte. Parmi eux, les paires d'un quark avec son antiquark sont les plus simples et offrent une perspective particulièrement claire sur le fonctionnement de l'interaction forte. Depuis des décennies, de tels états sont connus pour tous les types de quarks, à l'exception du plus insaisissable : le quark top.


Découvert il y a plus de 30 ans à l'accélérateur Tevatron près de Chicago, le quark top a fait l'objet d'études approfondies depuis lors, les expériences menées au LHC allant jusqu'à mesurer l'intrication quantique entre quarks et antiquarks top. Même produit simultanément avec son antiquark, le quark top se désintègre généralement avant qu'un état lié puisse se former. Pourtant, les centaines de millions de paires quark top-antiquark produites au LHC, qui en fait une véritable usine à quarks top, constituent un ensemble de données si colossal que même les phénomènes les plus rares peuvent y laisser une trace détectable.


Distribution de la vitesse relative du quark top et de son antiquark. Le graphique supérieur compare les données (points) aux prédictions sans toponium (histogrammes superposés) et à celles qui l'incluent (ligne bleue). Le graphique inférieur montre le rapport avec les prédictions sans toponium. Crédit : CERN


Les premiers indices de l'existence du toponium sont apparus lors de recherches de particules lourdes de type boson de Higgs susceptibles de se désintégrer en une paire quark top-antiquark. Un excès inattendu d'événements de collision a été observé à une masse proche du double de celle du quark top, ce qui est plus caractéristique d'un état lié que d'une nouvelle particule fondamentale. Des études détaillées menées par les expériences CMS et ATLAS ont confirmé cet excès en utilisant des événements où les deux quarks top se désintègrent en leptons (électrons ou muons).


La nouvelle étude CMS aborde le problème sous un angle différent, en examinant des événements où un quark top se désintègre en un quark bottom, un lepton chargé et un neutrino, tandis que l'autre se désintègre en quarks produisant des jets de particules. « Isoler le signal dans ce canal de désintégration a été complexe », explique Otto Hindrichs, chercheur à l'Université de Rochester, qui a développé une nouvelle technique d'intelligence artificielle pour reconstruire ces collisions.


« Au lieu de reconstruire directement la masse de la paire quark top-antiquark, nous nous sommes concentrés sur la vitesse relative du quark top et de l'antiquark », explique Yu-Heng Yu, doctorant ayant participé à l'analyse. « S’ils forment un état lié, leur vitesse relative devrait être bien inférieure à celle qu’ils auraient lorsqu’ils sont produits indépendamment. »


Ces nouvelles techniques se sont révélées extrêmement efficaces. Elles ont permis d’observer un excès avec une signification statistique supérieure à cinq écarts-types – la référence absolue en physique des hautes énergies. Ce résultat apporte une nouvelle confirmation, statistiquement indépendante, de la production de toponium.


« Le toponium est plus lourd que le noyau atomique le plus lourd connu, l’oganesson, ce qui en fait l’état lié le plus massif jamais observé », explique Regina Demina, responsable du groupe CMS à l’Université de Rochester. « Sa découverte approfondit notre compréhension de l’interaction forte et de sa capacité à lier les constituants fondamentaux de la matière. »



XXXXXXXXXXXXXXX


RESUME


Une mesure indépendante renforce l'hypothèse de l'existence du toponium.




Une mesure indépendante réalisée par l'expérience CMS au LHC confirme l'existence du toponium, un état lié d'un quark top et de son antiquark, avec une signification statistique supérieure à cinq écarts-types. Cette découverte établit le toponium comme la particule composite la plus massive jamais observée et contribue à une meilleure compréhension de l'interaction forte.


XXXXXXXXXXXXX


COMMENTAIRES

Ce résultat est interessant mais ne concerne

 pas  les  '' petits  etats énergétiques de notre vie quotidienne quantique

!!

Car je me dépèche de rappeler a mes élèves que notre propre corps ne contient que des quarks  up et down  !  Soyez donc rassurés : il faut aller se promener dans les champs d 'énergie  extravagants de CMS au  CERN  pour trouver tace de ces toponium !!!!


XXXXXXXXXXXXXXX

More information

Observation of a pseudoscalar excess at the top quark pair production threshold in the single lepton channel, cms-results.web.cern.ch/cms-re … OP-25-002/index.html

mercredi 1 avril 2026

SCIENCES ENERGIES ENVIRONNEMENT

 






Les ordinateurs quantiques pourraient finalement avoir une limite fondamentale


Par Sam Jarman, Phys.org


Édité par Sadie Harley, relu par Robert Egan


Notes de la rédaction


The GIST

Ajouter comme source privilégiée


Perte d'information à mesure que le nombre de qubits augmente. Crédit : Tim Palmer


Selon une nouvelle analyse publiée dans les Proceedings of the National Academy of Sciences, les performances des ordinateurs quantiques pourraient plafonner aux alentours de 1 000 qubits. Grâce à de nouveaux calculs, Tim Palmer, de l'Université d'Oxford, a réexaminé les fondements mathématiques des principes quantiques à la base de cette technologie. Il conclut que les limitations de la capacité de stockage d'information des grands systèmes quantiques pourraient rendre leur puissance de calcul bien plus limitée que ne le prévoient de nombreux chercheurs.


Un potentiel infini ?


Depuis quelque temps, les physiciens quantiques sont de plus en plus enthousiastes – et inquiets – face au potentiel apparemment illimité des ordinateurs quantiques. Dans un ordinateur classique, la quantité d'information augmente généralement de façon linéaire avec le nombre de bits. Dans un ordinateur quantique, chaque qubit supplémentaire double le nombre d'états quantiques que le système peut occuper.


Puisque ces états peuvent encoder simultanément de multiples possibilités, le système global semble devenir exponentiellement plus puissant avec chaque qubit ajouté – du moins selon notre compréhension actuelle de la mécanique quantique.


Avec les progrès technologiques et l'émergence de nouveaux dispositifs quantiques dotés d'un nombre toujours plus important de qubits, la croissance potentielle de la puissance de calcul a donc semblé pratiquement illimitée.


Considérant l'espace de Hilbert


À travers son analyse, Palmer parvient à une conclusion plus nuancée. Dans son article, il se concentre sur les propriétés de l'espace de Hilbert : un cadre mathématique abstrait où chaque état possible d'un système quantique est représenté par un point unique. Ceci permet aux chercheurs de décrire les systèmes quantiques en utilisant le langage plus intuitif de la géométrie.


Dans ce cadre, les superpositions d'états quantiques correspondent à de nouvelles dimensions de l'espace de Hilbert. À mesure que l'on ajoute des qubits, le nombre de ces dimensions augmente exponentiellement. Selon la mécanique quantique standard, un système peut explorer cet espace de manière continue et fluide, couvrant une gamme immense d'états quantiques possibles.


Atteindre une limite

Palmer soutient que la réalité physique sous-jacente à cette exploration pourrait être bien plus discrète que ne le suppose la théorie. Selon lui, la quantité d'informations physiques qu'un système peut contenir est limitée – insuffisante pour attribuer des valeurs totalement indépendantes à chaque dimension de l'espace de Hilbert à mesure que celui-ci s'étend. Cela signifie que, même si l'espace de Hilbert continue de croître exponentiellement sur le papier, la portion accessible de cet espace devient de plus en plus restreinte.


Dans cette perspective, les états quantiques ne peuvent occuper qu'un ensemble limité et dénombrable de possibilités. Si cette hypothèse est correcte, cela imposerait une limite claire à la croissance exponentielle prédite par la mécanique quantique standard. D'après les estimations de Palmer, les ordinateurs quantiques pourraient commencer à atteindre cette limite aux alentours de 1 000 qubits – un nombre que certains des dispositifs les plus avancés actuels approchent déjà.


Un avenir plus mesuré


Pour l'instant, la pleine puissance de calcul de ces systèmes reste à tester et pourrait largement dépasser celle des ordinateurs classiques les plus puissants. Cependant, compte tenu des limites proposées par Palmer, leurs capacités ultimes pourraient ne pas permettre d'atteindre certains objectifs longtemps espérés, comme le décryptage des systèmes de chiffrement qui sous-tendent une grande partie des transmissions de données sécurisées actuelles.


Si cela peut atténuer l'une des principales préoccupations concernant la technologie quantique, des contraintes similaires pourraient également s'appliquer à nombre de ses applications les plus prometteuses : de la découverte de médicaments à l'optimisation de réseaux logistiques complexes. En définitive, l'analyse de Palmer suggère que l'avenir de l'informatique quantique pourrait être bien plus réaliste qu'on ne l'imaginait.

XXXXXXXXXXXXX


RESUME


Les ordinateurs quantiques pourraient finalement avoir une limite fondamentale.




Les ordinateurs quantiques pourraient se heurter à une limite fondamentale de puissance de calcul aux alentours de 1 000 qubits, en raison des contraintes liées à la capacité de stockage d'information des grands systèmes quantiques. L'analyse suggère que, contrairement à la mécanique quantique standard, la portion accessible de l'espace de Hilbert se restreint progressivement à mesure que le nombre de qubits augmente, ce qui pourrait plafonner la croissance exponentielle du calcul quantique.


XXXXXXXXXXXX


COMMENTAIRES

Les ordinateurs quantiques je n'y crois pas !!!Ils n ont pas été suggeres pour remplacer la loi de Gordon MOORE  et multiplier la puissance    ...Mais tout le monde n est pas de mon avis !


1/ ste-t-il une limite aux ordinateurs quantiques actuels  ?


Explication des ordinateurs quantiques : potentiel, limites et…


Les limites des ordinateurs quantiques actuels


Cette technologie n’en est plus à ses balbutiements, mais de nombreux défis restent à relever avant que les ordinateurs quantiques ne fassent partie de notre quotidien. L’un des principaux problèmes réside dans la forte sensibilité aux erreurs des systèmes actuels.


2§Qu'a dit Mark Zuckerberg à propos de l'informatique quantique ?


Sa vision technologique plus large mettait l'accent sur le développement de l'IA, suggérant que des systèmes d'intelligence artificielle avancés précéderaient probablement les percées en informatique quantique. Il préconisait un déploiement généralisé de l'IA comme mesure de sécurité, établissant un parallèle avec la gestion des vulnérabilités logicielles.


XXXXXX

Publication details

Tim Palmer, Rational quantum mechanics: Testing quantum theory with quantum computers, Proceedings of the National Academy of Sciences (2026). DOI: 10.1073/pnas.2523350123. On arXiv: DOI: 10.48550/arxiv.2510.02877


Journal information: Proceedings of the National Academy of Sciences  , arXiv