samedi 4 avril 2026

SCIENCES ENERGIES ENVIRONNEMENT









Cet article complète  la série consacréé  à l 'activité nucléaire de l 'IRAN   et diffusée sur Google/Blogger  lors des dimanches de mars

XXXXXXX

La presse et les média  font état de quantés d uranium importantes (environ 441 kilogrammes d'uranium, enrichi à 60 % ),
J'ignore l 'origine de ces valeurs que je présume venir  de l 'AIEA   à partir  de données irannienes  économiques de rentrées de minerais ou de yellow cake  ...
 Ces indications journalistiques  sont pour moi trés douteuses car si un pays désire se doter  d'armes nucléires il doit necessairement passer  pour atteindre le niveau d'un coposé d uranium chimiquent gazux   ....et l"hexa fluorure UF6 est le seul possible  à pression et temp"rature convenables !
Je ne vois pas de raisons pour l 'IRAN    de quitter  cette  chimie pour  passer  en formule métal  ...D'autant que cela requirt  un savoir faire   et une configuration  différent de l'hyper centrifugation ....Alors rappelez vous  que le concept de masse crtique et de réflectivité des neutrons  ne doivent pas etre néglogés  
....Rendus a ce point  je rappelle  que les média  américains nous ont abreuvés  d'informations sur les bombardements répétés subits  par les laboratoires ,les ateliers  et les structures  ....et ils ne fonctionneraient plus sauf
 s'ils  ontcjappé  en tunnels  et protectiond diverses

xxxxxxxxxxx
NB  Références internt 
1/L'Iran avait bien accéléré son rythme de production d ...

Connaissance des Énergies
https://www.connaissancedesenergies.org › ...
·
Translate this page
4 Sept 2025 — À cette date, l'AIEA a constaté que le total d'uranium enrichi à 60% de l'Iran s'élevait à 440,9 kg, soit une hausse de 32,3 kg par rapport au ..

2/Frappes américaines sur les sites nucléaires iraniens

Wikipédia
https://fr.wikipedia.org › wiki › Frappes_américaines_s...
About featur
A ce jour XLes États-Unis et Israël continuent de bombarder l'Iran. Déjà 15 000 cibles ont été atteintes, selon eux. 

XXXXXXXXXXXXXXX

vendredi 3 avril 2026

SCIENCES ENERGIES ENVIRONNEMENT




S

hift in key cosmic inflation measurement could be a statistical artifact

Un décalage dans une mesure clé de l'inflation cosmique pourrait être un artefact statistique


Par l'Institut Kavli de physique et de mathématiques de l'Univers


Édité par Sadie Harley, relu par Robert Egan


Notes des éditeurs


Le GIST

Ajouter comme source privilégiée


Comparaison des contraintes issues d'ACT (bleu), DESI BAO (gris) et ACT+DESI (rouge) pour les paramètres BAO et l'indice spectral ns. La bande rose représente les valeurs de ns pour les modèles d'inflation privilégiés après Planck. On observe un décalage dans les valeurs des paramètres privilégiés entre ACT et DESI ou ACT+DESI, illustrant la tension BAO-CMB, avec un décalage conséquent de ns hors de la bande rose. Crédit : Ferreira et al.


Depuis quelques décennies, les chercheurs étudient l'aspect de l'Univers dans ses premières secondes. Il est généralement admis que l'Univers s'est dilaté de manière exponentielle dans la première fraction de seconde après le Big Bang. Les chercheurs utilisent ns, l'indice spectral scalaire, pour caractériser la distribution des fluctuations de densité primordiales à différentes échelles de longueur dans l'Univers primordial. La valeur de ns est une observable centrale en cosmologie inflationnaire, car différents scénarios inflationnaires prédisent des valeurs distinctes pour cette quantité, ce qui en fait un puissant critère de discrimination entre les modèles.


Grâce aux mesures de haute précision du satellite Planck, l'indice spectral scalaire ns était considéré comme fortement contraint. Cette mesure a joué un rôle central dans la définition du paysage des modèles inflationnaires viables.


À mesure que la précision de ns s'améliorait, l'attention s'est de plus en plus portée sur d'autres observables, telles que le rapport tenseur-scalaire et les non-gaussianités primordiales, comme prochains critères de discrimination de la physique inflationnaire.


Un défi pour l'inflation en 2025


Ceci était vrai jusqu'en 2025, lorsque deux groupes de chercheurs ont combiné différents ensembles de données astrophysiques pour obtenir une valeur de ns qui a remis en question certains des modèles d'inflation les plus connus, replaçant ce paramètre au cœur du débat.


Cependant, une équipe de chercheurs dirigée par Elisa Ferreira, professeure adjointe de projet à l'Institut Kavli de physique et de mathématiques de l'Univers (Kavli IPMU, WPI) de l'Université de Tokyo, a démontré que cet écart provient d'une interaction statistique subtile entre les mesures du fond diffus cosmologique (CMB) et des oscillations acoustiques baryoniques (BAO). Cette découverte souligne l'importance de la cohérence des données dans la valeur déduite de ns.


Ces travaux sont publiés dans la revue Physical Review D.


Comprendre la tension BAO-CMB


Dans cette étude, l'équipe a analysé l'influence de la combinaison des données BAO et des observations du CMB sur la valeur déduite de l'indice spectral scalaire ns. Elle a montré que le décalage observé pour ns résulte d'une légère tension entre ces ensembles de données – la « tension BAO-CMB » – qui se répercute sur les contraintes des paramètres inflationnaires.


Lorsque cet effet est correctement pris en compte, les arguments contre les modèles inflationnaires standards s'affaiblissent considérablement.


En particulier, les auteurs démontrent que le décalage de ns est lié à des variations de paramètres cosmologiques tardifs, tels que la densité de matière. Ceci suggère que le résultat ne reflète pas principalement de nouvelles informations sur la physique de l'inflation, mais plutôt une cohérence interne aux données.


L'étude souligne l'importance d'évaluer soigneusement les tensions entre les différents jeux de données avant de tirer des conclusions définitives sur les modèles fondamentaux de l'Univers primordial.


Conséquences pour l'avenir de l'inflation


Par conséquent, la valeur déduite de ns n'est pas déterminée de manière univoque en présence de la tension BAO-CMB. Différentes combinaisons de jeux de données cosmologiques conduisent à des décalages statistiquement significatifs. Les contraintes actuelles sur l'inflation dépendent donc fortement de la manière dont les données tardives sont intégrées.


Tant que l'origine de cette tension n'est pas élucidée, il reste difficile de déterminer quelle valeur de ns doit être considérée comme la plus fiable. Le décalage pourrait être dû à des erreurs systématiques inconnues, à des choix d'analyse, ou potentiellement à une nouvelle physique.


Résoudre ce problème est essentiel avant de tirer des conclusions définitives sur les modèles inflationnaires et la physique de l'Univers primordial.



XXXXXXXXXXXXXX

RESUME


Un décalage dans une mesure clé de l’inflation cosmique pourrait être un artefact statistique.




Une analyse récente montre que les décalages de l’indice spectral scalaire ns, un paramètre clé de la cosmologie inflationnaire, résultent d’une tension statistique entre les données du fond diffus cosmologique et celles des oscillations acoustiques baryoniques. Cette tension affecte les contraintes sur les modèles d’inflation, indiquant que les valeurs actuelles de ns pourraient refléter des incohérences dans les données plutôt qu’une nouvelle physique.


XXXXXXXXXX


COMMENTAIRES

 Voici comme d 'habitude  les questions des élèves  et les réponse  ...

1/Sur  quoi repose le concept clé de l'inflation cosmique ?


Alors que la théorie du Big Bang propose une expansion constante de l'univers, la théorie de l'inflation cosmique postule une brève période d'inflation rapide. Durant cette période, l'univers a connu une croissance exponentielle, dépassant la vitesse de la lumière, Avant de perdre de l'énergie et de ralentir son expansion.

2/Que se serait -il passé durant les 10,43 premières secondes de l'univers ?


La période allant jusqu'à 10−43 secondes après le début de l'expansion, l'époque de Planck, fut une phase où les quatre forces fondamentales — la force électromagnétique, la force nucléaire forte, la force nucléaire faible et la force gravitationnelle — étaient unifiées en une seule.

3/Quel est le fait demeurant le plus terrifiant concernant l'univers ?

 Nous  restons  dans l incoinnu  profond ,à savoir la matière noire et énergie sombre


L'un des aspects les plus effrayants de l'espace est que nous ne connaissons la composition que d'une infime partie de l'Univers. Selon l'Agence spatiale européenne, l'Univers est composé, en gros, de 5 % de matière ordinaire, 25 % de matière noire et 70 % d'énergie sombre.²Une physique inconnue?????


4/Indépendamment de  ceconcept de l'inflation

Stephen Hawking a-t-il prouvé que le temps a eu un commencement ?


L’idée que le temps a commencé par un Big Bang a été défendue au début des années 1930 par le prêtre et astronome belge Georges Lemaître. Albert Einstein l’a rejetée, car elle lui rappelait les dogmes chrétiens. Mais finalement, Hawking et Roger Penrose ont donné raison à Lemaître.


XXXXXXXXXXPublication details

Elisa G. M. Ferreira et al, BAO-CMB tension and implications for inflation, Physical Review D (2026). DOI: 10.1103/lq71-b84v. On arXiv: DOI: 10.48550/arxiv.2507.12459


Journal information: Physical 


jeudi 2 avril 2026

SCIENCES ENERGIES ENVIRONNEMENT

 


ndependent measurement strengthens the case for toponium



Une mesure indépendante renforce l'hypothèse de l'existence du toponium


Par le CERN


Édité par Lisa Lock, relu par Andrew Zinin


Notes de la rédaction


The GIST

Ajouter comme source privilégiée

Représentation artistique du toponium. Crédit : D. Dominguez/CERN


Une nouvelle mesure indépendante réalisée par l'expérience CMS au LHC confirme l'existence de la particule composite la plus massive jamais observée : l'union momentanée d'un quark top et de son antiquark.


On a longtemps pensé que le quark top, la particule élémentaire la plus lourde et la plus éphémère connue, se désintégrait trop rapidement pour former des états liés. Cependant, un nouveau résultat de la collaboration CMS, présenté cette semaine aux Rencontres de Moriond, conforte l'observation de l'année dernière selon laquelle les quarks top peuvent, en réalité, s'apparier brièvement avec leurs antiquarks. Cet état lié éphémère, appelé toponium, serait la particule composite la plus massive jamais observée, complétant ainsi la famille des états quark-antiquark liés par l'interaction forte.


La majeure partie de la matière qui nous entoure est constituée d'atomes, dans lesquels les électrons sont liés aux protons par l'interaction électromagnétique. Mais les protons eux-mêmes ne sont pas des particules élémentaires. Ils appartiennent à une vaste famille de particules composites appelées hadrons, dans lesquelles les quarks sont maintenus ensemble par l'interaction forte. Parmi eux, les paires d'un quark avec son antiquark sont les plus simples et offrent une perspective particulièrement claire sur le fonctionnement de l'interaction forte. Depuis des décennies, de tels états sont connus pour tous les types de quarks, à l'exception du plus insaisissable : le quark top.


Découvert il y a plus de 30 ans à l'accélérateur Tevatron près de Chicago, le quark top a fait l'objet d'études approfondies depuis lors, les expériences menées au LHC allant jusqu'à mesurer l'intrication quantique entre quarks et antiquarks top. Même produit simultanément avec son antiquark, le quark top se désintègre généralement avant qu'un état lié puisse se former. Pourtant, les centaines de millions de paires quark top-antiquark produites au LHC, qui en fait une véritable usine à quarks top, constituent un ensemble de données si colossal que même les phénomènes les plus rares peuvent y laisser une trace détectable.


Distribution de la vitesse relative du quark top et de son antiquark. Le graphique supérieur compare les données (points) aux prédictions sans toponium (histogrammes superposés) et à celles qui l'incluent (ligne bleue). Le graphique inférieur montre le rapport avec les prédictions sans toponium. Crédit : CERN


Les premiers indices de l'existence du toponium sont apparus lors de recherches de particules lourdes de type boson de Higgs susceptibles de se désintégrer en une paire quark top-antiquark. Un excès inattendu d'événements de collision a été observé à une masse proche du double de celle du quark top, ce qui est plus caractéristique d'un état lié que d'une nouvelle particule fondamentale. Des études détaillées menées par les expériences CMS et ATLAS ont confirmé cet excès en utilisant des événements où les deux quarks top se désintègrent en leptons (électrons ou muons).


La nouvelle étude CMS aborde le problème sous un angle différent, en examinant des événements où un quark top se désintègre en un quark bottom, un lepton chargé et un neutrino, tandis que l'autre se désintègre en quarks produisant des jets de particules. « Isoler le signal dans ce canal de désintégration a été complexe », explique Otto Hindrichs, chercheur à l'Université de Rochester, qui a développé une nouvelle technique d'intelligence artificielle pour reconstruire ces collisions.


« Au lieu de reconstruire directement la masse de la paire quark top-antiquark, nous nous sommes concentrés sur la vitesse relative du quark top et de l'antiquark », explique Yu-Heng Yu, doctorant ayant participé à l'analyse. « S’ils forment un état lié, leur vitesse relative devrait être bien inférieure à celle qu’ils auraient lorsqu’ils sont produits indépendamment. »


Ces nouvelles techniques se sont révélées extrêmement efficaces. Elles ont permis d’observer un excès avec une signification statistique supérieure à cinq écarts-types – la référence absolue en physique des hautes énergies. Ce résultat apporte une nouvelle confirmation, statistiquement indépendante, de la production de toponium.


« Le toponium est plus lourd que le noyau atomique le plus lourd connu, l’oganesson, ce qui en fait l’état lié le plus massif jamais observé », explique Regina Demina, responsable du groupe CMS à l’Université de Rochester. « Sa découverte approfondit notre compréhension de l’interaction forte et de sa capacité à lier les constituants fondamentaux de la matière. »



XXXXXXXXXXXXXXX


RESUME


Une mesure indépendante renforce l'hypothèse de l'existence du toponium.




Une mesure indépendante réalisée par l'expérience CMS au LHC confirme l'existence du toponium, un état lié d'un quark top et de son antiquark, avec une signification statistique supérieure à cinq écarts-types. Cette découverte établit le toponium comme la particule composite la plus massive jamais observée et contribue à une meilleure compréhension de l'interaction forte.


XXXXXXXXXXXXX


COMMENTAIRES

Ce résultat est interessant mais ne concerne

 pas  les  '' petits  etats énergétiques de notre vie quotidienne quantique

!!

Car je me dépèche de rappeler a mes élèves que notre propre corps ne contient que des quarks  up et down  !  Soyez donc rassurés : il faut aller se promener dans les champs d 'énergie  extravagants de CMS au  CERN  pour trouver tace de ces toponium !!!!


XXXXXXXXXXXXXXX

More information

Observation of a pseudoscalar excess at the top quark pair production threshold in the single lepton channel, cms-results.web.cern.ch/cms-re … OP-25-002/index.html

mercredi 1 avril 2026

SCIENCES ENERGIES ENVIRONNEMENT

 






Les ordinateurs quantiques pourraient finalement avoir une limite fondamentale


Par Sam Jarman, Phys.org


Édité par Sadie Harley, relu par Robert Egan


Notes de la rédaction


The GIST

Ajouter comme source privilégiée


Perte d'information à mesure que le nombre de qubits augmente. Crédit : Tim Palmer


Selon une nouvelle analyse publiée dans les Proceedings of the National Academy of Sciences, les performances des ordinateurs quantiques pourraient plafonner aux alentours de 1 000 qubits. Grâce à de nouveaux calculs, Tim Palmer, de l'Université d'Oxford, a réexaminé les fondements mathématiques des principes quantiques à la base de cette technologie. Il conclut que les limitations de la capacité de stockage d'information des grands systèmes quantiques pourraient rendre leur puissance de calcul bien plus limitée que ne le prévoient de nombreux chercheurs.


Un potentiel infini ?


Depuis quelque temps, les physiciens quantiques sont de plus en plus enthousiastes – et inquiets – face au potentiel apparemment illimité des ordinateurs quantiques. Dans un ordinateur classique, la quantité d'information augmente généralement de façon linéaire avec le nombre de bits. Dans un ordinateur quantique, chaque qubit supplémentaire double le nombre d'états quantiques que le système peut occuper.


Puisque ces états peuvent encoder simultanément de multiples possibilités, le système global semble devenir exponentiellement plus puissant avec chaque qubit ajouté – du moins selon notre compréhension actuelle de la mécanique quantique.


Avec les progrès technologiques et l'émergence de nouveaux dispositifs quantiques dotés d'un nombre toujours plus important de qubits, la croissance potentielle de la puissance de calcul a donc semblé pratiquement illimitée.


Considérant l'espace de Hilbert


À travers son analyse, Palmer parvient à une conclusion plus nuancée. Dans son article, il se concentre sur les propriétés de l'espace de Hilbert : un cadre mathématique abstrait où chaque état possible d'un système quantique est représenté par un point unique. Ceci permet aux chercheurs de décrire les systèmes quantiques en utilisant le langage plus intuitif de la géométrie.


Dans ce cadre, les superpositions d'états quantiques correspondent à de nouvelles dimensions de l'espace de Hilbert. À mesure que l'on ajoute des qubits, le nombre de ces dimensions augmente exponentiellement. Selon la mécanique quantique standard, un système peut explorer cet espace de manière continue et fluide, couvrant une gamme immense d'états quantiques possibles.


Atteindre une limite

Palmer soutient que la réalité physique sous-jacente à cette exploration pourrait être bien plus discrète que ne le suppose la théorie. Selon lui, la quantité d'informations physiques qu'un système peut contenir est limitée – insuffisante pour attribuer des valeurs totalement indépendantes à chaque dimension de l'espace de Hilbert à mesure que celui-ci s'étend. Cela signifie que, même si l'espace de Hilbert continue de croître exponentiellement sur le papier, la portion accessible de cet espace devient de plus en plus restreinte.


Dans cette perspective, les états quantiques ne peuvent occuper qu'un ensemble limité et dénombrable de possibilités. Si cette hypothèse est correcte, cela imposerait une limite claire à la croissance exponentielle prédite par la mécanique quantique standard. D'après les estimations de Palmer, les ordinateurs quantiques pourraient commencer à atteindre cette limite aux alentours de 1 000 qubits – un nombre que certains des dispositifs les plus avancés actuels approchent déjà.


Un avenir plus mesuré


Pour l'instant, la pleine puissance de calcul de ces systèmes reste à tester et pourrait largement dépasser celle des ordinateurs classiques les plus puissants. Cependant, compte tenu des limites proposées par Palmer, leurs capacités ultimes pourraient ne pas permettre d'atteindre certains objectifs longtemps espérés, comme le décryptage des systèmes de chiffrement qui sous-tendent une grande partie des transmissions de données sécurisées actuelles.


Si cela peut atténuer l'une des principales préoccupations concernant la technologie quantique, des contraintes similaires pourraient également s'appliquer à nombre de ses applications les plus prometteuses : de la découverte de médicaments à l'optimisation de réseaux logistiques complexes. En définitive, l'analyse de Palmer suggère que l'avenir de l'informatique quantique pourrait être bien plus réaliste qu'on ne l'imaginait.

XXXXXXXXXXXXX


RESUME


Les ordinateurs quantiques pourraient finalement avoir une limite fondamentale.




Les ordinateurs quantiques pourraient se heurter à une limite fondamentale de puissance de calcul aux alentours de 1 000 qubits, en raison des contraintes liées à la capacité de stockage d'information des grands systèmes quantiques. L'analyse suggère que, contrairement à la mécanique quantique standard, la portion accessible de l'espace de Hilbert se restreint progressivement à mesure que le nombre de qubits augmente, ce qui pourrait plafonner la croissance exponentielle du calcul quantique.


XXXXXXXXXXXX


COMMENTAIRES

Les ordinateurs quantiques je n'y crois pas !!!Ils n ont pas été suggeres pour remplacer la loi de Gordon MOORE  et multiplier la puissance    ...Mais tout le monde n est pas de mon avis !


1/ ste-t-il une limite aux ordinateurs quantiques actuels  ?


Explication des ordinateurs quantiques : potentiel, limites et…


Les limites des ordinateurs quantiques actuels


Cette technologie n’en est plus à ses balbutiements, mais de nombreux défis restent à relever avant que les ordinateurs quantiques ne fassent partie de notre quotidien. L’un des principaux problèmes réside dans la forte sensibilité aux erreurs des systèmes actuels.


2§Qu'a dit Mark Zuckerberg à propos de l'informatique quantique ?


Sa vision technologique plus large mettait l'accent sur le développement de l'IA, suggérant que des systèmes d'intelligence artificielle avancés précéderaient probablement les percées en informatique quantique. Il préconisait un déploiement généralisé de l'IA comme mesure de sécurité, établissant un parallèle avec la gestion des vulnérabilités logicielles.


XXXXXX

Publication details

Tim Palmer, Rational quantum mechanics: Testing quantum theory with quantum computers, Proceedings of the National Academy of Sciences (2026). DOI: 10.1073/pnas.2523350123. On arXiv: DOI: 10.48550/arxiv.2510.02877


Journal information: Proceedings of the National Academy of Sciences  , arXiv 


SCIENCES ENENERGIES ENVIRONNEMENT

INCIDENT /NEWSLETTERS SCIENCE XA

SUITE     Les Néandertaliens tardifs d'Europe descendaient d'une population unique, selon l'analyse ADN.


Des preuves génétiques et archéologiques indiquent que les derniers Néandertaliens d'Europe descendaient d'une population unique ayant survécu dans le sud-ouest de la France après un important renouvellement démographique il y a environ 75 000 ans. Ces Néandertaliens tardifs présentaient une faible diversité génétique et ont connu un déclin démographique rapide entre 45 000 et 42 000 ans, précédant leur extinction il y a environ 40 000 ans.


Comment les microbes du sol pourraient influencer l'avenir de notre planète.


Le sol stocke environ trois fois plus de carbone que l'atmosphère, et sa rétention dépend largement de l'humidité. Des expériences montrent qu'un réchauffement combiné à la sécheresse entraîne une perte de carbone du sol de 12,2 %, tandis qu'un réchauffement associé à des conditions humides augmente le carbone du sol de 6,7 %. L'activité microbienne, et non la croissance des plantes, est à l'origine de ces changements, soulignant la nécessité d'intégrer les processus microbiens dans les modèles climatiques.


Les ordinateurs quantiques pourraient finalement avoir une limite fondamentale.


Les ordinateurs quantiques pourraient se heurter à une limite fondamentale de puissance de calcul aux alentours de 1 000 qubits, en raison des contraintes liées à la capacité de stockage d'information des grands systèmes quantiques. L'analyse suggère que, contrairement à la mécanique quantique standard, la portion accessible de l'espace de Hilbert se restreint progressivement à mesure que le nombre de qubits augmente, ce qui pourrait plafonner la croissance exponentielle du calcul quantique.


Une mesure indépendante renforce l'hypothèse de l'existence du toponium.


Une mesure indépendante réalisée par l'expérience CMS au LHC confirme l'existence du toponium, un état lié d'un quark top et de son antiquark, avec une signification statistique supérieure à cinq écarts-types. Cette découverte établit le toponium comme la particule composite la plus massive jamais observée et contribue à une meilleure compréhension de l'interaction forte.


Les bourdons à queue rousse, hôtes clés d'un virus dangereux pour les abeilles


Les bourdons à queue rousse (Bombus lapidarius) sont identifiés comme des hôtes clés du virus de la paralysie aiguë des abeilles, généralement mortel pour les abeilles domestiques mais peu nocif pour les bourdons. Les abeilles domestiques demeurent les hôtes principaux du virus des ailes déformées et du virus des cellules royales noires. La transmission virale se fait principalement par contact direct sur les fleurs, plutôt que par la composition des espèces d'abeilles présentes sur un site.


Une réponse immunitaire jusqu'alors insoupçonnée pourrait renforcer la défense contre le cancer


La perte d'expression du CMH I dans les cellules cancéreuses, un mécanisme courant d'échappement à l'attaque des lymphocytes T CD8+, accroît leur sensibilité à la ferroptose induite par les lymphocytes T CD4+. Ceci remet en question la conception traditionnelle de la restriction de classe du CMH et suggère que le ciblage du CMH I et le renforcement des réponses des lymphocytes T CD4+ pourraient améliorer l'efficacité de l'immunothérapie contre les tumeurs résistantes.


Pourquoi la culture de plantes résistantes à la sécheresse est-elle décevante ? La physique du sol serait le véritable obstacle.


L’absorption d’eau par les plantes est principalement limitée par les propriétés du sol, notamment les forces capillaires et visqueuses dans les pores, plutôt que par la physiologie végétale. Lorsque le sol s’assèche et que le potentiel hydrique descend en dessous de -1,5 MPa, les plantes ne peuvent plus extraire l’eau efficacement, quelles que soient leurs adaptations internes. Ceci explique le succès limité des tentatives de sélection pour la résistance à la sécheresse par modification des caractéristiques des plantes.


Un décalage dans une mesure clé de l’inflation cosmique pourrait être un artefact statistique.


Une analyse récente montre que les décalages de l’indice spectral scalaire ns, un paramètre clé de la cosmologie inflationnaire, résultent d’une tension statistique entre les données du fond diffus cosmologique et celles des oscillations acoustiques baryoniques. Cette tension affecte les contraintes sur les modèles d’inflation, indiquant que les valeurs actuelles de ns pourraient refléter des incohérences dans les données plutôt qu’une nouvelle physique.


Des robots inspirés des oiseaux promettent une flexibilité et un contrôle supérieurs aux drones.


Des ingénieurs ont mis au point un ornithoptère inspiré des oiseaux, doté d'ailes flexibles alimentées par des matériaux piézoélectriques, éliminant ainsi le besoin de moteurs, d'engrenages ou de liaisons mécaniques. Cette conception à semi-conducteurs permet des mouvements de battement et de torsion, offrant une plus grande maniabilité et un potentiel pour des applications telles que la recherche et le sauvetage. Une modélisation avancée intègre la physique du vol, facilitant l'optimisation future des conceptions.


Un polymère biosourcé offre une solution durable pour le traitement des polluants organiques persistants.


Une membrane polymère biosourcée renouvelable capture efficacement plus de 94 % de l'acide perfluorooctanoïque (PFOA) présent dans l'eau grâce au gonflement et au resserrement de son réseau de nanofibres par hydratation. Réutilisable après traitement thermique, la membrane conserve jusqu'à 93 % de sa capacité d'adsorption, offrant une approche durable et circulaire pour l'élimination des PFAS dans le traitement de l'eau.

Envoyer des commentaires

mardi 31 mars 2026

SCIENCES ENERGIES ENVIRONNEMENT





Quantum researchers engineer extremely precise phonon lasers


Des chercheurs en physique quantique conçoivent des lasers à phonons d'une précision extrême


Université de Rochester


Édité par Sadie Harley, relu par Robert Egan


Notes de la rédaction


The GIST


Ajouter comme source privilégiée


Des lasers à phonons sont utilisés pour piéger et faire léviter des nanoparticules dans le laboratoire de Nick Vamivakas, professeur de physique optique titulaire de la chaire Marie C. Wilson et Joseph C. Wilson à l'Université de Rochester. https://www.doi.org/10.1038/s41467-026-70564-3. Crédit : Université de Rochester / J. Adam Fenster


L'invention des lasers dans les années 1960 a ouvert de nouvelles perspectives pour la recherche scientifique et les applications quotidiennes, des scanners de supermarché à la chirurgie oculaire corrective. Les lasers conventionnels contrôlent les photons (particules individuelles de lumière), mais au cours des 20 dernières années, les scientifiques ont inventé des lasers qui contrôlent d'autres particules fondamentales, notamment les phonons (particules individuelles de vibration ou de son). La maîtrise des phonons pourrait ouvrir de nouvelles perspectives pour les lasers, notamment en exploitant des propriétés quantiques uniques telles que l'intrication.


Un nouveau laser à phonons comprimés, mis au point par des chercheurs de l'Université de Rochester et du Rochester Institute of Technology, permet un contrôle précis des phonons à l'échelle nanométrique. Cette découverte pourrait apporter un éclairage nouveau sur la nature de la gravité, l'accélération des particules et la physique quantique.


Dans un article publié dans Nature Communications, les chercheurs expliquent comment ils parviennent à amener ces particules individuelles, animées d'un mouvement mécanique, à se comporter comme un laser.


Nick Vamivakas, professeur de physique optique titulaire de la chaire Marie C. Wilson et Joseph C. Wilson à l'Institut d'optique de l'Université de Rochester, et ses collaborateurs ont réalisé la première démonstration d'un laser à phonons en piégeant et en faisant léviter des phonons à l'aide d'une pince optique dans le vide en 2019. Cependant, pour que cette technologie soit exploitable pour des mesures d'une extrême précision, ils ont dû surmonter un obstacle majeur, commun aux lasers à photons et à phonons : le bruit, ou perturbations indésirables qui rendent la lecture précise d'un signal difficile.


« Bien qu'un laser apparaisse à l'œil nu comme un faisceau stable, il présente en réalité de nombreuses fluctuations, générant du bruit lors de mesures », explique Vamivakas. « En modulant l'intensité d'un laser à phonons à l'aide de lumière de manière appropriée, nous pouvons réduire considérablement ces fluctuations. »


Plus précisément, les chercheurs sont parvenus à réduire le bruit thermique intrinsèque du laser à phonons. Selon Vamivakas, cette réduction du bruit permet de mesurer l'accélération avec une précision supérieure aux techniques utilisant des lasers à photons ou des ondes radiofréquences.


Vamivakas envisage que les chercheurs utilisent le laser à phonons pour obtenir des mesures extrêmement précises de la gravité et d'autres forces, ce qui pourrait s'avérer crucial pour des applications telles que la navigation.


Les scientifiques envisagent des boussoles quantiques comme alternatives plus précises et « inviolables » au GPS, ne nécessitant pas de satellites. Vamivakas est curieux de voir si le laser à phonons pourrait constituer une étape vers de tels systèmes.



XXXXXXXXXX


RESUME

Une expérience quantique montre que les événements peuvent ne pas avoir d'ordre fixe.


Une expérience utilisant un commutateur quantique a démontré que l'ordre de deux événements peut exister en superposition, aucun événement ne se produisant définitivement avant l'autre. Les corrélations observées ont dépassé les limites classiques, indiquant qu'aucun modèle à variable cachée avec un ordre causal fixe ne peut expliquer les résultats. Ceci fournit une preuve solide de l'existence d'un ordre causal indéfini dans les systèmes quantiques.


XXXXXXXXXXXX££


COMMENTAIRES

 Ce résultat me semble tout à fait interessant commenter !!

Lorsque l'on descend  a l'écheele des phénomès quantiques  une certaine  ''qualité de certitude'' se perd déjà grace au principe d 'incertitude de Werner Heisenberg ....Et a ceci il faut ajouter  ce '' brouillard temporel ''  dont parle l article  et qui  opacifie  toute le principe de causalité  que nous connaisson,s dans notre échelle de dimensions quotidiennes !! C  'est  un résultat à développement  philosophiquement  ...

XXXXXXXXXXXXXXX

Publication details

A two-mode thermomechanically squeezed phonon laser, Nature Communications (2026). DOI: 10.1038/s41467-026-70564-3


Journal information: Nature Communications 


Key concepts

Optics & lasersQuasiparticles & collective excitations



lundi 30 mars 2026

SCIENCES ENERGIES ENVIRONNEMENT

 








Earth's 40,000-year tilt cycle links Antarctic ice growth to subtropical productivity

by Will Cushman, University of Wisconsin-Madison


edited by Sadie Harley, reviewed by Robert Egan

 Editors' notes

 The GIST


Le cycle d'inclinaison de la Terre sur 40 000 ans relie la croissance de la glace antarctique à la productivité subtropicale


Par Will Cushman, Université du Wisconsin-Madison


Édité par Sadie Harley, révisé par Robert Egan


Notes de la rédaction


The GIST


Ajouter comme source privilégiée


En haut à gauche, Oscar Cavazos (spécialiste de laboratoire marin, IODP JRSO) se joint à d'autres techniciens marins pour préparer une nouvelle carotte de sédiments qui sera sectionnée sur la passerelle du JOIDES Resolution en 2022. Crédit : Erick Bravo, IODP JRSO

Selon une nouvelle étude menée par des scientifiques de l'Université du Wisconsin-Madison, les cycles de croissance et de fonte des calottes glaciaires de l'Antarctique ont autrefois façonné la productivité biologique marine à des milliers de kilomètres de là, dans l'océan subtropical. L'étude, publiée dans les Actes de l'Académie nationale des sciences (PNAS), a révélé que le cycle d'obliquité – un cycle astronomique de 40 000 ans lié aux variations de l'inclinaison de l'axe terrestre – a influencé la productivité océanique aux latitudes subtropicales il y a environ 34 millions d'années, au moment où la calotte glaciaire antarctique commençait à s'étendre.


Cette découverte a surpris les chercheurs car, bien que ce cycle de 40 000 ans soit un facteur important des conditions aux pôles, son influence sur le climat et les océans près de l'équateur est généralement plus limitée.


« On s'attend généralement à ce que d'autres cycles astronomiques aient une influence plus importante », explique Stephen Meyers, professeur de géosciences à l'Université du Wisconsin-Madison et l'un des principaux auteurs de l'étude.


Les chercheurs ont toutefois constaté une forte influence, singulière, du cycle de 40 000 ans sur la bioproductivité de l’océan subtropical ancien, sur une période d’un million d’années associée à la première expansion des calottes glaciaires antarctiques, il y a environ 34 millions d’années.


« Cela nous indique que la bioproductivité est influencée par un processus lointain, se déroulant aux hautes latitudes, via l’apport de nutriments aux basses latitudes », explique Meyers.


Reconstitution de la productivité des océans anciens


L’équipe est parvenue à cette conclusion en analysant les signaux chimiques préservés dans les sédiments océaniques, témoins de la productivité biologique passée. Ces sédiments ont été prélevés lors de campagnes de forage océanique menées entre 2020 et 2022 à bord du navire de forage scientifique JOIDES Resolution, aujourd’hui désarmé.


Pendant des décennies, ce navire a prélevé des carottes de sédiments océaniques afin d’étudier les océans de la Terre et leur histoire géologique.


« Le navire a fourni des archives qui ont permis de réaliser d'importantes découvertes scientifiques concernant les événements climatiques mondiaux, l'évolution de la vie et la tectonique des plaques », explique Alexandra Villa, qui a codirigé les recherches avec Meyers lorsqu'elle était doctorante à l'Université du Wisconsin-Madison et qu'elle était scientifique à bord lors de l'expédition de forage.


Villa est aujourd'hui chercheuse postdoctorale au MARUM à Brême, en Allemagne, et poursuit ses recherches à partir des archives de forage océanique.


Comment la glace antarctique façonne les mers lointaines


Les carottes de sédiments ont permis aux chercheurs de reconstituer si et comment la vie dans les océans subtropicaux a évolué en réponse à la dynamique de la calotte glaciaire antarctique, située à des milliers de kilomètres. Pour comprendre comment les calottes glaciaires antarctiques peuvent affecter la vie dans les océans subtropicaux, « il est essentiel de s'intéresser au lien entre la circulation océanique et la bioproductivité », explique Villa.


« Aujourd'hui, environ les trois quarts de la bioproductivité marine au nord du 30e parallèle sud dépendent des nutriments provenant de la circulation de l'océan Austral, qui entoure l'Antarctique », précise Villa. L'eau de l'océan Austral, riche en nutriments, plonge puis se dirige vers les latitudes plus basses, où elle est mélangée à la surface, influençant ainsi la bioproductivité.


L'émergence de la calotte glaciaire antarctique, il y a environ 34 millions d'années, a modifié les courants océaniques et la circulation des nutriments.


« Lorsque la calotte glaciaire est devenue suffisamment vaste pour s'étendre jusqu'à l'océan Austral, le cycle d'obliquité de 40 000 ans des calottes glaciaires marines a influencé l'apport de nutriments à notre site subtropical », explique Villa.


Téléconnexions climatiques mondiales

Ces nouvelles recherches s'appuient sur des études antérieures de l'Université du Wisconsin-Madison qui ont démontré l'influence considérable du cycle d'obliquité de 40 000 ans sur les calottes glaciaires marines.


Désormais, les scientifiques sont en mesure de relier ce cycle à la dynamique océanique mondiale et à ses effets considérables. Ces nouvelles découvertes soulignent en effet l'interdépendance du système climatique terrestre.


« Le système terrestre est tellement interconnecté que les changements survenant dans une partie de la planète peuvent avoir des répercussions surprenantes », explique Meyers. « Les calottes glaciaires polaires et la circulation océanique mondiale en sont des exemples importants, ayant un impact sur les réseaux trophiques marins situés bien au-delà des calottes glaciaires. Notre étude montre à quel point ces "télécommunications mondiales" sont dynamiques, variables et parfois surprenantes. »

Envoyer des commentaires



XXXXXXXXXXXX


RESUME


Le cycle d'inclinaison de la Terre sur 40 000 ans relie la croissance de la calotte glaciaire antarctique à la productivité subtropicale.


Le cycle d'obliquité de la Terre sur 40 000 ans, induit par les variations de l'inclinaison axiale, a influencé la croissance de la calotte glaciaire antarctique et, par conséquent, la productivité marine des océans subtropicaux il y a environ 34 millions d'années. L'analyse des carottes sédimentaires indique que l'apport de nutriments provenant de l'océan Austral, modulé par la dynamique des glaces antarctiques, a façonné la bioproductivité des océans lointains, démontrant ainsi de fortes interconnexions climatiques mondiales.


XXXXXXXXXXXXXXXXXX


COMMENTAIRES

Excellent travail   ! L'expertise  des carottes   et des pollens par archéogeologie est payante ; bravo!!!!


XXXXXXXXXXXXPublication details

Alexandra Villa et al, High-latitude teleconnections drive subtropical marine bioproductivity at the dawn of the Antarctic ice sheet, Proceedings of the National Academy of Sciences (2026). DOI: 10.1073/pnas.2424082123


Journal information: Proceedings of the National Academy of S