jeudi 26 octobre 2017

LE POUVOIR DE L'IMAGINAIRE/PHYSICS WORLD COM/OCT 2017 /2 suite

1
 traduction entiere
L'effet Mpemba pourrait se produire dans les fluides granulaires
12 oct. 2017
L'effet Mpemba porte le nom de l'écolier tanzanien Ernesto Mpemba

Mpemba effect could occur in granular fluids



Le mystère s'approfondit: l'effet Mpemba peut-il également se produire dans les milieux granulaires?
Le mystère des raisons pour lesquelles l'eau chaude semble geler avant l'eau froide est celui de physiciens longtemps déconcertés, qui ont proposé divers mécanismes qui pourraient permettre le soi-disant «effet Mpemba», même si certains scientifiques le considèrent comme un mythe. Cependant, un cadre théorique viable émerge maintenant pour ce phénomène contre-intuitif. Dans un nouvel article paru dans Physical Review Letters, une équipe de physiciens d'Espagne rapporte avoir observé un effet similaire dans des modèles de fluide granulaire.
L'effet est nommé d'après un jeune garçon tanzanien appelé Ernesto Mpemba, qui a d'abord remarqué en faisant des glaces artisanales qu'elles  gelaient  plus rapidement s'il ne refroidissait pas le lait avant de le placer au congélateur. Mais il existe des références à des phénomènes similaires dans les écrits remontant à Aristote. Aucun consensus n'a émergé sur le type de mécanisme qui pourrait être impliqué, mais les courants de convection, la surfusion, ou la nature inhabituelle de la liaison hydrogène dans l'eau ont tous été proposés comme des possibilités.
Plus tôt cette année, Oren Raz, maintenant  en poste à l'Institut Weizmann en Israël, et Zhiyue Lu de l'Université de Chicago ont franchi une étape clé vers une telle théorie universelle, avec la première étude véritablement quantitative montrant qu'il est théoriquement possible de geler les choses chaudes plus vite que les choses plus froides. Leur modèle prédit également un effet inverse, à savoir qu'un système plus froid peut chauffer plus vite qu'un système plus chaud.
Antonio Lasanta-Becerra de l'Universidad de Extremadura à Badajoz, en Espagne, a lu leur article et a été intrigué. Il a demandé à deux collègues, Antonio Prados et Francisco Vega Reyes de l'Université d'Estrémadure, de s'appuyer sur ce travail et de concevoir leur propre modèle pour l'effet Mpemba dans un fluide granulaire. La clé de leur modèle est que leur fluide granulaire contient des sphères inélastiques. Donc, quand elles entrent en collision, les particules perdent de l'énergie par des mécanismes autres que la perte thermique, ce qui accélère le processus de refroidissement.
La principale critique de l'analyse de Raz et Lu était qu'ils utilisaient des modèles très simples ,alors  que l'eau était beaucoup plus compliquée. Cela rend le suivi des physiciens espagnols si important, car il trouve le même comportement dans un fluide granulaire 3D.
Greg Gbur, physicien à l'Université de Caroline du Nord, Charlotte, qui n'était impliqué dans aucune étude, souligne que les expériences originales de Mpemba étaient  réalisées avec du lait, un type de liquide très différent ,avec de nombreuses plus grosses particules en suspension dans l'eau. "Ce peut être un modèle proche de ce que Mpemba a réellement fait", dit-il. Et cela pourrait aussi s'avérer pertinent pour l'eau: si l'échantillon n'est pas pur et contient des particules de soluté plus grosses similaires, ces impuretés pourraient être un facteur contribuant à l'effet Mpemba.
Le travail est décrit dans Physical Review Letters.

A propos de l'auteur
Jennifer Ouelette est un écrivain scientifique basé à Los Angeles, en Californie

MON  COMMENTAIRE

I l peut apparaitre  logique  que la diffusion thermique   varie à l’intérieur de fluides  a gros grains  et que la conductibilité thermique  de ces derniers intervienne  dans un processus de refroidissement thermique  d’ensemble

88888888888888888888888888888888888888888888888888888888888888
2
Les expériences apportent une nouvelle lumière sur la façon dont le carbone qui donne la vie est forgé dans les étoiles

Experiments shed new light on how life-giving carbon is forged in stars

11 oct. 2017

Selon Hoyle: les deux voies de désintégration
Deux équipes de physiciens nucléaires ont effectué les mesures les plus sensibles encore sur  la façon dont une forme excitée de carbone-12 connu sous le nom de l'état de Hoyle se décompose en trois particules alpha constituantess. Les résultats fournissent une meilleure image de la structure des états excités dans le carbone et d'autres noyaux et améliorent notre compréhension des processus de fusion qui forgent de nouveaux éléments à l'intérieur des étoiles, disent les chercheurs.
Le carbone est essentiel à la vie sur Terre et est créé par la fusion nucléaire au sein des étoiles géantes rouges. Dans ce qu'on appelle la réaction triple-alpha, un noyau d'hélium (particule alpha) se joint à un autre pour créer du béryllium-8, qui se combine ensuite avec un troisième noyau d'hélium pour former du carbone-12. Mais il y a un problème avec cette image de base. La vie  du béryllium-8 apparaît trop courte pour expliquer les grandes quantités de carbone dans le système solaire - sa désintégration en seulement 8 × 10-17 s ne lui donnant qu'une chance minuscule de fusionner avec une particule alpha avant qu'elle ne disparaisse.
En 1953, l'astronome britannique Fred Hoyle a proposé que ce problème puisse être surmonté si la fusion du béryllium-8 avec une particule alpha générait  un état excité du carbone-12 qui se désintègre rapidement en carbone par l'émission d'une paire de rayons gamma. . Connu sous le nom d'état de Hoyle, il a ensuite été observé dans les spectres d'énergie des collisions nucléaires réalisées en laboratoire. À ce jour, cependant, la structure de l'état de Hoyle se présente comme  un puzzle.

Le modèle conventionnel de la structure nucléaire nous dit que les protons et les neutrons agissent comme des particules individuelles qui remplissent des "coquilles" comme des électrons  le font dans un atome. Mais ce modèle est loin de prédire correctement le niveau d'énergie de Hoyle. Un schéma alternatif dans lequel les protons et les neutrons se regroupent pour former trois particules alpha dans le noyau de carbone se rapproche beaucoup plus  de l'énergie d'excitation correcte. Mais il reste à savoir si le carbone 12 est constitué entièrement de grappes ou s'il est en partie constitué de grappes et aussi d'une collection de protons et de neutrons individuels. Il existe également une incertitude sur la manière dont ces grappes interagissent entre elles.
Une façon d'éliminer le brouillard consiste à démonter l'état de Hoyle en ses trois particules alpha constitutives afin de déterminer la fréquence relative - ou «rapport de ramification» - de deux voies de désintégration  en concurrence. Une première voie est la voie en deux étapes (beaucoup plus courante) dans laquelle le noyau de carbone-12 excité émet d'abord une seule particule alpha pour créer du béryllium-8, qui se décompose ensuite en deux autres alphas. L'autre voie est une étape unique dans laquelle le noyau original se décompose simultanément en trois particules alpha. La raison pour cela est que différents modèles de l'état de Hoyle prédisent des valeurs différentes pour le taux de branchement.
La mesure du rapport de ramification implique la création de plusieurs états de Hoyle en tirant un faisceau de noyaux sur une cible appropriée et en mesurant les particules alpha émises. La distinction entre les processus en une étape et en deux étapes repose sur la possibilité de déterminer l'énergie et l'orientation relatives des diverses particules alpha. Cependant, les groupes effectuant ces mesures par  le passé ont dû faire face à des effets de fond causés par  le cas  de deux particules d'une énergie similaire frappant le même détecteur de silicium.
Les recherches les plus récentes permettent de surmonter ce problème grâce à un arrangement de détecteurs soigneusement choisis qui garantit que chaque particule alpha issue de la décomposition du carbone 12 frappe un morceau de silicium séparé. Robin Smith et ses collègues de l'Université de Birmingham au Royaume-Uni ont tiré des noyaux d'hélium sur une cible de carbone tandis que Daniele Dell'Aquila de l'Université de Naples et son équipe ont employé une réaction impliquant l'azote et le deutérium. Les deux sont arrivés à des résultats très similaires:  c’est à dire établir, respectivement, que le processus en une seule étape ne se produit pas plus de 0,047% / 0,043% du temps. Cela représente une amélioration de plus de quatre fois la sensibilité par rapport au meilleur  des résultats précédents,  ce qui a mis une limite supérieure à l'occurrence de 0,2% en une seule étape.
"Il est certainement encourageant qu'ils obtiennent fondamentalement le même résultat", explique David Jenkins de l'Université de York au Royaume-Uni. "Cela  réfute certains travaux expérimentaux récents (vraisemblablement erronés) qui avaient identifié comme  substantielle  la  branche pour le mode de désintégration à trois alpha."
Smith et ses collègues affirment que les nouveaux résultats commencent à faire pression sur l'idée que l'état de Hoyle est entièrement constitué de grappes de particules alpha. Il note que les théoriciens qui ont effectué des calculs complets à trois corps de la décroissance de l'état de Hoyle en 2014 sont arrivés à une valeur pour le processus en une seule étape de 0,1%, alors qu'un modèle supposant que les trois particules alpha se condensent en l'équivalent nucléaire d'un condensat Bose -Einstein arrive à un  résultat semblable ,environ 0,06%. "Nous croyons que les données fournissent de bonnes preuves que l'interprétation de l'état de Hoyle est problématique", dit-il.
Dell'Aquila ajoute que l'amélioration des contraintes sur le processus de désintégration en une étape peut aider à affiner notre compréhension de la façon dont les éléments sont fabriqués dans les étoiles. Il fait remarquer que dans les étoiles qui brûlent de l'hélium à basse température, l'existence du processus en une seule  étape affecte de manière significative la production de carbone-12.

Les deux groupes disent qu'ils ont poussé la sensibilité des détecteurs à semi-conducteurs conventionnels à leur limite, et qu'une amélioration supplémentaire nécessitera le développement de détecteurs avec cibles de gaz. Smith explique que les nouveaux détecteurs imageraient les trajectoires des particules alpha lors de leur séparation pendant la désintégration, permettant ainsi "l'identification sans ambiguïté d'une désintégration directe basée sur leurs directions relatives".
Les deux ensembles de résultats sont décrits dans des articles distincts dans Physical Review Letters.

MON COMMENTAIRE

Le résultat provient selon moi de l’astuce de labo  permettant à chaque alpha  de trouver son détecteur propre

8888888888888888888888888888888888888888888888888888888888888

3

Des ondes topologiques se produisent-elles dans les océans?
10 oct. 2017

Do topological waves occur in the oceans?


Un graphique montrant une onde de Kelvin se propageant d'ouest en est

D'après des physiciens français et américains, des courants d'eau topologiques pourraient exister dans les océans terrestres. L'équipe a établi un lien entre la physique qui confère aux isolants topologiques leurs propriétés inhabituelles et les ondes Kelvin et Yanai - qui existent dans les océans et l'atmosphère et sont impliquées dans les variations régulières du système climatique de la Terre.
Les isolants topologiques sont des matériaux isolants qui ne portent les courants électriques  que sur leurs surfaces. Ils ont captivé l'imagination des physiciens de la matière condensée, car ils offrent des moyens de créer des matériaux dotés de propriétés nouvelles et potentiellement utiles.
Dans les isolateurs topologiques, la topologie des bandes d'électrons provoque le déplacement des électrons de spin opposé dans des directions opposées, ce qui entraîne des mouvements circulaires. L'effet est étroitement lié à l'effet Hall quantique, qui se produit dans les matériaux conducteurs 2D tels que les films minces en présence d'un champ magnétique. Le mouvement circulaire qui en résulte ne permet aucun flux net de courant à travers le matériau - sauf sur les bords, où les orbites circulaires sont tronquées de telle manière  que les électrons peuvent se déplacer autour de la surface en une série d'arcs.
Parce que ces mouvements proviennent de caractéristiques purement topologiques de la structure électronique, ils ne peuvent pas facilement être perturbés par des défauts: ils sont dits "protégés topologiquement". Les isolants topologiques sont l'un des exemples les plus étudiés de ce que l'on appelle les matériaux quantiques, dont le comportement électronique ou magnétique est fortement régi par des effets quantiques-mécaniques. Certains de ces matériaux pourraient trouver des applications dans, par exemple, l'informatique quantique - mais leur principale attraction pour les physiciens est qu'ils unifient tout un tas de concepts restés  auparavant disparates.
Selon Pierre Delplace et Antoine Venaille de l'École normale supérieure de Lyon en France, cette unité va au-delà de la science des matériaux, en collaboration avec Brad Marston de l'Université Brown de Rhode Island. Ils disent que deux types de flux ondulatoires  reconnus depuis longtemps dans l'atmosphère et les océans, appelés ondes Kelvin et Yanai, ont également une origine topologique, qui est mathématiquement analogue à ces  états conducteurs de surface des isolants topologiques.
Cette équivalence se manifeste dans les mathématiques du problème, disent les chercheurs. En physique de la matière condensée, les états d'électrons sont décrits par l'équation de Schrödinger en forme d'onde. Les orbites sont créées par le fait qu'un champ magnétique appliqué rompt la symétrie d'inversion du temps: les solutions à l'équation de Schrödinger changent lorsque le temps t est remplacé par -t. Les flux d'électrons de surface résultent alors d'une rupture de la symétrie de translation qui se produit à la surface.

Toutes ces caractéristiques, disent Delplace et ses collègues, se trouvent  imitées dans les équations d'onde pour les flux dans l'atmosphère et les océans, où la force de Coriolis - une force efficace due à la rotation de la Terre qui circule à droite et à gauche dans les hémisphères nord et sud , respectivement - joue le rôle d'un champ magnétique. Ces équations produisent des ondes piégées près de l'équateur, toujours obligées de se déplacer vers l'est, connues sous le nom de ondes  Kelvin équatorial et de ondes  mixtes de Rossby-gravité ( ou Yanai).
D'autres ondes de ce type existent également, comme les ondes de Rossby pures de longue période, mais celles-ci ne sont pas "protégées topologiquement" de la même manière. Les ondes de Kelvin et Rossby peuvent agir comme des précurseurs de l'oscillation océanique-atmosphérique quasi-périodique appelée El Niño Southern Oscillation, qui produit des effets climatiques significatifs tels que la sécheresse ou des précipitations élevées dans certaines régions équatoriales.
"La [théorie des] ondes équatoriales a été élaborée dans les années 1960 mais leur origine topologique est passée inaperçue jusqu'à présent", explique Marston. Au lieu de cela, dit-il, les ondes ont été considérées simplement comme des solutions aux équations d'eaux peu profondes près de l'équateur - "mais elles semblaient encore un peu mystérieuses".
Les chercheurs ont découvert la connexion, dit Marston, à travers «l'intuition de la physique sous-jacente» - en particulier dans la façon dont les champs magnétiques et la rotation planétaire rompent la symétrie d'inversion temporelle. Il est évident qu’ une fois que vous  vous êtes  mis au diapason des concepts d'isolateurs topologiques, dit-il - tous les candidats récents pour un poste de physique de la matière condensée à Brown ont immédiatement fait  le lien lorsque ils ont vu  les équations pour les ondes Kelvin dans un ancien manuel de géophysique.
La résilience de ces ondes équatoriales a été interprétée comme une conséquence de l'inadéquation de la dispersion (longueur d'onde-fréquence) entre les ondes équatoriales et d'autres ondes, explique Marston - "mais maintenant nous pouvons voir que la discordance est garantie par la topologie. " Il ajoute: "Je pense que les véritables conséquences de la topologie restent à découvrir, de même que de nouveaux types d'ondes d'origine topologique."
Le scientifique de l'atmosphère Isaac Held du Laboratoire de dynamique des fluides géophysiques de l'Administration nationale océanographique et aéronautique des États-Unis à l'Université de Princeton convient qu'il s'agit d'une nouvelle interprétation de ces ondes équatoriales. Il pense que la nouvelle perspective pourrait aider à comprendre pourquoi elles sont si robustes, par exemple face à un bruit aléatoire dans les écoulements atmosphériques ou océaniques.
«C'est un travail vraiment passionnant», explique le physicien Sebastian Huber de l'Ecole polytechnique fédérale de Zurich (ETH), qui a déjà fait la démonstration d'un analogue mécanique d'isolateurs topologiques utilisant une série de petits pendules. Il dit que cela reflète la «mentalité topologique» que les physiciens ont acquise ces dernières années. "Beaucoup de gens me disent que notre propre configuration mécanique a ouvert les yeux sur le fait que la topologie de la bande [de vibration] n'est pas liée à la mécanique quantique mais plutôt à la physique des ondes en général."
La recherche est décrite dans Science.
A propos de l'auteur
Philip Ball est un écrivain scientifique basé au Royaume-Uni

Mon commentaire

:Qui a dit : « La topologie, une science  ?  Mais ce n’est qu’un cauchemar de plombier mathématicien  ,voire de logicien !!! »

 Et bien voilà qu’ elle se rend utile  aux physiciens climatologues et océanographes !!!!

888888888888888888888888888888888888888888888888888888  
4
La polarisation de la lumière modulée rapidement par les nanotiges d'or
6 oct. 2017

Light polarization modulated rapidly by gold nanorods

Illustration de la façon dont un réseau de nanotigess d'or peut décaler la polarisation d'une impulsion lumineuse
Une méthode nouvelle et plus rapide de modulation de la polarisation des impulsions lumineuses a été dévoilée par des chercheurs britanniques. La technique utilise une seconde impulsion laser pour contrôler la polarisation et pourrait être utilisée dans une gamme d'applications pratiques comprenant le développement pharmaceutique.
Les dispositifs qui modulent la polarisation d'un signal optique jouent des rôles importants dans une gamme de technologies. La capacité d’usage d'une fibre optique peut être augmentée, par exemple, en codant des informations dans différents états de polarisation de la lumière qui sont ensuite transmis simultanément. Aujourd'hui, la vitesse à laquelle ce multiplexage peut être atteint est limitée par la rapidité avec laquelle la polarisation peut être modulée.
La plupart des modulateurs actifs disponibles aujourd'hui sont des dispositifs optiques et électroniques hybrides, ce qui signifie qu'ils sont intrinsèquement lents. Certaines métasurfaces optiques ultraminces peuvent modifier de manière significative la polarisation, mais il s'agit de dispositifs passifs qui ne sont pas adaptés à la fabrication d'un modulateur de polarisation actif.
Dans la nouvelle étude, Luke Nicholls et ses collègues du King's College de Londres ont utilisé une métasurface comprenant une grille de nanotiges d'or de 400 nm de long dans une matrice d'oxyde d'aluminium. Cette structure supporte à la fois une onde lumineuse ordinaire, dans laquelle le champ électrique oscille perpendiculairement aux axes des nanotiges, et une onde extraordinaire, dans laquelle  l’onde oscille le long des nanotiges. Les indices de réfraction du matériau pour ces deux ondes peuvent être très différents.
Pour l'onde ordinaire, l'indice de réfraction du matériau reste presque inchangé par la fréquence. Pour l'onde extraordinaire, cependant, l'indice de réfraction change non seulement sa magnitude mais même son signe. Lorsque la fréquence de la lumière descend en dessous de la fréquence d'oscillation naturelle des électrons dans les nanotiges d'or (la fréquence du plasma effectif), l'indice de réfraction devient négatif. Cela signifie que le métamatériau inverse la phase de l'onde extraordinaire: «Vous mettez l'onde extraordinaire en  retard de phase par rapport à l'onde ordinaire», dit Nicholls, «ce qui inverse l'état de polarisation».
Il serait impraticable dans les télécommunications, et impossible dans de nombreuses applications de détection, de changer constamment la fréquence du signal pour obtenir une polarisation différente. Cependant, l'équipe a extrait  un autre tour de  ses manches. "Lorsque vous faites briller une intense impulsion laser sur le matériau, il est absorbé par le gaz d'électrons du matériau", explique Nicholls, "et heureusement pour nous, l'indice de réfraction est étroitement lié à l'énergie des électrons."
La fréquence efficace du plasma peut donc être décalée vers des fréquences plus basses après  une brève "impulsion de commande" immédiatement avant l'impulsion du signal. La fréquence du signal peut donc être inférieure à la fréquence plasma effective - ce qui signifie que sa polarisation est inversée - dans des circonstances normales, mais au-dessus de la fréquence plasma efficace - sa polarisation n'est pas affectée - si le métamatériau vient d'être touché par l'impulsion de contrôle. L'équipe a également montré qu'une impulsion peut effectuer à la fois les fonctions de contrôle et de signal: le front de l'impulsion contrôle la façon dont la polarisation du reste de l'impulsion est affectée, une impulsion plus intense étant tournée plus fortement.
"Plus généralement, il y a une résonance dans une composante du champ transmis (l'onde extraordinaire) et aucune résonance pour la composante perpendiculaire (onde ordinaire)", explique Nicholls. Comme pour  toute résonance, il existe un déphasage entre les fréquences inférieures et supérieures à la résonance, ce qui permet de contrôler la polarisation de sortie d'un faisceau de signal à une longueur d'onde donnée en modifiant la position relative de la résonance par rapport à l'impulsion de contrôle en  induisant  un déphasage dans la composante extraordinaire de l'impulsion du signal transmis. "

Les chercheurs ont modulé la polarisation des ondes à des fréquences allant jusqu'à 300 GHz - avec la technologie actuelle la plus rapide  c’est  40 GHz. Il est peut-être possible d'aller encore plus vite: «Pour le moment, notre vitesse est limitée par la relaxation des électrons à l'état fondamental», explique Nicholls. «Nous cherchons des moyens de mieux comprendre ce processus et de l'accélérer. "
En principe, une rotation plus rapide de la polarisation de la lumière pourrait augmenter le nombre de signaux comprimés dans une seule fibre optique. Cependant, les chercheurs croient que la technique pourrait trouver encore  d'autres utilisations. Il est souvent crucial que les molécules pharmaceutiques soient sous forme gauchère parce que les formes droitières peuvent être inefficaces ou même toxiques. La proportion de molécules dans les formes gauches et droites peut être mesurée en analysant comment une solution affecte différentes polarisations de la lumière, c’est  une technique appelée polarimétrie.
"S’ils s peuvent changer la polarisation sur un processus chimique en train de se dérouler  les développeurs de médicaments pourront comprendre quels processus mènent à des mauvaises orientations et potentiellement les éliminer. ", dit Nicholls
Andrea Alù de l'Université du Texas à Austin, qui n'a pas participé à la recherche, la décrit comme "une amélioration significative" bien que "pas nécessairement surprenante": il note qu'un récent article de chercheurs américains dans le même journal décrit des effets similaires avec ondes réfléchies. Nicholls dit que ce document a été soumis après celui de l'article du groupe .
Alù souligne que la résonance de plasma efficace est un maximum de dissipation d'énergie et donc de perte de signal. Cela pourrait rendre le processus intenable dans les télécommunications, mais il croit que la configuration reste  prometteuse ailleurs: «Si vous voulez faire une détection chimique ultrarapide , ce qui n'est pas possible actuellement, dit-il, la perte n'est pas nécessairement la première mesure "
La recherche est décrite dans Nature Photonics
About the authorTim Wogan is a science writer based in the UK

Mon commentaire

Procédé qui me semble astucieux et utile



888888888888888888888888888888888888888888888888888888888
5
Des  physiciens emballent  un Nobel  de chimie pour la microscopie cryogénique
4 oct. 2017


Physicists bag chemistry Nobel for cryo-electron microscopy

Technique revolutionized how biological molecules are imaged
Image de microscope cryo-électronique composite
Le Prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Joachim Frank et Richard Henderson "pour avoir développé la microscopie cryo-électronique pour la détermination de structure à haute résolution de biomolécules en solution". Le prix d'une valeur de 9 millions de couronnes suédoises (£ 823 000) sera remis lors d'une cérémonie le 10 décembre à Stockholm. Il est partagé à parts égales par les trois lauréats, qui sont tous des physiciens de formation.
La microscopie cryogénique contourne deux défis majeurs lors de l'étude de grandes molécules biologiques avec un microscope électronique à transmission. Tout d'abord, les molécules existent naturellement dans l'eau, dont la vapeur détruit le vide nécessaire au fonctionnement du microscope. Les molécules pourraient être séchées avant d'être examinées, mais cela peut altérer leur structure au point que l'étude devienne  inutile. Le deuxième défi est que le faisceau d'électrons  réchauffe et détruit les molécules biologiques délicates. Cela pouvait être résolu en utilisant un faisceau plus faible, mais cela entraînait des images plus floues.
Henderson a montré au début des années 1970 qu'une protéine appelée bactériorhodopsine peut être étudiée sous un microscope électronique si les molécules sont naturellement liées à l'intérieur d'une membrane biologique. Cela garde les molécules humides et empêche l'eau de s'évaporer dans le vide. Pour minimiser la destruction par chauffage, Henderson a exploité le fait que les molécules de bactériorhodopsine dans la membrane sont disposées dans un réseau régulier, ce qui lui permet d'utiliser un faible faisceau d'électrons pour construire un schéma de diffraction. Il a obtenu la structure de la protéine en 1975.

Au fur et à mesure de l'amélioration des microscopes électroniques, Henderson a pu en déduire la structure à l'échelle atomique en 1990, montrant qu'il était possible de réaliser des études de haute qualité sur des molécules biologiques à l'aide d'un microscope électronique.
Travaillant indépendamment en 1975, Frank a dévoilé un algorithme d'analyse d'image pour fusionner plusieurs images 2D floues à partir d'un microscope électronique  et pour créer une image 3D d'une molécule. Cela implique de prendre des milliers d'images de molécules orientées au hasard et de les trier en groupes d'images similaires. Chaque groupe est ensuite traité pour créer un ensemble d'images beaucoup plus nettes. Les relations spatiales entre les groupes sont ensuite traitées c onduisant à l'assemblage d'une image 3D à haute résolution.
Il s'est avéré que l'algorithme de Frank pouvait être directement appliqué à une technique d'imagerie de molécules biologiques développée de manière indépendante en 1982 par Dubochet. Cela implique de disperser les molécules dans un mince film d'eau suspendu dans les interstices d'une maille. L'eau est ensuite congelée rapidement en plongeant la maille dans de l'éthane liquide à -190 ° C. La congélation rapide signifie que les molécules d'eau dans la glace n'ont pas une structure cristalline régulière, mais ressemblent à un verre. Cette "vitrification" de l'eau est cruciale car elle ne provoque pas de diffraction d'électrons et permet de prendre des images - bien que floues.

En 1991, Frank a combiné la technique de vitrification de Dubochet avec son algorithme d'imagerie pour obtenir des images de ribosomes. Au fur et à mesure que les microscopes électroniques se sont améliorés au cours des années intermédiaires (en partie grâce aux efforts de Henderson), la microscopie cryo-électronique est arrivée  maintenant  à représenter des molécules biologiques au niveau atomique.
Né en Écosse en 1945, Henderson a fait un BSc en physique à l'Université d'Edimbourg avant de terminer un doctorat en biologie moléculaire à l'Université de Cambridge, Royaume-Uni, en 1969. Après un séjour de trois ans à l'Université Yale, il rejoint la Recherche médicale. Laboratoire de biologie moléculaire du Conseil, également à Cambridge, où il est chef de groupe.
Dubochet est né en 1942 en Suisse et est basé à l'Université de Lausanne, où il est professeur honoraire de biophysique. Il a étudié la physique et l'ingénierie à l'École Polytechnique Fédérale de Lausanne avant d'obtenir un doctorat en biophysique en 1973 à l'Université de Genève et à l'Université de Bâle.
Frank est né en 1940 en Allemagne et a étudié la physique à l'Université de Fribourg et à l'Université de Munich. Il a terminé un doctorat en microscopie électronique en 1970 à l'Université technique de Munich. Il a ensuite travaillé dans plusieurs universités et laboratoires de recherche dans le monde avant de rejoindre l'Université de Columbia en tant que professeur de biochimie et de biophysique moléculaire et de sciences biologiques en 2008.
A propos de l'auteur
Hamish Johnston est rédacteur en chef de physicsworld.co

Mon commentaire

Je ne vais pas me permettre de critiquer un prix NOBEL DE CHIMIE aussi utile !!!!

88888888888888888888888888888888888888888888888888888888888888
6
Croissance des trous noirs accélérée par le gaz supersonique

Black-hole growth accelerated by supersonic gas


2 oct. 2017 5 commentaires
Simulation de la distribution de densité de gaz autour d'une protoétoile nouvelle-née ( protostar)
Des courants supersoniques de gaz auraient pu déclencher la naissance de trous noirs supermassifs dans l'univers primitif. C'est l'implication des simulations hydrodynamiques effectuées par Shingo Hirano de l'Université du Texas à Austin et ses collègues. La recherche pourrait expliquer comment d'énormes trous noirs ont pu se former lorsque l'univers avait moins d'un milliard d'années.
Les trous noirs supermassifs ont des masses de millions à des milliards de fois celles du Soleil et se cachent au centre des grandes galaxies . Alors que ces mastodontes ont mis des milliards d'années à se former, les astronomes savent aussi que les trous noirs supermassifs ont alimenté les quasars déjà moins d'un milliard d'années après le Big Bang. Ces observations précoces sont un mystère car les astronomes n'ont pas une bonne explication de la façon dont de tels objets énormes auraient pu se former si rapidement dans l'univers primitif.
Une hypothèse de premier plan est que d'énormes nuages ​​de gaz se sont effondrés sous la force de leur propre gravité, se condensant directement dans un trou noir. Cependant, les scientifiques ont eu du mal à modéliser la quantité de gaz pouvant tomber dans le nuage pour accumuler sa masse avant que le nuage ne se fragmente pour former des étoiles.  Les travaux de Hirano et ses collègues suggèrent que les flux de gaz à grande vitesse peuvent rapidement accumuler la masse d'un nuage de gaz, facilitant son effondrement.
Les flux  ont leurs origines à l'époque de la recombinaison, qui s'est produite environ 378 000 ans après le Big Bang. C'est à ce moment-là que le rayonnement de fond diffus cosmologique a été émis et que la matière baryonique et le rayonnement se sont découplés, permettant aux photons de circuler librement à travers l'univers. Le découplage fixe la matière baryonique telle que le gaz en mouvement, mais pas la matière noire (qui n'interagit pas avec la lumière). Par conséquent, la matière ordinaire a adopté des mouvements de flux relatifs aux alentours  de la matière noire, à l'intérieur de laquelle les nuages ​​de gaz se sont rassemblés et les premières étoiles et galaxies se sont formées.

Dans ses simulations, l'équipe de Hirano montre que les mouvements de flux empêchaient initialement le gaz de se déposer dans les auréoles de la matière noire. Cependant, les halos devinrent rapidement plus massifs et, environ 100 millions d'années après le Big Bang, le halo de la matière noire de la simulation de l'équipe atteignit 22 millions de masses solaires, la gravité étant maintenant assez forte pour piéger même le gaz en mouvement rapide. . Des milliers de masses solaires d'hydrogène primordial pouvaient maintenant se rassembler à l'intérieur du halo et, en son centre, une protoétoile naissait, entourée d'une enveloppe massive et dense.
Normalement, ces protostars autorégulent leur croissance en émettant des radiations qui neutralisent  cet agglomérat   du gaz et l'emportent. Cette rétroaction devient plus forte à mesure que la masse de la protoétoile  augmente jusqu'à dépasser la limite d'Eddington et que sa luminosité devient trop grande. C'était une autre pierre d'achoppement sur la route pour expliquer comment assez de masse arriverait  à  se rassembler pour former les premiers trous noirs.
Toutefois, explique Hirano, "notre protostar est entouré d'une enveloppe dense de gaz et croît rapidement grâce à un gaz efficace, et cet agglomérat  rapide peut changer la structure stellaire et désactiver le mécanisme d'autorégulation."
Au-dessus d'un taux d'accrétion de 0,04 masse solaire par an, l'enveloppe stellaire commence à se gonfler, laissant la région intérieure du nuage refroidir à moins de 6000 K. Sous cette température, la production de lumière ultraviolette tombe et le mécanisme d'autorégulation est trop faible pour arrêter l'accrétion du gaz. En l'espace de deux millénaires, le noyau du protostar central atteint 50 masses solaires, tandis que son enveloppe étendue de gaz aggloméré se gonfle pour atteindre 34 000 masses solaires énormes. C'est à ce moment que la gravité submerge tous les autres processus et le nuage entier - protostar et tout avec  -  s'effondre dans un trou noir.
L'effondrement du nuage dans la simulation de Hirano crée un trou noir de masse intermédiaire, qui peut ensuite atteindre un statut supermassif à travers une variété de processus, y compris des fusions avec d'autres trous noirs et l'accrétion de plus de gaz encore . Pendant ce temps, le halo de la matière noire autour du trou noir continue lui  à s'accumuler, fournissant l'échafaudage pour ce qui va devenir une galaxie.
Bien que le modèle fonctionne en théorie, ce n'est pas la seule explication plausible de la façon dont les trous noirs de masse intermédiaire pourraient se former à partir de l'effondrement direct des nuages ​​de gaz. Par exemple, dans un travail publié en 2016, une équipe dirigée par John Regan de l'Université de Durham a fait ses propres simulations indiquant que les nuages ​​de gaz primordiaux pourraient contourner la rétroaction stellaire et inhiber la naissance des étoiles, donnant aux nuages ​​le temps de croître en masse. chauffage à partir du rayonnement de fond et des étoiles voisines.
La naissance de ces trous noirs pourrait potentiellement être perçue par la prochaine génération de détecteurs d'ondes gravitationnelles. "Par exemple, un signal d'onde gravitationnelle causé par la coalescence de trous noirs intermédiaires pourrait être détecté par eLISA,"  a lancer en 2034
research is described in Science.
About the author :Keith Cooper is a science writer based in the UK

MON COMMENTAIRE

 Calculs interessants …I l reste a savoir si ces  trous noirs centrogalactiques  très anciens  vont se signaler par des ondes gravitationnelles  de type «  reliques »  ou se manifester par d autres coalescences ultérieures …..

 A SUIVRE






Aucun commentaire:

Enregistrer un commentaire