mercredi 13 juin 2018

LE MONDE SUIVANT LA PHYSIQUE/PHYSICS WORLD COM/JUNE 2018-4 : ( quantum and classic limits / Deep learning with quantic / Universal migration etc)....


Comment mesurer le comportement quantique dans les nanocristaux

How to measure quantum behaviour in nanocrystals


Quantum oscillator
11 juin 2018
 Oscillateur quantique




Harmonic oscillations: how large can a quantum object be? (Courtesy: iStock/Swillklitch)



Oscillations harmoniques : quelle peut être la taille d'un objet quantique? (Gracieuseté: iStock / Swillklitch)

Une nouvelle expérience qui teste la limite de la taille d'un objet avant qu'il cesse de se comporter mécaniquement  sous structure  quantique a été proposée par des physiciens britanniques et indiens. La mesure consiste à piéger un nanocristal avec de la lumière, puis à mesurer sa position pour voir si son comportement viole l'inégalité de Leggett-Garg - qui est un test de la nature quantique d'un système. Alors que l'équipe souhaite que sa proposition soit testée en laboratoire, tous les physiciens ne pensent pas qu'elle puisse être mise en œuvre.

Le principe d'incertitude de Heisenberg est une caractéristique importante de la mécanique quantique. Alors que dans la mécanique classique, la position et la quantité d'un objet peuvent être déterminées avec une précision arbitrairement élevée, le principe de Heidelberg stipule qu'il est impossible de mesurer la position et le moment  en mécanique quantique au-delà d'un certain degré de précision. De plus, plus vous en savez sur une mesure, plus l'incertitude devient grande.

L'expérience proposée teste la taille d'un objet avant que les règles de mesure quantique ne s'appliquent. Sougato Bose de l'University College London et ses collègues de l'Institut Bose et du Centre national des sciences fondamentales de SN Bose à Calcutta ont étudié le comportement d'un oscillateur harmonique linéaire quantique, lequel ressemble fortement à son homologue classique. "Les incertitudes sur la position et le moment sont toutes deux aussi faibles qu'elles peuvent l'être", explique Bose.

Bose et ses collègues ont fait une analyse d'une expérience hypothétique impliquant un nanocristal refroidi oscillant dans un piège créé par un potentiel harmonique optique. L'expérience permet de détecter à tout moment quel côté du piège est occupé par le nanocristal en focalisant un faisceau de lumière  sur un côté du piège. La lumière provoque la fluorescence dans le nanocristal, et si la lumière fluorescente n'est pas détectée, on peut conclure que le nanocristal est dans l'autre côté du piège - une procédure appelée mesure de résultat négatif.

L'expérience commence par une mesure de position, puis le système évolue pendant environ une microseconde avant que la position ne soit à nouveau mesurée. Si le nanocristal est un objet purement classique, les chercheurs ont raisonné qu’ un résultat négatif dans la première mesure n'affecterait pas la position du nanocristal dans la seconde mesure. C'est parce que le nanocristal aurait été dans l'autre moitié du piège, et n'aurait donc pas interagi avec le faisceau. Cependant, s'il existait une incertitude quantique dans la position et l'impulsion du nanocristal, le résultat nul au début de l'essai expérimental pourrait encore affecter sa position mesurée lors de la seconde mesure. C'est parce que la position du nanocristal ne serait pas bien définie avant d'être réellement mesurée. Par conséquent, le nanocristal pourrait avoir interagi avec le faisceau lumineux dans la moitié du piège, même s'il n'y a pas été détecté.

L'équipe a calculé l'inégalité Leggett-Garg pour les systèmes. Ceci est analogue à l'inégalité de Bell, qui est célèbre pour exclure les explications  de variables cachées de la mécanique quantique. L'inégalité de Bell quantifie la corrélation statistique maximale possible entre les propriétés de particules indépendantes séparées par des distances si grandes que l'information ne peut pas passer entre elles sans se déplacer plus vite que la lumière.

L'inégalité de Leggett-Garg utilise un raisonnement similaire pour calculer la corrélation statistique maximale entre deux résultats qui ne s'étaient pas influencés l'un l'autre. La violation de l'inégalité, par conséquent, montrerait que l'état du nanocristal pourrait être influencé par le résultat négatif antérieur, et donc que le nanocristal est un objet quantique plutôt que classique. En calculant les valeurs , les chercheurs ont calculé qu'il devrait être possible de détecter un comportement non classique pour  des objets ayant des masses allant jusqu'à environ 10^10 amu ou environ 10^-14 g. Bose dit que les expérimentalistes prévoient de tester cela.


Bose et ses collègues rapportent leurs résultats dans Physical Review Letters. Le physicien théoricien Clive Emary, de l'Université de Newcastle au Royaume-Uni, a déclaré: "Si quelqu'un fait ces expériences, nous regarderons en arrière et nous dirons que c'était un travail important". Il avertit cependant: "il  me semble qu'il y  a besoin d’une  très haute résolution temporelle pour faire les mesures proposées et, d'après mon expérience, cela ressemble à ce que vous proposez a des  expérimentateurs  ^pour qu’ ils reviennent en disant" c'est assez difficile ". Le théoricien de l'information quantique Renato Renner de l'ETH Zurich est plus optimiste: "Nous pouvons maintenant faire des expériences sur les technologies quantiques qu'il aurait été impossible de réaliser il y a cinq ou dix ans", dit-il. nous pouvons penser à  vouloir qu’ à un certain moment  ce soit  réalisable. "

Emary et Renner sont d'accord, cependant, que, dans l'inégalité de Bell, les deux mesures sont isolées classiquement par le fait que rien ne peut voyager plus vite que la vitesse de la lumière, l'inégalité de Leggett-Garg repose sur la preuve qu'il ne peut y avoir d'explication classique à la mesure antérieure perturbant la suivante
. "Ce n'est tout simplement pas possible", dit Emary, "Il y a toujours une faille: vous pourriez déranger les molécules d'air dans le laboratoire d'à côté et elles pourraient revenir et perturber votre système, par exemple."
 TIM WOGAN/PHYSICS WORLD

MON COMMENTAIRE  /  Cet article n’est pour moi (et encore une fois de plus  dans PHYSICS WORLD) qu’ une  expérience  de pensée poursuivie  par l’étude mathématique sur nanocristal   inhérente à l’incertitude   de  HEISENBERG ….Mais je reconnais qu’ il peut être  intéressant pour un philosophe  de préciser la limite à partir de laquelle un objet peut être  classé comme  «  classique » ou comme quantique … et en particulier  savoir quand et comment les phénomènes quantiques «  débarquent » à notre échelle humaine  et macroscopique …… J’avoue   que la remarque  finale   de Emary sur  cette sorte  d’effet  papillon  provoqué par  la décohérence  et l’environnement  a de quoi décourager les expérimentateurs….. Tous les objets décrits par la physique classique (pomme de Newton , planète, chat, etc.) étant composés, ultimement , d'atomes et de particules, et ces derniers étant décrits entièrement( ?) par la physique quantique, il serait logique de considérer que les règles de la physique classique puissent se déduire de celles de la physique quantique. Or, les tentatives en ce sens ont posé des problèmes au  départ et pendant  longtemps. La théorie de la décohérence  de H. Dieter Zeh  ( mort récemment)est à ce jour une des tentatives les plus satisfaisantes en ce sens, bien que non entièrement aboutie ……


88888888888888888888888888888888888888888888888888

L'apprentissage automatique révèle les phases quantiques de la matière

Machine learning reveals quantum phases of matter


12 Jun 2018
Machine learning

12 juin 2018
 Apprentissage automatique
Limite de phase: deux phases de localisation du corps (bleu) sont clairement séparées par une zone limite orange. (Courtoisie: Eun-Ah Kim)


Des physiciens aux États-Unis ont utilisé l'apprentissage automatique pour déterminer le diagramme de phase d'un système de 12 particules quantiques idéalisées à une précision plus élevée que jamais auparavant. Le travail a été fait par Eun-Ah Kim de l'Université Cornell et ses collègues qui disent qu'ils sont probablement les premiers à utiliser des algorithmes d'apprentissage automatique pour découvrir "l'information au-delà des connaissances conventionnelles" sur  la physique de la matière condensée
Jusqu'ici, l'apprentissage automatique n'a été utilisé que pour confirmer des résultats condensés dans des démonstrations  de principe, explique Roger Melko, de l'Université de Waterloo au Canada, qui n'a pas participé au travail. Par exemple, Melko a utilisé l'apprentissage automatique pour trier divers états magnétiques de la matière qui avaient déjà été classés auparavant. Au lieu de cela, Kim et ses collègues ont fait de nouvelles prédictions sur les phases de leur système qui sont inaccessibles avec d'autres méthodes. "Ceci est un exemple de machines qui ont déjà été utilisées par des humains", explique Melko.


Le groupe de Kim a étudié la physique de 12 électrons idéalisés interagissant selon le modèle d'Ising - qui décrit l'interaction entre les spins des particules voisines. Bien que leur modèle à 12 particules soit simpliste par rapport aux matériaux de la vie réelle, ce système peut à peine être simulé par les supercalculateurs. C'est parce que la complexité des simulations quantiques croît exponentiellement avec chaque particule supplémentaire.

L'équipe était particulièrement intéressée à comprendre les nombreuses phases de localisation  de corps  (MBL) qui peuvent survenir dans les systèmes quantiques. Ces phases se produisent lorsque les particules sont en déséquilibre et ne se comportent pas comme une collection de particules non-interactives ni comme un ensemble. Les physiciens ont du mal à décrire les phases MBL parce que les concepts statistiques tels que la température et la pression sont mal définis. "Ils défient notre compréhension de la mécanique statistique quantique et du chaos quantique", explique Kim.


L'équipe a élaboré  l'algorithme d'apprentissage automatique pour dessiner un diagramme de phase qui comprend deux phases MBL différentes et une phase conventionnelle. Pour ce faire, ils ont d'abord généré des données simulées de différentes configurations des 12 particules quantiques correspondant à des phases connues. Ils ont alimenté chaque configuration à un réseau de neurones, qui a classé les données dans une phase particulière. À ce stade du processus d'apprentissage automatique, les chercheurs ont dit au réseau de neurones si sa classification était correcte. Compte tenu de cette rétroaction, le réseau de neurones a développé de manière itérative un algorithme basé sur la multiplication matricielle qui pourrait distinguer entre les phases. Le réseau de neurones peut atteindre une précision de classification de 90% après avoir été entraîné avec 1000 configurations de particules différentes.

L'étape suivante consistait à utiliser le réseau de neurones pour classer les configurations de particules de phase inconnue. En triant ces configurations, ils pourraient remplir un diagramme de phase avec des limites plus distinctes par rapport aux diagrammes antérieurs réalisés à partir d'autres techniques
Un inconvénient important de l'utilisation des réseaux de neurones pour prédire cette  nouvelle physique est que nous n'avons pas une compréhension claire de la façon dont les systèmes apprennent. C'est un vaste domaine de la recherche actuelle connu sous le nom de problème d'interprétabilité. Heureusement, le réseau de neurones de Kim est relativement simple. De nombreux réseaux neuronaux, tels que ceux qui alimentent les algorithmes de reconnaissance de la parole et de l'image, impliquent d'alimenter les données d'entrée par de multiples itérations de multiplication matricielle appelées «couches cachées» avant qu'elles ne produisent une sortie. Ces couches cachées sont les parties les plus opaques du processus d'apprentissage, et le réseau neuronal de Kim n'a qu'une couche cachée. Son groupe essaie maintenant de distinguer ce que fait exactement ce calque caché. «Il est possible de regarder à l'intérieur d'un réseau de neurones simple et personnalisé et de comprendre comment il prend ses décisions», explique Kim.


En outre, Kim veut voir si l'équipe peut appliquer un type d'apprentissage machine plus sophistiqué, connu sous le nom d'apprentissage non supervisé, à des problèmes de matière condensée. Contrairement à l'apprentissage supervisé, où l'algorithme reçoit la réponse correcte en retour, un algorithme d'apprentissage non supervisé ne reçoit pas ce type de retour.

Les problèmes de matière condensée sont particulièrement bien adaptés à l'apprentissage automatique, car ils impliquent de nombreuses particules en interaction, et donc beaucoup de données, dit Melko. Le champ évolue vite, dit-il. "Tout comme vous prenez votre téléphone et tenez pour acquis que Siri ( le réseau)  fonctionne, dans quelques années, je pense que tout le monde va prendre pour acquis qu'il y aura une certaine intégration de la technologie AI dans ces expériences quantiques très complexes", dit-il.

Un papier decrit  la recherche  dans  Physical Review Letters  avec un  preprint  sur arXiv.
Sophia Chen  est freelance science writer in Tucson, Arizona

MON COMMENTAIRE / Nous voilà maintenant avec  l’entrée dans  PHYSICS WORLD      et les articles de ses auteurs  en  contact    avec un concept nouveau , l « 'apprentissage profond » (en anglais deep learning,) et son corollaire  le réseau neuronal artificiel, Tous les média en parlent   ! Alors pourquoi ne pas en parler ici ?! Pour mettre au courant mes lecteurs je vous présente  deux photos vous résumant mieux que du texte  les concepts…

Vue simplifiée d'un réseau artificiel de neurones

 réseau de neurones convolutifs (CNN) est une méthode d'apprentissage automatique reposant sur l'apprentissage profond.

 Les techniques d'apprentissage profond utilisent la capacité d’un ordinateur à reconnaître et classer diverses représentations à force de les lui montrer de très nombreuses fois !!!! Plus précisément elles permettent  de conférer du « sens » à des données en leur donnant la forme d’images, de sons ou de textes. ,  Il s’agit d’ architectures   constituées par  une classe d’algorithmes d'apprentissage automatique  Elles reposent sur l’utilisation  de réseaux de neurones artificiels à  multicouches issus eux-mêmes   du concept de perception neurologique  .Ils sont ensuite  relayés par des machines   qui  permettent  de traiter des données massives. Donc , pourquoi pas ,après les  GAFA (Google, Apple, Facebook, Amazon ) ne pas s’intéresser  aux collections multi quantiques , me direz-vous ???

En fait cet article sur 12 «  objets quantiques idéaux »  est un exercice de style et qui n’a rien de réel !!!.


   Un réseau de neurones convolutifs (CNN) est une méthode d'apprentissage automatique reposant sur l'apprentissage

Vue simplifiée d'un réseau artificiel de neurones

88888888888888888888888888888888888888888888888
 3

Universal migration predicts human movements under climate change

Photo of fishing boat, person and beach in Bangladesh. Courtesy: by Saiful Islam - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=35668254

La migration universelle prédit les mouvements humains sous le changement climatique
12 juin 2018
 Photo de bateau de pêche, personne et plage au Bangladesh. Courtoisie: par Saiful Islam - Travail personnel, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=35668254
Courtoisie: Saiful Islam - CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=35668254

On s'attend à ce que le changement climatique déplace des millions de personnes à travers des impacts tels que l'élévation du niveau de la mer, les mauvaises récoltes et des conditions météorologiques extrêmes plus fréquentes. Pourtant, les scientifiques ne peuvent toujours pas prédire où ces migrants induits par le climat sont susceptibles d'aller dans les prochaines décennies.

Une nouvelle étude, publiée aujourd'hui dans Environmental Research Letters, cherche à répondre à ce besoin en intégrant les impacts climatiques dans un modèle universel de mobilité humaine.

Pour démontrer l'efficacité de la nouvelle approche, l'étude s'est concentrée sur le cas de l'élévation du niveau de la mer et des migrations humaines au Bangladesh, où les auteurs estiment que plus de deux millions de Bangladais pourraient être déplacés  du fait de la variation des niveaux  seuls

L'étude, menée par l'Université de Columbia, à New York, a utilisé un modèle probabiliste combiné à des données démographiques, géographiques et climatiques pour prédire les sources, les destinations et les flux de migrants potentiels causés par l'élévation du niveau de la mer.

L'auteur principal, le Dr Kyle Davis, de l'Université de Columbia, a expliqué: «Plus de 40% de la population du Bangladesh est particulièrement vulnérable à l'élévation du niveau de la mer, car ils vivent dans des zones basses souvent exposées à des phénomènes naturels extrêmes.

"Cependant, SLR est un type de moteur de migration très différent des aléas naturels de courte durée, en ce sens qu'il rend certaines zones définitivement inhabitables."

Les résultats de l'équipe utilisant des scénarios représentatifs de la trajectoire de concentration (RCP) ont montré que la SLR moyenne entraînerait des déplacements de population dans 33% des districts du Bangladesh et 53% dans des conditions plus intensives. Au milieu du siècle, ils estiment que près de 900 000 personnes migreraient probablement à cause de l'inondation directe due à la seule SLR.

Dans le scénario le plus extrême, jusqu'à 2 mètres de SLR moyen, le nombre de migrants entraînés par une inondation directe pourrait atteindre 2,1 millions de personnes en l'an 2100. Pour tous les scénarios du PCR, cinq districts - Barisal, Chandpur, Munshiganj, Narayanganj et Shariatpur - sont la source de 59% de tous les migrants.

Leur analyse a pris en compte la SLR moyenne sans marées hautes normales, de sorte que les résultats - à la fois en termes de zone inondée et de population déplacée - sont conservateurs.

Les chercheurs ont également estimé les emplois supplémentaires, le logement et la nourriture nécessaires pour accueillir ces migrants à leurs destinations. Ils ont constaté que pour faire face au nombre de personnes susceptibles d'être déplacées d'ici 2050, 600 000 emplois supplémentaires, 200 000 résidences et 784 milliards de calories alimentaires seront nécessaires.

Ces résultats ont des implications claires pour les lieux susceptibles d'accueillir des migrants entrants.

Davis a déclaré: «Les migrants SLR ne chercheront probablement pas loin d'un endroit attrayant pour se déplacer, et la destination sera généralement un compromis entre les opportunités d'emploi, son éloignement de l'origine des migrants et sa vulnérabilité à la SLR elle-même.

"Nous avons constaté que la ville de Dhaka était constamment favorisée, devenant la destination principale dans tous les scénarios. Cela signifie que la ville devra se préparer au plus grand nombre de migrants, ce qui pourrait aggraver la croissance urbaine déjà rapide de la région. "

L'étude a également identifié d'autres risques de la SLR, notamment sur les moyens de subsistance et la sécurité alimentaire.

Davis a expliqué: "L'inondation par la mer, et l'émigration qu'elle provoque, auront des effets significatifs sur l'agriculture et l'aquaculture. Par exemple, 1000 km2 des terres cultivées du Bangladesh pourraient être sous-marines d'ici la fin du siècle, avec une superficie encore plus grande rendue inutilisable par l'intrusion d'eau salée. Étant donné que 48 pour cent de la main-d'œuvre travaille dans l'agriculture, l'impact serait ressenti en termes d'emplois et de sécurité alimentaire.

"De même, une grande partie de l'aquaculture côtière du pays est vulnérable aux impacts du changement climatique, ce qui aura probablement des conséquences nutritionnelles et économiques importantes, étant donné que 58% des protéines animales du régime bangladais proviennent des produits de la mer. cinquième producteur aquacole mondial.

«En fin de compte, nous espérons que l'outil de modélisation que nous avons développé pourra être utilisé par les chercheurs et les planificateurs pour prédire avec précision la relocalisation des migrants induits par le climat et permettre le développement de stratégies politiques et économiques pour relever  les défis
Simon Davies est responsable des relations publiques chez IOP Publishin

MON COMMENTAIRE  /Il est interessant que les météorologues , les physiciens  et les statisticiens  commencent à travailler sur des exemples  de migration  où un paramètre précis peut être suivi  …Compte tenu de l’ampleur des problèmes que poseront  l’évolution du climat, la démographie humaine , les problèmes sociaux et économiques conséquents  , les guerres  engendrées   , la diminution des ressources  et les réactions des contrées  de réception   je prédis  de nombreux articles pour  PHYSICS WORLD  dans les décades à venir ….MAIS JE N’Y SERAI PLUS !

88888888888888888888888888888888888888888888888888888888888888


8 commentaires:

  1. Bonjour Olivier ! Sur la question du seuil de décohérence, voici ma position :

    a) statistiquement une entité (atomes groupés) suffisamment massique est quantiquement influencée dans toutes les directions. De ce fait, elle est aux limites du seuil du statut macroscopique car les effets quantiques s'annulent.

    b) L'entité de base est matérialisée par le proton (10^-27 kg).
    c) le taux de couplage avec le niveau subquantique est relatif à xi = 10^11. Au delà il y a saturation. Je serais donc proche des prévisions de l'article annonçant un seuil de décohérence se situant vers une masse de 10^-16 kg (10^-13 g).

    Bien à vous.

    RépondreSupprimer
  2. J'ai vu une coquille cher Olivier (je ne suis pas le seul à en faire) il s'agit de l'incertitude de HEISENBERG et non pas HEIDELBERG !

    Selon le modèle OSCAR,

    http://www.cosmologie-oscar.com/index.php

    si cette incertitude est relative aujourd'hui à la constante de Planck, ce n'était pas le cas avant la constitution du BEC primordial. L'incertitude était alors totalement aléatoire car commandée par l'aléa lié à la source physique de l'impulsion de DIRAC dans les oscillateurs dipolaires stochastiques.

    RépondreSupprimer
    Réponses
    1. merci dominique : j ai publié jadis des choses à l univ de heidelberg
      le passé m obsede sans le savoir !!!!!

      Supprimer
  3. ....et je rajoute inlassablement que le h de Planck n'est que le reflet des paramètres de l'électron dont l'ancêtre est un composant des oscillateurs synchronisés formant BEC.

    h = me lambda² / te

    RépondreSupprimer
  4. Bonjour Olivier.

    Puis-je revenir un moment sur la question des neutrinos / antineutrinos ?
    Savez-vous comment on parvient à déterminer l'orientation de leur spin et donc de leur chiralité, dans la mesure où ils n'ont pratiquement pas de masse, ni de charge, et qu'ils interagissent difficilement avec le reste de la matière ?
    Quel type d'expérience permet de déterminer cela ?

    RépondreSupprimer
  5. CHER JEAN MARC
    si vous savez faire une biblio historique sur internet vous saurez les détails car il est apparu que les neutrinos qui sortaient des rep étaient en fait des antineutrinos ;;; la mise en évidence est relativement récente... et date je crois des manips et calculs japonais sur KAMIOKANDE

    RépondreSupprimer
  6. Je vous donne la reponse de Nathan Meyer dont ce fut la these mais en anglais QUE J ESPERE VOUS TRADUISEZ :" when the neutrino interacts via a charged current interaction. The charged lepton partner of the neutrino (electron, muon, or tau particle) is produced. If the neutrino is an anti-neutrion then the corresponding anti-particle partner is produced.

    It is possible to differentiate between the 3 charged lepton flavors and their anti-particle using the different masses and charges of the leptons.

    RépondreSupprimer
  7. Merci d'avoir répondu ! Je reste émerveillé qu'un objet aussi ténu et aussi évanescent puisse être ainsi étudié et identifié ...

    RépondreSupprimer