-
Une étude, dont les résultats intitulés «A Josephson relation for fractionally charged anyons» ont été publiés dans la revue Science, a abouti à la conception d'une nouvelle méthode expérimentale utilisant des photons micro-ondes, qui apporte une preuve supplémentaire de l'existence d'échanges de charges électriques, égales au tiers ou au cinquième de la charge élémentaire de l'électron.
Rappelons tout d'abord que bien que l'électron soit «une particule élémentaire qui porte une charge électrique, elle aussi, élémentaire et donc a priori insécable», l'équipe de l'Iramis a mis pour la première fois en évidence, en 1997, «l'existence de charges électriques fractionnaires dans un conducteur bidimensionnel soumis à un champ magnétique intense», un résultat qui «faisait suite à la découverte fondamentale, en 1980, de l'effet Hall quantique fractionnaire». Comme les porteurs de ces charges fractionnaires «semblent ne se comporter ni comme des fermions (électrons), ni comme des bosons (photons), ils ont été dénommés: any-ons (*).
Pour parvenir à cette découverte, les chercheurs de l'Iramis avaient analysé le 'bruit' (ou les fluctuations) d'un très faible courant électrique», car si, pour un courant fort, «le bruit est proportionnel à l'intensité du courant», il en va autrement «pour un très faible courant à très basse température puisque «les charges sont transportées individuellement et le bruit recèle des informations comme la granularité de la charge».
Concrètement, les chercheurs avaient «étudié les électrons confinés à l'interface entre deux couches semi-conductrices (GaAs et AlGaAs), soumis à un champ voisin de dix teslas et refroidis à 20 millikelvins». Ils avaient «conçu un circuit permettant aux charges électriques de s'écouler une par une» et «enregistré leurs passages au fil du temps». L'analyse des fluctuations observées avait permis de déduire «la valeur des charges transportées: e/3».
Aujourd'hui, l'étude ici présentée, réalisée par la même équipe, «montre qu'il est possible de manipuler les anyons avec des photons». Pour y parvenir, la même expérience a été réitérée «en superposant un champ micro-ondes à la tension continue appliquée au circuit». Ces photons micro-ondes induisent alors «un bruit supplémentaire au-delà d'une tension électrique dont la valeur est reliée très simplement à la charge fractionnaire transportée».
Au bout du compte, «non seulement cette expérience confirme et renforce les résultats publiés en 1997 par l'observation de la fraction e/5 mais elle démontre surtout la capacité des anyons à absorber ou émettre des photons micro-ondes».
Il en résulte que, grâce à cette interaction, «il devient possible de produire des anyons à la demande et de les manipuler, ce qui ouvre la voie à une exploration tout à fait inédite de leurs propriétés»: en particulier, il apparaît maintenant possible de dire à quelle statistique ces particules «ni fermion, ni boson» obéissent.
Lien externe complémentaire (sources Wikipedia)
(*) Anyon
votre commentaire -
Une étude, dont les résultats intitulés «Core crystallization and pile-up in the cooling sequence of evolving white dwarfs» sont publiés dans la revue Nature, a permis, grâce aux données de la mission Gaia concernant les populations de naines blanches (*) dans la Voie lactée, de renforcer une théorie vieille de presque 50 ans qui stipule que les naines blanches se cristalliseraient en se refroidissant en devenant une sorte de diamant géant. Il devrait en être ainsi du Soleil.
Rappelons tout d'abord que «c'est au cours des années 1960 que divers astrophysiciens théoriciens, dont Edwin Salpeter en 1961 » ont compris «que le cœur d'une naine blanche devait assez rapidement se transformer en un immense réseau cristallin de noyaux de carbone et d'oxygène» de sorte qu'une «part importante du volume d'une naine blanche devait ainsi ressembler à une sorte de diamant géant, bien que la structure cristalline obtenue avec le carbone ne soit pas exactement celle du diamant sur Terre».
Cette théorie a été précisée par Hugh M. Van Horn en 1967 qui a abouti à la conclusion «que le processus de cristallisation devait se produire sur la base d'une théorie déjà avancée, en 1934, par le grand physicien Eugène Wigner» (**) de sorte qu'en fin de vie, une étoile comme le Soleil devrait se transformer en naine blanche et devenir en se refroidissant un 'cristal de Wigner' (***).
Aujourd'hui, «des observations faites avec l'aide de la mission Gaia dans l'espace» amène l'étude ici présentée à conforter cette théorie. En fait, «en précisant notamment la distance de 15.000 naines blanches situées à environ 300 années-lumière du Soleil, Gaia a permis de mesurer plus précisément leur luminosité intrinsèque» et donc leurs positions dans le diagramme de Hertzsprung-Russell.
Il est alors apparu que «tout un sous-ensemble de ces naines blanches, avec des couleurs et des luminosités spécifiques, ne correspondait à aucune des masses ni à aucun des âges attendus» à moins de «faire intervenir une source de chaleur supplémentaire ralentissant leur vieillissement de près de deux milliards d'années dans certains cas». Or «cette source de chaleur semble tout à fait correspondre à la chaleur latente libérée» par «la cristallisation des naines blanches attendue par les travaux de Van Horn» à «un moment de leur évolution».
Au bout du compte, ce sont «toutes les naines blanches» qui «se cristallisent à un certain moment de leur évolution, bien que pour les naines blanches plus massives cela se produit plus tôt». Il en résulte «que des milliards de naines blanches dans notre galaxie ont déjà terminé le processus et sont essentiellement des sphères de cristal dans le ciel». Pour ce qui concerne le Soleil, il «deviendra une naine blanche cristalline d'ici 10 milliards d'années».
En réalité, cette étude a non seulement eu «des preuves du dégagement de chaleur lors de la solidification», mais elle a également mis en évidence «qu'il faut dégager beaucoup plus d'énergie pour expliquer les observations». Celle-ci devrait provenir de «la cristallisation de l'oxygène qui coule ensuite vers le centre de l'étoile, un processus semblable à la sédimentation dans le lit d'une rivière sur la Terre»: comme «le carbone est alors repoussé vers le haut», cette séparation «libère de l'énergie gravitationnelle».
Liens externes complémentaires (source Wikipedia)
(*) Naine blanche
(**) Eugene Wigner
(***) Cristal de Wigner
votre commentaire -
Deux études, dont les résultats intitulés «Topography of (exo)planets» et «Multifractal topography of several planetary bodies in the solar system» sont publiés respectivement dans les revues MNRAS et Icarus, présentent une technique pour synthétiser numériquement des topographies réalistes des exoplanètes telluriques, alors que, pour l’instant, aucun instrument n’a réussi à imager des exoplanètes rocheuses, tant elles sont petites et lointaines. Cette avancée devrait permettre «de mieux préparer l’analyse des données réelles issues des futures campagnes d’observation directe des exoplanètes».
Indiquons tout d'abord qu'une analyse statistique «des corps du Système Solaire (la Terre, la Lune, Mercure et Mars), a démontré que les topographies des corps telluriques partagent des caractéristiques similaires». Le modèle dit 'multifractal', qui «est une extension du modèle bien connu des fractales, popularisé par Benoît Mandelbrot», est en mesure «de rendre compte de la complexité de ces corps, tantôt lisses, tantôt rugueux, à toutes les échelles».
Ainsi, l'étude publiée dans la revue MNRAS a permis pour la première fois de générer des surfaces 'multifractales' en géométrie sphérique comportant «des zones lisses et rugueuses à toutes les échelles, comme dans la réalité». Du fait que cet outil est «basé sur un germe aléatoire, il est capable de générer autant d'exemples que nécessaire». Ces topographies synthétiques contribueront à «résoudre plusieurs énigmes sur les exoplanètes mais aussi sur les corps du Système Solaire et la Terre primitive».
En guise d’application, la statistique des terres émergés (îles, continent, etc.) et des mers (lacs, océans, etc.) a été analysée «en fonction du niveau de remplissage d’eau liquide».
Les résultats font apparaître «que la taille du plus grand océan est très variable: dans le cas où il y a peu d’eau, 90% de la surface est recouverte de continent et 10% de mers, le plus grand océan a une taille moyenne de 75% des mers mais peut varier entre 25% et 95%». Pour «le cas similaire à la Terre, 70% de la surface de la planète est recouverte d’océan et 30% de continent mais le plus grand continent fait en moyenne 75% des terres émergés (entre 25% et 90%), contre 55% sur notre Terre».
En fin de compte, l'étude «montre que la configuration de la Terre est plus probable avec des continents connectés plus grand», une situation qui «a eu lieu il y a 300 millions d’année» avec une Terre présentant «un unique supercontinent appelé 'la Pangée'».
Ces topographies synthétiques peuvent être appréhendées avec «un outil de visualisation 3D en ligne (utilisable sur toutes les plateformes, y compris tablettes et téléphones)», avec plusieurs exemples d’exoplanètes sur le site:
Soulignons aussi que «ces topographies synthétiques ont permis d’étudier la géométrie des potentiels océans en dehors du Système Solaire, un point important pour l’habitabilité», car les interfaces entre surfaces continentales et océans «ont été suggérées comme essentielles pour l’apparition de la vie».
votre commentaire -
Une étude, dont les résultats intitulés «Shepherding in a Self-gravitating Disk of Trans-Neptunian Objects» sont publiés dans la revue The Astronomical Journal et disponibles en pdf, a permis de démontrer qu'une population de petits corps transneptuniens, glacés et rassemblés dans un anneau contenant au total environ dix fois la masse de la Terre, pourrait rendre compte des orbites singulières d'autres objets transneptuniens sans faire appel à l'existence d'une neuvième planète géante dans le Système solaire.
Rappelons tout d'abord qu'il «y a presque trois ans, les astronomes Konstantin Batygin et Mike Brown» avançaient l'hypothèse qu'une planète «contenant environ 10 fois la masse de la Terre était probablement en orbite, autour du Soleil, à environ 200 unités astronomiques». L'existence de cette planète était déduite du fait que des orbites elliptiques d'objets transneptuniens (TNO, en anglais Transneptunian Objects) avaient des caractéristiques ne semblant pas compatibles avec des distributions dues au hasard.
Cependant, «il ne pouvait être exclu que l'effet des perturbations gravitationnelles supposées d'une neuvième planète ne soit en réalité dû à une ceinture d'objets transneptuniens dont la masse totale soit justement équivalente à 10 masses terrestres». L'étude ici présentée a donc testé cette hypothèse.
Il est ainsi apparu «que la présence de ce disque de petits corps glacés est parfaitement en mesure de rendre compte des observations qui avaient motivé l'introduction de l'hypothèse d'une neuvième planète». Il reste donc à trancher expérimentalement entre ces deux modèles, qui «pour l'instant en tout cas, sont également capables de rendre compte des mêmes observations».
votre commentaire -
Une étude, dont les résultats intitulés «Accelerating changes in ice mass within Greenland, and the ice sheet’s sensitivity to atmospheric forcing» ont été publiés dans la revue PNAS, a permis d'éclaircir le mystère du grossissement léger de la calotte glaciaire du Groenland en 2013/2014, après une très vive accélération de sa perte de masse les années précédentes.
Notons tout d’abord que la mesure précise de la quantité de glace de la calotte revient à la mission GRACE (Gravity recovery and climate experiment) qui a utilisé deux satellites, Tom et Jerry, se suivant «de très près sur la même orbite» et qui a révélé «l’évolution de la masse de la glace du Groenland» en mesurant «l’effet de ses changements sur le champ gravitationnel terrestre à sa verticale»:
Au centre de l'explication avancée par l'étude ici présentée se trouve la NAO (North Atlantic Oscillation), «un phénomène atmosphérique qui structure la circulation des masses d’air chaudes et froides au dessus de l’Atlantique Nord et détermine en grande partie, surtout l’hiver, le temps sur l’Europe» et en particulier le Groenland.
Il apparaît en effet que «la corrélation entre les indices de la NAO et l’évolution de la masse de glace du Groenland» est «très forte sur les années 2003/2016». Concrètement, lorsque l’indice de la NAO «est négatif, il fait chaud l’été et il neige moins, surtout sur l’ouest du Groenland, ce qui accélère la perte de masse» et «inversement, lorsqu’il est positif».
En fait, le point majeur «est ce qui se passe au sud-ouest du Groenland, une région où les effets des variations de la NAO se font particulièrement sentir», car la perte de masse de glace provient de deux phénomènes distincts: «d’une part la fonte, lorsque les températures deviennent positive» et «d’autre part la décharge d’icebergs dans l’océan, résultat d’une 'course à la mer' de glaciers dont la marche est accélérée par la lubrification de leur contact avec le sol rocheux, sous l’effet des températures océaniques et de l’arrivée massive d’eau de fonte».
L'étude montre «qu’une bonne part de l’accélération, puis de la décélération de la perte de masse provient du sud-ouest, là où il y a très peu de ce type de glaciers et de décharges d’iceberg». Autrement dit, ce sont «les températures atmosphériques et l’éclairement solaire (déterminé par la couche nuageuse ou son absence) qui vont provoquer l’essentiel du phénomène».
L'étude constate également «que les parties les moins élevées en altitudes de la calotte sont particulièrement sensibles à une élévation des températures estivales, car elles sont déjà aux alentours du 0°C». De plus, «dès que la neige de l’année a fondu, la glace sous-jacente, souvent plus sombre en raison de poussières, absorbe plus l’énergie solaire ce qui accélère le phénomène». Enfin, l'étude note que «l’accélération des décharges d’icebergs au nord-est du Groenland, lié aux altitudes assez basses qu’on y relève», l'eau de fonte jouant «un grand rôle en 'lubrifiant' les contacts, glaciers/sol ce qui accélère la décharge vers l’océan».
En fin de compte, «si la phase négative de la NAO a pu avoir un effet aussi spectaculaire depuis 2000, c’est qu’elle est intervenue sur des températures atmosphériques en hausse depuis 40 ans, hausse due à l’intensification de l’effet de serre par nos émissions de gaz à effet de serre». Quant à l’à-coup de 2013/2014, il est lié à une inversion de la NAO.
Relevons aussi que «les chiffres du rapport du GIEC de 2014 sur le niveau marin futur» sont trop optimistes car ils n’intègrent pas «une telle accélération de la perte de masse de la glace du Groenland».
votre commentaire
Suivre le flux RSS des articles
Suivre le flux RSS des commentaires