-
Une étude, dont les résultats intitulés «A parts-per-billion measurement of the antiproton magnetic moment» ont été publiés dans la revue Nature, a permis à la collaboration BASE d'effectuer une nouvelle mesure du moment magnétique de l'antiproton, avec une précision supérieure à celle obtenue concernant le proton.
Cette performance a pu être réalisée avec le Décélérateur d'antiprotons du CERN «grâce à une nouvelle méthode s'appuyant sur des mesures simultanées effectuées sur deux antiprotons piégés séparément dans deux pièges de Penning». La collaboration BASE bat ainsi «son propre record, établi en janvier» en améliorant «la précision de la mesure précédente d'un facteur 350», ce qui permet «une comparaison entre matière et antimatière d'une précision inédite».
Plus précisément, le résultat de cette mesure «est compatible avec l'hypothèse de moments magnétiques égaux pour le proton et l'antiproton» et «l'incertitude de cette nouvelle mesure expérimentale de l'antiproton est désormais significativement plus faible que celle correspondant à la mesure équivalente pour le proton».
Concrètement, «le moment magnétique de l'antiproton est de 2,792 847 344 1 (mesuré en unité de magnéton nucléaire), alors que le moment magnétique du proton, d'après la mesure effectuée en 2014 par la même collaboration de chercheurs dans le cadre de l'expérience associée à BASE à Mayence (Allemagne), est de 2,792 847 350».
votre commentaire -
Une étude, dont les résultats intitulés «Wind loads and competition for light sculpt trees into self-similar structures» ont été publiés dans la revue Nature Communications, a permis de mettre au point un modèle original simulant l'évolution d'une forêt pendant plus de 200 000 ans, une période qui permet de suivre l'«évolution darwinienne» des arbres.
Plus précisément, cette étude utilise «les dernières connaissances sur les réponses des plantes à la lumière et au vent» pour élaborer un modèle de développement d’arbres dans lequel «les arbres virtuels sont capables d’intercepter la lumière, de répartir les produits de la photosynthèse entre organes, d’initier des branches, mais aussi de produire des graines qui germent après être tombées».
Ce modèle, qui incorpore «des connaissances en météorologie et en biomécanique afin de simuler la casse au vent lors de tempêtes», inclut deux découvertes récentes: d'une part, le fait que «la localisation des nouvelles branches qui bourgeonnent dépend de la lumière reçue» et, d'autre part, celui que «la croissance en diamètre des branches est pilotée par la perception des déformations au vent, un phénomène appelé thigmomorphogénèse qui contrôle, pour une grande part, la production de bois sous nos climats».
Comme «tous les processus de l’arbre virtuel dépendent de paramètres quantitatifs décrivant la sensibilité à la lumière, au vent ou les priorités concernent la distribution des produits de la photosynthèse», ces paramètres «peuvent être interprétés comme des gènes de l’arbre» en supposant «que leurs valeurs peuvent varier, de génération en génération, par des mutations génétiques aléatoires».
En outre, l'évolution a été «simulée sur une île virtuelle, baignée de soleil et de vent» parce qu’on «peut supposer qu’elle est isolée et ne reçoit pas de graine ou de pollen d’autres endroits» et également «parce que les études d’écologie évolutive ont montré que les îles assuraient une sélection rapide».
Dans ce cadre, «le programme informatique, appelé MechaTree, permet d’ensemencer des centaines d’îles virtuelles avec des graines dont les paramètres-gènes sont aléatoires». Virtuellement, «les arbres germent, poussent, une forêt dense se développe» de sorte que «les individus moins favorablement pourvus génétiquement disparaissent (c’est l’auto-éclaircie), les autres se reproduisent plus ou moins» par 'sélection naturelle' de sorte que certaines espèces vont dominer l’île, d’autres disparaître.
Au bout de milliers d’heures de calcul, représentant près de 200 000 ans de la vie d’une forêt, sur modèle informatique «permettant des calculs à haute performance», les arbres des espèces survivantes ont été examinés. Il a alors été constaté que «ces forêts et ces arbres présentaient toutes les lois d’échelles observées sur les arbres * : la loi d’auto-éclaircie, la dimension fractale, les allométries de taille avec le diamètre et même… la fameuse loi de Léonard de Vinci».
Globalement, la sélection de la forme des arbres fait apparaître que «la transparence du feuillage et la compétition pour la lumière sont les premiers déterminants de la dimension fractale de l’arbre» et que «la réponse au vent, la thigmomorphogénèse, contrôle l’évolution du diamètre des branches».
De plus, «d’autres facteurs ont pu jouer dans la sélection naturelle, comme le transport hydraulique de sève» et «il est même probable qu’en fonction de l’environnement où ont évolué les espèces, c’est la conduction de la sève ou la résistance au vent qui a exercé la plus grande pression sélective».
Lien pdf complémentaire (source CNRS)
* Les invariants d’échelle chez les arbres
votre commentaire -
Une étude, dont les résultats intitulés «Regional patterns of extreme precipitation on Titan consistent with observed alluvial fan distribution» ont été publiés dans la revue Nature Geoscience, a permis de détecter des indices qui indiquent que Titan subit de violentes tempêtes accompagnées d'importantes averses et d'inondations comme sur Terre. Cependant, à la différence de notre planète, «ce n'est pas de l'eau qui tombe des nuages mais du méthane liquide» et ces tempêtes «surviennent moins d'une fois par an (sur Titan, une année dure une trentaine d'années terrestres!)».
Rappelons ici que Titan, «l'une des nombreuses lunes de Saturne» et «le deuxième plus grand satellite naturel du système solaire après Ganymède», est «le seul satellite connu à posséder une atmosphère dense et des paysages pouvant rappeler ceux de la Terre avec des collines, des lacs et des rivières… d'hydrocarbures».
Les indices laissant penser que ces violentes tempêtes existent sont des cônes alluviaux, «des amas de débris sédimentaires convoyés par des flux d'eau sur Terre et de méthane sur Titan» qui apparaissent sur des images prises par la sonde Cassini. Ces cônes alluviaux, récemment découverts «presqu'au centre des deux hémisphères de Titan», témoignent d'intenses précipitations et «d'inondations relativement fréquentes dans ces zones habituellement épargnées par les précipitations».
Les nombreuses simulations, réalisées dans le cadre de l'étude ici présentée «pour tenter de recréer le cycle méthanique de Titan», montrent que ces tempêtes «peuvent fournir jusqu'à 300 mm de pluie par jour, soit l'équivalent de ce qui tombe sur Terre pendant une tempête tropicale ou un ouragan comme Harvey qui a frappé Houston cet été». Ces tempêtes, qui restent rares, sont néanmoins «plus fréquentes que prévu» contribuant largement à façonner la surface de Titan.
Comme «des cônes alluviaux ont été détectés sur d'autres astres du système solaire et notamment la planète Mars», on peut également en déduire que, dans un passé très lointain, la planète rouge, en particulier, a subi «des épisodes pluvieux intenses».
votre commentaire -
Une étude, dont les résultats intitulés «Left–right asymmetry of the Maxwell spot centroids in adults without and with dyslexia» ont été publiés dans la revue Proceedings of the Royal Society B, a permis de découvrir une cause anatomique potentielle de la dyslexie, qui touche quelque 700 millions de personnes dans le monde. Cette cause, dissimulée dans de minuscules récepteurs des yeux de ceux qui sont atteints par ce trouble de la lecture, a été identifiée en comparant deux groupes de 30 étudiants, l'un composé de dyslexiques et l'autre de non dyslexiques.
Notons tout d'abord que chez les personnes qui ne sont pas atteintes de dyslexie, les récepteurs de la lumière «n'ont pas la même forme d'un œil à l'autre: ils sont asymétriques» de sorte que le cerveau choisit «le signal envoyé par l'un des deux yeux pour créer l'image que voit la personne». Il n'en est pas de même c hez les dyslexiques, d'après l'étude ici présentée, puisque «cette zone de l’œil (les 'centroïdes de la tache de Maxwell' *)» serait symétrique dans les deux yeux et cette différence «pourrait être source de confusion pour le cerveau en créant des 'images-miroirs' entre lesquelles il est incapable de choisir».
Comme ces observations laissent penser que cette symétrie est «une cause potentielle de la dyslexie», elle peut constituer «une nouvelle méthode de diagnostic relativement simple» pour les enfants et pour les adultes. De plus, «l'existence des délais entre l'image primaire et l'image miroir dans les hémisphères opposés (de l'ordre de 10 millisecondes)» a permis «de mettre au point une méthode pour effacer l'image miroir qui gêne tant les dyslexiques», grâce à l'utilisation «d'une sorte de lampe stroboscopique à LED». Il existe cependant «d'autres possibilités de traitement pour contrecarrer la trop grande symétrie, utilisant la plasticité du cerveau».
Lien externe complémentaire (source Dictionnaire médical de l'Académie de Médecine)
votre commentaire -
Une étude, dont les résultats intitulés «Mass spectrometry sequencing of long digital polymers facilitated by programmed inter-byte fragmentation» ont été publiés dans la revue Nature communications, a permis, pour la première fois, de lire, par simple spectrométrie de masse, plusieurs octets d'information stockés à l'échelle moléculaire sur des polymères synthétiques, ce qui représente un record du monde en termes de séquence moléculaire analysable via cette méthode de routine.
Depuis quelques années, le défi est lancé pour stocker de l'information au sein des polymères avec l'objectif de faire de ces grandes molécules «la base des disques durs du futur», car «leur potentiel est considérable, puisqu'ils contiennent des bits de taille cent fois inférieure à ceux des disques durs actuels», ce qui laisse espérer «une réduction drastique du matériel informatique de stockage».
L'obstacle actuel provient du fait que «les pistes explorées jusqu'à présent» se sont heurtées au problème de la lecture de l'information. Dans ce contexte, l'étude ici présentée ouvre une nouvelle piste en démontrant pour la première fois qu'il est possible «d'utiliser un spectromètre de masse pour lire de longues séquences d'information à l'échelle moléculaire». Pour cela, elle a eu recours «à des molécules synthétiques, plus faciles à manipuler et à lire que les molécules naturelles comme l'ADN», car la structure moléculaire des polymères en question «a été spécifiquement optimisée pour le séquençage par spectrométrie de masse».
Plus précisément, «deux types de monomères contenant un groupement phosphate ont été assemblés, chacun représentant un 0 ou un 1» et «tous les 8 monomères, un séparateur moléculaire a été introduit». Il en résulte que chaque macromolécule ainsi créée «contient autant d'octets d'information qu'il y a de groupes de 8 monomères».
Pour lire cette information, «une première étape de spectrométrie de masse permet de briser sélectivement les liaisons fragiles des séparateurs, divisant ainsi les octets», tandis qu'une seconde étape de fragmentation «permet de casser les groupements phosphates» pour séquencer chaque octet.
Par exemple, «le mot 'Sequence' en langage ASCII (qui associe à chaque octet une lettre ou signe de ponctuation)» a été créé et «en parvenant à lire ce mot par spectrométrie de masse», les auteurs de cette étude «signent un nouveau record en termes de longueur de molécule décodée par cette méthode».
Si, actuellement, «l'analyse manuelle des données numériques» dure quelques heures, «le développement d'un logiciel de lecture devrait permettre prochainement de réduire ce temps d'analyse à quelques millisecondes». En fin de compte, «en combinant un temps de lecture court et des méthodes d'écriture robotisées déjà existantes», une voie, «vers le stockage de plusieurs kilooctets de données sur des polymères synthétiques, soit le poids numérique d'une page de texte, ou l'espace de stockage des premières générations de disquette», s'ouvre désormais.
votre commentaire