•  

    Une étude, dont les résultats intitulés «Strong disk winds traced throughout outbursts in black-hole X-ray binaries» ont été publiés dans la revue Nature, a permis de réunir dans une base de données les mesures, provenant de multiples observatoires en rayons X, de l'accrétion de matière sur un trou noir, en vue de reconstruire aussi complètement que possible les variations du rayonnement X lors des éruptions. Ces données ont ensuite permis de tester un modèle des éruptions qui relie la chute de la luminosité X durant l’éruption à un paramètre fondamental de la physique de l’accrétion, le paramètre alpha.

     

    Rappelons tout d'abord que «l'accrétion de matière sur un trou noir libère une quantité phénoménale d’énergie, à condition que la matière soit effectivement transportée vers le trou noir au lieu de tourner en rond par conservation de son moment cinétique».

     

    De ce fait, l'étude des processus de transport dans les disques d’accrétion constitue «un ingrédient essentiel pour comprendre comment les trous noirs libèrent et injectent de l’énergie dans leur environnement». Dans ce contexte, «l'observation du rayonnement des étoiles binaires X permet de contraindre ces processus».

     

    Plus précisément, dans une étoile binaire X, «un trou noir de masse stellaire, résultat de l’effondrement d’une étoile massive en fin de vie, accrète la matière qui lui est cédée par son compagnon, une étoile normale suffisamment proche du trou noir pour ressentir son attraction gravitationnelle».

     

    Les observations en rayons X font ainsi apparaître «que le disque d’accrétion autour du trou noir est le siège d’éruptions intenses suivies de phases dormantes» («Les éruptions durent de quelques semaines à quelques mois pendant lesquels certaines binaires X deviennent les objets les plus brillants du ciel X» et sont quasi imperceptibles «lors de la phase dormante, pouvant durer plusieurs dizaines d’années»). Comme «le rayonnement X trace le flux de matière accrété par le trou noir», l'analyse des variations du rayonnement X apporte «un éclairage sur les mécanismes de transport de matière dans ces disques».

     

    C'est le paramètre alpha qui mesure l’efficacité du transport dans le disque d'accrétion: ainsi, «les valeurs mesurées dans d’autres systèmes comportant des disques d’accrétion indiquent une valeur de alpha allant de 0.1 à 0.2, ce qui concorde avec les études théoriques qui expliquent ce transport par la turbulence générée par un champ magnétique faible cisaillé par le mouvement de la matière dans le disque».

     

    Dans le cadre de l'étude ici présentée, «une approche statistique avancée, la modélisation bayesienne hiérarchique combinée à une méthode Monte Carlo par chaine de Markov pour explorer l’espace des paramètres, a permis d’ajuster le modèle théorique aux courbes de lumière d’une douzaine de binaires X et de mesurer, pour la première fois et de manière fiable, la valeur de alpha dans ces systèmes». Il a été alors constaté que «le paramètre alpha mesuré varie entre 0.2 et 1, bien au-delà de ce qui avait été mesuré jusqu'à présent».

     

    Les seules explications possibles à «une accrétion aussi rapide» sont soit «la perte d'une fraction substantielle de la matière du système», soit «si le transport turbulent est amplifié par la présence d’un champ magnétique à grande échelle», la présence d'un vent «emportant une partie de la matière hors du système»: en fait, «la signature de tels vents est présente dans les spectres X obtenus à certain stades de l’éruption».

     

    Au bout du compte, cette étude établit, par une méthode indépendante, «que ces vents sont continuellement présents lors de l’éruption et que le mécanisme de perte de masse joue un rôle aussi fondamental que la turbulence plasma dans la dynamique des disques d’accrétion», puisque l'énergie mécanique des vents pourrait «ré-injecter dans l’environnement une part significative de l’énergie libérée autour du trou noir».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Architecture of a mammalian glomerular domain revealed by novel volume electroporation using nanoengineered microelectrodes» ont été publiés dans la revue Nature Communications, a permis, grâce à une nouvelle technique de nano-imagerie, de cartographier, chez la souris, dans son intégralité un microcircuit cérébral, en l'occurrence le glomérule olfactif.

     

    Notons tout d'abord que le glomérule olfactif est une structure située dans le bulbe olfactif (*), qui, chez les souris, est «composée de 250 neurones» et permet la perception olfactive. Pour visualiser ce circuit neuronal et «étudier la communication inter-neuronale, tant électrique que chimique», il a été fait appel à une technique baptisée «Nanoengineered Electroporation Microelectrodes (NEMs)».

     

    Plus précisément, dans un premier temps, des micro trous ont été percés «avant d'introduire l'extrémité d'une micro-pipette dans le cerveau des rongeurs au niveau du glomérule», puis du courant électrique a été émis et des techniques de micro fluorescence ont été employées pour visualiser l'ensemble des 250 neurones de ce micro-circuit.

     

    Au bout du compte, cette cartographie peut être vue comme «une étape indispensable à une meilleure compréhension du fonctionnement des dizaines de milliards de neurones qui forment le cerveau humain».

     

     

    Lien externe complémentaire (source Wikipedia)

    (*) Bulbe olfactif

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Acoustic virtual vortices with tunable orbital angular momentum for trapping of Mie particles» sont publiés dans la revue Physical Review Letters, montre qu'il est possible de piéger de façon stable des objets plus grands que la longueur d'onde du son dans un faisceau tracteur acoustique, ce qui pourrait, en théorie, permettre de soulever un corps humain, alors que, jusqu'ici, les chercheurs qui travaillent sur la lévitation acoustique pensaient «qu'elle ne pouvait s'appliquer qu'à de très petits objets ou microparticules».

     

    Rappelons tout d'abord que «les rayons tracteurs acoustiques utilisent les ondes sonores pour manipuler des objets solides ou liquides sans les toucher». Cependant, comme «la rotation du champ sonore finit par se transmettre à l'objet qui va tourner de plus en plus vite jusqu'à être éjecté», jusqu'à présent, «les essais réalisés avec des objets plus grands que la longueur d'onde n'ont pas fonctionné correctement».

     

    La solution proposée dans l'étude ici présentée «repose sur la création de tourbillons acoustiques à l'aide de transducteurs dont la structure prend la forme d'une tornade qui enserre un noyau silencieux»: il apparaît qu'en modifiant cette structure, il est possible de «piéger des objets d'une taille supérieure à ce qui s'est fait jusqu'à présent».

     

    Pour «contrôler la vitesse de rotation de l'objet», il faut jouer «sur la direction de torsion des tourbillons acoustiques» en enchaînant «des impulsions rapides où l'hélicité des tourbillons est égale mais leur sens opposé» de sorte que «cela produit un vortex virtuel avec une dynamique angulaire orbitale qui peut être contrôlée indépendamment de la force de piégeage».

     

    Cette technique permet «d'accroître la taille du noyau silencieux au cœur du vortex sonore et de pouvoir y faire léviter des objets de plus grande taille de façon stable». Ainsi, «en utilisant des ondes sonores à 40 kHz audibles seulement par des chauves-souris», une «sphère en polystyrène de deux centimètres de diamètre», dont la taille équivaut à deux longueurs d'onde sonore, a pu être piégée dans le rayon tracteur: «il s'agirait du plus gros objet jamais manipulé de cette manière».

     

    Au bout du compte, cette étude laisse penser qu'il serait possible d'appliquer ce principe pour faire léviter un corps humain, «mais il s'agit là d'une assertion théorique qui ne prend pas en compte les aléas techniques d'une mise à l'échelle du système». Plus concrètement, les rayons tracteurs acoustiques pourraient avoir «de nombreuses applications»: par exemple dans l'industrie «pour l'assemblage sans contact de pièces fragiles».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Impacts of nationally determined contributions on 2030 global greenhouse gas emissions: uncertainty analysis and distribution of emissions» ont été publiés dans la revue Environmental Research Letters, a permis d'analyser les objectifs nationaux de réduction des émissions de gaz à effet de serre pour l'horizon 2025-2030 exprimés par les contributions déterminées à l'échelle nationale (Nationally Determined Contributions, NDC).

     

    Rappelons tout d'abord que «l'objectif de l'Accord de Paris sur le changement climatique est de maintenir l'augmentation de la température mondiale bien en deçà de 2 °C par rapport aux niveaux préindustriels» et que «les mesures d'atténuation prévues par l'Accord de Paris reposent sur les contributions déterminées à l'échelle nationale (Nationally Determined Contributions, NDC), qui résument les objectifs nationaux de réduction des émissions de gaz à effet de serre (GES) pour l'horizon 2025-2030».

     

    D'après le petit nombre d’études qui «ont estimé les niveaux globaux d'émissions qui résulteraient des NDC en 2030» et leur résumé «dans le “Gap Report2017 du PNUE», ces niveaux «se situeraient dans une fourchette de 49,5 à 56,2 Gt CO2eq/an (contre 51,9 Gt CO2eq/an aujourd'hui, et un niveau compatible avec l'objectif de 2°C estimé à environ 42 CO2eq/an en 2030)», ce qui laisse penser que «l'écart entre les réductions nécessaires et les engagements nationaux pris à Paris est alarmant».

     

    Dans ce contexte, l'étude ici présentée montre, en s'appuyant sur «l'analyse des NDC à un niveau très désagrégé (103 pays sont traités individuellement et tous les pays sont pris en compte)», que «cette mise en garde est peut-être encore une sous-estimation de la situation».

     

    Plus précisément, «elle fournit une analyse des sources d'incertitude et de leurs impacts sur les émissions mondiales de GES en 2030, basée sur la réalisation unique et complète des NDC» et «estime que les NDC projettent les émissions mondiales dans une fourchette de 56,8 à 66,5 GtCO2eq/an d'émissions (intervalle de confiance de 90 %), ce qui est plus élevé que les estimations précédentes et avec une marge d'incertitude plus grande».

     

    Le fait que la fourchette d'incertitude soit «plus large que la plupart de celles publiées jusqu'à présent», s'explique essentiellement parce que «un ensemble de scénarios de PIB sont envisagés plutôt qu'un scénario unique pour les pays qui ont exprimé leur objectif comme une réduction de l'intensité carbone de leur économie».

     

    En outre, si l'estimation est plus élevée que les estimations précédentes, c'est que cette étude, «contrairement aux études antérieures», ne tient pas compte «de l'impact des politiques actuelles qui ne sont pas (encore) reflétées dans l’objectif NDC»: ainsi, «l’estimation porte sur le niveau absolu des émissions de GES qu'impliquent littéralement les NDC». De la sorte, l'analyse permet «de savoir ce que seraient les émissions si les objectifs des NDC étaient pris en compte 'à leur valeur nominale', c'est-à-dire s'ils étaient exactement atteints».

     

    En tout cas, cette étude fait apparaître que «les NDC déplacent fortement les émissions de GES vers les pays émergents et en développement et réduisent les inégalités internationales en termes d'émissions de GES par habitant».

     

    En pratique, pour «exploiter les points forts de la méthodologie, à savoir sa haute résolution par pays, sa flexibilité et sa transparence», les projections et le code «sont mis à la disposition pour reproduire, améliorer ou mettre à jour l'analyse». Il sera ainsi possible, «en suivant les émissions de GES et en les comparant aux projections», d'évaluer «quels NDCs sont en voie d’être atteints, dépassés ou au contraire non-atteints».

     

    De plus, cette approche permet «de mettre à jour les projections d'émissions lorsque de nouvelles données seront disponibles ou lorsque de nouveaux NDC seront soumis dans le cadre du processus de 'bilan mondial' de l'Accord de Paris et de révision des NDC».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «An Efficient Statistical Method to Compute Molecular Collisional Rate Coefficients» sont publiés dans la revue The Astrophysical Journal Letters, a permis de mettre au point une méthode théorique permettant d’étudier l’excitation collisionnelle de molécules interstellaires hautement réactives. Basée «sur un traitement statistique de la collision moléculaire», cette méthode fournit des résultats très précis avec des temps de calcul drastiquement réduits.

     

    Notons tout d'abord que «les télescopes tels que le satellite HERSCHEL ou les interféromètres ALMA et NOEMA» en ouvrant «de nouvelles fenêtres d’observation avec des résolutions spatiales et spectrales jusque-là inégalées», permettent «une étude approfondie de la composition et de l’évolution chimique du milieu interstellaire», ce qui est très précieux car «une détermination précise de l'abondance des différentes espèces interstellaires aide à aborder les questions fondamentales suivantes :

    Comment se forment les molécules organiques complexes ?

    Comment se forment les étoiles et les planètes ?

    Quelle est l’origine des molécules observées dans les comètes du système solaire

     

    Dans ce cadre, la détermination des abondances moléculaires, qui «se fait en même temps que la détermination des conditions physiques (température, densité, champ de rayonnement…) régnant dans le milieu interstellaire», impose «de comprendre le mécanisme d’émission du rayonnement provenant des nuages moléculaires interstellaires» où deux processus principaux, les collisions et le rayonnement, «gouvernent l’excitation et la désexcitation des espèces chimiques».

     

    Comme «le mouvement des atomes et molécules lié à la température du milieu induit des collisions permettant le transfert d’énergie d’une particule à l’autre» (de l'énergie qui «permet aux molécules d’atteindre des niveaux d’énergie supérieurs»), il est essentiel «d’étudier les processus d’excitation collisionnelle des espèces interstellaires et ainsi de caractériser les transferts d’énergie qui se font dans les nuages moléculaires froids».

     

    Cependant, «malgré des progrès significatifs effectués ces dernières années, les approches purement quantiques ne permettent pas d’étudier les collisions impliquant des molécules réactives comme les ions moléculaires», car «lorsque ces molécules entrent en collision avec les espèces interstellaires majoritaires (H2, He, H), il se forme généralement un complexe moléculaire stable rendant les approches quantiques standard impossibles à utiliser en raison de la grande densité d’états quantiques mis en jeu».

     

    Dans ce contexte, l'étude ici présentée a employé «une approche statistique pour décrire ces collisions» et est parvenue «à modéliser de façon très précise le processus collisionnel et les transferts d’énergie aux très basses températures (-260°C) qui caractérisent le milieu interstellaire».

     

    De ce fait, il est désormais «envisageable d’obtenir des données fiables pour les espèces réactives (OH+, H2O+, H3O+, H3+, etc.) grâce à cette approche efficace et très peu couteuse en calcul (temps/mémoire)», ce qui ouvre la voie «à de nouveaux diagnostics moléculaires précis, par exemple la mesure du taux d’ionisation galactique qui régule la formation des étoiles et des planètes».

     

     


    votre commentaire