•  

    Une étude, dont les résultats intitulés «Topographic generation of submesoscale centrifugal instability and energy dissipation» ont été publiés dans la revue Nature Communications, a permis , grâce à des simulations numériques réalistes de la dynamique océanique dans la région où le Gulf Stream s’écoule le long de la côte sud-est des USA, de mettre en évidence de nouveaux mécanismes d’interaction des courants avec les fonds marins.

     

    Rappelons tout d'abord que «la circulation océanique est forcée à grande échelle par le vent et les flux de chaleur à la surface des océans» et que «ces grands courants et les tourbillons océaniques de moyenne échelle (échelles horizontales de 100 kms et plus) contiennent l’essentiel de l’énergie cinétique de l’océan».

     

    Du fait que «pour boucler le bilan énergétique de l’océan, cette énergie doit être dissipée in fine par la viscosité à l’échelle moléculaire», la question se pose de savoir comment cette énergie va passer de la grande échelle vers la toute petite échelle, c’est-à-dire de savoir «comment va être dissipée l’énergie des tourbillons».



    Si, au cours des 10 dernières années, les recherches «se sont surtout intéressées à la surface de l’océan» pour aboutir à la mise en évidence de «différents mécanismes liés à la formation de structures de petites échelles dans la couche de surface, tels les fronts de température et les filaments allongés de quelques kilomètres de large, et pouvant catalyser une route de l’énergie de la grande vers la toute petite échelle», pour sa part, le fond de l'océan ayant été très peu exploré, est encore aujourd’hui largement méconnu.

     

    Cependant, «des avancées récentes obtenues grâce à la modélisation numérique à très haute résolution» mettent en lumière «toute la richesse de la dynamique océanique dans les profondeurs» alors qu'on a cru pendant longtemps «qu’il ne s’y passait rien d’intéressant». Dans ce contexte, l'étude ici présentée à entrepris de «résoudre le détail des interactions entre les courants et le relief du fonds des océans», en effectuant «à l’aide du modèle ROMS, des simulations numériques réalistes de la dynamique des fonds océaniques incluant les petites échelles océaniques».

     

    Ces simulations, relatives à «la région où le Gulf Stream s’écoule le long de la côte sud-est des USA entre la Floride et les Bahamas», ont fait appel à une méthode d’emboitement pour obtenir «des résolutions beaucoup plus élevées que ce qui est fait habituellement (résolution horizontale de 200 m et résolution verticale de l’ordre du mètre)»: plus précisément, «des simulations régionales de résolution croissante ont été emboitées les unes dans les autres, sur le principe des poupées russes, afin d’obtenir un maximum de détails sur la région choisie».


    Il a été ainsi constaté que «là où les courants frottent sur le fond, des sillages très turbulents apparaissent accompagnés de très intenses instabilités de petite échelle» qui «enclenchent une cascade d’énergie vers les plus petites échelles, contribuant localement à dissiper une part significative de l’énergie du Gulf Stream». L'impact de ces processus à l’échelle globale «pourrait être de dissiper quelques pourcents de l’énergie totale apportée par le vent aux courants et aux tourbillons de grande et moyenne échelle».

     

    Il en résulte que ces processus devraient «être pris en compte pour pouvoir boucler le budget énergétique des océans», alors que, jusqu'ici, ils ne sont pas «pris en compte par les modèles océaniques globaux ou les modèles climatiques tels que ceux utilisés dans les rapports du GIEC».

     

    Par ailleurs, il est également apparu «que l’interaction des courants avec la topographie conduit aussi à la formation de petits tourbillons profonds, de quelques kilomètres de diamètre, pouvant transporter des masses d’eaux profondes sur de très grandes distances».

     

    En conséquence, de telles structures, qui dispersent «la chaleur, les matières biologiques et les substances chimiques provenant des sources hydrothermales», peuvent avoir «un rôle important dans le transport des composés biogéochimiques au sein des écosystèmes profonds».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Possible internal structures and composition of Proxima Centauri b» ont été publiés dans la revue The Astrophysical Journal Letters, a permis de déterminer les dimensions et les propriétés de la surface Proxima Cen b (en abrégé Proxima b) qui favoriseraient son habitabilité.

     
    Rappelons tout d'abord que c'est récemment qu'une exoplanète rocheuse «d’une masse proche de celle de la Terre» a été détectée autour de Proxima du Centaure, l’étoile la plus proche de notre Soleil. Plus précisément, sa masse fait 1,3 fois celle de la Terre et elle «orbite autour de son étoile à une distance de 0,05 unités astronomiques (soit un dixième de la distance Soleil-Mercure)».

     

    Du fait que «Proxima du Centaure est une naine rouge, sa masse et son rayon ne correspondent qu'à un dixième de ceux du Soleil, et sa luminosité est mille fois plus faible que notre étoile» de sorte que Proxima b se trouve «dans la zone habitable de son étoile», autrement dit «elle est susceptible d'abriter de l'eau liquide à sa surface et donc d'abriter des formes de vie».

     

    Comme jusqu'à présent «on sait très peu de choses sur Proxima b» (son rayon, en particulier, est inconnu), il est impossible de vraiment dire «à quoi ressemble la planète, ni de quoi elle est composée» («la mesure du rayon d'une exoplanète s'effectue normalement lors d'un transit, où cette dernière éclipse son étoile», mais «un tel événement a une faible probabilité (1,5%), et plusieurs observations de l'étoile ne montrent en effet aucun signe de transit»).



    L'étude ici présentée a donc utilisée une méthode de substitution pour estimer le rayon de l'exoplanète à partir de sa masse, «en simulant le comportement des matériaux qui la composent». Ainsi, les différentes compositions que Proxima b ont été explorées à l'aide d'un «modèle de structure interne» et «les valeurs correspondantes du rayon de la planète» ont été déduites.

     

    L'étude a été restreinte «au cas de planètes potentiellement habitables en simulant des planètes denses et solides, formées d'un noyau métallique et un manteau rocheux comme dans les planètes telluriques du système solaire, tout en autorisant l'incorporation d'une importante masse d'eau dans leur composition». En raison de la grande diversité de compositions qui en découle pour Proxima b, le rayon de la planète peut varier «entre 0,94 et 1,40 fois le rayon de la Terre (6371 km)».

     

    Par exemple, il y a une seule manière d'obtenir le rayon minimal de 5990 km de Proxima b: la planète très dense doit être «composée d'un noyau métallique d’une masse valant 65% de celle de la planète, le reste étant un manteau rocheux (formé de silicates) présent jusqu'en surface», la frontière entre ces deux matériaux étant «située à environ 1500 km de profondeur» (une telle composition rendrait Proxima b «très proche de la planète Mercure, qui présente elle aussi un noyau métallique très massif»). Notons que ce cas n'exclut pas «la présence d'eau à la surface de la planète, comme sur Terre où la masse d'eau ne dépasse pas 0,05% de la masse de la planète».

     

    En ce qui concerne l'autre cas extrême, celui qui correspond au rayon maximal de 8920 km, Proxima b devrait être «composée à 50% de roches entourées de 50% d'eau». Plus précisément, «Proxima b serait recouverte d'un unique océan liquide de 200 km de profondeur», car «en-dessous, la pression serait tellement forte que l'eau liquide se transformerait en glace à haute pression, avant d'atteindre la limite avec le manteau à 3100 km de profondeur».

     

    Ajoutons que, dans ces deux cas extrêmes, «une fine atmosphère gazeuse pourrait englober la planète, comme sur Terre, rendant Proxima b potentiellement habitable». D'une manière générale, cette étude fournit une estimation du rayon de la planète pour les scénarios qui incluent ceux où la planète est complètement sèche et ceux qui «autorisent la présence d'une quantité significative d'eau dans sa composition».

     

    De plus, cette étude «permet de restreindre la quantité d'eau disponible sur Proxima b, qui est sujette à une évaporation sous l'influence des rayons ultraviolets et X de l'étoile hôte, qui sont beaucoup plus violents que ceux issus du Soleil».



    Ces estimations pourront être affinées lors de futures observations de Proxima du Centaure: «en particulier, la mesure des abondances stellaires en éléments lourds (Mg, Fe, Si…) diminuera le nombre de compositions possibles pour Proxima b, permettant une détermination encore plus précise du rayon de Proxima b».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Camelid single-domain antibodies: A versatile tool for in vivo imaging of extracellular and intracellular brain targets» ont été publiés dans la revue Journal of Controlled Release, a abouti à la mise au point deux nouveaux types d’anticorps qui sont capables de détecter les cibles extracellulaires (les plaques amyloïdes) et intracellulaires (les enchevêtrements neurofibrillaires) caractéristiques de la maladie d’Alzheimer.

     

    Rappelons tout d'abord que, face à la maladie d'Alzheimer, «le défi majeur auquel sont confrontés les médecins est de pouvoir détecter au plus tôt les marqueurs de la maladie» qui sont «situés au sein même du cerveau», ce qui les rend «difficilement accessibles pour le diagnostic».

     

    En vue «d'atteindre de manière non invasive les cellules du cerveau», l'étude ici présentée s'est intéressée «aux camélidés, aux lamas plus précisément, pour leurs anticorps de petite taille qui les rend faciles à utiliser». Ceux-ci ont surtout «la rare capacité de passer au travers de la barrière hémato-encéphalique qui protège habituellement le cerveau des attaques microbiennes mais qui empêche aussi la diffusion des potentielles molécules thérapeutiques jusqu’au cerveau».

     

    Dans le cas présent, «c'est la région variable de l’anticorps, appelée VHH ou nanobodies TM, qui est employée pour reconnaitre spécifiquement les marqueurs de la maladie». C'est ainsi qu'ont été obtenus des «anticorps anti-Aβ et anti-protéine tau détectant spécifiquement les plaques amyloïdes et les enchevêtrements neurofibrillaires».

     

    Ceux-ci ont été, en premier lieu, «testés in vitro sur des tissus cérébraux de patients atteints de la maladie d’Alzheimer» et, en second lieu, «testés in vivo chez deux modèles de souris ayant chacun une des deux atteintes caractéristiques de la maladie d’Alzheimer».

     

    Concrètement, «ces anticorps, modifiés pour porter un fluorochrome vert, sont injectés par voie intraveineuse, passent la barrière hémato-encéphalique, et vont se fixer sur les deux cibles qu’on cherche à identifier: les plaques amyloïdes et les enchevêtrements neurofibrillaires» rendant ainsi «visibles dans le cerveau observé par microscopie biphotonique » les signes de la maladie.

     

    Comme, à l’heure actuelle, «les chercheurs impliqués dans cette collaboration travaillent au développement d’une technique d’imagerie par IRM pour observer les lésions», à terme, celle-ci pourrait être applicable chez l’homme. En outre, «ces anticorps VHH pourraient être couplés à des molécules thérapeutiques, afin que celles-ci soient délivrées de manière ciblée dans le cerveau».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Diurnal cycle of ozone throughout the troposphere over Frankfurt as measured by MOZAIC-IAGOS commercial aircraft» ont été publiés dans la revue Elementa Science of the Anthropocene, a permis, pour la première fois, de mesurer le cycle diurne de l’ozone sur l’ensemble de la troposphère au-dessus de Francfort, en agrégeant des données obtenues par le programme IAGOS (In-service aircraft for a global observing system).

     

    Rappelons tout d'abord que «l'ozone présente un fort cycle diurne dans les basses couches de l’atmosphère», un cycle «lié aux sources dans la journée et aux processus de destruction durant la nuit, ces derniers étant principalement dus au monoxyde d'azote (NO) nocturne et au dépôt sec». Cependant «si le cycle diurne de l’ozone dans la basse atmosphère, lié aux sources de pollution», est connu, «il n’en est pas de même au-dessus, dans la troposphère dite libre» où il est supposé «faible ou inexistant, en raison de taux de production chimique plus faibles» que dans la couche limite.

     

    Afin de lever les incertitudes existantes, découlant de «l’absence de données permettant de décrire ce cycle diurne au-dessus des premiers mille mètres de l’atmosphère», l'étude ici présentée a reconstitué «le cycle diurne de l’ozone à différentes altitudes dans la troposphère» en s'appuyant «sur les données du programme IAGOS/MOZAIC (In-service aircraft for a global observing system), en particulier sur celles enregistrées par plusieurs avions de ligne instrumentés atterrissant et décollant quotidiennement de Francfort à différentes heures de la journée». Ainsi, «21 000 profils verticaux des concentrations d’ozone entre 1994 et 2012 (soit 98 par mois en moyenne)» ont pu être agrégés.



    Il est alors apparu que «les variations diurnes de l’ozone sont statistiquement significatives dans une grande partie de la troposphère» et que «les fortes variations observées dans la couche limite (déjà bien connues) s’estompent rapidement avec l’altitude» puisqu'elles «représentent 10-30% de la moyenne du signal à la surface, mais moins de 4 % au-delà de 2 km».

     

    De plus, «en termes de tendances à moyen terme», il a été constaté que «le cycle diurne de l’ozone troposphérique a été davantage affecté dans la couche limite qu’en altitude, notamment au travers d’une augmentation des concentrations nocturnes vraisemblablement liée aux réductions d’émission des oxydes d'azote».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Connecting the dots: a correlation between ionizing radiation and cloud mass-loss rate traced by optical integral field spectroscopy» sont publiés dans la revuMNRAS et disponibles en pdf, a permis, grâce à l'instrument MUSE, de conclure que les piliers de la Nébuleuse de la Carène correspondent à des piliers de la destruction par opposition aux célèbres Piliers de la Création de la Nébuleuse de l’Aigle.

     

    Rappelons tout d'abord que «l'énorme potentiel de MUSE repose sur sa capacité à générer, au même instant, des milliers d’images de la nébuleuse à des longueurs d’onde différentes» de sorte qu'il est possible de «cartographier les propriétés physiques et chimiques de la matière en différentes zones de la nébuleuse».

     

    Pour ce qui concerne la Nébuleuse de la Carène, les nouvelles images obtenues montrent «diverses structures semblables à des flèches et des piliers» produites «par de vastes nuages de gaz et de poussière» de ce «site de formation stellaire situé à quelques 7500 années-lumière de la Terre». Ces images ont été combinées à «des images de semblables structures, tels les célèbres Piliers de la Création de la Nébuleuse de l’Aigle ou les formations observées dans NGC 3603» («à ce jour, le nombre total de piliers observés s’élève à dix»).

     

    Ces comparaisons ont ainsi «permis d’établir un lien entre le rayonnement émis par les étoiles massives proches et la structure même des piliers». Plus précisément, «la formation d’une étoile massive s’accompagne de la destruction du nuage à partir duquel elle s’est constituée» (en particulier, «ces étoiles sont connues pour émettre de grandes quantités de rayonnements puissants et ionisants» qui peuvent arracher les électrons de leurs atomes).

     

    L’effet de «ce rayonnement énergétique sur les piliers (un phénomène baptisé photoévaporation, au cours duquel le gaz s’ionise puis se disperse au loin)» a été analysé dans le cadre de l'étude ici présentée. Il apparaît ainsi que la perte de masse des piliers figure «parmi les conséquences de la photoévaporation». De plus, «une relation directe de cause à effet entre la quantité de rayonnement ionisant émise par les étoiles proches et la dissipation des piliers» a été mise en évidence.

     

    Notons néanmoins que si «les piliers semblent denses», en réalité «les nuages de gaz et de poussière qui constituent les nébuleuses sont très diffus». Il est donc, en fait, possible «que le rayonnement ainsi que les vents stellaires issus des étoiles massives contribuent à la création de zones de densité plus élevée au sein des piliers, susceptibles de donner naissance à de nouvelles étoiles».

     

    En tout cas, les «nouvelles observations spectaculaires de vastes structures en forme de piliers situées au cœur de la Nébuleuse de la Carène», effectuées au moyen de l’instrument MUSE du VLT de l’ESO, laissent penser que, dans ce cas, il s’agit «de piliers de la destruction – par opposition aux célèbres Piliers de la Création de la Nébuleuse de l’Aigle, de semblable facture».

     

     


    votre commentaire