•  

    Une étude, dont les résultats intitulés «An imperative to monitor Earth's energy imbalance» ont été publiés dans la revue Nature Climate Change, a permis, grâce à l'analyse des différentes méthodes de mesure du déséquilibre énergétique de la Terre, de déterminer l’approche, la plus prometteuse en termes de précision, qu’il convient de favoriser à l’avenir.

     

    Indiquons tout d'abord que cette recherche est partie de l'idée que le changement climatique, qui se traduit par la fonte des glaces ou la hausse du niveau marin est lié à un déséquilibre énergétique de la planète qui découle d'une accumulation de chaleur dans le système climatique de la Terre, la perturbation majeure à l’œuvre aujourd’hui étant «le changement de composition de l’atmosphère dû aux émissions de gaz à effet de serre par les activités humaines».

     


    Actuellement, «l’amélioration depuis 2-3 décennies des performances des différents systèmes d’observation spatiaux et in situ ainsi que de la modélisation du climat», qui «a permis de quantifier ce déséquilibre énergétique, ou excès de chaleur, avec une précision sans cesse croissante», conduisent à «estimer que 93 % de l’excès de chaleur est stocké dans l’océan», les 7% restants «servant à réchauffer l’atmosphère et les surfaces continentales ainsi qu’à faire fondre les glaces (banquise, glaciers et calottes polaires)».

     

    De ce fait, l'étude ici présentée, après avoir passé en revue «les différentes méthodes permettant d’accéder à ce paramètre fondamental et aux incertitudes associées», propose «une série de recommandations destinées à améliorer la connaissance de ce phénomène»: en particulier, elle fait apparaître «que l’approche la plus prometteuse en termes de précision est l’analyse combinée des mesures du contenu thermique total de l’océan et du bilan énergétique net au sommet de l’atmosphère».

     

    Comme, aujourd’hui, le contenu thermique de l’océan est accessible seulement pour les 2 000 premiers mètres de l’océan à l'aide du système international de flotteurs automatiques Argo, elle recommande fortement d'y ajouter «un système Argo 'profond' donnant la température de l’océan sur toute la colonne d’eau». Il est également vivement souhaité, en parallèle, «le développement de senseurs spatiaux permettant la mesure absolue, et pas seulement les variations au cours du temps, du flux d’énergie net au sommet de l’atmosphère».

     

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «The peptidergic control circuit for sighing» ont été publiés dans la revue Nature, a permis de mieux comprendre comment le cerveau contrôle le mécanisme du soupir à partir d'un examen minutieux du cerveau de la souris.

     

    Rappelons tout d'abord que «l'être humain soupire en moyenne 12 fois par heure». En fait, «avant d'être le signe d'un agacement ou d'un coup de fatigue, le soupir est d'abord un réflexe vital qui intervient souvent de façon involontaire», pour «entretenir notre fonction pulmonaire» puisque «l'expiration forte et prolongée qui caractérise le soupir (souvent associée à une inspiration profonde) permet de 'réveiller' les alvéoles pulmonaires fatiguées, ces petites poches favorisant les échanges gazeux avec le sang, en augmentant le débit d'air respiré».

     

    En cherchant à comprendre comment le cerveau contrôle le mécanisme du soupir, l'étude ici présentée a mis en évidence deux réseaux de neurones, situés de part et d'autre du tronc cérébral, qui sont capables de transformer le cours normal de notre respiration en soupir.

     

    Plus précisément, c'est un examen attentif du cerveau de la souris qui a abouti à «isoler deux réseaux de 200 neurones chacun». Ainsi, il apparaît que «le centre cérébral de la respiration est fait de petits groupes de différentes sortes de neurones», chacun fonctionnant «comme un interrupteur contrôlant différents types de respiration»: concrètement, «l'un actionne la respiration normale, un autre le soupir, d'autres encore pourraient être destinés à contrôler les bâillements, le reniflement, la toux et même les rires et les pleurs».

     

    Cette découverte «pourrait un jour s'avérer utile dans le traitement de troubles respiratoires empêchant par exemple une respiration profonde», car ces pathologies conduisent «à une détérioration progressive de la fonction respiratoire».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Observation of Gravitational Waves from a Binary Black Hole Merger» ont été publiés dans la revue Physical Review Letters, ouvre une nouvelle fenêtre sur le cosmos, grâce à LIGO, avec l’observation, pour la première fois, d’ondulations de l’espace-temps (dont l'existence avait été prédites par «la théorie de la relativité générale énoncée par Albert Einstein en 1915»), appelées ondes gravitationnelles, qui ont été produites pendant la dernière fraction de seconde précédant la fusion de deux trous noirs en un trou noir unique, plus massif et en rotation sur lui-même.

     

    Plus précisément, «ces ondes gravitationnelles ont été détectées le 14 septembre 2015, à 11h51, heure de Paris (9h51 GMT), par les deux détecteurs jumeaux de LIGO (Laser Interferometer Gravitational-wave Observatory) situés aux États-Unis – à Livingston, en Louisiane, et Hanford, dans l’ État de Washington». A partir des données recueillies, les collaborations LIGO et Virgo ont estimé «que les deux trous noirs ont fusionné il y a 1.3 milliard d'années, et avaient des masses d'environ 29 et 36 fois celle du Soleil».

     

    De plus, «la comparaison des temps d'arrivée des ondes gravitationnelles dans les deux détecteurs (7 millisecondes d'écart) et l'étude des caractéristiques des signaux mesurés par les collaborations LIGO et Virgo ont montré que la source de ces ondes gravitationnelles était probablement située dans l'hémisphère sud». Il faut souligner qu'une localisation plus précise «aurait nécessité des détecteurs supplémentaires», ce que «l'entrée en service d'Advanced Virgo fin 2016 permettra» à l'avenir.

     

    Si ce type d'évènement n'avait jamais été observé jusqu'ici, la théorie de la relativité générale en explique le déroulement qui a concerné un couple de trous noirs en orbite l'un autour de l'autre. Un tel couple «perd de l'énergie sous forme d'ondes gravitationnelles», de sorte que les deux trous noirs «se rapprochent lentement, un phénomène qui peut durer des milliards d'années avant de s'accélérer brusquement».

     

    Ils entrent alors en collision, en une fraction de seconde, «à une vitesse de l'ordre de la moitié de celle de la lumière» pour fusionner en un trou noir unique «plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (ici, l'équivalent de 3 soleils, soit une énergie colossale) s'est convertie en ondes gravitationnelles selon la célèbre formule d'Einstein E=mc2». C'est cette bouffée d'ondes gravitationnelles que l'étude ici présentée a détectée.

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Monitoring Tyrosinase Expression in Non-metastatic and Metastatic Melanoma Tissues by Scanning Electrochemical Microscopy» ont été publiés dans la revue Angewandte Chemie, a permis d'élaborer un outil de diagnostic du mélanome cutané en le testant sur des fruits, compte tenu du fait qu'une enzyme, la tyrosinase, est à la fois présente dans les fruits mûrs et le mélanome humain.

     

    En effet, la peau de banane, par exemple, et la peau humaine ont en commun de produire la tyrosinase, lorsqu'elles sont agressées par le soleil: tandis que les bananes, en vieillissant, se couvrent naturellement de taches noires causées par cette enzyme, chez l'homme, elle a un rôle dans le cancer de la peau de type mélanome «lorsqu'un dysfonctionnement se produit dans la régulation de cette 'enzyme du bronzage'», le mélanome apparaissant alors «sous la forme d'une tâche très foncée».

     

    Dans le cadre de l'étude ici présentée, cette analogie a permis de tester «une technique d'imagerie permettant de mesurer la présence de tyrosinase et sa distribution dans la peau» grâce à des recherches qui «ont été effectuées d'abord sur des fruits mûrs, puis sur des échantillons de tissus cancéreux».

     

    Elles ont abouti à montrer «que le niveau de présence et la distribution de l'enzyme tyrosinase renseignent sur le stade de la maladie»: ainsi, «au stade 1, l'enzyme apparaît peu», tandis qu'au stade 2, «elle est présente en grande quantité et de façon homogène» et «au stade 3, elle est distribuée de façon hétérogène».

     

    L'outil élaboré est «un mini scanner doté de huit micro-électrodes souples», qui «vient caresser la surface de la peau tout en mesurant la réactivité de l'enzyme». Comme les premiers essais en laboratoire ont montré que les cellules pouvaient également être détruites à l'aide de cet outil de diagnostic, cette technique «pourrait s'avérer un précieux outil pour les dermatologues».

     

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «The safety band of Antarctic ice shelves» ont été publiés dans la revue Nature Climate Change, a permis de quantifier, grâce à un modèle numérique d’écoulement des glaces, pour la première fois, le soutien mécanique exercé par les plateformes antarctiques sur leurs glaciers émissaires et pointer les régions les plus susceptibles d’être affectées dans les années qui viennent par une perte d’étendue de ces plateformes.

     

    Rappelons tout d'abord, qu'au «cours des 20 dernières années, de nombreuses plateformes de glace en Antarctique» se sont réduites et même certaines d’entre elles ont totalement disparues. Par conséquent, «l’écoulement de nombreux glaciers émissaires s’est accéléré, ce qui a augmenté la décharge de glace vers l’océan et ainsi contribué à élever le niveau des mers».

     

    En vue de «comprendre jusqu’à quel point le front d’une plateforme peut reculer avant que celle-ci ne perde sa capacité à limiter l’écoulement de son glacier émissaire, l'étude ici présentée «s’est intéressée à cette capacité des plateformes de glace à retenir l’écoulement des glaciers» en réalisant des simulations grâce au «modèle d’écoulement de calotte polaire Elmer/Ice développé depuis plusieurs années par le LGGE en collaboration avec le Center for science computing (CSC) de Finlande», alimenté par «les données satellitaires de l’ESA pour préciser la vitesse d’écoulement des glaciers, ainsi que les mesures aéroportées d’épaisseur de glace».



    Il est ainsi apparu «que 13 % seulement de la superficie des plateformes était mécaniquement passive». Autrement dit, «si cette partie des plateformes venait à être perdue par vêlage d’icebergs, cela n’aurait vraisemblablement aucun effet immédiat sur l’écoulement des glaciers émissaires».


    De plus, cette quantification met «en évidence des différences régionales frappantes»: ainsi, «si les régions situées le long de la côte de la Terre de la Reine Maud (secteur Atlantique-Indien de l’Antarctique), dont les plateformes ont de larges portions dynamiquement passives, peuvent être considérées comme stables pour l’instant», il n'en est pas de même pour d’autres régions, en particulier, «les zones dynamiquement passives des plateformes situées dans le secteur des mers de Bellingshausen et d’Amundsen, à l’ouest de l’Antarctique», qui sont quasiment inexistantes.

     

    Pour ces dernières zones, on peut prévoir qu'un retrait supplémentaire du front de ces plateformes aura «un effet immédiat sur l’écoulement de leurs glaciers émissaires, augmentant de fait leur décharge de glace à l’océan». Cette conclusion est d’autant plus préoccupante «que cette région connait déjà depuis 20 ans les taux d’amincissement des plateformes, et donc des glaciers, les plus importants de l’Antarctique».

     

     

     


    votre commentaire