•  

    Une étude, dont les résultats intitulés «X-ray galaxy clusters abundance and mass temperature scaling» ont été publiés dans la revue Astronomy and Astrophysics, a abouti, en cherchant à réconcilier le modèle standard de la cosmologie avec la quantité d'amas de galaxies observés en rayon X, à la conclusion que les masses des amas de galaxies devraient être 70% supérieures aux estimations actuelles.

     

    Rappelons tout d'abord que les amas de galaxies («les plus grandes structures qui se soient effondrées sur elles-mêmes sous l’action de la gravité»), sont «une précieuse source d'information sur notre Univers et son histoire, notamment par des mesures de leur abondance (le nombre d’amas par unité de volume)», car «cette abondance résulte du nombre de structures qui ont eu le temps de se former par l’effondrement des fluctuations de matière dont l'origine se trouve dans l'Univers primordial».

     

    Ces amas peuvent être observés de plusieurs façons, en particulier, en employant la technique «de l’imagerie et de la spectroscopie en rayons X qui révèlent la présence et les propriétés d’un gaz chaud à une température de plusieurs dizaines de millions de degrés» et, aussi, en mesurant, dans le domaine millimétrique et submillimétrique, «l’empreinte que ce gaz chaud laisse dans le rayonnement du fond diffus cosmologique: c'est l’effet Sunyaev-Zeldovich ('effet SZ')».

     

    Le fond diffus cosmologique (FDC), «cette 'première image' de l'Univers», observé et analysé par le satellite Planck, qui porte la trace des fluctuations primordiales, «a fortement consolidé les fondements du modèle cosmologique standard» qui repose sur «une constante cosmologique (ou énergie noire) représentant environ 70% de la densité de l'Univers», sur «une composante de matière sombre froide en représentant 25%» et sur une composante de 5% formée d'atomes qui est le «seul contenu directement accessible aux observations des astronomes».

     

    Comme «en connaissant l’amplitude des fluctuations primordiales (grâce au FDC), l'abondance d’amas de galaxies peut alors être prédite et comparée aux observations, et ainsi contraindre des modèles d'Univers», du fait que le satellite Planck a «observé l’abondance des amas grâce à leur empreinte par effet SZ dans le FDC», une étude comparative publiée en 2013 a montré que, compte tenu des estimations de masses obtenues par le passé, basées sur l’application de l’équation de l’équilibre hydrostatique du gaz au sein des amas, la quantité d'amas observés est 3 à 4 fois plus faible que les valeurs attendues». Ce résultat implique que si l'on veut «réconcilier ces abondances avec le modèle standard, les masses des amas devraient être nettement supérieures, d’environ 70%, aux estimations antérieures basées sur les observations en rayon X».

     

    En vue d'éclaircir ce mystère, l'étude ici présentée a abordé cette question avec une nouvelle approche: tout d'abord, les données «qui permettent de déterminer l’abondance des amas (locaux/proches) détectés par leur émission en rayon X» ont été reprises, puis, «les masses que ces amas devraient avoir pour être en accord avec le modèle 'ΛCDM' tel qu'il nous apparaît à travers les fluctuations du fond cosmologique mesurées par Planck» ont été évaluées.

     

    Il est ainsi apparu de nouveau que «les masses des amas doivent être supérieures aux estimations antérieures d'environ 70%» en cohérence avec les conclusions tirées de l’échantillon 'SZ' de Planck, ce qui semble suggérer «que le modèle cosmologique standard doit être révisé par exemple en invoquant l’existence de neutrinos massifs».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Plasticity of an Ultrafast Interaction between Nucleoporins and Nuclear Transport Receptors» ont été publiés dans la revue Cell, a permis de mettre en évidence, en combinant des observations in vitro et in vivo, le mécanisme du transport d'une molécule à l'intérieur du noyau cellulaire.

     

    Rappelons tout d'abord que, dans une cellule, le noyau qui «contient l’essentiel de l’ADN, support de la précieuse information génétique», joue «le rôle de centre de contrôle, orchestrant toutes les réactions se déroulant dans la cellule et nécessaires au bon fonctionnement d’un organisme».

     

    Dans ce cadre, «la double membrane qui délimite le noyau assure également un rôle protecteur de l’ADN» alors que «la réalisation des réactions cellulaires exige que certaines molécules puissent être échangées entre le cytoplasme et le nucléoplasme (intérieur du noyau)» en franchissant «de façon très sélective» cette double membrane.

     

    Plus précisément, ces molécules sont «acheminées par des protéines appelées 'transporteurs', qui passent par des pores formant des tunnels à travers l’enveloppe nucléaire». Du fait que «ces tunnels sont tapissés de nucléoporines désordonnées, c’est-à-dire très flexibles car changeant de conformation en permanence», ces tunnels constituent «un filtre sélectif pour le transit de molécules» grâce aux interactions de ces nucléoporines avec les transporteurs.

     

    Alors que jusqu'ici, «le mécanisme de ces interactions, à la fois rapides (quelques millisecondes) et très spécifiques, était resté largement incompris», l'étude ici présentée a cherché à identifier et suivre une «multitude d’interactions faibles, mais très spécifiques, entre les nucléoporines et les transporteurs» en combinant «différentes techniques expérimentales de visualisation (fluorescence, simulation, résonance magnétique nucléaire -RMN- à très hauts champs)»

     

    La RMN a été utilisée pour identifier, à une résolution atomique, «les zones et les mécanismes d’interactions des nucléoporines avec les transporteurs». Il a été ainsi constaté, «malgré la très grande flexibilité de ces protéines», que «des zones de quelques acides aminés seulement sont mises en jeu dans ces interactions» de très courte durée, dont la «grande spécificité est directement liée à une composition en acides aminés spécifique des petites zones d’interactions», le reste de la nucléoporine ne participant pas ou peu à l’interaction.

     

    Ensuite, «les dynamiques moléculaires d’interaction (repliement, changement de configurations…) entre les nucléoporines et les transporteurs» ont été observées par fluorescence. Il est alors apparu que «les interactions avaient lieu de façon très rapide, et que la configuration des protéines n’évoluait pratiquement pas à ce moment-là».

     

    En résumé, cette étude a pu déterminer «que les transporteurs et les nucléoporines interagissent très rapidement et superficiellement en des points spécifiques, ce qui permet d’assurer un passage rapide et sélectif à travers l’enveloppe du noyau», cette efficacité physiologique étant «basée sur la plasticité des nucléoporines (pouvant adopter différentes configurations) et la multiplicité de leurs sites d’interactions».

     

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Finding optimal surface sites on heterogeneous catalysts by counting nearest neighbors» ont été publiés dans la revue Science, a abouti à la mise au point d'une méthode nouvelle, simple et rapide, pour améliorer l'efficacité d'une famille de catalyseurs.

     

    Rappelons tout d'abord que «les catalyseurs sont des substances ou des matériaux qui, par leur interaction avec des réactifs, minimisent l'énergie nécessaire aux réactions chimiques et favorisent la formation des produits désirés».

     

    Indispensables à l'industrie chimique pour faciliter les réactions chimiques, ils peuvent également aider à lutter contre la pollution, à l'instar des dispositifs catalytiques «embarqués dans les pots d'échappement des véhicules» qui diminuent «l'impact polluant des moteurs à combustion».

     

    De plus, la raison essentielle pour laquelle «si peu de voitures équipées de piles à hydrogène ont été lancées sur le marché alors qu'elles n'émettent pas de gaz à effet de serre», est que «les catalyseurs de piles à combustible ne sont pas encore véritablement au point s'agissant de leur fonctionnement dans la durée».

     

    Alors que tous ces éléments montrent que le développement de catalyseurs plus efficaces est «un enjeu de taille», jusqu'ici, pour améliorer un catalyseur, «les chimistes n'avaient à leur disposition qu'un indice: la force d'interaction optimale entre le réactif et le catalyseur».



    Plus précisément, les catalyseurs étant «souvent constitués de petites particules métalliques de quelques nanomètres de diamètre», on savait que leur efficacité «dépend de leur taille, de leur forme et de leur composition chimique».

     

    Cependant, faute de relation entre la force d'interaction optimale et «la structure que devaient présenter les particules de catalyseur pour l'atteindre», la méthode utilisée jusqu'à présent par les chimistes était celle du tâtonnement en deux étapes: d'abord, de grandes bases de données étaient passée en revue «à la recherche des meilleurs candidats» et, ensuite, «de nombreuses possibilités de structure du matériau» étaient testées «jusqu'à parvenir à la force d'interaction adéquate».



    Dans ce contexte, l'étude ici présentée «a mis au point une nouvelle approche, permettant de déterminer la structure optimale du site catalytique (site d'interaction entre le catalyseur et le réactif), pour un catalyseur de composition chimique donnée (par exemple, du platine)».

     

    Celle-ci résulte de la découverte d'une relation entre l'activité d'un site catalytique et le nombre de coordination «qui désigne le nombre de voisins d'un atome appartenant au catalyseur et qui se calcule simplement en les décomptant».

     

    Cette approche a été validé expérimentalement «en concevant un nouveau type de catalyseur au platine pouvant être utilisé dans les piles à combustible». Ainsi, «l'efficacité maximale a été prédite pour des sites avec un nombre de coordination plus élevé que pour le catalyseur de référence, c'est-à-dire situés dans une cavité creusée dans la surface de platine». Concrètement, «après avoir créé des cavités sur une surface modèle de platine par trois méthodes différentes», l'efficacité catalytique «a été multipliée jusqu'à 3,5 fois».



    Par conséquent, cette étude, qui devrait diminuer considérablement les temps de développement de catalyseurs, ouvre la voie «au développement de piles à combustible commercialement performantes, à une utilisation plus large de l'hydrogène comme carburant propre et plus généralement, à terme, à l'optimisation de nombreux processus industriels».

     

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Nonlinear increase of X-ray intensities from thin foils irradiated with a 200 TW femtosecond laser» ont été publiés dans la revue Nature, a permis d'obtenir, grâce au J-Karen installé au Japon, un des lasers femtoseconde les plus puissants du monde, un plasma d’atomes dans un état exotique extrême qui apparaît au cours d'une supernova.

     

    Plus précisément, «en bombardant de la matière avec des impulsions lasers ultracourtes», des atomes creux («des atomes dont la couche d’électrons la plus proche du noyau a été arrachée contrairement aux ions où ce sont les couches externes d’électrons qui sont supprimées») ont été obtenus.

     

    Si «des expériences précédentes utilisant un laser envoyant des faisceaux ultra brefs de rayons X» avaient abouti à produire des atomes creux, c'est la première fois qu'ils sont obtenus «avec un laser en lumière visible».

     

    Selon le principe qui stipule que «la nature à horreur du vide», lorsque «la couche interne d’électrons est vide, ceux de la couche externe 'descendent' occuper les places laissées vides» en émettant «de grandes quantités de rayons X hautement énergétiques».

     

    Cette méthode, qui peut être employée «pour obtenir des sources de rayons X avec une intensité inégalée dans les autres dispositifs actuels», pourraient être utilisée «pour des applications industrielles comme des sondages non destructifs de soudure ou pour mettre au point de nouveaux matériaux».

     

    Quant à «l’étude des atomes creux et de la cascade de réactions que leur présence engendre», elle devrait permettre de mieux comprendre les phénomènes qui se déroulent lors des supernovæ.

     

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Erosion by an Alpine glacier» ont été publiés dans la revue Science, a permis, grâce à une approche pluridisciplinaire, de quantifier, pour la première fois, la loi d’érosion d’un glacier de type Alpin en Nouvelle Zélande: jusqu'ici aucun consensus n'existait «sur le lien quantitatif entre la vitesse de glissement des glaciers et l’érosion liée à ce glissement», principalement du fait de «l’impossibilité d’observer ce qui se passe sous les glaciers et d’y réaliser des mesures directes pour quantifier l’érosion, mais aussi de réaliser des mesures intégrant les fluctuations saisonnières».

     

    Afin de contribuer à résoudre ce problème, l'étude ici présentée s'est penchée, pendant six mois, «sur le cas du glacier Franz Josef (Ka Roimata o Hinehukatere en Maori) en Nouvelle Zélande». Situé «dans les Alpes de l’île du Sud dans la région du Mont Cook (Aoraki en Maori) dans une région affectée par d’intenses précipitations», ce glacier «qui présente de fortes analogies avec les glaciers des Alpes Européennes mesure environ 10 km de long et glisse rapidement sur son substrat rocheux avec des vitesses pouvant atteindre 2 m/jour».

     

    Plus précisément, «la vitesse de la surface du glacier a été quantifiée grâce à l’utilisation d’une technique nouvelle de corrélation d’images satellitaires permettant de cartographier cette vitesse avec une grande précision et une excellente résolution spatiale à l’échelle du glacier sur la période choisie», puis cette vitesse a été «extrapolée à la vitesse de glissement du glacier».


    Les taux d’érosion, eux, ont été estimés grâce à l'installation pendant plusieurs mois, en sortie du ruisseau sous-glaciaire, d'une station de mesure du débit et de taux de particules sédimentaires: la provenance de cette charge particulaire a été précisée par l'analyse de «la structure cristalline des matériaux graphitiques contenus dans les particules sédimentaires par microspectroscopie Raman».

     

    Comme «ces composés graphitiques sont des témoins de l’histoire métamorphiques des roches qui les contiennent, et montrent des variations structurales importantes dans les roches sur lesquelles s’étire le glacier de Franz Josef», la comparaison de «la structure des matériaux graphitiques dans la charge particulaire avec celle des roches du substrat rocheux au long du glacier», permet de «déduire la provenance des particules générées par l’érosion» et «de réaliser pour la première fois une cartographie précise de l’érosion sous un glacier Alpin».


    Il a été ainsi établi «que le taux d’érosion dépend du carré de la vitesse de glissement du glacier et augmente donc avec le temps». La conséquence est que ce modèle, qui concorde «avec l’augmentation généralisée du glissement des glaciers observée depuis quelques décennies au bord des grandes calottes», prédit que «l’érosion glaciaire va s’intensifier de manière non linéaire avec le réchauffement climatique».

     

     


    votre commentaire