•  

    Une étude, dont les résultats intitulés «Males as somatic investment in a parthenogenetic nematode» ont été publiés dans la revue Science, a permis d'en apprendre plus sur le ver Mesorhabditis belari dont les mâles servent uniquement à aider les femelles à produire des clones d’elles-mêmes.

     

    Relevons tout d'abord que le jeune biologiste Victor Nigon présentait, en 1949, «dans son travail de thèse ses observations sur la reproduction de diverses espèces de nématodes, des petits vers ronds vivant dans les sols» parmi lesquels «le ver Mesorhabditis belari chez qui les rares mâles présents dans la population sont nécessaires à la reproduction bien que le matériel génétique des spermatozoïdes soit rarement utilisé par l’ovule», car le plus souvent «l'embryon qui se développe donne naissance à une femelleclone de sa mère».

     

    Pour sa part, l'étude ici présentée, «soixante-dix années plus tard», confirme «les premières observations de Victor Nigon», tout en notant «que dans les 9 % des cas où le matériel génétique est utilisé après fécondation, l’embryon donne naissance à un mâle» de sorte que «les mâles ne peuvent disséminer leurs gènes qu’à leurs fils». Il en ressort que M. belari représente «un cas unique, où les mâles n’ont pas de contribution génétique, et peuvent être vus comme une simple extension des femelles pour les aider à démarrer le développement de leurs œufs».

     

    En fait, «si les mâles ne servent pas à disséminer les gènes de leur mère, alors il faut qu’ils servent au moins à ce que la mère produise le plus de descendants possibles», ce qui n’est possible seulement «si les fils qu’une femelle produit aident ses propres filles à produire un grand nombre d’embryons». Autrement dit, il en est ainsi «si les mâles fécondent préférentiellement leurs sœurs».

     

    L'étude a ensuite cherché à expliquer, en «utilisant la 'théorie des jeux'», pourquoi la proportion de 9 % de mâles a «été retenue au cours de l’évolution, et non 2 % ou 20 % par exemple». Il est alors apparu «que produire 9 % de mâles était une stratégie évolutivement stable : cette quantité est suffisante pour s’assurer qu’un maximum de descendantes femelles soient produites, sans pour autant gaspiller trop de ressources dans la production de mâles dont les gènes n’ont aucun avenir».

     

    Rappelons ici qu'au «contraire de la sexualité, où des individus de sexe mâle permettent le brassage génétique avec les femelles», l'asexualité «est un mode de reproduction où des espèces composées uniquement de femelles produisent des clones d’elles-mêmes». Ainsi, «M. belari présente un cas nouveau, où des mâles peuvent être utiles à la reproduction des femelles, même sans brassage génétique». Il reste désormais à «comprendre comment un tel mode de reproduction a pu émerger» et à tester «la stabilité de l’espèce M. belari via l’étude de son génome».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «A distance to the Large Magellanic Cloud that is precise to one per cent» sont publiés dans la revue Nature, a permis de déterminer, avec une précision inégalée et symbolique de 1 %, la distance au Grand Nuage de Magellan (GNM), galaxie satellite la plus proche de la Voie Lactée.

     

    Le Grand Nuage de Magellan sert de point d’ancrage pour étalonner les échelles de distance dans l’Univers. C’est dire l’importance de ces travaux récents qui, par échafaudage, mènent à la détermination de la constante de Hubble, une quantité fondamentale en cosmologie qui caractérise le taux d’expansion de l’Univers.

     

    Relevons tout d'abord que «le Grand Nuage de Magellan abrite un grand nombre de céphéides», des étoiles supergéantes pulsantes «particulièrement brillantes», qui «se singularisent par la relation existant entre leur période de variation lumineuse et leur luminosité intrinsèque: les céphéides varient avec une période d’autant plus longue qu’elles sont plus brillantes, selon la loi de Leavitt» découverte «par l'astronome américaine Henrietta Leavitt en 1908 grâce à l'étude des céphéides du Grand Nuage de Magellan, où plus de 4000 céphéides sont aujourd'hui répertoriées».

     

    La loi de Leavitt, «appliquée aux céphéides détectées dans les galaxies lointaines», permet «d’étalonner la luminosité intrinsèque d'un indicateur secondaire de distance permettant d'aller encore plus loin: les supernovae de Type 1a ou SN1a» qui sont des explosions d'étoiles rares «mais extrêmement brillants, et donc détectables à de très grandes distances de plusieurs milliards d'années-lumière».

     

    Ainsi, grâce aux supernovae SN1a, «les astronomes cartographient l’univers, et peuvent déterminer le taux d’expansion de l’univers, quantifié par la constante de Hubble H0». En outre, «ces mesures de distance obtenues de proche en proche», permettent d'étudier «un des problèmes les plus épineux de la cosmologie moderne: la nature de l’énergie noire».

     

    Comme, actuellement, «il existe dans la littérature plusieurs centaines d’estimations de distance du Grand Nuage de Magellan, basées sur un grand nombre d'indicateurs de distance astrophysiques différents, dont les céphéides» (chaque méthode ayant ses propres biais), l'étude ici présentée, réalisée «au sein du projet international Araucaria», s'est focalisée sur «des étoiles binaires à éclipses situées dans le Grand Nuage de Magellan» qui «s'éclipsent mutuellement à intervalle régulier».

     

    La technique employée par cette étude s'appuie d'abord sur le fait que «les variations de lumière enregistrées lors des éclipses, associées aux variations de vitesse de chacune des deux étoiles, permettent de contraindre avec une grande précision leurs diamètres linéaires» et elle utilise ensuite «le fait que ces étoiles émettent de la lumière selon une relation très précise entre la température ou la couleur de l’étoile, sa magnitude apparente et son diamètre angulaire (sa taille apparente)». Ainsi, «la combinaison de l’estimation du diamètre linéaire des deux étoiles de la binaire à éclipse, avec celle de leurs diamètres angulaires, permet d’obtenir une mesure précise de sa distance».

     

    Cependant, comme «les binaires à éclipses visées dans cette étude sont des objets 'froids' et qui émettent relativement peu de lumière», l'application pratique de cette technique est difficile. Concrètement, «l’équipe du projet Araucaria a suivi près de 35 millions d’étoiles dans le GNM pendant plus de 20 ans» et «sur ces 35 millions d’objets, vingt binaires à éclipses seulement ont été soigneusement sélectionnées, puis suivies à l'aide de grands télescopes pendant plus de 15 ans».

     

    Au bout du compte, «en combinant la distance estimée des vingt binaires à éclipse observées, l’équipe a mesuré une distance au GMN de 162 000 années-lumière, soit 1 530 000 000 000 000 000 km (1,53 milliard de milliards de kilomètres) avec une précision encore jamais atteinte de 1 %».

     

    Soulignons ici que «l’obtention d’une telle précision n’aurait pas été possible sans un nouvel étalonnage de la relation entre la couleur de l’étoile, sa magnitude apparente et son diamètre angulaire» et que l'observation a été réalisée «grâce à l'instrument français PIONIER placé au foyer du grand interféromètre optique européen de l'Observatoire Européen Austral (ESO), le Very Large Telescope Interferometer (VLTI) installé au nord du Chili».

     

    Il en découle que «la première mesure de distance d'une galaxie» avec cette précision donne «la meilleure référence absolue pour l'échelle des distances extragalactiques et donc pour la mesure de la constance de Hubble, actuellement objet d'une controverse». En outre, cette mesure est fondamentale «pour mieux comprendre la nature de la mystérieuse énergie noire».

     

    Parmi les autres retombées attendues, il y a «une meilleure connaissance de toutes les classes d'objets célestes situés dans le GMN, ou encore l’étalonnage et la validation d'autres méthodes de mesure de distance, par exemple les mesures de parallaxes obtenues par le satellite européen Gaia de l'Agence Spatiale Européenne (ESA)».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Human sound systems are shaped by post-Neolithic changes in bite configuration» ont été publiés dans la revue Science, révèle que le développement de l'agriculture au néolithique en Europe aurait permis aux populations de prononcer distinctement les sons 'F' et 'V'. C'est la première fois que des travaux rigoureux relient directement l'alimentation aux capacités linguistiques.

     

    Relevons tout d'abord qu'alors que «certains sons existent partout sur le globe comme le son 'm' et le 'a'», d'autres «sont plus rares, comme les clics de certaines langues de l'Afrique australe». Généralement, on pense que la large gamme de sons du langage humain «est apparue avec l'émergence de l'Homo sapiens il y a environ 300.000 ans».

     

    Pour sa part, l'étude ici présentée s'est intéressée à l'influence de la révolution néolithique qui a engendré d'immenses bouleversements «à partir d'approximativement 8000 ans en Europe». Dès cette époque, les populations de chasseurs-cueilleurs ont été remplacées par des populations qui maîtrisaient l'agriculture ou intégrées à elles.

     

    De ce fait, les hommes sont passés d'une alimentation peu transformée «à des mets plus raffinés et faciles à ingérer». Ce changement de régime alimentaire «a pu, dans un premier temps, s'accompagner de certaines carences», car «les populations pouvaient avoir tendance à manger tout le temps la même chose» puisque «les aliments transformés demandent moins d'efforts de mastication».

     

    A ce propos, notons que la mastication fatigue la mâchoire qui a tendance à se déformer: «les dents subissent alors un phénomène d'érosion» et «l'espace entre les mâchoires supérieure et inférieure se resserre au niveau des dents de devant». A cause de cela, «les hommes avaient beaucoup plus de difficulté à prononcer les sons proches du ceux assimilés aux lettres 'f' et 'v' qui demandent une légère aspiration de la lèvre inférieure et un contact entre la lèvre inférieure et les incisives supérieurs», un son «que l'on retrouve pourtant dans 50% des langues parlées dans le monde».

     

    En réalité, «Manger des aliments plus mous n'a pas, à proprement parler, ouvert de nouvelles capacités», c'est le fait de manger des aliments durs qui «limite la probabilité de voir ces sons diversifiés sortir de nos bouches», car si «nos ancêtres avaient peut-être toute la palette linguistique à leur portée», leur vie quotidienne et particulièrement la nourriture «a favorisé certaines sonorités», donnant des langues si différentes.

     

    Pour faire sa démonstration, cette étude a combiné «des données et des méthodes issues de différentes sciences, y compris l'anthropologie biologique, la phonétique et la linguistique historique» à partir «de vastes ensembles de données récemment développés et des modèles de simulation biomécaniques détaillés». Il est ainsi apparu «que la prononciation ou non du son 'f' n'est pas déterminée par des facteurs génétiques», mais «essentiellement par l'environnement dans lequel évoluent les individus».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Ferrous Iron Under Oxygen‐Rich Conditions in the Deep Mantle» ont été publiés dans la revue Geophysical Research Letters, a permis de découvrir, au sein du manteau terrestre, du fer réduit formé dans des conditions oxydantes (FeO2Hx), ce qui remet en question le concept véhiculé par les modèles géochimiques actuels.

     

    Notons tout d'abord que les oxydes de fer, «matériaux complexes et importants de la structure interne de la Terre», prennent de nombreuses formes parmi lesquelles «la wüstite (Fe2+O) et l’hématite (Fe3+2O3)», qui «ont longtemps été considérées comme les pôles purs des états ferreux et ferrique du fer».

     

    Pour «les modèles géochimiques actuellement répandus», l'activité thermodynamique de l'oxygène «est directement responsable de la forme ferrique ou ferreuse des minéraux de fer» de sorte qu'une «activité thermodynamique élevée de l’oxygène induit des conditions oxydantes, garantissant la formation de Fe3+» tandis qu'une «faible activité de l’oxygène favorise la formation de d'états réduits du fer (le fer ferreux Fe2+, voire le fer métallique Fe0)».

     

    Pourtant, «une nouvelle forme d'oxyde de fer vient remettre en cause ces modèles généraux», car «FeO2Hx est une phase de structure cristalline de type pyrite riche en oxygène, stable aux conditions de pression et température du manteau terrestre, et dans laquelle le fer est majoritairement sous forme de Fe2+», ce qui signifie que «du fer réduit en conditions oxydantes a été découvert dans le manteau terrestre».

     

    Concrètement, «la phase de formule chimique FeO2Hx, où x est compris entre 0 et 1, résulte de la réaction entre du fer métallique avec de l’eau, ou de la transformation de la goethite (Fe3+OOH), sous des pressions et températures correspondant à ~1800 km de profondeur dans le manteau terrestre». Découverte récemment, cette phase «peut par exemple se former par transformation profonde de matériel subducté hydraté».

     

    Comme il est «implicite dans tous les modèles géochimiques actuels» que l'oxygène est «sous la forme d’ion oxyde O2−», l’état de valence du fer dans FeO2Hx doit alors être «compris entre Fe3+ et Fe4+». Néanmoins, «plusieurs études récentes ont montré que la phase FeO2Hx cristallisait dans une structure pyrite» et «par analogie structurale avec la pyrite (FeS2), dans laquelle Fe est essentiellement sous forme de Fe2+ et le soufre sous la forme de dimère S22-, FeO2Hx pourrait en fait être composé de cations Fe2+ et d’ion peroxydes O22−».

     

    Dans le cadre de cette étude, «les chercheurs ont sondé l’état d’oxydation du fer lors de la transformation de Fe3+OOH en FeO2Hx, grâce à la spectroscopie d’absorption des rayons X in situ en cellule à enclumes de diamant chauffée par laser infrarouge» et, pour comparaison, «des mesures ont également été effectuées sur Fe2+O et Fe23+O3 dans les mêmes conditions de pression et température». Toutes ces mesures «ont été effectuées au synchrotron de l’ESRF à Grenoble sur la ligne de lumière ID 24».

     

    Il est alors apparu que «dans la goethite Fe3+OOH, le matériau de départ, chauffée à 1600-1800 K sous pression modérée (64 GPa), soit hors du domaine de stabilité de FeO2Hx» la position «du seuil K d’absorption des rayons X du fer reste proche de celle dans Fe23+O3, confirmant la prédominance de Fe3+ dans la phase stable à ces conditions de pression et température (ϵ-FeOOH)».

     

    Par contre, «à plus haute pression (91 GPa), dans le domaine de stabilité de FeO2Hx», les analyses par spectroscopie ont montré «que la position du seuil K du fer est décalée de -3.3 eV, devenant proche de celle dans Fe2+O aux mêmes conditions».

     

    Cette évolution «indique la réduction du fer en Fe2+ lors de la transformation de FeOOH en FeO2Hx», ce «qui renforce l’intuition cristallochimique que l'oxygène est présent dans cette phase de structure pyrite sous forme d’anion peroxyde (O2-2) avec un degré d’oxydation de -1». Toutefois, ce dernier point restera «à vérifier par d’autres techniques».

     

    Il en résulte en tout cas que, ces mesures spectroscopiques constituent «des arguments forts pour un état de valence ferreux (Fe2+) du fer pour des compositions riches en oxygène (imposé par la goethite Fe3+OOH de départ) et ceci dans les conditions de pression et température du manteau inférieur de la Terre».

     

    Il en découle aussi que «cette observation devra être prise en compte pour modéliser la fugacité de l’oxygène, c’est-à-dire l’état rédox, du manteau inférieur de la Terre» et que «les conséquences pour les cycles internes du carbone (formation de diamants ultra-profonds) et de l’eau (relarguage d’hydrogène dans le manteau inférieur) dans ce milieu extrême» pourraient se révéler considérables.

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Evidence for an Intermediate-Mass Milky Way from Gaia DR2 Halo Globular Cluster Motions» sont publiés dans la revue The Astrophysical Journal et disponibles en pdf, révèle que la Voie lactée, notre galaxie a une masse située dans la moyenne par rapport aux autres galaxies spirales éparpillées dans l'univers, puisque l'estimation faite, la plus précise réalisée à ce jour, lui attribue une masse équivalente à 1.500 milliards de fois celle du Soleil.

     

    En fait, cette valeur se trouve «quasiment à mi-chemin entre les précédentes évaluations les plus faibles, 500 milliards de masses solaires, et les plus hautes, 3.000 milliards de masses solaires», alors que les galaxies les plus massives de l'univers «affichent une masse colossale de 30.000 milliards de soleils».

     

    Notons ici que ce chiffre ne signifie absolument pas «qu'il y 1500 milliards d'étoiles comme notre Soleil dans notre Galaxie», car si «leur population exacte n'est pas connue», leur masse totale est actuellement évaluée «entre 200 et 400 milliards de fois celle du Soleil». En réalité, «les étoiles (et aussi les nuages de gaz et de poussière, les trous noirs, les petits astres en orbite autour d'elles) ne sont «qu'une partie de la masse de la galaxie».

     

    Il en découle que «tout le reste (l'écrasante majorité) est là, parfaitement invisible, insaisissable et pourtant si influent que sans lui, notre galaxie (et toutes ses consœurs telles que nous les connaissons) n'existerait pas», car cette masse inconnue, la matière noire, est déduite de «ses effets gravitationnels sur les objets que l'on voit ou détecte, des plus lumineux aux plus sombres».

     

    Soulignons que l'estimation présentée ici a été établie grâce, d'une part, à «l'acuité de Gaia, qui cartographie la galaxie et mesure les distances de centaines de millions d'étoiles avec une grande précision» et, d'autre part, grâce à celle d'Hubble «qui permet d'observer des objets lointains dans la banlieue de la Voie lactée» où «circulent les amas globulaires» dont la dynamique dépend de la «mystérieuse matière noire».

     

    Concrètement, une quarantaine d'amas globulaires ont été sélectionnés «sur les plus de 150 connus qui gravitent autour de la Voie lactée» et, à partir de l'analyse de leurs dynamiques, «la quantité de matière noire répandue dans la galaxie» a pu être inférée «en vertu des scénarios proposés dans les simulations numériques».

     

     


    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique