•  

    Une étude, dont les résultats intitulés «Dual control of NAD+ synthesis by purine metabolites in yeast» ont été publiés dans la revue eLife, a permis de mettre en évidence des mécanismes de régulation permettant de coupler la synthèse de nicotinamide adénine di-nucléotide (une molécule dont la diminution est impliquée dans les processus de vieillissement) à la quantité d’énergie disponible dans la cellule.

     

    Notons tout d'abord que «le nicotinamide adénine di-nucléotide (NAD+/NADH) est un coenzyme permettant l’échange d’hydrogène dans une myriade de réactions d’oxydo-réduction» et qu'il est «également le co-substrat de plusieurs enzymes dont les sirtuines, des histones désacétylases impliquées dans les processus de vieillissement».

     

    En fait, si «les réactions d’oxydoréduction conduisent à l’inter-conversion du NAD+ et du NADH et ne changent pas la quantité totale de NAD+ dans la cellule», les réactions «dans lesquelles le NAD+ est un co-substrat peuvent affecter la concentration de NAD+ cellulaire». En particulier, en raison «d’un déficit de recyclage ou d’une surconsommation par la Poly (ADP-ribose) polymérase», le NAD+ «décline au cours du vieillissement».

     

    Cependant, «cette diminution peut être compensée par supplémentation avec des précurseurs de NAD+ comme le nicotinamide ou ses dérivés» qui «peuvent avoir des effets bénéfiques sur l’état de santé ou la longévité mais les mécanismes sous-jacents ne sont pas pleinement compris». D'autre part, «la stimulation de la néo-synthèse de NAD+ par l’organisme peut également avoir des effets bénéfiques pour la santé».

     

    Alors que «tous ces résultats ont généré un vif intérêt pour cette molécule et les processus métaboliques impliqués dans sa synthèse», plusieurs études récentes ont néanmoins montré «que l’augmentation de l’expression de la nicotinamide phophoribosyl transférase, une des enzymes permettant le recyclage du NAD+, a un effet négatif sur la résistance aux traitements et le caractère invasif de plusieurs types de cancers».

     

    Il apparaît donc crucial de mieux comprendre les mécanismes qui contrôlent la synthèse et la consommation de NAD+. Pour aller dans ce sens, l'étude ici présentée a effectué une analyse «de façon intégrée dans un organisme modèle particulièrement bien adapté aux analyses génétiques et métaboliques, la levure Saccharomyces cerevisiae». Au bout du compte, «un processus physiologique complexe de co-régulation permettant de coupler la synthèse de NAD+ à la disponibilité en ATP dans la cellule» a été découvert.

     

    Concrètement, «cette étude met en lumière des mécanismes établis au cours de l’évolution pour moduler la quantité intracellulaire de ce métabolite clef»: plus précisément, «elle montre que le NAD+ intracellulaire est couplé à l’ATP par deux mécanismes distincts, l’un transcriptionnel affectant la voie de synthèse de novo du NAD+ et l’autre enzymatique modulant sa voie de recyclage».

     

    Ces mécanismes de régulation, qui «s’intègrent dans un réseau plus vaste conduisant à la synthèse concertée de nombreux métabolites (purines, pyridines, dérivés foliques, acides aminés) ainsi qu’à l’utilisation du phosphate inorganique», impliquent «deux messagers intracellulaires, l’ATP lui-même et un intermédiaire de la voie des purines le ZMP (AICAR monophosphate)». Autrement dit, on est «dans un schéma de connexion des voies métaboliques entre elles via des 'molécules sentinelles' qui informent en permanence la cellule de son état métabolique et génèrent des réponses adaptées».

     

    Ainsi, comme l'ATP est «une molécule clef de l’état énergétique des organismes vivants», cette étude «révèle une connexion directe entre l’état énergétique et la synthèse d’une molécule pivot des mécanismes de vieillissement». Désormais, un sujet d’exploration prometteur est d'établir «si ce couplage est conservé chez d’autres organismes».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Developmental regulation of regenerative potential in Drosophila by ecdysone through a bistable loop of ZBTB transcription factors» ont été publiés dans la revue PLOS BIOLOGY, a permis de décrire comment le potentiel régénératif peut être découplé de la progression développementale pour faciliter la régénération des tissus chez une larve plus âgée de la mouche drosophile. Cette avancée contribue à mieux comprendre comment réactiver transitoirement le processus de régénération qui «est un Graal pour la médecine réparatrice».

     

    Rappelons tout d'abord que, chez les mammifères, «la capacité des tissus à se régénérer diminue drastiquement vers la fin de l’embryogenèse», tandis que «certains organismes, comme les hydres, soient dotés de capacités de régénération remarquables tout au long de leur vie». Alors que, jusqu'à présent, «les mécanismes impliqués dans cette perte sont en grande partie inconnus», l'étude ici présentée a fait appel au «puissant système génétique qu’est la mouche drosophile, qui comme les mammifères subit une restriction de sa capacité régénérative lors du développement».

     

    Concrètement, alors que «les disques imaginaux chez la larve, précurseurs des organes adultes, peuvent se régénérer complètement s'ils sont endommagés au début du développement larvaire, mais perdent cette capacité si ces dommages sont induits vers la fin de développement larvaire», cette étude fait apparaître «que la restriction du potentiel régénératif à la fin des stades larvaires est due à la production d’une hormone stéroïdienne, l’ecdysone». Elle montre ainsi qu'en «manipulant génétiquement la voie de signalisation à l’ecdysone», les capacités de régénération de la progression du développement ont pu être découplées.

     

    De plus, il a été mis en évidence «que la production d’ecdysone déclenche une transition dans l’expression de deux facteurs de transcription appelés Chinmo et Broad: alors que Chinmo maintient un état indifférencié au début du développement, Broad active la différenciation à la fin du développement et ce changement restreint les capacités de régénération des tissus larvaires».

     

    Au bout du compte, ce travail, qui identifie «un signal développemental clé qui limite le potentiel de régénération des insectes», ouvre «de nouvelles perspectives pour élucider la façon dont les programmes de transcription autorisant la régénération sont verrouillés à mesure que le développement progresse».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Males as somatic investment in a parthenogenetic nematode» ont été publiés dans la revue Science, a permis d'en apprendre plus sur le ver Mesorhabditis belari dont les mâles servent uniquement à aider les femelles à produire des clones d’elles-mêmes.

     

    Relevons tout d'abord que le jeune biologiste Victor Nigon présentait, en 1949, «dans son travail de thèse ses observations sur la reproduction de diverses espèces de nématodes, des petits vers ronds vivant dans les sols» parmi lesquels «le ver Mesorhabditis belari chez qui les rares mâles présents dans la population sont nécessaires à la reproduction bien que le matériel génétique des spermatozoïdes soit rarement utilisé par l’ovule», car le plus souvent «l'embryon qui se développe donne naissance à une femelleclone de sa mère».

     

    Pour sa part, l'étude ici présentée, «soixante-dix années plus tard», confirme «les premières observations de Victor Nigon», tout en notant «que dans les 9 % des cas où le matériel génétique est utilisé après fécondation, l’embryon donne naissance à un mâle» de sorte que «les mâles ne peuvent disséminer leurs gènes qu’à leurs fils». Il en ressort que M. belari représente «un cas unique, où les mâles n’ont pas de contribution génétique, et peuvent être vus comme une simple extension des femelles pour les aider à démarrer le développement de leurs œufs».

     

    En fait, «si les mâles ne servent pas à disséminer les gènes de leur mère, alors il faut qu’ils servent au moins à ce que la mère produise le plus de descendants possibles», ce qui n’est possible seulement «si les fils qu’une femelle produit aident ses propres filles à produire un grand nombre d’embryons». Autrement dit, il en est ainsi «si les mâles fécondent préférentiellement leurs sœurs».

     

    L'étude a ensuite cherché à expliquer, en «utilisant la 'théorie des jeux'», pourquoi la proportion de 9 % de mâles a «été retenue au cours de l’évolution, et non 2 % ou 20 % par exemple». Il est alors apparu «que produire 9 % de mâles était une stratégie évolutivement stable : cette quantité est suffisante pour s’assurer qu’un maximum de descendantes femelles soient produites, sans pour autant gaspiller trop de ressources dans la production de mâles dont les gènes n’ont aucun avenir».

     

    Rappelons ici qu'au «contraire de la sexualité, où des individus de sexe mâle permettent le brassage génétique avec les femelles», l'asexualité «est un mode de reproduction où des espèces composées uniquement de femelles produisent des clones d’elles-mêmes». Ainsi, «M. belari présente un cas nouveau, où des mâles peuvent être utiles à la reproduction des femelles, même sans brassage génétique». Il reste désormais à «comprendre comment un tel mode de reproduction a pu émerger» et à tester «la stabilité de l’espèce M. belari via l’étude de son génome».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «A distance to the Large Magellanic Cloud that is precise to one per cent» sont publiés dans la revue Nature, a permis de déterminer, avec une précision inégalée et symbolique de 1 %, la distance au Grand Nuage de Magellan (GNM), galaxie satellite la plus proche de la Voie Lactée.

     

    Le Grand Nuage de Magellan sert de point d’ancrage pour étalonner les échelles de distance dans l’Univers. C’est dire l’importance de ces travaux récents qui, par échafaudage, mènent à la détermination de la constante de Hubble, une quantité fondamentale en cosmologie qui caractérise le taux d’expansion de l’Univers.

     

    Relevons tout d'abord que «le Grand Nuage de Magellan abrite un grand nombre de céphéides», des étoiles supergéantes pulsantes «particulièrement brillantes», qui «se singularisent par la relation existant entre leur période de variation lumineuse et leur luminosité intrinsèque: les céphéides varient avec une période d’autant plus longue qu’elles sont plus brillantes, selon la loi de Leavitt» découverte «par l'astronome américaine Henrietta Leavitt en 1908 grâce à l'étude des céphéides du Grand Nuage de Magellan, où plus de 4000 céphéides sont aujourd'hui répertoriées».

     

    La loi de Leavitt, «appliquée aux céphéides détectées dans les galaxies lointaines», permet «d’étalonner la luminosité intrinsèque d'un indicateur secondaire de distance permettant d'aller encore plus loin: les supernovae de Type 1a ou SN1a» qui sont des explosions d'étoiles rares «mais extrêmement brillants, et donc détectables à de très grandes distances de plusieurs milliards d'années-lumière».

     

    Ainsi, grâce aux supernovae SN1a, «les astronomes cartographient l’univers, et peuvent déterminer le taux d’expansion de l’univers, quantifié par la constante de Hubble H0». En outre, «ces mesures de distance obtenues de proche en proche», permettent d'étudier «un des problèmes les plus épineux de la cosmologie moderne: la nature de l’énergie noire».

     

    Comme, actuellement, «il existe dans la littérature plusieurs centaines d’estimations de distance du Grand Nuage de Magellan, basées sur un grand nombre d'indicateurs de distance astrophysiques différents, dont les céphéides» (chaque méthode ayant ses propres biais), l'étude ici présentée, réalisée «au sein du projet international Araucaria», s'est focalisée sur «des étoiles binaires à éclipses situées dans le Grand Nuage de Magellan» qui «s'éclipsent mutuellement à intervalle régulier».

     

    La technique employée par cette étude s'appuie d'abord sur le fait que «les variations de lumière enregistrées lors des éclipses, associées aux variations de vitesse de chacune des deux étoiles, permettent de contraindre avec une grande précision leurs diamètres linéaires» et elle utilise ensuite «le fait que ces étoiles émettent de la lumière selon une relation très précise entre la température ou la couleur de l’étoile, sa magnitude apparente et son diamètre angulaire (sa taille apparente)». Ainsi, «la combinaison de l’estimation du diamètre linéaire des deux étoiles de la binaire à éclipse, avec celle de leurs diamètres angulaires, permet d’obtenir une mesure précise de sa distance».

     

    Cependant, comme «les binaires à éclipses visées dans cette étude sont des objets 'froids' et qui émettent relativement peu de lumière», l'application pratique de cette technique est difficile. Concrètement, «l’équipe du projet Araucaria a suivi près de 35 millions d’étoiles dans le GNM pendant plus de 20 ans» et «sur ces 35 millions d’objets, vingt binaires à éclipses seulement ont été soigneusement sélectionnées, puis suivies à l'aide de grands télescopes pendant plus de 15 ans».

     

    Au bout du compte, «en combinant la distance estimée des vingt binaires à éclipse observées, l’équipe a mesuré une distance au GMN de 162 000 années-lumière, soit 1 530 000 000 000 000 000 km (1,53 milliard de milliards de kilomètres) avec une précision encore jamais atteinte de 1 %».

     

    Soulignons ici que «l’obtention d’une telle précision n’aurait pas été possible sans un nouvel étalonnage de la relation entre la couleur de l’étoile, sa magnitude apparente et son diamètre angulaire» et que l'observation a été réalisée «grâce à l'instrument français PIONIER placé au foyer du grand interféromètre optique européen de l'Observatoire Européen Austral (ESO), le Very Large Telescope Interferometer (VLTI) installé au nord du Chili».

     

    Il en découle que «la première mesure de distance d'une galaxie» avec cette précision donne «la meilleure référence absolue pour l'échelle des distances extragalactiques et donc pour la mesure de la constance de Hubble, actuellement objet d'une controverse». En outre, cette mesure est fondamentale «pour mieux comprendre la nature de la mystérieuse énergie noire».

     

    Parmi les autres retombées attendues, il y a «une meilleure connaissance de toutes les classes d'objets célestes situés dans le GMN, ou encore l’étalonnage et la validation d'autres méthodes de mesure de distance, par exemple les mesures de parallaxes obtenues par le satellite européen Gaia de l'Agence Spatiale Européenne (ESA)».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Human sound systems are shaped by post-Neolithic changes in bite configuration» ont été publiés dans la revue Science, révèle que le développement de l'agriculture au néolithique en Europe aurait permis aux populations de prononcer distinctement les sons 'F' et 'V'. C'est la première fois que des travaux rigoureux relient directement l'alimentation aux capacités linguistiques.

     

    Relevons tout d'abord qu'alors que «certains sons existent partout sur le globe comme le son 'm' et le 'a'», d'autres «sont plus rares, comme les clics de certaines langues de l'Afrique australe». Généralement, on pense que la large gamme de sons du langage humain «est apparue avec l'émergence de l'Homo sapiens il y a environ 300.000 ans».

     

    Pour sa part, l'étude ici présentée s'est intéressée à l'influence de la révolution néolithique qui a engendré d'immenses bouleversements «à partir d'approximativement 8000 ans en Europe». Dès cette époque, les populations de chasseurs-cueilleurs ont été remplacées par des populations qui maîtrisaient l'agriculture ou intégrées à elles.

     

    De ce fait, les hommes sont passés d'une alimentation peu transformée «à des mets plus raffinés et faciles à ingérer». Ce changement de régime alimentaire «a pu, dans un premier temps, s'accompagner de certaines carences», car «les populations pouvaient avoir tendance à manger tout le temps la même chose» puisque «les aliments transformés demandent moins d'efforts de mastication».

     

    A ce propos, notons que la mastication fatigue la mâchoire qui a tendance à se déformer: «les dents subissent alors un phénomène d'érosion» et «l'espace entre les mâchoires supérieure et inférieure se resserre au niveau des dents de devant». A cause de cela, «les hommes avaient beaucoup plus de difficulté à prononcer les sons proches du ceux assimilés aux lettres 'f' et 'v' qui demandent une légère aspiration de la lèvre inférieure et un contact entre la lèvre inférieure et les incisives supérieurs», un son «que l'on retrouve pourtant dans 50% des langues parlées dans le monde».

     

    En réalité, «Manger des aliments plus mous n'a pas, à proprement parler, ouvert de nouvelles capacités», c'est le fait de manger des aliments durs qui «limite la probabilité de voir ces sons diversifiés sortir de nos bouches», car si «nos ancêtres avaient peut-être toute la palette linguistique à leur portée», leur vie quotidienne et particulièrement la nourriture «a favorisé certaines sonorités», donnant des langues si différentes.

     

    Pour faire sa démonstration, cette étude a combiné «des données et des méthodes issues de différentes sciences, y compris l'anthropologie biologique, la phonétique et la linguistique historique» à partir «de vastes ensembles de données récemment développés et des modèles de simulation biomécaniques détaillés». Il est ainsi apparu «que la prononciation ou non du son 'f' n'est pas déterminée par des facteurs génétiques», mais «essentiellement par l'environnement dans lequel évoluent les individus».

     

     


    votre commentaire