•  

    Une étude, dont les résultats intitulés «Extended stellar systems in the solar neighborhood II. Discovery of a nearby 120° stellar stream in Gaia DR2» sont publiés dans la revue Astronomy & Astrophysics, a permis, grâce au relevé Gaia DR2, d'identifier, dans la Voie lactée, un courant stellaire jusqu'alors inconnu, composé de 4.000 étoiles se déplaçant ensemble à une vitesse à peu près similaire depuis 1 milliard d'années.

     

    Rappelons tout d'abord que «les courants stellaires sont des rémanents d'amas globulaires ou de galaxies naines étirés par les forces de marée galactiques» et que «plusieurs d'entre eux ont déjà été découverts dans la Voie lactée, essentiellement dans son halo». Le nouveau venu a été découvert en analysant la vitesse des étoiles dans un rayon de 300 parsecs (un peu moins de 1.000 années-lumière) autour de notre Soleil.

     

    Ce courant stellaire, qui «se trouve tout proche de nous, à 326 années-lumière, et barre presque qu'entièrement le ciel de l'hémisphère sud», provient «d'un amas stellaire et est particulièrement grand (1.300 années-lumière de long) et massif pour un courant évoluant au sein du disque galactique». En fait, «seules 200 de ses étoiles ont été effectivement observées par le satellite Gaïa», mais l'étude estime «qu'il en contiendrait au moins 4.000». Cette découverte devrait «notamment contribuer au calcul de la masse de la Voie lactée».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Mapping Solar System chaos with the Geological Orrery» sont publiés dans la revue PNAS, a permis, grâce à l’analyse de données géologiques, de faire sauter de barrière supposée de 60 millions d’années dans le passé, qui, «à cause de la nature chaotique du Système solaire» semblait rendre impossible le calcul de la position et de l’orbite des planètes au-delà de celle-ci.

     

    Relevons tout d'abord que «contrairement à l’image que l’on peut s’en faire, les planètes ne tournent pas autour du Soleil sur des orbites fixes, réglées précisément comme sur un planétaire mécanique». En fait, «tous les objets de notre Système solaire influencent le mouvement des autres, un peu comme s’ils étaient connectés par des ressorts : une petite perturbation en un point du système se répercute sur l’ensemble des planètes, qui tendront à revenir à leur position initiale» de sorte que «les orbites des planètes sont animées d’un mouvement de lente rotation autour du soleil, et oscillent autour de leur valeur moyenne».

     

    Dans ce contexte, les travaux de Jacques Laskar ont, depuis 1989, appris aux astronomes «que ces oscillations sont irrégulières, ou chaotiques, et que leurs calculs ne peuvent pas permettre de remonter au-delà de 60 millions d’années (Ma) pour comprendre l’état passé du Système solaire», car «les incertitudes dues à la nature chaotique du Système solaire» sont «multipliées par 10 tous les 10 Ma».

     

    Aujourd'hui, cette limite vient d’être levée puisque cette étude montre «comment des données géologiques pouvaient permettre de repousser l’horizon de prédictibilité du Système solaire jusqu’à 200 Ma». La démonstration fait appel «aux célèbres paramètres de Milankovitch» découlant du fait qu'une partie «des modifications climatiques du passé est due aux variations de l’insolation à la surface terrestre résultant des modifications de son orbite». Comme «ces changements climatiques passés ont laissé des traces sur Terre, dans les strates géologiques», il est possible, «à partir des observations stratigraphiques», de «déterminer les paramètres de l’orbite terrestre, et d’en déduire l’état des autres planètes».

     

    Ainsi, «des données quantitatives sur l’état passé du Système solaire» ont pu être extraites «grâce à deux importants forages dans des couches géologiques du continent nord-américain». Par exemple, il est apparu «qu’il y a 200 Ma l’excentricité de la Terre oscillait avec une période de 1,7 Ma, contre une période de 2,4 Ma aujourd’hui», ce qui constitue également «une preuve géologique de la nature chaotique du Système solaire: s’il était régulier, on retrouverait la même période que celle observée actuellement».

     

    Ces résultats devraient pouvoir être affinés «grâce à l’étude d’autres dépôts géologiques en haute latitude qui permettrait de donner une information complémentaire sur les variations de l’orientation des orbites planétaires».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Can the original equations of a dynamical system be retrieved from observational time series?» sont publiés dans la revue Chaos, a permis de démontrer qu’il était possible, pour au moins 28 cas théoriques, de remonter aux équations originales de la dynamique directement à partir de séries temporelles observées.

     

    Rappelons tout d'abord que «dans le passé, la démarche pour obtenir les équations qui décrivent des processus dynamiques se faisait par un va-et-vient entre observation et théorie, les observations servant de base pour construire notre représentation théorique du monde, puis d’élément de validation ou d’invalidation».

     


    Cependant, «autour des années 1980», a émergé, «dans les domaines de l’ingénierie électrique et des statistiques», l’idée «d’obtenir des équations directement à partir de séries temporelles d’observations». Si les premiers développements étaient «essentiellement linéaires et donc peu adaptés aux phénomènes réels», «au cours des années 1990» «les premiers modèles ont pu être obtenus pour des dynamiques non linéaires, et ce pour des cas théoriques et expérimentaux».

     

    Bien que «ces premiers modèles, reconstruits automatiquement à partir de séries temporelles, permettaient de reproduire la dynamique originale de façon très satisfaisante», pour des raisons d’équifinalité (*), «les équations obtenues n’étaient pas nécessairement celles des systèmes originaux».


    Par la suite, en 2015, un modèle inattendu «à 3 équations a pu être obtenu pour décrire la dynamique de l’épidémie de peste qui a sévi à Bombay (aujourd’hui Mumbai) au début du XXe siècle»: il était inattendu, «car permettant de formaliser mathématiquement, directement à partir d’observations, le couplage dynamique entre le nombre de décès humains et le nombre de cas d’infection de deux groupes de rongeurs (rats noirs et rats bruns)» avec «une formulation très différente de celles des modèles communément utilisés en épidémiologie». Comme «une interprétation éco-épidémiologique de chacun des termes de ce modèle» a pu aussi être proposée, ce modèle a laissé «entrevoir l’idée que les équations responsables de la dynamique d’un système peuvent être directement extraites de données observationnelles».


    Dans ce contexte, l'étude ici présentée est le fruit d'un ensemble d’expérimentations numériques mis en place «pour tester la possibilité de remonter aux équations originales en partant de séries temporelles issues de l’intégration numérique d’équations aux dérivées ordinaires». Pour cela, il a été fait appel à «l'algorithme GPoM (Generalized polynomial modelling) qui avait été utilisé pour obtenir le modèle éco-épidémiologique de peste évoqué ci-dessus» en «suivant la même procédure de recherche de modèle».

     

    Notons que cet algorithme, qui «s’appuie sur la technique de modélisation globale initiée au cours des années 1990», vise «à obtenir des équations aux dérivées ordinaires polynomiales directement à partir de séries observationnelles». Alors qu'initialement, «cette technique était destinée à être appliquée à une variable unique», l'algorithme GPoM utilisé dans cette étude, qui «s’appuie sur le même formalisme théorique», a été modifié et généralisé pour travailler pour fonctionner avec plusieurs variables.



    La première série d’expérimentations numériques a été conduite pour tester «le potentiel de l’approche sur un système particulier, le système chaotique de Rössler-1976» (**), qui «a été choisi pour sa capacité à générer une certaine complexité dynamique à partir d’une formulation très simple (trois variables et une seule non-linéarité pouvant donner lieu à une trajectoire imprévisible à long terme)».

     

    Cette approche «a également été testée en situations dégradées, en modifiant la longueur des séries temporelles, leur échantillonnage, les conditions initiales, le régime dynamique (notamment périodique ou chaotique), ou encore en bruitant les observations et en perturbant le système». Au bout du compte, «ces expérimentations ont prouvé la possibilité de retrouver les équations originales de ce système particulier».

     

    Puis, une deuxième série d’expérimentations a «été menée pour explorer la généralité du résultat en appliquant le même outil sur de nombreux systèmes dynamiques». Concrètement, «vingt-sept autres systèmes ont été testés, toujours de petite dimension (jusqu’à cinq variables), mais tous non triviaux et très diversifiés dans leurs propriétés dynamiques, géométriques, algébriques, statistiques et topologiques».

     

    Plus précisément, «ces systèmes incluaient des modèles de convection, de climat, de particules dans une boîte, de croissance tumorale, de dynamo terrestre, d’oscillateurs couplés, de dynamique de population, ainsi que de nombreux cas purement mathématiques». En outre, «l’algorithme de modélisation étant polynomial, quatre systèmes non polynomiaux ont également été inclus dans cet ensemble afin d’identifier les risques de mésinterprétation».


    Finalement, cette seconde série d’analyses a «permis de montrer la puissance de l’outil, la plupart des équations originales étant retrouvées, souvent complètes, parfois partielles, selon la concision des systèmes considérés (nombre de termes), et généralement sans détections erronées». Plus particulièrement, «les résultats des tests appliqués aux systèmes non polynomiaux les plus complexes n’ont pas été faussement associés à des modèles polynomiaux (toutes les équations ayant été rejetées) tandis que les formulations obtenues pour les systèmes non polynomiaux moins complexes correspondaient elles à une approximation formelle en séries de Taylor». Globalement, «les résultats se sont avérés robustes au bruit, le niveau de tolérance pouvant toutefois varier fortement d’un système à l’autre».

     

    En conséquence, cette étude renforce l’idée qu’il est possible de remonter aux équations originales d’un système «lorsque celui-ci est polynomial et suffisamment concis (dans le meilleur des cas, jusqu’à 9 termes pour une reformulation complète)», et aussi lorsqu’une «formulation approchée peut également être obtenue lorsque les équations originales sont proches d’une formulation polynomiale».

     

    Il en résulte que, «en gardant en tête le potentiel de l’approche à obtenir une formulation concise des équations», il est «envisageable de proposer une interprétation contextuelle (biologique, physique, chimique, épidémiologique, etc.) pour les termes des modèles obtenus avec cet outil».

     

     

    Lien externe complémentaire (source Wikipedia)

    (*) Équifinalité

    (**) Attracteur de Rössler

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Algal Remodeling in a Ubiquitous Planktonic Photosymbiosis» ont été publiés dans la revue Current Biology, a permis, grâce aux technologies d’imagerie subcellulaire notamment développées à Grenoble, de montrer que la symbiose, observée dans tous les océans du globe, entre les acanthaires (*) et une micro-algue appelée Phaeocystis, profite essentiellement aux acanthaires (hôtes), car l'architecture cellulaire et le métabolisme des micro-algues Phaeocystis sont vraisemblablement modifiés en symbiose par l'acanthaire pour bénéficier des produits de la photosynthèse.

     

    Relevons tout d'abord que l'équipe auteure de cette étude a découvert, en 2012, «non seulement que la symbiose des acanthaires, organismes unicellulaires du groupe des radiolaires, et des Phaeocystis, une algue unicellulaire du phytoplancton, se retrouve dans toutes les mers du globe, mais également que les algues une fois intégrées aux acanthaires changent d'aspect par rapport à leur vie libre».

     

    La question de savoir si cette association était «vraiment à l’avantage des deux organismes» s'est alors posée, car il semblait qu’une fois intégrée à l’acanthaire, l'algue ne parvenait plus à se diviser alors que ses chloroplastes, lieu de la photosynthèse, se multipliaient. À l’époque, on ne pouvait pas le vérifier, car les techniques pour «observer précisément ce qui se passe dans les cellules» n'étaient pas disponibles.

     

    Aujourd'hui, la réponse a pu être obtenue «grâce aux technologies d’imagerie subcellulaire notamment développées à Grenoble, et au Synchrotron Européen de Grenoble (ESRF)», plus précisément «la microscopie électronique 3D, le nanoSIMS, la fluorescence rayons X de l'ESRF» complétées par des analyses physiologiques: en fait, cette étude a révélé «un nouveau mode de photosymbiose, qui ne correspond pas du tout à ce que l’on observe chez les coraux ou les lichens par exemple» [on parle de photosymbiose «lorsqu’une symbiose fait intervenir un organisme (comme une micro-algue) qui utilise la photosynthèse»].

     

    Ainsi, il est apparu qu'au sein de l’acanthaire, «les micro-algues subissent une transformation radicale de leur organisation structurelle et de leur métabolisme», une transformation, «vraisemblablement induite par l'acanthaire», qui «maximise l'activité photosynthétique de l’algue». En particulier, il a été «observé une augmentation du volume des micro-algues mais aussi la multiplication de chloroplastes volumineux et de leurs membranes photosynthétiques qui augmentent significativement la surface photosynthétique».

     

    En outre, «la visualisation des nutriments à l'intérieur des cellules, possible grâce à l ́imagerie chimique, montre que le rapport azote sur phosphore, augmente de manière significative dans les micro-algues symbiotiques». De son côté, le rayonnement synchrotron de l’ESRF a permis de constater «que les micro-algues contiennent de grandes quantités de métaux essentiels (fer et cobalt) fournis par l'hôte et stockés dans des vacuoles d'algues à forte concentration, et qu’elles sont appauvries en phosphore comparativement aux espèces libres, ce qui pourrait expliquer l'absence de division cellulaire au sein de l'hôte».

     

    En conséquence, la photosymbiose des acanthaires et des Phaeocystis se traduit «par un remodelage morphologique et métabolique extrême des micro-algues, qui n ́avait jamais été observé auparavant dans d ́autres photosymbioses comme celle entre le corail et ses microalgues». En réalité, cette symbiose planctonique répandue et abondante entre les acanthaires et Phaeocystis semble correspondre davantage à une stratégie de l'hôte visant à réduire la croissance de ses symbiotes tout en maximisant leur photosynthèse et leur rendement». Autrement dit, il s'agit d'une «'culture' (ou 'farming') d’algues par l’acanthaire, ou un parasitisme inverse où le 'grand' parasite le 'petit'».

     

    En fin de compte, les observations réalisées dans cette étude apportent «un changement radical dans la compréhension du fonctionnement d'une relation symbiotique clé des écosystèmes marins». Il en résulte «également de nouvelles hypothèses pour essayer de comprendre ce qui s’est passé au cours de l’évolution», concernant notamment les processus par lesquels un hôte peut «prendre le contrôle d’une algue et intégrer une fonction photosynthétique».

     

    Lien externe complémentaire (source Wikipedia)

    (*) Acantharea

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «The peculiar velocity field up to z ∼ 0.05 by forward-modeling Cosmicflows-3 data » ont été publiés dans la revue MNRAS, dévoile, grâce au développement d’une nouvelle méthodologie, la plus grande cartographie de l’Univers, montrant les mouvements de la matière noire, dans un rayon d’un milliard d’années-lumière autour de nous soit un volume 10 fois plus grand que le précédent.

     

    Rappelons tout d'abord qu'il y a cinq ans, «notre supercontinent de galaxies, appelé Laniakea, était révélé grâce à l’étude des mouvements de galaxies: les flux cosmiques», de sorte que notre Univers proche était «cartographié de manière précise mais surtout dynamique».

     

    Cependant, depuis cette découverte, «l’exploration de notre environnement immédiat cosmique était en panne de percée», car il était «impossible de voir au-delà de Laniakea» en raison du fait que «plus les galaxies sont distantes, plus les erreurs des mesures tendent à empêcher les astrophysiciens de retrouver précisément les positions des galaxies dans l’Univers».

     

    Soulignons ici que l'absence de cartographie précise empêche «de calculer les grands flux cosmiques cohérents» et «de comprendre les grandes régions de matière noire qui engendrent ces mouvements» alors que «la compréhension de cette matière invisible est l’une des deux grandes questions à élucider au 21e siècle pour les cosmologues» et que «l’autre question brûlante concerne l’expansion de l’espace: la distance entre les galaxies ne cesse d’augmenter, et ce de plus en plus vite» («une mystérieuse énergie sombre» [ou énergie noire]  pourrait expliquer cette augmentation d'expansion).

     

    Dans ce contexte, l’équipe d’astrophysiciens auteure de l'étude ici présentée «observe chaque année davantage de galaxies grâce aux télescopes géants en Australie, aux USA, en France, etc.», en vue «de fournir une carte de l’Univers toujours plus précise et d’apporter des éléments de réponse à ces deux grandes énigmes»: concrètement, si, au commencement du projet, il y avait «seulement 2000 galaxies observées en 2008», ce chiffre est passé à 8000 en 2014, puis à 18000 en 2016 et «continue encore d’augmenter».

     

    Néanmoins, «bien que ces données soient publiquement distribuées à toutes les autres équipes en compétition mondiale, au bout de trois ans, aucun consortium ne réussissait encore à calculer la cohérence des mouvements des grands continents de galaxies». C'est alors qu'un «jeune doctorant lyonnais» lance «l’idée de modéliser les données en amont plutôt que de les analyser a posteriori, et répéter l’analyse des milliers de fois afin d’explorer toutes les erreurs systématiques qui faussent les mesures».

     

    Au bout du compte, cette «nouvelle méthodologie made in France» aboutit à nous faire «contempler des cartes de 1/45e de l’Univers observable», de sorte que «les nouveaux continents découverts tels qu’Apus, Pisces-Cetus, Telescopium, Lepus, Shapley, Hercules, rejoignent la liste du seul continent précédemment cartographié: Laniakea».

     

     


    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique