•  

    Une étude, dont les résultats intitulés «The fates of Solar system analogues with one additional distant planet» sont publiés dans la revue MNRAS et disponibles en pdf sur arxiv.org, s’est intéressée aux migrations futures des planètes quand le Soleil quittera la 'séquence principale' pour devenir une géante rouge, en tenant compte de l’influence de la neuvième planète du Système solaire dont on soupçonne aujourd'hui l’existence.

     

    Rappelons tout d'abord que «selon le scénario de l’évolution stellaire, le rayon du Soleil sera multiplié par 230 et sa luminosité par 4.000 dans environ 6,5 milliards d’années quand il deviendra une géante rouge». Après être resté «dans cet état durant environ 800 millions d’années», il atteindra le stade de naine blanche dans lequel «sa densité sera telle que sa taille sera alors comparable à celle de la Terre».

     

    Au cours de son stade de géante rouge, le Soleil avalera «MercureVénus et probablement la Terre» tandis que «Mars devrait survivre» alors que les corps célestes de la ceinture d’astéroïdes devrait être «fortement perturbés». De leur côté, «les géantes gazeuses devraient se contenter de migrer gentiment avec des rayons orbitaux multipliés par un facteur deux en réponse aux modifications du champ de gravité du Soleil», car notre étoile aura «perdu au moins la moitié de sa masse sous forme de vents solaires puissants».

     

    Les calculs développés dans l'étude ici présentée indiquent que, «si la neuvième planète existe bien et qu’elle est suffisamment massive (au moins une superterre)», il y a «des combinaisons de masses et de distances au Soleil qui conduisent à des instabilités des orbites des autres géantes, en particulier Uranus et Neptune».

     

    Il en résulte que ces perturbations devraient plonger le système solaire dans le chaos, aboutir «à l’éjection d’au moins une des géantes gazeuses du Système solaire» et probablement conduire «à des collisions entre les planètes, voire avec le Soleil quand il ne sera plus qu'une naine blanche».

     

    Pour finir, soulignons que ce scénario «pourrait être représentatif de l'évolution des autres systèmes planétaires de la Voie lactée» du fait que «l'analyse de la composition des atmosphères des naines blanches a révélé que beaucoup d’entre elles contenaient des taux anormalement élevés de certains éléments dont la présence ne peut s’expliquer que par l’accrétion de grandes quantités de matière issues d’astéroïdes et même de collisions planétaires».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Constraints on Cosmology and Gravity from the Dynamics of Voids» ont été publiés dans la revue Physical Review Letters et sont disponibles en pdf sur arxiv.org, a permis de mettre en évidence de nouvelles contraintes sur la relativité générale à l'aide des vides cosmiques qui sont des zones de l'univers où la densité de matière est très faible.

     

    Relevons tout d'abord que «la matière dans l'univers est organisée dans l'espace en quatre types de structures : amas, murs, filaments, et vides cosmiques». Pour leur part, les vides cosmiques «occupent près de 75% du volume de l'univers». Leur contenu en matière (sombre ou lumineux) «est concentré sur leur bord» de manière prédominante: en effet, «le reste de la matière contenue dans la partie centrale de ces vides est attiré vers cette frontière, ce qui entraîne une diminution de la quantité de matière avec le temps».

     

    Comme «ces vides comportent néanmoins quelques galaxies qui permettent d'illuminer leur comportement dynamique», ces objets peuvent être assimilés à «des 'laboratoires' de choix pour étudier la physique de la gravité ainsi que l'énergie noire».

     

    C'est la raison pour laquelle l'étude ici présentée a employé de nouvelles techniques d'analyse développées depuis une dizaine d'année pour extraire de ces régions particulières de l'univers «des informations cosmologiques, et plus particulièrement des contraintes sur la physique de l'énergie noire».

     

    Plus précisément, «ces techniques s'appuient sur la vitesse apparente totale des galaxies qui s'échappent d'un vide cosmique 'moyen'». Cette vitesse apparente est, en fait, «induite par deux phénomènes physiques»: elle résulte pour une part de «la vitesse d'expansion de l'univers qui dépend de l'éloignement du vide considéré depuis l'observateur (aussi nommé effet Alcock-Paczyński)» et pour une autre part «des mouvements engendrés par le contenu matériel du vide cosmique lui-même, c'est-à-dire principalement l'expulsion de la matière vers la limite du vide (effet Kaiser)».

     

    Cette technique a été appliquée aux galaxies composant le Sloan Digital Sky Survey 3 (SDSS3), «un relevé profond de plus d'un million de galaxies du ciel de l'hémisphère nord». Les mesures des caractéristiques moyennes «des vides cosmiques qui y ont été identifiés» ont permis d'établir «des contraintes sur les paramètres cosmologiques» et le «couplage entre la matière et le champ de gravité».

     

    Ces contraintes, qui «vont au-delà de celles existantes tout en restant complémentaires», donnent «accès à de l'information sur la physique du cosmos à une échelle de l'ordre de quelques dizaines de millions d'années lumières» alors que «les autres indicateurs du champ de gravité en cosmologie s'appuient sur des échelles de l'ordre du milliard d'années lumières (par ex. le fond diffus cosmologique) ou au contraire quelques milliers (par ex. les galaxies)».

     

    De plus, «cette nouvelle méthode permet de tester la gravité dans des environnements isolés et peu denses». Ainsi, les résultats de cette étude confirment «le succès de la relativité générale» (la théorie de la gravitation d'Einstein) à rendre compte des observations.

     

    En ce qui concerne le futur, des «relevés profonds de galaxies (comme Euclid) permettront d'obtenir des contraintes sans précédent sur la relativité dans des régimes encore inexplorés à l'aide des vides cosmiques, notamment grâce aux 50 millions de galaxies et à une couverture en volume 10 fois plus grande».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Atmospheric drying as the main driver of dramatic glacier wastage in the southern Indian Ocean» sont publiés dans la revue Scientific Reports, a permis d'identifier les causes du recul record des glaciers de l’archipel des Kerguelen (49°S, 69°E) au cours des dernières décennies.

     

    Rappelons tout d'abord que «l'archipel des Kerguelen (49°S, 69°E) est un territoire français situé dans la région sub-Antarctique, au sud de l’océan Indien», sur lequel se trouve la calotte Cook, une calotte glaciaire «deux fois plus étendue que l’ensemble des glaciers des Alpes françaises», ce qui en fait «la zone englacée la plus vaste du territoire national».

     

    L'analyse de «l'évolution depuis 1850 de la calotte Cook à partir d’images satellitaires» montre que «sa taille ne la protégeait pas du changement climatique»: en effet, si la calotte est «restée stable entre 1850 et 1960, ses pertes de glace sont ensuite devenues brusquement très fortes, jusqu’à atteindre un record au cours des dix dernières années».

     

     

    L'étude ici présentée a donc cherché à identifier les causes ce déclin à partir de «l'analyse conjointe de l’évolution du glacier et des variations du climat depuis 1850». Il est ainsi apparu «que ce recul fort et continu était principalement dû à la sécheresse majeure qui sévit aux Kerguelen depuis le milieu des années soixante et qui s’est très largement accentuée depuis 1975, conduisant à la disparition progressive des chutes de neige sur la calotte». En outre, il a été évalué «que si le réchauffement atmosphérique concomitant aux Kerguelen a aggravé le processus, il n’a joué que pour un quart dans la perte de glace de la calotte depuis les années 1960».

     
    Il a été aussi déterminé «que cette sécheresse était liée à un déplacement des dépressions se propageant sur l’océan Indien : alors que celles-ci circulaient exactement au-dessus de l’archipel en 1950, elles évoluent aujourd’hui plus au sud et n’alimentent plus la calotte». Comme ce changement de circulation «résulterait de l’évolution des pressions atmosphériques aux moyennes et hautes latitudes de l’hémisphère sud, en lien avec le réchauffement climatique et la variabilité de la couche d’ozone en Antarctique», en définitive, les pertes record de glace aux Kerguelen seraient «une conséquence du changement climatique et du trou d’ozone, tous deux d’origine anthropique (consommation toujours croissante des combustibles fossiles et utilisation des gaz fréons dans le passé)».

     

    Enfin, l'étude indique «que la calotte devrait continuer à reculer au cours du XXIe siècle, jusqu’à disparaître au cours des prochains siècles». Cependant, «ces travaux de modélisation montrent que les modèles de climat actuellement utilisés pour effectuer les projections d’évolution du climat sous-estiment très largement l’assèchement observé à Kerguelen». Cette observation laisse donc penser «que l’avenir des glaciers de la région sub-Antarctique, où l’assèchement devrait se poursuivre» pourrait «être plus sombre que prévu».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Experimental characterization of extreme events of inertial dissipation in a turbulent swirling flow» ont été publiés dans la revue Nature Communications, a abouti, grâce à une nouvelle approche expérimentale qui permet d'analyser la dissipation d'énergie au sein des mouvements turbulents dans un liquide visqueux, à démontrer la présence à petite échelle de plusieurs types d'événements rares, mais intenses, de dissipation d'énergie par un processus indépendant de la viscosité.

     

    Soulignons tout d'abord que «la maîtrise de la dissipation d'énergie dans les écoulements fluides est un sujet de première importance dans un grand nombre de domaines, aussi variés que l'aéronautique, la navigation, l'astrophysique ou les études sur le climat».

     

    On peut résumer le phénomène de base en disant que «soumis à une agitation mécanique, un fluide visqueux est mis en mouvement et devient turbulent : son écoulement se structure en mouvements tourbillonnaires qui se ramifient sur plusieurs échelles allant de la taille du système (océan, lac, récipient,…) à l'échelle la plus fine, fonction de la viscosité», l'énergie injectée dans le fluide étant «finalement dissipée par effet de viscosité».

     

    Pour sa part, l'étude ici présentée a élaboré «une nouvelle approche expérimentale et théorique permettant de quantifier localement les transferts d’énergie jusqu'à l’échelle (inférieure au millimètre) où la viscosité opère». Le dispositif est constitué «d'un récipient transparent contenant un mélange eau-glycérol, en proportion variable pour ajuster la viscosité, agité par deux turbines».

     

    Pour matérialiser le mouvement du fluide transparent, «de fines particules de 10 microns sont dispersées dans le liquide, dont les trois composantes de vitesse sont mesurées à l'aide de deux caméras de haute résolution équipées d'optiques ajustables». Grâce au «suivi des vitesses de l'ensemble des particules», on peut avoir «une mesure globale et locale, du décimètre au millimètre, de l'évolution des mouvements turbulents permettant de calculer les transferts d’énergie».

     

    C'est ainsi que, pour la première fois, a été détecté «l’émergence d’événements extrêmes de dissipation non visqueuse, à des échelles où la viscosité est censée amortir tout mouvement et dissiper toute l’énergie». En outre, les champs de vitesses de ces événements extrêmes ont pu être classés en quatre types topologiques («fronts, spirales, jets et points de rebroussement»).

     

    Rappelons ici que «le développement de la cascade tourbillonnaire est complexe, mais cependant bien décrit par les équations de Navier-Stokes, à la base de toute la mécanique des fluides». Néanmoins, l'unicité des solutions de ces équations, qui «traduisent simplement les grandes lois de conservation (masse, impulsion et énergie)», n'est pas «mathématiquement établie». Ce problème constitue d'ailleurs «un des sept défis du millénaire retenus par le Clay Mathematics Institute, chacun d'eux étant doté d'un prix d’un million de dollars».

     

    Comme «l'apparition spontanée de singularités de dissipation de l'énergie est prédite par certains modèles», les structures mises en évidence dans cette étude «pourraient correspondre à des pré-singularités, événements précurseurs des singularités à petite échelle recherchées par les mathématiciens».

     

    En tout cas, la mise en évidence expérimentale par cette étude «de phénomènes de dissipation non visqueuse de l'énergie à petite échelle impose une contrainte forte sur toute modélisation hydrodynamique d'écoulement d'un fluide réel», car il apparaît qu'une «plus grande gamme d'échelle doit être considérée dans les simulations pour rendre compte du phénomène global», ce qui «pourrait modifier les principes mêmes des méthodes numériques actuellement utilisées».

     

     


    votre commentaire