-
Par Robert Brugerolles le 15 Juillet 2017 à 10:13
Une étude, dont les résultats intitulés «A global multiproxy database for temperature reconstructions of the Common Era» ont été publiés dans la revue Scientific Data, a abouti à la mise à jour, dans le cadre du projet 2kNetwork, de la base de données Past Global Climate Change (PAGES) qui répertorie et analyse depuis 2008, des enregistrements, publiés dans la littérature scientifique, de paléotempératures couvrant les deux derniers millénaires.
Indiquons tout d'abord que le première version de la base de données (PAGES2k, 2013) avait été suivie de «la publication d’une série d’articles scientifiques documentant les températures pour chaque continent et d’un article de synthèse des données de l’ensemble des continents».
La dernière version de la base de données, ici présentée, «contient près de 700 enregistrements» incluant les données océaniques qui ont été ajoutées (plus précisément, la base de données regroupe au total «692 enregistrements provenant de 648 sites géographiques, issus de tous les continents et océans»). Cette version 2.0 est «un outil essentiel de la reconstruction et de la modélisation du climat des deux derniers millénaires.
Rappelons ici que «notre connaissance des températures globales avant les mesures météorologiques en routine repose sur les données dites 'proxy', issues d’archives paléoclimatiques biologiques et géologiques qui fournissent des informations indirectes sur les températures passées»: par exemple, l'épaisseur des anneaux de croissance d'arbres «a tendance à être plus importante pendant les années plus chaudes, ce qui permet d’obtenir des estimations indirectes du changement de la température de l’air pendant toute la vie de l'arbre».
Pour sa part, la base de données PAGES2k comprend aussi «des proxys de paléotempératures provenant d'un certain nombre d’autres d’archives distinctes, notamment les coraux, les carottes de glace et les sédiments marins et lacustres».
Un examen de l’ensemble de cette base de données fait apparaître «une tendance au refroidissement à long terme jusqu'au 19e siècle, suivie d'une forte tendance au réchauffement qui inverse de manière remarquable l’évolution des températures de la période préindustrielle», un résultat «en accord avec un grand nombre d’études dans ce domaine de recherches, notamment les simulations paléoclimatiques ainsi que les résultats publiés sur la version antérieure, plus limitée, de la base de données PAGES2k».
votre commentaire -
Par Robert Brugerolles le 14 Juillet 2017 à 19:17
Une étude, dont les résultats intitulés «Reconciling solar and stellar magnetic cycles with nonlinear dynamo simulations» ont été publiés dans la revue Science, a permis, en mettant en évidence l'existence d'une puissante rétroaction entre le champ magnétique du soleil et les écoulements de fluide conducteur, de percer le mystère de l'inversion tous les onze ans en moyenne du cycle magnétique du Soleil.
C'est grâce à des données obtenues par différents programmes d'observation, qu'une «simulation informatique en 3D de l'intérieur d'étoiles semblables au soleil» a pu montrer que les variations du mouvement de rotation interne de fluide conducteur «déterminent la période du cycle»: il est ainsi apparu que «dans certains cas, comme pour le soleil, ce champ magnétique oscille sur une période décennale» tandis que pour d'autres étoiles les cycles magnétiques vont d'une à plusieurs dizaines d'années. Pour le Soleil, cette variation «va de huit à quatorze ans».
La compréhension du mécanisme fondamental, qui consiste, en fait, en «la découverte d'une loi d’échelle sur la période du cycle magnétique d’une étoile à partir de simulations 3D turbulentes auto-cohérentes» est une première mondiale. Ce mécanisme qui détermine la longueur des cycles «va permettre de faire de la prévision à long terme sur le cycle lui-même» du Soleil.
Cette capacité «intéressera particulièrement les industriels et opérateurs de satellites qui pourront ainsi mieux prévoir les futures éruptions solaires», dire si le prochain cycle magnétique du soleil d'ici dix ou vingt ans sera intense, long ou court ce qui permettra de savoir, entre autres, quel type de satellites peut être mis sur orbite et les fenêtres de tir les plus favorables».
Cette étude, qui a démontré que «le cycle de onze ans est le cycle principal de toutes les étoiles de type solaire», devrait également permettre par «les simulations du magnétisme des étoiles de type solaire «de mieux exploiter les données scientifiques récoltées lors des futures missions de l'Agence spatiale européenne (ESA)».
votre commentaire -
Par Robert Brugerolles le 14 Juillet 2017 à 09:43
Une étude, dont les résultats intitulés «Tundra uptake of atmospheric elemental mercury drives Arctic mercury pollution» sont publiés dans la revue Nature, a permis, grâce à deux ans de mesures en Alaska, de comprendre pourquoi l'océan Arctique et sa faune sont si contaminés par le mercure, alors qu'ils sont éloignés des principales sources de pollution.
Soulignons tout d'abord que, chaque année, «nos centrales à charbon, activités minières et autres industries émettent des milliers de tonnes de mercure dans l'atmosphère». Le mercure s'accumule dans les réseaux trophiques du milieu aquatique et «des teneurs particulièrement élevées se retrouvent chez les grands prédateurs (morses, bélugas, certains poissons)». De ce fait, «leur consommation par les humains peut induire une neurotoxicité chez l'enfant et des maladies cardio-vasculaires chez l'adulte».
Ces problèmes existent tout particulièrement dans les milieux arctiques, «où la contamination de la faune par le mercure est parmi les plus élevées au monde, alors que cette région ne contient que très peu de sources de pollution». Pour expliquer ce paradoxe, on a «longtemps suspecté la voie atmosphérique»: le mercure serait «transporté depuis les moyennes latitudes vers les milieux polaires, où les précipitations sous forme neigeuse contamineraient l'océan Arctique». Cependant, cette hypothèse a été «progressivement remise en cause par la découverte que les fleuves apportent plus de mercure à l'océan Arctique que l'atmosphère».
Pour comprendre ce qui se passe réellement, l'étude ici présentée a mesuré, en Alaska, «les échanges de mercure entre l'atmosphère et la toundra, cette dernière étant caractérisée par un sol gelé en permanence en profondeur (pergélisol) et une végétation constituée de lichens, mousses, herbacées et arbustes». Il a été ainsi constaté «que la végétation et les sols de la toundra séquestrent tout au long de l'année le mercure présent à l'état gazeux dans l'atmosphère, une tendance qui s'accélère lorsque la végétation est active en été».De la sorte, la toundra piège «une importante quantité de mercure (entre le tiers et la moitié de l'ensemble du mercure présent dans les sols terrestres)» et «au printemps, lors du dégel du sol en surface, ce réservoir alimente les fleuves de la région, et par conséquent l'océan Arctique», ce qui fait qu'ensuite le mercure intègre la chaîne alimentaire «jusque dans nos assiettes».
En fin de compte, avec le réchauffement du climat «près de deux fois plus rapide en Arctique que dans le reste du monde», la fonte plus forte du pergélisol «risque de mobiliser des quantités plus importantes de mercure, contaminant encore davantage la faune arctique», alors «que certains pays riverains souhaitent y exploiter de nouvelles zones de pêche».
votre commentaire -
Par Robert Brugerolles le 13 Juillet 2017 à 08:27
Une étude, dont les résultats intitulés «The EBLM project III. A Saturn-size low-mass star at the hydrogen-burning limit» ont été publiés dans la revue Astronomy & Astrophysics et sont disponibles en pdf, rapporte la découverte de la plus petite étoile à ce jour, immatriculée EBLM J0555-57Ab: en effet, les étoiles ne peuvent guère être plus petites, car alors la pression au centre serait insuffisante pour entraîner la fusion nucléaire de l'hydrogène en hélium.
EBLM J0555-57Ab, qui fait partie d'un système dit binaire, «a été décelée lors de son passage devant une étoile plus grosse» dans le cadre de la campagne de recherche d'exoplanètes WASP qui «est une expérience qui enregistre des courbes de lumière de centaines d'étoiles dans l'espoir de détecter des mini-éclipses provoquées par le passage d'une planète devant celles-ci».
Grâce à cette technique, on peut «connaître avec précision le diamètre de l'objet qui passe devant l'étoile», puisque «plus la baisse de lumière provoquée par l'éclipse est importante, plus la taille de l'objet qui passe devant l'étoile est grande». Pour ce qui concerne EBLM J0555-57Ab, elle avait «été repérée après avoir passé plusieurs fois devant son étoile EBLM J0555-57, beaucoup plus brillante».
C'est alors que «les astronomes ont estimé que le diamètre de ce qu'ils croyaient être une planète était équivalent à celui de Saturne». Puis, grâce à «l'instrument CORALIE installé sur le télescope suisse de l'UNIGE à La Silla au Chili, il est apparu que la mesure de la masse de cet objet était «équivalente à environ 8% de celle du Soleil, soit la masse théorique minimum pour une étoile».
En fin de compte, «une telle masse pour une étoile de la taille de Saturne engendre à la surface de cette petite naine rouge hyperdense une gravité 300 fois supérieure à celle que nous ressentons sur Terre». Il reste que cette étoile «est plus petite et probablement plus froide que bon nombre des exoplanètes gazeuses géantes identifiées jusqu'ici» et que «si sa masse avait été légèrement plus faible, elle serait devenue une naine brune et non une étoile».
votre commentaire -
Par Robert Brugerolles le 12 Juillet 2017 à 07:25
Une étude, dont les résultats intitulés «Biological annihilation via the ongoing sixth mass extinction signaled by vertebrate population losses and declines» ont été publiés dans la revue PNAS, révèle que le taux de perte de population des vertébrés terrestres est extrêmement élevé, y compris chez les «espèces peu concernées» et que l'ampleur de ces disparitions a été jusqu'à présent sous-estimée.
Ces conclusions accablantes «reposent sur les fluctuations dans les populations de quelque 27.600 espèces de vertébrés terrestres connues, incluant des mammifères, des oiseaux, des reptiles et des amphibiens» et sur «une analyse très détaillée de l'évolution de la population de 177 mammifères entre 1900 et 2015». Il est ainsi apparu «qu'un tiers, 32 % (précisément 8.851 sur 27.600)» des espèces étudiées («lesquelles représentent environ la moitié de toutes celles connues») sont en déclin aussi bien en termes d'effectifs qu'en termes d'aires de répartition.
Pour ce qui concerne l'échantillon de 177 mammifères, dont on dispose de données détaillées, il a été constaté «que tous ont perdu 30 % ou plus de leurs territoires et plus de 40 % ont subi de graves diminutions de leur population»: parmi ces espèces, on peut citer «les guépards, qui ne sont plus que 7.000 aujourd'hui (contre 100.000 en 1900)» et les lions qui, il y a 25 ans, «étaient 43 % plus nombreux» (aujourd'hui, «ils ne sont plus que 35.000»).
Toutes les régions du monde sont touchées par le recul des populations, mais les impacts les plus visibles affectent «les zones qui comptent la plus importante diversité animale : les tropiques». Ainsi, «les taux d'érosion les plus élevés sont observées notamment en Amérique centrale et du Sud, en Indonésie et en Asie du Sud-est». Cependant, «les chiffres sont aussi inquiétants partout ailleurs relativement à la biodiversité qui est moindre».
Les pertes d'habitats sont les premières causes de cette situation en raison «des territoires volés ou dégradés par l'Homme pour ses besoins» («déforestation, agriculture, routes, urbanisation, exploitations minières et pétrolières, etc.»). Les autres causes sont ensuite «la chasse et le braconnage, la surpêche, la pollution (des eaux, des sols, de l'air), les espèces invasives et désormais, le changement climatique, lequel ne cesse de s'intensifier». L'étude cite enfin, comme «moteurs ultimes de la sixième extinction de masse», la surpopulation humaine, «liée à une croissance continue de la population, et de la surconsommation, en particulier par les riches».
Comme on sait que «200 espèces de vertébrés se sont déjà éteintes en un siècle», ce qui représente «environ deux espèces par an», d'après le taux d'extinction 'normal' de ces deux derniers millions d'années, on peut estimer que «ces 200 espèces auraient dû mettre jusqu'à 10.000 ans à disparaître».
Il résulte de tous ces éléments que «nous ne disposons que d'une petite fenêtre pour agir, deux ou trois décennies au maximum», car, sans la biodiversité, «c'est aussi notre espèce que nous mettons en danger» puisque «l'érosion des espèces entraîne de graves conséquences en cascades sur l'ensemble des écosystèmes, ainsi que des impacts économiques et sociaux pour l'humain».
votre commentaire
Suivre le flux RSS des articles de cette rubrique
Suivre le flux RSS des commentaires de cette rubrique