• Une étude, dont les résultats intitulés «The Palaeoenvironmental Impact of Prehistoric Settlement and Proto-Historic Urbanism: Tracing the Emergence of the Oppidum of Corent, Auvergne, France» ont été publiés dans la revue Plos One, a permis de retracer, en croisant l’analyse de grains de pollen prélevés à la fois dans une zone humide située dans l'oppidum de Corent et dans des niveaux archéologiques du site, son impact environnemental au fil de son histoire.

     

    L’oppidum de Corent, situé près de Clermont-Ferrand, qui «s’apparente à un promontoire naturel d’une superficie de 60 hectares», domine la plaine de la Limagne. Sur ce plateau «occupé par l’homme au moins depuis le troisième millénaire av. J-C», plusieurs phases successives ont été repérées dont le paroxysme a été atteint «entre le IIe et le Ier siècles av. J-C», lorsque l’oppidum était la capitale des Arvernes, «puissant peuple gaulois du Massif central».

     

    Comme, jusqu'à présent, l’influence de ces premières structures urbaines sur le milieu naturel environnant était encore peu documentée, l'étude ici présentée est parvenue, pour la première fois, «à déterminer l’impact de ces premières formes d’urbanisation» sur celui-ci, cette recherche étant facilitée par le fait que ce site archéologique «abrite une petite zone humide dont les dépôts sédimentaires ont enregistré les vicissitudes de cette longue occupation humaine».


    Plus précisément, «en analysant les grains de pollen d’une carotte de sédiments prélevée sur cette zone humide», un portrait de «l’environnement naturel du plateau de Corent entre 4000 av. J.-C. et 100 ans après J.-C» a pu être dressé.

     

    Recoupées avec les données «issues de plusieurs vestiges archéologiques (citernes, caves, latrines, etc.) témoignant des périodes de forte occupation humaine du site», ces informations ont fait émerger «une dynamique paléoenvironnementale très particulière associée à l’existence d’agglomérations protohistoriques».

     

    Ainsi, «vers la fin de l’âge du Bronze final, entre 1050 et 900 ans av. J.-C., une première tendance à la fermeture du milieu naturel», qui «apparaît en même temps qu’un déclin de l’agriculture», s'accompagne «d'une augmentation de la biodiversité des plantes liées à une perturbation du milieu et de celle des végétaux non indigènes».

     

    Il en ressort, pour l'instant, dans l'attente de nouvelles études, que «le fait de retrouver des grains de pollen appartenant à des espèces méridionales telles que le châtaignier ou le platane pourrait signifier que l’agglomération avait établi, dès cette époque, des échanges avec le bassin méditerranéen».

     

    D'ailleurs, «entre le Ier et le IIe siècle avant J.-C., à l’apogée de l’urbanisation du site», ces mêmes particularités ont été retrouvées, «l'agriculture ayant même semble-t-il cette fois-ci déserté le plateau de Corent».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Evidence for mature bulges and an inside-out quenching phase 3 billion years after the Big Bang» ont été publiés dans la revue Science, a permis, à partir d'observations réalisées au moyen du VLT et du Télescope Spatial Hubble de mettre en évidence, pour la première fois, une cessation progressive de la formation d'étoiles au sein de galaxies, trois milliards d'années après le Big Bang.

     

    Rappelons tout d'abord que les galaxies elliptiques, inertes et massives, «largement répandues dans l'Univers actuel», qui «affichent une densité d'étoiles dix fois plus élevée que les régions centrales de notre galaxie, la Voie Lactée, et une masse quelque dix fois supérieure», ne manifestent aucun signe de formation de nouvelles étoiles, car «elles présentent une forte abondance en vieilles étoiles rouges» et «sont dépourvues de jeunes étoiles bleues».

     

    Comme   «l'âge estimé des vieilles étoiles rouges suggère que leurs galaxies hôtes ont cessé de produire de nouvelles étoiles voici 10 milliards d'années», on en déduit que cet arrêt brutal a coïncidé «avec le pic de formation stellaire dans l'Univers» au cours duquel «la plupart des galaxies générait encore des étoiles à un rythme environ 20 fois supérieur au rythme actuel».

     

     Du fait que ces galaxies massives inertes «renferment la presque moitié des étoiles conçues par l'Univers au cours de son existence», une véritable compréhension de «l'évolution de l'Univers vers son stade actuel» nécessite une connaissance précise de la dynamique de ces galaxies.

     

    En vue d'apporter des données nouvelles sur ce sujet, l'étude ici présentée a porté «sur un échantillon de 22 galaxies de masses différentes, datées d'une époque postérieure de quelque trois milliards d'années au Big Bang».

     

    Il est ainsi apparu «que les galaxies les plus massives de l'échantillon ont continué de produire, à un rythme constant, des étoiles en leur périphérie» tandis qu'en leur centre, dans le bulbe densément peuplé, «la formation de nouvelles étoiles s'est déjà arrêtée».

     

    Cette preuve «de la cessation progressive de la formation d'étoiles, depuis le centre vers la périphérie des galaxies massives, devrait éclairer les astronomes sur les processus sous-jacents impliqués»: pour le moment, «une théorie prépondérante stipule que la matière première des étoiles se trouve dispersée par des torrents d'énergie libérés par un trou noir supermassif située au cœur de la galaxie, à mesure que ce dernier engloutit la matière constituant son environnement proche» tandis qu'une autre théorie considère simplement que la galaxie n'est plus alimentée en gaz frais, «la privant du carburant nécessaire à former de nouvelles étoiles et la transformant progressivement en une sphéroïde rouge et inerte».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «A strong magnetic field in the jet base of a supermassive black hole» ont été publiés dans la revue Science, a permis, grâce au réseau ALMA de révéler l'existence d'un champ magnétique extrêmement puissant à très grande proximité de l'horizon des événements d'un trou noir supermassif.

     

    Alors que «jusqu'à présent, seuls des champs magnétiques de faible intensité et relativement éloignés de trous noirs (situés à plusieurs années-lumière) avaient été détectés», ce travail est parvenu à mesurer l'intensité du champ magnétique très près de l'horizon des événements du «trou noir supermassif au sein de la galaxie lointaine notée PKS 1830-211» (très «précisément là où la matière se trouve soudainement expulsée du trou noir sous la forme d'un jet») en analysant la manière par laquelle la lumière était polarisée, à mesure qu'elle s'en éloignait.

     

    En effet, comme cette lumière «a traversé la matière ceinturant le trou noir, là où se trouve confiné un plasma hautement magnétisé» et que «la polarisation de la lumière varie lorsqu'elle traverse un milieu au sein duquel règne un champ magnétique», l'étude ici présentée a pu mesurer ces champs magnétiques.

     

    Il est ainsi apparu que «la direction de polarisation du rayonnement en provenance du centre de PKS 1830-211 avait pivoté» et que les signaux engendrés par la rotation de la polarisation «sont des centaines de fois supérieurs aux signaux les plus intenses jamais détectés dans l'Univers».

     

    Comme «la zone dans laquelle le champ magnétique a été repéré se situe à quelques jours lumière» de l'horizon des événements, on peut souligner que cette découverte, due essentiellement à ALMA, constitue un grand pas «tant en terme de fréquences observables qu'en terme de distance au trou noir». Elle va ainsi conduire à mieux comprendre la structure et la formation des trous noirs supermassifs au centre des galaxies et leurs fréquentes et rapides éjections de plasma. 

     

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Electromagnetic Radiation under Explicit Symmetry Breaking» ont été publiés dans la revue Physical Review Letters, a abouti à la conclusion que les ondes électromagnétiques peuvent être générées non seulement par l’accélération des électrons mais aussi par une brisure de la symétrie du champ électrique.

     

    Rappelons tout d'abord «que la fonction d’une antenne est d’émettre et de capter de l’énergie sous la forme d’ondes électromagnétiques» et que pour qu'elle «donne son efficacité maximale et que l’énergie transférée soit la plus importante, sa longueur doit être arithmétiquement liée à la fréquence de l'onde».

     

    Cependant, dans la pratique, «plus l’antenne est courte, moins elle est efficace», ce qui constitue «l’un des points bloquants de l’électronique moderne, qui tend inexorablement vers la miniaturisation».

     

    Pour tenter de résoudre cette difficulté, l'étude ici présentée a analysé «le comportement de films minces composés de matériaux piézoélectriques (niobate de lithium, nitrure de gallium, arséniure de gallium, etc.)», qui ont la capacité «de se déformer sous l’action d’un champ électrique». Il est ainsi apparu «qu’à une fréquence déterminée (entre 100 MHz et 3 GHz), ces matériaux deviennent non seulement des résonateurs efficaces mais aussi des émetteurs efficaces et peuvent donc servir d’antennes».

     

    L'explication avancée pour expliquer ce phénomène surprenant serait qu'il découlerait d'une «brisure de la symétrie du champ électrique»: plus précisément, «lorsque les charges électriques sont immobiles, le champ électrique est symétrique» alors que «lorsque les couches minces de matériau piézoélectrique sont soumises à une excitation asymétrique, cette symétrie est brisée et un rayonnement électromagnétique est généré».

     

    Cette découverte, liée à «la nature même de l’électromagnétisme», qui pourrait «permettre de rapprocher les théories de l'électromagnétisme classique et de la mécanique quantique», ouvre des perspectives nouvelles pour «la conception d’antennes suffisamment petites pour être installées à l'intérieur de puces électroniques», ce qui conduirait à des «applications dans le secteur des communications», notamment dans le cadre du «développement de l’Internet des objets».

     

     


    votre commentaire
  •  

    Une étude, dont les résultats intitulés «Spin-Transfer Torque Magnetic Memory as a Stochastic Memristive Synapse for Neuromorphic Systems» ont été publiés dans la revue IEEE Transaction on Biomedical Circuits and Systems, a permis de décrypter les mécanismes physiques impliqués dans des mémoires informatiques magnétiques de nouvelle génération et de montrer que de tels mécanismes pouvaient être utilisés comme les 'synapses' d'un nouveau type de système informatique neuro-inspiré, capable d'apprendre comment stocker et restituer des informations.

     

    Rappelons tout d'abord qu'aujourd'hui, il existe deux grandes catégories de mémoire informatique: d'une part, les mémoires volatiles, «capables de traiter un grand nombre de données dans un temps très court» qui «sont dépendantes d'une alimentation électrique continue pour conserver les informations qu'elles ont enregistrées» et, d'autre part, «les mémoires non-volatiles, comme les clés USB ou les CD», non dépendantes d'une source électrique mais qui sont beaucoup moins rapides.

     

    Toutefois, actuellement, une alternative, «les mémoires magnétiques (ST-MRAM), qui combinent rapidité de traitement et indépendance énergétique» («les données n'étant pas stockées sous forme d'une charge électrique mais d'une orientation magnétique», est en cours d'élaboration, mais «le coût énergétique élevé de sa programmation» est un problème majeur.

     

    Plus précisément, si la mise sous tension, «pour programmer les jonctions tunnel magnétiques (MTJ), nanocomposants de base de ces mémoires», n'est pas assez longue, «la programmation peut être incorrecte, avec un degré de hasard qui dépend de la durée de l'impulsion de programmation».

     

    Donc, dans le cas d'un usage plus conventionnel de la mémoire, qui exclut cette 'programmation probabiliste', «la mise sous tension des MTJ doit être prolongée, pour s'assurer avec un niveau de confiance suffisant» ce qui aboutit, de facto, à «une consommation énergétique importante».

     

    Cependant, l'étude ici présentée vient de montrer «que la programmation probabiliste des MTJ peut devenir un avantage» en proposant «une utilisation des MTJ comme 'synapses' (connexions) d'un système dont le fonctionnement est inspiré du cerveau humain, c'est-à-dire consommant très peu d'énergie tout en ayant une très grande capacité de traitement de données».

     

    La programmation probabiliste devient alors «une façon pour le système d'apprendre, après plusieurs répétitions, sa fonction» de sorte que «comme pour les synapses du cerveau humain, plus les MTJ sont sollicitées, plus l'information a de chances d'être enregistrée».

     

    Ainsi, les simulations numériques réalisées font apparaître qu'un tel système «peut résoudre efficacement, c'est-à-dire rapidement et en consommant peu d'énergie, des tâches cognitives comme les analyses d'images ou de vidéos, contrairement aux systèmes de mémoires actuelles».

     

     


    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique