| | | | | | | Edition du 02 Décembre 2022 |
| |
|
| Edito Les récepteurs d’énergie solaire deviennent flexibles
AVANT-PROPOS : CAMPAGNE DE DONS : JE VOUS REMERCIE POUR LES DONS DE CES DERNIERS JOURS QUI ONT UN PEU AUGMENTÉ (1.630 € dans la semaine). MAIS, NOUS NE SOMMES QU'AUX 3/4 DU CHEMIN ET IL EST NECESSAIRE QUE BEAUCOUP DE LECTEURS DE RT FLASH RÉAGISSENT SI NOUS VOULONS ATTEINDRE NOTRE OBJECTIF (15.000 €) AVANT LA FIN DU MOIS DE DÉCEMBRE. Aujourd'hui, 1er Décembre, le total des dons reçus par l'ADIST s'élève à 11.271 euros. Soit 1.630 euros de dons dans la semaine. A raison d’une somme de 1360 euros par mois nécessaire pour mettre en ligne notre Lettre, avec les 11.271 euros reçus, à ce jour, nous ne pourrions financer la mise en ligne hebdomadaire de RT Flash au-delà du 6 Octobre 2023. (Nous n'avons pas besoin de financer RT Flash en Août car notre Lettre est en vacances pendant cette période). Je vous demande instamment d’être plus nombreux à faire des dons pour que nous ayons la certitude que RT Flash continue bien à être publiée pendant toute l’année 2023. A nouveau, il m'est nécessaire de vous dire que notre Association ADIST, qui gère RT Flash est une association d’intérêt général qui fait qu'en respect des articles 200 et 238 du Code Général des Impôts, ses donateurs se feront rembourser 66 % de leur don lors du règlement de leur impôt sur le revenu. Ainsi, à titre d'exemple, une personne faisant un don de 100 euros à l'ADIST constaterait une diminution de 66 euros de ses impôts sur le revenu et la charge réelle de son don ne serait que de 34 euros. Bien Cordialement René Trégouët Sénateur Honoraire Fondateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash Si vous voulez aider RT Flash, Lettre hebdomadaire d'informations scientifiques et technologiques, gratuite et sans publicité depuis 1998, veuillez appuyer sur le lien suivant : Faites un DON pour sauver RT Flash, vous bénéficierez d’une réduction fiscale de 66 % EDITORIAL : LES RECEPTEURS D'ENERGIE SOLAIRE DEVIENNENT FLEXIBLES Le dernier rapport Forbes nous apprend que l'énergie solaire photovoltaïque a fourni plus de 1000 TWh d'électricité en 2021, contre seulement 20 TWh en 2010. L’énergie solaire représente désormais 4 % de la production mondiale d’électricité (25 500 TWH en 2021), contre 6 % pour l’éolien et la production solaire mondiale a augmenté de 19 % en 2021, contre 13 % pour l’éolien. Mais l’électricité mondiale reste, à plus de 70 %, issue des énergies fossiles (charbon, gaz et pétrole) et est responsable de 40 % des émissions mondiales de CO2, soit 14,5 gigatonnes de CO2 par an, l’équivalent de l’ensemble des émissions annuelles de CO2 de la Chine… Pour parvenir à respecter les objectifs climatiques de l’Accord de Paris, les experts du GIEC et de l’AIE s’accordent sur le fait qu’il va falloir inverser complètement la situation actuelle, c’est-à-dire décarboner à au moins 70 % l’électricité mondiale dès 2040, pour atteindre les 90 % en 2050. Sachant que la consommation mondiale d’électricité est appelée de manière inéluctable à augmenter, à la fois à cause de la nécessaire électrification croissante des usages (dans les transports notamment) et de la croissance démographique qui va voir arriver deux milliards d’humains supplémentaires d’ici trente ans, et à supposer que les parts respectives de l’éolien (terrestre, marin et urbain) et solaire deviennent équivalentes –chacune un tiers – dans la pro duction mondiale d’électricité en 2040, cela veut dire que le monde va devoir multiplier par 14 la production d’électricité photovoltaïque d’ici 20 ans, passant ainsi de 845 à 11 700 Twh d’électricité solaire… Comme le souligne le Cabinet Bloomberg, si l’on constate l’évolution des coûts de production des différentes énergies, on en arrive à la conclusion que l’énergie solaire va inévitablement s’imposer à terme, comme la première source d’énergie électrique, devant les énergies fossiles, mais également devant l’éolien. L'ARENA prévoit d’ailleurs que d'ici 2050, l'énergie solaire, avec une capacité installée de 8.500 GW, devancera d’un tiers l’éolien et pourrait fournir, à elle seule, la moitié de l'électricité mondiale consommée en 2050. Il est vrai que le coût de production moyen de l’électricité photovoltaïque à grande échelle a baissé de 82 % entre 2010 et 2020 et cette baisse devrait se poursuivre, puisque l’ ;AIE prévoit que le coût du solaire photovoltaïque va continuer à diminuer fortement dans les prochaines années, passant de 50 dollars par MWh en 2020 à moins de 30 dollars en 2040. L’électricité solaire deviendra alors, de loin, l'énergie la moins chère, même par rapport à l’éolien. En Europe, le plan REPowerEU de l’Union européenne (UE), qui vise à mettre fin à sa dépendance vis-à-vis des combustibles fossiles russes, prévoit un quadruplement de notre capacité d’énergie solaire, ce qui veut dire 68 GW de nouvelles centrales solaires par an (à comparer aux 26 GW ajoutés en 2021). En mai dernier, les ministres de l’énergie de l’Autriche, de la Belgique, de la Lituanie, du Luxembourg et de l’Espagne, ont signé une lettre adressée à la Commission européenne dans laquelle ils demandent à l’UE de relever ses objectifs en matière d’énergie solaire, pour atteindre au moins 1 TW d’énergie solaire installée d’ici à 2030. Cette initiative forte souligne que L’UE peut déployer au moins 70 millions de toits solaires d’ici 2030 en Europe, ce qui permettra de générer 1100 TWh d’électricité et créera des millions d’emplois locaux. Cette requête va probablement être reprise officiellement par l’UE, qui vient d’annoncer, à l’occasion de la COP 27 qui s’est tenue en Egypte, qu’elle allait porter à 57 % son nouvel objectif de réduction d’émissions de CO2 pour 2030. En France, la production d’électricité photovoltaïque - 15 TWh -, qui ne représente encore que 3 % de notre consommation annuelle totale, doit être décuplée d’ici 2050, ce qui devrait permettre à l’électricité solaire de représenter presque le quart de la consommation électrique totale de la France prévue en 2050 (645 TWh par an). La loi sur l’accélération de la production d’énergies renouvelables, qui sera prochainement définitivement adoptée par le Parlement, prévoit, en outre, de déployer progressivement des ombrières photovoltaïques sur les parkings, de faciliter les projets sur les bords des routes et autoroutes, de faciliter l’installation des projets photovoltaïques sur tous les terrains dégradés. Rappelons que la récente loi Climat du 22 août 2021 prévoit déjà l’obligation d’installer, des 2023, des panneaux solaires sur les toitures des constructions nouvelles à usage commercial, industriel ou artisanal, et les parcs de stationnement couverts accessibles au public, lorsque ces constructions créent plus de 500m2 d'emprise au sol. C’est dans ce contexte particulièrement favorable à l’essor de l’énergie solaire que la technologie des cellules photovoltaïques dites "organiques", à couches minces, est en train de s’affirmer comme un nouveau et puissant moteur de développement de la production massive d’électricité solaire. Ce type de cellules est constitué de dépôts de couches extrêmement fines de matériaux semi-conducteurs photovoltaïques sur différents supports, plastique, verre ou acier inoxydable. L’épaisseur de ces cellules est de l’ordre de quelques nanomètres, soit 20 fois inférieurs à celle des tranches de silicium les plus fines. Les cellules à couches minces sont en outre flexibles, dix fois moins lourdes que leurs cousines en silicium, et moins coûteuses à fabriquer que les cellules cristallines en raison de la qu antité réduite d’énergie et de matériaux qu’elles requièrent. Il y a quelques jours, la prestigieuse revue "Science" a publié un long article, intitulé, "L’énergie solaire devient flexible", qui fait le point sur cette technologie d’avenir et évoque ses immenses potentialités pour accélérer la transition énergétique mondiale vers la fin des énergies fossiles (Voir Science ). Cet article évoque notamment le projet de Marburg, en Allemagne, qui a choisi des panneaux solaires souples, conçus par la société Heliatek, pour recouvrir les parois d’un réservoir municipal d’eau, ce qui aurait été impossible avec de panneaux en silicium. Les panneaux photovoltaïques organiques (OPV) d'Heliatek sont bien plus légers que les panneaux en silicium et co ûtent moitié moins cher à produire. Certains sont même transparents, ce qui permet d’envisager d’intégrer des panneaux solaires non seulement sur les toits, mais aussi sur les façades des bâtiments, les fenêtres et même les espaces intérieurs. « Nous voulons transformer chaque bâtiment en un bâtiment produisant de l'électricité », déclare Stéphane Le Séguillon, directeur-général d’Heliatek. Les panneaux d'Heliatek convertissent environ 9 % de l'énergie de la lumière du soleil en électricité, contre 20 % pour les cellules en silicium, mais ce handicap en matière de rendement est largement compensé par la légèreté (un kg au m2, contre 25 kg pour les panneaux photovoltaïques conventionnels), la souplesse et la robustesse de ces films, qui peuvent être installées sur presque toutes les surfaces extérieures. Heliatek est en train de construire une usine capable de produire 2 millions de mètres carrés par an, de quoi fournir environ 200 mégawatts d'électricité chaque année. Avec une empreinte carbone inférieure à 10 g de CO2/kWh, la technologie de films solaires souples d’Heliatek amortit sa consommation d’énergie en moins de six mois d’utilisation de ses panneaux et il faut moins de trois mois pour neutraliser le carbone émis. En 2017, Heliatek a réalisé une première mondiale en recouvrant les toits du collège Mendès-France, à La Rochelle, de 540 m2 de ses films solaires souples, ce qui permet à cet établissement de couvrir 20 % de ses besoins en énergie. Parallèlement, une société suédoise, Epishine, propose des cellules organiques souples qui fonctionnent à l'intérieur des bâtiments et peuvent alimenter directement des capteurs de température et aux commandes d'éclairage automatisées. En France, le CEA a annoncé en 2020 qu’il avait réussi à développer, en coopération avec le Japonais Toyobo, des mini-cellules organiques solaires souples à base de polymères, capables d’atteindre un rendement de conversion-record de 25 % en intérieur, même sous la seule lumière des néons. Ces cellules très légères et sans composants toxiques devraient être bientôt sur le marché et pourront être utilisées pour alimenter de manière autonome les multiples capteurs et petits composants électroniques qui s’intègrent &agr ave; présent dans les bâtiments et maisons connectées et reliées à l’Internet des objets. L’article de Science souligne que l'énergie solaire conventionnelle, principalement basée sur le silicium, fournit environ 3 % de toute l'électricité de la planète et se développe plus vite que n’importe quelle autre source d’énergie, avec plus de 200 gigawatts mis en ligne chaque année, assez pour alimenter 150 millions de foyers. Pourtant, ce développement reste encore insuffisant pour répondre à l’explosion de la demande mondiale croissante et contrer efficacement le changement climatique catastrophique en cours. Si l’on se cale sur l’hypothèse défendue par l’AIE, qui prévoit que la demande mondiale d'électricité devrait doubler d'ici 2050, il va falloir en effet installer de nouvelles ressources solaires à un rythme quatre fois plus important qu’actuellement, jusqu’en 2050. Heureusement, des avancées décisives sont en cours, en matière de rendement des cellules organiques souples. En 2020, des scientifiques du Cluster RIKEN pour la recherche pionnière et du Centre RIKEN pour la science de la matière émergente ont réussi à créer une cellule solaire organique ultra-mince à la fois très efficace et durable. Cette cellule organique flexible qui se dégrade de moins de 5 % sur 3000 heures, atteint l’excellent rendement de 13 % (Voir RIKEN). En mai dernier, des chercheurs de l’Université de Ritsumeikan à Kyoto, dirigés par les Professeurs Jakapan Chantana et Takashi Minemoto, ont développé de nouvelles cellules solaires à couche mince, flexibles et sans cadmium. Non seulement leur technologie affiche un impact environnemental bien inférieur à celui des cellules solaires standards, mais elle peut être produite à plus faible coût et affiche un rendement-record pour ce type de cellules, 16,7 %. Ces cellules solaires, qui sont à base de séléniure de cuivre, d’indium et de gallium (CIGSSe), sont environ 100 fois plus fines, bien moins énergivores et donc moins chères à produire et peuvent être installées facilement sur de nombreux types de surfaces, toits, façades d’immeubles… (Voir Ritsumeikan University). En août dernier, Zhan Lingling de l'Université normale de Hangzhou et ses collègues ont présenté une nouvelle cellule organique souple qui a atteint une efficacité de 19,3 %. Ces progrès en matière de rendement, combinés à de nouvelles techniques de production, pourraient diviser par dix d’ici 2030 les coûts de ces cellules, qui deviendraient alors bien plus compétitives que leurs cousines en silicium. Reste que l’avantage décisif des cellules organiques souples sur toutes les autres technologies génératrices d'énergie est sans doute leur empreinte carbone étonnamment faible. Lors de l'évaluation des panneaux Heliatek, l'institut de test allemand TÜV Rheinland a certifié que pour chaque kWh d'électricité produit par les panneaux de l'entreprise, au plus 15 kilogrammes (kg) de dioxyde de carbone (CO 2) seraient émis lors de leur cycle de vie. Un chiffre à comparer à 49 kg de CO 2 /kWh pour les panneaux de silicium et à 1 008 kg de CO 2 /kWh pour l'extraction et la combustion du charbon. Même avec leurs faibles rendements, les panneaux solaires souples d’Heliatek généreront plus de 100 fois d'énergie que celle nécessaire pour les fabriquer… Des scientifiques suisses de l’EPFL ont également atteint un nouveau record d'efficacité pour leurs cellules solaires transparentes, ouvrant la voie à des fenêtres génératrices d'électricité. Appelées cellules Grätzel, du nom de leur inventeur, ces cellules solaires à colorant (DSC) ont également un faible coût de production et une faible empreinte carbone. Elles utilisent un colorant photosensibilisé fixé à la surface d'un semi-conducteur pour convertir la lumière visible en énergie. Initialement, ces cellules DSC utilisaient essentiellement la lumière directe du soleil, mais des scientifiques de l'École polytechnique fédérale de Lausanne (EPFL) ont réussi à concevoir des photosensibilisateurs transparents – des molécules qui peuvent être activées par la lumière – qui peuven t capter la lumière sur la totalité du spectre lumineux visible. « Nos découvertes ouvrent la voie à un accès facile aux DSC hautes performances et offrent des perspectives prometteuses pour des applications comme alimentation et remplacement de batterie pour les appareils électroniques à faible consommation qui utilisent la lumière ambiante comme source d'énergie », soulignent les auteurs de l'étude (Voir Nature). En France, la société nantaise Asca, filiale du groupe Armor, développe depuis une dizaine d’années des films solaires organiques. Asca a mis au point une remarquable technologie à base de polymères photo-actifs, sans solvants, sans matériaux rares et dont le recyclage est prévu dès la conception du produit. Ce procédé repose sur 5 couches imprimées, en rouleau, sur le film OPV, encapsulées dans 2 couches protectrices pour protéger les polymères de l'oxygène, de l'humidité et des rayons ultraviolets. Ces films solaires ont la particularité d’être beaucoup plus sensibles à la lumière diffuse, et peuvent produire de l'énergie quelle que soit la température et les conditions de luminosité. « A puissance égale, le film produit 30 % d'énergie de plus qu'un panneau solaire », fait valo ir Hubert de Boisredon, le patron d’Armor. « À énergie constante, la consommation de ressources est trois fois moins importante pour la planète qu'avec des panneaux photovoltaïques », souligne Hubert de Boisredon. La plupart des spécialistes s’accordent sur le fait que la marge de progression de ces cellules solaires organiques est encore très importante et qu’elles atteindront très probablement un rendement en série de 20 % avant la fin de la décennie, tout en augmentant leur longévité et en réduisant leur coût de fabrication. Ce solaire flexible, performant, léger et sans composants toxiques, est donc promis à un brillant avenir car, même s'il n'a pas vocation à se substituer entièrement au solaire sur silicium, il va permettre d’intégrer l’énergie solaire dans la 3ème dimension et de rendre toutes les surfaces verticales de nos bâtiments, maisons et infrastructures, fenêtres comprises, potentiellement productrices d’énergie propre. Nous pouvons nous réjouir que l’Europe et la France soient en pointe dans ce doma ine stratégique qui nous donne une formidable opportunité, si nous savons maintenir et organiser notre effort scientifique et industriel, de reconquérir notre indépendance énergétique face à la Chine, aux Etats-Unis et au Japon, tout en accélérant de manière décisive notre transition énergétique vitale vers un monde sans carbone . René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Nanotechnologies et Robotique | |
| | | Alors que la guerre est entrée dans une nouvelle phase en Ukraine avec, notamment l’usage de drones kamikazes, les Pays-Bas sont le tout premier pays de l’Otan à dévoiler ce que l’on pourrait appeler des "véhicules terrestres robots tueurs". Ces sortes de tanks autonomes sont des UGV (Unmanned Ground Vehicle – véhicule terrestre sans pilote) de type Tracked Hybrid Modular Infantry Systems (THeMIS) construits par la société de défense estonienne Milrem Robotics. « Nous avons déployé quatre machines militarisées [sans pilote] dans le cadre d'une expérience opérationnelle », a déclaré le lieutenant-colonel Sjoerd Mevissen, commandant du système robotique et autonome de l'armée royale néerlandaise. « À ma connaissance, nous n'avons jamais vu cela auparavant en Occident ». Il précise qu’il s’agit tout de même d’un test en quasi-conditions réelles en raison de la proximité avec la Russie, puisque l’essai est effectué en Lituanie. Comme on peut le voir sur les visuels, il s'agit d'un véhicule chenillé télécommandé, destiné à de multiples opérations dans le domaine du transport ou de la reconnaissance par exemple. Il peut aussi servir de plates-formes d’armes avec l’ajout d’une mitraillette par exemple. Les Pays-Bas en testent actuellement quatre, et une équipe de 17 personnes effectue des simulations avec le travail de coordination entre les robots notamment. Des robots armés de mitrailleuses ont déjà été aperçus sur les champs de bataille dans le passé, mais il ne s’agissait pas de pays de l’Otan. La Russie avait ainsi utilisé des véhicules similaires en Syrie en 2018, et l'Uran-9 est capable de transporter un canon automatique et quatre missiles anti-chars. L'Iran, qui fournit les drones kamikazes à la Russie, a aussi développé ses propres engins avec l’Heidair-1. Article rédigé par Georges Simmonds pour RT Flash FUTURA | | ^ Haut | |
|
| | | Olivier Le Strat et Alain Rocheux ont fondé en 2019 la société H2Gremm (en breton, gremm signifie énergie), basée à Edern (Finistère), avant même l’actuelle période de crise énergétique. « Il y a quelques années, notre réflexion portait sur le fait que les énergies allaient coûter de plus en plus cher, d’où des tendances allant vers le bâtiment autonome. Nous nous sommes donc penchés sur le problème : comment rendre autonomes énergétiquement les microsystèmes pavillonnaires, c’est-à-dire les bâtiments du tertiaire, petites entreprises et habitations ? On a aussi planché sur la mobilité légère, les vélos, chariots élévateurs, tracteurs, véhicules fonctionnant à l’hydrogène ou à l’élect ricité ». Après quelques années de recherches, ils ont mis au point leur station compacte de production d’hydrogène, fonctionnant avec un minimum d’eau et d’électricité, cette dernière étant produite par des panneaux solaires. « Notre station se présente sous forme d’une grosse boîte de la taille d’un frigo qu’on peut installer où l’on veut. Elle comprend trois étages : compression, stockage, et redistribution de l’énergie, soit en électricité, soit en hydrogène. Cette station va transformer l’eau et l’électricité en hydrogène par un procédé d’électrolyse. Elle est reliée à un robinet pour l’eau et aux panneaux solaires pour l’électricité. Elle peut produire de 1 à 10 kg d’hydrogène par jour ». Pour bien se rendre compte, 1 kg correspond aux besoins journaliers en électricité et chauffage d’une famille de quatre personnes. On va consommer environ 70 kW et 10 litres d’eau pour fabriquer ce kg d’hydrogène, qui pourra aussi alimenter les véhicules. « La station ne va pas réinjecter l’énergie dans le réseau EDF. Elle fonctionne en vase clos. Pendant l’été, on va stocker l’énergie solaire qu’on va ensuite réutiliser l’hiver. La réussite de ce procédé tient dans le module de compression, qui est non-mécanique. Cela garantit la pureté de l’hydrogène à un très très haut niveau », précisent les deux ingénieurs. Article rédigé par Georges Simmonds pour RT Flash Le Parisien | | | |
| Des chercheuses et chercheurs de l’EPFL ont mis au point un modèle de machine learning capable de prédire avec précision la capacité thermique des réseaux organométalliques, des matériaux très polyvalents. Leurs travaux révèlent que le coût énergétique global des processus de captage du carbone pourrait être nettement inférieur à celui qui est prévu. Les réseaux organométalliques (metal-organic framework ou MOF) constituent une catégorie de matériaux dotés de pores à l’échelle nanométrique. Ces pores procurent aux MOF des valeurs record de surfaces spécifiques internes, ce qui leur confère une polyvalence extrême pour un certain nombre d’applications, notamment : la séparation des produits pétrochimiques et des gaz, l'imitation de l’ADN, la production d’hydrogène et l’extraction de métaux lourds, et même d’or à partir de l’eau. Les MOFs sont au cœur des travaux de recherche du professeur Berend Smit de la Faculté des Sciences de Base de l’EPFL. Son équipe met à profit le machine learning pour réaliser des avancées dans la découverte, la conception et même la classification des MOFs, toujours plus nombreux, qui inondent actuellement les bases de données chimiques. Dans une récente étude, Berend Smit et ses collègues ont mis au point un modèle de machine learning qui prédit la capacité thermique des MOFs. « C’est de la thermodynamique très classique », explique Berend Smit. « Quelle quantité d’énergie est nécessaire pour réchauffer un matériau d’un degré ? Jusqu’à aujourd’hui, tous les calculs techniques partaient du principe que les MOFs avaient la même capacité thermique, pour la simple raison qu’il n’y a pratiquement aucune donnée disponible ». Seyed Mohamad Moosavi, postdoctorant dans l’équipe de Berend Smit ajoute : « S’il n’y a pas de données, comment peut-on créer un modèle de machine learning ? Ça paraît impossible ! » La réponse est l’aspect le plus innovant de leurs travaux : un modèle de machine learning qui prédit comment l’environnement chimique ambiant change les vibrations de chaque atome dans une molécule de MOF. « Ces vibrations peuvent être associées à la capacité thermique », déclare Berend Smit. « Auparavant, un calcul quantique très coûteux donnait une seule capacité thermique pour un seul matériau, mais aujourd’hui on obtient jusqu’à 200 points de données sur ces vibrations. Ainsi, en faisant 200 calculs coûteux, on avait 40 000 points de données pour entraîner le modèle à la manière dont ces vibrations dépendent de leur environnement chimique ». Les chercheuses et chercheurs ont ensuite testé dans la réalité leur modèle par rapport à des données expérimentales. « Les résultats étaient étonnamment médiocres », explique Berend Smit, « jusqu’à ce que nous comprenions que ces expériences avaient été réalisées avec des MOFs dont les pores contenaient du solvant. Nous avons alors synthétisé une nouvelle fois certains MOFs et éliminé avec soin le solvant de synthèse – mesuré leur capacité thermique – et les résultats correspondaient aux prédictions de notre modèle !» « Nos travaux montrent comment l’intelligence artificielle (IA) peut accélérer la résolution de problèmes à plusieurs niveaux », confie Seyed Mohamad Moosavi. L’IA permet de réfléchir autrement à nos problèmes et même parfois de les résoudre. Nos recherches représentent un véritable effort à plusieurs niveaux et ont un impact considérable sur la viabilité technico-économique des solutions actuellement envisagées pour faire face au changement climatique ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| | | La majorité des astronomes pensent que la mystérieuse matière noire, qui est à la base du modèle ΛCDM, est la seule manière de rendre compte de certains phénomènes, tels que la masse et la vitesse des galaxies, ou simplement leur cohésion. Ce modèle standard de la cosmologie implique que la plupart des galaxies soient entourées d’un halo de particules de matière noire, capable d’exercer une forte attraction gravitationnelle sur les objets situés à proximité. Malgré des décennies de recherches, l’existence de matière noire n’a pourtant jamais été mise en évidence et diverses théories alternatives ont été proposées. L’une d’entre elles est la théorie de la dynamique newtonienne modifiée (ou théorie MOND). Pour tester ces différents modèles, une équipe d’astronomes s’est intéressée aux galaxies naines de l’amas du Fourneau, situé à quelque 62 millions d’années-lumière de la Terre. Les galaxies naines sont de petites galaxies peu lumineuses qui sont souvent situées à l’intérieur ou à proximité de galaxies plus grandes ou d’amas de galaxies. En raison de leur faible luminosité de surface, elles sont particulièrement sensibles aux forces de marée générées par les galaxies plus massives ; elles sont donc de parfaits objets d’étude pour tester les théories de la gravité. « Nous présentons une façon innovante de tester le modèle standard basé sur la mesure dans laquelle les galaxies naines sont perturbées par les "marées gravitationnelles" des grandes galaxies voisines », explique Elena Asencio, doctorante à l’Université de Bonn et première auteure de l’étude relatant la découverte. Le degré de perturbation attendu pour ces galaxies dépend de la loi de gravité supposée et de la présence ou non de matière sombre. Les observations suggèrent que plusieurs des galaxies naines de l’amas avaient subi d’importantes déformations, comme si l’environnement de l’amas les avait perturbées. Or, ceci est en contradiction totale avec le modèle standard, car en théorie, les halos de matière noire des galaxies naines devraient les protéger en partie des forces de marées générées par l’amas galactique environnant. L’équipe a tout d’abord examiné le niveau attendu de perturbation des naines : celui-ci peut être déterminé par leurs propriétés internes et leur distance par rapport au puissant centre gravitationnel de l’amas. Par exemple, les grandes galaxies à faible masse stellaire, ainsi que les galaxies proches du centre de l’amas, sont plus facilement perturbées, voire détruites. Les chercheurs ont comparé leurs résultats à l’ampleur des perturbations observées sur les images prises par le Very Large Telescope de l’Observatoire européen austral. C’est là qu’une incohérence est apparue. « La comparaison a montré que, si l’on veut expliquer les observations par le modèle standard, les naines de l’amas du Fourneau devraient déjà être détruites par la gravité du centre de l’amas, même lorsque les marées qu’il soulève sur une naine sont 64 fois plus faibles que la gravité de la naine elle-même ! », explique Elena Asencio. La scientifique souligne que ce constat est non seulement contre-intuitif, mais contredit plusieurs études qui ont montré que la force externe nécessaire pour perturber une galaxie naine est à peu près équivalente à sa propre gravité. Si ces galaxies naines n’ont pas de halo de matière noire, comment ont-elles pu voir le jour ? Et surtout, comment ont-elles pu résister face aux forces d’attraction environnantes ? Le modèle standard ne convenant pas pour expliquer le phénomène observé, l’équipe a entrepris d’appliquer une autre théorie, la théorie MOND (proposée en 1983 par le physicien israélien Mordehai Milgrom) qui repose sur une modification de la seconde loi de Newton (qui relie la masse d’un objet et l’accélération qu’il reçoit si des forces lui sont appliquées). Elle élimine la présence de halos de matière noire, mais propose une correction selon laquelle la gravité subit un « coup de pouce » aux accélérations très faibles. Ce modèle s’est avéré bien plus cohérent. « Nos résultats montrent un accord remarquable entre les observations et les attentes de MOND pour le niveau de perturbation des naines du Fourneau », a déclaré le Dr Indranil Banik, chercheur à l’Université de St. Andrews et co-auteur de l’étude. L’équipe souligne que ça n’est pas la première fois qu’une étude testant l’effet de la matière noire sur la dynamique et l’évolution des galaxies met en défaut la théorie. « Le nombre de publications montrant des incompatibilités entre les observations et le paradigme de la matière noire ne cesse d’augmenter chaque année. Il est temps de commencer à investir davantage de ressources dans des théories plus prometteuses », a déclaré le Dr Pavel Kroupa, qui dirige le groupe de recherche sur les populations stellaires et la dynamique stellaire à l’Université de Bonn. Article rédigé par Georges Simmonds pour RT Flash Oxford | | | |
| Le télescope spatial James Webb (JWST) et ses images inédites de notre Univers nous offrent une nouvelle première : un portrait moléculaire et chimique de l’atmosphère de l’exoplanète WASP-39b. Grâce à la combinaison de plusieurs instruments, le JWST met notamment en évidence la présence d’eau, de dioxyde de carbone et surtout, pour la première fois, de dioxyde de soufre provenant de réactions déclenchées par la lumière de son étoile hôte. WASP-39b est une géante gazeuse qui orbite autour de son étoile hôte à une distance très proche. Elle met ainsi un peu plus de 4 jours pour compléter une orbite de l’étoile ce qui, dans le cas de la Terre, prend une année complète. Cela signifie que la température sur cette exoplanète est supérieure à 900 degrés, un environnement extrême hostile à la vie. WASP-39b est l’une des premières cibles d’observation du télescope JWST. Elle a également été observée par d’autres télescopes spatiaux par le passé, qui ont révélé des composants isolés de l’atmosphère de cette planète bouillante. Aujourd’hui, le JWST en dresse un portrait complet, composé d’atomes, de molécules et de nuages. De plus, des signes de chimie active ont &ea cute;té détectés : les molécules de l’atmosphère interagissent avec la lumière en provenance de l’étoile, facilitant certaines réactions chimiques menant à la création de nouvelles molécules. « Nous avons observé WASP-39b avec plusieurs instruments qui se trouvent à bord du JWST. Combinés, ils nous permettent d’accéder à une panoplie d’empreintes chimiques inaccessibles jusqu’à présent. Des données comme celles-ci changent la donne », déclare Monika Lendl, professeure assistante au Département d’astronomie de la Faculté des sciences de l’UNIGE et co-investigatrice de l’étude. Pour étudier WASP-39b, le JWST a observé la planète lorsque celle-ci passait devant son étoile, permettant à une partie de la lumière de cette dernière d’être filtrée par l’atmosphère de la planète. Les différents éléments chimiques présents dans l’atmosphère absorbent différentes couleurs de la lumière de l’étoile, de sorte que les couleurs manquantes indiquent aux astronomes quelles sont les molécules présentes. Ces observations ont permis la première détection dans l’atmosphère d’une exoplanète de dioxyde de soufre, une molécule produite par des réactions chimiques déclenchées par la lumière à haute énergie de l’étoile hôte de la planète. Sur Terre, la couche d’ozone protectrice de la haute a tmosphère est créée de manière similaire. Parmi les autres constituants atmosphériques détectés par le JWST figurent le sodium, le potassium et la vapeur d’eau, ce qui confirme les observations antérieures des télescopes spatiaux et terrestres. « Le moment où j’ai affiché pour la première fois les résultats de mon analyse a probablement été le moment le plus excitant de ma carrière jusqu’à présent », rappelle Dominique Petit dit de la Roche, chercheuse postdoctorale au Département d’astronomie de la Faculté des sciences de l’UNIGE, qui a réalisé une partie importante de l’analyse. « L’inventaire chimique de WASP-39b suggère que la planète s’est assemblée par une succession de fusions avec des corps plus petits, et que sa formation s’est originellement déroulée loin de l’étoile cen trale », ajoute la chercheuse. Article rédigé par Georges Simmonds pour RT Flash UNIGE | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une étude passionnante de l’Université de Chicago Jennifer Klunk, en association avec des chercheurs de l’Université McMaster (Canada) et de l’Institut Pasteur, montre que les descendants des hommes qui ont résisté à la pandémie dévastatrice de peste bubonique qui a sévi en Europe, en Asie et en Afrique il y a près de sept cents ans, ont aujourd’hui un risque accru de déclarer une maladie auto-immune. Ces recherches ont montré que les gènes ERAP2 qui avaient conféré une protection contre la peste noire au XIVème siècle sont aujourd’hui associés à une susceptibilité accrue aux maladies auto-immunes, comme la maladie de Crohn et l’arthrite rhumatoïde. « L’identification d’Erap2 renforce l’idée que l'évolution est à double tranchant et que ce qui permet de survivre à une époque peut altérer la survie à une autre époque », relève l'étude. En 2016, une autre équipe de Pasteur avait par ailleurs montré que si les Européens sont mieux protégés que les Africains contre le Lupus, une grave maladie auto-immune, c'est parce que nous avons intégré dans notre génome des gènes de notre cousin Neandertal qui sont venus renforcer notre immunité... Ainsi va l'extraordinaire et subtil mécanisme de l'évolution darwinienne : les gènes qui nous ont donné dans le passé un avantage compétitif peuvent devenir néfastes aujourd’hui, et vice versa, car notre environnement s'est transformé... Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Ce n’est pas la première étude à associer une infection virale à la neuroinflammation, une composante et caractéristique de la maladie d’Alzheimer. Ainsi, des virus courants pourraient déclencher l'apparition de la maladie d'Alzheimer, révèle cette recherche de la Tuft University (Massachusetts) qui explique comment une infection par le virus varicelle-zona peut provoquer une inflammation et favoriser l’accumulation de protéines toxiques associées à la maladie d'Alzheimer dans le cerveau. Des conclusions préoccupantes, documentées dans le Journal of Alzheimer’s Disease, alors que ce virus est dormant chez près de 4 milliards de personnes dans le monde. La maladie d'Alzheimer commence de manière imperceptible, avec, durant les premiers mois ou les premières années, de petits oublis fréquents chez les personnes âgées. Mais le déclencheur de la maladie reste un mystère. Ces scientifiques révèlent, en utilisant un modèle tridimensionnel de culture de tissus humains imitant le cerveau, une cascade d’événements associés à la réactivation de virus courants qui déclenche les tout premiers stades de la maladie d'Alzheimer. Le virus varicelle-zona (VZV : Varicella zoster virus), qui cause généralement la varicelle et le zona (dû à une réactivation du même virus), active le virus de l'herpès simplex (HSV) dormant dans le tissu neural -ici cultivé in vitro-, ce qui entraîne ensuite une augmentation de la formation des agrégats de Tau et de plaques amyloïdes, ainsi qu’une diminution de la signalisation neuronale, des caractéristiques majeures de la maladie d'Alzheimer maladie. En temps normal, le HSV-1 – l'une des principales variantes du virus – est en sommeil dans les neurones du cerveau, mais lorsqu'il est activé, il entraîne cette accumulation de protéines tau et bêta-amyloïde et une perte de la fonction neuronale. Ces travaux décrivent ainsi « une voie jusque-là inconnue vers la maladie d'Alzheimer, causée par une infection ou une réactivation du VZV induisant une inflammation qui réveille le HSV dans le cerveau », résume l’auteur principal, le Docteur Dana Cairns : « Bien que nous ayons démontré un lien entre l'activation du VZV et du HSV-1, il est possible que d'autres événements inflammatoires dans le cerveau puissent également réveiller le HSV-1 et conduire à la maladie ». « Nous savions qu'il existe une corrélation entre le HSV-1 et la maladie d'Alzheimer, et l’hypothèse d’une implication du VZV était déjà envisagée, mais ce que nous ne savions pas, c'est la séquence d'événements que ces virus induisent pour déclencher la maladie. Nous présentons aujourd’hui les premières preuves de ces événements ». Article rédigé par Georges Simmonds pour RT Flash IOS | | | |
| Des chercheurs de l’Université de l’État d’Arizona apportent un nouvel espoir pour le traitement de la maladie de Parkinson. La greffe de cellules souches pluripotentes induites (iPSC : induced pluripotent stem cells) pour remplacer les neurones producteurs de dopamine détruits par la maladie apporte ici ses premières preuves de concept et d’efficacité : l’étude montre que non seulement les cellules implantées survivent, mais elles fabriquent de la dopamine et déploient leurs axones à travers le tissu neural pour établir des connexions distantes dans le cerveau, tout comme leurs homologues naturels. Les maladies neurodégénératives endommagent et détruisent les neurones, ravageant à la fois la santé mentale et physique. La maladie de Parkinson, qui touche plus de 10 millions de personnes dans le monde, ne fait pas exception. Cette destruction des neurones prive le cerveau d’un neurotransmetteur clé pour le fonctionnement cérébral, la dopamine. La dégénérescence et la perte de neurones dopaminergiques provoquent les symptômes physiques de rigidité, de tremblement et d’instabilité qui caractérisent la maladie. D’autres symptômes comprennent la dépression, l’anxiété, le déficit de mémoire, les hallucinations et la démence. En raison du vieillissement de la population, la prévalence de la maladie de Parkinson augmente de manière continue et on estime que la maladie pourrait toucher plus de 14 millions de personnes dans le monde d’ici 2040. Les thérapies actuelles, dont avec le médicament L-DOPA, ne peuvent traiter que certains des symptômes moteurs de la maladie et peuvent entraîner des effets secondaires graves, souvent intolérables après 5 à 10 ans d’utilisation. Il n’existe donc aucun traitement capable d’inverser la maladie ou d’arrêter sa progression. Un processus de conversion de cellules souches "non neuronales" en neurones fonctionnels capables de prospérer dans le cerveau, de former des synapses, de distribuer de la dopamine et de restaurer les capacités obérées par la maladie de Parkinson : une telle stratégie peut paraître évidente, mais "dans la pratique", se heurte à des défis considérables, pour parvenir à implanter avec succès des neurones viables permettant de restaurer la fonction des neurones dopaminergiques détruits par la maladie. Il s’agit bien de cellules conçues expérimentalement pour fonctionner de manière optimale en termes de survie, de croissance, de connectivité neuronale et de production de dopamine, une fois greffées. La preuve du concept est ici apportée in vivo, dans un cerveau de souris, modèle de Parkinson, où la greffe neurale inverse efficacement les symptômes moteurs liés à la maladie : les souris traitées avec les cellules souches pluripotentes induites (iPSC) montrent une récupération remarquable des symptômes moteurs de la maladie. L’étude démontre en outre que cet effet est dose-dépendant. Un petit nombre d’iPSC, greffées dans le cerveau de l’animal, induit une récupération modeste, alors qu’une greffe plus importante permet une ramification neurale plus riche et une inversion complète des symptôm es de la maladie. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Nous passons un tiers de notre vie à dormir et l’importance du sommeil pour la santé n’est plus à démontrer. Il régule en effet plusieurs fonctions dont l’humeur, la cognition, le métabolisme ou encore l’immunité. De plus, plusieurs études scientifiques ont observé une association entre la durée du sommeil, qu’elle soit courte ou longue, et le développement d’une maladie chronique (comme l’apparition d’un cancer ou encore d’une maladie cardiovasculaire). À mesure que les populations vieillissent, leurs habitudes de sommeil changent. Or on sait que plus de la moitié des adultes âgés de plus de 65 ans sont atteints d’au moins deux maladies chroniques. Si les recommandations actuelles préconisent 7 à 8 heures de sommeil par nuit, la question de savoir si la durée du sommeil au milieu et à la fin de la vie augmente ou non le risque de multimorbidité n’a pas été étudiée. Des scientifiques de l’Inserm et d’Université Paris Cité ont examiné comment la durée du sommeil est associée à l’évolution des maladies chroniques au cours du vieillissement. Ils ont pour cela utilisé les données de 7 000 britanniques collectées dans le cadre de l’étude Whitehall II de l’University College London. Les participants ont effectué une auto-évaluation de leur durée de sommeil à plusieurs reprises entre 1985 et 2019, ce qui a permis d’extraire des données sur la durée du sommeil à l’âge de 50, 60, et 70 ans pour chaque participant. Un groupe de participants (4 000 personnes) a également porté une montre connectée (ou à accéléromètre) pendant une semaine, ce qui a permis d’avoir une mesure précise de la durée de sommeil et de vérifier la précision des estimations. Ces données ont été croisées avec des informations sur l’état de santé des participants obtenues au cours de leur suivi jusqu’en mars 2019. Les chercheurs ont ainsi pu examiner le lien entre la durée du sommeil à différents âges, son évolution entre 50 et 70 ans, et le risque de survenue de multimorbidité. Ils ont également étudié plus spécifiquement le rôle de la durée du sommeil à l’âge de 50 ans dans le risque de transition d’un état sain vers une première maladie chronique, vers la multimorbidité et vers la mortalité. Les auteurs ont également observé qu’une courte durée de sommeil à l’âge de 50 ans était associée à un risque accru de 20 % de développer une première maladie chronique, et à un risque accru similaire de multimorbidité parmi les personnes qui avaient déjà développé une première maladie chronique. Ces résultats pourraient expliquer le risque augmenté de décès de l’ordre de 25 % observé chez les personnes âgées de 50 ans ayant une durée de sommeil inférieure ou égale à cinq heures par nuit. En effet, de courtes nuits de sommeil augmentent le risque de survenue d’une ou plusieurs maladies chroniques, et ces dernières sont associées à une espérance de vie plus courte. Enfin, les scientifiques n’ont pas trouvé d’association robuste entre le fait d’avoir une durée de sommeil plus longue (supérieure ou égale à 9 heures) à l’âge de 50 ans et le risque de développer une multimorbidité au cours du vieillissement. Par contre, une nuit de sommeil de 9 heures ou plus chez les personnes ayant développé une première maladie chronique au cours de leur suivi (à l’âge moyen de 66 ans) était associée à un sur-risque de survenue de multimorbidité. Ce résultat suggère qu’une longue nuit de sommeil puisse être la conséquence d’une maladie chronique plutôt que sa cause. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Une vaste étude des Instituts américains de santé montre que les produits de défrisage font courir un risque accru de cancer de l’utérus - à ne pas confondre avec le cancer du col de l’utérus. Des produits principalement utilisés par les femmes noires. Le risque de développer un cancer de l’utérus fait plus que doubler pour celles qui y ont fréquemment recours - plus de quatre fois par an. L’étude se fonde sur les données de près de 33 500 Américaines, recrutées entre 2003 et 2009 et suivies sur quasiment onze années. Au total, 378 femmes ont développé un cancer de l’utérus. Pour celles n’ayant jamais utilisé de produit de lissage capillaire, le risque de développer un cancer de l’utérus d’ici leurs 70 ans est de 1,64 %, contre 4,05 % pour les utilisatrices fréquentes, a détaillé dans un communiqué Alexandra White, auteure principale de l’étude. « Parce que les femmes noires utilisent des produits de lissage ou de défrisage plus fréquemment et ont tendance à commencer plus jeunes (...), ces résultats pourraient être particulièrement intéressants pour elles », a souligné Che-Jung Chang, coauteure de ces travaux. Parmi les sondées, environ 60 % des femmes ayant dit utiliser des produits de défrisage dans l’année se sont déclarées noires. Le cancer de l’utérus est une forme de cancer relativement rare. Il représente environ 3 % des nouveaux cas de cancer aux États-Unis, avec quelque 66 000 cas et 12 500 décès en 2022. Mais les taux d’incidence de ce cancer sont en hausse aux États-Unis, notamment chez les femmes noires. En France métropolitaine, le nombre estimé de nouveaux cas de cancer de l’utérus était de 8 224 et le nombre estimé de décès de 2 415, pour l’année 2018. Les chercheurs n’ont pas récolté d’informations sur les produits et les marques spécifiquement utilisés. Mais ils relèvent que plusieurs produits chimiques pourraient contribuer à l’augmentation du risque de cancer : parabènes, bisphénol A, métaux ou encore formaldéhyde. Le formaldéhyde, communément appelé formol, peut notamment être utilisé pour les lissages dits brésiliens - à des taux limités dans certains pays, dont la France. Il est classé comme cancérogène. Un autre mode d’action potentiel pourrait être la perturbation des mécanismes hormonaux. Article rédigé par Georges Simmonds pour RT Flash NIH | | | |
| En France, on estime qu’au moins un million de personnes souffriraient de troubles bipolaires, Cette pathologie psychiatrique invalidante qui se manifeste par l’alternance de phases euphoriques et de phases dépressives, est, aujourd’hui, souvent mal détectée et mal prise en charge. Mais ça pourrait changer. Raoul Belzeaux, professeur de psychiatrie et chercheur au CHU et à la faculté de médecine de Montpellier (Hérault), a mis au point, avec son équipe, un dispositif innovant, capable de mieux dépister une bipolarité chez un patient. « Comme le problème le plus fréquent, c’est la dépression, on identifie aujourd’hui souvent les patients comme souffrant d’une dépression et pas de troubles bipolaires », confie le psychiatre. « Entre les premiers symptômes et le bon diagnostic, il se passe, souvent, une dizaine d’années ». Et en attendant, la maladie évolue, défavorablement. Et les antidépresseurs, souvent prescrits aux patients que l’on pense dépressifs, sont inadaptés aux réels troubles dont ils souffrent. Pour les personnes souffrant de bipolarité, les antidépresseurs peuvent s’avérer inefficaces. « Ils prennent donc un traitement pour rien », pointe Raoul Belzeaux. « Ou bien les antidépresseurs sont trop efficaces, et ils vont générer des phases d’exaltation délétères, ou même, aggravent les dépressions, et le risque suicidaire ». Le dépistage, mis au point par l’équipe du professeur montpelliérain, débute avec une simple prise de sang, dans un laboratoire. C’est l’analyse des cytokines, qui assurent le lien entre les cellules, qui va permettre de se rendre compte d’éventuels troubles bipolaires. Mais pas seulement. Ces mesures seront mêlées à d’autres données, grâce à une ingénieuse intelligence artificielle, qui a connaissance d’une multitude de profils médicaux. L’âge du patient, l’intensité des troubles, le tabagisme, etc., devront notamment être renseignés auprès de cet algorithme pour qu’il puisse se prononcer. Son diagnostic devra, enfin, être confirmé par un médecin spécialiste ou généraliste. Ce test innovant a encore un peu de chemin à faire. D’ici 2024, Raoul Belzeaux et son équipe devront mener une batterie de tests pour démontrer que ce dispositif est une avancée majeure, pour la détection de la bipolarité. Pour y parvenir, le professeur a besoin de fonds. Le 13 octobre, il a reçu le prix Marcel Dassault pour son innovation, avec une enveloppe d’environ 100.000 euros. « Avec la Fondation FondaMental, nous recherchons des mécènes pour mener à bien ce projet », confie Raoul Belzeaux. « Plus nous aurons les moyens rapidement, plus nous serons capables de produire une étude rapidement ». Article rédigé par Georges Simmonds pour RT Flash 20 minutes | | | |
| Le premier vaccin contre la dengue s'appelle QDenga et il est japonais. Takeda, le plus gros laboratoire pharmaceutique nippon, a reçu récemment un avis favorable de l'agence européenne du Médicament pour la commercialisation en Europe de son vaccin contre cette maladie endémique en Asie, en Amérique latine et aux Antilles. 3 à 4 milliards de personnes y sont exposées. Il arrive à point nommé car la dengue étant transmise par un type de moustiques vivant en milieu urbain, elle progresse avec l'urbanisation mondiale et a gagné l'Europe continentale, y compris la France (et les Etats-Unis). La Commission européenne suivant généralement l'avis de son agence de la santé, Takeda espère qu'elle autorisera d'ici la fin de 2022 la commercialisation de son vaccin, destiné aux adultes et aux enfants dès 4 ans. 390 millions de personnes sont infectées annuellement par la dengue, dont 500.000 sont hospitalisées. Elle ne cause normalement que de la fièvre et des douleurs articulaires (voire aucun symptôme), mais dans 1 cas sur 20 sa forme est sévère, hémorragique et potentiellement mortelle. « La dengue est la deuxième cause de fièvre la plus fréquente chez les voyageurs revenant en Europe depuis les zones endémiques », souligne Takeda. Article rédigé par Georges Simmonds pour RT Flash Les Echos | | | |
| Ce nouvel outil d'édition génomique, baptisé PASTE (Programmable Addition via Site-specific Targeting Elements) va révolutionner la biologie et la médecine. Mis au point par des chercheurs du MIT, il combine les propriétés et avantages de l'outil Crisp Cas9 et des enzymes intégrines à serase, ce qui permet l'insertion précise dans de nombreux types de cellules (cellules hépatiques lymphocytes) de gènes entiers... Cet outil, qui combine puissance, souplesse et précision, ouvre la voie vers une véritable "chirurgie du génome" qui va permettre de s'attaquer, à la source, à la correction et au remplacement des gènes défectueux, impliqués dans de nombreuses maladies génétiques complexes, aujourd'hui sans solutions thérapeutiques. Mais plus largement encore, cet outil pourrait permettre de bloquer à la source de nombreux cancers, en supprimant des gènes altérés ou mutés et en les remplaçant par des gènes sains. Reste qu'un outil d'une telle puissance mérite un débat éthique approfondi, afin d'en déterminer clairement le champ et les limites d'application, qui doivent rester strictement thérapeutiques et ne pas dériver vers des formes d'eugénisme ou "d'être humain augmenté"... Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| L'espérance de vie moyenne a varié dans différentes régions du monde au cours de la deuxième année de la pandémie de la COVID-19, en raison de taux de vaccination divergents, a récemment révélé une étude. La pandémie a provoqué en 2020 la plus forte diminution de l'espérance de vie depuis la Seconde Guerre mondiale, avaient déclaré l'an dernier des chercheurs du Leverhulme Center for Demographic Science de l'Université d'Oxford. Mais en 2021, une divergence soudaine est apparue, a indiqué Ridhi Kashyap, professeur à Oxford, sans sa dernière étude. Certains pays ont commencé à montrer des signes de reprise, tandis que d'autres ont eu des pertes qui se sont aggravées, a-t-il déclaré à l'AFP. Les chercheurs ont analysé les données de mortalité dans 29 pays européens, aux États-Unis et au Chili depuis 2015. De nombreux pays d'Europe occidentale ont vu leur espérance de vie rebondir à des niveaux proches de ceux d'avant la pandémie. La France, la Belgique, la Suisse et la Suède ont même réussi à revenir complètement aux taux de 2019. Cependant, en Europe de l'Est, l'espérance de vie a chuté à un niveau jamais vu depuis l'effondrement de l'Union soviétique, selon l'étude. En Bulgarie, l'espérance de vie a diminué de 25 mois en 2021 après avoir chuté de 18 mois l'année précédente. Or, la Bulgarie a le taux de vaccination le plus bas de l'Union européenne. Les pays qui avaient un pourcentage plus élevé de leur population entièrement vaccinée en octobre 2021 accusaient une baisse plus faible de l'espérance de vie, selon l'étude. Cela suggère qu'il existe clairement un lien, a déclaré M. Kashyap. Des pays tels que la Suède, la Suisse, la Belgique et la France ont réussi à retrouver les niveaux d'espérance de vie d'avant la pandémie parce qu'ils sont parvenus à protéger à la fois les personnes âgées et les plus jeunes, a aussi déclaré Jonas Schoeley, de l'Institut allemand Max Planck pour la recherche démographique, co-auteur de l'étude. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Anthropologie et Sciences de l'Homme | |
| | | Les Néandertaliens étaient-ils carnivores ? Les scientifiques n’ont pas encore tranché la question. Si certaines études du tartre dentaire d’individus venant de la péninsule ibérique pouvaient laisser penser qu’ils étaient de grands consommateurs de plantes, d’autres recherches menées sur des sites non ibériques semblaient plutôt indiquer une consommation quasi exclusive de viande. Grâce à de nouvelles techniques d’analyses appliquées sur une molaire d’un individu de cette espèce, des chercheurs et chercheuses démontrent que les Néandertaliens du site de Gabasa, en Espagne, semblaient bien être carnivores. Jusqu’alors, pour tenter de définir la place d’un individu dans la chaîne alimentaire, les scientifiques devaient généralement extraire les protéines et analyser les isotopes de l’azote présent dans le collagène des ossements. Or, cette méthode n’est souvent applicable que dans des environnements tempérés, et rarement sur des échantillons de plus de 50 000 ans. Lorsque ces conditions ne sont pas respectées, l’analyse des isotopes de l’azote est très complexe, voire impossible. C’était notamment le cas de la molaire provenant du site de Gabasa, étudiée ici. Face à ces contraintes, Klevia Jaouen, chercheuse au CNRS, et ses collègues ont cette fois-ci analysé les rapports isotopiques du zinc contenus dans l’émail dentaire, un minéral résistant à toutes formes de dégradations. C’est la première fois que cette méthode a été utilisée pour tenter d’identifier l’alimentation d’un Néandertalien. Plus les proportions des isotopes du zinc sont faibles dans les ossements, plus ces derniers sont susceptibles d’appartenir à un carnivore. Cette mesure a également été effectuée sur des ossements d’animaux provenant des mêmes périodes et zone géographique, à la fois sur des carnivores comme le lynx ou le loup, et sur des herbivores comme le lapin ou le chamois. Résultat, le Néandertalien à qui appartenait cette dent de Gabasa aurait été carnivore, et ne consommait pas le sang de ses proies. D’après les os brisés retrouvés sur le site et les données isotopiques, cet individu aurait également mangé la moelle osseuse de ses proies, sans pour autant en consommer les os. D’autres traceurs chimiques montrent qu’il a été sevré avant ses deux ans. Des analyses montrent également qu’il serait probablement mort là où il avait vécu étant enfant. Comparée aux précédentes techniques, cette nouvelle méthode, par l’analyse des isotopes du zinc, permet de mieux distinguer les omnivores des carnivores. Les scientifiques espèrent reproduire l’expérience sur d’autres individus, provenant d’autres sites pour confirmer leurs conclusions, notamment sur le site de Payre où de nouvelles recherches ont débuté. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|