| | Edito La France doit se doter d’un réseau de trains électromagnétiques à l’horizon 2040
En 40 ans, la France s’est dotée d’un réseau ferré à grande vitesse de 2 800 km qui dessert les principales métropoles françaises et a profondément remodelé l’aménagement du territoire et la géographie économique de notre pays. Au niveau européen, notre continent ne compte encore que 9 500 km de lignes à grande vitesse, alors que la Chine a dépassé les 40 000 km… En outre, chaque état européen a d’abord développé son réseau à grande vitesse en fonction des intérêts de sa logique nationale, et la perspective de relier chaque mégapole européenne par TGV reste encore lointaine. Il a fallu attendre la réunion de Lyon, le 29 juin 2022, pour que le projet d’un véritable plan ferroviaire européen intégré, à très grande vitesse, soit enfin remis sur la table. Le 24 février dernier, la Première Ministre a annoncé, s’inspirant du rapport du Conseil d'orientation des infrastructures (COI), un vaste plan de "planification écologique" de 100 milliards d'euros d'ici 2040 pour le transport ferroviaire, dont la clef de voute sera la réalisation de "RER métropolitains" dans les grandes agglomérations. La programmation des infrastructures s’inscrira dans le cadre des volets mobilité des contrats de plan État-région (CPER) et devrait être précisée d’ici quelques semaines. Ce choix stratégique du Gouvernement se faisant dans un contexte de raréfaction des ressources et de restriction budgétaire, il a une contrepartie majeure, l’abandon, ou le report de nombreux projets de lignes à très grande vitesse, dont les conséquences risquent d’être considérables pour notre pays et ne semblent pas avoir été pleinement mesurées. Depuis l’achèvement des derniers grands travaux concernant les ouvertures des lignes Paris-Bordeaux et Paris-Rennes, en 2017, puis le grand contournement Nîmes-Montpellier, en 2019, l’Etat a décidé, pour des raisons de contraintes budgétaires, de reporter, voire d’annuler purement et simplement, plusieurs projets de lignes à grande vitesse, pourtant indispensables au développement et à l’aménagement de nos territoires. Il s’agit notamment des lignes à g rande vitesse Rennes-Nantes, Bordeaux-Toulouse, Montpellier-Perpignan, Bordeaux-Dax et Lyon-Turin, qui ne verront sans doute pas le jour avant l’horizon 2034, ce qui va considérablement retarder la bonne interconnexion de notre pays au réseau à grande vitesse européen qui poursuit son développement. Pendant ce temps, la Chine et le Japon confortent leur avance technologique et industrielle sur la prochaine génération de train à très grande vitesse qui reposera sur la sustentation magnétique, autorisant des vitesses de pointe de plus de 600 km/h/, pour une vitesse de croisière de 500 km/h. Le Japon, pays qui possède le plus ancien et le plus fiable réseau ferré à grande vitesse - le Shinkansen - a atteint, dès 2015, la vitesse phénoménale de 603 km/h sur une voie expérimentale dans la préfecture de Yamanashi. Ce pays à la pointe de la très grande vitesse a dévoilé en 2020 son "SCMaglev" (Train Electromagnétique supraconducteur), qui a la particularité d'être alimenté en électricité directement par induction. La Central Japan Railway Company souhaite mettre en service une première ligne de train s à sustentation magnétique entre Tokyo et Nagoya en 2027. Les 246 km du trajet seront parcourus en 40 minutes seulement. A l’horizon 2045, ce train électromagnétique devrait relier Tokyo à Osaka (412 km), en une petite heure… La Chine, éternelle rivale du Japon, a présenté en 2002 un train MAGLEV capable d'atteindre des vitesses allant jusqu’à 430 km/h. Ce train, qui relie une station de métro de Shanghai à l'aéroport international de Pudong, utilise toutefois une technologie allemande. Mais en 2020, la Chine a révélé qu’elle travaillait sur sa propre technologie de train électromagnétique, avec un prototype capable d’atteindre la vitesse de pointe de 620 km/h, pour une vitesse de croisière qui devrait être comparable à son rival nippon, de l’ordre de 500 km/h. Le MAGLEV chinois, ce n’est pas un hasard, pourrait également voir ses premiers passagers en 2027 et Pékin souhaite le déployer rapidement sur la prestigieuse ligne Pékin- Shanghai (1318 km), où il rallierait les deux principales villes de Chine en seulement 2h30, contre 3 heures en avion et 5h30 en train à grande vitesse classique. C'est dans ce contexte que vient d’être annoncé un accord stratégique entre la SNCF et la société polonaise Nevomo, qui fait partie du cercle très fermé des start-up qui se sont lancées dans la course à l'Hyperloop. Ce train vise une vitesse de croisière équivalente à celle d’un avion de ligne – 1000 km/h – en combinant deux ruptures technologiques : d’une part la sustentation électromagnétique, qui met le train en lévitation au-dessus de la voie et supprime tout frottement ; d’autre part, la circulation de ces trains dans des tubes où règne une pression d’air mille fois plus faible qu’à l’extérieur, ce qui permet d’atteindre une telle vitesse sans faire exploser la consommation d’énergie au-delà du raisonnable. Ce n’est pourtant pas sur ce concept originel d’Hyperloop que le partenariat entre Nevomo et la SNCF a été noué. L’opérateur ferroviaire historique est en effet plus que sceptique sur la faisabilité rentable de l’Hyperloop, dans sa version actuelle, car ce train hyperrapide nécessite une infrastructure fermée et sécurisée extrêmement coûteuse, de l’ordre de 50 millions d’euros du km. Pour surmonter cet obstacle majeur, la société polonaise a donc inventé une technologie nouvelle, qui présente l’avantage décisif d’être compatible avec le réseau existant. La solution technique imaginée consiste à installer un moteur linéaire entre les deux rails et à équiper les voitures de nouveaux châssis magnétiques. Ainsi équipés, ces trains pourraient atteindre la v itesse de 550 km/h, sans modification à un coût exorbitant des infrastructures. Mais cette technologie électromagnétique de Nevomo, baptisée MagRail, présente un autre avantage décisif : elle est conçue pour permettre la circulation en toute sécurité de trains entièrement autonomes. « Nous devons entrer dans la troisième révolution du rail : après l'électrification dans les années 1920, la grande vitesse dans les années 1980, la SNCF est engagée dans l'avènement du train autonome », a déclaré Fabien Letourneaux, qui est responsable de ce projet à la SNCF. Concrètement, des tests grandeur nature sur les lignes régionales de la SNCF sont prévues dès 2025 et cette technologie MagRail sera également expérimentée dans le cadre d'un autre chantier stratégique pour l’avenir, celui visant à multiplier par trois la part du fret ferroviaire d’ici 2050, car la technologie MagRail permet également, selon la SNCF, d’accroître sensiblement les limites de chargement et la capacité des trains de marchandises. Quant à la société Nevomo, elle est persuadée que la sustentation magnétique s’imposera également, à terme, à de nouvelles navettes plus légères, ce qui ouvre de nouvelles perspectives pour la desserte locale rapide, tant pour les passagers que pour le fret. Sur ce point capital et complémentaire de la très grande vitesse structurante, d’abord destinée à relier les grandes métropoles, la SNCF a également engagé une réflexion très intéressante. Son constat est que les TER qui circulent aujourd’hui sur les petites lignes de desserte sont souvent "surdimensionnés" par rapport au trafic réel, ce qui entraîne des couts prohibitifs d’exploitation et de maintenance. Pour surmonter ce défi, la SNCF travaille sur un concept de "Train Léger innovant", baptisé Daisy. Il se veut bien mieux adapté aux besoins des petites lignes avec ses 60 places assises et sa propulsion électrique, complétée par un stockage d’énergie embarqué par batterie pour réduire les émissions de CO2. Plus léger et compact que les TER actuels, grâce à l’emploi de nouveaux matériaux, Daisy nécessitera un entretien moins important qu’un train. Il a été pensé pour les lignes de moins de 100 kilomètres à faible trafic et permettra une souplesse d’usage inédite, comme des arrêts "à la carte". Développé dans le cadre du programme Tech4Rail, ce projet sera expérimenté dès 2024. Il porte à la fois sur le matériel roulant et sur l’infrastructure, et veut faire d’une pierre, trois coups : baisser les charges financières, diminuer drastiquement les émissions de CO2, et assurer un haut niveau de service, de confort et de régularité. Ce Train Léger innovant a donc été pensé pour permettre aux Régions, compétentes en matière de transports, d’assurer l’avenir des petites lignes et de proposer une offre renouvelée de mobilité au service des territoires. Le complément de Daisy s’appelle Flexy. Là encore, il s’agit d’un nouveau mode de transport innovant, qui peut rouler sur rail comme sur route ! Avec sa capacité de 9 places, les trains Flexy sont conçus pour aller, le cas échéant, récupérer l’usager au plus près de chez lui, sans que celui-ci ait à se déplacer en gare pour les voyages à courte distance. Mais, quel rapport y-a-t-il entre ces nouveaux concepts de mobilité ferroviaire et les projets de trains électromagnétiques, d’abord pensés pour la très grande vitesse ? C’est justement sur ce point qu’il est intéressant de souligner que l’accord entre la SNCF et la société Nevomo prévoit « les bénéfices du Magrail sur le réseau ferroviaire français, en augmentant l’efficience et la capacité du transport de passagers et le fret ». Pour Luc Laroche, directeur de l’innovation SNCF, ce train pourrait « à la fois accroître les capacités sur les lignes urbaines congestionnées et constituer une alternative pour les petites lignes, en combinaison avec les trains légers ». La réflexion prospective de la SNCF est intéressante car elle imagine, & agrave; terme, que la propulsion électromagnétique s’imposera également pour les TER et les petites navettes de desserte… Evoquons enfin le projet de mobilité très novateur, voire subversif, de la jeune société Kevin Speed, fondée par Laurent Fourtune, ancien directeur du développement à la RATP (Voir Kevin Speed). Kevin Speed veut révolutionner le marché à l’horizon 2027, avec des trains omnibus circulant à 300 km/h, de 6h00 à 23H00, et qui desserviraient toutes les petites gares sur la ligne. Ce service de navettes à grande vitesse aurait vocation à se substituer à terme aux TER classiques. Il permettrait de revitaliser les gares intermédiaires des axes à grande vitesse avec une desserte multipliée par trois pour tous, tous les jours et à petits prix. Il offrirait « une solution accessible aux gens qui vivent dans les villes moyennes, la ruralité et le périurbain et leur permettre d'accéder aux métropoles, sans dépenser des milliers d'euros d'essence tous les ans ». On le voit, en s’adaptant aux besoins de plus en plus diversifiés des usagers, la combinaison intelligente du train à très grande vitesse, de la sustentation magnétique, de la modularité, de l’autonomie de conduite et de la gestion numérique des réseaux, va bouleverser totalement l’offre de déplacements dans notre pays et, plus largement, le concept même de mobilité. Ces nouveaux modes de transports flexibles, compétitifs et écologiques, vont également devenir les vecteurs essentiels d’une revitalisation de nos territoires, qui retrouveront une attractivité et une compétitivité nouvelles. Dans cette perspective, notre pays doit sans tarder compléter et élargir son plan pour le développement ferroviaire, en optant clairement, dans le cadre d’une feuille de route ambitieuse, pour un choix d’avenir, celui de la sustentation électromagnétique, déclinée de façon pertinente sur les trois niveaux de déplacements, les grandes liaisons structurantes entre métropoles, les liaisons régionales inter-cités et les liaisons locales, de desserte, maillon tout aussi essentiel dans un pays comme la France, vaste et composé de nombreuses régions à faible densité de population. Si nous parvenons, en mobilisant toutes les forces conjuguées de l’Etat, des collectivités locales, et des entreprises privées, à accomplir cette ambitieuse transition historique d’ici 20 ans, la physionomie économique, territoriale, sociale e t environnementale de notre pays s’en trouvera, pour le plus grand bénéfice de tous nos concitoyens, radicalement changée. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | | | Selon Jun Song Chen, de l’école des matériaux et de l’énergie de l’Université des sciences et technologies électroniques de Chine, les batteries sodium-ion (SIB) pourraient se substituer aux batteries lithium-ion (LIB). Il est plus facile de trouver du sodium étant donné qu’il est présent partout sur Terre. Néanmoins, à cause de sa taille atomique largement supérieure à celle du lithium, la diffusion de charge est repoussée et le volume connaît une modification considérable durant le stockage du sodium. Il est essentiel de créer des matériaux d’électrode uniques, avec des propriétés électrochimiques optimisées. Selon Chen, les sulfures de métaux de transition contribueraient au stockage du sodium. Le développement d’hétérostructures améliore également les caractéristiques électrochimiques des matériaux actifs. Cela induit un puissant champ électrique interne à l’interface entre deux composants, ajoutant une force motrice pour la conduite des ions et des électrons à la frontière. En se basant sur ces théories, l’équipe a créé une hétérostructure NiS2/FeS unique, en utilisant une méthode en plusieurs étapes. Le NiS2/FeS synthétisé semble avoir de bonnes propriétés de stockage du sodium. D’ailleurs, il a présenté une meilleure performance et une rétention cyclique longue et stable, dépassant celle des autres électrodes de sulfure métallique. Toutefois, le processus de l’amélioration des performances causée par l’hétérostructure reste à confirmer. Chen a expliqué que les calculs de la théorie de la fonction de la densité (DFT) ont été adoptés pour découvrir la raison des performances supérieures de l’hétérostructure NiS2/FeS en matière de batterie. L’hétérostructure NiS2/FeS affaiblit la barrière énergétique de migration du sodium, confirmant qu’il se diffuse plus rapidement à l’interface. De plus, sa force d’absorption est nettement plus élevée, ce qui stabilise l’absorption de sodium. Cela maintient l’équilibre de la structure pendant les charges/décharges répétées. Les chercheurs ont également découvert qu’elle possède la densité de charge maximale près du niveau de Fermi. Cela indique que le NiS2/FeS possède une bonne conductivité électrique. Les chercheurs ont examiné la capacité d’applications commerciales du NiS2/FeS as-synthétisé. Ils ont analysé les performances des cellules complètes en unissant des mécanismes utilisant Na3V2(PO4)3 (NVP) comme cathode et NiS2/FeS comme anode. Les cellules complètes NVP||NiS2/FeS assemblées ont présenté de bonnes performances électrochimiques, soit une bonne capacité commerciale. Article rédigé par Georges Simmonds pour RT Flash Phys.org | | | |
| Des chercheurs de l’Université de Caroline du Nord ont mis au point un matériau souple conservant une telle propriété, grâce à un alliage de gallium et d’indium baptisé EGaIn. Normalement solides à température ambiante, ces deux métaux deviennent "eutectiques" lorsqu’ils sont mélangés : leur point de fusion baisse, les rendant liquides. Pour obtenir le matériau, l’équipe a encapsulé une fine couche d’EGaIn dans un polymère élastique, constitué de minuscules billes de verre empêchant l’accumulation de métal. Décrit comme un « polymère extensible et flexible doté d’un coeur métallique liquide », celui-ci a démontré son efficacité au cours de différentes expériences. Les scientifiques américains ont dans un premier temps mesuré la propension de l’alliage métallique liquide à s’évaporer ainsi que celle de l’oxygène à s’échapper d’un récipient scellé fabriqué à partir du nouveau matériau. Dans les deux cas, aucune perte de liquide ou de gaz n’a été observée. Une seconde série d’expériences a impliqué l’utilisation du polymère en tant que joint hermétique dans différents dispositifs électroniques souples. Ayant largement contribué au maintien de la capacité d’une batterie lithium-ion flexible sur 500 cycles, celui-ci a également permis d’augmenter la conductivité thermique d’un système de transfert de chaleur (utilisé dans l’électronique). L’ajout d’une fenêtre de transmission de signaux a montré qu’il pouvait également permettre le passage de communications sans fil. Ces résultats ouvrent la voie à l’utilisation de ce matériau flexible et non perméable dans différents types d’appareils électroniques. « Les batteries flexibles utilisées avec l’électronique souple sont une application évidente, mais d’autres dispositifs qui utilisent des liquides ou sont sensibles à l’oxygène en bénéficieraient également », soulignent les auteurs de ces travaux. Si les métaux utilisés se révèlent assez chers, les chercheurs estiment qu’il serait possible de réduire le coût du matériau sans sacrifier ses propriétés, en utilisant par exemple une couche d’EGaIn encore plus fine. Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| Jusqu’à aujourd’hui, la capacité de fabriquer des dispositifs électroniques plus rapides s’est résumée à un principe simple : réduire la taille des transistors et des autres composants. Mais cette approche atteint ses limites car les avantages de la miniaturisation sont contrebalancés par des inconvénients comme la résistance et la diminution de la puissance de sortie. Elison Matioli, du Laboratoire de dispositifs semiconducteurs de puissance (POWERlab) de la Faculté des sciences et techniques de l’ingénieur de l’EPFL, explique que la poursuite de la miniaturisation n’est donc pas une solution viable pour améliorer les performances de l’électronique. « De récents articles décrivent des dispositifs de plus en plus petits, mais dans le cas des matériaux à base de nitrure de gallium, les meilleurs dispositifs en termes de fréquence ont déjà été publiés il y a quelques années », déclare-t-il. « Après ça, il n’y a vraiment rien de mieux, car à mesure que la taille des dispositifs diminue, nous sommes confrontés à des limites fondamentales. Cela est vrai quel que soit le matériau utilisé ». En réponse à ce challenge, Elison Matioli et le doctorant Mohammad Samizadeh Nikoo ont imaginé une nouvelle approche de l’électronique qui pourrait surmonter ces limites et aboutir à une nouvelle classe de dispositifs térahertz. Plutôt que de rétrécir leur dispositif, ils l’ont réagencé, notamment en gravant des contacts à motifs appelés métastructures à des distances inférieures à la longueur d’onde sur un semi-conducteur composé de nitrure de gallium et de nitrure d’indium gallium. Ces métastructures permettent de contrôler les champs électriques à l’intérieur du dispositif et ainsi d’obtenir des propriétés extraordinaires qui n’existent pas dans la nature. Et surtout, le dispositif peut fonctionner à des fréquences électromagnétiques de l’ordre du térahertz (entre 0,3 et 30 THz), ce qui est nettement plus rapide que les ondes gigahertz utilisées dans l’électronique d’aujourd’hui. Ils peuvent donc transporter des quantités d’informations beaucoup plus importantes pour une période ou un signal donné, ce qui leur confère un grand potentiel pour des applications dans les communications 6G et au-delà. « Nous avons découvert que la manipulation des champs de radiofréquences à l’échelle microscopique peut améliorer considérablement les performances des dispositifs électroniques, sans recourir à une forte réduction d’échelle », explique Mohammad Samizadeh Nikoo, qui est le principal auteur d’un article sur cette avancée récemment publié dans la revue Nature. Les fréquences térahertz étant trop rapides pour être gérées par l’électronique actuelle et trop lentes pour les applications optiques, cette gamme est souvent appelée "écart térahertz". L’utilisation de métastructures sub-longueur d’onde pour moduler les ondes térahertz est une technique issue du monde de l’optique. Mais la méthode de POWERlab permet un degré d e contrôle électronique sans précédent, contrairement à l’approche optique qui consiste à projeter un faisceau de lumière externe sur un motif existant. « Dans notre approche basée sur l’électronique, la capacité à contrôler les radiofréquences induites provient de la combinaison des contacts à motifs sub-longueur d’onde et du contrôle du canal électronique avec une tension appliquée. Cela signifie que nous pouvons modifier l’effet collectif à l’intérieur du métadispositif en induisant (ou non) des électrons », affirme Elison Matioli. Alors que les dispositifs les plus avancés du marché actuel peuvent atteindre des fréquences de 2 THz, les métadispositifs de POWERlab peuvent aller jusqu’à 20 THz. De même, les dispositifs actuels fonctionnant dans la gamme des térahertz ont tendance à tomber en panne à des tensions inférieures à 2 volts, alors que les métadispositifs peuvent supporter plus de 20 volts. Cela permet de transmettre et de moduler des signaux térahertz avec une puissance et une fréquence bien supérieures à ce qui est actuellement possible. Comme l’explique Mohammad Samizadeh Nikoo, la modulation des ondes térahertz est déterminante pour l’avenir des télécommunications, car avec les besoins croissants en données de technologies telles que les véhicules autonomes et les communications mobiles 6G, les limites des appareils d’aujourd’hui sont rapidement atteintes. Les métadispositifs électroniques développés au POWERlab pourraient servir de base à l’électronique térahertz intégrée en produisant des puces compactes à haute fréquence qui peuvent déjà être utilisées notamment dans les smartphones. « Cette nouvelle technologie pourrait changer l’avenir des communications à très haut débit, car elle est compatible avec les processus existants de fabrication des semi-conducteurs. Nous avons démontré une transmission de données allant jusqu’à 100 gigabits par seconde à des fréquences térahertz, ce qui est déjà 10 fois supérieur à ce que nous avons aujourd’hui avec la 5G », indique Mohammad Samizadeh Nikoo. Pour exploiter pleinement le potentiel de l’approche, Elison Matioli indique que la prochaine étape consistera à développer d’autres composants électroniques prêts à être intégrés dans des circuits térahertz. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Le dioxyde de carbone fait partie des facteurs fondamentaux à l’origine du changement climatique. Limiter les émissions de gaz carbonique est donc un moyen pour lutter contre ce fléau qui touche actuellement notre planète. Des scientifiques du Rice University au Texas ont inventé une méthode qui pourrait aider à réduire le CO2 dans l’atmosphère en le capturant dans les matériaux de structure, plus précisément le bois. Pour ce faire, ils ont enlevé l’ossature interne du bois par délignification et l’ont remplacée par des MOF (metal-organic frameworks) ou ossatures organométalliques. Les MOF sont des microparticules hautement poreuses capables d’absorber le dioxyde de carbone. Le bois est composé de trois éléments principaux qui sont la cellulose, l’hémicellulose et la lignine. D’après Muhammad Rahman, co-auteur de l’étude, le bois devient incolore lorsqu’on enlève la lignine car c’est elle qui lui donne sa couleur. Les chercheurs avaient pour principal objectif d’exploiter les propriétés naturelles du bois pour qu’il puisse mieux capter le dioxyde de carbone. Grâce au processus de délignification, ils ont pu enlever la lignine du bois pour que celui-ci puisse accueillir les MOF. Selon Soumyabrata Roy, auteur principal de l’étude et chercheur du Rice University, les particules de MOF s’intègrent facilement dans les canaux de cellulose et s’y attachent. Une fois intégrées au bois, les MOF absorbent le dioxyde de carbone. En général, les MOF présentent une certaine instabilité lorsqu’elles se retrouvent dans des conditions environnementales variables. Elles sont également vulnérables en présence d’humidité qui est d’ailleurs quelque chose à éviter lorsqu’on parle de matériau de structure. Les MOF utilisées par l’équipe de Rice au cours de l’étude ont été développées par le professeur George Shimizu et ses collègues de l’Université de Calgary. A l’inverse des MOF classiques, ces MOF s’avèrent être beaucoup plus performantes et polyvalentes dans diverses conditions. Des tests de résistance à la traction du bois modifié ont révélé que celui-ci était plus résistant que le bois normal non traité, et qu’il était capable de supporter des facteurs de stress environnementaux comme la flexion. En général, plus de 40 % des émissions de gaz à effet de serre d’origine humaine proviennent de la construction et de l’utilisation des bâtiments. Cette invention pourrait donc constituer une alternative plus écologique aux matériaux de construction habituels. De plus, le processus de production du bois modifié serait évolutif et particulièrement économe en énergie. Article rédigé par Georges Simmonds pour RT Flash Rice | | | |
| Encore une application pour le plasma froid ! Ce quatrième état de la matière au côté des états gazeux, solide et liquide, s’obtient en soumettant un gaz à un champ électrique formant ainsi une sorte de “soupe” capable de produire de l’énergie. Il en existe de nombreux types dont certains très chauds composent les cœurs des étoiles. Le plasma en soi n'est pas capable de produire de l'énergie, mais il peut créer des molécules et des espèces très réactives, difficiles à créer autrement et qui peuvent faciliter des réactions nouvelles. I Il existe ainsi des plasmas froids entre 0 et 500°C. Cette propriété est déjà utilisée dans la microgravure des circuits intégrés informatiques, l’éclairage avec les tubes fluorescents et les lampes à basse consommation et enfin le monde médical où le plasma froid pourrait bientôt servir à désinfecter les plaies. Mais c’est le domaine de l’énergie qui a intéressé Edmond Baratte, chercheur au Laboratoire de physique des plasmas à l’Institut polytechnique de Paris et alerté le SATT (société d’accélération du transfert de technologies) de Paris-Saclay. « Depuis 2015, nous explorons la productivité du plasma froid sur une molécule dont tout le monde a entendu parler, le CO2 », expose Edmond Baratte. Le sujet nouveau, c’est la méthanation. Ce procédé consiste à convertir du CO2 en méthane (CH4) par combinaison avec de l’hydrogène (H2). Il a au moins deux vertus. En période de production excédentaire d’énergies renouvelables, l’électricité peut être stockée en fournissant de l’énergie verte à des électrolyseurs pour produi re de l’hydrogène. Celui-ci est donc combiné au CO2 récupéré aux cheminées d’industries voisines (le gisement potentiel est de 51 millions de tonnes par an, soit environ 15 % des émissions annuelles de gaz à effet de serre de la France). L’énergie peut ainsi être stockée sous forme de gaz vert dans le réseau existant. Dans les prochaines années, ainsi que l’anticipent RTE et GRT gaz, les deux réseaux gaziers et électriques devraient ainsi converger. Article rédigé par Georges Simmonds pour RT Flash Sciences et Avenir | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Des calottes glaciaires, dont la fonte élèverait le niveau des océans de plusieurs mètres, pourraient bien s'effondrer avec un demi-degré de réchauffement supplémentaire du climat. C'est ce que montrent des études récentes qui font la lumière sur leurs fragilités jusqu'ici insoupçonnées. Les calottes du Groenland et de l'Antarctique ont perdu plus de 500 milliards de tonnes par an depuis l'an 2000, soit six piscines olympiques toutes les secondes. Mais les modèles climatiques avaient jusqu'à présent sous-estimé leur contribution à la future montée du niveau des océans, en ne prenant en compte que l'effet de la hausse des températures de l'air sur la glace, et en négligeant les interactions complexes entre l'atmosphère, les océans, les calottes et certains glaciers. Des chercheurs basés en Corée du Sud et aux Etats-Unis ont établi quelle serait l'élévation du niveau des mers d'ici 2050 en fonction des différents scénarios des experts du Groupe d'experts intergouvernemental sur l'évolution du climat (Giec). En cas de poursuite des politiques climatiques actuelles, la fonte en Antarctique et au Groenland se traduirait par une hausse d'environ un demi-mètre du niveau des eaux. Ce chiffre grimperait à 1,40 mètre dans un scénario du pire, en cas de hausse importante des émissions de gaz à effet de serre, liées aux activités humaines et à l'utilisation des énergies fossiles (comme le pétrole, le gaz et le charbon). L'étude de ces scientifiques précise également quand l'emballement de la fonte et une désintégration incontrôlable de ces calottes glaciaires pourraient intervenir. « Notre modèle a des seuils entre 1,5°C et 2°C de réchauffement – 1,8°C étant notre meilleure estimation – pour l'accélération de la perte de la glace et l'augmentation du niveau des mers », a expliqué Fabian Schloesser, de l'Université d'Hawaï, co-auteur de l'étude. Les températures se sont déjà élevées de près de 1,2°C dans le monde depuis l'ère pré-industrielle (+1,7°C pour la France). Les scientifiques savaient depuis longtemps que les calottes glaciaires de l'Antarctique occidental et du Groenland, qui pourraient élever le niveau des océans de 13 mètres à long terme, avaient des “points de bascule”. Au-delà de ces seuils, leur désintégration serait inévitable. Mais les températures associées à ce phénomène n'avaient jamais été précisément identifiées. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| L'année 2022 a été particulièrement chaude et sèche en Europe. Et le changement climatique est à l'origine de l'amplification de cet épisode de sécheresse. Une étude scientifique conduite par une équipe de chercheurs du CNRS publiée récemment vient de le démontrer. Ce n'est pas tout à fait une surprise, mais le fait est désormais prouvé : la sécheresse qui s'est emparée de l'Europe de l'ouest l'an passé est en grande partie due au réchauffement climatique. C'est la principale conclusion de cette étude conduite par une équipe du CNRS. Dans la note de synthèse qu'il a fait paraître sur son site, le Centre national de la recherche scientifique a ainsi expliqué que pour démontrer la responsabilité du “changement climatique anthropique” (due à l'être humain, NDLR), ses chercheurs avaient employé la méthode dite des “analogues de circulation”. Comme Davide Faranda, l'un des auteurs de l'étude, l'a résumé sur Twitter, ce procédé a permis aux scientifiques de mettre en lumière le rôle des émissions de CO2 dans l'intensification et l'extension des zones de haute pression présidant à la sécheresse. En effet, outre l'Angleterre, la France et l'Espagne, l'Allemagne, la Suisse et la Lombardie ont également été gagnées par cette fièvre atmosphérique l'an passé. Dans le détail, les experts ont établi les conditions météorologiques de l'année 2022, puis ont comparé entre elles les sécheresses survenues entre 1836 et 1915 (avant le réchauffement donc) puis celles intervenues depuis 1942 (tandis que la température grimpait). Il s'agissait de mesurer la part du changement climatique dans le renforcement de ces épisodes. Les rédacteurs de l'étude ont fait état de leurs conclusions dans une autre note, diffusée cette fois par le Laboratoire des sciences du climat et de l'environnement. « Les résultats ont montré que l'anomalie anticyclonique persistante sur l'Europe de l'Ouest pendant la sécheresse a été exacerbée par le changement climatique dû à l'homme, avec des anomalies de pression atmosphérique plus grandes et plus étendues et des températures plus élevées à la surface », peut-on ainsi y lire. Cette exarcerbation du phénomène se traduit donc par l'augmentation de la zone affectée et l'aggravation du desséchement du fait de l'évapotranspiration (soit l'évaporation de l'eau présente dans les sols). « Les résultats de cette étude soulignent l'importance de poursuivre les efforts pour réduire les émissions de gaz à effet de serre et atténuer les effets du changement climatique », posent en conséquence les auteurs de l'é ;tude. Article rédigé par Georges Simmonds pour RT Flash ERL | | | |
| Alors que ses origines sont lointaines, le biochar est à nouveau utilisé depuis quelques années afin d’améliorer des sols agricoles dans divers pays tropicaux – notamment très acides et très altérés. Il s’agit principalement d’accroître la qualité des sols et ainsi leur productivité. Néanmoins, le Laboratoire fédéral d’essai des matériaux et de recherche (EMPA) en Suisse évoque cette matière à utiliser en tant que "puits de CO2". L’EMPA explique que le biochar est capable de capter et fixer le CO2, et ce tout en enrichissant les sols. Alors que les effets bénéfiques de ce charbon végétal sont déjà connus dans les régions tropicales, les chercheurs suisses affirment que leur biochar a vocation à s’adapter aux sols des régions tempérées. Ainsi, les scientifiques souhaitent fabriquer un nouvel isolant à partir de déchets végétaux, celui-ci pouvant fixer le CO2 dans les sols à l’aide d’un traitement chimique spécifique. Les déchets végétaux proviendraient ainsi de l’agriculture et de la sylviculture. Le nouveau biochar dont il est ici question fonctionnerait donc tel un puits de CO2. Le but est de l’utiliser comme matériau de construction dans le bâtiment et, après démolition, de recycler ce même matériau dans le but de fertiliser les sols. Ainsi, en tant que matériau de construction, le biochar capterait déjà le CO2 puis deviendrait un engrais efficace lorsque les bâtiments seraient démolis. Rappelons au passage que le secteur du bâtiment est l’un des plus polluants au monde. En effet, celui-ci concentre 40 % de la consommation mondiale d’énergie, 30 % des émissions de GES et 36 % des déchets produits dans l’Union européenne. Le biochar des chercheurs suisses pourrait donc contribuer à réduire ces chiffres très pré ;occupants. Les responsables des travaux indiquent également que leur biochar pourrait rester stable dans les champs durant des centaines, voire des milliers d’années. Article rédigé par Georges Simmonds pour RT Flash EMPA | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Autorisé le 6 janvier dernier par la FDA américaine, le lecanemab sera bientôt en vente aux États-Unis sous le nom de Leqembi et pourra être administré à des patients présentant des troubles cognitifs légers ou atteints d’une maladie d’Alzheimer au stade léger et ayant passé un examen révélant des plaques amyloïdes cérébrales (la même population que celle concernée par l’essai clinique). Issu de près de 40 ans de recherche depuis la découverte de la protéine bêta-amyloïde en 1984, le lecanemab est le premier traitement anticorps qui se soit montré capable de "nettoyer" le cerveau des agrégats toxiques formés par les plaques amyloïdes et de montrer un ralentissement significatif du déclin cognitif chez les patients, après 18 mois de traitement. « Les traitemen ts actuels ont surtout un effet sur les symptômes. C’est la première fois que de tels effets cliniques sont observés dans le cas d’un traitement contre la maladie d’Alzheimer » a confirmé le Docteur Maï Panchal, directrice scientifique de la Fondation Vaincre Alzheimer. Fruit de la recherche des laboratoires pharmaceutiques japonais, Eisai, et américains Biogen, le Leqembi a bénéficié d’un statut prioritaire et d’une procédure accélérée de mise sur le marché. « Cette procédure accélérée est destinée aux maladies qui n’ont pas de traitement et donc pour lesquelles il y a un réel besoin médical. Elle peut être appliquée si le médicament testé montre des signes d’efficacité sur la maladie, permettant ainsi de prédire un effet clinique du médicament » a expliqué le Docteur Maï Panchal. Sur ce point, le Docteur Marion Levy, Responsable Études et Recherche de la Fondation Vaincre Alzheimer, atteste que « En effet, ce traitement peut induire des effets secondaires tels que des micro-hémorragies ou des œdèmes cérébraux appelés ARIA ». Elle assure que ces effets secondaires, « sont, dans la majorité des cas, contrôlables et sans grave conséquence, mais il faut les surveiller avec des séances d’IRM régulières ». Notons que le laboratoire Eisai réfléchit sur la nécessité de réaliser un test génétique chez les malades qui peuvent recevoir le traitement, afin de savoir s’ils sont porteurs du gène APOE4, car les risques d’ARIA sont plus importants chez ces patients. Article rédigé par Georges Simmonds pour RT Flash FDA | | | |
| Maladies de Parkinson, d’Alzheimer, dégénérescence cérébrale, sclérose latérale amyotrophique, toutes ces maladies neuro-dégénératives ont un point commun : la mort de neurones associée à l’accumulation de protéines dites amyloïdes (différentes selon la maladie). Des protéines anormales s’agrègent en des sortes de "pelotes de laine" qui remplissent les neurones puis se transmettent de neurones en neurones, entre les différentes régions cérébrales, entraînant une inflammation (une réaction du système de défense immunitaire) et la mort des cellules. La question centrale était donc de savoir d’où venaient ces protéines amyloïdes. Le chercheur Shu Chen, de la Case western reserve university à Cleveland, et ses collègues, ont montré qu’elles seraient issues de nos intestins, et plus précisément des bactéries de la flore intestinale. Jusqu’à maintenant, on ignorait comment apparaissaient les premières protéines anormales qui se replient mal et vont s’accumuler dans les neurones. On observait également une réaction inflammatoire importante autour des régions cérébrales où ces protéines s’agrègent, sans que l’on sache si elle provoque ou non la mort des neurones. En revanche, on savait que des protéines amyloïdes sont déjà présentes dans les intestins et que les neurones intestinaux des patients mettent parfois 20 ans avant que la maladie de Parkinson soit diagnostiquée. Nos intestins renferment plus de 1,5 kilogramme de bactéries. Cette flore intestinale ou microbiote a de nombreux rôles dans la digestion, contre l’inflammation, etc. Ces bactéries sont pour la plupart non seulement inoffensives, mais aussi essentielles à notre survie. En 2002, il a été découvert que certaines d’entre elles produisaient des protéines amyloïdes, utiles à leur prolifération, leur adhérence et leur résistance. Les plus étudiées sont les protéines "curli", sécrétées par les bactéries Escherichia coli. Chen et ses collègues ont supposé que ces protéines amyloïdes de la flore intestinale provoquaient l’apparition d’autres protéines amyloïdes dans les neurones du cerveau. Ils ont choisi d’étudier l’agrégation de l’une de ces protéines, l’alpha-synucléine, qui s’accumule dans les neurones des patients atteints de la maladie de Parkinson. Pour ce faire, ils ont nourri pendant deux ou trois mois 344 rats âgés et des vers C. elegans (génétiquement modifiés pour exprimer l’alpha-synucléine humaine) avec des bactéries Escherichia coli produisant des curli, d’autres animaux recevant des bactéries modifiées pour ne plus produire de curli. Résultat : les rats ayant reçu les E. coli sécrétant les curli présentaient des protéines alpha-synucléines agrégées dans l’intestin et dans les neurones intestinaux, mais aussi dans les neurones du cerveau. Les vers développaient quant à eux des amas de protéines alpha-synucléines dans leurs cellules musculaires. À l’inverse, les animaux exposés aux bactéries ne produisant pas de curli ont développé très peu d’agrégats amyloïdes. En outre, l’apparition des protéines amyloïdes provoquait une réaction inflammatoire locale intense dans le cerveau des rats, comparable à celle que l’on observe dans le cerveau des patients souffrant de maladies neuro-dégénératives. Comment les protéines amyloïdes sécrétées par les bactéries affectent-elles indirectement les neurones ? Les scientifiques émettent trois hypothèses. La présence des protéines agrégées bactériennes pourrait provoquer une surexpression de l’alpha-synucléine dans tout l’organisme, ce qui favoriserait alors son agrégation. À moins que l’agrégation ne se transmette, presque de proche en proche, à d’autres protéines. Ou encore que l’activation immunitaire engendrée dans les intestins par les protéines amyloïdes bactériennes entraîne une réaction immunitaire et une inflammation au niveau cérébral ; inflammation qui serait alors à l’origine de l’agrégation protéique cérébrale. Cette étude est l’une des premières à démontrer que le microbiote est capable de provoquer l’agrégation de protéines anormales dans les neurones du cerveau. Voilà une nouvelle piste de recherche pour mieux comprendre les maladies neuro-dégénératives, voire les traiter, étant donné que l’on dispose maintenant de nombreux outils pour étudier et agir sur la flore intestinale. La santé des intestins et de la flore intestinale via l’alimentation et la prise régulière de probiotiques reste une priorité pour celles et ceux qui se soucient de leur santé présente et à venir. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| L'autisme se caractérise par des troubles de l'interaction sociale et de la communication ainsi que des anomalies comportementales comme une réticence au changement ou une tendance à la répétition des comportements. Les mécanismes de l'autisme restent encore assez mystérieux. Toutefois, une équipe de l'Hector Institute for Translational Brain Research (HITBR) vient de faire une découverte prometteuse : la lamotrigine (Lamictal® et ses formes génériques), médicament anticonvulsif contre l’épilepsie, pourrait aider à réduire les symptômes. Le scientifique Moritz Mall étudie depuis de nombreuses années le rôle de la protéine MYT1L dans diverses maladies neuronales. En effet, des mutations MYT1L ont été trouvées dans plusieurs troubles neurologiques comme la schizophrénie et l'épilepsie, mais aussi dans des malformations cérébrales. Le chercheur a cette fois-ci voulu vérifier le rôle de la protéine dans les troubles du spectre de l’autisme (TSA). Pour cela, son équipe a ainsi désactivé le gène à la fois chez les souris et dans les cellules nerveuses humaines en laboratoire. Les rongeurs dépourvus de MYT1L souffraient d'anomalies cérébrales, par exemple un cortex cérébral plus fin. Les animaux ont également montré plusieurs changements de comportement semblables à ceux du spectre autistique tels que des déficits sociaux ou une hyperactivité. Par ailleurs, les chercheurs ont mis en évidence que les neurones déficients en protéine MYT1L produisaient un excès de canaux sodiques. Ces derniers, généralement limités aux cellules du muscle cardiaque, sont essentiels pour la conductivité électrique et la fonction cellulaire, car ils permettent aux ions sodium de traverser la membrane cellulaire. De plus, les cellules nerveuses qui surproduisent ces canaux sodiques, entraînaient une hyperactivation électrophysiologique – un symptôme courant de l'autisme. Certains médicaments sont capables de bloquer l’activité des canaux sodiques comme la lamotrigine, utilisée pour prévenir les crises d'épilepsie. L’équipe a ainsi eu l’idée de donner cette molécule aux rongeurs modifiés génétiquement. « Lorsque les cellules nerveuses déficientes en MYT1L ont été traitées avec la lamotrigine, leur activité électrophysiologique est revenue à la normale. Chez la souris, le médicament a même été capable de freiner les comportements associés aux TSA tels que l'hyperactivité », explique l’équipe. « Apparemment, le traitement médicamenteux à l'âge adulte peut atténuer le dysfonctionnement des cellules cérébrales et ainsi contrecarrer les anomalies comportementales typiques de l'autisme – même après que l'absence de MYT1L a déjà altéré le développement du cerveau pendant la phase de développement de l'organisme », ajoute Moritz Mall. Article rédigé par Georges Simmonds pour RT Flash dkfz | | | |
| Vous vous souvenez peut-être de cet anniversaire où vous vous étiez cassé le bras en sautant de la balançoire. Mais comment notre cerveau fait-il pour mémoriser de nouveaux événements aussi rapidement et se les rappeler tout aussi précisément des années après ? Cette question est devenue importante en intelligence artificielle et dans les réseaux de neurones artificiels actuels. Une facette de la réponse réside dans le concept d'oubli catastrophique, popularisé par Robert French, directeur de recherche CNRS au Laboratoire d'Étude de l'Apprentissage et du Développement (LEAD – CNRS/Université de Bourgogne Franche-Comté). Il explique que, contrairement aux populations de neurones biologiques qui retiennent l'information passée sans grande perte lorsque de nouvelles sont apprises, les réseaux de neurones artificiels, eux, dégradent de façon abrupte leur performance en comparaison. Notre cerveau doit posséder des mécanismes très efficaces pour préserver ses souvenirs dans la mémoire, sans perte ni erreur, pour en apprendre à la fois beaucoup et les retrouver très rapidement. Pourtant, nos neurones sont à la fois peu fiables et extrêmement nombreux. Alors, comment fait-il ? Les scientifiques pensent que le cerveau exploite la faiblesse de ses neurones à son avantage : leur hétérogénéité, c’est-à-dire leur capacité à recevoir des signaux variés, crée un espace de grande dimension où toutes les informations sont séparables les unes des autres malgré leur faiblesse individuelle. Dans une publication récente, l’équipe d’Alexandre Pitti, maître de conférences à CY Cergy Paris Université, membre d’ETIS, fait l'hypothèse que le cerveau effectue une sorte de codage "numérique" de l'information, comme pour une image encodée en bits. Le nombre de bits correspond à la quantité d’information contenue dans l'image et augmente linéairement alors que la résolution de l'image augmente de façon exponentielle. Dans le cas d’un réseau de neurones, le nombre de neurones artificiels nécessaires à la génération de l’image dépendrait de la résolution de l'image et non de sa taille. L’hypothèse de cette équipe de chercheurs propose qu’un codage efficace de l'information peut être effectué en maximisant l'"entropie" des neurones, c'est-à-dire en optimisant leur variabilité, indépendamment de leur capacité d'apprentissage. L’entropie maximisée est atteinte en diversifiant les apprentissages d’une même information sur plusieurs neurones, même si chacun d’entre eux n’en apprend qu’une petite partie. Ainsi, la faible précision des neurones limite certes leur capacité d’apprentissage et dégrade l'information apprise, mais leurs connexions aléatoires diversifient leurs apprentissages et permettent de reconstruire l’information de départ, au-delà de leurs capacités individuelles. Étonnamment, les équations théoriques et les simulations informatiques des chercheurs montrent qu'un tout petit nombre de ces neurones aléatoires (moins d’une dizaine seulement) est nécessaire pour apprendre de longues séquences d'éléments pris dans un grand répertoire, par exemple incluant mille éléments. De plus, quand la taille du répertoire d'entrée augmente de façon exponentielle, avec plus d'un milliard d'éléments différents, le nombre de neurones nécessaire à retrouver cette séquence sans erreur n'augmente que de quelques neurones supplémentaires. Autrement dit, il suffit de quelques essais pour retrouver une aiguille (un souvenir) dans une botte de foin (la mémoire), et le nombre d'essais supplémentaires n'augmente que faiblement même si la taille de la botte (la mémoire) s'en trouve multipli&eac ute;e de manière exponentielle. Ce résultat a conduit Alexandre Pitti et son équipe à dériver une équation générale qui lie l'entropie (faible) des codes aléatoires et de faible précision des neurones artificiels à celle de l’entropie (forte) de l’information donnée en entrée de grande précision. Le nombre de neurones nécessaire pour atteindre l’égalité entre les deux entropies rend compte aussi de la capacité maximale possible du réseau de neurones. Ils ont ainsi pu montrer que ce modèle suit la limite théorique de Shannon en termes de capacité de stockage d'information. Cela signifie que chaque neurone artificiel transporte un maximum d'information et qu'il faut donc moins de neurones pour apprendre la même quantité d'information que dans un réseau de neurones conventionnel. Cette hypothèse a possiblement de profondes implications en neurosciences computationnelles et en intelligence artificielle sur la compréhension des mécanismes d'apprentissage et de mémoire. Ce modèle peut servir de cadre mathématique pour le développement de nouvelles architectures neuronales efficaces et frugales, et conduire au développement d'une théorie neuronale de l'information. Il permettra aussi de savoir comment les neurones biologiques peuvent apprendre de grandes quantités d’information, et mesurer leur capacité maximale de stockage. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Le combat contre le cancer du poumon s’annonce assurément technologique. Connu comme l'un des plus meurtriers, ce cancer est très difficile à détecter de manière précoce avant l'apparition des symptômes. En février 2022, La Haute autorité de la santé (HAS) avait recommandé la mise en place d’une expérimentation à petite échelle du dépistage du cancer du poumon chez les fumeurs. Ce dépistage est déjà instauré dans plusieurs pays du monde, comme aux Etats-Unis ou au Canada, par exemple. En France, la réticence vis-à-vis des faux positifs et du “surdiagnostic” que l’examen générerait notamment, comme nous l’évoquions déjà dans notre article "Dépistage du cancer du poumon : pour ou contre ?", ont longtemps freiné le développement d’un tel programme. Aux Etats-Unis, le dépistage par scanner low dose est déjà recommandée et une équipe du Massachusetts Institute of Technology (MIT) propose aujourd'hui une amélioration avec le recours à l'intelligence artificielle. L’équipe du Massachusetts Institute of Technology est parti du constat : la tomodensitométrie à faible dose (LDCT) pour le dépistage du cancer du poumon est efficace, mais la plupart des personnes éligibles ne sont pas dépistées. « Nous avons émis l'hypothèse qu'un modèle d'apprentissage en profondeur évaluant l'ensemble des données volumétriques du LDCT pourrait être construit pour prédire le risque individuel sans nécessiter de données démographiques ou cliniques supplémentaires » ont-ils expliqué dans une étude parue le 12 janvier dans le Journal of clinical oncology. Ainsi est né le modèle Sybil. Deep learning ou “apprentissage profond” est une sous-branche de l’intelligence artificielle, qui vise à construire des connaissances à partir d’une grande quantité d’information (plus la quantité sera importante, plus les connaissances seront affinées). Dans le cas qui nous intéresse, il s’agit de “nourrir” un algorithme de nombreuses images de scan low dose et d’avoir en parallèle l’histoire médicale des patients qui ont subi cet examen d'imagerie (la survenue ou non de cancer du poumon). Les modèles actuels de prédiction du cancer du poumon nécessitent une combinaison d'informations démographiques, de facteurs de risque cliniques et d'annotations radiologiques. Sybil est conçu pour utiliser une seule scintigraphie thoracique à faible dose pour prédire le risque de cancer du poumon survenant 1 à 6 ans après une projection. Les résultats sont encourageants. Appliqué à un ensemble diversifié d'analyses de deux hôpitaux et de l'essai national de dépistage du cancer du poumon, l'étude a montré que Sybil était capable de prévoir le risque de cancer du poumon à court et à long terme, obtenant des scores d'indices C allant de 0,75 à 0,80. Les valeurs supérieures à 0,8 indiquent un modèle solide indique l’étude. Lors de la prédiction du risque de cancer un an à l'avance, le modèle était encore plus efficace : ils obtenaient entre 0,86 et 0,94 sur une courbe de probabilité. Indication toujours étonnante dans le domaine : les données d'imagerie utilisées pour former Sybil étaient pourtant en grande partie exemptes de tout signe de cancer. Cela s’explique pourtant : à un stade précoce le cancer du poumon occupe de petites parties du poumon – juste une fraction des centaines de milliers de pixels composant chaque tomodensitométrie. Le coauteur Jeremy Wohlwend a été surpris par le score élevé de Sybil, malgré l'absence de cancer visible. Déjà entrepris dans d’autres cancers, ainsi que les maladies intestinales ou la maladie d'Alzheimer, l'Intelligence artificielle s'appuyant sur des données d'imagerie s’annonce comme un outil permettant d'atteindre un degré de précision inégalé. Article rédigé par Georges Simmonds pour RT Flash Journal of Clinical Oncology | | | |
| Les cellules ciliées cochléaires, des cellules primaires qui sont nécessaires à nos oreilles pour détecter les ondes sonores et les transmettre au système nerveux central, ne peuvent pas se régénérer quand elles sont endommagées ou perdues. C’est souvent la réduction de leur nombre, de façon progressive au cours du temps, qui provoque la perte auditive. Les personnes exposées régulièrement à des bruits forts comme les musiciens, les ouvriers du bâtiment ou le personnel militaire sont les plus à risque. Cependant, cela peut arriver aux personnes qui assistent souvent à des concerts en étant trop près des haut-parleurs ou qui augmentent tous les jours le volume de leur casque audio ou de leurs écouteurs au maximum. Alors que les vertébrés inférieurs comme les oiseaux et les poissons peuvent régénérer ces cellules ciliées, les mammifères, y compris les humains, n'ont pas cette capacité de régénérer ces cellules ciliées, essentielles à l'audition. Or, de nouvelles recherches du Del Monte Institute for Neuroscience, publiées le 6 janvier 2023 dans la revue Frontiers in Cellular Neuroscience, ouvrent la voie à l'identification des mécanismes qui pourraient favoriser ce type de régénération chez les mammifères, du moins chez les souris. « Nous savons par nos travaux précédents que l'expression d'un gène de croissance actif, appelé ERBB2, était capable d'activer la croissance de nouvelles cellules ciliées (chez les mammifères), mais nous n'avons pas entièrement compris pourquoi », explique Patricia White, PhD, professeure de Neurosciences et d’oto-rhino-laryngologie au centre médical de l'Université de Rochester. Selon ces précédentes recherches, l’activation de la voie du gène de croissance ERBB2 entraîne une série d'événements cellulaires en cascade au cours desquels les cellules de soutien cochléaire commencent à se multiplier et à activer d'autres cellules voisines, des cellules souches, qui deviennent de nouvelles cellules ciliées sensorielles. « Cette nouvelle étude nous explique comment cette activat ion se produit – une avancée significative vers l'objectif ultime de générer de nouvelles cellules ciliées cochléaires chez les mammifères », ajoute le Docteur White. Grâce à l'utilisation du séquençage d'ARN unicellulaire chez la souris, les chercheurs ont pu comparer des cellules avec un gène de croissance hyperactif, pourvu d’une signalisation ERBB2, à d'autres cellules similaires dépourvues de cette signalisation. Ils ont observé que le gène de croissance (ERBB2) favorisait le développement de cellules souches en initiant l'expression de plusieurs protéines, dont SPP1, une protéine connue pour signaler via le récepteur CD44. Ce récepteur CD44 serait présent dans les cellules de soutien cochléaire, selon l’étude. « Cette découverte a montré clairement que la régénération ne se limite pas seulement aux premiers stades de développement. Nous croyons que nous pouvons utiliser ces découvertes pour favoriser la régénération chez les adultes », explique Dorota Piekna-Przybylska, co-autrice de l’étude et membre du personnel scientifique du laboratoire du Docteur White. « Nous prévoyons d'approfondir l'étude de ce phénomène pour déterminer s'il peut améliorer la fonction auditive après des dommages chez les mammifères. C'est le but ultime », conclut le Docteur White. Article rédigé par Georges Simmonds pour RT Flash Frontiers | | | |
| Une lésion du nerf optique peut concerner le système nerveux central. Dans ce cas, avec les lésions traumatiques du cerveau et celles de la moelle épinière, elles font partie de la principale cause d’invalidité et la deuxième cause de décès dans le monde. Les patients atteints doivent alors vivre avec des pertes des fonctions sensorielles, motrices et visuelles. Les scientifiques auraient cependant identifié une petite molécule porteuse d’espoirs. Il y a plusieurs lésions qui peuvent affecter le système nerveux central. Il peut s’agir de blessures sur un neurone (la cellule nerveuse), sur la gaine de myéline (une sorte de membrane qui s’enroule autour des neurones et des axones pour les isoler) ou sur les axones. Ces derniers sont des fibres nerveuses qui prolongent le neurone. Ils conduisent les signaux électriques. Leur longueur est variable et peut parfois atteindre plus d’un mètre. Les axones permettent ainsi de connecter les neurones entre eux, via des structures appelées synapses. Dans l’étude poursuivie par les chercheurs sur les lésions du nerf optique, l’équipe s’est penchée sur le cas des axones. Lorsqu’un axone subit un dommage, tout un processus se met en place pour tenter de le réparer. Il y a d’abord le nettoyage de la zone pour débarrasser l’axone "mort" et supprimer les débris engendrés par la blessure. Ensuite, une repousse axonale peut potentiellement avoir lieu. Cette étape conduit à la formation de cônes de croissance. C’est une structure cellulaire transitoire et mobile qui aide l’axone à "trouver" un nouveau point d’ancrage. Ce cône de croissance implique la synthèse et le transport de nombreux matériaux. C’est donc un processus très énergivore qui nécessite l’implication des mitochondries. Cet organite est essentiel chez la plupart des espèces terrestres, car il est le siège de la respiration. C’est véritablement la centrale électrique de la cellule qui confère leur énergie aux êtres vivants. Pour réparer les axones, il faut donc acheminer des mitochondries. Or, chez les humains adultes, elles sont principalement statiques, il est donc très difficile pour les axones de réaliser des transports sur de longues distances. L’équipe de scientifiques de Hong Kong, dirigée par le Docteur Ma, a peut-être trouvé une solution. Ils ont ainsi identifié une petite molécule thérapeutique. De son charmant petit nom M1, elle augmenterait la fusion et la motilité des mitochondries. Ceci permettrait alors une régénération soutenue et sur une longue distance des axones. C’est en tout cas ce que les équipes ont observé sur des souris. Pour cela, les scientifiques ont utilisé deux groupes de souris ayant subi une lésion du nerf optique. À l’un, ils ont administré la molécule M1, à l’autre un placebo. Quatre semaines après l’administration, ils ont alors remarqué que les axones se régénéraient pour les souris traitées avec M1. En revanche, les souris témoins n’avaient aucun axone en cours de régénération. De même, chez les souris ayant reçu M1, la survie des cellules ganglionnaires rétiniennes (les cellules qui transmettent les stimuli visuels de l’œil au cerveau) a été significativement augmentée, passant de 19 à 33 %. Ces résultats semblent donc bien indiquer que l’administration de M1 soutient la régénération des axones sur une longue distance. Cette expérience concernait particulièrement le nerf optique. Il s’agit du deuxième nerf crânien et il permet la vision. Il prend naissance à l’arrière du globe oculaire, il traverse ensuite le canal optique, la boîte crânienne et atteint enfin son but : la zone du cerveau traitant de la vision. Le nerf optique possède environ 1,2 million d’axones. Ce sont eux, qui, s’ils sont lésés, peuvent entraîner la perte de la vue. La molécule M1 aide la régénération des axones à mi-chemin entre le chiasma optique et la région cérébrale cible. Une activité neuronale peut alors reprendre et potentiellement restaurer les fonctions visuelles. Six semaines après la lésion, ces chercheurs ont observé que les yeux des souris rétablissaient la réponse de constriction de la pupille lors de l’éclairage à la lumière bleue. En outre, ce test était d’un niveau similaire à celui d’yeux non lésés. Cela suggère donc que la molécule M1 peut restaurer cette réponse de constriction et a fortiori aider à une récupération de la fonction visuelle. Cette étude est très prometteuse et ouvre la voie à des thérapies pour les personnes souffrant de lésions du nerf optique. Il s’agirait d’une injection intravitréenne de la molécule M1 dans les yeux. Un procédé qui est déjà réalisé pour traiter les patients contre la dégénérescence maculaire. D’autres études sont également menées afin de voir les effets de M1 sur la perte de vision due à un glaucome et à d’autres maladies oculaires courantes, comme la rétinopathie liée au diabète. Article rédigé par Georges Simmonds pour RT Flash PNAS | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|