| | Edito Attention : ce sera bientôt l’heure de l’hydrogène
Annoncée depuis des décennies, mais sans cesse différée, l’heure de l’hydrogène comme source et vecteur d’énergie est-elle arrivée ? Peut-être, à en croire un certain nombre d’indicateurs et de ruptures technologiques en cours. L’année dernière, deux rapports très sérieux, passés quelque peu inaperçus en France, ont en effet prédit un avenir radieux pour l’hydrogène, appelé selon ces études à jouer un rôle majeur dans la transition énergétique mondiale qui s’accélère. Selon la première étude, réalisée par le renommé cabinet McKinsey, en 2050, la demande annuelle en hydrogène pourrait être multipliée par dix, passant à plus de 600 millions de tonnes par an et ce vecteur d’énergie aurait, à cet horizon, la capacité de stocker 500 TWh d’électricité au niveau mondial (l’équivalent de la production électrique de la France). Dans le transport, l’hydrogène pourrait représenter jusqu’à un quart du marché, avec 400 milli ons de voitures, 15 à 20 millions de camions et 5 millions de bus. Particulièrement adaptée aux gros véhicules effectuant de longues distances, l’hydrogène pourrait ainsi réduire d’un tiers les émissions de CO2 liées aux transports terrestres (Voir Mc Kinsey & Company). La seconde étude réalisée par la banque Morgan Stanley confirme cette envolée de l’hydrogène et prévoit que la montée en puissance des énergies renouvelables, cumulée à la baisse de leurs coûts, pourrait faire baisser le coût de production de l’hydrogène de 70 % d’ici 2030. Résultat : le marché mondial de l’hydrogène pourrait générer un revenu annuel de 2500 milliards de dollars en 2050, contre 130 milliards de dollars en 2017 (Voir Morgan Stanley). Il est vrai que ces organismes très sérieux et peu suspects de sympathies écologistes construisent leurs prévisions en intégrant les avancées technologiques et industrielles en cours et que, dans ce domaine, on peut dire qu’une véritable révolution est en marche. Il y a quelques jours, des scientifiques belges dirigés par le Professeur Johan Martens, de l’Université de Louvain, ont révélé un procédé pour produire de l’hydrogène gazeux à partir de l’eau contenue dans l’air ambiant : le H2O se sépare ainsi en hydrogène (H) et en oxygène (O2). Dix ans de recherche ont été nécessaires pour concevoir et améliorer ces panneaux de 1,6 m2 qui sont à présent capables de transformer 15 % de la lumière solaire en hydrogène gazeux à partir de la va peur d’eau. Pour rappel, un panneau solaire classique transforme 18 à 20 % de l’énergie solaire en électricité (Voir KU Leuven). Grâce à cette approche, il devient envisageable de stocker de grandes quantités d’hydrogène dans un réservoir souterrain (à une pression d’environ 400 bars) sans les pertes importantes, inhérentes à la technologie des batteries. En utilisant à un stade industriel des piles à combustible, ces grandes quantités d’hydrogène peuvent ensuite être converties à volonté en chaleur, en électricité ou en carburant pour différents types de véhicules, avec un rendement de conversion exceptionnel, de l’ordre de 90 %. Selon le Professeur Martens, éminent scientifique, chaque panneau pourrait produire jusqu’à 250 litres d’hydrogène par jour, une efficacité bien supérieure à celle des autres technologies propres existantes. Ce chercheur précise qu’une vingtaine seulement de ces panneaux solaires suffirait à fournir de l’électricité et du chauffage à une famille pendant une année entière. Le premier projet-test utilisant cette nouvelle technologie solaire est prévu dès cette année, pour des habitations à Oud-Heverlee. Le constructeur automobile japonais Toyota, leader mondial des voitures à hydrogène, a immédiatement manifesté son intérêt pour cette technologie innovante et a annoncé vouloir produire de l’hydrogène avec ce nouveau type de cellules solaires. Une autre avancée majeure a été annoncée il y a seulement quelques semaines par une équipe de recherche de la célèbre Université de Stanford, aux Etats-Unis. Dirigés par le Professeur Hongjie Da, ces chercheurs ont en effet réussi, pour la première fois à extraire directement par électrolyse de l’hydrogène, à partir d’eau de mer. Pour éviter que cette eau salée, chargée d’ions-chlorure, ne détruise rapidement l’anode, ces chercheurs ont protégé celle-ci grâce à un sandwich composé d’une mousse de nickel, qui joue le rôle de conducteur, d'hydroxyde de nickel-fer qui déclenche l'électrolyse et de sulfure de nickel, qui protège l'électrode, grâce à sa couche chargée négativement (Voir PNAS). Selon ces chercheurs, « Avec des courants identiques à ceux utilisés dans l'industrie, notre anode résiste plus de 1.000 heures contre seulement 12 heures pour une électrode classique plongée dans l'eau de mer ». La validité du procédé a été prouvée en laboratoire et les composants utilisés par les chercheurs de l'université de Stanford s'emploient déjà dans les électrolyseurs existants, ce qui laisse espérer une mise sur le marché des premiers électrolyseurs industriels à l’eau de mer d’ici trois ans. Une autre équipe de recherche réunissant les universités de Toronto (Canada) et de Berkeley (Etats-Unis) a récemment développé un nouveau type de catalyseur qui ouvre la voie vers la production d' l'hydrogène (H2) à partir de l'eau dans un milieu au pH neutre. Pour atteindre ce résultat, ces scientifiques ont utilisé un substrat de cuivre dopé avec de l'oxyde de chrome et du nickel capable de casser les molécules d'eau afin de créer des protons (ions H+) nécessaires à la formation d'H2. (Voir Nature). Selon cette étude, « Ces travaux ouvrent la voie à la réalisation de systèmes non-coûteux, efficaces et biocompatibles pour stocker et convertir de l'énergie, ainsi que pour la séparation de l'eau de mer en direct » ;. En outre, réussir à briser la molécule d'eau pour produire de l'hydrogène en milieu neutre pourrait permettre de concevoir des systèmes hybrides, dans lesquels des bactéries génétiquement modifiées pourraient utiliser l'hydrogène produit et du dioxyde de carbone pour produire du carburant. La production d’hydrogène à partir de biomasse fait également de remarquables progrès : le premier démonstrateur produisant de l'hydrogène à partir de biomasse verra le jour dès cette année dans la Marne. La Communauté de Communes Vitry, Champagne et Der, la SEM Vitry Energies, l'école Centrale Supelec et la société Haffner Energy, viennent d'officialiser la création de VitrHydrogène, le consortium dédié à la création de cet équipement. Il utilisera la technologie Hynoca (Hydrogen No Carbon) de Haffner, qui repose sur le traitement de la biomasse par thermolyse. Dans ce prototype, les molécules d'hydrogène sont extraites du gaz, mélange de monoxyde de carbone et d'hydrogène, dégagé par la matière première chauffée à 450 °C. Ce nouveau procédé représente lui aussi une véritable rupture technologique, avec des rendements énergétiques obtenus, de l'ordre de 70 %, ce qui permet de ramener le prix de l'hydrogène renouvelable sous les 6 euros au kilo, la moitié du prix du marché… Ce projet financé à 50 % par l'Ademe prévoit la construction de la plate-forme, son exploitation et l'étude des résultats expérimentaux. De la taille d'une station-service, elle produira 5 kg d'hydrogène par heure, à partir de 500 tonnes annuelles de granulés de bois, puis de plaquettes forestières. A terme, l'emploi de déchets issus de l'agriculture est également envisagé, ce qui ouvrirait de nouvelles perspectives très intéressantes pour la valorisation de ces résidus. Dans un premier temps, cette production d’hydrogène vert pou rra satisfaire la consommation d'une flotte de 260 automobiles qui seront utilisées par différentes collectivités locales. Mais il est également possible de transformer et de stocker sous forme chimique le surplus d’énergie issu des pics de production éolienne, grâce à la technique très efficace du "power to gas". Elle consiste à utiliser l’électricité renouvelable en surplus pour produire de l’hydrogène par électrolyse de l’eau. L’hydrogène est ensuite combiné à du CO2 capté sur un site industriel voisin, par un processus de méthanation. Le méthane ainsi formé – neutre en carbone – est injecté dans le réseau gazier, sans aucune restriction de volume. Fin 2018, trois gestionnaires allemands de réseau d’électricité et de gaz (Gasunie, TenneT et Thyssengas) ont lancé un projet de power-to-gas d’une capacité de 100 MW. Situées en Basse-Saxe, les installations produiront de l’hydrogène et du méthane à partir d’électricité issue, principalement de l’éolien. Ces gaz seront utilisés à la fois comme vecteur de stockage d’énergie et comme carburant pour véhicules. Autre exemple, celui du fournisseur d'électricité verte Greenpeace Energy et de la régie municipale de la ville d'Haßfurt, qui ont mis en service en octobre dernier une nouvelle unité de power-to-gas dans la ville bavaroise. D'une puissance de 1,25 MW, l'installation utilise un électrolyseur PEM (polymer electrolyte membrane) de Siemens. La compacité de cette technologie permet de faire tenir l'ensemble de l'installation dans un container. Cette dernière doit injecter environ 500 MWh par an d'hydrogène dans le réseau de gaz naturel de la ville. Outre-Rhin, de nombreux autres opérateurs développent cette technologie. Et on dénombre déjà 24 installations pilotes en fonctionnement. En France, le power to gas est également testé en grandeur nature : depuis juin dernier, le démonstrateur Gestion des Réseaux par l’injection d’Hydrogène pour Décarboner les énergies (GRHYD) injecte en effet de l’hydrogène produit par des énergies renouvelables, dans une proportion qui peut aller jusqu’à 20 %, dans le réseau de gaz de la métropole de Dunkerque, dans les Hauts-de-France. S’agissant des innovations en matière de stockage de l’hydrogène, il faut également évoquer la société McPhy, créée en 2008. Basée dans la Drôme et en Isère, elle a engagé une décennie de recherches, en partenariat avec le CNRS et le Commissariat à l'énergie atomique et aux énergies alternatives, dans le but de parvenir à convertir en hydrogène les excédents de production d'électricité "verte" par électrolyse de l'eau. Concrètement, le courant permet de décomposer l’eau en oxygène, qui est rejeté dans l'air, et en (di)hydrogène, qui, associé à un métal par hydruration, est capté sous la forme de galette pouvant contenir jusqu'à 50 grammes d'hydrogène. Ces galettes sont ensuite empilées dans des containers, les plus gros pouvant st ocker jusqu'à 150 kilos d'hydrogène, soit 5 mégawatts/heure d'électricité, ce qui représente l'équivalent d'un mois de consommation d'une petite ville. Ces galettes présentent l’avantage décisif d’être composées d’un alliage de magnésium et de fer qui les rendent très sûres et très stables et limitent drastiquement tout risque d’explosion. En outre, un équipement de reconversion mobile permet, toujours par électrolyse, de restituer l’hydrogène sous forme gazeuse et de le réinjecter dans les piles à combustible de véhicules électriques ou dans les réseaux de gazoducs existants. McPhy a déjà livré en 2018 une immense installation de 4 Mégawatts (MW) en cours d'installation, pour valoriser les surplus d'énergie d'un champ éolien de 200 MW de la province du Hebei, près de Pékin. Cette unité va permettre au fournisseur chinois d’énergie Jiantou Yanshan d’utiliser l'hydrogène produit pour alimenter une flotte d e bus à hydrogène, en vue des JO d'hiver de Pékin de 2022. En juin 2018, EDF, via sa filiale EDF Nouveaux Business, est devenu le premier actionnaire de McPhy, en entrant pour16 millions d’euros au capital du fabricant d’électrolyseurs et de solutions de stockage et distribution d’hydrogène. Mais au-delà de toutes ces expériences, c'est la démarche suivie par l'EPFL (École Polytechnique de Lausanne) qui me semble être la plus porteuse d'avenir. Et ce parce qu’elle a simplement repris une manière de produire de l'hydrogène comme sait le faire la Nature depuis des millénaires avec les insectes. Ainsi, les fourmis savent produire un acide appelé acide formique dont la formule chimique est H²CO². Le H² (Hydrogène) et le CO² (gaz carbonique) sont deux éléments essentiels pour notre Planète et la Vie sur celle-ci. Que la Nature ait su les associer dans une même formule montre combien l'acide formique a une importance capitale pour l'Avenir. Or, savoir associer l'Hydrogène et le Gaz Carbonique, ce que des insectes savent faire depuis la nuit des temps, était jusqu'à maintenant très difficile à réaliser de mani&egr ave;re industrielle. Seules des usines chimiques spécialisées savent aujourd'hui, dans des conditions strictes de pression et de température, fabriquer en quantité de l'acide formique et ce à des prix non compatibles avec le marché de l'énergie. Partant de ce constat, le Professeur Gabor Laurenczy de l'EPFL et son équipe recherchait depuis des années comment fabriquer de l'acide formique de manière naturelle sans passer par de coûteuses usines chimiques. Après plusieurs années de Recherche et de nombreux tâtonnements, ils ont atteint il y a quelques mois leur objectif. L'EPFL a déposé plusieurs brevets pour protéger ces Recherches. Il suffit d'un simple catalyseur, peu onéreux m'a affirmé le Professeur Laurenczy, pour réussir cette association. Quel est l'intérêt de savoir ainsi fabriquer simplement de l'acide formique ? Suivez-moi quelques instants et vous allez voir combien cela est lumineux. Vous prenez quelques panneaux photovoltaïques (ou une éolienne si vous préférez) et un électrolyseur. Par ailleurs, il vous faut de l'eau et une petite bonbonne de CO² car heureusement la quantité de CO² dans l'atmosphère n'est pas assez dense pour réussir l'opération. L'énergie produite par le soleil permet au catalyseur de séparer l'hydrogène et l'oxygène contenus dans l'eau (H²O). Vous laissez partir l'Oxygène dans l'atmosphère et vous conservez l'Hydrogène pour l'associer au CO² que vous avez en réserve. C'est là que le catalyseur découvert par l'équipe du Professeur Laurenczy est essentiel. Ce catalyseur permet le mariage de l'Hydrogène et du CO² et nous obtenons de l'acide formique. En vérité, le processus est un peu plus complexe que cette simple opération mais je puis vous affirmer que le Professeur Laurenczy sait fabriquer de l'acide formique avec une machine qui n'est pas plus grande qu'une armoire électrique. Je l'affirme car j'ai personnellement vu cette machine. Nous sommes donc très loin des usines chimiques qui s'étendent sur des milliers de m² pour actuellement fabriquer de l'acide formique. Quel est l'intérêt de cet acide formique ? C'est un liquide incolore qui n'est pas plus dangereux et agressif que l'acide acétique (le vinaigre). Nous sommes en présence du meilleur moyen de stocker de l'Hydrogène. Il n'y a aucun danger et il n'est pas nécessaire de savoir générer plusieurs centaines de bars pour stocker ce vecteur énergétique. Vous pouvez donc stocker des milliers de litres d'acide formique au fond de votre jardin comme beaucoup le font avec leur fuel de chauffage. Quand vous avez besoin d'électricité, une pile à combustible spécifique (également développée par l'équipe du Professeur Laurenczy), tout à fait opérationnelle, reprend le H² de l'acide formique et l'associe à l'Oxygène de l'air pour faire de l'électricité. Le CO² qui a repris sa liberté n'est surtout pas lâché dans l'atmosphère. Il repart au début du cycle pour faire à nouveau de l'acide formique. Ce process de stockage de l'énergie sous forme d'acide formique est réellement révolutionnaire. Plus besoin de batteries et il est possible maintenant de stocker l'énergie solaire ou celle du vent pour s'en servir à n'importe quel moment. Mais le bébé est-il trop beau ? Plusieurs mois après le dépôt du brevet par l'EPFL, aucun industriel n'est venu frapper à la porte du Professeur Laurenczy pour se lancer dans une aventure hors du commun. C'est dommage... Grâce à ces ruptures technologiques et industrielles en cours, l’hydrogène devrait donc jouer un rôle-clé dans la décarbonisation du secteur des transports, enjeu majeur, car ce secteur est à présent responsable à lui seul, avec 13,3 gigatonnes de CO2 émis en 2016, de plus du quart des émissions humaines de CO2. Heureusement, en matière de transports terrestres, la révolution de l’hydrogène est également en marche : en Allemagne, le premier train commercial au monde fonctionnant à l’hydrogène a été mis en service en septembre dernier sur les 100 km de lignes ferroviaires reliant Cuxhaven, Bremerhaven, Bremervörde et Buxtehude, près de Hambourg. Particulièrement silencieux, de train peut transporter 300 personnes à une vitesse maximum de 140 km/h. Il dispose d’une autonomie de 1 000 km, soit autant qu’un train diesel, une fois rechargé en hydrogène via une station mobile installée au milieu de cette ligne. L’opération prend quelques minutes. Les deux rames déjà mises en service commercialement, qui vont servir pour des retours d’expérience, vont être progressivement renforcées par quatorze autres trains &agr ave; partir de 2021. Le tout représente un contrat de 200 millions d’euros. En novembre dernier, la présidente de la Région Occitanie, Carole Delga, a annoncé le lancement du premier train à hydrogène en France en 2021. Cette expérimentation, copilotée par l’Occitanie et Alstom, se déroulera sur la ligne Montréjeau-Luchon (36 km), actuellement fermée. Alstom a par ailleurs précisé qu’il était en mesure de fournir 500 trains à hydrogène d’ici 10 ans, de quoi remplacer la moitié du parc actuel de TER diesel. La Région Auvergne-Rhône- Alpes va se lancer elle aussi dans ces expérimentations de trains utilisant l'Hydrogène comme vecteur d'énergie. Fin 2018, la SNCF, dont 25 % des locomotives circulant chaque jour utilisent encore le diesel, a pour sa part annoncé une accélération de la transition de ses trains vers la propulsion à hydrogène. Guillaume Pepy vient en effet d'annoncer vouloir abandonner le diesel pour 2035 au plus tard. Le président de la SNCF a précisé que la compagnie ferroviaire allait accélérer son passage à l’hydrogène dans les années à venir. En matière de transports routiers longue distance, Nikola Motors, le constructeur américain de camions à moteur hydrogène, annonce avoir accumulé plus de 8 000 commandes pour ses deux futurs poids lourds, les modèles Nikola 1 et Nikola 2, équipés de pile à combustible, qui devraient être commercialisés en 2021. Regroupant 2 000 employés, Le site de production sera établi à Buckeye, près de Phoenix en Arizona, pour un montant d’investissement d’un milliard de dollars. Les camions pourront être achetés ou loués par l’intermédiaire quasi exclusif du leader de la location nord-américaine Ryder. Ce dernier, qui gère une flotte de 234 000 camions en Amérique du Nord, prendra également en charge la maintenance de ces véhicules sur tout le continent Nord-Américain. Le coût d’approvisionnement en hydrogène sera inclus dans le prix d’achat ou de la location (jusqu’à 1 million de miles), sachant que Nikola a prévu de couvrir le pays d’un réseau de 376 stations de ravitaillement. Grâce à un généreux réservoir à hydrogène de 220 litres, ces camions propres auront une autonomie-record allant de 1290 à 1930 km, selon les modèles, pour un plein réalisé en 15 minutes. Du côté des voitures à hydrogène, le prix (75 000 euros en moyenne), ainsi que le faible nombre de stations de recharge restent des obstacles dissuasifs. Actuellement, seuls trois constructeurs proposent des voitures à hydrogène, Honda, Toyota et Hyundai. Pour convertir l’hydrogène en électricité, un catalyseur au Platine est nécessaire – et le coût de ce métal précieux est très élevé. Mais, là aussi, cette situation va peut-être changer grâce à une percée technologique annoncée il y a quelques semaines par Volkswagen en collaboration avec l’Université de Stanford (Voir Volkswagen). Dans les systèmes actuels, le platine est distribué sous forme de particules sur de la poudre de carbone. Lors du processus de conversion, seule la surface externe du platine est utilisée, ce qui entraîne une perte importante de ce métal onéreux. Pour surmonter cet obstacle, les équipes de Volkswagen et de Stanford ont réussi à placer de manière précise les atomes de platine sur la surface du carbone, réduisant ainsi sensiblement les quantités de platine nécessaires et multipliant par trois le rendement du catalyseur. Selon le Professeur Prinz de l'Université de Stanford : « Cette technologie ouvre d'énormes possibilités de réduction des coûts, car la quantité de métaux précieux utilisée est réduite au minimum. En outre, la durée de vie et les performances du catalyseur sont augmentées&nbs p;». Les experts prévoient que la pile à combustible s'imposera d'abord dans les véhicules utilitaires pour la livraison de marchandises en ville, mais aussi dans les bus et les camions, grâce à l'autonomie importante des véhicules. En revanche, pour les véhicules utilisés essentiellement en milieu urbain, les batteries solides de nouvelle génération seront probablement plus compétitives, mais tout dépendra des avancées technologiques et de la baisse des coûts. Ce rapide tour d’horizon des avancées scientifiques concernant l’hydrogène nous permet de voir peu à peu émerger le paysage énergétique qui se profile pour le milieu de ce siècle : celui-ci pourra pratiquement se passer des énergies fossiles ou en limiter drastiquement la consommation. Il reposera sur le triptyque énergies renouvelables-électricité-hydrogène et sera structuré autour de milliards d’unités – véhicules, bâtiments ou habitations – qui seront à la fois productrices, consommatrices et transformatrices d’énergie. Grâce à cette architecture horizontale et décentralisée, l’efficacité énergétique de nos sociétés sera, à besoins égaux, bien plus grande qu’aujourd’hui et nous pourrons réduire de manière suf fisamment forte nos émissions globales de gaz à effet de serre pour, non pas annuler le réchauffement climatique en cours qui est inexorable, mais en réduire les effets les plus dévastateurs, de sorte que notre Planète conserve des conditions de vie supportables pour les générations futures. L’avenir n’est jamais écrit et, si nous en avons la volonté collective, nous pouvons encore accélérer cette indispensable mutation de société vers une économie et une production d’énergie sans carbone. Soyons capables d’innover, non seulement dans les domaines scientifiques et techniques, mais également dans les domaines sociaux et politiques, pour réorganiser nos sociétés et nos vies autour de ce combat climatique et énergétique que l'Humanité ne peut pas perdre ! René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Santé, Médecine et Sciences du Vivant | |
| | | Les maladies neurodégénératives sont caractérisées par la présence d’agrégats de protéine tau anormale : on les regroupe classiquement sous le nom de tauopathies. Il s'agit d'un ensemble de maladies caractérisées par une agrégation anormale de protéines Tau, impliquées dans la stabilisation de l'architecture des neurones, dont la maladie d’Alzheimer est l’emblème. Mais toutes ces tauopathies sont-elles affectées de la même façon dans ces différentes maladies ? Pour le savoir, une équipe lilloise a souhaité apprécier si la séquence des événements menant à la mort neuronale était la même dans toutes les démences neurodégénératives, en focalisant ses travaux sur la dynamique des protéines tau : elle a montré que l’enchaînement menant à la mort neuronale - hyperphosphorylation de la protéine, changement conformationnel, propagation intercellulaire puis agrégation - serait différent selon la nature de la démence, parce que ces maladies sont associées à des formes différentes de protéines tau. Cette découverte pourrait conduire à développer des thérapeutiques plus ciblées pour chaque démence. On estime depuis quelques années que les démences neurodégénératives pourraient être du même type que les maladies à prions, mettant en jeu des protéines devenues anormales qui acquièrent la capacité de se propager de cellule à cellule. Avec quelles conséquences ? "Les protéines tau sont aux microtubules ce que les boulons sont aux rails : elles sont indispensables pour assurer le transport du matériel cellulaire nécessaire au bon fonctionnement neuronal" explique Luc Buée qui a encadré le travail. Or, l’affinité des protéines tau pour les microtubules dépend de leur degré de modification : elles deviennent en effet non opérationnelles si elles sont hyperphosphorylées. Dans la maladie d’Alzheimer, les six isoformes de Tau sont hyperphosphorylées, conduisant à leur changement conformationnel puis à leur agrégation, alors que seules certaines isoformes sont impliquées dans les démences apparentées. "Nous avons voulu évaluer si toutes les isoformes se comportaient de la même façon après hyperphosphorylation" poursuit le chercheur. Leurs travaux menés in vivo ont permis de confirmer que, dans les démences sporadiques, toutes les isoformes suivent la séquence "hyperphosphorylation de tau -> changement conformationnel -> agrégation". Ils ont en outre pu préciser plusieurs points : le premier est que le transfert le protéine anormale d’une cellule à l’autre n’est possible que si elle ne présente pas encore de changement conformationnel. Le second concerne sa capacité de transfert, qui serait plus ou moins importante selon l’isoforme considérée. Enfin, ils ont décrit que, contrairement aux démences sporadiques, les maladies associées à une mutation du gène de tau sont caractérisées par un changement conformationnel de la protéine plus précoce, avant même la phosphorylation, ce qui limite leur propagation. Pris globalement, ces résultats montrent que les mécanismes d’agrégation et de propagation diffèrent en fonction des espèces moléculaires impliquées. Ceci indique que ces mécanismes sont différents pour chaque tauopathie et permet de supposer que les perspectives thérapeutiques ne seront pas les mêmes pour ces différentes maladies. "A l’heure où des immunothérapies sont développées, on peut supposer qu’elles doivent cibler la phase de propagation ou d’agrégation selon la démence concernée" concluent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Des chercheurs du Sanford Burnham Prebys Medical Discovery Institute (La Jolla) ont réussi à montrer, dans une étude qui fera date, que des mouches des fruits soumises à un régime riche en graisses vont léguer à deux générations successives les risques cardiaques associés à ce facteur alimentaire. Selon l'American Heart Association (AHA), plus de 6 millions de personnes aux États-Unis vivent actuellement avec une insuffisance cardiaque, un chiffre qui pourrait atteindre les 8 millions en 2030. Dans l’insuffisance cardiaque, le cœur ne parvient pas à pomper suffisamment de sang dans le corps. Alors que les scientifiques tentent, depuis de nombreuses années, d’identifier les bases génétiques de l'obésité, cette recherche révèle un mécanisme héréditaire derrière l'insuffisance cardiaque alimentée par un régime alimentaire riche en graisses. L’alimentation pendant la grossesse a des effets durables sur la santé des enfants, cet effet transgénérationnel a déjà été bien documenté. Il a ainsi été démontré que les bébés nés à la suite d'une famine ou d’une malnutrition de la mère peuvent présenter des taux d'obésité et de maladies coronariennes plus élevés. Les mères en surpoids ou obèses sont également plus susceptibles d'avoir des enfants atteints de diabète ou d'autres problèmes de santé. Cependant, les mécanismes génétiques et moléculaires sous-jacents, responsables de ces associations, restent encore mal compris. Les chercheurs californiens ont réussi à identifier un facteur épigénétique et des cibles génétiques qui devraient être explorés pour protéger les nouvelles générations des effets du régime alimentaire malsain de leurs parents ou grands-parents. L’équipe a identifié en effet un marqueur épigénétique et 2 gènes responsables de l'insuffisance cardiaque chez les « enfants et petits-enfants » de mouches des fruits présentant un dysfonctionnement cardiaque lié à un régime trop riche en graisses. L'inversion de la modification épigénétique et la surexpression des deux gènes permettent, en revanche, de protéger les générations futures des effets cardiaques négatifs de l'alimentation de leurs parents. Ces résultats confortent l'hypothèse selon laquelle l’insuffisance cardiaque peut être liée à l’obésité des parents et grands-parents, ce qui ouvre un vaste champ de recherches thérapeutiques : en comparant des générations de mouches nées de parents ayant suivi un régime alimentaire normal vs riche en graisses, les scientifiques ont pu identifier un marqueur épigénétique héréditaire appelé lysine triméthylée 27 dans l'histone 3 (H3K27me3). La réduction du niveau de cette marque épigénétique dans la mouche des fruits protège les 2 générations suivantes des dysfonctionnements cardiaques. Reste à présent à comprendre comment et quand ces changements génétiques et épigénétiques sont hérités, et dans quelle mesure ils proviennent de la mère ou du père. C’est la prochaine question à élucider afin de déterminer quels sont les principaux changements hérités et à quel moment ces changements provoquent un déséquilibre métabolique et une cardiopathie lipotoxique chez la descendance. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Une étude américaine dirigée par Aditya Bardia (Massachusetts General Hospital (MGH) Cancer Center) a montré qu'un nouveau "médicament intelligent" s'est révélé prometteur pour les femmes atteintes d'un cancer du sein métastatique triple négatif. "Ce médicament a le potentiel de changer les pratiques, parce que les données semblent vraiment convaincantes, même si le nombre de patientes participant à l'essai est relativement petit", affirme Kevin Kalinsky, oncologue à l'IrvingMedical Center, qui a codirigé cet essai. "Avec ce nouveau traitement, nous avons constaté un rétrécissement significatif des tumeurs de patientes atteintes d'un cancer du sein métastatique triple négatif", ajoute-t-il. On peut distinguer plusieurs types de cancers du sein. Pour les plus fréquents, les cancers du sein hormono-dépendants et les cancers "HER+", il existe aujourd’hui des thérapies ciblées très efficaces. Mais 15 % des patientes, souvent jeunes, ont un cancer du sein dit "triple négatif", c’est-à-dire sans aucun marqueur connu à la surface des cellules cancéreuses susceptible de répondre à une thérapie ciblée connue. Le cancer triple négatif est "un concept biologique" : ce sont des cellules cancéreuses sur lesquelles on ne trouve pas de récepteur aux hormones. Ce qui veut dire qu’elles ne sont pas très dépendantes des hormones fabriquées par la femme donc on ne peut pas les traiter par hormonothérapie. Le médicament mis ici à l’épreuve, nommé "sacituzumab govitecan", fait partie d'une classe émergente de "médicaments intelligents", conçus pour délivrer une charge toxique directement aux cellules tumorales. Concrètement, l’injection directe permet de délivrer des doses beaucoup plus fortes qu’avec d’autres types de traitement. Le sacituzumab govitecan a été testé chez 108 femmes atteintes d'un cancer du sein métastatique triple négatif qui avaient déjà suivi au moins deux traitements antérieurs. Dans l'ensemble, 33 % des malades ont répondu au médicament au bout de 7,7 mois en moyenne. La survie globale médiane de la cohorte a été de 13 mois, soit des résultats bien meilleurs que la normale (lorsqu'une patiente commence son troisième ou quatrième traitement, la probabilité d'une réponse est très faible). "Il a fallu plus de temps pour que le cancer progresse", poursuit Kevin Kalinsky. Il ajoute : "vivre avec des tumeurs plus petites peut incroyablement améliorer la qualité de vie d'une patiente", au niveau de la douleur par exemple. Le sacituzumab govitecan est également testé sur le cancer de la vessie et le cancer de la prostate. Article rédigé par Georges Simmonds pour RT Flash MGH | | | |
| C'est une première mondiale : des chercheurs de l'Institut Pasteur, de l'Inserm, du CNRS, du Collège de France, de Sorbonne Université et de l'Université Clermont Auvergne, en collaboration avec les universités de Miami, de Columbia et de San Francisco, ont réussi à soigner la surdité de souris en remplaçant un gène défectueux par un gène normal. Ces souris étaient atteintes de l'équivalent murin de la surdité "DFNB9", une forme de surdité d'origine génétique. La surdité DFNB9 est un trouble auditif, qui représente 2 à 8 % des surdités génétiques congénitales. Les personnes atteintes sont dépourvues du gène codant pour l'otoferline, une protéine essentielle à la transmission de l'information sonore au niveau des synapses des cellules sensorielles auditives. Ce gène a été identifié en 2006 par l'équipe de Christine Petit de l'Institut Pasteur, spécialiste de la génétique des surdités et coautrice de la recherche dont il est question ici. L'otoferline est essentielle à l'audition : elle assure l'encodage du son, c'est-à-dire la transformation du signal sonore en information qui chemine le long du nerf auditif. En cas de mutation de ce gène, la synapse n'émet pas de neurotransmetteurs, et les fibres du nerf auditif ne perçoivent pas de stimulation acoustique. Pour l'heure, seuls des implants cochléaires dans l'oreille interne permettent une récupération auditive partielle chez les patients touchés par cette surdité. Mais le résultat est loin d'être parfait et la nécessité de mettre au point des traitements plus ciblés se fait sentir. Un des principaux problèmes rencontrés dans le traitement de cette surdité est qu'elle se met en place pendant la grossesse, autour de 20 semaines. Lorsque le bébé naît et qu'elle est diagnostiquée, les options de traitement sont donc limitées jusqu'à présent aux implants cochléaires. Mais l'équipe dirigée par le généticien Saaïd Safieddine s'est attelée à trouver des traitements alternatifs. Leur piste : tenter de rétablir l'audition chez des souris présentant cette surdité génétique en insérant dans leur génome le gène manquant, responsable de la production de l’otoferline. On appelle cette méthode thérapie génique. Pour relever ce défi, les chercheurs ont utilisé comme vecteurs des virus adéno-associés (AAV), c’est-à-dire dépourvus de potentiel pathologique, mais capables de s'insérer dans les cellules. « Nous sommes presque tous porteurs de ce type de virus, sans être pour autant malades », souligne Saaïd Safieddine. « Ils vivent avec nous, et ne sont pas immunogènes. En outre, ils n'intègrent pas leur génome dans l'ADN des cellules qu'ils pénètrent, comme les rétrovirus, ce qui peut être la source de problèmes. Ils restent dans le cytoplasme sous forme épisomale. Ce sont d'excellents vecteurs ». Cette thérapie génique a effectivement permis la restauration de l’expression de l’otoferline et, ultimement, la restauration de l’audition des souris. Et les résultats sont très durables, car ces cellules spécifiques ne se renouvellent pas au cours de la vie, ni chez les souris ni chez les humains. Ces résultats sont très encourageants car ils prouvent que la fenêtre thérapeutique pour le traitement de la surdité DFNB9 est bien plus large qu’on ne le pensait jusque-là. On peut désormais espérer étendre ce succès au traitement d’autres formes de surdité génétique. Les chercheurs de l'Institut Pasteur ont fait une demande de brevet pour déposer leur technique et deux séries d'essais cliniques devraient avoir lieu d'ici 5 ans, pour évaluer la toxicité et les éventuels effets secondaires de ce traitement. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Une étude de la Norwegian University of Science and Technology (NTNU) a montré qu'une mauvaise condition cardiorespiratoire peut augmenter le risque de crise cardiaque, même en l’absence de tout symptôme. Mais la même étude montre également qu'une bonne condition physique réduit considérablement ce risque cardiovasculaire, chez les mêmes sujets en bonne santé. « Nous établissons un lien étroit entre une meilleure condition physique et un risque plus faible de crise cardiaque et d'angine de poitrine (angor) sur une durée de suivi de plus de 9 ans », résume l’auteur principal, Bjarne Nes, chercheur à la NTNU. « Même parmi les participants qui semblent en bonne santé, les 25 % des personnes les plus en forme présentent un risque moitié moins élevé que les 25 % les moins en forme ». De 2006 et 2008, l’équipe de recherche a mesuré la capacité cardiorespiratoire de 4.527 hommes et femmes participant à la cohorte « HUNT », exempts de maladie cardiovasculaire, de cancer ou d’hypertension, et dont la plupart étaient considérés à faible risque de maladie cardiovasculaire pour les 10 années à venir. Les chercheurs ont utilisé un tapis roulant et un masque spécial pour mesurer la consommation maximale d'oxygène par une personne, considérée comme une mesure importante de la forme (Visuel). 147 participants ont subi une crise cardiaque ou reçu un diagnostic d'angine de poitrine en 2017. Les chercheurs ont analysé les participants par groupe en fonction de leur forme et par rapport à d’autres participants du même âge et du même sexe. L’analyse montre que le risque cardiaque diminue régulièrement avec l’amélioration de la forme physique ; la corrélation entre la forme physique et le risque cardiovasculaire est également valable après ajustement avec d'autres facteurs de confusion. La consommation maximale d'oxygène ou VO2max, une très bonne mesure de la santé cardiaque : Notre corps utilise l'oxygène pour alimenter les processus métaboliques générant de l'énergie pour les muscles. L'absorption maximale d'oxygène ou la quantité maximale d'oxygène que le corps est capable d'absorber lors d'une activité physique est intimement liée au fonctionnement du cœur, des vaisseaux sanguins et des muscles. Même une petite augmentation de la forme physique peut améliorer considérablement la santé cardiaque : ainsi, pour chaque augmentation de 3,5 points de condition physique, le risque de crise cardiaque ou d'angine de poitrine diminue de 15 %. Bref, quelques mois d'exercices réguliers qui vont aller jusqu’à l’essoufflement peuvent constituer une stratégie efficace pour réduire le risque de maladie cardiovasculaire. Mais le mieux, c’est de poursuivre régulièrement l’entraînement, concluent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash EHJ | | | |
| Selon une étude réalisée par des chercheurs de l'Ecole de Médecine de l'Université de New-York, le lupus érythémateux disséminé (LED) - une maladie auto-immune qui voit le système immunitaire attaquer les articulations, la peau et les reins - pourrait être associé à un déséquilibre important de la flore intestinale. De tels déséquilibres ont précédemment été associés à des maladies auto-immunes comme le syndrome du côlon irritable et l'arthrite, et même au cancer, mais les chercheurs de la Faculté de médecine NYU prétendent être les premiers à tracer un lien avec une forme potentiellement mortelle du LED. Soixante et une femmes souffrant du LED avaient dans leur flore intestinale cinq fois plus d'une bactérie appelée Ruminococcus gnavus que 17 femmes en santé. La maladie est plus courante chez les femmes que chez les hommes. De plus, une explosion de la présence de cette bactérie dans l'intestin semblait associée de très près à des poussées de la maladie, des épisodes qui peuvent aller d'une irritation de la peau à des problèmes rénaux si graves qu'une dialyse sera nécessaire. Les participantes dont les reins étaient attaqués présentaient aussi, dans leur sang, plus d'anticorps produits pour attaquer R. gnavus. Un des auteurs de l'étude, le docteur Gregg Silverman, croit que ces anticorps sont responsables de l'attaque immunitaire « sans fin et sans merci » dont sont victimes les organes. Cette découverte pourrait permettre de détecter la maladie plus rapidement. Mais surtout, elle pourrait ouvrir la voie à de nouveaux traitements, qu'il s'agisse de simples probiotiques, d'une alimentation qui nuit à la croissance de R. gnavus ou d'une transplantation fécale. On pourrait aussi envisager des traitements pour favoriser la croissance de Bacteroides uniformis, une bactérie qui interférerait avec la croissance de R. gnavus et qui était jusqu'à quatre fois moins présente dans l'intestin des participantes malades, comparativement aux participantes en santé. Article rédigé par Georges Simmonds pour RT Flash ARD LPC | | | |
| Des chercheurs australiens dirigés par Katherine Kedzierska de l’Université de Melbourne ont identifié un type de cellule immunitaire capable d'agir contre les différentes souches de la grippe. Ces cellules appelées « lymphocytes T tueurs » ou « cellules T », se sont montrées efficaces contre les virus de type A, B et C. « Les virus de la grippe mutent sans arrêt pour échapper à nos défenses immunitaires », explique pour sa part Marios Koutsakos, chercheur au sein de l’équipe de Melbourne. « Mais aujourd'hui, nous avons identifié des zones communes à toutes les souches susceptibles d'infecter les humains, incluant celles provenant d’espèces animales comme la grippe aviaire, par exemple ». C’est en collaboration avec l’Université de Fudan, en Chine, que l’équipe de chercheurs australiens a étudié les réactions immunitaires de patients atteints de la grippe aviaire H7N9 qui avait touché l’Asie en 2013. Ce virus de type A, qui a été transmis aux humains par des oiseaux, a infecté au moins 133 personnes, pour la plupart en Chine et à Taïwan, et en a tué 43 entre février et août 2013, selon l'Organisation mondiale de la santé (OMS). Les chercheurs australiens ont découvert que les patients qui avaient guéri en deux ou trois semaines possédaient des cellules tueuses actives, alors que les personnes décédées suite à leur infection par le virus H7N9 avaient un niveau réduit de ces cellules. « La prochaine étape pour nous a été d’étudier le fonctionnement de leur mécanisme de protection afin de voir si elles ont le potentiel d’agir comme vaccin contre la grippe », explique Mme Kedzierska. Des études précédentes avaient déjà démontré l’efficacité des « cellules T » contre certains virus de la grippe. Les chercheurs rappellent que ces cellules tueuses sont présentes sous la forme de globules blancs chez la moitié de la population humaine. L'équipe scientifique espère prochainement développer un vaccin universel qui n'aurait pas à être révisé d’année en année. Présentement, tous les ans, les spécialistes de l'influenza à travers le monde surveillent les virus et envoient leurs données à l'Organisation mondiale de la santé (OMS). Deux fois par an, l'OMS étudie ces données et tente de prédire quelles souches du virus de la grippe seront les plus présentes durant l'hiver à venir. L’efficacité du vaccin peut toutefois varier d’une année à l’autre, selon les types de virus grippaux en circulation. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| Selon une passionnante étude réalisée par des chercheurs du Trinity College de Dublin, l’épilepsie ne serait pas une maladie homogène mais une agrégation de différentes pathologies neurologiques dont le point commun est de se caractériser par des crises de décharges électriques des neurones dans différentes zones du cerveau. Ces scientifiques proposent pour la première fois un nouveau modèle expérimental de l'épilepsie mitochondriale, une maladie qui implique certaines cellules du cerveau dont on comprend encore mal le rôle, les astrocytes. La maladie mitochondriale est l’une des formes les plus courantes de maladie génétique, touchant une naissance sur 9 000 en Irlande, avec des conséquences débilitantes. Un quart des patients souffrant d'une maladie mitochondriale sont également atteints d'une épilepsie, souvent sévère et résistante aux antiépileptiques classiques. Malgré la sévérité de cette forme d'épilepsie, il n’existait jusqu’à présent aucun modèle animal disponible pour fournir une compréhension globale de cette variation de la maladie. Mais grâce aux chercheurs du Trinity College, on comprend mieux désormais le rôle important que joue une catégorie encore mal connue de cellules cérébrales, les astrocytes, dans l'apparition de cette maladie. En effet, contrairement à ce qui était admis jusqu'à présent, ces travaux ont pu montrer que ce type particulier de cellule joue bien un rôle-clé dans l'apparition des crises dans l'épilepsie mitochondriale. Les chercheurs ont pu recréer un nouveau modèle expérimental de cerveau en coupes et ont appliqué du fluorocitrate, un inhibiteur de l'aconitase, qui est une molécule spécifique des astrocytes, en association avec des inhibiteurs des voies respiratoires mitochondriales, la roténone et le cyanure de potassium. L'équipe a ensuite utilisé le modèle pour évaluer le rôle joué par les astrocytes dans l’apparition des crises. Elle a démontré l'implication du cycle GABA-glutamate-glutamine, qui régit la façon dont les émetteurs chimiques sont libérés des neurones puis repris par les cellules de soutien, les astrocytes. La glutamine semble être une molécule de liaison importante entre les compartiments « neuronal » et « astrocytaire » du cerveau dans la régulation du tonus inhibiteur GABAergique. Enfin, l’équipe a découvert qu’un déficit en glutamine synthétase constituait une partie importante du processus pathogène de l'apparition des crises, à la fois dans le modèle de coupe du cerveau et en étude neuropathologique humaine. Commentant cette étude, Mark Cunningham, professeur de neurophysiologie de l’épilepsie à Trinity College a déclaré : « Nous pensons que nos travaux constituent une étape importante et novatrice dans la mesure où nous montrons, pour la première fois, un modèle convaincant d’épilepsie mitochondriale, dans lequel nous mettons en lumière le rôle majeur des astrocytes dans cette maladie ». Article rédigé par Georges Simmonds pour RT Flash Oxford | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Le groupe Suez a inauguré la mise en service d’un puits de carbone destiné à traiter une partie des fumées du centre de valorisation des ordures ménagères Valo’Marne à Créteil (Val-de-Marne). L’installation d'une telle unité d’amélioration de la qualité de l’air est une première pour une unité de valorisation énergétique. Suez précise, toutefois, que cette opération fait partie d’un plan global d’amélioration de la qualité de l’air comprenant notamment la construction d’une serre pédagogique et d'une station hydrogène. La réalisation de ce puits est le fruit d’un partenariat entre Suez et la PME Fermentalg de Libourne (Gironde) spécialisée dans l’exploitation industrielles des micro-algues. « Nous avons amené notre expertise dans la connaissance des micro-algues et leur sélection. Nous avons recherché les couches les plus adaptées en fonction des applications, fait des tests à l’échelle du laboratoire puis aidé Suez à mettre en place le procédé sur site. Suez, de son côté, s’est occupé de la partie développement technologique, monitoring, commercialisation », témoigne François Godart, chef de projet Puits de carbone chez Fermentalg. L’utilisation de micro-algues permet de piéger le CO2 dans une colonne de traitement et, ainsi, de purifier l’air qui en sort. « Un dispositif de bullage c’est-à-dire de brassage et d’aération placé en bas de la colonne permet le transfert du CO2 dans le liquide et la captation par les micro-algues », détaille François Godart. La biomasse sous forme liquide issue du procédé sera traitée dans une station d’épuration du Syndicat interdépartemental pour l’assainissement de l’agglomération parisienne (Siaap), reliée à l’usine de Valo’Marne et sera valorisée en énergie verte pour, par exemple, alimenter le réseau de gaz urbain. « Ce puits de carbone est le premier démonstrateur mondial installé sur une unité de valorisation énergétique », s’est félicité Marie-Ange Debon, directrice générale France de Suez. L’équipement de Créteil complète les expérimentations de puits de carbone déjà menées par Suez en partenariat avec Fermentalg à Colombes (Hauts-de-Seine) avec le Siaap, Poissy (Yvelines) et Paris. Article rédigé par Georges Simmonds pour RT Flash Suez | | ^ Haut | |
|
| | | Grâce au radiotélescope Low Frequency Array (LOFAR), une équipe internationale impliquant des astronomes de l’Observatoire de Paris-PSL et du CNRS ont publié le premier volet d’une immense carte du ciel de l’Univers distant. Elle révèle des centaines de milliers de galaxies jusqu’ici inconnues et apporte un éclairage nouveau sur des domaines de recherche tels que la physique des trous noirs et l'évolution des amas de galaxies. Un ensemble de 26 articles consacrés à ces premiers résultats ont été publiés le 19 février 2019 dans un numéro spécial de la revue Astronomy & Astrophysics. Les radiotélescopes observent de la lumière de très basse énergie, invisible à l’œil humain et à tout télescope optique. LOFAR est l'un des plus grands radiotélescopes du monde. Il possède la particularité d’opérer à très basses fréquences (entre 10 et 250 mégahertz) dans un domaine d’énergie essentiellement inexploré. Il consiste en un réseau de cent mille antennes réparties en Europe et est exploité par ASTRON aux Pays-Bas. La partie française du réseau est implantée à Nançay, dans le Cher, au sein de la station de radioastronomie de l’Observatoire de Paris (Observatoire de Paris-PSL/ CNRS / Université d’Orléans). LOFAR génère des quantités de données faramineuses. Faire une image en utilisant ce réseau d’antennes consiste à inverser un immense système composé de milliards d’équations. L’Observatoire de Paris a joué un rôle déterminant pour rendre possible l’exploitation des données de LOFAR. Dans cette première carte du ciel radio délivrée par LOFAR (baptisée “relevé LoTSS”), seulement 2,5 % de l’hémisphère nord sont rendus publics. Cette portion contient déjà plus de trois cent mille objets astrophysiques détectés : 90 % d’entre eux étaient jusqu’ici inconnus. Certaines de ces sources de rayonnement radio sont si distantes que leur lumière a voyagé des milliards d’années avant d’atteindre les antennes de LOFAR. Le rayonnement radio de basse énergie est émis par des particules chargées ultra-énergétiques qui sont freinées par la présence de champs magnétiques. En conséquence, une très grande majorité de cette lumière est émise par des processus énergétiques et parfois violents. La question de l’origine des trous noirs supermassifs, présents au cœur de chaque galaxie, et dont la masse peut atteindre des milliards de masses solaires, reste une énigme. Quand la matière est aspirée par un trou noir supermassif, des jets de particules chargées et très énergétiques se forment et perturbent le milieu environnant la galaxie. Des ondes radio sont alors émises. L’observation radio de ces objets permet également d’étudier les processus de croissance des trous noirs supermassifs, et leur rôle dans la formation des galaxies. LOFAR dévoile par exemple que les trous noirs supermassifs associés aux galaxies les plus massives sont toujours actifs, et que de la matière tombe sans cesse en leur intérieur depuis des milliards d’années. Ces images produites par LOFAR permettent également d’étudier comment les trous-noirs bouleversent périodiquement la dynamique du milieu intergalactique. Nous savons depuis quelques années que les ondes de choc créées par les gigantesques mouvements du gaz du milieu intergalactique peuvent accélérer des particules jusqu’aux très hautes énergies nécessaires à l’émission d’ondes radio. En particulier, les amas de galaxies (qui contiennent des centaines ou des milliers de galaxies) en entrant en collision, génèrent des émissions radio qui peuvent s’étendre sur des millions d’années-lumière. Ces émissions sont observées en abondance avec LOFAR, et constituent un moyen unique d’étude de la dynamique de la structure à grande échelle de l’Univers. Prochaines étapes, LOFAR ouvre une nouvelle fenêtre observationnelle sur l’Univers lointain. Les travaux des 26 articles publiés portent sur seulement les deux premiers pourcents de la carte du ciel. Outre les découvertes scientifiques inédites extraites de ces premières données, la nouveauté consiste en la richesse de ces images. Elles contiennent de nouveaux objets astrophysiques dont la nature reste pour l’heure difficile à comprendre. De multiples découvertes scientifiques sont attendues. L’équipe a pour objectif de créer des images sensibles et à haute résolution de l’ensemble du ciel de l’hémisphère nord, qui révéleront au total 15 millions de sources radio. Quelques années seront nécessaires pour exploiter pleinement les 48 pétaoctets de données au total, soit l’équivalent d’une pile de DVD d’une hauteur de presque 40 tours Eiffel. L’image finale devrait être obtenue à l’horizon 2024. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| | | Des chercheurs de l’Université de Pennsylvanie, aux États-Unis, ont réussi à mettre au point un matériau aussi résistant que le titane, mais quatre à cinq fois moins dense : le "bois métallique". Il s'agit d'un mélange composite entre deux catégories de matériaux bien connues, le métal et le bois. Constitué d’atomes de nickel, le mince feuillet que sont parvenus à produire les scientifiques emprunte aux arbres une des caractéristiques de leur bois : la porosité. Le matériau est en effet ponctué de pores nanoscopiques, des trous 50.000 fois plus fins qu’un cheveu humain. Un véritable gruyère invisible, qui peut être imprégné d’autres matériaux et trouver ainsi des applications dans des domaines aussi variés que l’aéronautique, la fabrication de prothèses médicales ou encore de batteries. "La raison pour laquelle nous l’appelons bois métallique ne tient pas seulement à sa densité, qui est proche de celle du bois, mais [aussi] à sa nature cellulaire. Nous avons des zones qui sont épaisses et denses, avec de solides entretoises métalliques, et des zones qui sont poreuses, avec des espaces remplis d’air", décrit James Pikul, maître de conférence au département d’ingénierie mécanique et de mécanique appliquée de la faculté d’ingénierie et de science appliquée Penn Engineering. Une telle maîtrise de son architecture interne confère à ce "bois métallique" des propriétés que le métal ne possède pas ; empli qu’il est de minuscules "défauts" de structure, compromettant sa solidité. Mais le procédé de fabrication très complexe mis au point par les chercheurs limite pour l’instant la production du matériau. Le prochain défi qui attend le scientifique et son équipe est donc de parvenir à propulser l’invention à l’échelle industrielle et commerciale ; avec à la clé également, une meilleure connaissance de ses propriétés intrinsèques : "Nous ne savons pas, par exemple, si notre bois métallique se cabosserait comme du métal ou s’il volerait en éclats comme du verre", concède James Pikul. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| En imitant le mécanisme qui permet aux muscles vivants de croître et de se renforcer après un exercice physique, l’équipe dirigée par Jian Ping Gong de l’université d’Hokkaido a mis au point un polymère qui se décompose sous l’effet d’un stress mécanique. Il se régénère ensuite en une configuration plus forte, en se nourrissant d’un bain nutritif. L’équipe d’Hokkaido a utilisé ce qu’on appelle des hydrogels à double réseau. Comme les autres hydrogels (des réseaux polymères tridimensionnels capables de gonfler dans l’eau ou un liquide biologique tout en conservant leur forme), il s’agit de polymères qui contiennent 85 % d’eau en poids. Mais dans ce cas, le matériau est constitué à la fois d’un polymère rigide et cassant et d’un polymère souple et extensible. De cette façon, le produit fini est à la fois souple et résistant. Dans des conditions de laboratoire, l’hydrogel a été immergé dans un bain de monomères. Il s’agit de substances le plus souvent organiques utilisées dans la synthèse des oligomères et des polymères. Ces liaisons moléculaires individuelles remplissent la même fonction dans le matériau imitant les muscles que les acides aminés dans les tissus vivants. Lors des tests, l’hydrogel a agi un peu comme les muscles lors d’une séance d’entraînement. Il est devenu 1,5 fois plus solide, 23 fois plus rigide et son poids a augmenté de 86 %. Selon Jian Ping Gong, ce procédé pourrait être utilisé pour concevoir des matériaux convenant à diverses applications, comme les exosuits souples pour les patients présentant des lésions osseuses qui deviennent plus résistantes à l’usage. D’autres usages moins pacifiques pourraient être envisagés. En 2016, le laboratoire de biodesign de Harvard avait présenté son modèle d’exosquelette léger. Son Soft ExoSuit avait été développé dans le cadre d’un contrat de 2,9 millions de dollars avec la DARPA (programme Warrior Web). Article rédigé par Georges Simmonds pour RT Flash YouTube | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Les nanofils ont le potentiel de révolutionner notre environnement technologique. D’une taille allant de 5 à 100 nanomètres (millionième de millimètre), ces petites structures cristallines en forme d’aiguille modifient la manière dont l’électricité ou la lumière passe à travers elles. Elles peuvent notamment émettre, concentrer ou absorber la lumière. Placées sur des puces électroniques, elles ont le potentiel de leur conférer des fonctionnalités optiques. Elles pourraient par exemple générer des lasers directement sur des puces de silicium, intégrer des émetteurs de photons uniques pour encoder de l’information et même améliorer la conversion de la lumière solaire en énergie électrique. Or l’implantation réelle des nanofils sur des semi-conducteurs en silicium s’est jusqu’ici heurtée à un obstacle de reproductibilité : l’impossibilité de faire pousser des nanofils de façon répétée et de manière régulière, là où on le souhaite de façon précise. À la Faculté des sciences et techniques de l’EPFL, des chercheurs du Laboratoire des matériaux semi-conducteurs, dirigés par Anna Fontcuberta i Morral, en collaboration avec des chercheurs du MIT et l’institut IOFFE, ont trouvé une méthode pour fabriquer des réseaux de nanofils de façon ultra-contrôlée et de reproduire le processus à volonté. La clé a été de comprendre les processus au début de la croissance des nanofils. Ce que les chercheurs ont découvert va à l’encontre des théories acceptées jusqu’à présent. Ce travail est publié dans Nature Communications. « Nous pensons que cette découverte ouvre la porte à une intégration réaliste et en série des nanofils sur des substrats de silicium », commente Anna Fontcuberta i Morral. « Jusqu’ici, la croissance des nanofils sur silicium se faisait sans reproductibilité, au cas par cas. » Traditionnellement, pour faire croître leurs nanofils, les chercheurs effectuent de minuscules trous dans de l’oxyde de silicium qu’ils remplissent d’une nanogoutte de gallium liquide, qui sera ensuite solidifiée en nanofils par l’alliage avec l’arsenic. « Cette solidification avait tendance à se faire sur les coins des trous, ce qui donnait des nanofils inclinés de façon non prédictible », indique la chercheuse. Mais comment faire pour fabriquer des nanofils de façon régulière, et les espacer comme on le souhaite ? Jusqu’ici, les recherches pour contrôler le processus de fabrication s’étaient surtout concentrées sur le diamètre du trou, sans résultats convaincants. Les chercheurs de l’EPFL ont démontré qu’il fallait en réalité trouver le bon ratio entre la hauteur et la largeur du trou, afin de faire croître des nanofils de façon parfaitement contrôlée. Ce ratio permet la solidification initiale en forme d’anneau au tour du trou, ce qui empêche les nanofils de partir sur un angle non perpendiculaire au substrat de silicium. Les scientifiques proposent à présent un mode d’emploi qui devrait fonctionner pour tous les types de nanofils. « C’est un peu comme pour la croissance d’une plante. Il lui faut de l’eau et du soleil, mais il faut gérer les quantités », illustre la chercheuse. Grâce à cette nouvelle capacité de fabrication, la recherche sur les nanofils prend un nouvel élan, et de nouveaux échantillons devraient voir le jour prochainement. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Dans le corps humain, les cellules et les tissus sont sujets à de nombreux stimuli mécaniques, qui influencent leurs fonctions physiologiques - la façon dont ils protègent les organes des blessures, notamment. Dans ce contexte, la possibilité d’exercer des forces mécaniques contrôlées sur des tissus vivants peut se révéler très importante pour étudier les conditions qui mènent au développement de certaines maladies. A l’EPFL, l’équipe de Selman Sakar a mis au point des micromachines, qui fonctionnent grâce à des muscles artificiels de la taille d’une cellule. Ils peuvent stimuler mécaniquement des cellules ou des micro-tissus et réaliser des tâches complexes de manipulation dans des conditions physiologiques à l’échelle microscopique. Les micromachines molles sont mises en mouvement à l’aide de lasers et peuvent être intégrées directement dans des puces microfluidiques. Cette particularité permet d’effectuer des tests en stimulant chimiquement et mécaniquement des échantillons biologiques variés. L’étude est publiée dans Lab on a Chip. L’idée a germé chez les chercheurs en observant le fonctionnement du système locomoteur humain. « Nous voulions créer un système modulaire, qui fonctionne par contraction d’actuateurs distribués et par la déformation de mécanismes résilients », explique Selman Sakar. Le système se compose de différents modules en hydrogel, qui sont assemblés à l’i mage de briques de lego, pour former un squelette flexible. Des connexions sont ensuite créées entre le squelette et les actuateurs, en utilisant des sortes de tendons en polymères. En combinant les briques et les actuateurs de différentes manières, il est possible de générer tout un catalogue de micromachines complexes. « Nos actuateurs mous se contractent de manière rapide et efficace dès que nous leur envoyons de la lumière infrarouge. Ainsi, lorsque les nanoactuateurs du réseau se contractent collectivement, ils tirent sur les éléments qui leur sont rattachés, ce qui met les machines en mouvement », explique Berna Ozkale, premier auteur de l’étude. Avec cette technique, les scientifiques peuvent activer de nombreux microactuateurs à distance, et guider des machines à la dextérité et aux performances exceptionnelles. Les actuateurs peuvent par exemple se contracter fortement et se relâcher en quelques millisecondes. En plus de la recherche fondamentale, les médecins pourraient par exemple se servir de ces dispositifs biocompatibles pour créer de minuscules implants, afin de stimuler mécaniquement des tissus, et d’enclencher des mécanismes pour diffuser des agents biologiques sur demande. En parallèle à leur recherche, les chercheurs du laboratoire de Selman Sakar ont mis au point une autre technique pour saisir des objets microscopiques de n’importe quelle forme dans des fluides. Leur recherche a fait la couverture de Small. Au contraire des systèmes conventionnels, il n’est nul besoin de connaître la forme à attraper, puis d’adapter la pince à la morphologie de l’objet à saisir. Ici, une balle d’hydrogel possède la particularité unique de se « souvenir » de sa forme initiale. Lorsque cette balle, qui se situe au bout d’un tube de métal, est pressée contre un objet, elle l’enveloppe et s’adapte à sa forme. Des ions de calcium sont ensuite envoyés à travers la tige directement dans l’hydrogel, ce qui le solidifie. A ce stade, l’hydrogel peut déplacer l’objet cible. En augmentant la température, il est possible d’augmenter la contraction, afin de transporter des objets plus lourds. Pour relâcher l’objet, des ions de potassium sont envoyés dans le tube à la place des ions de calcium, ce qui rend la balle d’hydrogel molle à nouveau, « L’hydrogel peut s’adapter à pratiquement toutes les formes, ce qui en fait une sorte de pince universelle », explique Haiyan Jia, premier auteur de l’étude. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des chercheurs du MIT ont mis au point un nouveau type de traceur, baptisé Turbo Track, qui fonctionne grâce aux étiquettes RFID et pourrait révolutionner la robotique. L’invention devrait contribuer à améliorer la précision des drones et des robots de manière générale. Cette innovation pourrait se traduire à l’avenir par deux scénarios : le premier serait plutôt positif car il permettrait de rendre les robots plus efficaces pour lutter contre la criminalité par exemple. Le second serait moins drôle : imaginez que ces nouveaux robots hyper précis se retrouvent dans les mains des seigneurs noirs mécaniques, ils pourraient entraîner la mort de l’Humanité. Cette innovation n’est pas anodine, elle aura des effets majeurs sur le développement des drones et des robots dans de nombreuses applications. Un nouveau système étonnamment simple, de simples étiquettes collées sur un objet permettraient de fournir un signal qui permet au robot de savoir exactement où se trouve sa « cible » (ne basculons pas tout de suite dans le scénario le plus sombre). Ce que les chercheurs appellent les « situations encombrées », c’est le fait pour un robot d’être gêné par un immeuble ou un tas d’objets, n’existeront plus. Les tests réalisés avec les étiquettes RFID montrent que les robots utilisant ce nouveau système peuvent localiser un objet en 7,5 millisecondes, avec une plage d’erreur inférieure à un centimètre. C’est tout simplement révolutionnaire. Les chercheurs ont testé le système TurboTrack sous différentes formes : un drone qui doit livrer un colis à une adresse précise, un bras robotisé qui doit effectuer une tâche ultra précise comme de la couture. La cerise sur le gâteau ? Les étiquettes RFID sont peu coûteuses et pourraient donc être déployées sur le marché assez rapidement. Article rédigé par Georges Simmonds pour RT Flash MSN | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|