| | | | | | | Edition du 23 Février 2018 |
| |
|
| Edito Transition énergétique : Pourquoi ne pas revoir fondamentalement le triptyque production, stockage et distribution ?
Cette semaine, l’actualité nous conduit à revenir sur un sujet ô combien essentiel, celui de la transition énergétique en cours qui doit nous conduire à abandonner le plus rapidement possible l’ensemble des énergies fossiles, pour y substituer tant dans le secteur économique que dans ceux du bâtiment et des transports, les énergies renouvelables et propres, à très faible émission de CO2. Il y a quelques jours, a été publié le dernier rapport de l’Agence internationale des énergies renouvelables (Irena) et il est dommage que cette étude n’est pas trouvée un plus large écho médiatique, car elle comporte plusieurs informations et prévisions qui peuvent éclairer nos choix en matière énergétique et changer profondément notre avenir. Cette étude souligne notamment que "Toutes les technologies renouvelables seront compétitives par rapport aux énergies fossiles en 2020". Selon l’Irena, les coûts moyens des renouvelables devraient atteindre entre 30 et 100 dollars le mégawattheure (MWh), selon les technologies considérées (éolien, solaire, géothermie, biomasse, etc.), alors que les énergies fossiles affichent des coûts qui se situent entre 5 et 17 cents le kWh (50 et 170 dollars le MWh), selon des pays et les conditions locale de production (Voir IRENA). L’Irena précise que depuis 2017, les coûts moyens des nouveaux projets de parcs d'éolien terrestre et de centrales solaires ont fluctué entre 6 et 10 dollars le kWh (60 et 100 dollars le MWh). Dans l'éolien, terrestre, certains nouveaux projets sont à présent mis en service avec un coût de production inférieur à 5 cents le kWh. Toujours l'an dernier, des projets dans la géothermie, la biomasse ou l'hydroélectricité se sont développés avec des coûts se situant autour de seulement 7 cents le kWh. Quant au solaire à concentration (solaire thermodynamique) et à l'éolien marin, certains projets mis en service d'ici 2020 auront des coûts de production situés entre 6 et 10 cents le kWh. Ces baisses de coûts sont l’effet d’une évolution technologique rapide, mais également d’une concurrence internationale accrue. Et cette diminution des coûts de production va se poursuivre, car l'Irena estime que pour chaque doublement de la capacité mondiale installée, les coûts baissent de 14 % pour l'éolien marin, 21 % pour l'éolien terrestre, 30 % pour le solaire à concentration et 35 % pour le photovoltaïque. L’Irena anticipe que les installations terrestres atteignent des coûts moyens pondérés globaux de 0,05 $/kWh en 2020. L'éolien en mer reste plus onéreux, avec des prix affichés de l'ordre de 0,14 $/kWh pour les parcs construits en 2017. Le rapport de l’Irena montre que la chute des coûts de production de l'électricité solaire a été de 73 % depuis 2010. Principale raison de cette baisse spectaculaire, la chute de 81 % du prix des modules photovoltaïques depuis le début de la décennie. Quant au coût du solaire photovoltaïque, il dev rait passer de 10 cents à 6 cents le kWh d’ici les trois prochaines années… Ces projections de l’Irena concernant la baisse du coût de production de l’électricité d’origine renouvelable rejoignent globalement celles de l’institut allemand Fraunhofer, qui prévoit un coût du kWh issu du solaire photovoltaïque de seulement 4,3 centimes dans le sud de l’Europe en 2030, c’est-à-dire nettement inférieur à l’électricité issue des centrales à charbon (6 à 8 cts le kWh) et également inférieur au coût de production de l’électricité nucléaire (5 à 6 cts le kWh pour les centrales anciennes, déjà amorties et 10 à 12 cts le kWh pour la future génération de centrales nucléaires). Mais, on l’oublie trop souvent, l’économie globale de l’énergie et le niveau réel de compétitivité d’une filière énergétique ne dépendent pas seulement du coût de production, mais également du mode des possibilités technologique et des coûts liés au stockage et à la distribution de cette énergie jusqu’à l’utilisateur final. Dans le cadre de la révision de la programmation pluriannuelle de l'énergie (PPE), le Commissariat général au développement durable (CGDD) vient de publier une intéressante étude portant justement sur les solutions de stockage d'électricité. Il faut en effet savoir que, d’ici dix ans, plus du tiers de l’électricité produite dans notre pays le sera à partir des différentes sources d’énergie renouvelables. Mais il faut tenir compte des particularités géoclimatiques de la France. En France, l’énergie éolienne est plus importante durant les mois d'hiver, alors que l’énergie issue du solaire atteint son meilleur potentiel pendant les mois d’été. La demande d'électricité fluctue également en fonction des cycles journaliers, hebdomadaires et saisonniers. Selon cette étude, compte tenu des évolutions technico-économiques prévisibles, les batteries pourraient fournir une solution intéressante pour traiter les fluctuations journalières, alors que les stations de transfert d'énergie par pompage (STEP) s’avèrent bien adaptées pour lisser les fluctuations hebdomadaires. Ces STEP fonctionnent selon un principe simple et connu de longue date : En cas de production électrique excédentaire, elles sont utilisées pour pomper de l'eau d'un réservoir aval à un réservoir amont. A contrario, quand la demande d'électricité est forte, cette eau va servir à faire tourner des turbines pour produire de l'électricité. On estime que notre pays dispose d’environ 7 TWh de stockage en France soit 1,5 % de la consommation annuelle, et il est prévu d’installer 4 TWH de stockage supplémentaire d’ici 2030. Parallèlement au développement de ces STEP, les batteries industrielles de nouvelle génération et de grande capacité sont également amenées à jouer un rôle important dans le développement de grosses capacités de stockage et de lissage de l’énergie. Fin 2015, les chercheurs du CNRS et du CEA ont présenté un prototype de batterie sodium-ion au format industriel, qui remplace le lithium (un métal rare) par du sodium, bien plus abondant sur Terre. Les avantages de ce nouveau type de batteries sont multiples et considérables : outre un coût de fabrication bien inférieur aux batteries actuelles, ces batteries au sodium sont bien plus stables que celles au lithium et également plus faciles à recycler. Mais ce n’est pas tout, ces batteries au sodium, qui devraient être produites au stade industriel en 2020, ont également une durée de vie plus longue (au moins 10 ans) et une vitesse de recharge dix fois plus rapide que celles au lithium. Ces batteries pourraient permettre, tant dans le secteur du stockage industriel et domestique que dans celui des transports électriques, d’avancer bien plus vite vers la décarbonisation de notre économie. En Suisse, des chercheurs de l’Empa et de l’UNIGE travaillent pour leur part sur une batterie solide au sodium. Cette solution permet d’utiliser une anode métallique et de stocker davantage d’énergie de manière plus sûre. Ces scientifiques ont réussi à identifier un conducteur ionique non-organique solide très stable, à base de bore, qui permet une bonne circulation du sodium, tout en supprimant tout risque d’inflammabilité de la batterie lors de la recharge. Cette batterie a été testée par les chercheurs de l’Empa et de l’UNIGE. Les premiers essais de cette batterie solide ont confirmé ses potentialités d’avenir. Il faut également évoquer une autre solution technologique très prometteuse dans ce domaine du stockage de l’électricité, le « Power To Gas ». Cette technique consiste à transformer l'électricité renouvelable en hydrogène par électrolyse de l'eau ; cet hydrogène peut ensuite être injecté, jusqu’à une proportion de 20 %, dans les réseaux de distribution de gaz, ou être transformé en méthane, après une combinaison avec du CO2. Les études de prospective énergétique de l'ADEME et GrDF estiment que cette technologie devrait être pleinement opérationnelle en France à l'horizon 2030 et pourrait permettre de produire entre 20 et 30 TWh/an de gaz renouvelable injectable dans les réseaux existants, ce qui en ferait une excellente solution de stockage pour la production & eacute;lectrique excédentaire de longue durée. A l’horizon 2050, le « Power To Gas » pourrait permettre de valoriser entre 21 et 72 TWh d’électricité pour produire de 14 à 46 TWh de gaz de synthèse. Autre solution d’avenir qui pourrait venir bouleverser le stockage et la distribution d’énergie : l’utilisation à grand échelle de l’hydrogène. Le Cabinet McKinsey a révélé, dans une étude publiée il y a quelques semaines, que l'hydrogène pourrait représenter près d'un cinquième de l'énergie totale consommée à l'horizon 2050 au niveau mondial, ce qui permettrait de réduire les émissions annuelles de CO2 d'environ 6 gigatonnes par rapport aux niveaux actuels et de contribuer ainsi, à hauteur de 20 %, à la diminution requise (environ 28 gigatonnes-équivalent CO2) pour limiter le réchauffement climatique à 2 degrés. A Grenoble, la société Sylfen a développé, après dix ans de recherche en coopération avec le Commissariat à l’énergie atomique et aux énergies alternatives, une solution hybride, appelée Smart Energy Hub. Cette technologie permet de stocker les surplus d’électricité produite et de les réutiliser en fonction des besoins. Le secret de cet outil réside dans la réversibilité du processeur d’énergie. Concrètement, ce Smart Energy Hub peut fonctionner, soit comme un électrolyseur pour transformer en hydrogène le surplus d’électricité créé localement, soit comme une pile à combustible pour restituer à la demande cet hydrogène sous forme d’électricité. Grâce à sa réserve permanente, ce système remarquable peut basculer instantan&eacu te;ment de la charge à la décharge et répondre ainsi de manière très efficace aux fluctuations brutales de consommation. Dans le domaine de la distribution de l’énergie jusqu’à l’utilisateur final, une autre révolution est en cours pour permettre d’accélérer la capacité du réseau à s’adapter aux fluctuations et pics de production liés à l’arrivée massive des énergies renouvelables dans la production d’électricité. Selon une récente étude réalisée par l'Ademe et les gestionnaires des réseaux de transport et de distribution d'électricité, RTF et Enedis, la valeur économique des réseaux électriques intelligents justifie le déploiement des « Smart grids » qui permettent d’utiliser de manière bien plus souple et efficiente le réseau, en ajustant en temps réel l’offre et la demande d’énergie, mais également en ré ;duisant sensiblement les gaspillages d’énergie et les coûts d’exploitation de ce réseau électrique. En France, Enedis a déjà installé plus de sept millions de compteurs « intelligents » Linky et trente-cinq millions d’autres doivent l’être d’ici à 2021. Concrètement, Linky est communicant et peut acheminer des informations montantes (du consommateur au gestionnaire) et descendantes (du gestionnaire au consommateur). Mais Linky ouvre également le développement à grande échelle de l’autoconsommation, ce qui doit permettre aux ménages de produire, consommer ou revendre leur propre électricité. Il faut enfin évoquer, dans l’émergence de ce nouveau paysage énergétique, le rôle moteur, c’est le cas de le dire, des constructeurs automobiles, qui ont tous pris le virage inéluctable de l’après pétrole et investissent massivement dans la recherche de solutions innovantes de stockage domestique de l’énergie. L’idée est simple : faire coup double en accélérant l’électrification du parc automobile et en élargissant les débouchés et marchés pour leurs technologies de batteries pour véhicules électriques. Pour atteindre ces objectifs, les constructeurs parient sur le concept de réseaux intelligents d’énergie, ou « Smart energy networks », comme le Powerwall de Tesla, ou le xStorage de Nissan. Ces dispositifs de stockage domestique ont l’ambition de coupler la maison et la voiture, toutes deux transformées en unités de production et de stockage de l’énergie. L’idée est de réduire la consommation énergétique globale de ce système maison-voiture, tout en compensant les fluctuations entre la production et la consommation d’électricité, en stockant sur de très courtes durées de petites quantités d’énergie dans des unités statiques. Dernière annonce en date dans ce domaine, celle d’Audi, qui mène une expérimentation très intéressante avec des ménages de la rég ion d’Ingolstadt et de la région de Zurich. Dans ce projet, un logiciel de contrôle mis au point par Ampard distribue intelligemment l’énergie solaire en fonction de la demande d’énergie prévisible de la voiture, des ménages et du système de chauffage. Mais ce qui rend cette solution très novatrice, c’est qu’elle est prévue, pour la première fois, pour communiquer et interagir avec le réseau électrique, de manière à contribuer à sa stabilisation et son utilisation optimale. Ce rapide panorama de la transition énergétique en cours nous montre que, si nous voulons accélérer le basculement vers les énergies propres et faire en sorte que celles-ci assurent d’ici 2050 plus de la moitié de l’ensemble de nos besoins énergétiques, nous devons non seulement favoriser par tous les moyens l’essor des énergies renouvelables, à présent compétitives (éolien, solaire, biomasse et également énergies marines encore très sous-exploitées) mais également passer d’une vision verticale et centralisée de la production d’énergie à une vision réticulaire, décentralisée et intelligente de l’économie de l’énergie, intégrant les capacités et demandes d’énergie liées à l’activité économique (industr ie, commerce, services numériques), au résidentiel (bureaux et logements) et enfin aux déplacements (transports publics et privés). C’est seulement si nous arrivons à concevoir et à mettre en œuvre rapidement, au niveau planétaire, ce nouveau système global, intégré et intelligent d’utilisation de l’énergie, que nous aurons une chance de pouvoir satisfaire l’ensemble des besoins énergétiques de l’Humanité de manière équitable, durable et supportable par notre planète et que nous parviendrons peut-être à limiter les effets du changement climatique majeur que nous sommes en train de provoquer. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Information et Communication | |
| | | Une équipe de chercheurs de l'Université de Nouvelle-Galles du Sud (Australie), a annoncé être en mesure de concevoir des structures combinant des millions de qubits, tout en conservant les technologies traditionnelles de fabrication des composants CMOS issues du silicium. Andrew Dzurack, responsable de l'équipe, affirme ainsi avoir la jonction entre électronique traditionnelle et informatique quantique, là où la plupart des autres projets se sont focalisés principalement sur le second aspect, ou bien ont cloisonné les différents éléments. L'un des secrets de la méthode australienne vient d'un nouveau système de correction d'erreur, un élément critique des ordinateurs quantiques et du fonctionnement des qubits, très sensibles à la moindre perturbation. Il existe une demi-dizaine d’approches pour l’informatique quantique. Les chercheurs se sont attaqués aux bits quantiques de spin de silicium. Les chercheurs ont en effet utilisé des qubits de silicium avec un schéma de correction d’erreur dédié pour permettre à l’architecture finale d’être produite sur une technologie CMOS standard. "Notre conception intègre des commutateurs à transistors en silicium classiques pour activer les opérations entre les qubits dans un vaste réseau bidimensionnel, en utilisant un protocole de sélection de mot et de bit similaire à celui utilisé pour sélectionner des bits dans une mémoire d’ordinateur conventionnelle", a déclaré le Dr Menno Veldhorst. Si ces travaux doivent permettre en principe de développer des puces de millions de qubits, l'équipe va commencer par un prototype à 10 qubits d'ici 2022, via un financement d'environ 60 millions de dollars, avant d'en intégrer un plus grand nombre, "selon le même modèle fourni par la loi de Moore pour les processeurs conventionnels". Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | L’entreprise E-Novia, basée à Milan, teste actuellement son robot de livraison baptisé YAPE, pour Your Autonomous Pony Express. Avec une autonomie de 80 kilomètres, YAPE se déplace sur deux roues tout en s’auto-équilibrant. S’il peut se rouler à une vitesse allant jusqu’à 20 km/h, il est aussi capable de transporter des colis pesant jusqu’à 70 kilos. Grâce à une série de capteurs, de caméras et un GPS, le robot peut se déplacer sur les trottoirs et les pistes cyclables sans heurter des individus ou des objets. Pour fonctionner, il a néanmoins besoin de capteurs installés sur les feux de circulation et d’autres équipements routiers. Cela lui permet de prendre en compte les changements rapides dus à la circulation ou aux passages piétons. Dès que YAPE arrive à destination, le destinataire du paquet n’a qu’à montrer son visage pour exploiter le potentiel de la reconnaissance faciale et, finalement, ouvrir la trappe contenant le colis. Selon E-Novia, « YAPE est simple d’utilisation grâce à une application connectée à une plate-forme de contrôle pour envoyer des paquets via YAPE, vous n’avez qu’à entrer l’adresse de destination dans l’application. A la livraison, le destinataire ne pourra ouvrir le compartiment du colis qu’à l’aide d’un système de reconnaissance faciale ». Article rédigé par Georges Simmonds pour RT Flash e-novia | | | |
| Nissan travaille sur une technologie baptisée Brain-to-Vehicule (B2V), qui a pour but, dans un premier temps, d’améliorer les capacités d’un conducteur en anticipant ses réactions et mouvements pour activer une assistance plus précise et adéquate, pouvant faire gagner 0,2 à 0,5 seconde par action (freinage, virage). In fine, le but est d’abaisser le temps de réaction au maximum sans que le pilote s’en rende compte, pour une conduite plus agréable et toujours plus sécurisée. Dans un second temps, la technologie aura aussi des conséquences positives en cas de conduite autonome. D’une certaine manière, Nissan répond aux freins rencontrés par la conduite autonome. Un point souligné par Daniele Schillaci, vice-présidente du constructeur, « Quand les gens pensent conduite autonome, ils ont une vision d’un futur très impersonnel, où les humains cèdent le contrôle à des machines. La technologie B2V fait le contraire, en utilisant les signaux du cerveau pour rendre la conduite plus excitante et plaisante ». Via des capteurs, l’intelligence artificielle de la voiture serait donc en mesure de détecter les signaux envoyés par un cerveau humain afin de prédire les actions futures ou d’observer une zone d’inconfort. Dans ce cas précis, affilié à la conduite autonome, la voiture pourra alors ajuster son style de pilotage. Chercheur au centre de recherche de Nissan, le docteur Lucian Gheorghe précise que les applications sont nombreuses : on peut par exemple imaginer un environnement en réalité augmentée qui s’ajuste en fonction de l’activité du cerveau et, ainsi, donner naissance à un trajet davantage relaxant. Nissan a montré ces avancées sur le B2V à l’occasion du CES 2018. Les promesses semblent là : améliorer la sécurité avec une conduite classique, rendre l’expérience plus agréable avec une conduite autonome. Article rédigé par Georges Simmonds pour RT Flash Numerama | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | On savait déjà que l'atmosphère terrestre reçoit en permanence des rayons cosmiques, c’est-à-dire des particules chargées (électrons, ions) venant notamment du Soleil ou de supernovæ proches et qui n'ont pu être détournées par notre champ magnétique. Mais jusque-là les scientifiques considéraient que l'action de ces particules sur la dynamique de formation des nuages était négligeable. Or, selon une étude réalisée par l'Université technique du Danemak, sous la direction du Professeur Svensmark, ces particules auraient en fait une influence réelle sur le climat. Quand un nuage s'interpose entre le Soleil et nous, notre peau ressent immédiatement une chute de température. Le même phénomène advient à l'échelle atmosphérique : la couverture nuageuse tend à refléter (vers l'extérieur) les rayons du Soleil, ce qui diminue donc le taux de chaleur absorbée par la « peau » de la Terre, l'atmosphère. De fait, à l'échelle globale, la couverture nuageuse est un des facteurs essentiels du refroidissement de l'atmosphère, comme la concentration de CO2 l'est du phénomène de réchauffement. Mais si ce paramètre de couverture nuageuse est bien pris en compte dans les modèles de prévision climatique, ceux-ci n'intégraient pas jusqu'ici son taux d'accroissement dû à l'action des particules cosmiques. Dans leur nouvelle étude, les chercheurs ont tracé l'enchaînement des réactions atmosphériques qui, à partir d'une particule cosmique, produit des "noyaux de condensation" nuageux, et démontré que ce processus peut aller jusqu'à augmenter la couverture nuageuse de 50 %. En effet, la naissance d'un nuage est loin d'être une affaire simple : pour que la vapeur présente dans l'atmosphère puisse se condenser en ces fines gouttelettes d'eau qui forment les nuages, il faut un démarrage : un noyau solide. Celui-ci peut être fait de molécules, de bactéries, de sable ou poussières, et doit être suffisamment grand (plus de 50 nm de diamètre) pour que les molécules d'eau s'y agglomèrent malgré l'effet d'évaporation qui tend à les séparer. Sans ce noyau, point de condensation. Sans condensation, point de nuages. Or les chercheurs ont découvert que ces rayons cosmiques produisent une chaîne de réactions qui fait grandir de minuscules agglomérats (de moins de 20 nm) d'acide sulfurique et molécules d'eau présents naturellement dans l'atmosphère, les aérosols, jusqu'à atteindre la taille critique pour la formation de nuages. La découverte de ce processus inconnu de production de nuages devra donc être pris en considération dans les modélisations de la dynamique climatique. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une étude du centre médical universitaire de Rush à Chicago (Illinois) vient de montrer que le fait d'ajouter une portion de légumes verts dans les repas quotidiennement pourrait être une façon simple d'aider à préserver une bonne santé cérébrale en vieillissant. Ce travail de recherche a été mené auprès de 960 personnes blanches âgées en moyenne de 81 ans au début de l'étude et qui ne présentaient aucun signe de démence. Les résultats laissent penser que les participants qui consommaient au moins une portion de légumes verts chaque jour avaient, selon les résultats des tests effectués régulièrement, un déclin plus lent de leurs capacités cognitives et de mémorisation que ceux en mangeant rarement ou jamais. Selon ces chercheurs, les personnes consommant des légumes verts régulièrement étaient cognitivement parlant onze ans plus jeunes. Les participants, suivis en moyenne 4,7 ans, ont été testés annuellement. Ils ont répondu régulièrement à des questionnaires sur leur régime alimentaire pour déterminer la fréquence et la quantité de légumes verts consommés. Il s'agit d'épinards, de choux frisés, de choux verts ou de laitue. Les résultats de l'étude sont restés valides après avoir pris en compte d'autres facteurs pouvant affecter, en bien ou en mal, la santé du cerveau. Ces chercheurs citent la consommation de poissons et de fruits de mer, d'alcool et aussi le fait de fumer, de souffrir d'hypertension artérielle ou encore d'avoir un niveau élevé d'études et d'être actifs physiquement et mentalement. "Les résultats de cette étude ne prouvent pas que la consommation régulière de légumes verts ralentit le vieillissement cérébral mais ils montrent une corrélation", explique Martha Clare Morris qui a dirigé ces travaux. "On ne peut pas non plus exclure d'autres facteurs possibles", ajoute-t-elle. Pour solidifier la corrélation, estiment ces chercheurs, il faudrait effectuer cette même étude avec des groupes de personnes plus jeunes et plus diverses. Article rédigé par Georges Simmonds pour RT Flash Neurology | | | |
| Une équipe de chercheurs dirigée par Christelle Monville (Professeure à l’Université d’Evry) à I- Stem, le laboratoire créé par l’AFM-Téléthon, l’Université d’Evry et l’Inserm, a réussi, en collaboration avec l’équipe dirigée par Olivier Goureau, directeur de recherche Inserm au sein de l’Institut de la Vision, à améliorer la vision de rats atteints de rétinite pigmentaire, grâce à la greffe d’un pansement cellulaire obtenu à partir de cellules souches embryonnaires humaines. Ces résultats ouvrent la voie à la thérapie cellulaire des rétinites pigmentaires d’origine génétique mais aussi de maladies dégénératives de la rét ine très fréquentes comme certaines formes de Dégénérescence Maculaire Liée à l’Âge (DMLA). En France, près de 30 000 personnes sont concernées par des rétinites pigmentaires – un ensemble de maladies rares de la vision – et plus de 1,5 million par la Dégénérescence Maculaire Liée à l’Âge (DMLA). Ces pathologies, encore incurables, sont caractérisées par une dégénérescence progressive des cellules de la rétine conduisant, à terme, à la cécité. Pour remplacer les cellules déficientes chez les malades, les premiers travaux, réalisés chez l’Homme à partir de 2012 par des équipes américaines, consistaient à injecter dans l’œil des cellules de l’épithélium pigmentaire rétinien mises en suspension – c’est-à-dire séparées les unes des autres – obtenues à partir de cellules souches embryonnaires humaines. Cette technique n’était cependant pas optimale en termes d’assimilation et de survie des cellules délivrées. Les chercheurs français ont opté pour une approche innovante : après avoir différencié les cellules souches embryonnaires humaines en cellules épithéliales, ils les ont ensemencées sur un segment de membrane amniotique humaine afin de réaliser un "patch cellulaire". Ce patch a été ensuite greffé dans la couche la plus périphérique de la rétine de rats présentant spontanément une rétinite pigmentaire d’origine génétique. En parallèle, d’autres rongeurs ont reçu une injection de cellules en suspension afin de comparer les deux techniques. Après 13 semaines d’observation, les chercheurs ont constaté que les rats greffés à l’aide d’un patch présentaient de meilleures performances v isuelles et sur un plus long laps de temps par rapport aux animaux ayant reçu les cellules en suspension. Forts de ces résultats, les chercheurs déposeront dans les semaines qui viennent une demande d’autorisation pour un essai clinique de phase I/II chez une douzaine de patients atteints de rétinites pigmentaires, qui devrait ainsi démarrer d’ici environ un an à l’hôpital des Quinze-Vingts, sous la responsabilité du Professeur José-Alain Sahel. Il s’agira du premier essai de thérapie cellulaire pour des maladies de la vision en France. À terme, cette nouvelle piste pourra être appliquée à toutes les pathologies dans lesquelles on observe une altération de l’épithélium pigmentaire rétinien, notamment dans les formes de la DMLA dite sèche, ou atrophique. Pour Christelle Monville, enseignante-chercheuse à l’Université d’Evry et à I-Stem « Avec toute l’équipe, nous travaillons depuis 6 ans au développement de cette technique innovante. En effet, c’est la première fois que l’on constitue un "patch cellulaire" avec des cellules souches embryonnaires et une membrane amniotique humaine. Nous avons démontré que cette technique, étant plus efficace, ouvre des perspectives thérapeutiques pour les maladies de la rétine, qu’elles soient rares et génétiques ou fréquentes et liées au vieillissement. Être aujourd’hui aux portes de l’essai chez les malades est un moment très excitant ». Marc Peschanski, directeur d’I-Stem le confirme : « Cette nouvelle preuve de concept montre à quel point la recherche dans le domaine de la thérapie cellulaire avance et les perspectives thérapeutiques qu’elle offre. Nous travaillons depuis plus de 10 ans maintenant au développement de cette nouvelle médecine et je suis fier que mes équipes soient à l’aube de lancer le premier essai de thérapie cellulaire français pour des maladies rares de la vision ». Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Une équipe britannique de l’Université de Lancaster a montré qu’un médicament initialement mis au point pour le traitement du diabète semble aussi avoir une efficacité thérapeutique pour traiter la maladie d'Alzheimer. Ces conclusions, déjà cohérentes avec celles de précédentes recherches, pourront donc, sous réserve de confirmation, avoir des implications cruciales dans le traitement de la maladie d'Alzheimer. Le Professeur Christian Holscher, auteur principal de l’étude, décrit ce traitement comme « innovant et clairement prometteur » et plus largement pour traiter les troubles neurodégénératifs chroniques. Un début de réponse à l’émergence des démences, avec le vieillissement des populations et la nécessité, face à l’absence de traitement définitif, d’explorer de nouvelles indications pour les médicaments déjà disponibles pour traiter d'autres conditions. Cette approche permettrait en effet d’accélérer la disponibilité de nouvelles molécules. De précédentes études sur des médicaments existants comme le liraglutide (analogue de GLP-1) ont déjà montré de réelles promesses pour les personnes atteintes de la maladie d'Alzheimer. Ici, il s’agit d’un médicament triple récepteur qui combine les 3 facteurs de croissance GLP-1 (glucagon-like peptide-1), GIP (Peptide insulinotrope dépendant du glucose) et Glucagon, des hormones gastro-intestinales qui stimulent la sécrétion d'insuline en cas de glycémie élevée. Alors qu’il a déjà été démontré que les troubles de la signalisation des facteurs de croissance sont altérés dans le cerveau des patients atteints de la maladie d'Alzheimer, le médicament est testé pour protéger le cerveau de la dégénérescence. L'étude est menée sur des souris transgéniques qui expriment des gènes mutés humains responsables de la maladie d'Alzheimer. Une fois plus âgées et à stade de neurodégénérescence avancée, les souris ont été traitées. Ce traitement permet en effet d’améliorer de manière significative la capacité d’apprentissage et de mémoire de ces souris modèles, telle qu’évaluée par le test du labyrinthe. En outre, les chercheurs constatent chez ces souris traitées : une diminution des plaques amyloïdes dans le cerveau liées à la maladie d'Alzheimer, une réduction de l'inflammation chronique et du stress oxydatif et enfin un ralentissement de la perte des cellules nerveuses. Ces résultats très prometteurs suggèrent l'efficacité de ces nouveaux médicaments à récepteurs multiples développés au départ pour traiter le diabète de type 2, mais qui montrent ici des effets neuroprotecteurs. Des résultats logiques aussi, puisque le diabète de type 2 est un facteur de risque connu pour la maladie d'Alzheimer et reconnu comme impliqué dans la progression de la maladie. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Des chercheurs de l'Université de Pennsylvanie, du Brigham and Women's Hospital et du NIH, ont montré que la consommation de poisson favorisait le sommeil et les performances cognitives chez les jeunes. Ces scientifiques ont étudié 541 enfants chinois qui faisaient partie de la China Jintan Cohort Study. Leur consommation de poisson et leur sommeil ont été évalués entre 9 et 11 ans et leur QI mesuré à 12 ans. Les chercheurs ont trouvé qu'une consommation fréquente de poisson entre 9 et 11 ans était associée à une réduction des problèmes de sommeil à cet âge et à un meilleur QI à 12 ans. Ceux qui mangeaient souvent du poisson avaient 4,8 points de QI en plus par rapport à ceux qui en mangeaient rarement (ceux qui en mangeaient parfois avaient 3,31 points en plus). L'étude suggère que la consommation de poisson améliore la qualité du sommeil, ce qui favoriserait les performances cognitives des enfants. Il faut cependant noter qu'il s'agit d'une étude d'observation qui met en évidence une association, mais elle ne peut pas prouver de lien de cause à effet. Comment expliquer ce lien entre poisson, sommeil et QI ? De nombreux poissons sont riches en acides gras oméga-3 comme le DHA (acide docosahexaénoïque), qui sert à la construction des membranes cellulaires. Des études sur l'animal suggèrent que le DHA participe au contrôle de la production de mélatonine, qui sert à la régulation du rythme circadien et améliore le sommeil. D'autres travaux ont montré un lien entre la consommation de poisson et les capacités cognitives des adultes. Par exemple, une étude parue en 2014 dans American Journal of Preventive Medicine a trouvé que les adultes mangeant régulièrement du poisson avaient plus de matière grise dans certaines régions du cerveau comme l'hippocampe. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Selon une étude annoncée lors du congrès de l’American Society of Hematology (ASH 2017), l’anticorps brentuximab vedotin, administré en association avec une polychimiothérapie dans le traitement des formes avancées de lymphome hodgkinien, permet d’améliorer la survie sans progression des patients. Ce taux de survie sans progression à deux ans est de 82,1 % dans le groupe recevant la combinaison chimiothérapie + anticorps, contre 77,2 % dans le groupe sous chimiothérapie seule. « C’est la première fois, en trente ans, qu’une amélioration du traitement est obtenue en première ligne chez des patients atteints d’une forme avancée de lymphome de Hodgkin, sans augmenter les doses de chimiothérapie », s’est réjoui l’auteur principal de l’étude, le Docteur Joseph Connors (British Colombia Cancer Agency, Centre for Lymphoid Cancer, Vancouver, Canada). Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| Une équipe de chercheurs israéliens, menés par le Docteur Stephen Levine (Université d'Haïfa) vient de montrer l'effet bénéfique de certains compléments vitaminiques, avant et au cours de la grossesse, sur la réduction du risque d'autisme chez l'enfant à naître. L'étude a porté sur 45 300 enfants israéliens, nés entre 2003 et 2007 et suivis jusqu'au 26 janvier 2015. Les cas étaient les 572 enfants ayant développé des troubles du spectre de l'autisme (TSA). Ils ont été comparés à un échantillon composé aléatoirement d'un tiers des enfants de l'ensemble du groupe, soit 15 100 enfants. Les auteurs précisent que 26,6 % des enfants sont nés de mères ayant pris de l'acide folique ou des suppléments vitaminiques avant la grossesse, et que 48,3 % sont nés de mères en ayant pris au cours de la grossesse. La prise d'acide folique et/ou d'autres suppléments vitaminés avant la grossesse (jusqu'à 1 an et demi avant) est associée à une diminution de 61 % du risque de TSA. La prise au cours de la grossesse est associée à une diminution de 73 %. Les expositions à l'acide folique seul avant et au cours de la grossesse sont associées à des diminutions du risque de TSA de respectivement 44 et 68 %, et les expositions aux autres suppléments vitaminés à une diminution du risque de 64 % (avant la grossesse) et 65 % (au cours de la grossesse). Les auteurs ont ensuite pris en compte un à un tous les facteurs covariants possibles : sexe, présence d'un jumeau, antécédents familiaux psychiatriques, déficience maternelle en vitamines, etc. La diminution du risque de TSA restait statistiquement significative à chaque fois. « Les études épidémiologiques fournissent des associations inconsistantes entre supplémentation maternelle en vitamines avant et au cours de la grossesse et risque de TSA », expliquent les auteurs. L'étude californienne CHARGE (CHildhood Autism Risk from Genetics and Environment) avait montré une association entre augmentation du risque d'autisme et prise d'acide folique et/ou de supplément vitaminique entre 12 semaines avant la grossesse et 4 semaines après son début. À l’inverse, des travaux danois publiés en 2016 n'étaient pas parvenus à démontrer un effet significatif de ces supplémentations sur le risque d'autisme. L'étude israélienne « est la première à pouvoir examiner l'effet d'une prise d'acide folique ou de supplément vitaminé sur une longue période de temps avant la grossesse », affirment les auteurs. Associés à l'étude systématique des facteurs confondants, ces résultats poussent les auteurs à affirmer que « la réduction du risque d'apparition de troubles du spectre de l'autisme est une action de santé publique qui pourrait être réalisée en étendant l'usage de l'acide folique et des compléments multivitaminés au cours de la grossesse ». Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| Deux études – PROSPER et SPARTAN – qui ont été présentées à l’occasion du congrès Genitourinary Cancers Symposium (GUSC) 2018, ont montré que les inhibiteurs des récepteurs aux androgènes pourraient enfin permettre de proposer une prise en charge active chez les patients traités de façon radicale (chirurgie ou radiothérapie) pour un cancer de la prostate mais qui présentent un échappement biologique (doublement du PSA en moins de 10 mois) en dépit d’une castration chimique. Les études PROSPER et SPARTAN ont évalué l’intérêt de deux molécules de la famille des inhibiteurs de la voie de signalisation aux androgènes utilisables par voie orale. La première, PROSPER, était fondée sur l’utilisation de l’enzalutamide, molécule qui a déjà obtenu l’AMM en France en 2015 dans une indication précise : les cancers métastatiques de la prostate résistant à la castration chez des patients asymptomatiques. La seconde évaluait l’intérêt d’un nouveau venu dans cette classe thérapeutique, l’apalutamide. Les résultats des deux essais sont concordants : les anti-androgènes peuvent être utilisés bien plus tôt dans le cours de la maladie que ce qui était recommandé jusqu’à présent. En effet, ils permettent une réduction du risque relatif de développement de métastases à distance ou de décès de plus de 70 %, et améliorent la survie sans métastases d’au moins 20 mois, en comparaison du placebo. Les deux essais ont été suspendus prématurément après l’analyse des résultats préliminaires en raison du bénéfice spectaculaire obtenu dans les bras traitement actif. Les anti-androgènes peuvent être utilisés bien plus tôt dans le cours de la maladie que ce qui était recommandé jusqu’à présent. Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| Les chercheurs de l’Université d'Aarhus, aux Pays-Bas, travaillent sur les effets bénéfiques maintenant bien documentés de ces micro-organismes ou probiotiques, pour la santé intestinale, mais aussi pour le cerveau, via cet axe intestin-cerveau. Ils ont recemment montré que certains effets nocifs d’une alimentation malsaine pouvaient être compensés par des bactéries probiotiques. L’équipe a nourri des rats avec une alimentation riche en graisse et sans fibres et un groupe a simultanément reçu un mélange de bactéries lactiques, dans leur eau de boisson. Les rats à régime alimentaire riche et sans probiotiques développent un comportement « dépression-like », les rats supplémentés en probiotiques voient leur comportement inchangé : précisément, au bout de 12 semaines, les rats privés de probiotiques se comportent de manière passive et sont dans l’incapacité de faire face à une situation stressante (test de nage). En d'autres termes, écrivent les chercheurs dans un communiqué « les probiotiques contrent les effets d’un régime alimentaire malsain ». Les rats privés de probiotiques présentent rapidement un nombre accru de globules blancs dans leurs tissus cérébraux, un marqueur d'inflammation chronique, ce qui n’est pas constaté chez les rats ayant reçu les probiotiques. Les probiotiques semblent « reprogrammer » le système immunitaire, en particulier en cas de régime riche et en « faisant du bien » aux intestins, affectent également de manière bénéfique le cerveau et préviennent ainsi la dépression. Bien que ces résultats demandent à être confirmés chez les personnes souffrant de dépression, cependant les auteurs parient sur les bénéfices possibles des probiotiques chez certains patients dépressifs : « Il y a de plus en plus de recherches qui suggèrent qu'un régime alimentaire malsain contribue au déclenchement ou à la prolongation d'une dépression. Les probiotiques peuvent contribuer à atténuer les symptômes dépressifs, permettre aux patients de sortir du cercle vicieux régime malsain et dépression et finalement apporter le petit coup de pouce nécessaire pour changer de mode de vie ». Cette étude soutient, de manière intéressante, que la dépression ne doit pas toujours être considérée comme une maladie qui se développe uniquement sur la base de déséquilibres chimiques dans le cerveau et que notre microbiote peut jouer un rôle important. Avec les récentes études qui documentent ce fameux axe intestin-cerveau, cette recherche contribue à tisser le lien entre maladie psychiatrique et somatique. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Des chercheurs de l’Université de Tel-Aviv ont trouvé un moyen de retarder le développement du cancer du pancréas, l'un des plus difficiles à traîter. L’équipe de chercheurs sous la direction du Professeur Ronit Satchi-Fainaro, chef du Département de physiologie et pharmacologie et du laboratoire de recherche sur le cancer et la nano-médecine de l’Université de Tel-Aviv, a réussi à développer un traitement qui inhibe de manière significative le développement du cancer du pancréas. Les chercheurs ont cherché à découvrir pourquoi un petit pourcentage de patients survit bien davantage que les autres. “Dans une première étape, nous avons prélevé des échantillons de cellules tumorales et examiné le niveau d’expression des gènes et des micro-ARN”, décrit le Professeur Satchi-Fainaro. “Dans la plupart des cas, les résultats ont correspondu à la description clinique d’un cancer violent : déficience en molécules d’ARN du type microARN-34a, connu pour inhiber les gènes qui favorisent le cancer, et par contre haut niveau de l’oncogène Plk1, qui stimule l’activité des tumeurs cancéreuses”. Afin d’examiner la relation entre ces résultats et la durée de survie des patients, les chercheurs se sont tournés vers le Professeur Eytan Ruppin, expert en bioinformatique, qui a utilisé la base de données géante TCGA – “l’atlas du génome du cancer” – et lui a appliqué des algorithmes spécifiques qu’il a développés à cet effet. Les calculs ont montré que chez les patients ayant survécu longtemps le rapport est inversé : niveau élevé de l’inhibiteur de cancer microARN-34a, et faible niveau de l’oncogène Plk1. Puis, afin de confirmer leurs résultats, les chercheurs ont examiné des tissus entiers de tumeurs de cancer du pancréas (au lieu d’échantillons de cellules isolées) de patients traités au Centre médical Sheba à Tel Hashomer, dont on savait déjà depuis combien de temps ils avaient survécu à la maladie. Ils ont examiné dans ces tissus d’une part les niveaux de microARN-34a et de l’autre ceux de l’oncogène Plk1. Et en effet, cette fois aussi, une relation inverse a été constatée entre les niveaux des deux marqueurs biologiques chez les patients “normaux” par rapport à ceux qui survivaient.... Enfin, ces chercheurs ont mis au point des nanoparticules qui embarquent des microARN-34a (déficients chez les patients qui décèdent rapidement), et des siRNA (petits ARN interférents) qui dépriment l’oncogène Plk1. Le produit a été testé sur des souris de laboratoire et les résultats sont prometteurs : les deux substances libérées simultanément sur le site de la tumeur ont agi en synergie, retardant la progression du cancer de 96 % au bout de 45 jours de traitement. “Nous pensons que notre découverte pourrait servir de base au développement d’un futur cocktail de médicaments efficace, qui allongera la vie des patients atteints d’un cancer du pancréas agressif”, conclut le Professeur Satchi-Fainaro. Article rédigé par Georges Simmonds pour RT Flash Siliconwadi | | | |
| Une équipe du Centre de recherches en cancérologie de Toulouse, spécialisée dans l’étude du cholestérol, a découvert une nouvelle voie thérapeutique pour traiter le cancer du sein. Depuis plusieurs années, le duo de chercheurs Sandrine Silvente-Poirot et Marc Poirot s’intéresse au métabolisme du cholestérol et à son implication dans les cancers. Ces chercheurs du Centre de recherches en cancérologie de Toulouse ont découvert une nouvelle piste pour traiter les cancers du sein, notamment les plus agressifs qui ne répondent pas aux stratégies classiques. « La dendrogénine A, que nous avions identifiée en 2013, possède des propriétés anti-tumorales : elle bloque la prolifération des cellules tumorales et les tue. Mais on ne la retrouve pas dans les cellules cancéreuses du sein. À sa place : l’OCDO, un autre dérivé du cholestérol qui, lui, favorise le cancer et sa prolifération. Nous avons voulu étudier l’origine de cette dérégulation pour voir si on pouvait l’éliminer », explique le couple de chercheurs. En conséquence, la portée de leurs travaux est immense : si on peut bloquer l’OCDO, on peut proposer des thérapies aux patientes en rechute ou touchées par les cancers dits « triples négatifs » qui ne répondent pas aux traitements hormonaux. Elle pourrait déboucher sur deux stratégies de traitement : empêcher la production d’OCDO en augmentant les taux de dendrogénine A et donc en utilisant son effet anti-tumoral ; bloquer l’action de l’OCDO en agissant sur l’enzyme responsable de sa production. "Cette découverte est comparable à celle des inhibiteurs contre les cancers hormono-dépendants mais la portée est bien plus large. La dendrogénine A est naturellement présente dans le corps humain, elle est donc moins toxique que les molécules synthétiques. Elle peut également avoir un rôle de surveillance des tumeurs", expliquent encore les Docteurs Sandrine Silvente-Poirot et Marc Poirot qui ont travaillé avec le Professeur Florence Dalenc, sénologue à l 217;Institut universitaire du cancer de Toulouse-Oncopole. « Nous espérons personnaliser encore plus les traitements et en faire bénéficier des patientes tout de suite », poursuit le médecin qui a supervisé l’analyse de plusieurs milliers d’échantillons de tumeurs humaines mammaires pour préciser encore plus le rôle du dérivé du cholestérol dans différents stades de cancer. De nouvelles perspectives s’ouvrent également dans le traitement des mélanomes et des leucémies, cancers dans lesquels les chercheurs ont observé l’activité positive de la dendrogénine A. Mieux, observée en phase pré-clinique, elle provoquerait la mort des cellules cancéreuses via un mécanisme d’autocannibalisme très original. Article rédigé par Georges Simmonds pour RT Flash La Dépêche | | | |
| Des chercheurs de l'Inserm sont parvenus à reconstituer un circuit neuronal caractéristique de la maladie de Huntington sur une puce. Cette maladie neurodégénérative rare touche environ 6 000 personnes en France. Elle se caractérise par des mouvements incontrôlés, associés à des troubles cognitifs et psychiatriques. La personne atteinte décède généralement dans les 20 ans après l'apparition des symptômes. On sait aujourd'hui que c'est le circuit cérébral corticostriatal qui dysfonctionne. Il est composé de deux régions du cerveau : le cortex et le striatum. C'est à ce niveau que le gène HTT, responsable de la maladie, produit une protéine toxique pour les cellules nerveuses appelée la huntingtine. Afin de mieux comprendre la maladie, deux équipes de recherche de l'Inserm ont utilisé la microfluidique ainsi que des neurones de souris pour gagner en précision et reconstruire un schéma neuronal. En utilisant la microfluidique, l’équipe de Frédéric Saudou, Directeur de Grenoble Institut des Neurosciences (GIN – Inserm/UGA) et responsable de l’équipe « Dynamiques intracellulaires et neurodégénérescence », en collaboration avec Benoit Charlot, de l’Institut d’électronique des systèmes (CNRS/Université de Montpellier), a reconstitué sur une puce le circuit neuronal atteint chez les patients. Ces scientifiques ont pu contrôler la pousse et l'orientation des neurones de souris dans des canaux ne dépassant pas les 500 micromètres de longueur. Ils ont alors reconstruit le circuit corticostriatal en isolant avec précision les neurones du cortex d'un côté et celle du striatum de l'autre. Les deux équipes ont ensuite constitué des circuits hybrides avec soit un cortex sain et un striatum malade, soit un cortex malade et un striatum sain. Ils ont alors pu démontrer que le cortex malade était suffisant pour générer des dysfonctionnements dans le circuit. Mais chose étonnante, le cortex sain réussissait, lui, à « sauver » les neurones du striatum malade. Selon les chercheurs, les futures stratégies thérapeutiques devront essayer de cibler le cortex qui semble être la zone maîtresse de la maladie de Huntington. Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|