| | Edito Maladie de Parkinson : des avancées décisives sont en cours
Décrite il y a plus de deux siècles par le médecin anglais James Parkinson, la maladie de Parkinson est devenue la troisième maladie neurologique la plus fréquente dans le monde (derrière Alzheimer et l'épilepsie), avec plus de 6,5 millions de malades dans le monde et 160 000 malades en France (25 000 nouveaux cas par an). On estime que cette pathologie touche environ 1% des plus de 65 ans. Fortement liée au vieillissement de notre population, l’incidence de cette maladie a doublé en 30 ans et pourrait encore progresser de 56% d’ici 2030. La maladie de Parkinson est causée par la mort ou dégénérescence des neurones, en particulier ceux de la "substance noire" du cerveau, qui sont localisés dans le tronc cérébral, sous les hémisphères cérébraux et en avant du cervelet. C’est dans cette région qu’on trouve les neurones dopaminergiques, ainsi dénommés car ils produisent de la dopamine, un neurotransmetteur assurant la communication entre les neurones. Cette substance joue un rôle-clé dans le bon fonctionnement des noyaux gris centraux du cerveau auxquels est connectée la substance noire. Ces zones contrôlent les mécanismes d’automaticité, sur le plan moteur (marche, déglutition, clignement des paupières…), ainsi que sur le plan intellectuel et émotionnel (réponse émotionnelle dans une situation drôle ou tris te par exemple). La maladie de Parkinson se traduit donc à la fois par des symptômes moteurs (lenteur, raideur, tremblements et perte des automatismes moteurs de la marche et de l’équilibre) et des symptômes cognitifs: troubles de l’attention, de la mémoire immédiate, anxiété, dépression, perte de la motivation… En dépit de recherches très actives partout dans le monde, les causes exactes de cette maladie restent mal identifiées. Néanmoins, au cours de ces dernières années, les chercheurs ont réussi à mettre en lumière plusieurs mécanismes fondamentaux qui semblent impliqués dans le déclenchement et la propagation de cette maladie très invalidante et irréversible. Grâce à ces travaux, nous savons à présent qu’il existe une grande variété de syndromes parkinsoniens qui, s’ils présentent des symptômes similaires, ont des origines différentes et doivent être traités de manière spécifique. On sait également que dans la forme la plus fréquente, le syndrome parkinsonien idiopathique (SPI), c'est la mort des neurones dans la substance noire qui entraîne le déficit en dopamine dans le cerveau. Aujourd’hui, à la lumière des dernières découvertes fondamentales sur cette pathologie, la maladie de Parkinson est de plus en plus considérée comme une maladie progressive et évolutive affectant l’ensemble du cerveau, qui se déclare probablement dans le tractus gastro-intestinal et se propage le long des voies du système nerveux central à la manière d’une infection. Dans ce processus, il semble que la protéine alpha-synucléine joue un rôle essentiel : sous l’influence d’un mécanisme qui reste encore à élucider, cette protéïne voit sa structure tridimensionnelle se transformer, en se repliant de manière incorrecte (comme c'est le cas pour le prion), ce qui entraîne la formation d’agrégats aux propriétés neurotoxiques puissantes qui tuent les neurones touchés. Ce méc anisme était déjà connu pour les maladies comme la maladie de Creutzfeldt-Jakob ou l’ESB, mais il a fallu attendre les récents travaux de l’équipe de Gabor G. Kovacs, de l’Université de médecine de Vienne, pour établir que l’alpha-synucléine mal repliée pouvait se propager de cellule en cellule. Actuellement, le traitement de référence reste la L-dopa combinée à des inhibiteurs de la décarboxylase (qui empêchent la dégradation de la lévodopa dans le cerveau). La médecine dispose en effet de diverses substances qui peuvent être utilisées isolément ou associées et sont administrées la plupart du temps par voie orale, ou plus rarement sous forme d’injection (apomorphine) ou de patch transdermique. En combinant judicieusement ces molécules disponibles, les médecins parviennent à contrôler de mieux en mieux les symptômes de la maladie pendant des durées de plus en plus longues. Cependant, il n’existe toujours aucun traitement curatif qui permettrait de stopper la progression de la maladie. En 2015, le Comité des médicaments à usage humain de l’Union Européenne a donné son feu vert à l’utilisation de Xadago® (safinamide) pour le traitement des patients atteints de la maladie de Parkinson. Développé par Newron Pharmaceuticals et son partenaire Zambon, cette nouvelle molécule très attendue actionne des mécanismes pharmacologiques différents des autres médicaments utilisés pour traiter la maladie de Parkinson. Ce médicament innovant agit par un double mécanisme d’inhibition réversible et très sélective de la levodopa-monoamine-oxydase-B, ainsi que par un mécanisme qui bloque la dyskinésie induite par la levodopa (ou L-dopa). De ce fait, le safinamide est recommandé en complément à la L-dopa seule ou en combinaison avec d’autres médicaments destinés à t raiter Parkinson chez les patients en stade intermédiaire ou avancé avec fluctuations motrices. L’efficacité de ce nouveau médicament a été confirmée par deux études internationales de phase III contrôlés contre placebo ont été réalisées sur plus de 1 100 patients pendant plus de 2 ans et cette molécule offre enfin une nouvelle option thérapeutique en cas de Parkinson avancé. Autre avancée récente : la préparation à effet retard Rytary (L-dopa/carbidopa) qui a obtenu l’homologation de l’autorité américaine de surveillance des médicaments (FDA) au mois de janvier 2015 et est déjà disponible pour les malades américains. La lutte contre cette pathologie passe aussi par l’utilisation de l’approche immunothérapique. C’est ainsi que depuis 2012, la société autrichienne Affiris teste sur des patients son « vaccin antiparkinsonien ». Baptisé PD01A, ce vaccin thérapeutique a été conçu de manière à stimuler l’organisme pour qu’il forme des anticorps spécifiques à la dégradation de l’alpha-synucléine mal repliée. L’idée est d’agir sur la cascade de dérèglements biochimiques à l’origine de la maladie de Parkinson et d’empêcher sa progression. Une première étude d’évaluation a démontré l’innocuité de la substance et sa bonne tolérance. Fait encourageant, plus de la moitié des patients vaccinés présentaient effectivement des anticorps dans leur sérum sanguin. Parallèlement aux traitements médicamenteux s’est développée depuis une dizaine d’années l’utilisation thérapeutique d’une technique dont nous avons parlée, et qui est promise à un grand avenir, la stimulation électrique profonde. Cette méthode utilise l’implantation d’électrodes au cœur du cerveau et plusieurs études cliniques ont démontré que son efficacité peut s’avérer supérieure aux médicaments chez certains patients à un stade précoce de la maladie. Depuis une quarantaine d’années, de nombreux chercheurs, notamment les équipes suisses de Jean Siegfried et l’équipe d’Alim-Louis Benabid et de Pierre Pollak à Grenoble, n’ont cessé d’expérimenter et de perfectionner cette technique. Aujourd’hui, la stimulation cérébrale profonde (SCP) s’est imposée comme option thérapeutique à part entière dans le traitement du Parkinson. Sans détruire les voies nerveuses, de fines électrodes sont posées en profondeur dans le cerveau. Elles sont reliées à un générateur d’impulsions implanté sous la peau dans la partie supérieure du corps, qui commande les impulsions de courant ou de tension des électrodes de manière à permettre un contrôle des symptômes. Il faut cependant souligner que cette technique très novatrice, qui a valu à son découvreur français, le Professeur Alim-Louis Benabid, le prix Lasker 2014 (l’équivalent américain du prix Nobel de médecine), ne concerne malheureusement qu’un malade sur six et nécessite une intervention chirurgicale délicate et des réglages très précis du stimulateur cérébral. Il faut enfin évoquer une nouvelle piste thérapeutique très prometteuse développée notamment par l’équipe du Professeur David Devos, de l'Université de Lille, la piste du fer. On sait depuis plus d’un siècle que les malades parkinsoniens ont un cerveau qui présente trois grandes caractéristiques : la dégénérescence des neurones dopaminergiques (producteurs de dopamine), se traduisant par une diminution ou une carence en dopamine, la présence de corps de Lewy (des dépôts constitués par une protéine anormalement agrégée, l’alpha-synucléine, impliquée normalement dans la libération de la dopamine), et l’existence d’une accumulation de fer au niveau de la substance noire. La substance noire est naturellement riche en fer, car le fer est nécessaire à la fabrication de la dopamine. En outre, cette zone est très active, et requiert une grande quantité d’énergie. Or le fer intervient dans la production d’énergie par l’organisme, en permettant l’utilisation de l’oxygène. En cas de déficit en fer, le transport d’oxygène est ralenti, ce qui réduit la production d’énergie et entraîne l’anémie. Mais si le manque de fer est problématique, son excès peut également avoir de graves conséquences sur l’organisme et le système nerveux. Un surplus de fer peut être très toxique et favoriser le stress oxydant, un processus qui provoque une destruction de la structure des cellules… Des recherches ont permis de montrer dans des modèles animaux de la maladie de Parkinson que les composés capturant le fer (les chimistes emploient le terme de chélation), ou les traitements susceptibles de réduire l’excès de fer protègent les neurones dopaminergiques. Cependant, ces traitements sont conçus pour les patients qui ont une surcharge massive en fer dans l’ensemble de leur organisme, comme dans certaines maladies du sang comme la bêta-thalassémie. Ils ne sont pas utilisables, sous peine de provoquer une grave anémie, chez les patients atteints de la maladie de Parkinson, dont la surcharge en fer est très localisée. Pour surmonter cet obstacle, l’équipe du Pr Devos a eu recours à une technique de chélation conservatrice du fer basé sur une molécule-prototype, la déféripone. Administrée oralement, celle-ci est capable de capturer le fer en excès, mais uniquement dans la substance noire (trois molécules de défériprone se lient à une molécule de fer), puis de le rendre aux transporteurs naturels du fer (la protéine apotransferrine) qui vont alors le redistribuer dans le corps, évitant ainsi l’anémie. Une première étude pilote destinée à valider cette approche, impliquant quarante patients atteints par la maladie de Parkinson à un stade précoce, a été menée au CHU de Lille. Les résultats montrent que leur taux de fer, mesuré par imagerie cérébrale, a diminué, ainsi que le stress oxydant cérébral et sanguin. Les chercheurs ont également observé une légère amélioration clinique des symptômes moteurs chez les patients et ceux-ci n’ont pas développé d'anémie, même après deux ans de traitement. Globalement, cet essai s'est traduit par un ralentissement de la progression de la maladie et ces résultats cliniques encourageants ont été récemment confirmés par une autre étude, britannique. Ces résultats prometteurs ont conduit à la mise en place d’un large essai clinique européen, portant sur 368 patients. Mené sur 24 centres cliniques répartis dans huit pays (France, Allemagne, Espagne, Angleterre, Pays-Bas, Portugal, République tchèque, Autriche), cet essai est destiné à évaluer si la défériprone peut ralentir la progression de la maladie chez les patients parkinsoniens au moment du diagnostic. Cette stratégie thérapeutique est également en cours d’essai thérapeutique dans le cadre de la sclérose latérale amyotrophique (maladie de Charcot) en France et la maladie d’Alzheimer en Australie car une mauvaise distribution du fer a également été constatée dans ces pathologies. Une seconde piste thérapeutique en lien avec le fer pourrait émerger suite à la découverte d’une nouvelle forme de mort programmée des neurones. Baptisée "ferroptose" (par analogie avec l’apoptose, qui est la mort cellulaire programmée), ce « suicide » cellulaire se caractérise par une accumulation de fer dans la cellule. Ces travaux du Pr Devos ont pu démontrer que la ferroptose était non seulement prédominante dans les modèles animaux utilisés pour étudier la maladie de Parkinson, mais aussi qu’elle était très sensible aux chélateurs de fer. L’élucidation de ces mécanismes ouvre de nouvelles voies thérapeutiques qui pourraient être combinées à l’emploi de molécules capables de chélater (capter) le fer. Le Pr Devos est persuadé que cette voie de la chélation du fer grâce à la déféripone peut constituer une nouvelle stratégie efficace de neuroprotection, qui pourra à l’avenir être combinée à d’autres approches thérapeutiques, notamment celles modulant la dopamine, la toxicité de l’alpha-synucléine, ou la mort des neurones par ferroptose. La recherche s’oriente également vers une meilleure compréhension de certains mécanismes génétiques communs dans plusieurs maladies neurodégénératives graves, comme Alzheimer, Parkinson ou encore la sclérose en plaques. Dès 2002, une étude réalisée par des chercheurs américains de génétique des populations et dirigée par la Professeure Margaret Pericak-Vance, avait montré, en analysant et en comparant les génomes de plus de 500 familles de patients atteints d’Alzheimer ou de Parkinson, qu’il existait une même région précise sur le chromosome 10 qui semblait impliquée dans le risque d’apparition de ces deux pathologies pourtant distinctes. En 2010, une équipe associant des chercheurs français du Centre de recherche biochimie macromoléculaire (CNRS/Universités Montpellier 1 et 2), et du National Institute of Health (Etats-Unis) a montré que certaines protéines jouant un rôle-clé dans plusieurs maladies neurodégénératives, telles que Parkinson, Alzheimer et le syndrome d’Huntington, présentent de fortes similitudes. Trois ans plus tard, des chercheurs de l’Université américaine de Stanford, dirigés par Alexander Stephan, ont découvert, à partir de l’analyse des tissus cérébraux de malades décédés, qu’un excès de concentration de la protéine C1q au niveau des synapses entraînait la destruction des cellules immunitaires du cerveau. Ces travaux laissent entrevoir une nouvelle piste thérapeutique qui consisterait à relancer le mécanisme de neuroprotection chez les patients atteints d’une maladie de Parkinson, en bloquant l’action de cette protéine C1q. Une équipe canadienne (University of British Columbia) a confirmé un trait caractéristique aux deux maladies : le processus inflammatoire déclenché initialement par des structures pathologiques (comme la protéine bêta-amyloïde), puis qui évolue vers une forme chronique et provoque des dommages irréversibles aux cellules nerveuses (mort des neurones). Ces recherches ont montré que quatre facteurs de risque majeurs contribuent à la neuro-inflammation, l’alimentent en quelque sorte : la sédentarité (absence ou insuffisance d’activité physique régulière), la maladie (cardio)vasculaire, dont l’hypertension artérielle, l’obésité, et enfin le diabète (DT2). On le voit, la maladie de Parkinson, d’une redoutable complexité, comme toutes les maladies neurodégénératives, est loin d’avoir livré tous ses secrets, et ses causes profondes restent à découvrir. Néanmoins la compréhension intime des mécanismes de cette pathologie a beaucoup progressé depuis une dizaine d’années ; de nouvelles options thérapeutiques sont apparues et sont venues améliorer sensiblement la qualité de vie des malades. Bien qu’un long chemin reste à parcourir avant qu’on puisse entrevoir la guérison de cette maladie aux multiples formes, les chercheurs du monde entier explorent aujourd’hui de nouvelles voies de recherche très prometteuses, comme celle du fer, de l’immunothérapie, de la thérapie génique ou de la protéine CIq et il ne fait nul doute que cette maladie si redoutée sera un jour vaincue. La confirmation de l’existence de mécanismes biologiques et bases génétiques communes aux principales maladies neurodégénératives (Alzheimer, sclérose en plaques, Parkinson) est également une découverte majeure que les scientifiques vont continuer d’exploiter et qui permettra certainement de nouvelles avancées thérapeutiques, mais également une meilleure connaissance du fonctionnement global de notre cerveau et de notre système nerveux. Confrontée au vieillissement inéluctable de nos sociétés, la science et la médecine devront redoubler d’effort au cours des prochaines décennies pour que les progrès majeurs déjà enregistrés dans la lutte et la prévention contre le cancer et les maladies cardiovasculaires soient également au rendez-vous en ce qui concerne l’ensemble de ces pathologies dévastatrices qui touchent le cerveau, notamment chez les personnes âgées. Sans faire preuve d’un optimisme déplacé, je reste convaincu que l’utilisation conjointe de nouveaux outils extrêmement puissants, comme l’IA, l’exploitation de routine des données massives grâce au supercalcul et la thérapie génique, permettront au cours des vingt prochaines années de réaliser de nouvelles avancées majeures menant, sinon à la guérison, du moins au contrôle et la stabilisation de ces terribles maladies qui s’attaquent au cerveau et finissent souvent par priver les malades, nous en avons tous fait la triste expérience, de leur identité. Si nous voulons avancer plus vite dans cette exploration scientifique de l’immense et encore bien mystérieux continent qu’est notre cerveau, nous devrons, plus encore que dans d’autres domaines du savoir, mobiliser et associer toutes les disciplines des sciences du vivant mais également de la physique, de la chimie, de l’informatique et du calcul. C’est à ce prix que nous parviendrons peut-être à faire enfin reculer ces terribles maladies neurodégénératives avant le milieu de ce siècle… René TRÉGOUËT Sénateur Honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | L’utilisation de l’intelligence artificielle (IA) dans la santé pourra permettre au système de santé américain d’économiser 150 milliards de dollars par an entre 2017 et 2026, selon Accenture. Les investissements dans le marché de la santé basée sur l’IA devraient atteindre 6,6 milliards de dollars en 2021. Au total, le marché aura grandi de plus de dix fois sa taille initiale en cinq ans. Les géants du numérique ont bien compris les enjeux de cette compétition technologique et Google a récemment présenté un algorithme de machine learning conçu pour détecter les cancers du poumon en analysant des images radiographiques issues d'une base de 45 856 scanners thoraciques. Ceux-ci provenaient du National Health Institute et de l’université Northwestern. Ils incluaient notamment des cancers du poumon à différents stades. L’algorithme génère un modèle 3D du scanner puis y recherche des tissus malins dans les nodules pulmonaires. Ceux-ci peuvent être difficilement vus à l’œil nu, d’autant que les radiologues se penchent généralement sur des images en 2D. L’algorithme génère enfin une estimation de la malignité du cancer du poumon. Il peut également s’appuyer sur des données issues de scanners précédents. Les chercheurs et ingénieurs de Google ont ensuite appliqué cet algorithme à un scanner unique dans le but de comparer sa précision à celles de six radiologues certifiés. Résultat: l’algorithme a détecté 5% de plus de cas de cancer du poumon et a réduit les faux positifs de plus de 11%. Ce modèle d’algorithme sera disponible à travers le Cloud Healthcare API de Google. Article rédigé par Georges Simmonds pour RT Flash NATURE | | | |
| Des chercheurs du Turku PET (Finlande) travaillent actuellement sur une IA étonnante. Celle-ci afficherait avec une précision de 90 % la prédiction des crises cardiaques et de la mortalité. L'IA en question a analysé 85 variables différentes dans le cas de 950 patients présentant des douleurs dans la poitrine. Les prédictions ont été faites pour chacun des cas, et ce durant six années. Un score de risque individuel a été décerné à chaque patient à l’issue du traitement des données. Il s’avère que les algorithmes de l’IA ont été à même de comprendre comment les données pouvaient être corrélées avec les risques de crise cardiaque et de décès. Selon Luis Eduardo Juarez-Orozco qui dirige ces recherches, l’IA utiliserait pleinement les données obtenues, là où l’humain se trouverait bridé par la prudence. En effet, de manière inconsciente, l’humain n’utiliserait pas les informations à 100 % pour cause de prudence dans l’évaluation des risques. Le chercheur met également en avant la pertinence de bénéficier d’un apprentissage automatique. Les modèles à une seule dimension pensés par l’humain seraient bien moins performants que les modèles à très haute dimension utilisés par l’IA. «Cela devrait nous permettre de personnaliser le traitement et, finalement, d’améliorer les résultats pour les patients », a conclu Luis Eduardo Juarez-Orozco. Article rédigé par George Simmonds pour RT Flas ESC | | ^ Haut | |
|
| | | A l’occasion du grand symposium sur la voiture électrique organisé à Lyon, une étude sur « les enjeux de l’électromobilité sur le système électrique. » confirme que le réseau français pourra absorber la croissance de la demande d'ici 2035. L’électrique pousse progressivement ses pions sur le marché automobile, avec pour ambition de s’imposer à l’horizon 2040. De nombreux obstacles restent toutefois encore à franchir pour parvenir à asseoir cette technologie, qui pose des questions tant écologiques (conditions et conséquences de l’extraction des terres rares, empreinte carbone de l’électricité quand elle n’est pas d’origine nucléaire, etc.) que technologiques. Parmi ces dernières figure, bien sûr, les capacités du réseau électrique à absorber une demande croissante de recharge. Une étude RTE/Avere France, présentée à l’occasion de ce symposium de Lyon, prend en considération différentes hypothèses de croissance pour le marché de la voiture électrique, et notamment une projection haute avec 15,6 millions de véhicules légers électriques en circulation en 2035, dont 22% de véhicules hybrides rechargeables, à quoi s’ajouteraient 156 000 poids lourds électriques (les voitures thermiques étant alors au nombre de 22,7 millions). Dans ces conditions, les auteurs assurent « c’est la mobilité du quotidien qui constitue le principal enjeu pour le système électrique. Sans pilotage de la recharge (recharge « naturelle &raqu o;), les appels de puissance seraient principalement concentrés sur la plage 19-21 h. » Pour autant, rien d’insurmontable en perspective: « les conclusions du Bilan prévisionnel 2017 sont confirmées : la consommation totale d’électricité des transports individuels et collectifs pèserait au plus un dixième de la consommation d’électricité totale en France à l’échéance 2035 », détaille le rapport. Article rédigé par Georges Simmonds pour RT Flash CARADISIAC | | | |
| Des chercheurs des universités de Birmingham et d’Utrecht ont identifié de minuscules microalgues marines électroluminescentes, qui pourraient être à l'origine de la prochaine génération de cellules solaires organiques. Les microalgues sont probablement les organismes vivants les plus anciens de la planète. Ils ont évolué au fil des milliards d’années pour posséder des systèmes de récupération légers dont l’efficacité peut atteindre 95 %. Cela leur permet de survivre dans les environnements les plus extrêmes et de s’adapter aux changements que notre monde a connus au cours de cette période. En expliquant le fonctionnement de ce système, on pourrait obtenir d’importants indices sur la façon dont il pourrait être utilisé ou recréé pour être utilisé dans de nouveaux panneaux solaires organiques super-efficaces. Cependant, en raison de la complexité des organismes et de la grande variété des espèces, les progrès dans ce domaine ont été limités. L’équipe a utilisé certaines des méthodes avancées d’une technique appelée spectrométrie de masse, qui lui a permis de caractériser les composantes individuelles du système de récolte de lumière des algues. Cette approche leur a permis de révéler des détails de modules distincts du système qui n’avaient jamais été vus auparavant. Ce fin détail aidera les scientifiques à comprendre pourquoi les microalgues sont si efficaces pour la récolte à la lumière. Aneika Leney, de la School of Biosciences de l’Université de Birmingham, est l’auteur principal de l’étude, qui est publiée dans Cell Chem. « Les microalgues sont des organismes fascinants qui peuvent faire beaucoup mieux que les systèmes conçus par les ingénieurs, explique-t-elle. « En appliquant ces connaissances, nous pouvons commencer à faire de réels progrès dans l’adaptation de ces systèmes pour l’utilisation dans les panneaux solaires ». La prochaine étape pour l’équipe consistera à étudier plus en détail comment l’énergie est transférée par ces systèmes de récupération de la lumière et à déterminer pourquoi les modules qu’elle a identifiés sont si efficaces. Article rédigé par Georges Simmonds pour RT Flash Sonnenseite | | | |
| Les ingénieurs de l’Université de Tokyo sont à l’avant-garde de nouvelles façons d’améliorer la technologie des batteries. Le professeur Atsuo Yamada et son équipe ont récemment mis au point un matériau qui pourrait prolonger considérablement la durée de vie des batteries et leur offrir des capacités supérieures. Des smartphones aux stimulateurs cardiaques, en passant par les voitures, les batteries alimentent une grande partie de notre monde et leur importance ne cesse de croître. Il y a deux aspects particuliers des batteries qui, de l’avis de beaucoup, doivent être améliorés pour répondre à nos besoins futurs. Il s’agit de la longévité de la batterie et aussi de sa capacité – combien de charge elle peut stocker. Il y a de fortes chances que vos appareils utilisent un type de batterie appelé batterie lithium-ion. Mais une autre sorte basée sur le sodium plutôt que sur le lithium pourrait bientôt devenir courante. Les deux types de batteries peuvent stocker et délivrer une grande quantité de charge, grâce à la façon dont les matériaux constitutifs font circuler les électrons. Mais dans les batteries au lithium comme dans les batteries au sodium, des cycles répétés de charge et d’utilisation peuvent réduire considérablement la capacité de stockage avec le temps. Si vous pouviez voir à l’intérieur d’une batterie typique, vous verriez des couches de matériaux métalliques. Lorsque les batteries se chargent et se déchargent, ces couches se dégradent et développent des fissures ou des écailles – appelées défauts d’empilage – qui réduisent la capacité des batteries à stocker et à délivrer la charge. Ces défauts d’empilage sont dus au fait que le matériau est maintenu par une force faible, la force de Van der Waals, qui est facilement dépassée par les contraintes exercées sur les matériaux pendant le chargement et l’utilisation. Yamada et ses collègues ont démontré que si la batterie est fabriquée à partir d’un matériau modèle – l’oxyde d’oxygène redox (Na2RuO3) – quelque chose de remarquable se produit. Non seulement la dégradation due aux cycles de charge et de décharge diminue, mais les couches se réparent d’elles-mêmes. En effet, le matériau dont les chercheurs ont fait la démonstration est retenu par une force appelée attraction coulombique, qui est beaucoup plus forte que la force de Van der Waals. « Cela signifie que les batteries pourraient avoir une durée de vie beaucoup plus longue, mais aussi qu’elles pourraient être poussées au-delà des niveaux qui les endommagent actuellement », a déclaré M. Yamada. « Augmenter la densité énergétique des batteries est d’une importance capitale pour réaliser le transport électrifié ». Article rédigé par Georges Simmonds pour RT Flash Enerzine | | | |
| Une équipe internationale de chercheurs, dirigée par le professeur David Antonelli de l’Université de Lancaster, a découvert un nouveau matériau à base d’hydrure de manganèse, qui pourrait ouvrir de nouvelles perspectives en matière de stockage sûr et facile de l'hydrogène. Selon ces chercheurs, ce nouveau matériau pourrait être utilisé pour fabriquer des tamis moléculaires dans les réservoirs de carburant, qui stockent l’hydrogène et fonctionnent aux côtés des piles à combustible dans un système à hydrogène. Ce matériau, appelé KMH-1 (Kubas Manganese Hydride-1) permettrait de concevoir des réservoirs beaucoup plus petits, moins coûteux, plus pratiques et plus denses en énergie que ne le permettent les technologies actuelles de stockage d’hydrogène. « Le coût de fabrication de notre matériau est très bas et la densité d’énergie qu’il peut stocker est bien supérieure à celle d’une batterie au lithium, ce qui fait que nous pourrions obtenir un système à pile à combustible à hydrogène coûtant cinq fois moins cher que les batteries au lithium-ion, en plus de fournir une bien plus longue autonomie », explique le professeur Antonelli, qui effectue des recherches dans ce domaine depuis plus de 15 ans. Le matériau tire parti d’un processus chimique appelé liaison de Kubas. Ce processus permet le stockage d’hydrogène en distanciant l’atome d’hydrogène dans une molécule H2 et fonctionne à température ambiante. Cette réaction est donc beaucoup moins gourmande en énergie que les procédés actuels de stockage. Le matériau KMH-1 absorbe et stocke également toute énergie excédentaire, permettant d’éviter tout recours à un réchauffement et à un refroidissement externes. Cet élément est crucial car il signifie que l’équipement de réchauffement et refroidissement n’a pas besoin d’être utilisé dans des véhicules. Les expériences effectuées par les chercheurs ont permis de démontrer que ce matériau pourrait permettre un stockage bien plus efficace : soit quatre fois plus d’hydrogène dans le même volume que les technologies existantes ne le permettent. « Ce matériau peut également être utilisé dans des appareils portables mobiles tels que des drones ou dans des chargeurs d’appareils mobiles, afin que les gens puissent aller en camping durant une semaine sans avoir à recharg er leurs appareils », a déclaré le professeur Antonelli. Article rédigé par Georges Simmonds pour RT Flash Science Daily | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Parfois, il suffit de partir de choses simples et évidentes pour déployer des solutions innovantes. C'est exactement ce qu'ont fait les créateurs de Cool Roof en imaginant une peinture pour toiture blanche, de protection imperméable et réfléchissant jusqu'à 95% du rayonnement solaire. «Les toitures des habitations situées en pays chauds sont peintes en blanc, cette couleur ayant la capacité de renvoyer la chaleur. En France, 70% des toits sont dotés d'une étanchéité de couleur noire, où la chaleur, qui se propage ensuite à l'intérieur des bâtiments, peut monter jusqu'à 80 degrés. Le moyen déployé pour lutter contre ce phénomène est la climatisation, qui renforce le réchauffement climatique et les îlots de chaleur urbains, tout en émettant une quantité importante de gaz à effet de serre. Notre peinture est une solution simple à tous ces problèmes », expose Antoine Horellou, dirigeant de Cool Roof. C'est à la suite d'un problème d'étanchéité rencontré sur le toit de l'hyper-marché E. Leclerc de Quimper que Cool Roof est née. Le gérant de l'enseigne, Frédéric Lachèvre, fait alors appel à un électricien, Ronan Garadec, et à un frigoriste, Roland Soun. Soit, les trois fondateurs de la start-up. Ensemble, ils imaginent un premier pot de peinture rafraîchissante et hautement élastomère, pour éviter les fissures, et inspirée de la technique du «cool roofing», historiquement mise au point par la NASA. Les 7000 m² de surface de toit sont habillés du revêtement blanc. Résultats : la chaleur enregistre une baisse de 6 degrés sur la surface peinte, une économie d'électricité annuelle de 20 000 euros (15 000 euros en coût de climatisation et 5 000 en frais de reprises en étanchéité), la durée de vie de la toiture gagnant sept années supplémentaires et le bilan carbone du magasin diminuant de quatre tonnes. «Plus les bâtiments sont exposés à un fort ensoleillement, plus les économies réalisées sont importantes», précise Antoine Horellou. «Nous travaillons actuellement sur une nouvelle formulation, toujours sans solvant et sans composé organique volatile, à base de pigments de poudre d'huître pour la couleur, et d'algues pour la résine. Ce qui nous permet de nous inscrire activement dans l'économie circulaire et de réduire encore plus notre impact écologique», avance Antoine Horellou. Economie circulaire, mais aussi sociale et solidaire, les statuts de Cool Roof la référençant comme entreprise œuvrant dans ce registre. A ce titre, elle a réalisé à prix coûtant la toiture de la Péniche-Hôpital Adamant à Paris, pour améliorer la qualité de vie dans ses locaux soumis à de fortes chaleurs. Créée en 2015, élue entreprise innovante de l'année 2018 et figurant parmi les sept lauréats nationaux 2019 de la GreenTech verte du ministère de la Transition écologique et sociale, Cool Roof n'a pas fini de faire parler d'elle. «La France compte 50 millions de mètres carrés de surfaces industrielles, commerciales et agricoles à couvrir: là se trouve notre cœur de cible. Sans oublier les collectivités, la mairie de Paris nous ayant référencé en troisième place de ses solutions «vertes» aux côtés du photovoltaïque et des végétaux. Voilà nos ambitions pour les dix an nées à venir», conclut Antoine Horellou. Article rédigé par George Simmonds pour RT Flash LA TRIBUNE
| | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Selon les données de l’étude SPRINT-MIND discutées lors de la session plénière du congrès de l’ American Academy of Neurology (AAN), le fait de lutter contre l’hypertension artérielle ne diminue pas seulement le risque cardio-vasculaire, mais aussi le risque de trouble neurocognitif léger. « Cette intervention randomisée contrôlée montre pour la première fois qu'un contrôle intensif de la pression artérielle permet de réduire le risque de déficit cognitif léger », a commenté l’orateur, le Dr Jeff Williamson (Wake Forest Baptist Health Wake Forest, Etats-Unis) lors de la présentation des résultats. L’étude SPRINT-MIND a inclus plus de 9 000 hypertendus traités ou non, ayant une systolique comprise entre 130 et 180 mm Hg ( âge moyen 67,9 ans) sans diabète ni antécédent d’AVC et ayant au moins 1 facteur de risque cardiovasculaire supplémentaire (atteinte cardiovasculaire clinique ou infraclinique, détérioration de la fonction rénale). Selon la randomisation, ces sujets dont la systolique moyenne était de 140 mm Hg ont été alloués à un bras intensif (objectif systolique). A l'issue d'une durée moyenne de traitement de 3,34 ans, l’essai a été interrompu en raison du bénéfice cardiovasculaire supérieur documenté dans le bras intensif, mais les patients ont continué à être suivis (médiane 5,11 ans). Dans le cadre de ce suivi, une démence probable a été diagnostiquée chez 149 patients du bras intensif versus chez 176 patients du bras standard, soit 7,2 versus 8,6 cas/1000 personnes-année (PA), une réduction jugée peu significative. En revanche les cas de trouble cognitif léger (facteur de risque connu de démence) sont significativement moindres dans le bras intensif : 287 versus 353 dans le bras standard, soit 14,6 versus 18,3 cas/1000 PA. Une analyse menée en fonction de l'âge montre clairement que l'incidence des démences/troubles cognitifs légers augmente parallèlement à l'âge, le cumul des deux passant ainsi dans le bras intensif de 11 cas/1000 PA pour les moins de 75 ans à 47 pour les ≥75 ans et à 60 pour les ≥80 ans. Article rédigé par Georges Simmonds pour RT Flash SCIENCE DAILY | | | |
| Des chercheurs de l’Université de Kyungpook (Corée du Sud), dirigés par le Pr. Jin-Won Kwon, ont analysé la santé de 67 219 personnes âgées de 60 à 79 ans. Cette étude montre que les personnes de plus de 60 ans, dont l’indice de masse corporelle (IMC) aurait varié de plus de 10 % au cours des deux dernières années, seraient 20 % plus susceptibles de développer des troubles de la mémoire. En effet, l’obésité est un facteur d’inflammation, qui elle-même pourrait déclencher un déclin cognitif. Quant à la perte de poids, elle peut être la conséquence d’une autre pathologie (maladie cardiaque, cancer) qui pourrait elle aussi favoriser la démence. Selon leurs observations, le risque serait un peu plus élevé chez les hommes que chez les femmes. En 2015, près de 47 millions de personnes ont été diagnostiquées en état de démence ; un problème de santé mondial qui aurait engendré un coût sociétal de $818 milliards rien que cette année-là. Et l’OMS estime que le nombre de cas va tripler d’ici 2050. En parallèle, le taux d’obésité a augmenté de plus de 100 % en quarante ans. “Nos résultats suggèrent que le contrôle du poids, la gestion de la maladie et le maintien d’un mode de vie sain sont bénéfiques pour la prévention de la démence, même à un âge avancé”, expliquent les scientifiques. Ils affirment également que la perte de poids pourrait être un des premiers symptômes de la démence à se manifester. Des recherches supplémentaires sont toutefois nécessaires pour prouver la relation de cause à effet entre les variations de poids et la démence. Le Dr. James Pickett, responsable de la recherche au sein de l’Alzheimer Society, souligne que “les personnes atteintes de démence signalent souvent des changements d’appétit et de régime”. Autrement dit, des lésions cérébrales pourraient être à l’origine d’une modification des habitudes alimentaires. La perte ou la prise de poids pourrait donc être un symptôme de démence plutôt qu’une cause. L’étude sud-coréenne révèle aussi que le poids en lui-même aurait moins d’importance que ses variations, dans le risque de démence. Mais d’autres facteurs peuvent également jouer un rôle, notamment l’excès de cholestérol et l’hypertension. En restreignant le flux sanguin, ces pathologies pourraient provoquer une mauvaise irrigation du cerveau, et ainsi entraîner des lésions et une dégénérescence des cellules au sein de cet organe. Article rédigé par George Simmonds pour RT Flash BMJOPEN | | | |
| Des bioingénieurs de l’Université technologique du Michigan ont développé des nanofibres électrofilées qui induisent les cellules à suivre le motif de brins et de poches de ces nanofibres sous-jacentes. De plus, la variation de l'intensité du champ électrique lors de l’électrofilage permet d’obtenir différentes tailles de poches adaptées aux différents types de tissu (cardiaque, cérébral, cutané…) à régénérer. Précisément, la variation de l'intensité du champ électrique lors de l’électrofilage des nanofibres permet, à 19 kilovolts, de former de petites poches, idéales pour les myoblastes cardiaques, à 21 kilovolts des poches adaptées aux cellules osseuses et à 22 kilovolts, des poches adaptées aux cellules cutanées donc à la cicatrisation des plaies. L'électrofilage utilise des champs électriques pour obtenir ces fibres nanométriques et microscopiques. La technique est bien développée, mais elle prend beaucoup de temps et est coûteuse. L’équipe de la Michigan Technological University a mis au point une nouvelle technique d'électrofilage qui permet de créer ces nanofibres personnalisables pour la culture et la régénération cellulaires, sans solvants et sans composés chimiques toxiques. L’auteur principal, Smitha Rao, professeur en génie biomédical à Michigan Tech explique l’avantage de l’innovation : « Nous voulons un échafaudage universel qui s’adapte en structure à ce que les cellules aiment. Prenez une cellule, placez-la sur un matériau poreux, par opposition à un matériau élastiques ou encore un matériau dur. Il s'avère que la cellule se comportera différemment. C’est pourquoi, en général, pour la culture cellulaire, on utilise différents matériaux pour obtenir différentes caractéristiques. Notre objectif était de fabriquer des échafaudages qui offrent ces différentes conditions mais avec le même matériau ». Pour fabriquer ces échafaudages de nanofibres, capables de soutenir la croissance cellulaire quel que soit le type de tissu à réparer, les chercheurs ont utilisé des polymères, les ont mis en solution, et ont développé cette « formule » qui « aligne » leur structure en fonction du champ, puis, enfin, ils ont procédé à l'électrofilage. Si la variation de l'intensité du champ électrique lors de l’électrofilage permet d’optimiser l’alignement des cellules en fonction de leur type, le matériau de base reste toujours le même. Il s'agit d'un mélange de 2 polymères qui permet d’obtenir ces échafaudages naturellement conducteurs. Sur un plan plan plus fondamental, ce nouveau matériau permet en effet de mieux comprendre comment les différents types de cellules (osseuses, cérébrales, cardiaques ou cutanées) prolifèrent et se développent. Article rédigé par George Simmonds pour RT Flash SCIENCE DIRECT | | | |
| Des chercheurs de l'Université de Colombie Britannique à Vancouver ont mis au point un nouveau microscope qui a la capacité de diagnostiquer les cancers de la peau et d'effectuer des interventions chirurgicales d'une très grande précision. « Notre microscope nous permet de scanner l’épiderme rapidement, et lorsque nous voyons une structure cellulaire suspecte ou anormale, nous pouvons effectuer une chirurgie ultra-précise et traiter la structure indésirable ou malade directement dans les tissus, sans couper la peau », explique Yimei Huang, coauteur principal de l'essai. Ce microscope fonctionne à l'aide d'un faisceau laser infrarouge ultra-rapide. Ce qui le distingue des technologies précédentes, c'est qu'il est non seulement capable de scanner numériquement les tissus vivants, mais aussi de les traiter en intensifiant la chaleur produite par le laser. Lorsqu'il est utilisé pour traiter des maladies de la peau, le microscope permet donc aux professionnels de la santé d'identifier l'emplacement exact de l'anomalie, de la diagnostiquer et de la traiter immédiatement. Il pourrait aussi être utilisé pour traiter n'importe quelle structure du corps qui nécessite un traitement extrêmement précis, y compris les nerfs ou les vaisseaux sanguins dans la peau, les yeux, le cerveau ou autres structures vitales. « Pour diagnostiquer et scanner des maladies comme le cancer de la peau, ça pourrait être révolutionnaire », poursuit Harvey Lui, deuxième coauteur de l'étude. « Nous sommes non seulement les premiers à obtenir une imagerie à débit vidéo rapide qui permet des applications cliniques, mais aussi les premiers à développer cette technologie à des fins thérapeutiques », poursuit le directeur de l’étude. Article rédigé par Georges Simmonds pour RT Flash Science Advances | | | |
| La douleur aiguë, par exemple celle que l’on ressent lorsqu’on se tape la jambe contre un objet pointu, est une sensation désagréable. Grâce à elle, nous apprenons à éviter les situations qui peuvent être dangereuses. Ce phénomène appelé apprentissage par la peur aide les animaux et les humains à survivre. Mais quelle partie du cerveau avertit-elle les autres zones des événements douloureux pour que cet apprentissage puisse avoir lieu ? Nous savons depuis un certain temps qu’une zone du cerveau appelée amygdale joue un rôle important dans l’apprentissage par la peur. Des scientifiques du laboratoire de Ralf Schneggenburger à l’EPFL ont aujourd’hui découvert que l’émetteur de ces « avertissements » était le cortex insulaire. Située au fond du sillon latéral du cerveau, cette partie du cerveau est associée au codage des sensations de notre corps. D’ailleurs, les neurones du cortex insulaire sont reliés à ceux de l’amygdale, mais la fonction de cette connexion cérébrale n’avait été que peu étudiée auparavant. Comme le cortex insulaire des souris est similaire à celui des humains, les scientifiques ont effectué leurs recherches sur les rongeurs. Ils ont transféré par génie génétique des canaux ioniques activés par la lumière dans des neurones spécifiques du cerveau des souris. Cela leur a permis de stopper l’activité électrique de neurones du cortex insulaire en envoyant de brèves impulsions de lumière laser pendant l’événement impliquant un apprentissage par la peur. Les chercheurs ont découvert que les souris n’avaient quasiment plus peur d’une légère décharge électrique administrée à leur patte lorsqu’ils désactivaient le cortex insulaire pendant la situation douloureuse. De plus, la capacité des souris à tirer des leçons de l’événement douloureux s’en est vue considérablement réduite. L’étude démontre que, en plus d’informer notre cerveau de la douleur physique, le cortex insulaire peut envoyer un fort signal aux autres régions cérébrales qui interviennent dans la formation du souvenir de l’événement désagréable. « Comme la désactivation du cortex insulaire supprime la sensation déplaisante habituellement associée à l’événement douloureux, notre étude suggère que les neurones de cette zone sont à l’origine de cette sensation subjective et induisent un processus d’apprentissage dans d’autres régions du cerveau », explique Ralf Schneggenburger. « De ce fait, l’activité du cortex insulaire pourrait fortement influencer la formation de la connectivité cérébrale dans d’autres zones du cerveau, ce qui serait cohérent avec des études qui montrent une activité anormale du cortex insulaire chez les individus souffrant de certains troubles psychiatriques. Ainsi, notre étude des mécanismes neuronaux qui codent la douleur dans notre cerveau pourrait servir, associée à de futures études sur les mécanismes de plasticité sous-jacents, à élaborer des traitements pour des maladies psychiatriques telles que l’anxiété et les troubles de stress post-traumatique ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Une équipe de biologistes du Laboratoire Cancer et micro-environnement (Inserm-CEA) à Fontenay-aux-Roses vient de découvrir que le cerveau produit des cellules-souches neuronales qui, franchissant la barrière hématoencéphalique – l’enveloppe du cerveau pourtant réputée infranchissable – vont être transportées par le sang et vont aller infiltrer des tumeurs cancéreuses en formation, notamment dans la prostate. Cette découverte ouvre la voie à un nouveau champ de recherche, relatif au rôle du système nerveux dans le développement des cancers et aux interactions si importantes entre les systèmes vasculaires, immunitaires et nerveux dans la formation d’une tumeur. Déjà en 2013, cette équipe de biologistes menée par Claire Magnon avait mis en évidence, dans des tumeurs de la prostate, que l’infiltration de fibres nerveuses était associée à la survenue et à la progression de ce cancer. Depuis, d’autres études ont permis de confirmer le rôle inattendu, mais apparemment important, des fibres nerveuses dans le micro-environnement tumoral de nombreux cancers solides (poumon, sein). En étudiant les tumeurs de 52 patients atteints de cancer de la prostate, Claire Magnon y a découvert des cellules particulières, appelées « cellules progénitrices neuronales ». Ces cellules, normalement, ne s’observent que lors du développement embryonnaire et ne se trouvent que dans deux zones du cerveau, l’hippocampe et la zone sous-ventriculaire. De plus, le nombre de ces « cellules vagabondes » est parfaitement corrélé à la sévérité du cancer. Pour déterminer l’origine de ces cellules progénitrices neuronales, les chercheurs ont utilisé des souris transgéniques, porteuses de tumeurs. Ils ont pu démontrer que, lors de l’établissement d’une tumeur, les cellules nichées dans la zone sous-ventriculaire passaient dans la circulation sanguine. Cette migration s’accompagne d’anomalies de perméabilité de la barrière hématoencéphalique. « Pour l’instant, rien ne permet de savoir si ce problème de perméabilité précède l’apparition du cancer, ou si elle est provoquée par le cancer lui-même, via des signaux issus de la tumeur en formation. Quoi qu’il en soit, ces cellules migrent dans le sang jusqu’à la tumeur où elles s’intègrent au micro-environnement. Là, elles se spécialisent en neurones produisant un neurotransmetteur, l’adrénaline. Or, l’adrénaline régule le fonctionnement du système vasculaire, et c’est probablement ce mécanisme qui favorise à son tour le développement tumoral. Mais ces hypothèses restent à vérifier », conclut prudemment la chercheuse. Cette recherche ouvre la porte à une nouvelle piste thérapeutique. Des observations cliniques montrent déjà que les patients atteints de cancer de la prostate qui utilisent des bêtabloquants (substances qui bloquent les récepteurs de l’adrénaline) à des fins cardiovasculaires, présentent de meilleurs taux de survie. « Il serait intéressant de tester ces médicaments en tant qu’anticancéreux », estime la chercheuse. Deux essais cliniques ont commencé aux États-Unis. Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Un nouveau type de batterie, baptisé "Energy" et mis au point par la société Innolith, serait capable d’alimenter un véhicule électrique (VE) pendant plus de 1.000 km avec une seule charge. La batterie Energy d’Innolith permettrait également de réduire considérablement les coûts parce qu’elle évite l’utilisation de matériaux exotiques et onéreux et que la densité du système est très élevée. Outre la grande autonomie qu’elle procure et ses avantages en termes de coûts, la batterie Energy d’Innolith sera la première batterie au lithium ininflammable destinée aux véhicules électriques. Contrairement aux batteries classiques pour VE qui utilisent un électrolyte organique inflammable, la batterie d’Innolith est basée sur un électrolyte inorganique ininflammable. Le passage à des batteries ininflammables élimine la cause principale des incendies de batterie qui ont affecté les constructeurs de véhicules électriques. « La révolution des VE bute sur les limites des batteries disponibles actuellement », explique Sergey Buchin, PDG d’Innolith AG. Les consommateurs veulent une autonomie adéquate fournie par une seule charge dans un VE abordable et la certitude qu’il ne va pas prendre feu. La batterie Innolith Energy Battery est la technologie d’avant-garde qui peut potentiellement répondre à tous ces besoins ». Innolith commercialisera la batterie Energy tout d’abord via une première production pilote en Allemagne, puis au travers de partenariats de licence avec les principaux fabricants de batteries et constructeurs automobiles. Le développement et la commercialisation de la batterie Energy d’Innolith devraient prendre trois à cinq ans. Pour la chimie de sa batterie Energy, Innolith a utilisé une méthode de conversion innovante permettant de générer la haute densité énergétique observée dans chaque cellule. Les matériaux réactifs de conversion offrent une nouvelle voie prometteuse pour les cellules de batterie à haute densité énergétique, car ils permettent de dépasser les performances médiocres des matériaux d’intercalation traditionnels. Cette nouvelle approche permettra aux batteries d’atteindre des valeurs de contenu énergétique au niveau des cellules impossibles à obtenir auparavant. Innolith a déposé des demandes de brevets pour les inventions clés liées à la batterie Energy et maintient également la confidentialité commerciale du mécanisme de chimie cellulaire. La société a déjà prouvé le caractère novateur des batteries rechargeables ininflammables et inorganiques avec un premier produit, la batterie Grid-Scale Power utilisée aujourd’hui par le réseau PJM aux États-Unis pour fournir des services rapides de régulation de la fréquence. La chimie utilisée dans cette batterie s’est avérée efficace pour plus de 55.000 cycles de décharge de pleine profondeur, soit 10 à 100 fois le nombre maximum de cycles des batteries Li-ion existantes utilisées actuellement. Article rédigé par Georges Simmonds pour RT Flash Stockhead | | | |
| Deux poids lourds électriques à l'hydrogène circuleront bientôt sur les routes de l'Alberta, les premiers du genre au Canada. Doté d'un budget de 15 millions de dollars, le projet pilote de l'agence Emissions Reduction Alberta cherche à démontrer que des camions alimentés ainsi peuvent répondre aux besoins de l'industrie du transport lourd du pays, tout en réduisant son empreinte environnementale. Selon l’Institut Pembina, la pollution produite par le transport de marchandises au Canada dépassera d’ici 2030 la pollution générée par le transport de personnes. « Les entreprises de camionnage sont attirées par la capacité des véhicules électriques à l'hydrogène à délivrer la performance dont elles ont besoin, sans produire d’émissions de gaz à effet de serre ni contribuer à la pollution atmosphérique des villes », explique David Layzell, directeur du Centre canadien d’analyse et de recherche sur les systèmes d’énergie, un partenaire du projet. Le projet AZETEC est chapeauté par l’Association du camionnage de l’Alberta et deux de ses membres, Trimac Transport et Bison Transport, qui testeront chacun un véhicule pendant un an, dès le début de 2021. Ceux-ci seront construits par l’entreprise québécoise Nordresa, tandis que les piles à hydrogène seront fournies par l’entreprise britanno-colombienne Ballard. « Nous voulons tester les capacités de camions à l’hydrogène dans de véritables conditions, été comme hiver. Nous voulons voir comment transporter 64 tonnes de marchandise sur 700 kilomètres sans faire le plein ». La technologie de la pile à l’hydrogène pourrait bien être la clé. Cette technologie permet de générer de l’électricité à bord du véhicule, grâce à de l’hydrogène liquide. Mieux, l’hydrogène est l’élément chimique le plus abondant dans l’univers et son utilisation n’émet aucun gaz à effet de serre. David Layzell est optimiste quant au succès du projet, puisque la technologie de la pile à combustion à l’hydrogène permet aux véhicules de parcourir des distances bien plus grandes que celles des piles électriques rechargeables. Si l’industrie du transport lourd décide de se tourner vers l’hydrogène, l’Alberta pourrait grandement en bénéficier, puisqu’elle dispose des ressources nécessaires pour produire de l’hydrogène. « L’une des façons les plus communes et économiques est de le faire à partir de gaz naturel et nous en avons de vastes quantités en Alberta », explique David Layzell. L’analyste en énergies propres concède que, même si l’hydrogène est produit à partir d’énergies fossiles, le véhicule propulsé à l’hydrogène, lui, n’émet aucun gaz polluant. « Même si on n’implante pas maintenant [une production d’hydrogène propre], ça produit toujours des bénéfices intéressants, par exemple la réduction de la pollution de l'air local », dit-il. C’est pour lui une raison suffisante pour commencer tout de suite la transition vers les camions et les voitures à l’hydrogène. David Layzell croit effectivement que la production d’hydrogène à partir d’énergies fossiles ne doit servir que de moyen de transition. « Ça aiderait l’économie à s’orienter vers une économie qui produit peu de carbone. Par la suite, nous pourrons utiliser de plus en plus d’énergie solaire, éolienne et hydroélectrique pour produire l’hydrogène, au fur et à mesure que nous développons l’infrastructure », explique-t-il. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|