| | Edito Les voyages spatiaux de très longue durée passeront par l’hibernation…ou la cryogénisation
Tous les amateurs de Science-Fiction ont lu des romans et vu des films dans lesquels les astronautes, embarqués dans un vaisseau spatial pour une mission lointaine durant des décennies, voire des siècles, sont placés pendant toute la durée de leur long périple en état "d’animation suspendue", qu’il s’agisse de cryogénisation, ou d’hibernation et de congélation. Aujourd’hui, même si ces scenarios restent encore hors de portée de nos possibilités scientifiques, de nombreux chercheurs envisagent sérieusement de recourir à ces outils pour rendre possibles, au cours de ce siècle, des explorations spatiales aux confins de notre système solaire, et peut-être même au-delà. C’est en 1967 qu’a eu lieu la première cryogénisation d’un être humain. Il s’agissait de James Bedford, un professeur réputé de psychologie à l’Université de Californie, qui était décédé des suites d’une maladie incurable à l’époque. Le corps du Professeur Bedford fut refroidi artificiellement, immédiatement après sa mort, puis plongé dans une cuve d’azote liquide, à -196°C, dans la perspective d’une future réanimation. Le Professeur Bedford était en effet persuadé que la science finirait par progresser suffisamment pour permettre à la fois de le "ressusciter", puis de le guérir du mal qui l’avait emporté. Quelques années avant cette première "congélation" d’un être humain, la technique de cryogénisation, ou cryonie, avait été pour la première fois évoquée de manière précise par le physicien américain Robert Ettinger, dans un célèbre essai intitulé "La Perspective de l’immortalité". Ce scientifique était persuadé que la mort n’était qu’un événement résultant de notre ignorance et qu’elle pourrait un jour être vaincue, comme n’importe quelle autre maladie. Après avoir théorisé le transhumanisme en 1972, il fonda en 1976, l’Institut cryonique, où, on ne s’en étonnera pas, son corps a été cryogénisé après son décès en 2011. Mais Robert Ettinger, contrairement au Professeur Bedford, dont la cryogénisation fut réalisée en 1967 avec des techniques rudimentaires, a eu droit à une "mise en sommeil cryogénique" bien plus sophistiquée que son illustre prédécesseur. Son corps a été placé dans un bain de glace juste après sa mort et son cœur a été maintenu artificiellement en fonction pour que son cerveau soit toujours irrigué, jusqu'à ce qu'une machine prenne le relais. Son sang a également été remplacé par une solution antigel élaborée, qui empêche la formation de cristaux de glace, pouvant endommager les cellules. Mais surtout, Robert Ettinger a bénéficié d’une avancée majeure mise au point il y a une vingtaine d’années : la vitrification. Ce processus délicat, qu'il faut savoir m aîtriser, consiste à refroidir le corps en quelques heures, grâce à de l'azote, jusqu'à -125 degrés. Dans une seconde phase, le corps est ensuite refroidi progressivement pendant une dizaine de jours, jusqu'à -196 degrés. Le patient est alors stocké dans de l'azote liquide. Cette technique permet de substituer 60 % de l'eau des cellules par une solution synthétique. Elle présente l’avantage décisif d’éviter une congélation des molécules constituant l’organisme, puisque celles-ci sont ralenties jusqu'à être figées à -125 degrés. Une nouvelle étape vers la maîtrise de la cryogénisation fut franchie en 2010, lorsque des scientifiques du centre de recherche 21st Century Medicine, dirigés par Gregory Fahy, parvinrent à cryogéniser un rein de lapin puis à le ramener à température ambiante, avant de le greffer avec succès sur un autre animal (Voir NIH). Une autre avancée remarquable a eu lieu en 2016, quand l’équipe de Robert McIntyre (MIT) a réussi à abaisser la température d’un cerveau d'un lapin à -135 degrés Celsius, grâce à l’emploi du glutaraldéhyde, une substance neuroprotectrice qui préserve non seulement les protéines du cerveau mais également, ce qui est bien plus étonnant, tous les neurones et les synapses, ce qui permet d’imagi ner, au moins en théorie, selon ces chercheurs, une possible conservation de la mémoire, à l’issue d’une longue cryogénisation… Reste qu’en dépit de ces progrès impressionnants, les scientifiques considèrent que la cryogénisation de spationautes pour de longues et lointaines missions spatiales n’est sans doute pas envisageable avant la seconde moitié de ce siècle, car des obstacles considérables restent à surmonter. Ramener à la vie un être aussi complexe qu’un humain, qui aura été cryogénisé pendant des décennies, est en effet un défi qui s’annonce immense et un tel exploit nécessitera d’accomplir encore de nombreuses avancées scientifiques et biologiques. Il faudra également disposer, pour réussir pareille prouesse, d’une puissance de calcul inimaginable aujourd’hui, capable de traiter très rapidement un nombre astronomique de paramètres et de données, afin de maîtriser ce délicat "réve il" et de s’assurer notamment que la mémoire et la personnalité du sujet, inscrites dans son cerveau sous forme de "connectome" (ensemble des interconnexions synaptiques) ont bien été préservées… En attendant ce jour, les scientifiques ne baissent pas les bras et envisagent, pour les futurs voyages spatiaux au long cours, une autre possibilité qui pourrait, elle, devenir opérationnelle bien plus rapidement, l’hibernation. Pour développer cette technique, et pouvoir l’appliquer à l’homme, les scientifiques s’inspirent de la nature, qui compte de nombreux exemples d’animaux dotés de cette étonnante faculté d’hibernation, à ne pas confondre avec l’hivernation, qui s’apparente à une simple réduction d’activité du métabolisme sur quelques semaines, comme celle qui caractérise les ours, par exemple. Le phénomène bien plus complexe et marqué d’hibernation, que l’on observe notamment chez les marmottes, les écureuils, les hérissons ou encore les chauves-souris, se manifeste par des changement s réellement impressionnants du métabolisme de ces animaux, destinés à leur permettre de s’adapter à leur environnement, en surmontant au mieux des conditions extérieures parfois extrêmes. Dans le cas de la marmotte, le métabolisme est réduit de 90 %, avec une seule respiration et seulement cinq pulsations cardiaques par minute. Quant à la température corporelle de cet animal, elle tombe à trois degrés Celsius… Les écureuils possèdent également cette faculté remarquable. Après avoir emmagasiné des réserves de graisse pendant l’été, ils se réfugient dans leur tanière l’hiver, où ils abaissent leur température corporelle à moins de 10°C, diminuent à seulement 3 % du rythme habituel leur respiration, et cessent de s’alimenter. Mais, de façon encore plus surprenante, ces petits mammifères, grâce à des mécanismes que l’on commence à comprendre, ne souffrent pas d’atrophie musculaire, de thrombose, ou de perte de masse osseuse à cause de leu r immobilité. En outre, les organismes de ces animaux ont la capacité de se réveiller régulièrement, avant de se remettre en mode "hibernation", une programmation résultant sans doute de leur évolution adaptative, et qui leur permet de se réveiller complètement en cas d’urgence. Il y a un an, une étude a par ailleurs montré que notre ancêtre, l'homme de Neandertal, aurait pu hiberner pour se protéger de températures extrêmes (Voir Science Direct). Les capacités extraordinaires de ces petits animaux, et peut-être de nos lointains ancêtres, en matière d’hibernation, n’ont pas échappé à la NASA, qui travaille, depuis plusieurs années déjà, en coopération avec de nombreux laboratoires de recherche et des entreprises, sur des méthodes d’hibernation contrôlée qui pourraient permettre, dans un avenir relativement proche (sans doute une vingtaine d’années), d’envisager des missions spatiales lointaines à la fois bien plus sûres pour les spationautes, et également bien moins coûteuses pour le contribuable. La société américaine SpaceWorks a notamment été chargée par la NASA d’explorer les différentes pistes technologiques possibles permettant l’hibernation contrôlée des futurs spationautes. Cette solution présenterait des avantages considérables, d’abord parce qu’elle permettrait de placer les astronautes dans des capsules spéciales, où il serait possible de les protéger de manière bien plus efficace contre les effets néfastes des radiations cosmiques auxquelles ils seront exposés pendant leur long voyage dans l’espace. Dans l’hypothèse d’une mission habitée vers Mars, il faut en effet savoir que les astronautes partiraient pour au moins deux ans et demi (un voyage d’un an, aller et retour, et un séjour sur la planète rouge de 18 mois). On comprend mieux pourquoi, dans ce scenario, la protection maximale contre les rayonnements cosmiques, pendant le vol, est un élément essentiel à prendre en compte pour la santé des astronautes. Mais, en outre, l’hibernation de l’équipage permettrait une réduction considérable du volume et de la masse totale du vaisseau spatial utilisé. Avec beaucoup moins d'oxygène, d'eau et de nourriture à embarquer, la NASA a calculé que le volume habitable pourrait alors passer de 200 mètres cube à seulement 20 mètres cube, et la masse totale de la fusée pourrait diminuer des deux-tiers…. Pour l’instant, mais rien n’est figé, la NASA envisage de placer en hibernation les spationautes qui iront explorer Mars, et plus tard d’autres planètes encore plus lointaines de notre système solaire (comme certaines lunes de Saturne et Jupiter qui pourraient peut-être abriter des formes de vies) avec une technique appelée "hypothermie thérapeutique". Cette approche, utilisée depuis plus d’un demi-siècle en médecine, consiste à refroidir le corps humain pour minimiser les lésions, ce qui laisse le temps d’intervenir en cas d’arrêt cardiaque, ou d’accident vasculaire cérébral. Concrètement, les médecins commencent à injecter un sédatif, puis remplacent le sang par un soluté salin à 5°C, ce qui arrête le cœur, et abaisse la température corporelle jusqu’à 32°C. Cet & eacute;tat provoque une mise au ralenti du métabolisme et un sommeil léthargique. Mais certains scientifiques, comme Robert Henning, de l’Université néerlandaise de Groningen, veulent aller encore plus loin. Pour ce chercheur, « Il faut prendre le problème dans l’autre sens : dans l’hypothermie thérapeutique, c’est le refroidissement qui induit la baisse du métabolisme. Tandis que dans la réelle hibernation, c’est l’inverse : sur un signal interne de l’animal, son corps s’arrête de se chauffer ! (Voir YouTube). Le Professeur Henning a découvert que les cellules de hamsters hibernants étaient riches en sulfure d’hydrogène (H2S) et que ce gaz jouait un rôle-clé pour les protéger du froid et de l’oxydation, tout en alimentant en énergie les mitochondries cellulaires. Or chez les animaux non hibernants, l e mécanisme qui produit ce H2S cesse de fonctionner avec le froid, ce qui induit des dommages. Selon le Professeur Henning, une meilleure connaissance des mécanismes complexes qui permettent l’hibernation chez de nombreux animaux pourrait permettre, d’ici une vingtaine d’années, d’induire chez l’homme, à l’aide de substances externes, une "torpeur synthétique". Mais revenons au scenario construit par SpaceWorks et la NASA pour les missions vers Mars. Il prévoit que deux vaisseaux cargos soient envoyés en amont. Le premier se poserait sur la planète rouge, l'autre resterait en orbite. Ces vaisseaux automatisés seraient destinés à emporter tout le matériel et les ressources nécessaires aux astronautes durant leur long séjour (en principe 1 mois) sur place. Le vaisseau habité ne partirait qu’ensuite, pour un voyage d’environ six mois, soit un aller-retour en une année. Ce vaisseau serait principalement composé de capsules d’accueil, prévues pour accueillir jusqu'à six astronautes, les systèmes de production d'oxygène et de recyclage de l'eau, ainsi que les réserves de vivres, qui prendront peu de place, grâce à leur forme concentrée et liquide. Placés en état d’hiber nation à tour de rôle (et réveillés également les uns après les autres, pour des raisons de sécurité), les spationautes seraient alimentés par intratraveineuse, à l’aide de bras robotisés. Leur métabolisme serait évidemment étroitement surveillé en permanence, grâce à une multitude de capteurs, et ils seraient soumis à des stimulations électriques régulières, à la fois pour prévenir l'atrophie musculaire et pour stimuler leur cerveau et améliorer la qualité de leur "sommeil". Il est intéressant de souligner que l’Agence Spatiale européenne envisage, elle aussi, sérieusement, selon un scenario assez proche de celui imaginé par la NASA, de placer ces astronautes en état d’hibernation, dans des nacelles spécialement conçues à cet effet. Pour gérer le vaisseau spatial, surveiller l’équipage en sommeil artificiel, et faire face à des situations imprévues, l’ESA a récemment annoncé qu’elle voulait recourir à un système très puissant d’intelligence artificielle, doté d’une grande capacité d’autonomie, d’une extrême résilience, et capable de faire face à des incidents et situations imprévues… Et si cela vous rappelle quelque chose, c’est normal, car cette IA ressemble étrangement à HAL, l’ordinateur intelligent et sens ible (un peu trop d’ailleurs) imaginé il y a plus de 50 ans, par Stanley Kubrick, dans son chef d’œuvre, « 2001, l’Odyssée de l’espace »… (Voir ESA). Quant aux missions spatiales qui partiront pour explorer des mondes situés en dehors de notre système solaire, probablement au cours du prochain siècle, elles auront sans doute, elles aussi, recours à ces techniques d’hibernation ou de cryogénisation, qui devraient avoir fait des pas de géant d’ici là. Mais ces voyages ne seront envisageables qu’à condition que se produisent des ruptures technologies majeures en matière de modes de propulsion. En effet, même avec les futurs moteurs ioniques, qui pourront peut-être raccourcir à 40 jours le voyage vers Mars, il faudrait encore 75 000 ans pour rallier l’étoile la plus proche de la Terre, Proxima du Centaure, situé à 4,2 années-lumière… Pour conclure, je voudrais appeler votre attention sur la synergie très positive qui se met en place entre l’exploration spatiale et les avancées en biologie et en médecine : les missions spatiales lointaines ne seront possibles qu’à condition que ces techniques futuristes de cryogénisation et d’hibernation fassent des progrès décisifs. Mais le contraire est également vrai : l’exploration toujours plus lointaine du cosmos permettra à la science, en particulier à la biologie et la médecine, d’accomplir d’extraordinaires progrès… Quand on considère tous les enjeux scientifiques, industriels et géopolitiques absolument vitaux pour notre avenir, et notre souveraineté européenne, que représentent la maîtrise de missions spatiales de longue durée et l’exploration de notre système solaire, on constate que l’effort que doit accomplir notre continent dans ce domaine reste très important : pendant que la NASA dispose cette année d’un budget annuel de 23 milliards d’euros, l’Agence spatiale européenne devra se contenter de 9 milliards d’euros, pour la période 2021-2027… Si nous voulons que demain, l’Europe garde sa puissance géostratégique face aux Etats-Unis, mais aussi face à la Russie, à la Chine, à l’Inde, et qu’elle soit également en mesure d’aller explorer Mars, puis d’autres planètes plus lointaines du système solaire, avant d’en exploiter un jour les richesses et le potentiel en énergie, nous devons nous donner les moyens humains et financiers au long terme de prendre la tête de cette aventure spatiale qui ne fait que commencer, et ouvre une nouvelle page de l’histoire de l’humanité… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Nanotechnologies et Robotique | |
| | | Des chercheurs de l'Université de l'Ouest-Angleterre-Bristol (UWE) travaillent sur des MARS – ou "rovers actionnés par marimos", que l'on peut définir comme des espèces de cyborgs, mi algue, mi robot. Ces boules transparentes sont bien de véritables automates, fonctionnant en symbiose avec une algue marimo (ou aegagropila linnaei pour les naturalistes). Originaire des lacs japonais, cette plante aquatique filamenteuse en forme de boule est bien connue pour sa capacité à se mouvoir au gré des courants. Les chercheurs n'ont donc eu qu'à adapter les rêves transhumanistes aux besoins de la plante pour créer une véritable algue augmentée, dédiée à la surveillance environnementale. Concrètement, ces "robalgues" utilisent l'énergie solaire, en mobilisant la photosynthèse et ses interactions avec l'armure entourant le corps de l'algue. Grâce à sa carapace de plastique compartimentée imprimée en 3D, la marimo conserve la majorité de l’air qu’elle produit au cours de la réaction photosynthétique. Alors que les bulles formées au-dessus de la boule sont évacuées vers la surface, les autres n’ont pas d’échappatoire et s’accumulent au sein de l’exosquelette. De quoi imprimer une torsion pour déplacer la boule au rythme d’une dizaine de centimètres par heure, ou même la faire flotter pour surmonter un obstacle impossible à surmonter en roulant ! Ces dispositif souples et polyvalents peuvent intégrer tous types de capteurs et seraient particulièrement adaptés pour les missions de surv eillance environnementale longues, qu'il s'agisse des zones marines écologiquement sensibles, de lacs, ou de mines sous-marines… Article rédigé par Georges Simmonds pour RT Flash BMC | | ^ Haut | |
|
| | | Une équipe de recherche de l’Ecole de Sciences Appliquées A. Paulson Harvard (SEAS) a mis au point un laser terahertz au design compact, pouvant être configuré dans une très large plage de fréquences. Une avancée majeure pour démocratiser l’utilisation des ondes térahertz dans de nombreuses applications. L’utilisation des ondes térahertz intéresse de nombreux secteurs. Se situant entre 300 GHz et plusieurs milliers de GHz - soit entre la plage de fréquence des infrarouges et des micro-ondes – cette gamme de fréquences peut être utilisée dans des domaines variés comme l’imagerie médicale ou encore le contrôle non destructif. « Il s'agit d'une technologie révolutionnaire pour générer un rayonnement térahertz », ont déclaré Federico Capasso, Robert L. Wallace et Vinton Hayes, qui ont conduit ces recherches. « Grâce à sa compacité, son efficacité, sa large plage de réglage et son fonctionnement à température ambiante, ce laser constitue une avancée majeure pour combler le fossé térahertz pour les applications d'imagerie, de sécurité ou de communication ». La gamme de fréquences térahertz - qui se situe au milieu du spectre électromagnétique entre les micro-ondes et la lumière infrarouge - est restée difficile à atteindre pour les applications car la plupart des sources térahertz sont soit très volumineuses, inefficaces, soit reposent sur des dispositifs à basse température pour produire ces fréquences, avec un réglage limité. Le nouveau laser à cascade quantique remplace l'oxyde nitreux par du fluorure de méthyle, ce qui permet de tripler sa plage de réglage et de réduire sa taille à la dimension d’une boîte à chaussures. Article rédigé par Georges Simmonds pour RT Flash APLP SEAS | | | |
| L’institut NIMS (National Institute for Materials Science) et Softbank Corp., tous deux basés au Japon, ont confirmé le développement d’une batterie qui atteint la densité énergétique-record de 500 Wh/kg, sur 2000 cycles, contre 200 Wh/kg pour les batteries lithium-Ion. La batterie lithium-air (Li-air) est un accumulateur électrochimique métal-air qui utilise l’oxydation du lithium à l’anode et la réduction de l’oxygène à la cathode pour produire un courant électrique. La particularité de cette technologie est qu’elle utilise l’oxygène (O2) contenu dans l’air ambiant pour fonctionner, ce qui a pour avantage d’alléger le poids de l’accumulateur ainsi que son encombrement, puisqu’il ne nécessite aucun système de stockage de l’oxygène. Conçues dès les années 1970 pour le secteur automobile puis tombées quelque peu en désuétude, les batteries lithium-air ou "lithium-oxygène" ont rencontré un regain d’intérêt après l’an 2000, grâce à des progrès technologiques et la nécessité de développer des solutions de stockage de l’électricité, notamment pour les véhicules et l’informatique embarquée. On estime que les batteries lithium-air ont une énergie spécifique environ 10 fois supérieure aux batteries lithium-ion actuelles. Le secteur automobile a dès lors commencé à marquer un intérêt évident pour les batteries lithium-air afin d’offrir une bonne autonomie aux véhicules électriques, pour un encombrement et un poids réduits. Mais ce nouveau type d’accumulateur peut également trouver des débouchés dans le segment des vélos à assistance électrique, les drones, les smartphones et les systèmes de stockage d’électricité domestiques. En 2015, le problème principal que posait la batterie lithium-oxygène résidait dans la formation de peroxyde de lithium. Ce composé inorganique se formait par réaction chimique entre le lithium et l’oxygène, s’accumulait sur la cathod e et finissait par boucher les pores de celle-ci en bloquant les réactions chimiques ultérieures. Après seulement quelques cycles de charge-décharge, les performances de la batterie s’effondraient. Les chercheurs de Cambridge ont alors ajouté de l’eau à l’électrolyte et de l’iodure de lithium, obtenant ainsi de l’hydroxyde de lithium (LiOH). Alors que les batteries restituaient jusque-là 70 % de l’énergie accumulée, les nouveaux prototypes affichaient des rendements de 93,2 %, ce qui représentait une avancée considérable. En mars 2018, grâce à de nouvelles découvertes d’une équipe de chercheurs de l’Université de Chicago et de l’Argonne National Laboratory, les nouvelles batteries ont été capables d’encaisser 750 cycles de charge et recharge. A présent, les dernières avancées scientifiques permettent de réaliser des cycles de 2000 charges et recharges, la batterie lithium-air, ce qui leur ouvre la voie à une production industrielle et à une utilisation dans les véh icules électriques. Article rédigé par Georges Simmonds pour RT Flash NIMS | | | |
| Une équipe d'ingénieurs de l'Université de l'Illinois à Chicago a développé une feuille artificielle capable de capturer le dioxyde de carbone (CO2) cent fois plus rapidement que tous les systèmes existants. S'inspirant du mécanisme naturel de photosynthèse, processus par lequel les plantes transforment la lumière du soleil, l'eau et le CO2 en énergie (glucose), cette invention pourrait nous permettre de faire des économies de carburant considérables. Au lieu de créer du sucre, comme dans la photosynthèse naturelle, la méthode artificielle peut capter l'énergie solaire et la stocker de manière chimique, sous forme d'hydrogène par exemple. Cela offre un réservoir de carburant à la demande, créant une alternative aux carburants fossiles. Mais ce n'est pas sa seule fonction. Elle réussit aussi l'exploit d'attraper, à la manière des plantes, le CO2 présent dans l'air et les gaz de combustion des centrales électriques au charbon, entre autres. Les anciens systèmes « ont généralement un rendement - rapport entre l'énergie stockée dans les produits carbonés et l'énergie solaire utilisée - d'environ 2 ou 3 %, au mieux jusqu'à 10 % dans certains cas », souligne Ally Aukauloo, professeur à l'Université Paris-Saclay. Mais la feuille artificielle créée par l'Université de l'Illinois, elle, pourrait capturer 3,3 millimoles par heure pour chaque 4 centimètres carrés de matériau, ce qui est plus de 100 fois plus performant. En bonus, elle présente un avantage de taille : le réacteur peut tenir dans l'espace d'un sac à dos. Un petit module de la taille d'un humidificateur d'air pourrait donc éliminer plus de 1 kilo de CO2 par jour à l'intérieur d'une maison. Selon cette étude, ce système permettrait d'atteindre un coût de capture du CO 2 de 140 dollars la tonne (126 euros) ; il serait donc largement en dessous du seuil de rentabilité des 200 euros la tonne de CO2, défini par le gouvernement américain. Article rédigé par Georges Simmonds pour RT Flash JEES Facebook | | | |
| C'était impossible, ils l'on fait ! Des ingénieurs chimistes du MIT ont mis au point un processus de polymérisation innovant qui assemble les molécules en feuilles bidimensionnelles. L'étude du MIT a démontré que l’habituelle polymérisation en spaghetti des molécules peut être contournée et stabilisée pour un autoassemblage en feuilles, ce qui a permis de concevoir ce matériau, nommé 2DPA-1. Ce procédé lui confère une structure bidimensionnelle, contrairement à l’assemblage unidimensionnel de la plupart des polymères. En effet, les polymères standard sont constitués de chaînes de blocs qui se superposent, appelées monomères. Ce qui leur donne cette fameuse structure en "spaghetti". Ils composent la structure de tous les plastiques et se développent en ajoutant de nouvelles molécules à leurs extrémités. Une fois assemblés, les polymères peuvent former des objets tridimensionnels comme les bouteilles, en utilisant le moulage par injection. Il s’agit du procédé de fonte sur lequel se basent tous les modelages, y compris les métaux et les céramiques. Les chercheurs du MIT ont alors émis il y a quelques années l’hypothèse selon laquelle amener les polymères à se développer en feuilles permettrait d’obtenir une matière beaucoup plus légère et beaucoup plus solide. Mais un tel processus était extrêmement compliqué à appliquer, car si un seul monomère se tourne vers le haut ou vers le bas en se collant à celui sous-jacent, le matériau commence à se dilater en trois dimensions et la structure en feuilles est perdue. Pour la liaison des blocs de monomères, un composé appelé mélamine, qui contient un anneau d’atomes de carbone et d’azote, est habituellement utilisé. Mais dans des conditions très précises, ces monomères peuvent croître en deux dimensions, formant des disques. Ces disques s’empilent les uns sur les autres, maintenus ensemble par des liaisons hydrogène entre les couches, ce qui rend la structure très stable et solide. « Au lieu de créer une molécule en forme de spaghetti, nous pouvons créer un plan moléculaire en forme de feuille, où nous amenons les molécules à s’accrocher en deux dimensions », explique dans un communiqué Michael Strano, professeur au MIT et auteur principal de la nouvelle étude. Ce nouveau matériau a en plus l’avantage de pouvoir être facilement produit en grande quantité, tant qu’il y a assez de matière première. Les chercheurs ont aussi montré qu’ils peuvent revêtir des surfaces avec des films du matériau, ce qui ouvre la voie vers de multiples possibilités d’utilisation. Le fameux 2DPA-1 pourrait être utilisé comme revêtement léger et durable pour des pièces de voiture ou de smartphones. Il est même tellement résistant qu’il peut être utile dans la construction de bâtiments et infrastructures d’envergure comme les ponts. Mis à part le graphène, c’est du jamais vu dans la famille des polymères ! Ce nouveau matériau a démontré une résistance impressionnante, de quatre à six fois supérieure à celle du verre blindé. La limite de cette élasticité, ou la force nécessaire pour casser le matériau par extension, est supérieure à celle de l’acier d’un facteur deux, ceci alors qu’il n’a qu’environ un sixième de la densité de l’acier. Une autre caractéristique clé du 2DPA-1 est qu’il est imperméable aux gaz et à l’eau. Alors que d’autres polymères sont fabriqués à partir de chaînes enroulées avec des espaces qui permettent aux gaz de s’infiltrer, le 2DPA-1 est fabriqué à partir de monomères qui se verrouillent comme des LEGO. Les molécules ne peuvent ainsi pas s’interposer. Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| Les acènes sont une famille d’hydrocarbures comprenant plusieurs benzènes fusionnés formant une chaîne linéaire. Ces molécules présentent des propriétés électroniques singulières, car plus ces acènes sont longs et plus leur comportement se rapproche de celui des semi-métaux. Or, comme il s’agit de molécules organiques, les acènes sont beaucoup plus faciles à fonctionnaliser et mettre en forme que les semi-conducteurs inorganiques, ce qui permet de leur donner des propriétés supplémentaires et de les déposer sur davantage de surfaces différentes. Les chercheurs tentent donc de concevoir des acènes de plus en plus longs, mais l’ajout de nouveaux cycles benzéniques réduit très fortement la solubilité et la stabilité de la molécule. Si la fabrication du tétracène ou du pentacène, composé respectivement de quatre et cinq cycles de benzène, est bien connue, des doutes subsistaient quant à la possibilité d’aller au-delà de l’heptacène (sept cycles). Des chercheurs du Centre d’élaboration de matériaux et d’études structurales (CEMES, CNRS), de l’académie tchèque des sciences (République tchèque) et de l’Université d’Hokkaido (Japon) ont obtenu pour la première fois un nonacène, soit un acène à neuf cycles. Il se présente sous la forme d’un solide noir, qui se conserve sous atmosphère inerte pendant des mois. Pour y parvenir, les chercheurs ont dévié des méthodes habituelles de synthèse des acènes. Ils commencent par préparer en solution des précurseurs, stabilisés par l’ajout de groupes protecteurs qui augmentent la solubilité et la stabilité des molécules. Lors de la dernière étape, en phase solide, ces précurseurs sont chauffés ou exposés à des UV. Les molécules se clivent en perdant leurs groupes protecteurs, sous forme de monoxyde de carbone gazeux, pour donner du nonacène pur. Cette méthode de préparation offre également la possibilité de déposer le nonacène directement sur une surface voulue, en opérant sur place l’ultime étape. L’équipe s’intéresse à présent à la fabrication de divers composants et transistors organiques à partir du nonacène, ainsi qu’à vérifier si sa méthode permet d’obtenir des acènes encore plus longs. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs de l'Institut Néel (CNRS) à Grenoble, en collaboration avec une équipe de Helsinki (Aalto, Finlande), a réussi, en refroidissant un tambour d'aluminium de 15 µm de diamètre à 500 mK, à rendre cet objet mécanique entier "quantique", au sens où tous les modes mécaniques qui le constituent sont tellement froids qu'ils sont essentiellement vides d'excitations. Pour parvenir à ce résultat, les chercheurs ont utilisé le cryostat à démagnétisation adiabatique nucléaire de l'Institut Néel. La difficulté a consisté d'abord à s'assurer que le tambour était entièrement refroidi. En effet, à ces températures extrêmes, les liens thermiques deviennent extrêmement faibles entre les différentes parties d'un objet. Elles se découplent thermiquement. Il a donc fallu minimiser les pertes de chaleur. L'autre difficulté a consisté à caractériser l'état obtenu, autrement dit à démontrer que le mode de plus basse fréquence de l'objet est froid. Les chercheurs ont ainsi dû mesurer la température du cryostat, ainsi que la population thermique du mode, et démontrer que le système était à l'équilibre. Cette première mondiale ouvre la voie à un nouveau champ d'investigation expérimental directement focalisé sur les propriétés thermodynamiques quantiques d'objets mécaniques macroscopiques. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| | | La Lune recèle de nombreuses grottes inexplorées sous sa surface mais, pour des raisons de sécurité, aucun astronaute ne s’y est encore risqué. Les agences spatiales veulent d’abord envoyer des robots pour visiter ces cavités dont nous ne possédons que très peu d’informations. « Sur la surface de la Lune, il fait 150 degrés la journée et -150 degrés la nuit. Dans ces caves souterraines, accessibles par des cheminées verticales naturelles, la température est de -30 degrés et il n’y a pas de radiations. On peut donc imaginer que ces endroits constitueraient une base de repli très intéressante puisque le climat s’avère constant et tolérable pour l’être humain », affirme Lucas Froissart, un étudiant de la faculté des sciences et techniques de l’ingénieur de l’EPFL. Durant son master en génie mécanique, Lucas Froissart a décroché un stage à l’agence spatiale japonaise. Les consignes qu’on lui a données étaient succinctes : en six mois, il devait concevoir un mécanisme capable de propulser six robots explorateurs dans les tunnels lunaires. « Je n’ai même pas pu voir à quoi ressemblaient ces robots. On m’a juste dit qu’ils correspondaient à une balle de gymnastique en ce qui concerne le poids, la taille et la rigidité », explique le jeune scientifique. Après avoir acheté les balles en question, Lucas Froissart s’est mis au travail. Il a construit un exosquelette qui regroupe les six robots. Situation sanitaire oblige, il n’a pas pu se rendre à Tokyo pour son stage. Il est resté en Suisse et a échangé avec ses collègues japonais par vidéoconférence. Le professeur Auke Ijspeert de l’EPFL l’a accueilli dans son laboratoire. « L’idée est de laisser tomber la structure dans la cheminée lunaire qui mesure une centaine de mètres. Quand le mécanisme touche le sol, les trois robots explorateurs sont propulsés à 45 degrés afin d’aller le plus loin possible dans la grotte. Les trois autres sont simplement libérés sur place, leur but étant de récolter des données immédiates », explique l’ingénieur. Lucas Froissart a dû tester son système en tenant compte de la hauteur de la chute, mais aussi de l’absence d’air sur la Lune et de l’apesanteur. Après divers calculs, Lucas Froissart est arrivé à la conclusion que pour simuler des conditions semblables à celle sur la Lune il lui fallait lâcher son exosquelette à une hauteur de 20 mètres sur la Terre. En passant devant les grues et les constructions du chantier de la RTS, à côté de l’EPFL, Lucas Froissart a trouvé le lieu idéal. Après avoir discuté avec le maître d’œuvre, ce dernier lui a donné son accord pour utiliser un des échafaudages pour larguer son mécanisme. « Les ouvriers m’ont même fabriqué un bac avec une tonne et demie de sable pour la réception ». Après plusieurs centaines d’essais, l’ingénieur a atteint son objectif : les balles sont propulsées à plusieurs mètres dès que la structure touche le sol. Selon lui, l’agence spatiale japonaise s’est montrée enthousiaste et a décidé d’approfondir son idée. « On la retrouvera peut-être d’ici quelques années sur la Lune », se réjouit-il. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Des chercheurs de l’EPFL et de l’Institut méditerranéen d'océanologie (MIO), en France, ont récemment découvert une nouvelle source de phosphore biologique agissant potentiellement comme un important apport de nourriture au phytoplancton, les populations de microalgues évoluant à la surface des eaux, qui assurent des fonctions essentielles à la vie sur Terre. Cette source, dont l’exacte ampleur n’avait encore jamais été étudiée, pourrait avoir des implications importantes sur le climat et permettre de grandement affiner l’efficacité des modèles de prévision en la matière. Pour se développer, le phytoplancton a besoin de différents éléments chimiques, dont principalement du fer, de l’azote et du phosphore. Ce cocktail permet à ces végétaux microscopiques, vivant en grandes nappes dans les couches superficielles des lacs, mers et océans, de prospérer et de pratiquer leur activité favorite : la photosynthèse. Or, ce faisant, ils remplissent un rôle crucial dans la régulation du climat, captant de grandes quantités de dioxyde de carbone (CO2) présent dans l’atmosphère, le stockant dans l’eau sous forme de biomasse et relâchant au passage l’oxygène si précieux aux êtres vivants. A noter que le phytoplancton joue un troisième rôle essentiel : à la base de la chaîne alimentaire, il permet à de très nombreuses espèces marines de survivre. Les apports et la disponibilité de phosphore conditionnent donc le développement du phytoplancton, les taux de photosynthèse et la somme globale de CO2 absorbée. C’est pourquoi l’identification de toutes les sources de fertilisation des écosystèmes marins est importante pour mieux comprendre les mécanismes climatiques, et comment les activités humaines peuvent les affecter. « Il était déjà établi qu'une quantité importante de phosphore inorganique est amenée aux écosystèmes marins éloignés par la poussière minérale en suspension dans l'air sous forme de minéraux ou d'ions phosphate, mais ce tableau n’était en réalité pas complet », explique Kalliopi Violaki, auteure principale de l’étude et chercheuse au Laboratoire des processus atmosphériques et de leurs impacts (L API), qui fait partie de la Faculté de l’environnement naturel, architectural et construit (ENAC) de l’EPFL. Durant une campagne d'échantillonnage menée pendant une année à l’Est de la Méditerranée, sur le site crétois de Finokalia, cette scientifique a découvert l’existence d’une importante source de phosphore contenue, elle, dans les particules biologiques aéroportées, telles que virus, bactéries, moisissures, fibres végétales ou grains de pollen. Si les quantités exactes ne sont pas encore totalement établies, les chercheurs savent déjà qu’elles sont en tout cas comparables à celles de phosphore inorganique amenées par les aérosols de poussière. De plus, ce phosphore biologique se présente en grande partie sous la forme de phospholipides, composant clé des membranes cellulaires. « Le fait que les écosystèmes terrestres puissent fertiliser les écosystèmes marins par le biais de bioaérosols, c’est-à-dire de microparticules atmosphériques d’origine biologique, est un concept totalement inédit, qui modifie notre compréhension des mécanismes actifs contrôlant le cycle du carbone, et donc le climat », relève Athanasios Nenes, directeur du LAPI et co-auteur de l’étude. Actuellement absent des modèles, ce flux de phosphore organique pourrait s’avérer être un nouveau paramètre majeur, permettant une compréhension bien plus fine de la manière dont les écosystèmes marins répondent au changement climatique. Aujourd’hui déjà, le réchauffement planétaire accentue la densification des couches océaniques. Les conséquences en sont un ralentissement du mélange entre ces strates - qui diffèrent en termes de densité, de température, de taux d'oxygène et de salinité - et une perturbation de la capacité des océans à absorber le CO2. Cette augmentation de la stratification empêche également la distribution des nutriments entre les fonds et la surface, provoquant potentiellement une modification dangereuse du milieu naturel et des sources d'alimentation pour une grande part ie des organismes marins. La prise en compte de cette nouvelle source de phosphore pourrait donc modifier notre idée de la façon dont les mers et océans réagiront au changement climatique. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une étude réalisée par des chercheurs irlandais et américains et conduite par Aedin Cassidy (Queen's University-Belfast) a montré que les personnes atteintes de la maladie de Parkinson, et qui mangent des aliments riches en flavonoïdes trois fois par semaine, ont 30 à 40 % de chances de survie en plus comparativement à ceux qui en mangent moins d’une fois par mois, Pour parvenir à ces conclusions, les scientifiques ont suivi 1200 personnes atteintes de la maladie de Parkinson et dont le diagnostic avait été fait récemment. Les chercheurs ont analysé l’alimentation sur plusieurs années de 599 femmes et 652 hommes. Plus précisément, ils leur ont demandé à quelle fréquence ils consommaient des aliments riches en flavonoïdes. Il s’agit de la plus importante catégorie de polyphénols, des molécules très réputées pour leurs vertus antioxydantes que l'on trouve dans les plantes, les fruits, les légumes, le chocolat, le thé ou encore le vin rouge ! Ensuite, ils ont estimé l’apport de flavonoïdes que chaque patient avait en multipliant la quantité contenue dans chaque aliment par la fréquence à laquelle les participants en mangeaient. Résultat : les personnes qui en consommaient plus avaient une meilleure espérance de vie car la progression de la maladie était ralentie. Mais les bienfaits des flavonoïdes sur la maladie de Parkinson ne sont pas les seules vertus de ces substances. Selon une étude publiée en 2019, ceux-ci pourraient aussi réduire le risque de cancer et de maladies cardiovasculaires. Selon les chercheurs, les flavonoïdes amélioreraient le fonctionnement des vaisseaux sanguins et auraient des propriétés anti-inflammatoires. Article rédigé par Georges Simmonds pour RT Flash Neurology | | | |
| Des chercheurs de l'excellent hôpital universitaire de Louvain (UZ Leuven) viennent de montrer qu'en traitant les tumeurs neuro-endocrines de l'intérieur, grâce à un médicament libérant une charge radioactive, plutôt que par rayons, on peut réduire de 80 % les risques de formation de métastases. Ce traitement, qui engendre peu d'effets secondaires, est pour le moment principalement utilisé contre les tumeurs touchant le tube digestif, le pancréas et les poumons. Les cellules neuro-endocrines, dispersées dans tout le corps, sont similaires aux cellules nerveuses (neurones), mais produisent également des hormones comme les cellules du système endocrinien (cellules endocrines). Parfois, elles se multiplient de manière effrénée et commencent alors à former des tumeurs. Lorsque ces tumeurs ne peuvent être retirées chirurgicalement ou traitées par chimiothérapie ou avec des rayons externes, il est possible dans certains cas d'opter pour une irradiation interne. Le procédé consiste à injecter un produit radiopharmaceutique (un médicament moléculaire de 3ème génération comportant une charge radioactive de lutécium-177) dans le corps du patient ou de la patiente, explique le professeur Christophe Deroose, spécialisé en médecine nucléaire à l'UZ Leuven. « La molécule s'attache à des récepteurs spécifiques situés sur l'enveloppe extérieure des cellules cancéreuses. Le produit radiopharmaceutique libère alors une dose élevée de rayons. En introduisant le médicament dans la circulation sanguine, cette méthode permet de toucher en une fois des cellules cancéreuses situées partout dans le corps », complète M. Deroose. En outre, ce traitement (baptisé "peptide receptor radionuclide therapy" - PRRT) engendre peu d'effets secondaires, puisque les molécules radioactives ne s'attachent presque pas aux cellules saines. Le risque de formation de métastases est aussi fortement réduit, jusqu'à 80 %. « Cela permet de contrôler les cancers de certains patients pendant plusieurs années, ce qui constitue un grand pas en avant », conclut le professeur Deroose. Article rédigé par Georges Simmonds pour RT Flash UZ Leuven | | | |
| Il est scientifiquement bien établi que l'alimentation et le mode de vie influent sur le risque de cancer colorectal et le surpoids a largement été identifié comme un facteur de risque de la maladie. Mais si les médecins recommandent couramment la perte de poids aux personnes en surpoids et obèses, aucune étude n’avait jusqu’ici été menée sur la relation entre indice de masse corporelle (IMC) et risque de développer un adénome colorectal. Or, ces polypes qui se développent sur la muqueuse qui tapisse le côlon peuvent devenir cancéreux. Cette nouvelle étude réalisée par le National Cancer Institute de Bethesda (Maryland) est la première à évaluer le changement de poids (à la fois la prise et la perte de poids) sur trois périodes de l'âge adulte et à le mettre en relation avec l'adénome colorectal. Dans ce travail, les chercheurs ont utilisé les données de poids autodéclarées dans un essai de dépistage du cancer de la prostate, du poumon, du côlon et de l'ovaire. 154 942 hommes et femmes âgés de 55 à 74 ans ont été recrutés aux États-Unis entre 1993 et 2001 pour évaluer l'efficacité de différentes approches de dépistage dans la prévention des décès dus à ces cancers. Les participants ont subi un test de dépistage du cancer colorectal au début de l'essai et à nouveau 3 ou 5 ans plus tard. L’analyse des résultats révèle que, par rapport au poids stable, la perte de poids était associée à une réduction de 46 % du risque d'adénome colorectal. Cela était particulièrement vrai chez les adultes qui étaient initialement en surpoids ou obèses. Les chercheurs ont également signalé que la prise de poids à l'âge adulte était associée à un risque accru d'adénome, en particulier pour une prise de poids supérieure à 3 kilos sur 5 ans. Ces résultats suggèrent l'importance du maintien d'un poids sain tout au long de l'âge adulte dans la prévention des adénomes colorectaux. En outre, les adultes en surpoids ou obèses peuvent être en mesure de réduire leur risque de développer un adénome colorectal en perdant du poids. « Nos résultats suggèrent qu'éviter la prise de poids à l'âge adulte peut contribuer à réduire le risque de développer une croissance précancéreuse appelée adénome colorectal, ce qui peut à son tour réduire le risque de développer un cancer colorectal », souligne l'autrice principale de l'étude, Kathryn Hughes Barry. « Sur la base de nos résultats, nous ne recommandons pas la perte de poids à tous les adultes. Mais les résultats suggèrent que les adult es en surpoids et obèses peuvent bénéficier d'une perte de poids ». Article rédigé par Georges Simmonds pour RT Flash JNCI | | | |
| Des scientifiques du célèbre MIT de Boston ont conçu une capsule capable d’acheminer l’ARNm directement dans l'estomac. De la taille d’une myrtille, elle est constituée d'un polymère qui protège les acides nucléiques de la dégradation, une fois la capsule avalée. Cette capsule a une forme particulière, avec un côté arrondi et un autre pointu, qui lui permet de se fixer sur la paroi de l'estomac et de libérer directement son contenu au contact des cellules. Ainsi, elle peut transporter jusqu'à 150 µg d'ARN, bien plus que la quantité présente dans les vaccins anti-Covid-19. La gélule possède un dôme long et raide inspiré de la tortue léopard. Elle est capable de se redresser si elle roule « sur le dos ». Le contenu peut ainsi être facilement injecté dans la muqueuse de l’estomac, grâce à des microaiguilles qui tapissent la capsule. La livraison faite, elle se détache de la paroi gastro-intestinale et s’évacue naturellement à travers le tube digestif. Les essais sur les animaux montrent que La protéine codée par l'ARNm transportée par la capsule a été bien exprimée par les cellules de l'estomac. Les chercheurs essayent à présent d'améliorer la réponse immunitaire, pour la rendre assez forte et protectrice à partir de l'estomac. « Il existe de nombreuses cellules immunitaires dans le tractus gastro-intestinal, et la stimulation du système immunitaire du tractus gastro-intestinal devrait nous permettre d'obtenir une réponse immunitaire robuste », précise le Docteur Alex Abramson, qui a co-dirigé ces travaux. Ces chercheurs ont bon espoir de parvenir à induire une réponse immunitaire systémique, en activant notamment des cellules B et T. Cette approche pourrait également être utilisée pour créer des traitements ciblés pour les maladies gastro-intestinales, qui sont difficiles à traiter par injection traditionnelle sous-cutanée. L’arrivée, d’ici quelques années, de ces vaccins ingérables, tout comme l’arrivée prochaine de vaccins sous forme de spray, devrait permettre d’étendre et de faciliter la vaccination, notamment dans les pays en développement, car ces types de vaccins se conservent bien plus facilement et beaucoup de personnes, réfractaires aux piqures, acceptent l’idée d’un vaccin par voie orale ou nasale. Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| L’impression d’organes 3D, ou bio-impression, est développée depuis plusieurs années par différents laboratoires dans le monde, notamment pour pallier le manque de donneurs d’organes. Mais ces recherches pourraient avoir des applications plus inattendues… dans l’espace. La NASA avait lancé en 2016 un concours : le Vascular Tissue Challenge. L’objectif était de créer un tissu humain épais et vascularisé pouvant survivre pendant 30 jours. En juin dernier, deux équipes gagnantes ont été désignées. C’est le Wake Forest Institute for Regenerative Medicine (WFIRM) qui a raflé les deux premiers prix dotés de 300 000 et 100 000 dollars. « Un accomplissement impressionnant » estime Jim Reuter, administrateur associé de la NASA pour la technologie spatiale dans le communiqu&eac ute; de presse de la NASA. « Lorsque la NASA a lancé ce défi en 2016, nous n’étions pas sûrs qu’il y aurait un gagnant ». Si la NASA finance ce type de projet, c’est parce qu’il pourrait aider les astronautes lors de futures missions dans l’espace lointain. L’application la plus évidente est la possibilité pour les futurs voyageurs de l’espace d’imprimer eux-mêmes divers tissus et organes humains en cas de besoin, à partir des propres cellules des astronautes de la mission pour éviter les risques de rejet. Mais une autre application de ces travaux consiste à la préparation de ces missions au long court. En effet, on ne sait pas comment vont se comporter les organes humains confrontés aux conditions spatiales pendant de longues périodes de temps. L’étude de la physiologie dans l’espace était déjà au cœur des préoccupations, mais avec le développement de missions annoncées vers la Lune ou Mars, elle devient de plus en plus cruciale. En étudiant ces tissus bio-imprimés dans l’espace, il sera possible d’analyser les conséquences de ce milieu sur le corps humain, sans risque pour les astronautes. Ces tissus modèles pourront être utilisés pour étudier comment l’exposition aux rayonnements affecte le corps humain, documenter le fonctionnement des organes en microgravité et développer des stratégies pour minimiser les dommages aux cellules saines tout en vivant ou en travaillant dans l’espace. L’équipe Winston, la première des deux équipes à terminer ses travaux selon les règles du défi, en plus de recevoir 300 000 dollars, aura la possibilité de faire avancer ses recherches à bord du laboratoire national américain de la Station spatiale internationale (ISS). Il ne s’agira pas de la première société à tester des organes bio-imprimés dans l’ISS. En 2019, l’astronaute Christina Koch a installé le premier système capable de fabriquer des tissus humains dans les conditions de microgravité de l’espace, créé par la société américaine Techshot. Ce projet de recherche avait des objectifs similaires à ceux du Vascular Tissue Challenge de la NASA, sauf qu’au lieu d’imprimer en 3D du tissu hépatique, il s’agissait de tissu cardiaque transplantable. De son côté, l’Agence Spatiale Européenne (ESA) travaillait déjà en 2019 sur un procédé de bio-impression de tissus humains, en collaboration avec l’hôpital de l’Université Technique de Dresden et l’entreprise Blue Horizon. Et à n’en pas douter, d’autres projets suivront. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| On sait depuis plusieurs années que les affections cardiovasculaires finissent par entraîner un dysfonctionnement cérébral précoce qui peut tripler les niveaux de bêta-amyloïde, une protéine clé de la maladie d’Alzheimer. Mais une nouvelle étude anglaise réalisée par des neurologues de l’Université de Sheffield vient de confirmer le rôle précoce des pathologies vasculaires qui, dès la quarantaine, pourraient provoquer une rupture du couplage neurovasculaire, un mécanisme important dans notre cerveau qui contrôle la quantité de sang fournie à nos neurones et en fonction de leurs besoins. Ce découplage signifie en clair que le cerveau ne reçoit pas assez d’oxygène et, qu’avec le temps, cela conduit à la démence. Cette pathologie cardiaque pourrait induire un dysfonctionnement cérébral qui pourrait conduire à la démence avant même l’accumulation de plaques dans les vaisseaux sanguins du cerveau : le sang ne pourrait alors plus atteindre les neurones qui en ont besoin. Enfin, la recherche révèle également que la combinaison de la maladie cardiaque et d’un gène clé de la maladie d’Alzheimer triple la quantité d’une protéine favorisant le développement de « l’Alzheimer ». Ces travaux confirment un lien plus direct entre les maladies cardiaques et un dysfonctionnement cérébral à un stade précoce, qui favoriserait la démence et triplerait les niveaux de protéine toxique dans le cerveau. Par quel processus ? La maladie cardiaque provoque la « panne » d’une fonction cérébrale clé qui relie l’activité cérébrale et le flux sanguin, ce qui signifie que le cerveau reçoit moins de sang pour la même quantité d’activité. Cette panne se produit chez les patients cardiaques avant même l’accumulation de graisse dans les vaisseaux sanguins du cerveau (athérosclérose) et précède la démence. Jusqu’à présent, on ignorait comment et pourquoi certaines formes de démence vasculaire peuvent survenir des années avant l’apparition de l’athérosclérose dans le cerveau. La combinaison d’une maladie cardiaque et d’une prédisposition génétique à la maladie d’Alzheimer triple la quantité de bêta-amyloïde, une protéine qui s’accumule et déclenche la maladie d’Alzheimer, et augmente les niveaux d’un gène inflammatoire (IL1) dans le cerveau. Selon le Docteur Osman Shabir, qui a dirigé ces recherches, ces nouvelles découvertes approfondissent considérablement la compréhension des liens entre les maladies cardiaques et la démence : « les maladies cardiaques à la quarantaine provoquent la rupture du couplage neurovasculaire, un mécanisme important dans notre cerveau qui contrôle la quantité de sang fournie à nos neurones. Cette panne signifie que le cerveau ne reçoit pas assez d’oxygène en cas de besoin et, avec le temps, cela conduit à la démence ». Sur le plan thérapeutique, un médicament contre l’arthrite qui cible l’IL1 est actuellement en cours de test. L’objectif est de valider sa capacité à inverser ou réduire le dysfonctionnement cérébral causé par une maladie cardiaque. Enfin, ces travaux conf irment que les lésions cérébrales peuvent également aggraver la régulation du flux sanguin cérébral, suggérant des mécanismes par lesquels des blessures ou des chutes pourraient également favoriser le développement de démences. Article rédigé par Georges Simmonds pour RT Flash eLife | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|