| | Edito Les technologies de rupture de 2023 selon le MIT…
Comme chaque année, le prestigieux Institut de Technologie du Massachusetts de Boston (MIT), vient de révéler la liste des principales innovations qui, selon lui, vont s’imposer au cours de cette année 2023 (Voir MIT Technology Review). On remarque, comme cela est le cas depuis déjà plusieurs années, que le MIT fait la part belle aux avancées concernant la biologie et les biotecch ; viennent ensuite les progrès concernant le domaine de l’énergie, des transports et enfin des technologies spatiales, avec le télescope James Webb. Cette année, le MIT salue l’outil d’édition génomique CRISPR pour l’hypercholestérolémie. Découvert en 2012 par les biologistes Jennifer Doudna et Emmanuelle Charpentier, cet outil d’édition de gènes CRISPR a rapidement évolué du laboratoire à la clinique. Il s’est d’abord attaqué aux traitements expérimentaux pour des maladies génétiques rares et s’est récemment étendu à des essais cliniques concernant des pathologies beaucoup plus courantes, cancers et maladies cardiaques. L’année dernière, une femme néo-zélandaise est devenue la première à recevoir un traitement d’édition de gènes pour abaisser définitivement son taux de cholestérol. Cette patiente souffrait d’une maladie cardiaque, mais aussi d'un risque hérédit aire d’hypercholestérolémie. Elle a bénéficié d’un traitement hypocholestérolémiant, développé par Verve Therapeutics, qui repose sur une forme d’édition de gènes appelée édition de base, ou "CRISPR 2.0". Il s’agit d’une approche plus ciblée et plus sûre, qui permet d’échanger une seule base d’ADN contre une autre. Une forme encore plus récente de CRISPR pourrait aller encore plus loin, l’édition principale – ou "CRISPR 3.0", qui permet aux scientifiques d’insérer des morceaux d’ADN dans un génome. Cette nouvelle déclinaison de CRISPR pourrait permettre aux scientifiques de remplacer de manière précise et sûre les gènes défectueux ou pathogènes, impliqués dans de multiples maladies, dont le cancer. Autre innovation dans le domaine de la biologie, les organes à la demande. Chaque jour, une moyenne de 17 personnes aux États-Unis meurent en attendant une greffe d'organe. Pourtant, ces personnes pourraient être sauvées si nous disposions d’organes en nombre suffisant. C’est pourquoi des scientifiques américains travaillent sur des porcs génétiquement modifiés dont les organes pourraient être transplantés chez l'homme, sans risques de rejet ou d’infection. Pendant deux mois l'année dernière, un homme de 57 ans, David Bennett a vécu avec un cœur de porc, avant malheureusement de décéder. On estime à 130 000, le nombre annuel de greffes d'organes dans le monde, mais beaucoup plus de personnes meurent en attendant un organe ou parce qu'elles n'ont même jamais été inscrites sur une liste d'attente de greffe. Face à cette situation, les organes d'animaux sont une solution potentielle. Mais il n'est pas facile de surmonter les phénomènes de rejets du corps humain contre ces organes exogènes. Les recherches s’orientent donc sur le recours à l'édition de gènes pour modifier les porcs, de manière à pouvoir obtenir des organes parfaitement compatibles avec l’organisme humain. À l'avenir, l'ingénierie des organes pourrait également passer par la fabrication directe à partir de cultures cellulaires. C’est tout l’intérêt des "organoïdes", des organes en réduction, produits à partir de cellules souche s pour reproduire les véritables organes humains. Depuis peu, la biologie est également capable d’analyser avec une précision inédite des ADN très anciens, même abimés et le MIT a retenu cette avancée dans sa liste de 2023. De nouveaux outils de séquençage génomique nous permettent maintenant de lire de très vieux brins d’ADN humain, ce qui ouvre des perspectives complètement nouvelles dans la compréhension de l’évolution des pathologies et du rôle de nos gènes. Ces nouvelles méthodes sont si puissantes qu’elles permettent l’analyse de traces microscopiques d’ADN provenant de nos lointains cousins Néandertaliens. En novembre, le paléogénéticien Svante Pääbo, généticien à l’Institut Max Planck, a d’ailleurs obtenu le Nobel de Médecine, pour avoir développé ces nouveaux outils qui rév olutionnent notre connaissance de l’évolution des organismes vivants. Ce grand scientifique est notamment parvenu à analyser de très anciens fragments d’ADN, à découvrir deux espèces éteintes d’humains – Homo luzonensiset Denisovans – et nous a appris que les humains modernes portent une quantité substantielle d’ADN de Denisova et de Néandertal. L’année dernière, une étude a pu montrer qu’une une seule mutation a rendu la population européenne 40 % plus susceptible de survivre à la peste noire du XIVème siècle. Mais cette résilience accrue a eu, comme toujours en matière d’évolution, un prix : cette mutation favorable à une époque est devenue plus tard un facteur de risque pour les maladies auto-immunes, comme la maladie de Crohn. Dans le domaine des sciences de l’information, le MIT récompense cette année l’incroyable avancée que constitue la génération d’images complexes par des IA. Les modèles logiciels développés par Google, OpenAI et d’autres peuvent désormais générer des œuvres d’art époustouflantes, basées seulement sur quelques indications textuelles. Il suffit de taper une courte description d’à peu près n’importe quoi, et vous obtenez, en quelques secondes, une image, souvent bluffante. L’outil DALL-E 2, développé par OpenAI, est ouvert au grand public depuis avril 2022, et il est si puissant qu’il est capable depuis peu de compléter de manière très pertinente une image ou un tableau, en imaginant leur contexte invisible. Google a également lancé sa propre IA de création d’i mages, appelée Imagen. Il faut aussi évoquer l’outil Stable Diffusion, un modèle de synthèse d’image open source publié gratuitement par la start-up britannique Stability AI en août dernier. Non seulement Stable Diffusion peut produire des images étonnantes de réalisme, mais il a été conçu pour fonctionner sur un ordinateur personnel. En rendant cet outil accessible à tous, Stability AI a fait exploser la créativité numérique. Des millions de personnes ont créé des dizaines de millions d’images en quelques mois seulement. Cette technologie est maintenant intégrée dans des logiciels commerciaux, tels que Photoshop. Les artistes d’effets visuels et les studios de jeux vidéo se sont également emparés de ces outils et la technologie de synthèse d’images a déjà évolué vers la synthèse text e-vidéo. Au rythme où progresse cette technologie, les studios d’Hollywood se prennent à rêver d’un futur, peut-être pas si lointain, où il deviendra possible de réaliser des films, simplement en introduisant un script dans un ordinateur. L’électronique est également à l’honneur, avec l’apparition d’un standard ouvert populaire appelé RISC-V, qui bouleverse la conception des puces. Les géants du secteur, comme Intel ou AMD, ont longtemps gardé leurs architectures propriétaires. Les clients achetaient des puces prêtes à l'emploi, qui avaient des capacités souvent sans rapport avec leur produit. Mais avec l’arrivée de RISC-V, une norme ouverte, n'importe qui peut à présent concevoir facilement une puce, personnalisée et performante. RISC-V spécifie les normes de conception pour le jeu d'instructions d'une puce informatique. Ce jeu d'instructions décrit les opérations de base qu'une puce peut effectuer pour modifier les valeurs représentées par ses transistors, par exemple, comment ajouter deux nombres. RISC-V propose également d'autres normes de conception pour les entreprises à la recherche de puces aux capacités plus complexes. Environ 3 100 acteurs dans le monde, y compris des entreprises et des institutions académiques, collaborent désormais à l’amélioration et à la standardisation de cet outil. En février 2022, Intel a annoncé un fonds d'un milliard de dollars qui soutiendra les entreprises qui construisent des puces RISC-V. Les puces RISC-V ont déjà fait leur apparition dans les écouteurs, les disques durs et les processeurs AI, avec 10 milliards de cœu rs déjà produits. Dans quelques années, ces puces RISC-V seront partout. Autre innovation repérée par le MIT, l’apparition en nombre de drones militaires performants et bon marché. Autrefois hors de portée des petites nations en raison de leur complexité et de leur coût (C’était le cas du Predator et du Reaper, américain, qui ont dominé le marché des drones de combat pendant des décennies), ces drones militaires de nouvelle génération sont à présent fabriqués à partir de composants grand public, à des prix qui les rendent accessibles à tous les pays, mais également à des organisations criminelles. L’exemple emblématique de cette rupture stratégique est le Bayraktar TB2 turc, largement utilisé dans les récents conflits, en Arménie et en Ukraine. On a également pu voir le rôle joué par les drones explosifs Shahed de fabrication iranienne (pour un coût de seulement 30 000 dollars), que la Russie a utilisés pour attaquer des cibles à Kiev. Quant au désormais fameux Bayraktar TB2 (5 millions de dollars l’unité), fabriqué par la société turque Baykar, il affiche des capacités remarquables. Il se déplace à des vitesses allant jusqu'à 200 km/heure, et peut rester en l'air pendant 27 heures. Lorsqu'il est associé avec des caméras qui peuvent partager des vidéos avec des stations au sol, le TB2 devient un outil puissant pour à la fois cibler les bombes à guidage laser transportées sur ses ailes et téléguider les tirs d'artillerie depuis le sol. L'armée turque utilise ces redoutables drones contre les Kurdes depuis 2016. Ces engins polyvalents ont égalemen t été utilisés en Libye, en Syrie et en Éthiopie, ainsi que par l'Azerbaïdjan lors de sa guerre contre l’Arménie. L'Ukraine en a acheté six en 2019 pour des opérations militaires dans le Donbass, mais ces drones ont attiré l'attention du monde au début de 2022, lorsqu'ils ont été utilisés contre l’armée russe. Le MIT a également distingué les nouvelles techniques de recyclage des batteries, qui devraient, selon lui, accélérer sensiblement la montée en puissance des véhicules électriques. Jusqu’à récemment, les méthodes de traitement des batteries usagées avaient du mal à récupérer de manière fiable et rentable des quantités suffisantes des différents métaux entrant dans la composition des batteries, aluminium, cuivre, nickel, manganèse, cobalt, lithium, molybdène. Mais grâce à de nouvelles techniques de séparation chimique fine, les installations de recyclage peuvent désormais récupérer la quasi-totalité du cobalt et du nickel et plus de 80 % du lithium des batteries usagées. Résultat, les entreprises de recyclage prévoient de revendre ces métaux à un prix presque compétitif par rapport à celui des matériaux extraits. Le MIT souligne que la Chine est aujourd'hui le leader mondial du recyclage des batteries, dominé par des filiales de grandes entreprises de batteries comme CATL. Face à cette situation, l'UE est en train de faire adopter un ambitieux cadre réglementaire, imposant un haut niveau de recyclage à tous les constructeurs de batteries. Les dernières prévisions de BloombergNEF prévoient plus de 70 millions d'immatriculations annuelles de voitures électriques en 2040, soit près de 90 % du marché. La demande de batteries devrait donc croître de façon exponentielle pendant des décennies et, face à l’épuisement accéléré des ressources en lithium, ces nouveaux outils de recyclage devraient contribuer à satisfaire cette énorme demande. La dernière innovation, mais non la moindre, reconnue par le MIT cette année, est le désormais célèbre télescope spatial James Webb - JWST- dont les images à couper le souffle du cosmos lointain ne cessent de susciter l'émerveillement des scientifiques et du grand public. Lancé en décembre 2021, au terme de trente ans de recherche, le télescope spatial James Webb, résultant d’une fructueuse collaboration entre les États-Unis, l'Europe et le Canada, est le plus grand télescope jamais envoyé dans l'espace. Il est 100 fois plus puissant que son prédécesseur, le télescope spatial Hubble. Il est également spécialement conçu pour détecter le rayonnement infrarouge, ce qui lui permet de voir à travers la poussière et de regarder loin dans le temps jusqu'à une période où les premières &eacu te;toiles et galaxies de l'Univers se sont formées. Parmi les exploits réalisés au cours de la mise sur orbite de cet engin extraordinaire, à plus d’un million et demi de km de la Terre, il faut évoquer le déploiement d’un pare-soleil aussi grand qu'un court de tennis pour protéger son miroir et ses instruments de la chaleur et de la lumière du soleil. Le JWST vient d’observer, il y quelques jours, six galaxies géantes qui existaient déjà seulement 500 millions d’années après le big bang, ce qui est en contradiction avec toutes les théories cosmologiques et va obliger les astrophysiciens à une profonde remise en question théorique de l’évolution de notre Univers. Il y a quelques semaines, ce magnifique instrument a également détecté, dans un nuage ultrafroid de gaz, situé à 500 années-lumière de la Terre, la présence de molécules organiques complexes, qui, elles aussi, n’auraient pas dû s’y trouver, ce qui relance le fascinant débat scientifique des conditions d’émergence de la vie dans le Cosmos. Le MIT souligne, à juste titre, que ces remarquables innovations de rupture n’ont été possibles que dans le cadre d'une stratégie de recherche à long terme, d’une coopération interdisciplinaire exemplaire et d’un partenariat fécond entre secteur public et privé. Souhaitons que ce bel élan scientifique se poursuive, car notre planète, confrontée à d’immenses défis, dont le changement climatique, la lutte contre de nouvelles et meurtrières pandémies, ou le vieillissement inexorable de la population, a plus que jamais besoin de grandes avancées conceptuelles et d’innovations technologiques de rupture… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Nanotechnologies et Robotique | |
| | | Une nouvelle étude dirigée par Sameh Tawfick, professeur de sciences mécaniques et d’ingénierie, présente une série de robots de la taille d’un hanneton, suffisamment petits pour s’intégrer dans des espaces restreints, suffisamment puissants pour manœuvrer au-dessus des obstacles et suffisamment rapides pour s’adapter au temps de fuite rapide d’un insecte. Des chercheurs de l’Université de l’Illinois et de l’Université de Princeton ont étudié l’anatomie, la mécanique et l’évolution du ténébrion au cours de la dernière décennie. Une étude réalisée en 2020 a révélé que le flambage – la libération rapide de l’énergie élastique – d’un muscle enroulé dans le thorax du ténébrion est déclenché pour permettre à ce dernier de se propulser dans l’air sur plusieurs fois la longueur de son corps, afin de se redresser s’il se retourne sur le dos. « L’un des grands défis de la robotique à petite échelle est de trouver une conception qui soit à la fois petite et suffisamment puissante pour contourner les obstacles ou s’échapper rapidement de situatio ns dangereuses », a déclaré Tawfick. Dans cette étude, Tawfick et son équipe ont utilisé de minuscules actionneurs enroulés – analogues aux muscles des animaux – qui tirent sur un mécanisme en forme de poutre, le faisant lentement se déformer et stocker de l’énergie élastique jusqu’à ce qu’elle soit spontanément libérée et amplifiée, propulsant les robots vers le haut. « Ce processus, appelé cascade de flambage dynamique, est simple par rapport à l’anatomie d’un ténébrion », a déclaré Tawfick. « Cependant, la simplicité a du bon dans ce cas, car elle nous permet de travailler et de fabriquer des pièces à cette petite échelle ». Guidée par l’évolution biologique et les modèles mathématiques, l’équipe a construit et testé quatre variantes du dispositif, atterrissant sur deux configurations qui peuvent sauter avec succès sans intervention manuelle. « Pour l’avenir, nous n’avons pas d’approche définie sur la conception exacte de la prochaine génération de ces robots, mais cette étude plante une graine dans l’évolution de cette technologie – un processus similaire à l’évolution biologique », a déclaré Tawfick. L’équipe imagine ces robots accéder à des espaces restreints pour aider à effectuer la maintenance de grandes machines comme les turbines et les moteurs à réaction, par exemple en prenant des photos pour identifier les problèmes. Article rédigé par Georges Simmonds pour RT Flash PNAS | | ^ Haut | |
|
| | | Le défi était de taille : concilier photosynthèse et photovoltaïque. Une jeune pousse basée en Suisse – Insolight – l’a pourtant relevé, en développant une ingénieuse solution permettant de combiner, sur une même surface cultivable, production d’électricité solaire et production végétale. Baptisé Insolagrin et adapté à la culture sous serre ou sous ombrières en plein champ, le dispositif est le fruit d’un parcours entrepreneurial débuté en 2015 par trois diplômés de l’École polytechnique fédérale de Lausanne (EPFL). « Nous avions tous les trois, dès le départ, un vrai intérêt pour l’énergie solaire. Nous voulions avant tout trouver un moyen d’améliorer le rendement de la production d’électricité par les panneaux photovoltaïques. Et puis au fil du temps, l’agrivoltaïsme est apparu à nos yeux comme un marché intéressant, auquel nous pourrions apporter notre contribution », retrace Mathieu Ackermann, directeur technique et cofondateur d’Insolight aux côtés de Laurent Coulot et de Florian Gerlich. Les trois néo-entrepreneurs ont ainsi entamé un important travail de R&D axé, au départ, sur une technologie de concentration des rayons du soleil sur les cellules photovoltaïques à l’aide de lentilles. Après avoir fait ses preuves dans le cadre d’installations pilotes, l’approche a toutefois été mise de côté au profit d’une solution plus compétitive, basée quant à elle sur un système d’écran réfléchissant. « Après évaluation, cette solution nous est apparue comme plus avantageuse sur tous les plans, notamment au niveau de son coût et de ses performances. De plus, la technologie rep ose sur des éléments, notamment l’écran réfléchissant, qui peuvent être fournis par des acteurs bien connus des agriculteurs, qui ont déjà une bonne réputation auprès d’eux », explique Mathieu Ackermann. Un écran réfléchissant est devenu ainsi la clé de voûte de la solution développée par Insolight. Rétractable, il peut en effet être déployé au-dessus des cultures pour les protéger d’un excès de lumière, tout en renvoyant alors les rayons du soleil vers des panneaux solaires. Et en cas de baisse de luminosité, l’écran peut aussi, à l’inverse, être en partie ou totalement replié pour permettre aux plantes de bénéficier d’un éclairement maximal. Un astucieux dispositif qui ne serait rien, toutefois, sans des panneaux solaires d’un genre un peu particulier. Installés en lieu et place des vitres formant le toit de la serre, les panneaux photovoltaïques reçoivent en effet par le dessous le surplus de lumière réfléchie par l’écran lorsqu’il est déployé au-dessus des cultures. Pour en tirer parti, leur face inférieure doit donc elle aussi être capable de convertir l’énergie solaire en électricité. Et à cela s’ajoute un autre impératif, celui de la transparence : les rayons du soleil doivent également pouvoir atteindre les plantes. Une quadrature du cercle – à première vue – qu’Insolight est pourtant parvenue à résoudre grâce à des panneaux dits "bifaciaux" et en partie transparents. « Notre solution Insolagrin repose, outre l’écran réfléchissant, sur des modules solaires silicium que no us appelons THEIA. Ils sont semi-transparents, et ce grâce à des espaces ménagés entre les cellules, qui laissent donc passer une grande partie de la lumière, autour de 60 % », décrit Mathieu Ackermann. « Ces modules sont aussi bifaciaux, c’est-à-dire qu’ils sont capables de collecter la lumière à la fois sur leur face avant et sur leur face arrière », poursuit le directeur technique de la jeune pousse suisse. De quoi obtenir un rendement jusqu’à 30 % supérieur à celui de panneaux conventionnels, notamment en hiver. Insolight estime ainsi à environ 700 kW par hectare la puissance moyenne qu’une installation sera capable d’atteindre. Outre la partie matérielle constituée par cette ingénieuse combinaison de panneaux photovoltaïques bifaciaux semi-transparents et d’un écran réfléchissant amovible, Insolight a concentré une autre partie de ses efforts sur la partie logicielle. Une brique technologique tout aussi indispensable au bon fonctionnement d’Insolagrin, comme le dévoile Mathieu Ackermann : « Nous avons développé un système de pilotage de l’écran réfléchissant basé sur les données fournies par des capteurs de lumière, de température et d’humidité installés auprès des plantes. Une boucle de rétrocontrôle permet d’automatiser le déploiement de l’écran et d’en déterminer la surface. Insolagrin est ainsi une solution d’agrivoltaïsme dynamique&nbs p;». Désormais mature, la technologie développée par Insolight se dirige vers un déploiement à grande échelle, notamment au profit des producteurs de baies et autres petits fruits tels que fraises, framboises ou encore myrtilles. « Ces cultures ont besoin d’ombrage mais aussi d’une protection contre les aléas comme la pluie ou la grêle, ce que permet justement Insolagrin », souligne Mathieu Ackermann, qui n’exclut par ailleurs pas d’autres cibles : arboriculture – pommiers, abricotiers… – ou encore viticulture. Insolight travaille ainsi actuellement sur une quarantaine de projets de déploiement de sa solution d’agrivoltaïsme dynamique. En Suisse, certes, mais aussi en France, en Allemagne et en Italie. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| La lumière contient de l’énergie et de la quantité de mouvement qui peuvent toutes deux être utilisées pour diverses manipulations optiques, telles que la lévitation et la rotation. Au cours des dix dernières années, la traction optique de micro- et nano-objets (cellules, atomes, nanoparticules, etc.) a ainsi été démontrée à plusieurs reprises. Elle est même souvent utilisée aujourd’hui en biologie et en nanotechnologie. La traction optique d’un objet macroscopique, en revanche, est bien plus complexe à mettre en œuvre, car elle nécessite évidemment beaucoup plus de puissance. Une équipe de l’Université des sciences et technologies de QingDao, en Chine, annonce avoir réussi cette prouesse et présente son faisceau tracteur dans la revue Optics Express. « Dans les études précédentes, la force de traction de la lumière était trop faible pour tirer un objet macroscopique. Avec notre nouvelle approche, la force de traction a une amplitude beaucoup plus grande. En fait, elle est supérieure de plus de trois ordres de grandeur à la pression lumineuse utilisée pour entraîner une voile solaire, qui utilise l’impulsion des photons pour exercer une petite force de poussée », a déclaré Lei Wang, premier auteur de l’étu de. Le faisceau tracteur conçu par Wang et ses collaborateurs est parvenu à déplacer un objet composite à base de graphène et de silice (SiO2) : la couche avant était faite de graphène réticulé et la couche arrière de SiO2. Ce matériau a été utilisé sur un pendule de torsion, via lequel les chercheurs ont pu démontrer le phénomène de traction laser d’une manière visible à l’œil nu. Ils ont également utilisé un pendule gravitationnel pour mesurer quantitativement la force de traction du laser ; les deux dispositifs mesuraient environ cinq centimètres de long. Lorsque l’objet est irradié par un faisceau laser, les molécules de gaz situées à l’arrière de l’objet reçoivent plus d’énergie et donc, "poussent" l’objet vers la source lumineuse. Cet effet, combiné avec la faible pression (5 Pa) de l’environnement dans lequel a été réalisée l’expérience, induit un déplacement de l’objet. La force de traction (0,8 µN) était nettement supérieure à la pression de rayonnement (environ 0,28 nN) ; elle peut en outre être ajustée en modifiant la puissance du laser. Précisons néanmoins que l’objet composite a été spécialement conçu pour l’expérience et que celle-ci s’est déroulée dans des conditions de laboratoire bien spécifiques (à faible pression atmosphérique). Si l’efficacité de ce faisceau tracteur sur Terre est pour le moment compromise, il pourrait en revanche s’avérer utile sur d’autres planètes : « L’environnement de gaz raréfié que nous avons utilisé pour démontrer la technique est similaire à ce que l’on trouve sur Mars. Par conséquent, elle pourrait avoir le potentiel de manipuler un jour des véhicules ou des avions sur Mars », explique Wang. Leur étude constitue une preuve de faisabilité convaincante. « Notre travail démontre que la manipulation flexible d’un objet macroscopique par la lumière est réalisable lorsque les interactions entre la lumière, l’objet et le milieu sont soigneusement contrôlées », a déclaré Wang. Cette étude a également mis en évidence la complexité des interactions laser-matière et le fait que de nombreux phénomènes sont encore loin d’être totalement compris, tant à l’échelle macro que micro, ajoute-t-il. Article rédigé par Georges Simmonds pour RT Flash Optica | | | |
| Les batteries lithium métal polymère présenteraient de nombreux avantages. D’abord, une densité d’énergie élevée dans des batteries plus minces et moins lourdes, associée à une amélioration importante de la sécurité grâce à l’utilisation d’un polymère non volatil. De plus, l’électrolyte polymère permet de sceller l’ensemble électrode/électrolyte et assure ainsi une bonne qualité de l’interface. Par conséquent, les coûts de production se voient diminués par une facilité de fabrication via des procédés automatisés d’extrusion. Le tout fourni par une technologie plus verte du fait de l’élimination des solvants organiques volatils. Le développement de nouvelles familles d’électrolytes polymères, et notamment les copolymères à blocs polyanioniques, ouvre des perspectives importantes en permettant de cumuler différentes propriétés (mécanique, conductivité, nombre de transports, stabilité électrochimique…) en jouant sur la nature chimique des blocs. Pour rassembler dans un même matériau une bonne conductivité et une bonne tenue mécanique, une solution évidente est de mélanger deux polymères. Or, peu de polymères sont miscibles entre eux. Cela entraîne par exemple une hétérogénéité des propriétés physico-chimiques de l’électrolyte. Pour s’affranchir de ce problème, la réalisation d’électrolytes à base de copolymères à blocs a donné des résultats très prometteurs. En effet, au sein de ces macromolécules, les polymères de natures distinctes sont reliés entre eux par des liaisons covalentes. Cela permet d’avoir une combinaison synergique des propriétés des polymères constituant les divers blocs. Quels que soient la structure (dibloc ou tribloc) et le type d’architecture (greffés ou linéaires), les électrolytes des copolymères à blocs ont des valeurs de conductivité comprises entre 10–2 et 10–3 S/m à 40 oC, avec une tenue mécanique plus ou moins grande selon la composition du copolymère. Cependant, ces systèmes présentent une forte limitation en puissance due au faible nombre de transports des ions lithium Li+, appelé t+ (t+ < 0,3). Durant la décharge de la batterie, les cations lithium sont consommés à l’électrode positive et produits à l’électrode négative, créant ainsi aux interfaces des excès de charges (positive à l’électrode négative et négative à l’électrode positive). Pour compenser ce phénomène, les anions mobiles diffusent de l’électrode positive vers l’électrode négative, ce qui entraîne la formation d’un gradient de concentration de sel au sein de l’électrolyte. Ce gradient de concentration conduit à une polarisation de concentration et à un courant de diffusion qui limite la puissance des batteries. La charge doit donc être faite à des courants faibles… Un problème résolu en attachant les anions sur les chaînes du polymère hôte afin de les immobiliser et de tendre ainsi idéalement vers un t+ de 1. Dans ces conditions, le transport des ions ne se fait plus par diffusion-migration, mais uniquement par migration. Il n’y a alors plus de courant limite de diffusion. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | ^ Haut | |
|
| | | La NASA a annoncé un partenariat avec le Pentagone pour développer une fusée propulsée à l'énergie nucléaire destinée à envoyer des humains sur Mars en seulement un mois et demi. Le patron de l'agence spatiale, Bill Nelson, a déclaré s'associer avec l'agence de recherche de l'armée américaine, DARPA, pour développer et tester une technologie avancée de propulsion nucléaire thermique dès 2027. Actuellement, avec les ergols "classique", la durée du trajet vers la planète rouge serait d’à peu près 6 mois. Si tout se passe bien, un tel engin pourrait déjà devenir opérationnel pour 2027. Après le projet Artemis dont l’objectif est de ramener l’Homme sur la Lune, la NASA continue son avancée avec la mise au point d’un moteur à énergie nucléaire. Pour ce projet permettant de rejoindre Mars plus rapidement, l’Agence spatiale américaine s’est associée à la Defense Advanced Research Projects Agency (DARPA), le département du Pentagone chargé de la recherche et du développement des nouvelles technologies militaires. Ce n’est pas la première fois que la NASA se lance dans le moteur à énergie nucléaire. Il y a plus de 60 ans, en 1959 exactement, l’agence spatiale américaine a débuté des recherches qui ont abouti à la construction d’un moteur thermique nucléaire appelé NERVA. À l’époque, l’objectif de ce moteur était déjà de pouvoir équiper des engins spatiaux en vue d’envoyer des équipages vers la planète Mars. Il était basé sur l’éjection à vitesse très élevée d’hydrogène chauffé par un réacteur nucléaire. Malgré des essais au sol convaincants, le projet est abandonné en raison de la nécessité de réduire les dépenses ap rès les coûteuses missions Apollo. Par rapport aux moteurs classiques actuels des fusées, les moteurs nucléaires possèdent l’avantage de pouvoir fonctionner de manière bien plus efficace et bien plus longtemps, permettant ainsi de voyager dans l’espace plus rapidement. Actuellement, les technologies de propulsion utilisées dans les moteurs-fusées pourraient permettre de rejoindre la planète Mars en un temps minimum de 6 mois. Pour l’équipage embarqué à bord d’un vaisseau, cela risque de devenir difficile aussi bien physiquement que psychologiquement, sans compter la masse de carburant à emporter qui a été estimée à 33 tonnes ! La propulsion chimique est le mode de propulsion actuel utilisé dans les moteurs des fusées. Dans ce type de propulsion, un comburant mélangé à un combustible inflammable crée une réaction chimique d’oxydoréduction produisant un gaz. C’est la masse de gaz produite par la réaction et éjectée par la tuyère à très grande vitesse qui crée la force de poussée permettant à la fusée de décoller. Le comburant et le combustible forment les ergols et le mélange des deux est appelé propergol. Par exemple, dans le cas de la fusée Ariane 5, les ergols sont l’oxygène liquide et l’hydrogène liquide et le propergol est le mélange oxygène-hydrogène. Dans le cas de la propulsion nucléaire, il existe deux grands types de moteurs nucléaires pouvant être utilisés pour équiper des engins spatiaux et des fusées : les réacteurs à propulsion nucléaire électrique (NEP) et les réacteurs à propulsion nucléaire thermique (NTP). Les NEP fonctionnent globalement en produisant de l’électricité qui arrache des électrons à des atomes de gaz rares comme le xénon ou le krypton. Les ions produits sont alors accélérés par un champ électromagnétique et expulsés du propulseur sous la forme d’un faisceau d’ions générant une force de poussée. Les NTP utilisent la chaleur dégagée par la fission nucléaire pour chauffer de l’hydrogène ou de l’ammoniac liquide. Ces substances se transforment alors en gaz, se dilatent en augmentant la pression qui est canalisée par la tuyère en produisant une force de poussée. Pour rejoindre Mars en 45 jours, les ingénieurs de la NASA étudient la technologie de propulsion nucléaire bimodale qui combine la propulsion nucléaire électrique et la propulsion nucléaire thermique afin de tirer parti des avantages des deux méthodes. Au contraire de la propulsion chimique classique, la propulsion nucléaire, qu’elle soit NEP ou NTP, offre une impulsion spécifique plus importante ainsi qu’un rendement énergétique bien meilleur. L’impulsion spécifique (Isp) représente le temps durant lequel une masse de 1 kg de propergol produit une force de poussée de 9,81 Newton. Elle s’exprime en secondes. Plus l’impulsion est élevée et plus la poussée du moteur dure dans le temps. La propulsion nucléaire thermique permet de produire une impulsion spécifique de 900 secondes, ce qui représente à peu près le double de l’impulsion produite par les moteurs à propulsion chimique. Quant à la propulsion nucléaire électrique, elle peut fournir une impulsion spécifique de 10 000 secondes permettant ainsi de maintenir une poussée pendant très longtemps (3 heures). En combinant les deux technologies associées à un rotor à ondes, les chercheurs pourront fournir au moteur-fusée une poussée proche de celle de la propulsion nucléaire thermique (NTP) avec une Isp de 1400 à 2000 secondes et de la propulsion nucléaire électrique avec une Isp supplémentaire de 1800 à 4000 secondes. Le rotor à ondes permettra d’utiliser la pression produite par le chauffage de l’hydrogène liquide pour le comprimer encore plus et augmenter ainsi la poussée. Au final, ce moteur à énergie nucléaire bimodal NTP/NEP sera au moins trois fois plus efficace que les moteurs-fusées classiques et permettra de réduire la durée du vol vers Mars de 6 mois à 1,5 mois. Article rédigé par Georges Simmonds pour RT Flash NASA | | | |
| Des scientifiques travaillant avec le télescope spatial James-Webb ont annoncé la découverte d’un ensemble étonnant de molécules glacées cachées dans le nuage. Il ne s'agit pas de simples molécules mais du genre de briques interstellaires qui, un jour, fusionneront pour former la prochaine génération d'étoiles et de planètes, et qui pourraient même mener à l'apparition de la vie telle que nous la connaissons. En plus d’éléments tels que le dioxyde de carbone, l'ammoniac et l'eau gelés, James-Webb a également réussi à détecter des preuves de ce que l'on appelle des « molécules prébiotiques » dans le nuage. Il s'agit simplement de produits chimiques spécifiques connus pour favoriser les conditions propices aux précurseurs de la vie. « Notre identification de molécules organiques complexes, comme le méthanol et potentiellement l'éthanol, suggère également que les nombreux systèmes d'étoiles et de planètes qui se développent dans ce nuage particulier hériteront de molécules dans un état chimique assez avancé », a déclaré Will Rocha, astronome à l'Observatoire de Leiden qui a contribué à la découverte. « Cela pourrait signifier que la présence de molécules prébiotiques dans les systèmes planétaires est un résultat commun de la formation des étoiles, plutôt qu'une caractéristique unique de notre propre système solaire ». En d'autres termes, peut-être que nous ne sommes pas seuls dans l'Univers parce que les ingrédients qui nous ont fait naître sont des sous-produits extraordinairement communs de bébés étoiles. Pour autant, cela ne signifie pas que nous avons trouvé la preuve d'une vie extraterrestre. Nous ne savons pas exactement ce qu’il va advenir de ces molécules portées par les nuages au fil du temps. Cependant, « ces observations ouvrent une nouvelle fenêtre sur les voies de formation des molécules simples et complexes nécessaires à la fabrication des éléments constitutifs de la vie », estime Melissa McClure, astronome à l'Observatoire de Leiden et auteur principal de l'article. James-Webb fonctionne en utilisant ses miroirs dorés et ses instruments de haute technologie pour détecter des longueurs d'onde spécifiques de la lumière qui se situent dans la région infrarouge du spectre électromagnétique. Or, une grande partie de la lumière émanant de différentes régions de l'Univers, en particulier de l'intérieur des nuages de formation d'étoiles, arrive à notre point d'observation sur Terre sous forme de lumière infrarouge invisible. D’où le rôle crucial de ce télescope de dernière génération. Cette machine est littéralement construite pour décoder toute cette lumière infrarouge de l'espace lointain et la transformer en quelque chose de compréhensible pour notre esprit et notre technologie, ce qui permet d'élucider une multitude de secrets cosmiques. Pendant que James-Webb observait Chamaeleon I, il a capté un ensemble de longueurs d'onde infrarouges associées aux molécules glacées cachées dans la brume, et les a transformées en informations exploitables par l'équipe de scientifiques qui utilise le télescope. En fait, la lumière émise par une étoile à l'arrière-plan du nuage a en quelque sorte touché tout ce qui se trouvait sur son chemin jusqu'aux lentilles de James-Webb. Plus précisément, lorsque les longueurs d'onde ont traversé le nuage lui-même, elles sont entrées en contact avec toutes ces molécules glacées qui flottent à l'intérieur. Une partie de la lumière des étoiles a été absorbée par ces molécules glacées, laissant dans son sillage une sorte d'empreinte digitale. Ces empreintes sont appelées spectre d'absorption et, une fois analysées, elles permettent de déduire ce qui les a créées. Dans ce cas, les empreintes digitales ont permis aux scientifiques d'en savoir plus sur les molécules de glace. « Nous n'aurions tout simplement pas pu observer ces glaces sans Webb », souligne Klaus Pontoppidan, scientifique du projet Webb au Space Telescope Science Institute, qui a participé à cette recherche. « Dans les régions aussi froides et denses, une grande partie de la lumière de l'étoile de fond est bloquée et la sensibilité de Webb était nécessaire pour détecter la lumière de l'étoile et donc identifier les glaces dans le nuage moléculaire ». Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Mahsa Shoaran, du Laboratoire de neurotechnologies intégrées de la Faculté des sciences et techniques de l’ingénieur, a travaillé avec Stéphanie Lacour du Laboratoire d’interfaces bioélectroniques souples pour mettre au point NeuralTree : un système sur puce de neuromodulation en boucle fermée capable de détecter et de réduire les symptômes d’une maladie. Grâce à un réseau de détection haute résolution de 256 canaux et à un processeur de machine learning économe en énergie, le système peut extraire et classer un vaste ensemble de biomarqueurs à partir de données réelles de patientes et patients et de modèles animaux de maladies&nbs p;in vivo, ce qui permet d’obtenir un degré de précision élevé dans la prédiction des symptômes. « NeuralTree bénéficie de la précision d’un réseau neuronal et de l’efficacité matérielle d’un arbre de décision », explique Mahsa Shoaran. « C’est la première fois que nous avons pu intégrer une interface neuronale aussi complexe, mais économe en énergie, pour des tâches de classification binaire, comme la détection de crises ou de tremblements, ainsi que pour des tâches à classes multiples, comme la classification des mouvements des doigts pour des applications neuroprothétiques ». Leurs résultats ont été présentés lors de la conférence 2022 IEEE International Solid-State Circuits Conference. NeuralTree extrait des biomarqueurs neuronaux, c’est-à-dire des modèles de signaux électriques connus pour être associés à certains troubles neurologiques, à partir d’ondes cérébrales. Il classe ensuite les signaux et indique s’ils sont annonciateurs d’une crise d’épilepsie imminente ou d’un tremblement parkinsonien, par exemple. Si un symptôme est détecté, un neurostimulateur présent sur la puce est activé et envoie une impulsion électrique pour le bloquer. Mahsa Shoaran explique que la conception unique de NeuralTree confère au système un degré d’efficacité et de polyvalence sans précédent par rapport aux solutions actuelles. La puce est pourvue de 256 canaux d’entrée, contre 32 pour les précédents dispositifs intégrés de machine learning, ce qui permet de traiter davantage de données à haute résolution sur l’implant. Sa conception compacte signifie qu’elle est aussi extrêmement petite (3,48 mm2), ce qui lui donne un grand potentiel d’évolutivité vers davantage de canaux. L’intégration d’un algorithme d’apprentissage "écoresponsable", qui pénalise les fonctions très consommatrices d’énergie, rend également NeuralTree très économe en énergie. Outre ces avantages, le système peut détecter davantage de symptômes que les autres dispositifs, qui jusqu’à présent se concentraient principalement sur la détection des crises d’épilepsie. L’algorithme de machine learning de la puce a été entraîné sur des ensembles de données provenant de patientes et de patients atteints d’épilepsie et de la maladie de Parkinson, et a classé avec précision les signaux neuronaux préenregistrés des deux catégories. « À notre connaissance, il s’agit de la première démonstration de détection de tremblements parkinsoniens avec un dispositif de classification sur puce », explique Mahsa Shoaran. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Selon la Fondation Cœur & Recherche, chaque année en France, environ 60 000 adultes apparemment en bonne santé décèdent brutalement d’un arrêt cardiaque. Chez les moins de 45 ans, cet accident découle souvent de maladies cardiaques d’origine génétique, non détectées. Repérer ces pathologies le plus tôt possible est donc vital. C’est justement l’objectif de la cardiogénétique ! « En plein essor, cette approche a considérablement augmenté les chances de survie de nombreux patients », souligne Philippe Chevalier, cardiologue à l’hôpital Louis-Pradel de Lyon. Les maladies cardiaques génétiques forment un large groupe hétérogène qui comprend pas moins d’une vingtaine de pathologies. Elles sont classées en deux sous-groupes : les cardiomyopathies, où le muscle cardiaque (myocarde) présente des défauts anatomiques (cardiomyopathies hypertrophique, dilatée, ventriculaire droite arythmogène…) et les "syndromes d’arythmie", où le cœur est structurellement normal mais bat trop lentement, trop rapidement ou de façon irrégulière (syndromes de Brugada, du QT long ou du QT court…). Bien que qualifiées de "rares", ces maladies touchent tout de même plusieurs dizaines de milliers de personnes en France. Par exemple, à elle seule, la cardiomyopathie hypertrophique concerne 1 personne sur 500, soit environ 135 000 Français, selon Orphanet, le portail d’information sur les maladies rares. Alors que les pathologies cardiaques "classiques" sont souvent favorisées par certains modes de vie (alimentation déséquilibrée, tabagisme, sédentarité…), les maladies cardiaques génétiques découlent d’anomalies (ou "mutations") au niveau de certains gènes clés, impliqués dans la fabrication de protéines indispensables au bon fonctionnement du cœur, comme la myosine, l’alpha-actinine 2 ou les protéines des canaux ioniques. Née au début des années 1990 et en plein essor depuis le début des années 2010, la cardiogénétique vise à dépister précocement ces mutations et à traiter le patient de façon adaptée. « Comme l’oncogénétique – dédiée elle, à l’étude des facteurs génétiques favorisant les cancers – cette approche vise à faire de la médecine de précision, personnalisée aux mutations en cause pour chaque patient », précise Philippe Chevalier. En France, l’activité de ce domaine est organisée au niveau national autour de la filière de santé Cardiogen, coordonnée par Philippe Charron à l’hôpital de la Pitié-Salpêtrière à Paris. Outre ce centre et l’hôpital Louis-Pradel &agr ave; Lyon, huit autres offrent désormais une consultation de cardiogénétique (les hôpitaux Necker et Georges-Pompidou à Paris, les CHU de Nantes, Bordeaux, Grenoble…). Les équipes de cardiogénétique de ces centres se réunissent régulièrement, dans le but d’homogénéiser leurs pratiques. Dans les faits, la cardiogénétique implique une collaboration étroite entre des cardiologues et des biologistes. À Lyon, les patients sont reçus par Philippe Chevalier qui, après un examen clinique et une analyse des résultats de divers autres examens possibles (électrocardiogrammes spécialisés, imagerie cardiaque…), établit un diagnostic. Puis l’équipe de Gilles Millat, responsable du laboratoire de cardiogénétique des Hospices civils de Lyon, tente de valider génétiquement ce diagnostic. « Concrètement, nous extrayons l’ADN du patient à partir d’un échantillon de sang et le séquençons. Puis à l’aide de logiciels de bioinformatique, nous procédons à une analyse ciblée d’un panel de plus de 100 gènes connus pour être impliqués dans la path ologie soupçonnée », détaille Gilles Millat. Finalement, si le résultat du test génétique confirme le diagnostic du cardiologue, celui-ci prescrit un traitement adapté : « une modification du mode de vie, un traitement médicamenteux ou non (pacemaker, défibrillateur), et/ou la mise en place d’une surveillance médicale régulière », détaille le médecin. Enfin, l’équipe propose également des tests génétiques aux proches du patient (mère, père, frères et sœurs ou enfants). L’efficacité de cette approche ? Comme l’ont montré, entre autres, des travaux publiés en 2021 par l’équipe de Gilles Millat, qui ont porté sur 4 185 patients, les tests génétiques permettent aujourd’hui d’identifier de façon quasiment certaine les mutations génétiques en cause, dans 30 à 40 % des cas. « À l’avenir », observe le biochimiste, « ce taux pourrait significativement augmenter grâce à des recherches en cours, qui visent à confirmer ou à infirmer l’implication de certaines mutations dont le rôle dans certaines maladies cardiaques génétiques demeure incertain ». Cet effort de recherche mobilise notamment l’équipe de Vincent Gache, chercheur Inserm à l’institut NeuroMyoGène de Lyon, qui travaille en collaboration avec les groupes de Gilles Millat et de Philippe Chevalier. « Nous créons des organoïdes de cœur, à partir de cellules sanguines du patient ou de cellules souches dans lesquelles nous introduisons les mutations suspectes grâce à des techniques d’édition du génome. La comparaison et l’analyse de ces différents organoïdes permet de quantifier les impacts des mutations sur le fonctionnement de ces “mini-cœurs” et ainsi, de valider si ces mutations induisent les troubles constatés. De plus, point important, ces organoïdes nous permettent également de tester de nouvelles molécules médicamenteuses », explique le biologiste cellulaire. Boudée à ses débuts par beaucoup de cardiologues qui ne croyaient pas en son efficacité, la cardiogénétique s’impose désormais de plus en plus. « Dans notre service, près de 2 000 patients bénéficient désormais de tests génétiques chaque année, contre une centaine en 2010 », indique Philippe Chevalier. Dans les années à venir, cette tendance à la hausse pourrait s’amplifier. Car outre les maladies cardiaques génétiques "rares" susmentionnées, la cardiogénétique pourrait concerner d’autres pathologies cardiaques beaucoup plus fréquentes. Dont notamment l’infarctus du myocarde, lié à l’obstruction d’une artère irriguant le cœur, et qui touche environ 80 000 Français chaque année, selon l’Assurance maladie. En effet, « l’existence de “familles à infarctus”, où le risque d’être touché par ce trouble est plus élevé que chez la moyenne des gens, laisse penser que ces cas sont favorisés par une combinaison de multiples mutations génétiques qui, indépendamment, ont chacune des effets minuscules mais qui, combinées, augmenteraient significativement le risque d’infarctus du myocarde », éclaire Philippe Chevalier. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Selon cette nouvelle et très large étude menée à Hong Kong et publiée dans le CMAJ (Canadian Medical Association Journal (CMAJ), le nombre de décès a chuté de 90 % après une dose de rappel et en pleine épidémie d'Omicron, au sein de groupes de population atteints de multimorbidité. Et cela quel que soit le vaccin utilisé, à ARNm ou à virus entier inactivé. « Nous constatons un risque considérablement réduit de décès de COVID-19 chez les adultes atteints de multimorbidité qui ont reçu une dose de rappel de vaccin à ARNm Pfizer-BioNTech (BNT162b2) ou de vaccin à virus entier inactivé (CoronaVac) », résume le Docteur Esther Chan, de l’Université de Hong Kong : « Ces résultats confirment l'efficacité des doses de rappel de vaccins de 2 plates-formes technologiques différentes pour réduire la mortalité chez les personnes atteintes de multimorbidité en pleine épidémie d'Omicron ». Alors que la vague épidémique d’Omicron (BA.2) a frappé Hong Kong fin 2021, la ville a signalé le taux de mortalité COVID-19 le plus élevé au monde. Depuis novembre 2021, les personnes âgées, les professionnels de la santé et d'autres groupes prioritaires ont été incités à recevoir un rappel de vaccin. Au 1er janvier 2022, toute la population était éligible au rappel vaccinal. L’étude a comparé les données des adultes atteints de multimorbidité, soit 2 maladies chroniques ou plus, telles que l'hypertension artérielle, le diabète et l'insuffisance rénale chronique, ayant reçu une (troisième) dose ou rappel de vaccination entre novembre 2021 et mars 2022, vs les personnes également atteintes de multimorbidité, mais n’ayant reçu que 2 doses de vaccin. Au total, l’analyse a ainsi porté sur les données de 120.724 participants ayant reçu le vaccin Pfizer-BioNTech, dont 87.289 une 3e dose ou rappel et de 127.318 participants ayant reçu le vaccin CoronaVac dont 94.977 un rappel. L’analyse révèle une chute de 90 % du taux de mortalité chez l’ensemble des participants ayant effectué un rappel, quel que soit le vaccin. Ces données mettent en évidence le bénéfice d’une 3e dose ou rappel, au sein des groupes de population plus vulnérables, ici vivant avec une multimorbidité, et soutiennent les politiques de vaccination concernant les personnes âgées et les personnes atteintes de maladies chroniques. Article rédigé par Georges Simmonds pour RT Flash CMAJ | | | |
| Des scientifiques américains de l’Université du Texas ont compilé les données de 34 études. Cela représentait 276.173 participants autistes et plus de 7 millions de personnes sans ce trouble. Ils avaient entre 3 et 72 ans pour un âge moyen de 31,2 ans. Après avoir analysé les dossiers médicaux des volontaires, ils ont découvert que les individus atteints d’un trouble du spectre autistique ont 64,1 % plus de risques de développer un diabète de type 1 par rapport aux autres. Le diabète de type 2 est une complication encore plus probable. Le risque d'en souffrir est 146,7 % plus important chez les autistes. Dans l’étude, les chercheurs remarquent que les autistes ont aussi 45,9 % plus de risques d’avoir des pathologies cardiaques, notamment l’athérosclérose. S’il n’y avait pas de différence significative entre tous les volontaires concernant le mauvais cholestérol (LDL), le taux du bon cholestérol était significativement plus bas chez les personnes ayant le trouble du développement. Par ailleurs, elles avaient aussi plus de triglycérides. Par contre, les autistes ne semblent pas avoir de risque accru d’hypertension et d’AVC. Dans le texte éditorial qui accompagne la recherche, la Dr Elizabeth Weir du département de psychiatrie de l’Université de Cambridge rappelle : « Malgré les améliorations dans la reconnaissance de l'autisme, les personnes autistes ont encore de mauvais résultats à long terme en ce qui concerne leur santé et leurs soins. Dans l'ensemble, elles meurent beaucoup plus jeunes que prévu, avec plusieurs études suggérant maintenant que les personnes autistes meurent, en moyenne, de 12 à 30 ans plus jeunes que les autres ». Pour les auteurs, leurs résultats montrent ainsi qu’il faut repenser le suivi de ces patients. « Les enfants autistes semblent présenter un risque plus élevé de développer [du diabète] et de l'hypertension par rapport aux enfants non-autistes », écrivent-ils, « les médecins doivent surveiller avec vigilance les personnes autistes pour détecter les contributeurs potentiels, les signes de maladie cardiométabolique et leurs complications », concluent-ils. Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| Due au dépôt de cholestérol dans les artères (plaques d’athérome), qui perturbe la circulation sanguine et réduit l’apport d’oxygène aux muscles, l’artérite se traduit, pour le patient, par des douleurs aux jambes et des difficultés à la marche. Pour retirer ces dépôts qui bouchent les artères, le chirurgien vasculaire a deux options, selon l’état du patient : une chirurgie classique (il ouvre et réalise un pontage) ou une intervention endovasculaire. Dans ce cas, il introduit, sans ouvrir, un stent (un ressort) dans l’artère pour en "écarter" les parois et rétablir le flux sanguin. À la clinique Notre-Dame à Draguignan, le Docteur Jérôme Albertin dirige une étude “ELLIPSE”, destinée à valider, elle, une nouvelle approche endovasculaire cumulant les avantages de ces deux options. Utilisée initialement pour les artères du cœur, cette approche concernant les artères des membres inférieurs consiste à pratiquer une athérectomie rotationnelle endovasculaire. En clair, « on introduit dans l’artère, à travers la peau, un guide sur lequel est montée une sonde cathéter qui fonctionne comme une foreuse ». Équipé d’ailettes qui lui permettent de s’adapter à la taille du vaisseau à traiter, ce dispositif (Jet-Stream de Boston Scientific) pulvérise la plaque d’athérome et aspire les débris. C’est une façon, explique le chirurgien, de cumuler les avantages des deux techniques habituelles. « On n’ouvre pas, il s’agit donc d’une intervention mini-invasive donc peu “agressive”, endovasculaire, avec un temps d’hospitalisation réduit, des risques infectieux minorés. Et, contrairement à la chirurgie endovasculaire classique, on ne se contente pas de mettre un stent qui écrase la plaque d’athérome, avec le risque de récidive à court terme. On enlève cette plaque en grande partie, comme dans une chirurgie classique ». La technique peut se suffire à elle-même et éviter la pose d’un stent, avec l’avantage de diminuer également le risque de fibrose à l’intérieur du stent : une réaction inflammatoire dont la cause est inconnue mais qui est fréquente, en particulier chez les femmes fumeuses et sur les petites artères, surtout dans les 6 premiers mois post-opératoires. « Dans ce cas-là, le résultat est mauvais, il est plus satisfaisant quand le passage de la sonde foreuse intervient pour préparer l’artère, en amont d’une angioplastie pratiquée dans la foulée », juge le Docteur Albertin. « Dans ce cas, après le passage de la sonde qui a fragilisé la plaque artérielle, on introduit systématiquement un ballon pour dilater l’artère. Ce passage préalable facilite le déploiement du stent éventuel. Le plus souvent, cette technique permet également d’éviter la mise en place de matériel intra-vasculaire (stent), le ballon étant recouvert d’un produit qui se diffuse uniquement dans la paroi de l’artère pour limiter le risque d’un nouveau rétrécissement ». Ces deux passages successifs – sonde puis ballon – permettent de mieux déboucher l’artère et augmentent le taux de succès technique immédiat puis secondaire de l’intervention. « On traite aussi des calcifications plus longues et plus complexes et on diminue le nombre global de rechutes », note le Docteur Albertin, qui la pratique depuis plus deux ans. L’intervention se fait sous anesthésie locale et dure une heure environ. Le risque potentiel, rare, c’est la rupture artérielle ou l’embolie distale. « C’est pour cette raison que l’intervention doit être pratiquée par un chirurgien vasculaire qui peut convertir si besoin, c’est-à-dire passer à une chirurgie classique en cours d’intervention si cela s’avérait nécessaire », précise le chirurgien. « Elle est donc pratiquée dans une salle d’angiographie chirurgicale hydride permettant de faire de la chirurgie ouverte et endovasculaire dans la même salle et au cours de la même intervention ». Il publiera, courant 2023, les résultats préliminaires de l’étude observationnelle multicentrique en cours. Douze établissements situés entre Nice et Marseille (dont la clinique des Fleurs à Ollioules et la clinique Saint-George, à Nice) y participent également. Article rédigé par Georges Simmonds pour RT Flash Var Matin | | | |
| Une récente étude avait déjà montré que l’exposition au virus d’Epstein-Barr augmentait considérablement les risques de développer une sclérose en plaques. Cette fois, c’est une vaste et solide étude réalisée sur 450 000 dossiers médicaux par l’équipe de Kristin Levine (National Institute on Aging and National Institute of Neurological Disorders and Stroke, National Institutes of Health, Bethesda, USA) qui a identifié 45 types d’expositions virales associées de manière significative à des risques de maladies neurodégénératives, comme Parkinson ou Alzheimer. La plus importante étant celle existant entre l’exposition à l’encéphalite virale et la maladie d’Alzheimer. Une association notable a également été observée entre la grippe ou la pneumonie et 5 des maladies neurodégénératives étudiées. (Alzheimer, sclérose latérale amyotrophique, démence vasculaire (VAS), Parkinson et la sclérose en plaques). Selon cette étude, ces virus augmentent le risque de maladie neurodégénérative en réduisant "la réserve cognitive par l'inflammation du cerveau". Tous ces virus étaient liés à un risque élevé de manifestation de maladie neurodégénérative. Environ 81 % des virus se sont avérés neurotrophiques, ce qui indique qu'ils peuvent attaquer le système nerveux central via les nerfs périphériques ou en traversant la barrière hémato-encéphalique. « Certaines de ces expositions à des virus étaient associées à des risques neurodégénératifs jusqu’à 15 ans après l’infection », souligne l’étude qui rappelle que, « Étant donné que des vaccins existent pour se protéger de certains de ces virus, la vaccination pourrait être un moyen de réduire le risque de développer certaines maladies neurodégénératives »… Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Les fourmis surpasseront-elles les chiens ? Plus facilement et rapidement prêtes à la tâche et pour un entraînement donc le coût est largement moindre, ces insectes pourraient être utilisés pour détecter les cancers chez l'Homme comme le font certains chiens renifleurs. Ce n'est, certes, pas pour tout de suite mais une nouvelle étude confirme leur potentiel. Les cellules humaines, comme celles de tous les animaux, émettent des composés organiques volatils (COV) indétectables pour notre odorat, mais auxquelles d'autres animaux aux sens plus développés peuvent être sensibles. Quand certaines cellules deviennent cancéreuses, leur métabolisme se transforme et avec lui leur empreinte olfactive. Des recherches sont actuellement menées pour utiliser cette modification à des fins de détection précoce des tumeurs. Ce peut être en utilisant des chiens renifleurs mais également des appareils de mesure qui analysent l'haleine pour rechercher un cancer du poumon. Baptiste Piqueret, biologiste à l'Université Sorbonne Paris Nord, au moment de ces travaux, et désormais à l'Institut Max Planck, a lui décidé de se confronter à la fourmi Formica fusca : « une espèce commune qui, comme toutes l es fourmis, possède un sens de l'odorat particulièrement développé » explique-t-il. En 2022, avec son équipe de l'Institut Curie et du CNRS, il publie une première étude dans la revue iScience prouvant que les fourmis pouvaient discriminer des cellules cancéreuses de cellules saines après une période d'entraînement associatif courte, de l'ordre de quelques dizaines de minutes. « L'entrainement est très simple, il suffit de déposer un peu de nourriture, en l'occurrence de l'eau sucrée, imprégnée de l'odeur voulue, celle de tumeurs humaines. Puis d'exposer ces fourmis à l'odeur de tumeur et à une autre. Si l'entrainement a marché, elles passeront plus de temps près de l'odeur apprise » résume-t-il. La même équipe revient en ce début d'année avec cette nouvelle étude réalisée sur des souris greffées avec des tumeurs humaines (cancer du sein) et dont l'urine a servi à l'entraînement des fourmis. Cette urine, les analyses chimiques le prouvent, présentent un profil olfactif altéré et les fourmis peuvent le repérer après seulement trois entraînements. Ce qui en fait de potentiels bio-détecteurs. L'idée serait de les utiliser pour dépister des cancers à partir d'un simple échantillon d'urine pour un coût modéré qui permettrait d'élargir la population cible, par exemple les femmes de moins de 50 ans sans antécédents pour les cancers du sein. « Mais ce n'est vraiment pas pour tout de suite et de nombreux autres tests doivent être menés avant d'éventuellement aboutir à une pratique courante » prévient Baptiste Piqueret. C'est notamment le passage à l'humain qui pourrait poser problème, avec plus de variabilité dans l'odeur de l'urine liée aux déterminants personnels mais aussi au type de nourriture ou de boisson consommée. « Il faudra également évaluer le seuil de détection des cancers car dans cette étude, les souris sont greffées avec des tumeurs particulièrement volumineuses qui génèrent un profil olfactif bien différent des témoins » souligne le chercheur. Plusieurs années d'essais et de vérifications seront donc nécessaires avant de pouvoir envisager une application grand public avec ces fourmis noires qui pourraient constituer une alternative moins coûteuse et plus pratique aux chiens renifleurs. Article rédigé par Georges Simmonds pour RT Flash The Royal Society | | | |
| Une équipe de chercheurs du Center for Brain & Disease Research de la KU Leuven et de l'Institut de recherche interdisciplinaire en Biologie humaine et moléculaire (IRIBHM) de l'ULB, a découvert que les mitochondries, l'usine d'énergie dans les cellules, sont responsables de la vitesse à laquelle le cerveau se développe. Selon ces travaux publiés dans la revue Science et présentés récemment, la découverte permet de mieux comprendre l'évolution de l'espèce humaine et a des implications importantes pour certaines maladies neurologiques. Le cerveau humain croît pendant plusieurs années avant de se développer complètement, plus lentement que chez les autres espèces (plusieurs semaines pour les souris par exemple), mais on ignorait encore les origines précises de cette maturation lente et importante pour son fonctionnement. Les scientifiques ont découvert que les mitochondries, responsables de la production d'énergie dans les cellules, donnent le rythme de cette maturation neuronale. « Les neurones ont comme un sablier pour mesurer le temps, et ce sablier est fourni par les mitochondries », détaille le chercheur Pierre Vanderhaeghen. « Il s'agit d'une étape importante pour comprendre l'un des plus grands mystères de la biologie : qu'est-ce qui rend le cerveau humain si distinct des autres espèces et pourquoi notre cerveau peut être si sensible à certaines maladies ? » L'équipe scientifique a réalisé cette découverte grâce au développement d'un nouvel outil génétique qui mesure le temps de développement des neurones. Selon les chercheurs, il sera donc utile pour accélérer la recherche fondamentale et pharmaceutique sur les maladies neurologiques ou psychiatriques humaines, « fortement entravées par la lenteur du développement neuronal humain ». Les travaux pourraient avoir des implications importantes pour certaines maladies du cerveau qui frappent les mitochondries et qui entraînent des symptômes cérébraux précoces. Article rédigé par Georges Simmonds pour RT Flash ULB | | | |
| Une molécule issue d’un champignon comestible pourrait ouvrir des perspectives thérapeutiques pour des patients atteints de mucoviscidose, la "maladie génétique rare" qui est la plus souvent constatée. Une équipe de recherche dirigée par Fabrice Lejeune, chercheur Inserm au sein du laboratoire Cancer heterogeneity, plasticity and resistance to Therapies1 (Inserm/ CNRS/ Université de Lille/Institut Pasteur de Lille/CHU Lille), a testé les effets de la 2,6-diaminopurine (DAP), l’un des principes actifs contenus dans le champignon Lepista flaccida, dans différents modèles expérimentaux de la maladie. Les scientifiques ont ainsi montré que cette molécule pourrait avoir un intérêt thérapeutique pour les patients atteints de mucoviscidose liée à une mutation particulière, dite mutation non-sens. La mucoviscidose est une maladie génétique qui touche environ 6 000 personnes en France et affecte principalement les fonctions digestives et respiratoires, avec une espérance de vie comprise entre 40 et 50 ans. Des innovations thérapeutiques ont toutefois permis d’améliorer le pronostic des patients ces dernières années. Des traitements sont aujourd’hui disponibles pour la grande majorité des patients dont la maladie est causée par la mutation delta F508 au niveau du gène CFTR. Chez ces derniers, la protéine CFTR (codée par le gène CFTR) est présente en petite quantité, mais dysfonctionnelle. Les molécules actuellement disponibles permettent de corriger ce dysfonctionnement et d’améliorer significativement leurs symptômes cliniques. En revanche, elles ne sont efficaces que pour 10 % des patients pour qui la protéine est complètement absente, comme c’est le cas lorsque la maladie est liée à une mutation non sens. L’ADN est constitué de molécules organiques, les nucléotides, qui codent les acides aminés impliqués dans la synthèse des protéines nécessaires au bon fonctionnement de l’organisme. En pratique, les mutations non-sens introduisent un "codon stop" au niveau du gène muté, c’est-à-dire une séquence de nucléotides qui conduit à un arrêt prématuré de la synthèse de la protéine correspondante. Dès lors, la protéine n’est plus fabriquée, entraînant l’apparition des symptômes cliniques de la maladie. Identifier des moyens de corriger les mutations non-sens est donc un enjeu important pour les chercheurs qui étudient les maladies génétiques et qui espèrent notamment développer de nouvelles options thérapeutiques contre la mucoviscidose. Dans ce contexte, le chercheur Inserm Fabrice Lejeune et son équipe étaient parvenus en 2017 à un résultat novateur en montrant que des extraits d’un banal champignon comestible connu sous le nom de Lepista flaccida pouvaient réparer les mutations non-sens dans trois lignées cellulaires isolées de patients atteints de mucoviscidose. Quelques années plus tard, en 2020, ils avaient publié une étude identifiant le principe actif dans le champignon capable de corriger les mutations non-sens associées au codon stop UGA, le plus courant des trois codons stop du code génétique humain. Il s’agissait de la molécule DAP (2,6 diaminopurine). Dans leurs nouveaux travaux, les scientifiques ont testé les effets de cette molécule dans quatre modèles expérimentaux de mucoviscidose : des modèles animaux de la maladie, développés au laboratoire ; des lignées cellulaires ; des cellules de patients et des organoïdes. Cette diversité des modèles utilisés permet d’être au plus proche de ce qui se passe dans l’organisme des patients, afin d’évaluer au mieux les éventuels bénéfices thérapeutiques qu’ils pourraient en tirer. Les résultats obtenus par l’équipe suggèrent que la DAP permet de corriger la mutation non sens dans les différents modèles étudiés, en rétablissant la production des protéines et en restaurant efficacement la fonction du gène muté. Sur le plan clinique, cela se traduit chez l’animal par une amélioration des symptômes. Le traitement à la DAP permet de restaurer l’expression de CFTR dans les poumons et les intestins ainsi que la fonction de cette protéine, réduisant significativement la mortalité prématurée observée avant l’administration de cette molécule. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|