| | Edito Les robots humanoïdes vont-ils nous remplacer au travail ?
Il a y maintenant plus d'un siècle, en 1920, le terme "robot" était inventé par l’écrivain tchèque Karel Äapek, qui imaginait, dans une de ses pièces de théâtre de science-fiction, des machines à apparence humaine remplaçant les ouvriers dans les usines, et portant ce nom venant du mot tchèque robota, qui signifie "travail". En 1940, le grand visionnaire russo-américain Isaac Asimov (1920-1992) publia le premier roman d'un long cycle de presque un demi-siècle qui allait faire sa gloire, "Les Robots". Dans cette vaste fresque littéraire, devenue un grand classique de la Science-Fiction, Asimov imagine qu'une invention de rupture, le « cerveau positronique », permet de construire des machines humanoïdes dotées à la fois d'intelligence et de sensibilité. Il fallut cependant attendre 1959 pour que le premier robot industriel, baptisé "Unimate", soit conçu aux États-Unis, par George C. De Vol, et Joseph Engelberger, puis fasse discrètement son entrée dans les usines de General Motors à Trenton (New Jersey) en 1961. En 1973, des chercheurs japonais de l'Université de Waseda (Japon), furent à l'origine du premier robot bipède (jambes artificielles), capable de marcher et de saisir des objets. P1 fut le premier robot humanoïde digne de ce nom, créé par le japonais Honda en 1993. Il sera suivi en 2000 du fameux robot Asimo, bien plus évolué, adroit et autonome (1,20 mètre pour 43 kg) qui ne cessa de se perfectionner au fil des années et fut pratiquement sans rival pendant deux décennies. Asimo fit ses adieux officiels en avril 2022. Créée en 1992 par Marc Raibert, professeur au prestigieux Institut de technologie du Massachusetts (MIT), l'entreprise américaine Boston Dynamics (BD), soutenue activement par la Darpa, l'Agence recherche et développement de l'Armée américaine, a permis aux Etats-Unis de revenir dans la course aux robots humanoïdes de nouvelles générations et de venir défier le Japon sur un terrain où il est resté longtemps dominant. Racheté par le constructeur automobile sud-coréen Hyundai, Boston Dynamics se concentre à présent sur la production de quatre robots, dont un humanoïde de grand avenir, baptisé "Atlas", conçu, selon BD, pour « travailler avec les humains pour réduire les risques, améliorer la productivité et la qualité de vie de chacun ». Depuis son lancement, il y a dix ans, Atlas a fait des progrès p hénoménaux et cette machine (1,50 m pour 89 kilos) a notamment été filmée en train de se déplacer dans un environnement de chantier du bâtiment, très encombré, et de manipuler et lancer des cartons, tout en évitant habilement les obstacles. Depuis quelques mois, l'incroyable montée en puissance de l'IA et notamment de ChatGPT et OpenAI, a donné à la robotique un nouveau souffle et a relancé la perspective d’un robot humanoïde autonome et polyvalent, capable de s'adapter à une vaste variété de situations et d'intervenir dans de multiples domaines d'activités , industrie, sécurité, santé, aide à la personne, pour seconder efficacement les Humains, notamment dans les tâche pénibles et dangereuses. Ce nouvel eldorado attise évidemment la compétition entre les acteurs de ce secteur hautement stratégique de la robotique à visage humain. Le cabinet Boston Consulting Group prévoit en effet que la marché mondial de la robotique sera multiplié par six d'ici 2030 et atteindra alors 260 milliards de dollars. Mais pour Global Data, ces prévisions sont trop pessimistes et ce cabinet réputé prévoit un marché mondial à 500 milliards de dollars en 2030 et à 1000 milliards de dollars vers 2040. Une jeune société américaine, "Figure", fondée par des transfuges de Tesla, Boston Dynamics et Apple, vient ainsi de présenter son premier robot humanoïde. Baptisée "Figure 1", cette machine humanoïde mesure 1,68 m de haut pour 60 kg. Elle dispose d'une autonomie de 5 heures, peut porter jusqu’à 20 kg et marcher à 4 km/h. Ce robot, qui se veut clairement le concurrent direct d'Optimus, son homologue de Tesla, est dotée d'un logiciel d'IA très sophistiqué et se destine à l’assistance des humains dans de multiples domaines, à commencer par l'aide à la personne, d'abord en milieu hospitalier, puis à domicile. Mais l’entreprise qui fait le plus parler d’elle en robotique aujourd’hui reste Tesla. Le constructeur automobile, dirigé par Elon Musk, a présenté en 2021 Optimus, un prototype de robot humanoïde. Si le développement n’en était encore qu’à ses débuts, il démontre l’intérêt porté par Musk et ses ingénieurs pour ce secteur (Voir Youtube). Il y a quelques jours, à l'occasion du Cyber Roundup 2023, l'événement de Tesla dédié aux actionnaires, Elon Musk a donné des nouvelles d'Optimus, son robot humanoïde. Ce robot est désormais capable de marcher de manière plus assurée et d'effectuer quelques tâches simples, mais on est encore loin du robot autonome et polyvalent promis par Elon Musk. Et Tesla va avoir fort à faire dans ce domaine, face aux nouveaux compétiteurs qui arrivent et présentent des machines étonnantes. C'est par exemple le cas de SanctuaryAI, une firme établie à Vancouver, au Canada. Cette jeune société s’est fixé une mission ambitieuse : développer une IA mimant de manière convaincante l'intelligence globale humaine et l'intégrer dans des robots universels capables de réaliser une grande variété de tâches avec la même souplesse que l’Homme (Voir Sanctuary AI). En mars dernier, la firme a divulgué l’implantation réussie de ce type de robot dans une boutique. Pendant une semaine, un robot universel a évolué dans un environnement commercial réel, accomplissant 110 tâches allant de la recherche de produits, à l’emballage de marchandises, en passant par le rangement, le nettoyage et l’étiquetage. Il y a quelques jours, Sanctuary AI a partagé une avancée remarquable avec le dévoilement de Phoenix, son robot polyvalent de sixième génération, doté d’un système de contrôle par intelligence artificielle innovant, appelé Carbon, conçu pour exécuter des centaines de tâches. La puissance de Carbon réside dans sa capacité à utiliser les technologies d’IA pour transposer le langage naturel en actions concrètes dans le monde réel, et interagir com me ChatGPT. Geordie Rose, co-fondateur et PDG de Sanctuary AI, proclame : « Nous avons conçu Phoenix pour qu’il soit le robot humanoïde le plus riche en capteurs et physiquement capable jamais construit, et pour permettre à l’intelligence en croissance rapide de Carbon d’effectuer le plus large éventail de tâches de travail possible ». La stratégie de développement de Sanctuary AI repose sur le concept d'"utilisation générale". Le robot doit être capable de s’adapter à n'importe quel environnement, en toute circonstance, et d'accomplir son travail de la même manière qu’un humain, en disposant du niveau de réflexion que cela implique. Ce type de robot apprend chaque tâche identifiée dans un contexte de travail spécifique, grâce à l’expérience d'un opérateur humain qui communique avec lui par des outils de réalité virtuelle. Progressivement, le robot se construit son propre répertoire d’actions spécifiques pour chaque tâche, jusqu’au moment où il devient capable de se débrouiller de manière autonome. Sur le terrain, le robot saura puiser dans son vaste répertoire de données, et combiner si néces saire ces tâches autonomes en séquences plus longues, pour faire face à des situations imprévues. Phoenix mesure 170 centimètres de haut pour 70,3 kilogrammes, et peut se déplacer à une vitesse maximale de 4,8 kilomètres par heure. Il peut soulever une charge utile maximale de 25 kilogrammes, selon l’entreprise. Phoenix possède des mains robotiques extrêmement agiles offrant 20 degrés de liberté de mouvement, lui permettant de manipuler des objets de la même manière qu’une main humaine. Ces mains intègrent une technologie haptique qui imite le sens du toucher. Pour Geordie Rose « Nous envisageons un futur où les robots à usage général sont aussi omniprésents que les voitures, aidant les gens à réaliser le travail qui doit être fait, dans les situations où il n’y a tout simplement pas assez de personnes pour effectuer ce travail ». De son côté, Engineered Arts développe son robot humanoïde Ameca, capable de générer des expressions faciales extrêmement réalistes, grâce au modèle de langage ChatGTP-3. Pour interagir avec le public, le robot intègre des microphones, des caméras binoculaires montées sur ses yeux, une caméra thoracique et un logiciel de reconnaissance faciale. Ce robot incroyablement expressif est parvenu, quand on converse avec lui, à un niveau inédit de simulation des émotions humaine, ce qui est un élément très important en matière d’acceptabilité sociale et culturelle. Il s'agit en effet d'éviter que les futurs robots, qui seront présents en grand nombre dans notre vie quotidienne, ne provoquent des sentiments de rejet ou de méfiance, à cause de leur froideur et de leur manque d'empathie et de délicatesse. .. (Voir Youtube). Il y a un an, le cabinet Forrester a publié une étude retentissante qui prévoit que jusqu'à un tiers des emplois en Europe pourraient être supprimés par l'automatisation au cours des 20 prochaines années (Voir Forrester). L'étude précise que 12 millions d'emplois pourraient disparaître d'ici 2040 dans les cinq principales économies européennes (France, Allemagne, GB, Espagne, Italie) à cause de la robotisation accrue. L'étude note que d'ici 2050, l'Europe comptera 30 millions de personnes en âge de travailler de moins qu'en 2020 et que les entreprises, confrontées à la fois à cette contraction inexorable des actifs et à une stagnation de leur productivité, vont d evoir accélérer considérablement leur automatisation robotique. Reste que les effets réels sur nos économies développés de la robotisation et de l'automatisation sont bien plus complexes que prévu, comme le montre très bien l'excellent rapport Mc Kinsey publié il y a deux ans et intitulé "L'avenir de l'emploi après la pandémie de Covid-19". Ce rapport prévoit, certes, qu'il serait théoriquement possible qu'un quart de la population active américaine (environ 45 millions de personnes) perde son emploi d'ici 2030 à cause de l’automatisation et de la robotisation. Mais l'étude s'empresse d'ajouter que ce qui est techniquement réalisable n'est pas toujours, loin s'en faut, économiquement intéressant et rentable pour les entreprises ou les administrations. A cet égard, l'économiste et politologue américain Kevin Carey fait remarquer que la multiplication des distributeurs automatiques de billets aux États-Unis, à partir de 1980, n'a pas fait diminuer le nombre d'employés de banque car les banques ont ouvert plus d'agences, pour pouvoir vendre plus de nouveaux produits à plus de nouveaux clients... Ce spécialiste des mutations technologiques souligne également qu'il est possible techniquement de fabriquer un robot très sophistiqué qui puisse distribuer les prospectus de promotions commerciales dans les boîtes aux lettres, mais qu'on ne le fera pas de sitôt, car un tel robot coûterait au bas mot plusieurs centaines de milliers de dollars, alors qu'on peut très facilement trouver un chômeur qui va remplir très efficacement la même tâche (en s'adaptant à touts les variétés de situation sur l e terrain), pour seulement 10 dollars de l'heure... Le rapport McKinsey a pris en compte ce facteur capital lié aux avantages comparatifs de compétitivité réelle entre l'homme et le robot, en estimant le coût du développement de nouvelles technologies d'automatisation, le coût du travail qu'elles remplaceraient et le temps qu'il faudrait pour qu'elles se généralisent. Cette étude souligne que, dans ce scenario, les prévisions de pertes réelles d'emplois sont bien moins importantes que celles prévues en 2013 par l'Université d'Oxford, qui avait conclu un peu vite que l'automatisation allait détruire la moitié des emplois aux USA d'ici 2030. McKinsey prévoit donc que sur les 49 millions de personnes qui verront leur emploi remplacé par l'automatisation, 34 millions conserveront le même métier et que seuls 15 millions devront changer radicalement d'activité, soit seulement 9 % des actifs. En France, la population active, qui est passée de 23 à 31 millions de personnes depuis 1970, devrait stagner dans les années à venir, avant de commencer, comme la population globale, son déclin inéluctable vers 2040 : les plus de 65 ans représenteraient alors 30 % de la population contre un cinquième aujourd'hui et il y aura alors un retraité pour deux actifs. Quant au nombre de ménages, il devrait passer de 30 à 36 millions d'ici 2050, car, selon l'Insee, la taille des ménages va continuer à diminuer et, dans trente ans, un ménage français sur deux ne sera constitué que d'une seule personne. Comme un nombre croissant d'économistes, Kevin Carey pense qu'il faut bien distinguer l'automatisation, qui peut être réalisée par des systèmes numériques ou des automates relativement simples, de la robotisation intelligente, qui suppose la mise au point de robots humanoïdes très autonomes, polyvalents et capables d'autoapprentissage et d'initiative face à des situations imprévues. Entre les deux, l'avenir proche va également voir apparaître en grand nombre, des robots « d'accompagnement » spécialisés, peu onéreux et capables de remplir correctement seulement quelques tâches précises. Cela ne veut pas dire que des robots humanoïdes autonomes ne seront pas présents avant longtemps dans notre environnement, mais ces robots, en raison de leur coût et des freins culturels et éthiques qui les accompagnent, ne seront utilisés, dans un premier temps, que dans certains domaines particuliers caractérisés à la fois par une pénurie chronique de main d’œuvre et par un besoin de compétences variées et très techniques. C'est typiquement le cas du secteur de la santé, de l'hébergement des seniors et du service à la personne où ce type de robot très évolué et polyvalent pourra, sous la supervision d'un tuteur humain, démultiplier la productivité, tout en améliorant la qualité de service et de relation avec les clients ou les usagers. On estime que dans seulement vingt ans, le nombre total de robots mobiles de toute nature évoluant dans notre environnement aura été multiplié par vingt et qu'il y aura probablement un robot pour dix habitants. Nous ne ferons sans doute même plus attention à ces machines de plus en plus nombreuses, sophistiquées, autonomes... et humanisées, qui sauront se rendre aussi discrètes qu'indispensables et nous aider dans l'ensemble des activités que nous effectuons, tant au travail qu'à la maison ou pendant nos loisirs. Nous devons dés à présent veiller à ce que cette mutation technologique, sociale et culturelle majeure se passe dans les meilleurs conditions et serve à la fois à améliorer la productivité et l'efficacité de nos économies, à générer de nouveaux emplois plus qualifiés et à transformer la qualit& eacute; de vie de nos concitoyens, à commencer par les plus fragiles et les plus âgés qui devront tous pouvoir bénéficier de ces nouveaux compagnons robotiques... René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | | | En réussissant pour la première fois à prendre un cliché d'un seul atome, une équipe de l’Université d’Ohio vient de réaliser une avancée majeure en physique, qui ouvre la voie à des applications novatrices dans les domaines de la médecine ou de l’environnement. Le signal émis par un seul atome a longtemps été beaucoup trop faible pour être capté par les scanners conventionnels. Il s'agit du premier portrait d’un atome, capturé grâce aux rayons X. Une avancée scientifique majeure, puisque jusqu’à ce jour, on n’avait pas réussi à radiographier moins d’un "attogramme", soit 10 000 atomes. Le signal émis par un seul atome a longtemps été beaucoup trop faible pour être capté par les scanners conventionnels. Depuis la découverte des rayons X – à la fin du XIXe siècle – par le prix Nobel de physique, Wilhelm Röntgen, les scanners ont connu des évolutions successives. Mais la percée actuelle a été rendue possible par le perfectionnement de l’un de leurs instruments : le synchrotron. Ces derniers sont des accélérateurs de particules qui produisent des rayons X de très grande intensité et d’énergie variable. En ce sens les synchrotrons sont bien plus puissants que les scanners que l’on utilise dans le domaine médical ou dans les aéroports. Le détecteur employé par ces chercheurs américains est équipé d’une pointe extrêmement fine et placée très près de la surface du scanner afin de collecter tout électron émis par l’atome. Pour la démonstration de leurs travaux, un atome de fer et un atome de terbium ont été implantés dans une molécule pour que leur signal puisse être mesuré. « L’énergie des électrons est caractéristique de la nature de l’atome irradié. C’est comme des empreintes digitales » permettant ainsi d’identifier un atome en particulier. Cette découverte « aura un grand impact sur les sciences environnementales et médicales et peut-être même qu’on trouvera un remède qui aura un impact énorme sur l’humanité. Cette découverte transformera le monde », se félicite Saw-Wai Hla, coauteur de l’étude, qui imagine déjà la possibilité de détecter des tumeurs peu développées en identifiant des atomes caractéristiques ou encore des quantités infimes de dopants dans le sang. En ce qui concerne l’environnement, l’utilisation de cette technologie pourrait permettre de déceler des polluants très toxiques dans la terre ou dans l’air, même en très faible quantité. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Issu du LERMAB de l’Université de Lorraine, le projet HPS, porté par le chercheur Allaoua Soudani aux côtés du Professeur Riad Benelmir, soutenu par Sayens, apporte une solution innovante aux enjeux du changement climatique grâce au développement d’un nouveau matériau aux performances énergétiques augmentées destiné à l’amélioration des systèmes de production de froid. Mis en place en 2019 par le Gouvernement, le Concours d’innovation i-PhD est destiné à stimuler et soutenir les vocations entrepreneuriales des doctorants et jeunes docteurs de la recherche publique et à les encourager à créer leur entreprise en valorisant leurs travaux et résultats de recherche. L’innovation du projet HPS (Haute Performance Sorption) consiste en un nouveau matériau composite destiné à l’amélioration des systèmes de production de froid par le principe d’adsorption. Les performances obtenues peuvent conduire à une plus large utilisation de ce principe thermodynamique qui permet de réduire par 7 la dépense énergétique pour les systèmes de climatisation et d’apporter une réponse à la problématique du besoin croissant en climatiseurs et de leur impact énergétique. Brevetée en 2021 et maturée par Sayens, l’innovation technologique permet à l’équipe de recherche de proposer une alternative frugale à la production de froid qui se fait aujourd’hui majoritairement via des systèmes de compression dont la source d’énergie est l’électricité. En outre, ces systèmes de compression utilisent des gaz frigorigènes réglementés, les HFC, ayant un impact significatif sur le réchauffement climatique. L’avantage principal de la production de froid par adsorption repose sur les possibilités d’avoir recours à des énergies renouvelables (solaire, biomasse, géothermie, …) ou de récupérer de la chaleur fatale industrielle. Dans le contexte de lutte contre le réchauffement climatique, l’enjeu est bien de trouver des solutions permettant de réduire la consommation énergétique pour les besoins croissants, tant industriels que domestiques. Ainsi, dans un rapport publié fin 2018, l’Agence internationale de l’énergie précisait que la climatisation représentait 20 % de la consommation mondiale totale d’électricité et en passe d’atteindre 37 % d’ici à 2050. La solution HPS qui repose donc sur le matériau composite adsorbant – lequel matériau permet des conversions thermiques chaud/froid au sein d’un réacteur sous très basse pression et n’utilisant que de l’eau comme fluide frigorigène – sera exploitée à terme par la future start-up qui sera créée. Article rédigé par Georges Simmonds pour RT Flash UDL | | | |
| Aux États-Unis, le leader de la robotique industrielle Sarcos collabore avec Mortenson, JLG Industries, Array Technologies et Pratt Miller pour développer un système conçu pour améliorer la sécurité et l’efficacité des chantiers de construction de champs solaires. L’idée de ce projet étant de développer un robot autonome, capable d’installer des champs de panneaux solaires. Une invention qui boosterait évidemment les installations et organiserait l’expansion de la production d’électricité verte. Cette entreprise américaine est une société technologique de pointe spécialisée dans le développement de systèmes et de solutions robotiques avancés. L’entreprise est connue pour ses travaux novateurs dans le domaine de la robotique, en particulier dans les domaines des exosquelettes, des robots téléopérés et des systèmes robotiques autonomes. Sarcos est également spécialisée dans les systèmes robotiques téléopérés, qui permettent aux opérateurs de contrôler des robots à distance depuis un endroit sûr. Ces robots téléopérés peuvent être utilisés dans des environnements dangereux, tels que les centrales nucléaires, les scénarios d’intervention en cas de catastrophe ou les tâches d’inspection à distance. En outre, Sarcos a réalisé des avancées significatives dans le développement de systèmes robotiques autonomes, capables de fonctionner sans contrôle humain direct. Dans ce dernier domaine, elle vient de terminer un projet pilote qui vise à utiliser un robot autonome pour installer des panneaux photovoltaïques. L’invention de Sarcos a déjà effectué plusieurs tests sur le terrain. Le robot autonome se présente comme un gros véhicule disposant d’un bras robotique. Celui-ci est combiné avec un véhicule de livraison, lui aussi autonome. Le projet a été baptisé Outdoor Autonomous Manipulation of Photovoltaic Panels, et financé par le US Department of Energy. L’objectif de ce robot autonome est de tout réduire à une étape seulement, si l’opération d’installation en demande normalement plusieurs. Selon Sarcos, le robot autonome pourrait permettre de combler le déficit de panneaux solaires aux États-Unis. De plus, ce robot innovant réduirait les risques d’accident pour les humains et améliorerait la production d’électricité. Sarcos espère que son robot sera opérationnel dès 2024 et affirme qu’il réduirait de 40 % le temps dédié par rapport à une ferme solaire traditionnelle. De quoi permettre aux États-Unis d’atteindre 30 % de la production d’électricité dans le pays, d’ici à 2030, comme le souhaite Joe Biden, président des États-Unis. Le robot peut fonctionner dans des conditions environnementales difficiles et sur des terrains variés. Si le système de robot autonome par Sarcos peut être opérationnel rapidement, il assurerait d’augmenter la production d’électricité verte. Cependant, ce ne sont pas ses seuls bénéfices ! En effet, il permettrait aussi une meilleure rentabilité : l’automatisation des tâches de manipulation des panneaux photovoltaïques peut réduire les coûts de main-d’œuvre et minimiser l’intervention humaine. Ce qui permet de réaliser des économies en termes d’installation, de maintenance et d’exploitation. Il serait aussi une source d’amélioration de la sécurité. Les travaux d’installation de panneaux solaires nécessitent l’utilisation de machines et un travail à grande hauteur reste toujours à risque pour l’humain. Enfin, étant programmés pour être d’une extrême précision, les robots permettraient une optimisation de l’espace et des panneaux solaires posés au millimètre près. Article rédigé par Georges Simmonds pour RT Flash Sarcos | | | |
| Des chercheurs anglais dirigés par le Docteur Ehsan Rezaee, de l’Advanced Technology Institute (ATI) de l’université du Surrey, travaillent sur la fabrication de panneaux solaires fabriqués à partir d’encre pérovskite. L’objectif est simplement de produire des blocs de construction de cellules solaires à partir d’encre pérovskite. Si l’encre pérovskite n’est pas une technologie nouvelle, les encres actuelles ne garantissent pas une transition sans heurts à l’échelle industrielle, car le processus de fabrication doit être hautement contrôlé et optimisé. « Notre encre pérovskite offre un moyen rapide et reproductible de fabriquer de manière fiable ces éléments constitutifs de cellules solaires à grande échelle, ouvrant la voie à son utilisation sur les marchés commerciaux », précise le Docteur Rezaee. Les cellules solaires en pérovskite constituent une solution légère et peu coûteuse et peuvent être construites de manière rigide ou flexible, ce qui permet de les transporter et de les installer facilement. La nouvelle étude examine les fondements des cellules solaires en pérovskite plutôt qu’en silicium traditionnel, car les cellules en pérovskite récoltent la lumière dans la partie visible du spectre solaire, qui est plus énergétique. Le professeur Ravi Silva, directeur de l’ATI à l’Université du Surrey, a déclaré : « L’université du Surrey a toujours cru au potentiel des panneaux solaires, un domaine de recherche essentiel qui, à terme, nous permettra de nous éloigner des anciennes sources d’énergie dangereuses ». Article rédigé par Georges Simmonds pour RT Flash Azom | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Un vaste projet de recherche européen a débuté afin de développer un système intégrant une série de capteurs de nouvelle génération pour analyser la qualité de l'eau in situ. Grâce à la présence de trois capteurs optiques et un capteur électrochimique, il permettra de surveiller avec précision une large gamme de paramètres. Les techniques habituelles de mesure de la concentration de substances polluantes dans l’eau consistent à réaliser un prélèvement, puis à envoyer l’échantillon dans un laboratoire pour analyse. Elles permettent d’obtenir une bonne sensibilité de la mesure, mais se révèlent coûteuses, et surtout il n’est pas possible d’obtenir le résultat des analyses sur place et en continu. Des dispositifs de mesure in situ existent, proposés principalement par des fournisseurs non européens, mais ces solutions coûtent cher, ou sont peu fiables, consomment beaucoup d’énergie, et ne détectent qu’un faible nombre de polluants à la fois. Un projet européen baptisé IBAIA1, coordonné par le CNRS et rassemblant dix-sept partenaires dont huit entreprises, vient de débuter et a pour objectif de développer un syst& egrave;me multicapteurs de nouvelle génération, permettant la surveillance précise d’une large gamme de paramètres in situ. Au total, quatre modules de capteurs vont être intégrés dans ce nouveau système, comme l’explique Virginie Nazabal, coordinatrice de ce projet de recherche et chercheuse CNRS à l’Institut des sciences chimiques de Rennes : « À l’origine, nous avons répondu à un appel à projet sur la photonique, il y aura trois capteurs optiques, mais j’ai voulu ajouter un dernier basé sur l’électrochimie, car je souhaitais associer des méthodes qui sont souvent présentées comme concurrentes, pour qu’elles soient plutôt complémentaires. Il n’y a jamais de système idéal, selon les molécules que l’on souhaite détecter, parfois la méthode électrochimique est la plus adaptée, et dans d’autres cas, mieux vaut utiliser l’optique ». Un premier capteur optique dans l’infra-rouge moyen aura pour rôle de détecter des contaminants organiques. Le choix s’est porté sur la détection d’hydrocarbures, en lien avec les problématiques rencontrées par Cedre, une association experte en pollutions accidentelles. Un prototype va être développé pour détecter le toluène, en sachant que s’il est capable d’identifier ce composé, il pourra détecter tous les types d’hydrocarbures. Ce capteur devra aussi détecter le S-métolachlore, un herbicide, dont des résidus ont été retrouvés dans les nappes phréatiques à des niveaux dépassant les normes de qualité. Le diclofénac, un anti-inflammatoire utilisé dans différents médicaments et dont des traces ont été retrouvées dans les eaux destinée s à la consommation humaine, sera lui aussi détecté. Un second capteur dans le domaine du visible et du proche infra-rouge aura pour fonction d’identifier la présence de microplastiques dans l’eau ainsi que son niveau de salinité. « Nous souhaitons développer la technologie de la photonique sur verre, pour des aspects de respect de l’environnement, car les substrats utilisés sont hautement recyclables. Nous sommes au tout début de ce travail de recherche et le challenge est élevé. Nous allons commencer par mesurer la salinité, puis les microplastiques ». Un dernier capteur optique, appelé optode, sera chargé de contrôler différents paramètres physico-chimiques dans l’eau tels que le pH, l’oxygène et le CO2. Fonctionnant à l’aide d’un transducteur chimique, ce type de capteur existe déjà, mais présente l’inconvénient de manquer de stabilité. « Nous allons développer des fluorophores, ce sont des membranes que l’on intègre dans ces optodes, pour améliorer les problèmes de dérive de la mesure dans le temps. Nous sommes très avancés et testons un prototype pour la mesure de l’oxygène et le pH. Il fonctionne, mais il faut l’optimiser et développer de nouveaux fluorophores dans le but d’obtenir un capteur très robuste, et qui s’adapte à n’importe quel type d’eau, qu’elle soit saline ou douce &raqu o;. Enfin, le capteur électrochimique sera utilisé pour quantifier des sels nutritifs (nitrate, phosphate) et des métaux lourds (arsenic, cadmium). Il est développé en partenariat avec Klearia, une start-up française, qui a déjà développé un prototype pour détecter l’arsenic. « Sur les nitrates, nous sommes bien avancés sur la détection en laboratoire, et nous débutons les phosphates, avant de poursuivre sur le cadmium ». Ce projet de recherche doit s’achever dans quatre ans et est doté d’un budget de 4,8 millions d’euros. Plusieurs des quatre modules de capteur développés devraient atteindre un niveau de maturité technologique classé 4 voire 5 sur l’échelle TRL (Technology Readiness Level) qui en compte 9. Le projet IBAIA s’inscrit dans le cadre d’un renforcement des réglementations sur la qualité de l’eau en lien avec les objectifs du Pacte Vert européen, et répond à la nécessité de trouver des solutions innovantes pour leur surveillance. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une étude récemment menée par une douzaine de scientifiques aux États-Unis et en Israël a permis d'isoler un nano-anticorps qui pourrait se révéler précieux pour l'humanité. Ces scientifiques ont réussi à trouver des molécules efficaces pour bloquer à la source tous les variants du SARS-CoV-2 et empêcher leur développement. Ces molécules, qui sont des nano-anticorps (ou nanocorps) beaucoup plus petits et moins complexes que des anticorps traditionnels, ont été obtenues grâce à... un lama. Le site d'actualité scientifique raconte que dans le cadre de l'étude, les chercheurs ont effectué une série de manipulations en laboratoire sur un échantillon de sang provenant du camélidé, ce qui leur a permis de trouver la perle rare. Au cours du processus, qui consistait notamment à immuniser l'échantillon contre le Covid, puis à le faire réagir à différents variants, les scientifiques ont ainsi constaté le rôle décisif joué par des nanocorps capables, au niveau moléculaire, de "se lier simultanément" à plusieurs récepteurs du coronavirus, empêchant ainsi que ce dernier puisse se développer dans l'organisme. « Ces nanocorps sont très efficaces contre les variants du SARS-CoV et du SARS-CoV-2, y compris Omicron », confirment les auteurs de l'étude. La molécule en question pourrait donc constituer une base très intéressante pour traiter le Covid-19, d'autant plus qu'elle est, selon les chercheurs, plutôt simple et peu coûteuse à produire, mais également plutôt facile à administrer. « Dans une étude préclinique, nous avons montré que notre nanocorps – PiN-31 – peut protéger à la fois les poumons et les voies respiratoires supérieures contre les infections », se félicite le professeur Yi Shi, docteur en biologie cellulaire et auteur principal de l'étude, cité par Medical News Today. « Nos données indiquent que la thérapie par inhalation à base de nanocorps peut minimiser la transmission et qu'elle est probablement complémentaire au vaccin existant ». Reste désormais à confronter ce traitement potentiel aux prochaines phases de test, avant d'envisager sa diffusion à grande échelle. Les chercheurs sont en tout cas très optimistes quant au potentiel d'assimilation de ces nanocorps. « Ils peuvent permettre de surmonter les problèmes fondamentaux rencontrés par les anticorps humains. Parce que ce sont de grosses molécules, nos anticorps traditionnels ont une faible pénétration dans les tissus (...) ainsi qu'une liaison faible ou inexistante avec les régions de la surface de certaines molécules qui ne sont entièrement accessibles qu'aux molécules de plus petite taille ». Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Des biologistes et de pathologistes de l’Université de Pittsburgh ont montré qu’il était possible de pouvoir observer les caractéristiques nanoscopiques du cancer, dès les tous débuts de son développement, avant même son apparition. Les scientifiques ont mis au point une nouvelle étiquette fluorescente qui donne une image plus claire de la façon dont l'architecture de l'ADN est perturbée dans les cellules cancéreuses. Ces travaux vont permettre d’améliorer considérablement la détection, le diagnostic et la classification des cancers. Il s’agit d’un colorant qui se lie à l'ADN qui permet la génération d’images de très haute qualité via la microscopie à fluorescence à super résolution. Cette étude confirme le bon fonctionnement de cette étiquette fluorescente dans des biopsies cliniques déjà documentées. L’auteur principal, le Docteur principal Yang Liu, professeur agrégé de médecine et de bio-ingénierie à l'Université de Pittsburgh, se concentre, avec un laboratoire dédié, sur le développement de techniques de microscopie pour "visualiser l'invisible" : « Nous sommes parmi les premières équipes à explorer les capacités de la microscopie à super résolution dans le domaine clinique. Nous avons développé un colorant ADN facile à utiliser ». A l'intérieur du noyau de la cellule, des brins d'ADN sont enroulés autour de protéines. Habituellement, les pathologistes utilisent des produits traditionnels pour visualiser la perturbation de ce complexe ADN-protéine, ou chromatine, en tant que marqueur de cancer ou de lésions précancéreuses. « Bien que nous sachions que la chromatine est modifiée à l'échelle moléculaire au cours de la cancérogenèse, jusqu’ici nous n'avions pas été en mesure de visualiser clairement ces changements », commente l’auteur principal. En 2014, l'invention de la microscopie à fluorescence à super-résolution a marqué une étape majeure vers l’atteinte de cet objectif. La cellule étudiée est marquée avec un colorant fluorescent spécial qui s'allume et s'éteint de manière spécifique en fonction de "la santé" de la chromatine : le nouveau marqueur produit des images à plus haute résolution que les autres colorants ; dans les cellules normales, la chromatine est dense, en particulier sur les bords du noyau. L'ADN condensé brille vivement car une densité plus élevée de marqueurs émet un signal plus fort ; au fur et à mesure que le cancer progresse, la chromatine devient moins dense et la structure compacte à la frontière nucléaire est gravement perturbée, la chromatine faiblement tassée produit un signal plus faible. Si la technique combinée avec la microscopie à super-résolution ne remplacera pas à court terme la microscopie traditionnelle pour les diagnostics cliniques de routine, elle va permettre une détection plus précoce des cancers et une stratification plus fine des risques. « Les lésions à un stade précoce peuvent avoir des résultats cliniques très différents. Certains patients développent un cancer très rapidement, d'autres restent longtemps au stade précancéreux ». Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| Dans une découverte fondamentale pour le fonctionnement interne des cellules, les scientifiques ont découvert que si le stress oxydatif endommage les usines de protéines appelées ribosomes, des équipes de réparation peuvent intervenir pour aider à réparer les dommages afin que le travail puisse reprendre rapidement. La découverte pourrait avoir des implications pour le cancer, le processus de vieillissement, la croissance et le développement, a déclaré l’auteur principal de l’étude, la biologiste moléculaire Katrin Karbstein, Ph.D., professeur à l’Institut Herbert Wertheim UF Scripps pour l’innovation et la technologie biomédicales. « Littéralement plus de la moitié de la masse de toutes les cellules sont des ribosomes. Si vous n’avez pas assez de ribosomes, ou s’ils fonctionnent mal, les protéines ne sont pas fabriquées correctement, et cela peut entraîner toutes ces maladies. Nous savons que des défauts dans la machinerie des ribosomes se retrouvent dans toutes les cellules cancéreuses, par exemple », souligne la Docteure Katrin Karbstein. Chez l’homme, une cellule individuelle peut avoir 10 millions de ribosomes, assemblant les protéines commandées par les gènes, un acide aminé à la fois. Alors que beaucoup de facteurs peuvent les endommager -; infections, lumière ultraviolette, rayonnement ou stress oxydatif – ; les cellules ont une capacité remarquable à se protéger. Ces recherches ont mis en évidence un remarquable mécanisme de réparation, face aux dommages causés par le stress oxydatif. Le stress oxydatif se produit dans les cellules lorsque les molécules d’oxygène hautement réactives, produites par le processus du métabolisme énergétique, viennent endommager les protéines. Dans le cas des ribosomes, ce stress oxydatif peut totalement arrêter le travail de construction des protéines. Les scientifiques ont découvert que les ribosomes corrigent ces dommages indésirables avec des molécules auxiliaires, qui agissent comme des chaperons, escortant les protéines endommagées loin de la cellule. Les dégâts sont rapidement réparés et le ribosome redevient fonctionnel. Par ce mécanisme ingénieux et optimisé de réparation, la cellule évite ainsi d’avoir à décomposer et recréer des ribosomes entièrement nouveaux. « Ce système de réparation ribosomique remarquable semble être à l’œuvre chez de nombreuses espèces, y compris les humains. Sa compréhension et son utilisation ouvrent de vastes perspectives thérapeutiques dans de nombreuses maladies, dont le cancer, ainsi que dans le contrôle du processus de vieillissement cellulaire », précise l’étude 8230;» Article rédigé par Georges Simmonds pour RT Flash EurekAlert | | | |
| Des cancérologues de la NYU Langone Health et NYU Grossman School of Medicine ont présenté un médicament d'immunothérapie de nouvelle génération, prometteur dans plusieurs cancers. Au-delà du médicament lui-même et de son potentiel, ces travaux présentés lors de la dernière Réunion annuelle de l'American Society for Clinical Oncology (ASCO, Chicago), ouvrent l’espoir d’une nouvelle génération d’immunothérapies "universelles", efficaces contre les cancers à stade avancé, réfractaires aux traitements existants. Les premiers résultats de l'étude montrent précisément que le médicament expérimental d’immunothérapie "nemvaleukin alfa", utilisé seul ou en association avec un autre anticancéreux (pembrolizumab), est bien efficace dans le traitement de plusieurs types de cancers à un stade avancé, chez certains patients. Les 2 médicaments sont des immunothérapies, des médicaments conçus pour aider le système de défense immunitaire de l'organisme à détecter et à tuer les cellules cancéreuses, « comme s'il s'agissait d'un virus envahissant ». Ces 2 médicaments stimulent ainsi l'action des cellules immunitaires qui attaquent directement et plus activement le cancer et empêchent les cellules cancéreuses d'échapper à la surveillance du système immunitaire. L’essai international de phase I/II, mené auprès de patients atteints d’un cancer n’ayant pas auparavant répondu aux autres immunothérapies, montre que une série d'injections de nemvaleukin alfa permet de stopper la croissance tumorale ou au moins une certaine diminution des tumeurs pendant au moins 6 mois chez 18 % des 22 participants, hommes et femmes, atteints d'un cancer du rein avancé (carcinome à cellules rénales). L’immunothérapie par nemvaleukin alfa démontre une activité anticancéreuse significative en combinaison avec des injections d'une autre immunothérapie plus largement utilisée, le pembrolizumab : précisément, la combinaison permet une augmentation soutenue et décuplée de la production de lymphocytes T CD8 et de cellules tueuses naturelles, des cellules immunitaires hautement spécialisées connues pour combattre le cancer, et cela chez 16 % des 137 participants atteints de tous les types de cancer. La même efficacité est observée chez 4 des 14 (28 %) femmes atteintes d'un cancer de l'ovaire dont la tumeur n'avait pas répondu à la chimiothérapie initiale. « Pris ensemble, ces premiers résultats suggèrent que la thérapie par nemvaleukin alfa est généralement sûre, bien tolérée et efficace pour plusieurs cancers très différents », conclut l’auteur principal, le Docteur Vamsidhar Velcheti, oncologue et directeur du programme d'oncologie médicale thoracique de Perlmutter. L’immunothérapie, en association avec d'autres médicaments anticancéreux, pourrait constituer une option intéressante pour les personnes atteintes d'un cancer à un stade avancé réfractaire aux thérapies de première ligne. Article rédigé par Georges Simmonds pour RT Flash EurekAlert | | | |
| Des chercheurs du Scripps Research (La Jolla) ont mis au point ou nouvel outil qui permet de rendre les tissus humains (et animaux) transparents, va faciliter considérablement l’étude de nombreuses maladies, à l'échelle du corps telles que l'infection COVID-19. La méthode consiste à « nettoyer » les tissus afin de rendre transparents de grands échantillons biologiques. La technique permet ainsi aux scientifiques de visualiser et d'étudier plus facilement les processus biologiques sous-jacents de multiples systèmes et organes, sains ou malades. Les premières méthodes de nettoyage des tissus ont été développées il y a environ 15 ans, principalement dans le but de tracer les connexions nerveuses dans le cerveau. Si ces méthodes fonctionnaient bien pour le cerveau, elles restaient moins adaptées à d'autres parties du corps ou à d’autres systèmes entiers. Cette nouvelle technique, nommée "Hybrid" combine des éléments de 2 approches existantes de nettoyage des tissus, avec l’objectif de pouvoir étudier de grands échantillons. L’auteur principal, Li Ye, professeur de neurosciences au Scripps Research ajoute que la méthode permet l’étude de « grands systèmes du corps ou même d'animaux entiers ». Le nettoyage des tissus implique l'utilisation de solvants pour éliminer les molécules qui rendent les tissus opaques (comme la graisse). L’objectif est de rendre les tissus optiquement transparents, tout en maintenant en place et en préservant la plupart des protéines et des structures. Les scientifiques utilisent couramment des balises fluorescentes codées génétiquement ou liées à des anticorps pour marquer des gènes actifs ou d'autres molécules d'intérêt c hez un animal modèle de laboratoire, et les balises peuvent ensuite être "imagées" en une seule fois pour l'ensemble de l'animal. Les procédés actuels utilisent soit des solvants organiques, soit des solvants aqueux. Les premiers agissent généralement plus rapidement et plus puissamment mais ont tendance à diminuer les signaux fluorescents. Les méthodes utilisant des solvants à base d'eau sont plus efficaces pour préserver la fluorescence, mais peu efficaces à éliminer les tissus non cérébraux. De plus, les 2 types de méthodes nécessitent des procédures lourdes exigeant à la fois des ressources humaines importantes et des produits chimiques dangereux. En d’autres termes, ces procédures ne peuvent pas être effectuées « en routine » par tous les laboratoires de biologie médicale. La nouvelle méthode utilise une combinaison séquentielle de solvants organiques et de détergents à base d'eau ainsi que des hydrogels qui permettent de protéger les molécules du tissu qui doivent être préservées. La procédure est simplifiée : « Dans de nombreux cas, il est possible de mettre le tout dans un bocal et le conserver dans un shaker sur votre paillasse jusqu'à l’analyse », explique Victoria Nudell, co-auteur et chercheur au Scrpps. « Il devient possible d’effectuer l’analyse en routine ». Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Une étude australienne a montré qu’une alimentation riche en magnésium est associée à un moindre rétrécissement cérébral lié à l’âge. Si le magnésium est reconnu pour ses vertus sur notre bien-être mental, ce sel minéral essentiel serait également bénéfique pour notre organe cérébral. En effet, selon les conclusions de chercheurs du Neuroimaging and Brain Lab de l’Australian National University (ANU), une plus grande consommation de magnésium quotidienne permettrait d’améliorer notre santé cérébrale à mesure que nous vieillissons. Cette étude a été menée sur plus de 6 000 personnes en bonne santé cognitive au Royaume-Uni, âgées de 40 à 73 ans. Les participants ont rempli cinq questionnaires concernant leurs régimes alimentaires sur une période de 16 mois, afin de calculer leurs apports alimentaires quotidiens en magnésium. Des scans cérébraux ont ensuite été effectués puis comparés. Les résultats ont révélé que les personnes qui consommaient plus de magnésium conservaient un volume cérébral plus important sur le long terme que celles qui se limitaient aux apports recommandés (soit 320 mg pour les femmes et 400 mg pour les hommes). Or, avec l’âge, et c’est normal, notre cerveau s’atrophie. Il peut alors perdre jusqu'à 10 % de sa taille normale. « Notre étude montre qu’une augmentation de 41 % de l'apport en magnésium pourrait donc réduire le rétrécissement du cerveau lié à l'âge, ce qui est associé à une meilleure fonction cognitive et à un risque plus faible, ou une apparition plus tardive, de démence », a déclaré l'auteur principal et chercheur, Khawlah Alateeq. Plus concrètement, les chercheurs ont évalué que les participants consommant plus de 550 mg de magnésium par jour avaient, lorsqu’ils atteignaient les 55 ans, un âge cérébral d'environ un an inférieur à leur âge biologique attendu. D’autre part, ces effets neuroprotecteurs semblent profiter davantage aux femmes qu'aux hommes, et encore davantage aux femmes ménopausées plutôt qu'aux femmes pré-ménopausées. Cela est peut-être dû à l'effet anti-inflammatoire du magnésium avancent les chercheurs. Reste que pour l’équipe australienne, il est primordial de faire attention à notre consommation de magnésium et ce, dès le plus jeune âge, en intégrant des aliments riches de ce minéral dans notre régime alimentaire habituel. Parmi ceux cités par les scientifiques, on retrouve les légumes-feuilles, les légumineuses, les noix, les graines et les céréales complètes. Article rédigé par Georges Simmonds pour RT Flash NIH | | | |
| Une étude française a évalué l’impact de trois régimes alimentaires (limitant la résistance à l’insuline, l’inflammation et les œstrogènes) sur le pronostic post-cancer du sein. Les résultats montrent que les femmes qui adhéraient davantage à une alimentation limitant le risque d’insulino-résistance et plutôt anti-inflammatoire avant le diagnostic de cancer du sein ont une meilleure survie que les autres. Bien que le rôle de l’alimentation comme facteur protecteur de la survie post-cancer soit encore limité, les auteurs évoquent que « ce serait la première fois que l’association entre le potentiel insulinémique, inflammatoire et œstrogénique de l’alimentation et la mortalité est évaluée ». Pourquoi est-ce important ? Les mécanismes impliquant l’inflammation, l’insuline et les œstrogènes ont été tous trois associés au cancer du sein. De plus en plus d’études portent sur des modèles alimentaires plutôt que sur un aliment ou un nutriment, offrant une cohérence plus forte à la réalité, même si elles sont plus complexes à réaliser. Aujourd’hui, il reste encore difficile de proposer des recommandations alimentaires spécifiques après un cancer, mal gré une contribution probable au pronostic des patients. Les chercheurs ont examiné via une étude prospective, l’association entre l’adhésion à trois types de régimes – 1/ réduisant le risque d’insulino-résistance ; 2/ anti-inflammatoire ; 3/ anti-œstrogénique – et la mortalité toutes causes confondues ainsi que celle spécifiquement liée au cancer du sein. Si le premier régime était défini a priori, des scores spécifiques indiquant l’importance des aliments inflammatoires et œstrogéniques dans l’alimentation ont été calculés pour les deux autres. Les patientes étudiées étaient issues de l’étude EPIC (European Prospective Investigation into Cancer and Nutrition, cohorte collaborative qui porte sur plus d’un demi-million d’adultes d’âge moyen recrutés entre 1992 et 2000). Au moment du recrut ement, les participantes ont rempli un questionnaire spécifique concernant leurs habitudes alimentaires durant l’année écoulée, leur mode de vie, leurs antécédents médicaux et leurs données anthropométriques. Un prélèvement de sang a également été réalisé pour conduire de multiples analyses. Les données concernant le cancer et la mortalité ont été recueillies via les registres du cancer des différents pays. Au total, 13.270 femmes ayant un cancer du sein ont été incluses. Elles provenaient de différents pays : Allemagne, Danemark, Espagne, France, Italie, Norvège, Pays-Bas, Royaume-Uni et Suède. Durant un suivi moyen de 8,6 ans à partir du diagnostic, 1.475 sont décédées du fait de leur cancer. Le profil type des femmes atteintes de cancer du sein dans la cohorte EPIC correspondait à une femme âgée entre 55 et 65 ans, non fumeuse, consommant de l’alcool avec modération, dont le poids était normal et qui était plutôt inactive physiquement. Les femmes de l’étude étaient majoritairement ménopausées (77 %) et avaient une tumeur non métastatique (82 %). Les analyses ont montré que les femmes qui adhéraient le plus à un régime limitant le risque de diabète avaient 20 % de diminution du risque de mortalité toutes causes confondues par rapport à celles qui y adhéraient le moins. Chaque augmentation du score d’adhésion à ce régime diminuait ce risque de 7 %. Les associations entre l’adhésion à un régime limitant le risque de d’insulino-résistance ou l’inflammation et la mortalité étaient plus fortes chez les femmes ménopausées, physiquement inactives, et chez celles qui présentaient des tumeurs métastatiques. Le fait de ne pas adhérer à un régime favorisant l’insulino-résistance ou proinflammatoire était associée à une diminution de 17 % du risque de mortalité globale (HR 0,83 [0,73-0,93]) par rapport à un régime favorisant l’insulino-résistance et proinflammatoire. La survie à 15 ans de femmes ayant un régime favorisant l’insulino-résistance et pro-inflammatoire était de 69 % contre 73 % pour celles qui avaient une alimentation qui favorisait le moins l’insulino-résistance et la plus anti-inflammatoire. Article rédigé par Georges Simmonds pour RT Flash BJC | | | |
| Deux avancées thérapeutiques importantes ont été annoncées à quelques jours d’intervalle contre la maladie d’Alzheimer, qui reste à ce jour incurable et que l’on peut, au mieux, ralentir avec les traitements actuels. La première a été réalisée par des scientifiques de l'University College de Londres espérant qu’un nouveau médicament à l’étude pourrait freiner une protéine liée aux lésions cérébrales causées par la maladie d'Alzheimer. Comme le rapporte le Mirror, ces chercheurs de l’University College de Londres auraient peut-être trouvé le moyen de contrer la maladie d’Alzheimer. Ils auraient découvert un médicament qui réduirait de 50 % l’accumulation d’une protéine liée à des lésions cérébrales irréversibles. Pour parvenir à cette trouvaille, les scientifiques ont passé au crible pendant trois ans les données de 46 patients aux premiers stades de la maladie. Grâce à ce médicament appelé “BIIBO80”, ils se sont aperçu d’une réduction de la protéine “tau” dans le système nerveux central, « l'une des protéines toxiques qui s'agglutine dans le cerveau des personnes atteintes de la maladie d'Alzheimer », a déclaré le professeur Tara Spires-Jones, précisant que ce traitement était sans danger. Aucun effet secondaire grave n’a été signalé, a-t-elle rappelé. Des essais plus importants doivent donc être réalisés pour savoir si ce traitement peut ralentir ou même inverser les symptômes de la maladie d’Alzheimer. « Nous aurons besoin de recherches supplémentaires pour comprendre dans quelle mesure le médicament peut ralentir la progression des symptômes physiques de la maladie et évaluer le médicament chez des groupes de personnes plus âgées et plus impotentes », a déclaré de son côté le Docteur Catherine Mummery tout en rappelant que ces résultats représentaient un grand pas en avant. « Nous sommes désormais en capacité de cibler la protéine tau avec succès », a-t-elle ajouté. Pour rappel, deux protéines appelées amyloïde et tau ont longtemps été détectées dans le cerveau des patients atte ints de la maladie d'Alzheimer et sont soupçonnées d'être à l'origine des symptômes dévastateurs de la démence. La seconde avancée concerne les effets du suvorexant, un somnifère autorisé aux États-Unis contre les insomnies. L’équipe de l'Université Washington à Saint-Louis a mené une petite expérience en clinique pendant deux jours. Au total, trente-huit participants âgés de 45 à 65 ans sans trouble cognitif ont été recrutés. Les chercheurs ont voulu savoir si l’amélioration de la qualité du sommeil pouvait réduire les niveaux de tau et de bêta-amyloïde. Rappelons-le, des niveaux élevés de ces deux protéines du liquide céphalo-rachidien, présentes dans le cerveau et la moelle épinière, sont impliqués dans le développement d’Alzheimer. La maladie « commence lorsque des plaques de la protéine bêta-amyloïde commencent à s'accumuler dans le cerveau. Après des années d'accumulation d'amyloïde, une deuxième protéine cérébrale, tau, commence à former des enchevêtrements toxiques pour les neurones. Les personnes atteintes commencent à ressentir des symptômes cognitifs tels que la perte de mémoire au moment où les enchevêtrements de tau deviennent détectables », définit un communiqué de l’Université Washington. Pour évaluer l’efficacité du somnifère, certains volontaires ont reçu une faible dose de suvorexant, d’autres ont eu une dose plus élevée et enfin, une dernière autre partie a consommé du placebo. Plusieurs fois au cours de l’expérience, des prélèvements de leur liquide céphalo-rachidien ont été réalisés. Résultats : dans le groupe avec la dose la plus élevée, les concentrations de bêta-amyloïde ont été réduites de 10 à 20 %, et les niveaux d’une forme modifiée de la protéine tau – tau hyperphosphorylé - ont chuté de 10 % à 15 %, par rapport au placebo. « Il s'agit d'une petite étude de preuve de concept. Il serait prématuré pour les personnes qui craignent de développer la maladie d'Alzheimer de l'interpréter comme une raison de commencer à prendre du suvorexant tous les soirs », a nuancé l'auteur principal Brendan Lucey, professeur agrégé de neurologie et directeur du Sleep Medicine Center de l'Université de Washington. L’effet du somnifère n'a été observé que sur une seule forme de protéine tau, et les concentrations ont remonté dans les 24 heures suivant l'arrêt de la prise du somnifère. « Nous ne savons pas encore si l'utilisation à long terme est efficace pour conjurer le déclin cognitif, et si c'est le cas, à quelle dose et pour qui. Néanmoins, ces résultats sont très encourageants », ajoute-t-il. Article rédigé par Georges Simmonds pour RT Flash Neurology WUSTL | | | |
| Les chirurgiens de Stanford Medicine aux États-Unis sont parvenus à transplanter un cœur alors qu'il battait encore, en utilisant un organe prélevé sur un donneur en état de mort cardiaque. Initiée par le professeur de médecine Joseph Woo, titulaire de la chaire de chirurgie cardiothoracique, et son équipe, la technique a depuis été utilisée cinq fois chez des patients adultes et pédiatriques par des chirurgiens de Stanford Medicine. Les donneurs en état de mort cérébrale ont longtemps constitué la majorité des transplantations cardiaques, car avec ces patients, qui ont été maintenus sous assistance respiratoire avant l'obtention, il a été plus facile de conserver l'organe stabilisé et d'assurer sa santé. Mais la demande dépassant l'offre, le monde médical a été poussé à rechercher de nouvelles approches. C’est pourquoi les progrès technologiques récents ont permis de réussir cette transplantation cardiaque issue de donneurs décédés par ce qu'on appelle une mort cardiaque ou circulatoire. Cela consiste à prélever un cœur qui s'est déjà arrêté deux fois, d'abord à la mort du donneur, puis immédiatement avant la transplantation, après avoir passé du temps branché &agr ave; une machine qui l'a perfusé avec du sang oxygéné. Une telle procédure augmente le nombre de cœurs disponibles pour la greffe, mais les résultats pour les receveurs sont moins bons. L'innovation dans l'intervention réalisée à Stanford a consisté à greffer le coeur alors qu'il avait recommencé à battre. « Arrêter le cœur une deuxième fois, juste avant la transplantation, induit plus de blessures », a déclaré le professeur Woo. Les patients de Stanford ont montré de meilleurs résultats à la fin de l'implantation, quittant l'hôpital plus tôt que d'habitude parce que le cœur et son nouvel hôte s'engrenaient plus rapidement. Aujourd’hui, les six patients qui ont reçu les transplantations vont bien. Cette première transplantation cardiaque battante a duré quatre heures. Ce jour-là, l'équipe de soins de santé de Stanford était prête à recevoir un cœur provenant d'un donneur décédé cardiaque. L'équipe a rapidement connecté ce cœur à un appareil de pontage cardio-pulmonaire. La machine assurait le flux ininterrompu de sang chaud. Le professeur Woo a alors commencé le processus difficile de coudre un cœur battant dans la poitrine du destinataire. « Garder le cœur battant semble vraiment faire une différence dans la force du cœur avec moins de temps passé sur la machine cœur-poumon », ont souligné les membres de l’équipe de médecins. Désormais, la prochaine étape pour les médecins est de parvenir à trouver un moyen de ne jamais avoir à arrêter le cœur durant la transplantation. Article rédigé par Georges Simmonds pour RT Flash JTCVS | | | |
| Les effets bénéfiques de l'activité physique modérée sur la cognition sont supérieurs à ceux de l'activité physique intense, ont constaté des chercheurs de l'Université d'Ottawa. Cette étude serait aussi la première à montrer par l'approche génétique les effets de l'activité physique sur la santé cognitive. Le professeur Matthieu P. Boisgontier et ses collègues ont mesuré que les bienfaits cognitifs de l'activité physique modérée étaient de 50 % supérieurs à ceux de l'activité physique soutenue. « On a montré qu'il y avait une relation entre l'activité physique d'intensité modérée et d'intensité plus élevée, qui allait expliquer le niveau de cognition, le niveau de capacité cognitive à réfléchir, et ça, quel que soit l'âge », a dit M. Boisgontier, qui est professeur agrégé de sciences de la réadaptation à la Faculté des sciences de la santé de l'Université d'Ottawa et chercheur principal à l'Institut de recherche Bruyère. Les chercheurs ont utilisé une technique appelée randomisation mendélienne à facteurs de confusion génétiques latents, qui analyse les infimes différences génétiques qui existent entre les personnes. Ces différences, a dit le professeur Boisgontier, peuvent entre autres expliquer pourquoi certains sont plus portés que d'autres à faire de l'activité physique, en compagnie de facteurs comme l'environnement, l'éducation et le statut socioéconomique. Les résultats soulignent à nouveau que l'exercice, peu importe son intensité, a un effet positif sur la santé cérébrale et sur différents facteurs comme la mémoire, la capacité à résoudre des problèmes et à se concentrer, et le temps de réaction, ont indiqué les chercheurs. Ces résultats rejoignent ceux d'études antérieures qui avaient montré l'effet de l'exercice sur la libération d'une protéine, la BDNF, qui favorise la création de nouveaux neurones, de nouvelles connexions entre ces neurones et de nouveaux vaisseaux sanguins qui alimentent ces neurones. Cet effet expliquerait les mécanismes qui sont à la base des bienfaits de l'activité physique sur les fonctions cognitives. Toute séance d'activité physique stimule la production de la protéine BDNF dans le cerveau, souligne le Professe ur Boisgontier, et les données rappellent donc qu'il n'est jamais trop tard pour s'activer physiquement et en retirer des bienfaits. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|