| | Edito INTEL 1971 : 2500 transistors sur le premier microprocesseur. En 2030, mille milliards de transistors sur une puce
Considéré à juste titre comme l'une des plus grandes inventions de tous les temps, le transistor (de l'anglais Transfert Resistor), composant de base de toute l'électronique moderne, a été mis au point en1947 par les Américains John Bardeen, William Shockley et Walter Brattain. L'invention du transistor a été un immense progrès, mais les premiers ordinateurs sont apparus sur le marché avant cette invention. En effet, les premiers ordinateurs, qu'il s'agisse du Colossus Mark 1 (1943), ou de l'ENIAC (1946), étaient conçus à base de tubes à vide. Le Colossus en comptait 2400 et l'ENIAC en possédait 18 000, ce qui lui permettait d'effectuer 5000 opérations par seconde. Mais n'en déplaise à nos amis Anglais et Américains, le premier ordinateur alimenté électriquement et programmable en calcul binaire et à virgule flottante fut le célèbre Z3, conçu par le génial ingénieur allemand Konrad Zuss, en 1941. Après le transistor, puis le circuit intégré (1958), l'électronique et l'informatique connurent un nouvelle rupture technologique majeure avec le premier microprocesseur d’Intel (unité centrale d'information), sorti en 1971, qui comptait 2500 transistors (une prouesse pour l'époque) et allait révolutionner l'informatique, les télécommunications et le multimédia en permettant notamment l'incroyable essor des ordinateurs personnels, apparus en 1981, des téléphones mobiles, apparus en 1983, et de l'Internet, ouvert au grand public en 1989. Mais le plus extraordinaire a été l'incroyable progression, sans équivalent dans toute l'histoire technologique, de la miniaturisation des puces électroniques : les puces les plus puissantes actuellement réalisables en laboratoire (qui arriveront sur le marché en 2025) sont gravées avec des pistes de 2 nanomètres et comptent plus de 50 milliards de transistors, ce qui veut dire que la fameuse loi édictée par Gordon Moore en 1965, prévoyant un doublement tous les deux ans du nombre de transistors implantables sur une seule puce, a été globalement respectée depuis plus d'un demi-siècle. Ces futures puces à 2 nanomètres auront des performances 45 % plus élevées, pour une consommation d’énergie 75 % inférieure, par rapport aux puces de 7 nm les plus avancées d’aujourd’hui. Elles permettront d’accroître sensiblement la puissance et l'autonomie des appareils numériques, portables, mobiles ou tablettes. On mesure mieux le chemin parcouru grâce à cette prodigieuse descente vers l'infiniment petit, quand on sait qu'en 2022, on comptait environ 6,5 milliards d'appareils numériques en service dans le monde, (ordinateurs portables et de bureau, tablettes et téléphones mobiles), pour 5,3 milliards d’utilisateurs réguliers du Net, ce qui veut dire que les deux tiers de la population mondiale sont à présent connectés au Web... Et ce chiffre va s'accélérer car, en parallèle à l'essor des mobiles et ordinateurs connectés au Net, le nombre de téléviseurs connectés au Web progresse à présent encore plus rapidement : on estime en effet que dans trois ans, plus de la moitié des deux milliards de foyers dans le monde possédera un téléviseur raccordé à l'Internet. Il y a un an, Samsung a été le premier a sortir la première puce gravée à 3 nanomètres (3 milliardièmes de mètres), en combinant deux innovations technologiques, l'emploi de la litho-gravure par rayonnement ultraviolet extrême, et des nouveaux transistors de type GAAFET (Gate-All-Around Transistors), constitués d’une grille qui entoure complètement le canal de conduction des électrons, contrairement aux transistors finFET. Ce canal se compose de 3 couche s de nanofeuilles de silicium empilées les unes au-dessus des autres. Et Samsung ne compte pas s'arrêter en si bon chemin et annonce déjà les premières puces gravées à 1,4 nanomètre (ou 14 Angström) en 2027. Le taïwanais TSMC, qui est devenu leader mondial des semi-conducteurs en assurant la production de la moitié des puces vendues sur la planète, n'est pas en reste et a annoncé fin 2022 qu'il avait démarré la production de masse de puces gravées en 3 nanomètres, qui seront présentes dans les appareils mobiles. Ces transistors de 3 nm devraient permettre de diminuer d'un tiers la consommation d'énergie par rapport à la gravure en 5 nm. Le fondeur produira cette nouvelle gamme dans le sud de Taïwan, dans une usine pour laquelle il a investi la somme faramineuse de 60 milliards de dollars. TSMC qui veut garder sa suprématie mondiale va par ailleurs investir 40 milliards de dollars dans ses deux futures usines américaines destinées également à la production de ces puces gravées en 3 nanomètres et prévoit également une usine européenne pour fabriquer ces nouveaux composants stratégiques d'ici 2026. L'américain Intel, longtemps leader dans ce domaine des microprocesseurs, entend également rester dans cette course technologique mondiale et a présenté fin 2022, à l'occasion du Salon International de l’Électronique, une ambitieuse feuille de route fixant ses nouveaux objectifs pour la décennie à venir. Intel compte notamment s'appuyer sur plusieurs innovations majeures, dont une nouvelle technologie d’encapsulation 3D, QMC (Quasi Monolitic Chip), qui va permettre de multiplier par 10 l'efficacité énergétique, et de nouveaux types de transistor utilisant un matériau de canal 2D de seulement 3 atomes d’épaisseur... En combinant ces avancées techniques, Intel vise en 2024 la maîtrise de la gravure dite « Intel 20A », qui ne fait plus référence au nanomètre mais à l’angström, c'est-à-dire à une unité de mesure qui correspond à un dixième de nanomètre (soit un dix milliardième de mètre). L'Intel 20A vise donc à une gravure en 2 nm, avant de descendre à 1,8 nanomètre (18 Angström) en 2025, avec le procédé "Intel 18A". Intel a également présenté un nouveau type de mémoire ferroélectrique 3D qui peut être empilé verticalement sur une puce, au-dessus des transistors. Le fondeur américain a enfin précisé qu'il n'était pas loin de maîtriser la production d'un transistor révolutionnaire, "non-volatil", capable de conserver toutes ses données mê me sans alimentation électrique. Au final, Intel prévoit comme nouvelle ligne d'horizon technologique l'intégration, en 2030, de mille milliards de transistors sur une seule puce, de quoi continuer à respecter la loi de Moore au moins jusqu'à cette échéance... Du coté des mémoires vives, composants indispensables – et complémentaires du transistor – aux progrès de l'électronique et de l'informatique, les avancées ne cessent également de se multiplier : récemment, Samsung a annoncé avoir réalisé la première démonstration au monde de calcul à l'aide d’une mémoire magnétique Mram (Magnetoresistive Random Access Memory (Voir Nature). Inventée en 1984 par le Dr. Arthur Pohm et le Dr. Jim Daughton, qui travaillaient pour Honeywell, cette mémoire à magnétorésistance non volatile utilise l’orientation magnétique, grâce à une paire de plaques métalliques ferromagnétiques séparées par une fine couche de matériau isolant, pour stoc ker les bits d'information. Ce type de mémoire présente l'immense avantage de pouvoir traiter en parallèle les données, ce qui lui confère une rapidité mille fois plus grande que les mémoires vives actuelles. Enfin, cette mémoire magnétique est permanente et conserve donc ses données en toutes circonstances, comme les disques durs d'ordinateurs. Je pourrais également évoquer bien d'autres avancées remarquables qui devraient permettre de prolonger pendant encore bien des années la loi de Moore. C'est par exemple le cas de la percée réalisée il y a deux ans par des scientifiques de l’Institut des sciences chimiques de Rennes qui ont découvert une molécule organométallique qui pourrait révolutionner la nanoélectronique. Cette molécule photo-commutable à base de ruthénium permet une modulation de la conduction électrique sous le simple effet d'un flux lumineux. Cette approche totalement novatrice permet à la fois de contrôler le sens de passage du courant dans le transistor et de moduler son intensité à volonté (jusqu’à deux ordres de grandeur) par application d’un champ électrique. Et il est également possible d’activer ou désacti ver ces propriétés par simple photo-isomérisation (transformation chimique de la molécule sous l'effet d'une énergie lumineuse suffisante) de cette molécule. Il y a un an, des chercheurs de l’Université Purdue (Indiana), dirigés par Shriram Ramanathan, ont présenté une plate-forme artificielle qui vise à permettre aux futures machines de reconfigurer elles-mêmes leurs processeurs, de façon à les doter d'une véritable capacité d'autoapprentissage (Voir Purdue University). Cette technologie révolutionnaire repose sur le contrôle fin de la concentration d'atomes d'hydrogène à l'intérieur d'une petite pièce rectangulaire composée de nickelate de pérovskite. Une autre équipe de l’école d’ingénierie et des sciences appliquées de l’Université de Pennsylvanie a récemment créé un dispositif photonique qui permet le traitement programmable de l’information sur la puce sans lithographie, en utilisant des lasers qui émettent la lumière directement sur une plaquette de semi-conducteur, sans avoir besoin de définir des chemins lithographiques. Cette approche futuriste combine les avantages de la vitesse de la photonique et une flexibilité incomparable pour les applications de l’intelligence artificielle (Voir Penn Engineering Today). Enfin, il y a quelques semaines, des chercheurs du MIT ont annoncé qu'ils avaient mis au point un procédé à basse température qui permet d'intégrer directement des transistors en matériaux 2D sur des circuits en silicium sans les endommager. Ils ont réussi à faire pousser une couche de matériaux 2D de type disulfure de molybdène sur une plaque de silicium (CMOS wafer) de 20 centimètres en moins d'une heure, contre une journée par les méthodes actuelles (Voir MIT). Cette avancée ouvre la voie à de nouveaux process industriels permettant d'empiler plusieurs couches de transistors 2D et d'intégrer ces derniers à de multiples matériaux flexibles, tels que les polymères, les textiles ou même du papier. Mais, me direz-vous, est-il vraiment nécessaire de poursuivre cette course effrénée à la miniaturisation électronique et de disposer d'ordinateurs toujours plus puissants, au prix de dépenses qui se comptent à présent en centaines de milliards de dollars ? Et bien oui, plus que jamais, car dans de nombreux domaines scientifiques, chercheurs et ingénieurs sont confrontés à des défis considérables qui ne pourront être surmontés qu'en disposant d'une puissance de calcul à la fois bien plus grande et plus accessible qu’aujourd’hui. Il y a quelques jours, des chercheurs de l'Université Mac Master (Ontario-Canada) ont par exemple utilisé un algorithme d'intelligence artificielle pour passer au crible en quelques heures plus de 6 000 molécules. Ils ont ensuite retenu et testé 240 substances chimiques et ont finalement identifié neuf antibiotiques, dont un très puissant, initialement connu comme médicament potentiel contre le diabète, qui s'est avéré efficace et très sélectif contre la redoutable bactérie Actinetobacter baumanii , responsable de graves infections chez les patients fragiles et hospitalisés (Voir Phys.org). Mais ce criblage informatique nécessite une énorme puissance de calcul et demain la médecine sera confrontée à de nouveaux défis qui requerront des puissance de calcul hors d'atteinte pour la recherche pour l'instant, comme la cartographie de l'ensemble des protéines humaines et de leurs interactions, l'atlas des cent mille milliards de cellules nous constituant, ou encore la conception et la fabrication, en quelques jours, de molécules thérapeu tiques personnalisées pour lutter contre le cancer... D'autres domaines, comme la météorologie, la climatologie et la géologie ont également besoin de disposer de nouvelles ressources en calcul pour pouvoir, demain, prévoir de manière plus fiable et précise les événements extrêmes (tremblements de terre, canicules, ouragans, orages, tempêtes) mais aussi modéliser de manière plus complète la complexité du fonctionnement énergétique de la Terre, pour lutter plus efficacement contre le réchauffement climatique en cours. En matière d'énergie, nous aurons également besoin de ces énormes puissances de calcul pour mettre au point de nouveaux matériaux et structures qui permettront de développer des éoliennes, hydroliennes et films solaires bien plus efficaces et durables qu'aujourd'hui, mais aussi pour explorer des voies nouvelles de maîtrise de la fusion thermonuc léaire ou de la géothermie profonde et pour imaginer des véhicules propres, rapides, recyclables et à très faible consommation d'énergie. Pour relever tous ces défis scientifiques, technologiques, industriels mais aussi écologiques et sociétaux, la recherche devrait heureusement disposer d'ici 2030 (sans tenir compte de l'arrivée de l'informatique quantique, mais seulement dans certains domaines particuliers et pour certains types de calcul précis), grâce aux nombreuses avancées que j'ai évoquées, de machines dix fois plus puissantes qu'aujourd'hui, dépassant la puissance de 100 exaflops (cent milliards de milliards d'opérations par seconde). Il faut souhaiter que dans cette compétition absolument stratégique, largement dominée par l'Asie et les États-Unis, l'Europe se donne enfin les moyens de concevoir et de produire elle-même les composants électroniques du futur qui seront à la base de cet nouvelle révolution numérique de l'Internet des objets, de l'informatique ubiquitaire, d e l'intelligence artificielle et des robots autonomes. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | | | La compagnie espagnole Hysun produit désormais de l'hydrogène vert sans utiliser d’électricité. Grâce à une nouvelle technologie qui combine énergie solaire et eau, l’entreprise espagnole espère pouvoir produire en masse de l’hydrogène vert à un coût de un euro par kilogramme d'ici à 2030. « Il s'agit d'une avancée totalement disruptive et innovante dans le domaine de l'hydrogène dans le monde, car c'est la première solution renouvelable obtenue à partir d'une technologie 100 % espagnole, avec un prix de vente d’un euro par kilogramme d'hydrogène. Le prix le plus bas du marché, par rapport à l'hydrogène vert qui coûte actuellement cinq euros par kilogramme avec une forte dépendance au prix de l'électricité ». Effectivement, la solution technique proposée par HySun, l'entreprise créée par les sociétés espagnoles Nanogap et Tewer Engineering, semble offrir des perspectives particulièrement intéressantes. Contrairement à l'hydrogène produit par des électrolyseurs qui utilisent de l'électricité, l’unité de production bâtie par Hysun utilise directement le soleil. Grâce à de nouveaux matériaux photo-thermo-catalytiques, combinés à des concentrateurs solaires, Hysun a créé une sorte de réacteur de production où l’hydrogène est obtenu par thermolyse de l’eau. Au-delà de l’intérêt de l’absence de consommation d’électricité, l’efficacité de la conversion de l'énergie solaire en hydrogène est largement supérieure aux autres technologies : 40 % contre 10 %. Cela lui permet de concurrencer directement le prix du marché de l'hydrogène gris, qui est produit à partir de combustibles fossiles et pollue. Hysun prévoit d'installer jusqu'à 35 cen trales de ce type. Elles produiront plus de 100.000 tonnes d'hydrogène renouvelable par an. Elle estime son chiffre d'affaires à plus de 130 millions d'euros d'ici à 2030. Article rédigé par Georges Simmonds pour RT Flash Energy News | | | |
| Une équipe de chercheurs de l’Université de l’État de Washington annonce avoir développé un nouveau béton capable d’absorber plus de CO2 qu’il n’en émet pour sa fabrication. Pour ce faire, ils ont arrangé la recette avec du biochar traité avec des eaux usées. Le béton est un matériau composite constitué de ciment, d’agrégats (comme le sable et le gravier) et d’eau. Le ciment représente en quelque sorte la "colle" permettant de lier le tour ensemble. Il est fabriqué à partir d’une combinaison de calcaire, d’argile et de minéraux. Les agrégats, qui constituent la partie solide du béton, sont ajoutés pour donner de la force et de la résistance. L’eau est ensuite nécessaire pour activer la réaction chimique qui durcit le ciment et forme le béton. Le béton est un matériau très durable et résistant à la compression, ce qui signifie qu’il peut supporter des charges lourdes sans se déformer ou se briser. Et même s’il peut se fissurer sous l’effet des vibrations, du gel et du dégel répétés ou de l’exposition à des produits chimiques corrosifs, il est globalement résistant aux intempéries. Pour ces raisons, il s’agit donc d’un matériau de construction très courant et très important dans l’industrie du bâtiment. Malheureusement, la fabrication du ciment est une source importante d’émissions de dioxyde de carbone (CO2). Cette matière est en effet produite en chauffant un mélange de calcaire et d’argile dans un four à des températures très élevées, ce qui provoque une réaction chimique appelée calcination. Cette réaction libère du CO2 à partir du carbonate de calcium présent dans le calcaire. En outre, l’énergie nécessaire pour chauffer les fours est souvent générée à partir de combustibles fossiles tels que le charbon ou le gaz naturel qui contribuent également aux émissions de CO2. Selon l’Agence internationale de l’énergie, la production de ciment serait responsable d’environ 7 à 8 % des émissions mondiales de CO2 liées à l’énergie et à l’industrie. Cela en fait l’une des principales sources d’émissions de gaz à effet de serre dans le monde. Depuis quelques années, l’industrie du ciment travaille donc à réduire ses émissions. Pour ce faire, certains ont peaufiné la formule en remplaçant le calcaire par de la roche volcanique. D’autres ont ajouté des ingrédients comme du dioxyde de titane, du bicarbonate de soude ou de l’argile, couramment jetée lors de l’exploitation minière. Dans le cadre de nouveaux travaux, des chercheurs ont utilisé du biochar. Il s’agit d’un matériau carboné solide produit à partir de la biomasse végétale comme les résidus de cultures, le bois, les feuilles et les déchets de jardin. Son processus de production (la pyrolyse) implique de chauffer la biomasse en l’absence d’oxygène. Le biochar est un matériau très poreux avec une grande surface spécifique, ce qui lui permet de retenir l’eau et les nutriments et de les libérer lentement aux plantes. En agriculture, il permet ainsi d’améliorer la fertilité des sols. Par ailleurs, et c’est ce point qui nous intéresse aujourd’hui, le biochar peut également aider à réduire les émissions de gaz à effet de serre en stockant le carbone dans le sol sur une longue période. Du biochar a déjà été ajouté au ciment, avec plus ou moins de succès. Ici, les chercheurs l’ont cette fois d’abord traité à l’aide d’eaux usées de lavage du béton. Ce processus a permis de renforcer sa résistance et d’en mélanger une plus grande proportion. Cependant, ce processus a surtout permis de maximiser son pouvoir d’absorption du CO2 (jusqu’à 23 % de son propre poids). Dans le cadre de leurs expériences, les chercheurs ont concocté un ciment contenant 30 % de biochar traité. Ils ont alors découvert que le béton résultant était négatif en carbone. Autrement dit, il absorbait plus de dioxyde de carbone que ce qui était émis lors de la production du matériau. Selon les calculs des chercheurs, 1 kg de béton à 30 % de biochar éliminerait environ treize grammes de CO2 de plus que ses rejets de production. À titre de comparaison, le béton ordinaire est généralement responsable de la libération d’environ 0,9 kg de CO2 par kilo de matériau. Par ailleurs, ce nouveau béton semble également conserver sa résistance. Mesurée après 28 jours, la résistance à la compression du béton était en effet de 27,6 MPa, ce qui est à peu près équi valent à celle du béton ordinaire. Article rédigé par Georges Simmonds pour RT Flash WSU | | | |
| Des scientifiques britanniques ont décrit leur nouvelle découverte dans le magazine scientifique Small, à savoir le premier tissu intelligent capable de changer de forme et de couleur en réponse à deux stimuli différents, à savoir la chaleur et l’électricité. Les matériaux réactifs aux stimuli (SRM) sont, comme leur nom l’indique, des matériaux qui réagissent à la présence ou aux changements de stimuli externes, tels que la lumière, la température, les champs magnétiques ou l’électricité. L’exposition à ces stimuli les amène à modifier leur forme, leur composition moléculaire ou leurs propriétés mécaniques – jusqu’à présent, cependant, la recherche sur ces types de matériaux s’est concentrée sur la façon dont les SRM réagissent à un stimulus en modifiant l’une de leurs propriétés en réponse. Cependant, comme le soulignent les scientifiques, pour qu’ils deviennent une partie vraiment efficace des systèmes intelligents, tels que camouflage, bionique et divers types de capteurs, ils doivent apprendre à répondre simultanément à plusieurs stimuli. Et c’est là qu’interviennent des chercheurs de l’Université britannique de Waterloo, qui ont créé le premier tissu intelligent qui change de couleur et de forme en réponse à la chaleur et à l’électricité. À l’aide d’un dispositif similaire à un métier à tisser traditionnel, les chercheurs ont combiné du polyéthylène téréphtalate (PET) et des microcapsules thermochromiques (TMC) avec des fils mixtes constitués de fibres d’acier inoxydable et de PET – les fibres d’acier inoxydable ont donné au tissu des propriétés électriques, tandis que le PET a fourni une mémoire de forme. La structure entrelacée du tissu intelligent garantit sa résistance et son soutien, tout en étant souple et douce comme un tissu ordinaire et peut être pliée. À l’aide d’un sèche-cheveux, les scientifiques ont découvert que le tissu a changé de couleur du violet au bleu lorsque la température est passée de 20 à 60°C et est revenue à la température de départ après refroidissement. Lorsque le tissu a été chauffé électriquement, il a réagi avec le même changement de couleur, mais en plus a changé de forme, revenant à sa forme d’origine lorsque l’électricité a été coupée. Les scientifiques pouvaient activer sélectivement le tissu en appliquant de l’électricité à des parties spécifiques du tissu, et il était activé à une tension beaucoup plus faible que les systèmes précédents de ce type (5 V pendant 20 secondes). Cela signifie qu'il peut être utilisé dans des appareils portables plus petits, tels que des appareils biomédicaux ou capteurs environnementaux et ouvre la voie à de toutes nouvelles applications. En tant que portable lui-même, il a un potentiel presque infini pour l’IA, la robotique et les jeux et expériences de réalité virtuelle. Imaginez la sensation de chaleur ou un déclencheur physique déclenchant une aventure plus profonde dans le monde virtuel explique l’un des auteurs, il souligne également le faible coût d’utilisation des polymères plastiques recyclés. Article rédigé par Georges Simmonds pour RT Flash SMALL | | ^ Haut | |
|
| | | Grâce à un réacteur carbothermique, une équipe de la Nasa est parvenue à extraire de l'oxygène d'un sol lunaire simulé dans un environnement sous vide. Une démonstration prometteuse dans la perspective d’une exploitation in-situ des ressources sur la Lune. Les projets de retour sur la Lune portés par la Nasa avec le programme Artemis prévoient d’instaurer une présence humaine durable sur notre satellite naturel au moyen d’une station orbitale et d’une base à la surface. L’une des conditions impératives est de pouvoir extraire sur place certains éléments essentiels à la survie des astronautes et au carburant des fusées. Il s’agit notamment de l’eau et de l’oxygène. La Nasa vient d’annoncer une avancée très prometteuse dans ce domaine. L’équipe Carbothermal Reduction Demonstration (CaRD) du Centre spatial Johnson à Houston a réussi à extraire de l’oxygène d’un sol lunaire simulé dans une chambre sous vide. Le sol lunaire simulé a été chauffé avec un laser dans un réacteur carbothermique pour en extraire l’oxygène. L’une des principales difficultés de l’opération résidait dans le fait de maintenir la pression pour empêcher les gaz de s’échapper. Le tout en permettant à la matière d’entrer et de sortir de la zone de réaction. La chambre sous vide a permis de réunir ces conditions proches de celle de la Lune. Selon la Nasa, ce prototype entièrement fonctionnel est prêt et il sera testé dans l’espace. « Cette technologie a le potentiel de produire plusieurs fois son propre poids en oxygène par an sur la surface lunaire. Ce qui permettra une présence humaine durable et une économie lunaire », explique Aaron Paz, ingénieur principal de la Nasa et responsable du projet CaRD à l’Université Johnson. « Il s’agit d’une étape importante dans le développement de l’architecture nécessaire à la construction de bases humaines durables sur d’autres planètes », estime Anastasia Ford, ingénieure de la Nasa et directrice des essais du CaRD. Dans son communiqué, l’agence spatiale américaine indique que la technologie démontrée par ce test pourrait être appliquée aux missions Artemis et à d’autres voyages spatiaux plus lointains. Article rédigé par Georges Simmonds pour RT Flash NASA | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Grâce à un test sanguin qui permet de détecter de minuscules fragments d'ADN tumoral, les médecins britanniques peuvent maintenant prédire la probabilité de réapparition du cancer après une intervention chirurgicale. Les patients dont l'ADN tumoral est détecté sont beaucoup plus susceptibles de rechuter dans les deux ans et devraient donc subir une chimiothérapie. Toutefois, les patients dont l'ADN tumoral n'est pas détecté peuvent être épargnés de la chimiothérapie. Les hôpitaux du NHS ont déjà testé ce test sanguin pour les cancers du poumon et de la peau et ont constaté qu'il était très précis pour repérer les patients les plus susceptibles de rechuter. Maintenant, les oncologues du Royal Marsden NHS Foundation Trust testent le test sanguin pour les patients atteints d'un cancer de l'intestin. L'essai est appelé TRACC et 800 patients y participent. Après l'opération, les patients subissent le test sanguin, et s'ils n'ont pas d'ADN tumoral, ils ne recevront pas de chimiothérapie ou recevront une forme plus faible de celle-ci. Ce nouveau test sanguin est un grand pas en avant pour éviter le surtraitement des patients. Les oncologues reconnaissent qu'il y a un gros problème de surtraitement des patients, car la plupart des patients se voient proposer une concoction de médicaments chimiothérapeutiques désagréables, juste au cas où, mais pour beaucoup d'entre eux, ce n'est pas nécessaire. Environ 40 000 Britanniques sont diagnostiqués avec un cancer de l'intestin chaque année, ce qui en fait le deuxième cancer le plus meurtrier, après celui du poumon, en grande partie parce que de nombreux cas sont diagnostiqués à un stade tardif, lorsque le cancer s'est propagé à d'autres parties du corps. Cependant, grâce à ce nouveau test sanguin, les médecins peuvent espérer offrir un traitement plus personnalisé à chaque patient et augmenter leurs chances de survie. Article rédigé par Georges Simmonds pour RT Flash Daily Mail | | | |
| Des scientifiques de l’EPFL et de la Vrije Universiteit Brussel ont mis au point une méthode très efficace d’antibiogramme rapide par microscopie optique. Cette technique, appelée détection optique des mouvements à l’échelle nanométrique, est extrêmement rapide, sensible aux cellules individuelles et sans marqueur. Elle ne nécessite qu’un microscope optique traditionnel de base et une caméra ou un téléphone portable. La résistance aux antibiotiques survient lorsque les bactéries développent la capacité de vaincre les médicaments conçus pour les éliminer. Elle est aujourd’hui devenue un enjeu mondial de santé publique. En 2019, au moins 1,27 million de décès dans le monde était imputable à la résistance aux antibiotiques et près de cinq millions de décès avaient un lien avec celle-ci. Chaque année, près de trois millions d’infections résistantes aux antimicrobiens sont recensées aux États-Unis, le coût du traitement des six infections les plus fréquentes s’élevant à plus de 4,6 milliards de dollars. L’UE enregistre près de 700 000 cas par an, ce qui lui coûte environ 1,5 milliard d’euros. Les antibiogrammes utilisent des méthodes de culture qui exposent les bactéries aux antibiotiques, ou des méthodes génétiques pour déterminer si les bactéries possèdent des gènes qui leur confèrent une résistance. L’antibiogramme standard prend jusqu’à 24 heures, voire davantage pour les bactéries à croissance lente. Ce délai peut être synonyme de vie ou de mort dans un contexte clinique. Ces dernières années, des antibiogrammes plus rapides ont été mis au point, mais ils ont tendance à être complexes et à nécessiter un équipement sophistiqué et coûteux. Des chercheuses et chercheurs sous la houlette de Sandor Kasas et de Ronnie Willaert viennent de mettre au point une méthode par microscopie optique à la fois rapide, économique et largement accessible, qui permet d’effectuer un antibiogramme avec une sensibilité unicellulaire et sans fixation ou marquage des bactéries. Cette technique nécessite un microscope optique traditionnel de base, une caméra ou un téléphone portable, ainsi qu’un logiciel dédié. Le projet de recherche commun a été publié dans la revue PNAS. Appelée détection optique des mouvements à l’échelle nanométrique (ONMD), la nouvelle technique consiste à surveiller les vibrations à l’échelle nanométrique d’une seule bactérie avant et pendant son exposition aux antibiotiques. Ce contrôle est effectué à l’aide d’un microscope optique de base et d’une caméra ou d’un téléphone portable. La technique ONMD surveille les oscillations microscopiques des cellules bactériennes (mouvement des bactéries à l’échelle nanométrique) qui caractérisent les organismes vivants et peuvent être considérées comme un "signe de vie". En effet, le mouvement des bactéries à l’échelle nanométrique dure aussi longtemps que l’organisme est vivant mais s’arrête immédiatement lorsqu’il est mort. Dans la technique ONMD, le mouvement des bactéries à l’échelle nanométrique est enregistré dans un film dans lequel tous les déplacements des cellules individuelles sont surveillés avec une résolution inférieure au pixel. Les chercheuses et chercheurs ont utilisé l’ONMD pour détecter avec succès la sensibilité de nombreuses bactéries aux antibiotiques. La sensibilité de Escherichia coli, Staphylococcus aureus, Lactobacillus rhamnosus et Mycobacterium smegmatis (modèle bactérien non pathogène de la tuberculose), aux antibiotiques ampicilline, streptomycine, doxycycline et vancomycine a été déterminée en moins de deux heures. Non seulement l’ONMD surveille les transitions entre la vie et la mort de la bactérie pendant l’exposition à différents antibiotiques, mais aussi elle met en évidence les changements de métabolisme de la bactérie causés par la disponibilité des nutriments. Les tests ont montré que l’ONMD peut évaluer la sensibilité ou la résistance des cellules bactériennes aux antibiotiques de manière simple et rapide en surveillant les oscillations cellulaires. Les auteurs déclarent : « De par sa simplicité et son efficacité, cette méthode marque un tournant dans le domaine des antibiogrammes », car elle peut être appliquée à un grand nombre de bactéries, ce qui a des implications importantes pour les applications cliniques et de recherche. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| L'objectif principal de ce "décodeur de langage" est d'aider des patients ayant perdu l'usage de la parole à communiquer leurs pensées via un ordinateur. De précédentes interfaces cerveau-machine, destinées à permettre à des personnes souffrant de handicaps majeurs de retrouver de l'autonomie, ont déjà fait leurs preuves. L'une de ces interfaces a ainsi pu retranscrire les phrases d'un paralytique incapable de parler ou de taper sur un clavier. Mais ces dispositifs requièrent une chirurgie invasive, avec l'implantation d'électrodes dans le cerveau, et se focalisent uniquement sur les zones du cerveau qui contrôlent notre bouche pour former des mots. « Notre système, lui, fonctionne au niveau des idées, de la sémantique, du sens », a dit lors d'une conférence de presse Alexander Huth, neuroscientifique à l'Université d'Austin au Texas, co-auteur de l'étude. Et ce de manière non-invasive. Durant l'expérience, trois personnes ont passé 16 heures dans un appareil d'imagerie médicale fonctionnelle (IRMf) : cette technique permet d'enregistrer les variations du flux sanguin dans le cerveau, rendant ainsi compte en temps réel de l'activité des zones cérébrales durant certaines tâches (parole, mouvement...). On a fait écouter aux volontaires des podcasts racontant des histoires. Ce qui a permis aux chercheurs de déterminer comment les mots, les phrases et leur signification stimulaient différentes régions du cerveau. Ils ont ensuite intégré ces données à un réseau neuronal artificiel de traitement du langage utilisant GPT-1, le prédécesseur du robot conversationnel ChatGPT. Le réseau a été entraîné à prédire comment chaque cerveau réagirait au discours entendu. Chaque personne a ensuite écouté une nouvelle histoire à l'intérieur de la machine IRMf, afin de vérifier si le réseau avait deviné juste. Résultat : même s'il paraphrasait ou changeait souvent l'ordre des mots, le décodeur arrivait à « reconstituer le sens de ce que la personne entendait », a expliqué Jerry Tang (Université d'Austin), premier auteur de l'étude. Par exemple, lorsqu'un utilisateur a entendu la phrase « je n'ai pas encore mon permis de conduire », le modèle de réseau a répondu « elle n'a même pas encore commencé à apprendre à conduire ». L'expérience est allée plus loin : même quand les participants imaginaient leurs propres histoires ou visionnaient des films muets, le décodeur était capable de saisir l'essentiel de leur pensée. Ces résultats suggèrent que « nous décodons quelque chose qui est plus profond que le langage, puis nous le convertissons en langage », a poursuivi M. Huth. Il s'agit d'une réelle avancée par rapport aux précédentes interfaces cerveau-machine, a réagi David Rodriguez-Arias Vailhen, professeur de bioéthique à l'Université espagnole de Grenade, qui n'a pas participé à l'étude. Cela nous rapproche d'un avenir où les machines seront « capables de lire dans les esprits et de transcrire les pensées », a commenté le scientifique. Mais il avertit que cela pourrait se faire contre la volonté des personnes, par exemple lorsqu'elles dorment, et donc compromettre à l'avenir notre liberté. Des risques que les auteurs de l'étude ont anticipés, en démontrant que le décodeur ne fonctionna it pas sur le cerveau d'une personne sur lequel il ne s'était pas entraîné. Article rédigé par Georges Simmonds pour RT Flash UTexas | | | |
| La Food and Drug Administration (FDA) américaine a approuvé UZEDY (rispéridone), une suspension injectable à libération prolongée pour le traitement de la schizophrénie chez l'adulte. UZEDY est la première formulation sous-cutanée à action prolongée de rispéridone qui utilise SteadyTeq une technologie basée sur des copolymères et propriété de MedinCell, qui contrôle la libération régulière de la rispéridone. Environ 80 % des patients souffrant de schizophrénie subissent de nombreuses rechutes au cours des cinq premières années de traitement, le plus souvent en raison d’un manque d’observance au traitement avec des antipsychotiques oraux. Chaque rechute comporte un risque biologique de perte de fonction, de résistance au traitement et de mutation de la morphologie du cerveau. La schizophrénie est un trouble mental chronique, progressif et gravement invalidant qui affecte la façon dont une personne pense, ressent et agit. Cette autorisation est basée sur les données de deux essais de phase 3 évaluant UZEDY chez des patients atteints de schizophrénie. UZEDY utilise la nouvelle technologie SteadyTeq qui permet de contrôler la libération de la rispéridone au fil du temps. L'initiation du traitement ne nécessite pas de dose de charge ni de supplémentation orale. Les concentrations plasmatiques thérapeutiques sont atteintes dans les 6 à 24 heures suivant l'administration d'une unique dose. Une fois la tolérance à la rispéridone orale établie chez le patient, l'intervalle d’administration, une fois par mois ou une fois tous les deux mois, peut être initié à la dose choisie par le médecin pour maintenir un traitement continu. L'étude RISE7 était une étude multicentrique, randomisée, en double aveugle, contrôlée par placebo, visant à évaluer l'efficacité de la suspension injectable de rispéridone à libération prolongée en sous-cutanée comme traitement chez les patients (âgés de 13 à 65 ans) atteints de schizophrénie. 544 patients ont été randomisés pour recevoir une injection sous-cutanée de TV-46000, soit une fois par mois (q1M), soit une fois tous les deux mois (q2M), ou un placebo dans un rapport de 1:1:1. Le critère d'évaluation principal était le temps écoulé avant une rechute. La seconde étude de phase 3 de Teva – SHINE - était conçue pour évaluer l'utilisation en injection sous-cutanée de TV-46000, administré selon la fréquence q1M ou q2M, pendant 56 semaines à 336 patients (âgés de 13 à 65 ans) atteints de schizophrénie. Le critère d'évaluation principal était la fréquence de tous les effets indésirables, y compris les effets indésirables graves. Cette étude a été achevée en décembre 2021 ; les résultats sont conformes aux conclusions de l'étude RISE. Dans le cadre d’une enquête complémentaire menée auprès des participants à l'étude, 89 % des patients et 92 % des fournisseurs de soins de santé (HCPs) ont qualifié l'administration de UZEDY de facile lorsqu'on leur a demandé s'il était facile ou diffici le de recevoir ou d'administrer le médicament sous sa forme actuelle. De plus, 70 % des patients ont convenu que leur expérience d’injection de UZEDY était plus agréable que celle de leur ancien médicament injectable à action prolongée (LAI) ; 30 % des patients ont convenu que l’injection de leur ancien LAI était plus agréable. De plus, lorsqu'ils ont eu le choix entre continuer à prendre le médicament de l'essai clinique ou reprendre leur ancien médicament, 90 % des patients ont choisi d'utiliser UZEDY. Article rédigé par Georges Simmonds pour RT Flash Psychiatrist | | | |
| Une équipe internationale a identifié un gène spécifique associé aux métastases cérébrales, qui, bloqué avec des médicaments ad hoc, pourrait empêcher leur prolifération, sauvant ainsi la vie de nombreux patients. Lors de tests sur des souris, la propagation des métastases dans le système nerveux central a été bloquée. La cible thérapeutique potentielle a été identifiée par une équipe de recherche internationale dirigée par des scientifiques portugais de la faculté de médecine de l’Université de Lisbonne, qui ont collaboré étroitement avec des collègues du département de neurochirurgie et du laboratoire de neuropathologie de l’hôpital de Santa Maria, de l’Université allemande Cancer Consortium de la Faculté de Médecine et de l’Hôpital Universitaire de Düsseldorf (Allemagne) et de plusieurs autres instituts. Les scientifiques, coordonnés par le professeur Claudia C. Faria, professeur à l’Institut de médecine moléculaire (IMM) "João Lobo Antunes" de l’Université de Lisbonne, sont parvenus à leurs conclusions après avoir "chassé" les phénomènes moléculai res récurrents liés aux métastases cérébrales. Grâce au séquençage de l’ARN de trente patients présentant des métastases au système nerveux central, les chercheurs ont identifié la régulation à la hausse d’une protéine exprimée par le gène homonyme appelé UBE2C, « qui assure la transition correcte de la métaphase à l’anaphase, à travers différentes origines tumorales primaires », comme expliqué dans le résumé de l’étude. En termes simples, il favorise la mitose des cellules cancéreuses. Pour confirmer le rôle de ce gène, le professeur Faria et ses collègues ont impliqué 89 autres patients présentant le même état clinique ; des enquêtes ont montré que la régulation à la hausse de l’UBE2C est associée à une aggravation du pronostic. Des études sur des modèles murins (souris) ont également montré que des niveaux élevés de la protéine exprimée par le gène UBE2C catalysent la prolifération des métastases cérébrales. Plus précisément, « une large diffusion leptoméningée » est déterminée. Après avoir déterminé le rôle central de ce gène, les scientifiques ont recherché des centaines de médicaments déjà approuvés et d’autres composés capables d’inhib er l’action de l’UBE2C. « Nous avons testé 650 médicaments déjà approuvés pour une utilisation par les patients par la FDA (Food and Drug Administration, États-Unis) ou utilisés dans des essais cliniques de phase 3 ou 4, et avons identifié une petite molécule inhibitrice qui diminue les niveaux d’UBE2C et empêche la propagation des cellules cancéreuses dans le système nerveux central, lorsqu’il est administré à un stade précoce de la maladie », a déclaré la co-auteure de l’étude, Eunice Paisana, dans un communiqué de presse. La molécule en question s’appelle le dactolisib (c’est un double inhibiteur de PI3K/mTOR) et si elle est utilisée précocement chez la souris, elle prévient le développement des métastases leptoméningées induites par le gène UBE2C. La découverte pourrait conduire à un traitement potentiellement révolutionnaire capable de bloquer les métastases cérébrales, mais il s’agit d’investigations préliminaires sur des souris et avant d’atteindre des essais cliniques (essais humains), un très long processus est nécessaire pour déterminer son efficacité et sa sécurité. « Notre objectif au cours de ces recherches a toujours été de contribuer à la découverte de nouvelles cibles thérapeutiques. Dans notre équipe, nous étudions des échantillons biologiques de patients pour générer des connaissances qui pourraient contribuer à la pratique clinique à l’avenir », a précisé le Docteur Paisana. Le professeur Faria souligne que les métastases cérébrales sont « la principale cause de morbidité et de mortalité associées au cancer » et que de nouvelles thérapies doivent être trouvées. Article rédigé par Georges Simmonds pour RT Flash Netcost | | | |
| La mauvaise qualité de l’air a déjà été associée à un risque plus élevé d’infections, de comorbidités chroniques mais aussi d’effets nocifs sur le développement neurologique des bébés. Cette nouvelle étude d’une équipe de l’Université d'East Anglia (UEA, UK) qui a mesuré cette qualité de l’air au domicile des bébés, confirme une association entre la pollution de l'air intérieur et les troubles cognitifs chez des nourrissons de moins de deux ans. Des données publiées dans la revue eLife, issus de foyers indiens mais généralisables aux pays occidentaux. L'équipe britannique utilise en effet pour son étude des moniteurs de qualité de l'air qui mesurent les niveaux d'émission de différents composés volatiles dans les foyers des enfants participants. L’étude conclut que la mauvaise qualité de l'air pourrait être un facteur majeur de déficits cognitifs chez les bébés et les tout-petits, avec un impact négatif sur le développement cérébral et des conséquences cognitives à vie. L’auteur principal, John Spencer, professeur de psychologie à l'UEA, ajoute que « de précédentes études avaient déjà montré l’association entre une mauvaise qualité de l'air et des déficits cognitifs chez l’enfant, mais aussi une fragilité émotionnelle et des troubles du comportement, ces problèmes pouvant avoir un impact grave sur les familles. Cependant aucune étude n’a montré cette association chez le nourrisson et le petit enfant. Même dans l’air intérieur, flottent ces très petits fragments de particules et ces mini-particules sont une préoccupation majeure car elles peuvent se déplacer des voies respiratoires vers le cerveau. Jusqu'à présent, les études n'avaient pas montré ce lien entre la mauvaise qualité de l'air et les problèmes cognitifs chez les bébés, alors que le cerveau est particulièrement sensible aux toxines ». L’étude a été menée auprès de familles de l'Inde rurale pour voir comment la qualité de l'air à la maison affecte la cognition des nourrissons. L’étude est menée en collaboration avec le Community Empowerment Lab de Lucknow (Inde), un institut de recherche qui travaille avec les communautés rurales. Les participants habitent à Shivgarh, une communauté de l'un des États indiens les plus touchés par la mauvaise qualité de l'air. 215 nourrissons ont été évalués pour la mémoire de travail visuelle et la vitesse de traitement visuel à l'aide d'un test cognitif, spécialement conçu pour l’étude. Sur un écran, les tout-petits voyaient des carrés de couleur clignotants qui étaient toujours les mêmes après chaque "clignotement". Sur un deuxième affichage, un carré de couleur changeait après chaque clignotement. La tâche est basée sur la tendance du nourrisson à détourner le regard de quelque chose qui lui est visuellement familier et vers quelque chose de nouveau. Le principe étant de détecter si les bébés sont capables d’identifier le changement de carré et dans quelle mesure ils réussissent, la tâche devenant de plus en plus difficile, avec plus de carrés modifiés au fil du test, sur chaque écran. Parallèlement, la qualité de l'air a été évaluée dans les foyers des enfants participants. L’analyse a également pris en compte le statut socio-économique de la fa mille, un facteur de confusion possible. L’analyse confirme qu’il existe une association significative entre une mauvaise qualité de l'air et une altération de la cognition visuelle au cours des deux premières années de vie, la période de la vie au cours de laquelle la croissance du cerveau est « à son apogée ». il est probable que cette association, et cet impact, perdure au fil des ans, et durant toute l’enfance, ce qui aurait un effet négatif profond sur le développement de la cognition, à long terme ; les recherches indiquent cependant que les efforts mondiaux pour améliorer la qualité de l'air entraînent des effets bénéfiques sur les capacités cognitives des nourrissons. Article rédigé par Georges Simmonds pour RT Flash eLife | | | |
| Les bouffées de chaleur sont l’un des symptômes courants de la ménopause. Pour les limiter, des traitements existent, mais ils contiennent souvent des hormones, ce qui ne convient pas à certaines femmes qui ne veulent pas en prendre ou qui ont eu un cancer du sein dont les tumeurs étaient sensibles à la présence d’hormones. Actuellement, il existe un médicament sans hormone, à base de bêta-alanine, un acide aminé, mais son efficacité est limitée. Une étude internationale a présenté les résultats de la phase 3 des essais cliniques d’un nouveau traitement sans hormones contre les bouffées de chaleur. Il s’agit du fezolinetant, une molécule capable de bloquer le récepteur de la neurokinine-3, qui est impliqué dans la thermorégulation, en lien avec les œstrogènes. Durant la ménopause, la diminution du taux des œstrogènes explique l’apparition de bouffées de chaleur. Le fezolinetant permettrait de contrer ce phénomène. Lors de cette phase 3 de l’essai clinique, 2.205 femmes ont été réparties en différents groupes : celles qui prenaient un placebo, celles qui prenaient 30 milligrammes du fezolinetant et celles qui prenaient 45 mg du fezolinetant. Résultats : la fréquence des symptômes a été réduite d'un peu plus de 50 % chez les participantes qui prenaient du fezolinetant par rapport au groupe placebo. S’il obtient toutes les autorisations nécessaires, le fezolinetant pourrait être mis sur le marché dans les mois à venir. Article rédigé par Georges Simmonds pour RT Flash The Lancet | | | |
| L'inflammation est un processus biologique complexe qui permet l'élimination des pathogènes et la réparation des tissus endommagés. Cependant, une dérégulation du système immunitaire peut conduire à une inflammation incontrôlée qui entraîne des lésions et qui contribue à des processus pathologiques. C’est le cas du cancer où le rôle de l’inflammation est avéré dans la progression tumorale. Or, les mécanismes moléculaires sous-jacents à l’inflammation restent encore mal connus aujourd’hui et, de fait, le développement de nouveaux médicaments représente un défi considérable. En 2020 déjà, le Docteur Raphaël Rodriguez, directeur de recherche au CNRS et chef de l’équipe Chemical Biology à l’Institut Curie (Equipe Labellisée Ligue Contre le Cancer) au sein du laboratoire Chimie et biologie de la cellule (Institut Curie/ CNRS/ Inserm), avait apporté un éclairage nouveau sur un récepteur membranaire appelé CD44, qui marque la réponse immunitaire, l’inflammation et le cancer en particulier. Le chercheur et son équipe avaient ainsi montré que CD44 permettait le transport du fer dans la cellule, déclenchant alors une série de réactions conduisant à l’activation de gènes impliqués dans le processus métastatique. Aujourd’hui, avec ses collègues, le Docteur Rodriguez vient de franchir une nouvelle étape. Les chercheurs ont en effet réussi à identifier une voie de signalisation impliquant le cuivre et conduisant à l’expression des gènes de l’inflammation dans les macrophages, des cellules qui sont présentes dans tous les tissus et qui jouent un rôle majeur dans la réponse immunitaire innée. Une fois internalisé dans les macrophages, le cuivre pénètre dans les mitochondries (les organites responsables de la respiration cellulaire), où il catalyse l’oxydation du NADH en NAD+ (nicotinamide adénine dinucléotide, une molécule nécessaire à l’activité de certaines enzymes). L’augmentation de NAD+ dans les cellules permet l’activation d’autres enzymes, impliquées dans la production de métabolites essentiels à la régulation épigénétique. Ces métabolites permettent alors l’activation des gènes impliqués dans l’inflammation. Les scientifiques ne se sont pas contentés de cette découverte : ils ont également conçu des molécules capables de se lier au cuivre, inspirées de la metformine. En les testant sur des modèles d’inflammation aigüe d’origine virale ou bactérienne, ils ont identifié qu’une molécule de synthèse de la metformine, LCC-12 (aussi nommée Supformine), réduisait l’activation des macrophages et atténuait l’inflammation. Leurs travaux leur ont permis de développer un prototype de médicament qui inactive le cuivre dans la machinerie métabolique de la cellule, bloquant ainsi l’expression des gènes impliqués dans l'inflammation Pour finir, ils ont appliqué cette stratégie thérapeutique sur des cellules cancéreuses engagées dans une transition épithélio-mésenchymateuse. Là encore, la Supformine a mis un frein au mécanisme cellulaire et donc à la transformation des cellules. « Les gènes activés au sein des cellules cancéreuses ne sont pas les mêmes que ceux impliqués dans les cellules immunitaires, mais la réaction en chaîne qui conduit aux modifications épigénétiques est identique », explique le Docteur Rodriguez. Ces résultats mettent ainsi en évidence le rôle du cuivre des cellules cancéreuses et leur capacité à adopter un caractère métastatique. Comme le souligne le Docteur Raphaël Rodriguez, « Notre étude révèle finalement que les processus inflammatoires et can céreux dépendent de mécanismes moléculaires semblables et pourraient donc bénéficier dans le futur de thérapies innovantes similaires, telles que celle testée avec le Supformine ». Article rédigé par Georges Simmonds pour RT Flash Institut Curie | | | |
| Le Centre international de recherche sur les cancers (CIRC) se met au diapason de l'Organisation mondiale de la santé (OMS), et recommande à son tour l'utilisation d'une dose unique de vaccin contre le HPV pour protéger les adolescents contre les cancers HPV-induits, dont le cancer du col de l'utérus et les cancers de la sphère ORL. La liste des avantages de cette stratégie est conséquente : une campagne de vaccination coûterait entre un tiers et la moitié de la somme nécessaire à une campagne au cours de laquelle deux ou trois doses sont systématiquement administrées. Un programme de vaccination à une seule dose représente en outre un important bénéfice en termes d'organisation et de logistique. Enfin, une vaccination à une seule dose est plus à même de remporter l'acceptabilité de la population. Chaque année, on estime que le cancer du col de l'utérus tue 350 000 femmes, dont 90 % dans des pays à revenus faible ou intermédiaire qui pourraient largement tirer parti d'une stratégie de vaccination plus simple et moins coûteuse. En 2021, la couverture vaccinale mondiale à deux doses était de l'ordre de 15 % seulement chez les moins de 21 ans, en partie parce que ce vaccin contre le HPV est l'un des plus chers jamais introduit dans un programme d'immunisation, qu'il fait l'objet de pénuries de vaccin et qu'il existe une hésitation des populations face à ce vaccin destiné aux jeunes filles, alerte le CIRC. Le CIRC s'appuie sur une série d'études qu'il a coordonnées : une première a évalué l'efficacité d'une dose unique de vaccin HPV, une deuxième étude s'est attachée à évaluer un nouveau vaccin HPV et la dernière a fourni une projection de l'impact, en termes de santé publique, de l'introduction de la vaccination à une seule dose. En septembre 2009, le CIRC a ainsi lancé une étude randomisée avec le vaccin quadrivalent Gardasil, financée par la Fondation Bill et Melinda Gates, comparant l'efficacité d'un schéma à une dose à celle de schémas à deux et trois doses chez des jeunes filles indiennes non mariées. Après la suspension par le gouvernement conservateur indien du programme de vaccination contre le HPV, cette étude a été convertie en une étude de cohorte longitudin ale sur les 14 277 participantes recrutées jusque-là, dont 4 949 n'avaient reçu qu'une seule dose. À l'âge de 25 ans, soit 10 ans après leur vaccination, les jeunes filles qui n'avaient reçu qu'une seule dose avaient un risque de cancer du col de l'utérus significativement diminué, comparé à une cohorte de femmes non vaccinées. Elles bénéficiaient d'une réponse immunitaire contre le HPV plus élevée, même 10 ans après leur unique injection. Globalement, la protection dans le groupe dose unique était la même que dans les groupes deux et trois doses. Il existe actuellement six vaccins autorisés contre le HPV : trois vaccins bivalents (Cecolin, Cervarix, et Walrinvax), deux vaccins quadrivalents (Cervavac et Gardasil), et un vaccin nonavalent (Gardasil 9). Parmi eux, Cervavac, produit par l'institut du sérum d'Inde, a été développé avec le CIRC. Il constitue un bon candidat pour des campagnes de vaccination à une seule dose. Au cours d'une étude menée sur des jeunes de 9 à 14 ans, il s'est montré aussi efficace que le Gardasil contre les HPV de génotypes 6, 11, 16, et 18, les plus fréquemment impliqués dans l'apparition de cancer du col de l'utérus. Les profils de sécurité étaient également comparables. Le CIRC a estimé que si un programme national de vaccination à une dose contre le HPV était mis en place en Inde dès maintenant, il pourrait prévenir un million de cas de cancer du col de l'utérus sur l’ensemble de la classe d'âge actuellement âgée de 10 ans. Une stratégie qui serait plus coût-efficace qu'une stratégie à deux doses. Ces études du CIRC sont un ajout significatif aux recommandations de l'OMS d'avril 2022. « Les preuves fournies par cette étude ont contribué de manière significative à l'évaluation par le Groupe consultatif stratégique d'experts sur la vaccination (Sage) de l'OMS de la vaccination contre le HPV dans un schéma à dose unique », déclare le Docteur Partha Basu, responsable de la branche Détection précoce, prévention et infection du CIRC. Un calendrier à dose unique devrait réduire les coûts du programme et faciliter l'intensification de la vaccination contre le HPV pour améliorer la couverture vaccinale ». Article rédigé par Georges Simmonds pour RT Flash CIRC | | | |
| Le centre de lutte contre le cancer Eugène Marquis de Rennes s’est doté d’un impressionnant robot chargé de préparer les traitements des cancers par chimiothérapie. Son bras mécanisé, ultraprécis, assemble les solutions injectables en toute sécurité. Et contribue aussi à réduire les troubles musculosquelettiques des techniciens de laboratoire. Pour accéder dans l’unité de préparation des chimiothérapies injectables du centre de lutte contre le cancer Eugène Marquis de Rennes, il faut suivre un protocole digne d’un bloc opératoire. Enfiler des tenues bleues stériles auxquelles on ajoute une casaque, des surchaussures, un masque et une charlotte. Et surtout avoir le badge permettant de déverrouiller le sas d’entrée. « Dans cette pièce, l’air est contrôlé et filtré. Les normes d’hygiène y sont très strictes », assure le Docteur Claude Bertrand, responsable de la pharmacie du centre. Dans une armoire vitrée verrouillée, sont entreposés des petits flacons de cytotoxines aux noms compliqués. Des tueurs de cellules cancéreuses. « Ceux-là sont pour les traitements des cancers du sein, précise le Docteur Bertrand. En dessous, surto ut pour les cancers du rein et du côlon ». Des produits, qui comme leur nom l’indique, sont très dangereux et doivent être manipulés avec un luxe de précaution. Mais le responsable est surtout très fier de présenter la nouvelle acquisition de son laboratoire. « Chemo : c’est un robot capable de préparer les solutions de chimiothérapie. Pour l’instant, nous sommes le deuxième centre en France, après Gustave Roussy dans le Val-de-Marne, à en être équipés ». Un investissement de près de 500 000 € pour cet appareil qui a été mis en service en novembre dernier. À travers la paroi vitrée de l’imposant appareil, le bras mécanisé du robot se lance dans une étonnante chorégraphie. Sa pince saisit d’abord un flacon de cytoxine dont il a préalablement scanné le code-barres et en a pesé le contenu. Puis il présente le flacon à une seringue qui va en extraire la quantité programmée. Ensuite, il va s’emparer d’une poche de liquide de dilution dans laquelle il va réinjecter la solution anti-cancer. Sans aucun tremblement ni hésitation. Puis mettre à disposition le produit finalisé avec là encore, toute une série de contrôles informatisés. Technicienne de laboratoire, Élodie Boucheny surveille le processus. « J’ai programmé, sur le logiciel du robot, toutes les solutions de chimiothérapie qui nous sont commandées par les services de soins », explique-t-elle. « Ensuite j’alimente le robot avec les produits nécessaires et c’est lui qui les assemble ». Une collaboration aussi appelée cobotique. Une interaction entre homme et robot pour atteindre un objectif commun. Un nouveau partenaire de travail qu’elle a rapidement adopté. « Il contribue à diminuer nos risques de troubles musculosquelettiques, de se piquer lors des manipulations ou de faire des erreurs, assure-t-elle. Traditionnellement, on prépare les solutions de chimiothérapie dans ce que l’on appelle des isolateurs. » De grandes boîtes vitrées équipées de manchons en caoutchouc dans lesquelles les techniciens introduisent leurs bras pour manipuler les produits. « C’est assez fatigant d’autant que l’on a toujours les bras en suspension. D’où l’apparition de troubles musculosquelettiques ». Des isolateurs qui n’ont d’ailleurs pas encore disparu du laboratoire. « Nous sommes en train de faire monter en charge l’activité du robot et espérons qu’il réalise près de 50 % des 37 000 poches de chimiothérapie que nous assemblons chaque année », assure le Docteur Bertrand. Article rédigé par Georges Simmonds pour RT Flash Ouest France | | | |
| Le défaut de régulation d’un gène en particulier est identifié comme responsable du risque particulièrement élevé de leucémie chez les enfants atteints du syndrome de Down ou trisomie 21 : cette équipe de généticiens et pédiatres de l'Université Goethe de Francfort apporte avec cette découverte et ces travaux, publiés dans la revue Blood, une base pour le développement d'une thérapie ciblée. La leucémie, un cancer du sang, englobe tout un groupe de maladies malignes et agressives des cellules hématopoïétiques de la moelle osseuse. Une chimiothérapie très intensive et, dans certains cas, une greffe de moelle osseuse, sont le seul remède. Comme tous les cancers, la leucémie est causée par des modifications de l'ADN, le matériel héréditaire présent dans les cellules humaines sous la forme de 46 chromosomes. Dans de nombreuses formes de leucémie, de grandes parties de ces chromosomes sont altérées. Le syndrome de Down ou trisomie 21 est la maladie génétique congénitale la plus courante, affectant environ un nouveau-né sur 700. Les personnes trisomiques, qui ont 3 copies du chromosome 21, sont particulièrement vulnérables à ce cancer du sang : le risque de développer une leucémie myéloïde aiguë (LMA) agressive au cours des 4 premières années de leur vie est plus de 100 fois plus élevé. L’équipe de l'hôpital universitaire de Francfort vient de découvrir comment le chromosome 21 supplémentaire peut favoriser la LMA : à l’aide de la technique d’édition du génome CRISPR-Cas9, les scientifiques ont examiné chacun des 218 gènes du chromosome 21 pour leur effet cancérigène. Cette analyse conclut que le gène RUNX1 est responsable des propriétés cancérigènes spécifiques du chromosome. A l’aide d'autres analyses, les chercheurs confirment qu'une variante particulière du gène favorise le développement de la leucémie chez les patients trisomiques. L’auteur principal, le professeur Jan-Henning Klusmann, directeur du département de médecine pédiatrique et de l'adolescence de l'Hôpital de Francfort, explique : « D'autres isoformes de RUNX1 peuvent au contraire empêcher la dégénérescence des cellules. Cela explique pourquoi RUNX1 ne s'est jusqu'à présent pas démarqué – au cours de plusieurs décennies de recherche approfondie sur le cancer ». Le gène RUNX1 code pour un "facteur de transcription", une protéine responsable de la régulation de l'activité d'autres gènes. RUNX1 régule de nombreux processus, y compris le développement embryonnaire et l'hématopoïèse précoce et tardive, ou la formation du sang. La perturbation de cet important régulateur est donc un événement clé dans le développement de la LMA. L'étude souligne également à quel point il est important d'examiner toutes les variantes des gènes dans la cancérogenèse. Enfin, la recherche ouvre la voie à des approches thérapeutiques plus sophistiquées : grâce à ces analyses biochimiques, les scientifiques savent exactement comment la variante du gène modifie les cellules sanguines. À partir de là, il devient possible d’identifier et de tester des substances spécifiques qui bloquent le mécanisme de la maladie chez ce groupe de patients et permettent des chimiothérapies « plus agressives ». Article rédigé par Georges Simmonds pour RT Flash ASH | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|