| | Edito L’extraordinaire efficacité des vaccins à ARN contre la Covid-19 ouvre une nouvelle ère dans l’histoire de la médecine
Depuis l’arrivée des premiers vaccins contre le coronavirus, fin 2020, plusieurs questions scientifiques capitales restaient sans réponses claires. Il s’agit, premièrement, du niveau de protection conféré par une précédente infection à SARS-CoV-2 ou induit par la vaccination, contre les nouveaux variants B.1.1.7 et B.1.351, détectés respectivement au Royaume-Uni et en Afrique du Sud, deuxièmement, de la capacité des vaccins à ARN à réduire ou empêcher la transmission du virus et, enfin, de la durée réelle de protection immunitaire offerte par ces vaccins à ARN contre le coronavirus et ses variants. Depuis quelques jours, nous disposons enfin de plusieurs études épidémiologiques, très solides, qui nous apportent des éléments de réponse particulièrement positifs et encourageants sur ces trois interrogations. Dans une première étude, une équipe française de Pasteur a confirmé que si le variant « britannique » est neutralisé de façon presque identique au virus de référence, son homologue « sud-africain » nécessite des concentrations 6 fois plus élevées d’anticorps pour être neutralisé (Voir Institut Pasteur). Les chercheurs de l’Institut Pasteur, en collaboration avec les centres hospitaliers d'Orléans, Tours, Créteil, Strasbourg et l’Hôpital Européen Georges Pompidou, ont évalué la sensibilité de ces deux variants aux anticorps neutralisants présents dans les sérums de personnes précédemment infectées ou vaccinées. Point important de cette étude, les scientifiques ont travaillé sur de véritables virus et non des pseudovirus. L’équipe française a montré que le variant anglais (B.1.1.7) est neutralisé par 95 % des sérums de ces participants infectés recueillis jusqu'à 9 mois après l’apparition des symptômes, des résultats comparables à ceux obtenus pour la souche d’origine D614G. S'agissant du variant sud-africain (B.1.351), il est neutralisé dans 40 % des s&eac ute;rums de patients ayant été infectés par le SARS-CoV-2- recueillis jusqu'à 9 mois après l’apparition des symptômes. Mais ces recherches montrent qu'il faut six fois plus d'anticorps pour neutraliser le variant sud-africain. Mais, on le sait, L'immunité acquise utilise deux types d'immunités : d’une part, l'immunité humorale, qui repose sur des molécules solubles, les anticorps ; d’autre part, l'immunité cellulaire, qui repose sur les lymphocytes T. Or, selon une autre étude publiée le 30 mars dans le Journal de l'Université d'Oxford, les lymphocytes T, baptisés « cellules T tueuses » parce qu'ils éliminent les cellules infectées, restent efficaces contre les variants plus contagieux du Covid-19 et contre les risques accrus de réinfection et de formes sévères de Covid-19 (Voir Oxford Academic). Dans ce travail, les scientifiques des Instituts nationaux de santé américains (NIH) et de l'Université John s Hopkins ont analysé des échantillons de sang de 30 personnes ayant contracté le virus avant l'émergence des variants. L'étude avait pour but de savoir si ces lymphocytes T CD8 (une catégorie de globules blancs) étaient capables de reconnaître les trois variants majeurs du SARS-CoV-2: le B.1.1.7 (variant anglais), le B.1.351 (variant sud-africain) et le B.1.1.248 (variant brésilien). Ces variants portent chacun une mutation dans la région de la protéine S (spike), et c'est ce qui les rend plus difficiles à identifier par les anticorps neutralisants. Confrontés au coronavirus, ces anticorps empêchent le virus d'infecter les cellules. Les lymphocytes T, eux, éliminent les cellules déjà infectées. Cette étude américaine est très importante, car elle montre que la réponse des cellules tueuses reste puissante et que celles-ci continuent à reconnaître pratiquement tous les variants, contrairement aux anticorps. Ces deux études complémentaires montrent donc que les vaccins actuellement disponibles semblent moins efficaces, en ce qui concerne l'immunité humorale (Anticorps) contre certains variants, comme le variant sud-africain, mais semblent tout de même stimuler suffisamment l'immunité cellulaire (Lymphocytes T), pour qu e celle-ci reconnaisse et combatte vigoureusement ces nouveaux variants. Parmi les pistes possibles qu'étudient les scientifiques, on trouve la possibilité d'une troisième dose, pour "booster" le système immunitaire, ou encore la combinaison de plusieurs vaccins. Le Royaume-Uni envisage, en septembre prochain, un vaccin de "rappel", légèrement modifié, capable de faire face aux variants, pour les personnes de plus de 70 ans, afin de les protéger contre les nouvelles variantes du coronavirus. Selon le virologue Marc Van Ranst, de l'Université Catholique de Louvain, l'Europe ferait bien de faire de même et devrait, dès à présent, anticiper dans la lutte contre ces variants, en prévoyant à la fois un rappel à l'automne avec des vaccins à ARN "adaptés" aux nouveaux variants, mais aussi en faisant monter en ligne des vaccins à virus inactivés, comme celui que prépare Valneva, qui, au lieu de se concentrer sur une petite partie du virus - la protéine S, dite "Spike" - utilisent le coronavirus dans son ensemble pour développer une réponse immunitaire plus large et plus forte. Mais s’il est maintenant avéré que l’efficacité des vaccins à ARN provoque une réponse immunitaire forte, tant humorale que cellulaire, sur le coronavirus, et l’ensemble de ses variants connus, est remarquable, deux autres études récentes viennent d’éclairer un autre point majeur qui faisait débat chez les scientifiques, celui de la capacité des vaccins à ARN à bloquer ou à diminuer fortement la transmission du virus. La première étude a été réalisée sous l'égide des Centres de Contrôle et de Prévention (CDC), principale agence fédérale de santé publique aux Etats-Unis, à partir de données recueillies entre décembre 2020 et mars 2021, et concernant 3 950 membres du personnel de santé (Voir CDC). Au cours de cette période, 2.479 personnes ont reçu les deux doses du vaccin de Pfizer ou Moderna, 477 n'ont reçu qu'une dose de l'un des deux, le troisième groupe - 994 personnes - n'a pas été vacciné. Les participants de cette étude ont été dépistés chaque semaine avec un test PCR. Les résultats de cette étude rigoureuse sont clairs : les vaccins Pfizer ou Moderna protègent contre les formes graves de la maladie, mais aussi contre les infections. Cette étude montre que, "sur le terrain", ces vaccins se sont avérés efficaces à 90 %, après la deuxième dose, pour prévenir les infections au coronavirus. Ces recherches montrent également que les risques d’être contaminés diminuent déjà de 80 %, deux semaines après la première dose. Autre point capital, ces travaux confirment que les vaccins à ARN ne permettent pas seulement de protéger contre les effets du virus, mais empêchent également le virus d'entrer dans l’organisme, et diminuent drastiquement les cas asymptomatiques. L'étude précise en effet que « Parmi les infections qui se sont produites, seulement 10,7 % étaient asymptomatiques. Cela signifie que les personnes vaccinées sont très peu susceptibles de transmettre le virus lorsqu'elles ne présentent pas de symptômes. Cela signifie également qu'à mesure que les taux de vaccination continuent d'augmenter, le virus aura de moins en moins d'hôtes possibles ». Cette étude vient donc confirmer celle publiée le 10 mars dernier (Voir Oxford Academic CID) par des chercheurs de la Mayo Clinic Rochester, qui montrait que les vaccins anti-COVID à ARN messager permettaient de réduire considérablement le risque d'infection asymptomatique au COVID-19 et donc le risque de propagation à bas bruit du virus. Rappelons que cette étude de la Mayo Clinic a permis d’analyser les données d’une cohorte de 39.000 patients ayant subi des tests PCR COVID-19 entre le 17 décembre 2020 et le 8 février 2021 à la Mayo Clinic du Minnesota et en Arizona. Les résultats de ce travail sont également sans équivoque et montrent que les patients sans symptômes ayant reçu les 2 doses de vaccin à ARN, ont un risque réduit de 80 % d'être testés positifs, par rapport aux personnes non vaccinées. Ces études récentes sont en parfaite cohérence avec celle réalisée en février dernier en Israël. Dans ce pays qui est le premier à avoir vacciné massivement sa population, une étude menée conjointement par le ministère israélien de la Santé et Pfizer a révélé que le vaccin développé par Pfizer et son partenaire allemand BioNTech réduisait les risques d'infection de 89,4 % dans les cas asymptomatiques et de 93,7 % dans les cas symptomatiques. Une seconde étude, réalisée par le centre hospitalier israélien Chaim Sheba, situé à Ramat Gan près de Tel Aviv, et publiée dans le « Lancet », a montré, pour sa part, que sur les 7.214 membres du personnel hospitalier ayant reçu une première dose de vaccin en janvier, on observait une réduction de 85 % des cas symptomatiques de COVID-19 dans les 15 à 28 jours, avec une réduction globale des infections (Voir The Lancet). S’agissant enfin de la question, elle aussi essentielle, de la durée de protection immunitaire conférée par les vaccins à ARN, les laboratoires pharmaceutiques Pfizer et BioNTech ont publié, le 1er avril, un rapport d’analyse révélant que le vaccin montrait une efficacité de 91,3 % contre les formes symptomatiques de la COVID six mois après la seconde injection. Ces résultats encourageants, cohérents avec les prévisions initiales, indiquent que l’immunité générée par le vaccin se maintient bien pendant plusieurs mois (Voir Pfizer). Ces nouvelles données publiées par Pfizer indiquent également qu’une étude menée en double aveugle contre placebo su r 800 participants en Afrique du sud a montré que neuf cas de Covid-19 ont été détectés, tous dans le groupe placebo, ce qui conforterait l’hypothèse selon laquelle le vaccin Pfizer reste efficace contre le variant sud-africain… Ces résultats sont les premiers à démontrer que le vaccin reste efficace pendant de nombreux mois, ce qui conforte sérieusement l’hypothèse que les personnes vaccinées maintenant devraient être suffisamment protégées au moins jusqu’à l’automne. L’analyse des participants à l’essai de phase 3, qui a recruté 46 307 personnes, a identifié 927 cas symptomatiques de COVID-19. Parmi ceux-ci, 850 étaient dans le groupe placebo de l’essai et 77 dans le groupe vaccin. Il y avait 32 cas de COVID sévère, tel que défini par les Centres pour le contrôle et la prévention des maladies (CDC) des États-Unis, dans le groupe placebo, et aucun dans le groupe vacciné. Les résultats sont publiés alors que des scientifiques britanniques confirment de fortes réponses immunitaires chez les personnes âgées qui avaient reçu deux injections du vaccin Pfizer. Des tests sanguins sur 100 personnes âgées de 80 à 96 ans ont révélé que 98 % produisaient de fortes réponses anticorps après deux doses du vaccin administrées à trois semaines d’intervalle. Les niveaux d’anticorps ont plus que triplé après la deuxième injection. Cette étude confirme que le vaccin Pfizer peut être très efficace contre la COVID, même chez les personnes âgées les plus vulnérables, dont les réponses immunitaires sont beaucoup plus faibles aux vaccins et aux infections naturelles. Cette étude indique également que les données recueillies sur 2 260 adolescents vaccin& eacute;s aux Etats-Unis « ont démontré une efficacité de 100 % et des réponses d’anticorps robustes ». Cette étude a également porté sur la réponse immunitaire dite « cellulaire », celle qui fait intervenir les lymphocytes T. Comme je l’ai rappelé plus haut, les anticorps protègent contre l’infection en neutralisant le virus et en l’empêchant d’infecter les cellules, mais les cellules T détruisent les cellules humaines déjà infectées et peuvent par ailleurs favoriser la production d’anticorps au fil du temps. Sur ce point important, l’étude montre qu’après les deux injections du vaccin, les deux tiers des participants montraient des réponses de lymphocytes T détectables. Cette étude très attendue vient conforter d’autres travaux qui montrent que les patients vaccinés avec les vaccins à ARN ont une bonne protection immunitaire pendant une durée allant de 6 à 8 mois, comme en atteste la présence d’anticorps huit mois après la vaccination, pour les 9/10 des patients. Au-delà de 8 mois, nous n’avons pas encore assez de recul pour estimer le niveau de protection immunitaire qui subsiste, mais la plupart des immunologistes estiment que le système immunitaire est suffisamment performant pour mettre les personnes ayant été infectées à l’abri de formes sévères, si elles devaient être malheureusement réinfectées par le coronavirus. Il est important de souligner que Pfizer-BioNTech et Moderna ne devraient pas longtemps rester les seuls vaccins à ARN contre la Covid-19 disponibles sur le marché. Deux autres vaccins à ARN sont en effet à un stade très avancé de développement, le vaccin CVnCoV, du laboratoire allemand Curevac, et celui de la société américaine Novavax, baptisé NVX-CoV2373. Le laboratoire allemand Curevac, qui a développé un vaccin à ARN messager contre le Covid-19, vient d’annoncer, dans le cadre d’une coopération avec le laboratoire britannique GlaxoSmithKline, la poursuite de ses essais cliniques très encourageants pour inclure de nouveaux variants du virus, et a confirmé son objectif de mise sur le marché au deuxième trimestre 2021. Curevac est par ailleurs déjà allié aux géants pharmaceutiques suisses Novartis et Allemand Bayer et Novartis pour pouvoir produire et fournir à l’Union européenne 405 millions de doses, dès que l’Agence européenne des médicaments (EMA) aura donné son autorisation à la mise sur le marché de son vaccin, sans doute avant l’été. Ingmar Hoerr, cofondateur de CureVac, promet un vaccin « moins cher et plus accessible » que celui de ses concurrents. Le vaccin à ARN Novavax est, pour sa part, actuellement en essai clinique de phase 3 et devrait également être disponible à la fin du deuxième trimestre 2021. Il repose sur la technique des protéines recombinantes : il contient la protéine Spike du SARS-CoV-2 (qui permet au virus de pénétrer dans nos cellules) et un adjuvant à base de saponine. Le vaccin Novavax se conserve dans des réfrigérateurs normaux et est administré en deux doses à 21 jours d’intervalle comme le Pfizer. Deux essais de ce vaccin ont été menés. Le premier au Royaume-Uni auprès de plus de 15 000 participants âgés entre 18 et 84 ans, dont plus de la moitié touchés par le variant britannique, a montré une efficacité remarquable de 95,6 % contre la souche originale du Covid-19 et à 85,6 % contre le variant britannique. L’ efficacité moyenne a été évaluée à 89,3 %. L’autre essai a été mené sur 4400 patients en Afrique du Sud ; il a montré une efficacité de 55 % sur le variant sud-africain, considéré à ce jour comme le plus dangereux. Au final, ces deux études ont montré que ce vaccin Curevac fournissait une excellente protection, à la fois contre les formes légères et plus graves de la maladie. Nous devrions donc disposer, d’ici cet été, en plus des vaccins classiques AstraZeneca et Johnson and Johnson, de quatre vaccins à ARN contre le coronavirus, présentant tous un excellent niveau de sureté et d’efficacité, y compris contre les variants anglais et sud-africain. Cette panoplie plus large de vaccins à ARN pourra, le cas échéant, être adaptée et complétée d’ici l’automne, de manière à intégrer, si nécessaire, de nouveaux variants de la Covid-19. Sur ce point fondamental, il est très important de rappeler qu’une adaptation et une production de masse aussi rapide des vaccins intégrant ces nouveaux variants serait tout simplement impossible avec des vaccins « classiques », à virus atténués ou modifiés. On le voit, ces nouveaux vaccins à ARN sont en train de jouer un rôle absolument décisif dans la lutte, puis la maîtrise de cette pandémie, qu’elle soit finalement éradiquée, ou qu’elle finisse par se transformer en pandémie saisonnière bénigne. Mais, au-delà de cette pandémie mondiale, c’est bien l’avenir de la vaccination dans son ensemble et de la médecine, qui va être, en seulement quelques années, totalement bouleversé par cette technologie incroyablement puissante, souple et évolutive de l’ARN messager, qui permet de faire fabriquer, « à la demande », par les cellules, une multitude de protéines ou des fragments de protéines d'un agent pathogène, de manière à mobiliser, avec une efficacité et une précision sans pareil, toutes les extraordinaires ressource s de notre système immunitaire. Le PDG de Pfizer, Albert Bourla, vient d’ailleurs d’annoncer que sa firme, dans le cadre d’un partenariat prolongé avec BioNTech, avait bien l’intention d’appliquer et d’étendre cette technologie de l’ARN messager à de multiples vaccins et de nombreuses pathologies, et l’on peut parier qu’avant la fin de cette décennie, la plupart des vaccins « classiques », grippe, tuberculose, rougeole, hépatite, pneumonie, méningite, basculeront vers la technologie ARN, ce qui permettra de produire des vaccins encore plus efficaces et sûrs contre ces maladies, puisqu’il deviendra possible de les modifier et de les adapter très rapidement, en fonction de l’évolution des bactéries et virus qu’ils doivent combattre. Mais, outre la lutte contre les maladies infectieuses les plus mortelles, cette technologie à ARN est également appelée à révolutionner, je vous en reparlerai plus en détail prochainement, les traitements du cancer et de nombreuses maladies neurodégénératives graves, en ouvrant la voie vers la conception de traitements entièrement personnalisés, qui seront à la fois bien plus efficaces et bien plus confortables pour les malades. Si elle veut rester dans cette course médicale et scientifique absolument stratégique et vitale pour votre avenir, la France doit, sans tarder, annoncer le lancement d’un grand plan « ARN » sur 10 ans, visant à mettre en place une structure fédératrice qui saura mobiliser toutes les ressources et compétences humaines dans ce domaine et sera dotée de moyens budgétaires garantis pour toute la durée de ce programme. Souhaitons que cet enjeu, si important, en termes de santé publique et de qualité de vie pour nos concitoyens, figure en bonne place dans les programmes des candidats à la prochaine élection présidentielle de 2022… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat email : tregouet@gmail.com | |
| | Nanotechnologies et Robotique | |
| | | Depuis toujours, recouvrer la vision fait partie de l’un des principaux défis scientifiques. Diego Ghezzi, à la tête de la Chaire Medtronic en neuro-ingénierie de la faculté des sciences et techniques de l’ingénieur de l’EPFL (Ecole Polytechnique Fédérale de Lausanne), en a fait un objectif bien concret. Depuis 2015 il développe une prothèse qui se place contre la rétine de l’œil. Ce dispositif fonctionne avec des lunettes intelligentes munies d’une caméra et d’un ordinateur. « Le but de l’appareil est d’obtenir une vision artificielle chez les personnes souffrant de cécité par des stimulations électriques de la rétine », explique Diego Ghezzi. La minicaméra, placée sur la monture des lunettes, capture des images dans son champ de vision, puis les transmet au mini-ordinateur situé sur l’une des branches. Enfin, l’ordinateur transforme ces données en signaux lumineux envoyés aux électrodes qui constituent la prothèse. Ces électrodes stimulent les cellules de la rétine. Le patient peut ainsi voir une image reproduite et simplifiée. Il ne perçoit pas la réalité, mais une image, en noir et blanc, composée de ces points lumineux. Ces derniers apparaissent lorsqu’une électrode du dispositif active la rétine. Si l’on en excite beaucoup, le patient doit apprendre à interpréter ces points lumineux et discerner des formes et objets. « En regardant le ciel de nuit, on distingue les étoiles sous forme de point lumineux, et en les identifiant on arrive à reconnaitre certaines constellations. Une personne aveugle perçoit le même genre d’image avec notre système », explique Diego Ghezzi. « Pour le moment, nous ne sommes pas autorisés à implanter notre dispositif sur des patients, car les certifications médicales prennent du temps, mais nous avons développé une méthodologie qui nous permet de le faire quand même, une sorte de raccourci », précise Diego Ghezzi. Son équipe a utilisé la réalité virtuelle afin d’imiter ce que les patients verraient avec la prothèse rétinienne. Leurs résultats sont publiés dans Communication Materials. Quand les spécialistes évoquent la vision, deux paramètres sont à prendre en compte : le champ visuel et la résolution. Les chercheurs ont voulu évaluer si ces deux éléments remplissaient tous les critères d’efficacité avec leur prothèse rétinienne. Cette dernière est munie de 10 500 électrodes générant chacun un point lumineux. « On s’est demandé si ce nombre était suffisant ou excessif. En effet, il s’avère important de trouver le juste milieu afin que l’image ne devienne pas confuse. Le patient doit pouvoir distinguer deux points proches l’un de l’autre sans les mélanger, et, en même temps, il faut proposer suffisamment de points pour que la résolution de l’image se révèle acceptable », indique le professeur. Les scientifiques ont dû vérifier que chaque électrode de la prothèse générait bien un point lumineux. « Nous voulions être certains que deux électrodes ne stimulent pas la même partie de la rétine. Nous avons donc procédé à des tests électrophysiologiques qui consistent à enregistrer l'activité des cellules ganglionnaires de la rétine. Le résultat s’est avéré positif puisque nous avons eu la confirmations que chaque électrode active une partie différente de la rétine », indique Diego Ghezzi. Mais comment savoir si cette résolution de 10 500 points lumineux est bonne ? Pour répondre à cette question, les chercheurs ont utilisé la réalité virtuelle afin de reconstituer ce qu’un patient pourrait percevoir avec la prothèse. « Ces simulations nous ont révélé que le nombre de points lumineux, et donc d’électrodes, s’avère raisonnable. Si on l’augmente ce nombre, le patient n’y gagnerait pas grand-chose en matière de définition », indique Diego Ghezzi. Les scientifiques ont également effectué des expériences en conservant la même résolution, mais en changeant l’angle du champ de vision. « Nous avons commencé à 5 degrés et ouvert jusqu’à 45 degrés. Le point de saturation s’est révélé autour de 35 degrés. Au-delà, la performance de l’objet reste stable », explique Diego Ghezzi. Toutes ces expériences ont conforté les chercheurs dans le fait qu’ils n’avaient pas besoin d’améliorer les capacités de leur dispositif et qu’il est prêt à être testé cliniquement. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Depuis le début de l’année 2021, le professeur Nicolas Mathieu a intégré, au CHU de Grenoble, un robot dans le quotidien de son équipe médicale et des malades. « 100 % des patients ont adhéré à la télésurveillance. Qu’ils soient en suivi classique, en changement de biothérapies, ou juste après la consultation d’annonce, tous ont été très enthousiastes à l’idée d’être suivis par le robot », précise Nicolas Mathieu, gastro-entérologue et hépatologue au CHU de Grenoble. « Les raisons de l’adhésion sont multiples : il peut y avoir la peur du Covid pour se rendre à l’hôpital, mais aussi la responsabilisation du patient qui est acteur de sa maladie, une meilleure coordination de son parcours de soins et l’accompagnement dans son quotidien », poursuit le professionnel de santé. Cette initiative vise à améliorer la qualité de vie des malades. « Nous cherchons constamment à améliorer le parcours de soins des patients atteints de maladies chroniques comme les MICI en apportant des solutions innovantes pour leur permettre d’avoir la meilleure qualité de vie possible », précise le docteur Thierry Marquet, Directeur général de Takeda France. « Cette solution simple pour les patients mise au point par Calmedica contribue à cet objectif en facilitant les contacts avec leur gastro-entérologue », estime-t-il. Concrètement, le robot suit les principaux symptômes de la maladie et alerte le patient ainsi que son équipe soignante en cas de dégradation. « Les malades se sentent ainsi plus rassurés et, de ce fait, appellent moins souvent l’infirmière, le robot absorbant une partie des demandes et permettant aux professionnels de santé de mieux se consacrer aux patients qui en ont le plus besoin », se félicitent les créateurs du dispositif. Ce protocole est également déployé au CHU de Rennes dans le service du Professeur Bouguen et est actuellement en cours d'installation dans deux centres hospitaliers de la région parisienne. Les maladies gastro-intestinales touchent environ 250 000 personnes en France, avec 8 000 nouveaux cas chaque année. Elles peuvent être complexes, invalidantes et bouleverser la qualité de vie des patients. La rectocolite hémorragique et la maladie de Crohn en sont deux des formes les plus courantes. Article rédigé par Georges Simmonds pour RT Flash Pourquoi Docteur | | ^ Haut | |
|
| | | Des chercheurs du laboratoire SYRTE-Observatoire de Paris (Systèmes de Référence Temps-Espace) ont développé une nouvelle technologie de détection d’un gaz d’atomes refroidis par laser basé sur les propriétés magnétiques du gaz polarisé. Avions, satellites mais aussi sous-marins peuvent avoir besoin de se localiser sans signal de référence de type GPS. Ils embarquent alors des centrales inertielles dotées d’horloges, de capteurs d’accélération et de rotation permettant de déterminer de manière autonome une position à partir de la mesure de forces inertielles. La nouvelle technique mise au point par SYRTE devrait permettre de réaliser des systèmes de guidage d’une grande précision, en utilisant des capteurs inertiels à atomes froids sur une puce. Cette technologie quantique pourrait ouvrir la voie à de nouvelles applications, notamment pour le secteur de la défense. Pour ce travail de recherche, les chercheurs utilisent un interféromètre atomique qui fonctionne sur le même principe que l’interféromètre optique. En effet, à l’image des photons pour la lumière, les atomes possèdent également une onde associée et peuvent donc interférer. À partir d’une onde atomique, un laser va en générer deux ; ces ondes vont alors effectuer des trajets différents, puis se recombiner, créant ainsi des franges d’interférence. Ce mécanisme est à la base du mode de fonctionnement du capteur inertiel en cours de développement. « La source laser va émettre un faisceau qui est réfléchi par un miroir et les atomes vont se propager librement entre les interactions lasers dans une chambre à vide », explique Carlos Garrido Alzar, chercheur au SYRTE. « Les atomes vont nous fournir ainsi un référentiel inertiel à partir duquel on va mesurer les déplacements des faisceaux laser ». Les scientifiques utilisent des atomes refroidis par laser, en l’occurrence du rubidium, afin de disposer de temps de mesure très longs. Pour rendre cette technologie opérationnelle pour la navigation, il est nécessaire de l’intégrer sur une puce microélectronique. L’équipe de recherche est parvenue à créer des microcircuits à atomes froids de sorte à rendre cette technologie compacte et pratique pour des applications embarquées. Le principal avantage de ce capteur inertiel à atomes froids sur puce réside dans ses très grandes sensibilité et stabilité. Elles s’expliquent par l’utilisation d’un nuage d’atomes préparé dans un état quantique bien défini. Contrairement aux capteurs inertiels actuellement en service, il est donc inutile de calibrer périodiquement ce nouvel instrument à l’aide par exemple d’un signal GPS afin de vérifier qu’il est sur la bonne trajectoire. Ce nouveau capteur devrait trouver des applications dans le secteur de la défense, il est d’ailleurs développé en collaboration avec Thales Research & Technology (TRT). Il pourrait par exemple être embarqué dans des avions afin que leur positionnement reste précis même en cas de brouillage des radars. « Une autre application potentielle concerne la réalisation de centrales de navigation autonomes hybrides pour des satellites impossibles à contrôler en temps réel depuis la Terre ». Article rédigé par Georges Simmonds pour RT Flash SYRTE | | ^ Haut | |
|
| | | Une nouvelle étude, basée notamment sur le rapport entre la concentration entre l’hydrogène et son isotope le deutérium, montre que l’essentiel de l’eau présente à la surface de Mars après sa genèse serait toujours présent dans la croûte. Les scientifiques ont prouvé par le passé qu’il y avait déjà eu de l’eau sur Mars. Aujourd’hui, ils viennent de démontrer que l’eau de la planète rouge ne s’est pas uniquement évaporée dans l’espace. Mieux : la majeure partie des molécules d’H2O serait toujours présente dans la croûte martienne. Le nouveau modèle de la perte de l’eau liquide à la surface de Mars s’appuie donc sur les deux phénomènes d’évasion atmosphérique et de capture de l’eau par la croûte de la planète. Ce qui a mis la puce à l’oreille des chercheurs est la nature de l’hydrogène détecté sur Mars. Une molécule d’eau est composée de trois atomes, deux d’hydrogène et un d’oxygène – H2O, donc. Or, tous les atomes ne sont pas similaires, il existe dans le cas de l’hydrogène deux « versions principales » : l’hydrogène « normal », appelé Hydrogène 1 ou protium dans sa forme non ionisée, constitué d’un proton seul. C’est le plus commun sur terre puisqu’il représente 99,98 % du total. Parmi les autres isotopes, le plus courant est l’hydrogène 2 ou deutérium, qui diffère de « l’original » par l’ajout d’un neutron. Son noyau est donc (grosso modo) deux fois plus lourd et cette masse supplémentaire fait que les atomes de deutérium ainsi que les molécules l’incluant sont moins à même de quitter la planète. En étudiant la différence actuelle entre le ratio H/D entre l’hydrogène 1 (H) et son isotope le deutérium (D) présents à la surface de Mars, les scientifiques ont mis en évidence une incohérence qui mène au scénario d’une capture de l’essentiel de l’eau par les roches mêmes de la planète. Selon le nouveau modèle, au moins 30 % de l’eau martienne aurait été capturée par les roches entre la genèse de Mars au Noachien (entre 3,7 et 4,1 milliards d’années) et le début de l’Amazonien, il y a 3 milliards d’années. C’est à ce moment-là que la planète serait « morte », avec l'essentiel de son eau prisonnière des roches et de la calotte glaciaire. Article rédigé par Georges Simmonds pour RT Flash Science | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | On le sait, le mode de vie d'un père tel que l'alimentation, le surpoids et le stress, ont des conséquences sur la santé de sa progéniture. Ce phénomène se produit à travers l'épigénome, lorsque l’environnement a une influence sur le génome (ensemble du matériel génétique d'une cellule) par des modifications dites épigénétiques. Mais la manière dont les informations sont transmises lors de la fécondation, et les mécanismes exacts et les molécules du sperme impliquées dans ce processus n'ont pas été clairs jusqu'à présent. Une nouvelle étude menée par des chercheurs de l'Université McGill a permis de montrer comment l'information environnementale est transmise par des molécules non ADN dans le sperme. Une découverte importante, car elle ouvre potentiellement de nouvelles voies pour étudier la transmission et la prévention des maladies. « La grande avancée de cette étude est qu'elle a identifié un moyen non basé sur l'ADN par lequel les spermatozoïdes se souviennent de l'environnement (régime) d'un père et transmettent ces informations à l'embryon. », explique le Professeur Sarah Kimmins, auteur principal de l'étude. Celle-ci ajoute : « Nos travaux modifient en profondeur ce que l'on sait sur l'héritabilité et la maladie, qui serait basée uniquement sur l'ADN, en intégrant une nouvelle composante importante qui comprend désormais des protéines de sperme ». Jusqu'ici aucune équipe scientifique n'avait pu savoir comment ces signatures environnementales héréditaires sont transmises du sperme à l'embryon auparavant. Pour déterminer comment les informations qui affectent le développement sont transmises aux embryons, les chercheurs ont manipulé du sperme en nourrissant des souris mâles avec un régime alimentaire déficient en folate (vitamine B9). Cette dernière a un rôle essentiel dans la production du matériel génétique (ADN, ARN) et des acides aminés nécessaires à la croissance cellulaire, ce qui explique son caractère indispensable au cours des différentes phases de la vie. Les chercheurs ont ensuite tracé les effets sur des groupes particuliers de molécules dans les protéines associées à l'ADN, et ont alors découvert des modifications induites par le régime alimentaire sur des molécules de la famille des méthyles. Associées aux protéines histones, essentielles pour emballer l'ADN dans les cellules, ces modifications entraînent elles-mêmes des modifications en ce qui concerne l'expression des gènes dans les embryons, et des anomalies congénitales de la colonne vertébrale et du crâne à la naissance. Par ailleurs, ces modifications sur les histones du sperme se transmettent lors de la fécondation et restent dans l'embryon en développement. « L'espoir offert par ce travail est qu'en élargissant notre compréhension de ce qui est hérité au-delà de l'ADN, il existe des voies potentielles pour la prévention des maladies qui mèneront à des enfants et adultes en meilleure santé. », concluent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Les "troubles de la conduite alimentaire" (TCA), qui regroupent l’anorexie mentale, la boulimie et les accès hyperphagiques, concernent environ 600 000 adolescents et jeunes adultes entre 12 et 35 ans en France, dont près de 90 % de jeunes filles ou jeunes femmes. Ces dernières années, plusieurs études ont montré qu’il existait des prédispositions génétiques à ces maladies. De nouveaux travaux, basés sur l’étude du génome de dizaines de milliers d’individus, et menés par une équipe de l'Université de Genève (UNIGE), des Hôpitaux universitaires de Genève (HUG), du King's College de Londres, du University College de Londres, de l'Université de Caroline du Nord (UNC) et de l'Icahn School of Medicine du Mont Sinaï, montrent que ces prédispositions génétiques partagent un profil commun avec d’autres troubles psychiatriques. « Des études antérieures, qui ont mis en évidence une association génétique entre un risque élevé d'anorexie mentale et un faible risque d'obésité, ont commencé à lever le voile sur certains aspects de l'apparition des troubles alimentaires largement négligés jusqu'ici », explique Nadia Micali, professeure au Département de psychiatrie de la Faculté de médecine de l'UNIGE et cheffe du service de psychiatrie de l'enfant et de l'adolescent aux HUG, qui a dirigé ces travaux. « Cependant, le même travail n'avait pas été fait pour les deux autres grands troubles alimentaires : la boulimie et les accès hyperphagiques. Le but de notre étude était donc de comprendre le rôle des gènes régissant le poids corporel pour ces différents troubles, leurs similitudes et leurs diff& eacute;rences ». Pour comprendre les similitudes et les différences entre les schémas génétiques de l'anorexie mentale, de la boulimie et des accès hyperphagiques, les chercheurs ont analysé le génome de plus de 20 000 personnes. Ils ont aussi eu accès à leurs données de santé telles que le poids et l’âge, et à leurs réponses à des questionnaires de santé traitant notamment d'éventuels troubles psychiatriques, et de l'historique de leurs troubles alimentaires. L’ensemble de ces données leur a servi à calculer plus de 250 scores polygéniques pour chaque individu. « Chaque score polygénique fait l'addition des gènes impliqués dans un trait spécifique, comme la dépression, par exemple », explique Christopher Hübel, chercheur au King's College de Londres et premier auteur de ces travaux. « Nous avons ainsi calculé les scores polygéniques pour des troubles psychiatriques, tels que la schizophrénie ou les troubles obsessionnels compulsifs, et les traits métaboliques et physiques, notamment la sensibilité à l'insuline, l'obésité et un IMC élevé ». Plus le score est élevé, plus le risque génétique de développer une maladie donnée est important. L’équipe a ensuite examiné les scores polygéniques des volontaires et leurs troubles alimentaires. Les résultats montrent qu’il existe des similitudes manifestes entre l’anorexie mentale, la boulimie et l’hyperphagie, mais aussi des différences. Parmi les similitudes, se trouvent l’association avec les troubles psychiatriques, notamment la schizophrénie et la dépression, ce qui « confirme la forte composante psychiatrique de ces maladies », précise Nadia Micali. « Cependant, la grande différence concerne les bases génétiques de la régulation du poids corporel, en totale opposition entre l'anorexie d'une part, et la boulimie et les accès hyperphagiques d'autre part, ces derniers étant liés à un fort risque génétique d'obésité et d'IMC élevé », poursuit la ch ercheuse. Cela signifie qu’une prédisposition génétique à un poids élevé par rapport à un poids faible peut constituer un facteur déterminant qui pousse les individus présentant un risque génétique psychiatrique similaire à des troubles alimentaires différents. « La composante métabolique et physique orienterait donc l'individu soit vers l'anorexie nerveuse, soit vers la boulimie ou les accès hyperphagiques », ajoute Nadia Micali. La découverte du rôle des schémas génétiques dans la régulation du poids corporel permet de mieux comprendre les bases génétiques des troubles de l'alimentation et ouvre la voie vers de nouvelles prises en charge thérapeutiques. Article rédigé par Georges Simmonds pour RT Flash Eating Disorders | | | |
| Les éclairs ont pu procurer suffisamment de phosphore en frappant la Terre pour contribuer à l'émergence de la vie, selon une étude publiée récemment, qui offre un scénario alternatif à celui couramment admis. Le phosphore est un élément essentiel de la vie telle que nous la connaissons, permettant de former les structures de base des cellules et la double hélice de l'ADN et de l'ARN. Il y a des milliards d'années, l'essentiel du phosphore se trouvait scellé dans des minéraux insolubles de la jeune Terre. Mais l'un de ses minéraux, la schreibersite, est hautement réactif, et peut délivrer du phosphore servant à la formation de molécules organiques. Comme la plupart des schreibersites trouvées sur Terre viennent de météorites, on a souvent lié ces dernières à l'apparition de la vie. Mais on trouve de la schreibersite dans les roches ressemblant à du verre fondu que produisent les éclairs frappant certains sols riches en argile. Des chercheurs américains et britanniques ont utilisé des techniques d'imagerie de pointe pour analyser la quantité de roche que produit un éclair. Ils ont ensuite estimé la quantité de schreibersite qui a pu être produite dans les âges ayant précédé et ayant vu l'apparition de la vie sur Terre, il y a environ 3,5 milliards d'années. Les éclairs sur la jeune Terre ont pu produire une quantité significative de phosphore, précise Benjamin Hess, principal auteur de l'étude et chercheur au Département des sciences de la Terre et des planètes à Yale. Avec ses collègues, il a estimé que les éclairs ont pu produire entre 110 et 11 000 kilos de phosphore par an. En utilisant des simulations du climat aux premiers âges de la Terre, ils ont conclu que les éclairs ont surpassé les chutes de météorites en termes d'apport de phosphore il y a environ 3,5 milliards d'années. Une époque concordant avec celle de l'apparition de la vie. Selon M. Hess, cela ne veut pas dire que les météorites n'ont pas contribué à l'apparition de la vie, mais que plus il y a de sources, mieux c'est. Il aimerait maintenant savoir si ces mêmes éclairs ont pu produire du phosphore sur d'autres planètes où les chutes de météorites ont été rares. Les chutes de météorite ont décru avec le temps alors que la production d'éclairs, au moins sur Terre, est assez constante à travers les âges, a-t-il ajouté. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| L'étude prospective européenne MINDACT vient de confirmer, après 9 ans de suivi, l'utilité clinique de la signature génomique MammaPrint, qui permet aux femmes atteintes d'un cancer du sein d'éviter une chimiothérapie inutile. « Nous sommes extrêmement fiers de la publication des résultats à long terme de MINDACT, vaste étude européenne, dans The Lancet Oncology. Ils confirment qu'un risque génomique faible signifie risque faible, et que nous pouvons en toute sécurité proposer une désescalade de la chimiothérapie chez ces patientes, en particulier celles âgées de plus de 50 ans traitées traditionnellement de façon agressive, y compris celles avec une atteinte ganglionnaire », se félicite Martine Piccart, professeure honoraire d'oncologie à l'Université Libre de Bruxelles. « Ces résultats renforcent l'idée que toutes les patientes atteintes d'un cancer du sein à un stade précoce devraient avoir accès à un test de risque de récidive - qui devrait être considéré comme le standar d de soins lors du diagnostic, chez toutes les femmes », estime-t-elle. Ces recherches montrent que près de la moitié des femmes avec un cancer du sein ayant reçu une chimiothérapie peuvent l'éviter sans perte de chance. « La communauté des experts du cancer du sein s'intéresse de plus en plus à la compréhension des avantages de la chimiothérapie pour les femmes préménopausées », a détaillé Laura Van'TVeer, docteure en médecine. « Il est utile d'explorer cette tendance et son lien avec la suppression ovarienne, et de s'assurer que toutes les femmes - quel que soit leur âge - aient accès aux tests génomiques. Cela permettrait aux médecins et à leurs patientes d'envisager toutes les options de prise en charge de leur cancer en fonction de leur profil génomique », conclut-elle. Avec 60 000 nouveaux cas tous les ans, le cancer du sein se situe au premier rang des cancers incidents chez la femme, nettement devant le cancer colorectal et le cancer du poumon. Le dépistage du cancer du sein (recommandé tous les 2 ans aux femmes âgées de 50 à 74 ans, NDLR) est d’autant plus intéressant que la survie à 5 ans des patientes touchées s’améliore de plus en plus : elle est passée de 80 % pour les malades diagnostiquées entre 1989 et 1993 à 87 % pour celles diagnostiquées entre 2005 et 2010. Article rédigé par Georges Simmonds pour RT Flash The Lancet | | | |
| On le sait, en biologie et en médecine, il existe d'innombrables et parfois improbables relations de causalité, encore mystérieuses et inexpliquées. C'est ainsi que, selon des chercheurs de l'Inserm et de l'Université de Bordeaux, les maladies tumorales protégeraient du risque de survenue d’une démence. Cette association était déjà suggérée par différents travaux, mais avec un risque de biais important : les personnes atteintes de cancer peuvent en effet décéder précocement, avant de développer une démence, ou ne pas être dépistées pour ce trouble compte tenu de leur état de santé – deux phénomènes qui pourraient conduire à observer un effet protecteur fallacieux. En outre, les résultats publiés jusqu’à maintenant étaient souvent fondés sur des données relatives à des cas de démence mal caractérisés, en particulier quand elles sont issues de bases telles que celles de l’Assurance maladie. Pour pallier ces limites et fournir des résultats plus solides, les chercheurs ont cette fois adopté un modèle statistique tenant compte du risque prématuré de décès par cancer et, surtout, ils sont partis des informations de la cohorte nationale Memento qui inclut des patients suivis dans les Centres de mémoire, ressources et recherche (CMRR). Cette cohorte comprend 2 323 participants qui consultent en CMRR en raison de plaintes ou de troubles cognitifs, mais sans diagnostic de démence au début de l’étude. Âgés de 73 ans en moyenne, ils ont été suivis sur une durée médiane de 5 ans (la moitié des personnes l’a été plus longtemps, l’autre moins), avec de nombreuses données collectées : tests neuropsychologiques, IRM cérébrales, tests sanguins, facteurs sociaux... Chez les personnes qui ont développé un cancer au cours de l’étude, le risque d’apparition d’une démence était par la suite réduit : par rapport aux patients sans cancer, ce risque diminuait de près de moitié (42 %), avec un effet légèrement plus important sur la maladie d’Alzheimer (45 %), qui représente la majorité des cas de démences. Ces chiffres confirment l’effet protecteur observé à plusieurs reprises par le passé, mais avec une ampleur supérieure aux résultats précédemment publiés : ils suggéraient une réduction du risque d’environ un tiers. D’après Jonviea Chamberlain, premier auteur de ces nouveaux travaux, cette différence pourrait s’expliquer par un biais temporel : « Il semblerait que l’effet protecteur diminue au cours du temps. Pour ce travail, nous avons uniquement tenu compte des cancers survenus pendant le suivi, pas de ceux apparus avant. Ce suivi, toujours en cours, nous permettra d’établir si la diminution du risque de démence s’estompe effectivement à plus grande distance du diagnostic de cancer », explique-t-elle. À ce stade, le lien entre cancer et réduction du risque de démence n’est qu’une association : la relation de causalité n’est pas démontrée. Mais plusieurs hypothèses sont déjà posées pour l’expliquer : rôles potentiels des traitements du cancer, de facteurs génétiques, physiologiques, environnementaux... Quelques travaux apportent même des débuts de réponse. « Une étude ne montre pas d’influence des traitements anti-cancéreux sur les évolutions cognitives. En revanche, une autre indique que des facteurs génétiques qui prédisposent à des cancers réduisent la probabilité de développer une démence », illustre la chercheuse. Autre piste : le cancer, qui provoque un état de stress très important pour l’organisme, pourrait mobiliser des ressources cognitives protectrices à court terme. Pour tenter d’en savoir plus, Jonviea Chamberlain envisage de poursuivre ses travaux par l’étude des modifications cérébrales potentiellement induites par les cancers (épaisseur du cortex, volume de l’hippocampe...), toujours au sein de la cohorte Memento. L’objectif sera de déterminer si les cancers limitent la neurodégénérescence. « Étant donné la pénurie d’options thérapeutiques pour prévenir et traiter la démence, il est important de comprendre l’origine de cet effet protecteur : il pourrait conduire à de nouvelles stratégies de prévention », conclut-elle. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Les scientifiques de l’Université de Manchester ont mis au point un test révolutionnaire pour diagnostiquer la maladie de Parkinson : ce test est cutané et détecte des marqueurs spécifiques trouvés à la surface de la peau ! Il va permettre de diagnostiquer plus largement et de manière plus précoce la maladie dégénérative, qui touche aujourd’hui plus de 6 millions de personnes dans le monde. Les patients parkinsoniens peuvent produire plus de sébum et développer une séborrhée. Les bioingénieurs et biologistes britanniques ont mis au point une technique qui analyse certains composés présents dans le sébum, la substance huileuse qui recouvre et protège la peau. Le sébum est riche en molécules lipidiques et est l'un des fluides biologiques les moins étudiés dans le diagnostic pourtant certains marqueurs présents dans le sébum sont modifiés chez les personnes atteintes de la maladie de Parkinson. Des membres de l’équipe, dirigée par le professeur Perdita Barran de l'Université de Manchester, et le professeur Monty Silverdale du Salford Royal Foundation Trust, avaient détecté une odeur spécifique chez certains patients parkinsoniens, avant même que les symptômes n'apparaissent. L’équipe a recruté 500 personnes atteintes ou non de la maladie de Parkinson. Des échantillons de sébum ont été prélevés dans le haut du dos pour analyse. En utilisant différentes méthodes de spectrométrie de masse, les chercheurs ont pu identifier des différences dans les sébums des 2 groupes de participants. Dix composés chimiques dans le sébum sont plus élevés ou réduits chez les patients atteints de la maladie de Parkinson. D’où le concept d’un test cutané, qui montre ici une précision de 85 %. L'équipe confirme ainsi les conclusions d’une précédente recherche, publiées dans ACS Central Science selon lesquelles les composés volatils sur la peau peuvent être utilisés pour diagnostiquer la maladie. Avec cette nouvelle recherche, ils identifient une signature chimique complexe dans le sébum des personnes atteintes de la maladie de Parkinson qui évolue, avec des changements subtils au fur et à mesure que la maladie progresse. Le test cutané permettrait ainsi non seulement de diagnostiquer mais aussi de surveiller le développement de la maladie. L'écouvillon cutané deviendrait un nouvel outil incroyablement important dans les essais cliniques, permettant aux équipes de recherche d’évaluer de nouveaux traitements expérimentaux… Au-delà, l’identification de ces nouveaux biomarqueurs du sébum apporte un nouvel aperçu de la façon dont la maladie se développe en révélant un lien entre 2 caractéristiques déjà documentées de la maladie. « Non seulement le test est rapide, simple et indolore, mais il sera également extrêmement rentable car il utilise une technologie existante largement disponible ». Des brevets sont déposés pour ce nouveau test cutané de détection de « Parkinson », et déjà, les chercheurs travaillent à une déclinaison permettant de détecter COVID-19. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Afin de lutter contre le cancer, la recherche s’intéresse aux différences et singularités des cellules cancéreuses pour découvrir de nouveaux traitements. Aussi, la relation entre cellules cancéreuses et aneuploïdie – anomalie du lot chromosomique au sein d’une cellule entraînant la présence d’un nombre anormal de chromosomes – a été mise en évidence il y a plus d’un siècle. L’aneuploïdie est présente dans environ 90 % des tumeurs solides et 75 % des cancers du sang et pourrait favoriser la progression de la maladie. Ainsi, des chercheurs de l’Université de Tel-Aviv – en collaboration avec six autres laboratoires aux Etats-Unis, Pays-Bas, Allemagne et Italie – ont analysé les différences existant entre cellules normales et cellules aneuploïdes dans le but d’identifier une potentielle faiblesse de ces cellules. Dans le cadre de cette étude menée sous la direction du Docteur Ben-David, les chercheurs ont utilisé des méthodes bio-informatiques afin de quantifier le degré d’aneuploïdie d’environ 1000 cultures de cellules cancéreuses. Ils ont ensuite comparé la sensibilité à différents médicaments de ces cellules selon leur taux d’aneuploïdie. Ils ont alors montré que les cellules cancéreuses aneuploïdes présentent une sensibilité accrue à la perturbation de l’un des mécanismes responsables de la séparation des chromosomes pendant la division cellulaire, appelé point de contrôle mitotique. Ces travaux pourront ouvrir la voie au développement de traitements personnalisés du cancer. En effet, le ciblage des cellules aneuploïdes permettrait de tuer spécifiquement les cellules cancéreuses, sans endommager les cellules saines. Des médicaments qui inhibent ou retardent la séparation des chromosomes sont d’ailleurs actuellement à l’étude. Par ailleurs, les résultats de cette recherche suggèrent également que l’aneuploïdie pourrait servir de marqueur du cancer et permettre de déterminer la réponse des patients à ces médicaments. Article rédigé par Georges Simmonds pour RT Flash TOI | | | |
| Les chercheurs du géant pharmaceutique Pfizer travaillent sur un traitement antiviral sous forme de pilule qui agirait contre le Covid-19. Les essais viennent de débuter au Etats-Unis et en Belgique, et ce traitement prometteur pourrait être disponible en fin d'année. Depuis quelques jours, 60 volontaires – en bonne santé –, âgés de 18 à 60 ans, testent cette pilule anti-Covid. L’essai dure 145 jours, et se déroule en trois phases : la première permet d’observer comment l’antiviral est toléré lorsqu’on augmente la dose administrée et s’il y a des effets secondaires, la deuxième est calquée sur la première mais avec des doses multiples et la dernière est consacrée au test de « formes comprimées et liquides » du médicament. Ce nouveau médicament anti-covid est un « antiviral sur mesure ». La molécule qui le constitue, dont le nom de code est PF 07321332, devrait pouvoir attaquer « la colonne vertébrale » du SRAS-Cov-2 et ainsi l’empêcher de se développer dans notre nez, notre gorge ou nos poumons. Cette thérapie orale est destinée à être prescrite dès les premiers signes d’infection, sans que les patients soient hospitalisés ou en soins intensifs. Ce médicament innovant appartient à la catégorie des « inhibiteurs de protéase », antiviraux qui ont permis notamment d’enrayer la propagation du VIH. Article rédigé par Georges Simmonds pour RT Flash Telegraph | | | |
| Des chercheurs de l'Université Johns Hopkins, aux Etats-Unis, ont mis au point un programme d'intelligence artificielle qui, en intégrant cinq paramètres, pression artérielle, fréquence cardiaque, température, fréquence respiratoire et taux d'oxygène d’un patient, pourrait permettre de caractériser de manière plus précise son niveau de douleur. Selon eux, ces cinq données vitales permettent de déterminer le niveau de souffrance des patients. De ce constat, ils ont créé une intelligence artificielle capable de les collecter et de les traiter. A la fin de leur expérience, celle-ci était capable de mesurer le niveau du mal, mais aussi le changement et le ressenti de la douleur - c’est-à-dire la douleur subjective - en temps réel d’un patient. En effet, d’une personne à l’autre, la souffrance n’est pas perçue et vécue de la même manière. Ainsi, cette technologie pourrait ouvrir la voie à de nouveaux traitements de la douleur, plus personnalisés. Lors de leurs travaux, les scientifiques ont travaillé sur des personnes atteintes de drépanocytose, une maladie génétique héréditaire affectant la structure de l’hémoglobine. Les globules rouges sont déformés et ont des difficultés à circuler. Cela peut occasionner des caillots dans les vaisseaux, ce qui induira des complications et des souffrances. Les patients analysés étaient tous hospitalisés à cause de fortes douleurs. Pour les personnes atteintes de drépanocytose, la gestion de celles-ci est essentielle car il n'existe aucun traitement curatif contre cette pathologie. Le mal revient toujours, lors des périodes de crise. Pour soulager les malades, la seule prise en charge proposée est médicamenteuse, avec des analgésiques par exemple. Mais sur le long terme, si les prises sont trop régulières, elles peuvent entraîner une dépendance ou des effets indésirables. Les chercheurs ont donc développé un système d’intelligence artificielle capable d’analyser les données - pression artérielle, fréquences cardiaque et respiratoire, température et taux d'oxygène - de ces patients atteints de drépanocytose et hospitalisés. Fort de ces cinq éléments, l’intelligence artificielle pouvait déterminer le niveau de douleur des individus : faible, modéré ou élevé. Mais plus l’intelligence artificielle traitait d’informations, plus elle devenait précise. Les scientifiques se sont finalement rendu compte qu’elle indiquait aussi le niveau de souffrance ressenti par les patients, c’est-à-dire subjectif, et les changements de douleur. Ainsi, ils en ont conclu que la souffrance des malades était analysée plus précisément par l’intelligence artificielle, qui prenait en compte ces cinq données vitales des patients. Auparavant, il existait déjà des dispositifs d’intelligence artificielle pour mesurer la douleur. Ils se basaient sur des mesures physiologiques objectives, comme l'activité musculaire ou des expressions faciales. Mais, jusqu’à présent, seules quelques études avaient envisagé d’utiliser l’intelligence artificielle avec des données physiologiques récoltées régulièrement. « Des études comme la nôtre montrent le potentiel de l’intelligence artificielle pour améliorer notre capacité à surveiller les patients de manière moins invasive et, en fin de compte, à être en mesure de fournir des traitements au bon moment et ciblés », souligne Mark Panaggio, l’un des principaux auteurs de l’étude. Article rédigé par Georges Simmonds pour RT Flash PLOS | | | |
| Selon des chercheurs anglais de l’Université de Portsmouth, la perte de la myéline en cause dans les maladies démyélinisantes (sclérose en plaques) serait un facteur majeur de détérioration du cerveau liée à l'âge. Ces scientifiques ont révélé le rôle clé d’un gène spécifique, GPR17, qui contribue au remplacement de la myéline perdue, avec un grand espoir de nouveaux traitements contre ces maladies neurodégénératives et contre le déclin cognitif lié à l’âge. La perte de substance blanche et de myéline est caractéristique et facteur de vieillissement. Il s’agit ici d’une collaboration internationale dirigée par le professeur Arthur Butt de l'Université de Portsmouth avec des collègues des université de Düsseldorf, de Milan et de Padoue. L'équipe s’est concentrée sur le mécanisme de perte progressive de substance blanche et de myéline. Les cellules cérébrales qui produisent la myéline, les oligodendrocytes, doivent être renouvelées tout au long de la vie par des cellules souches appelées précurseurs d'oligodendrocytes. En cas d’échec de ce processus, il y a perte de myéline et de substance blanche, ce qui peut entraîner des effets dévastateurs sur la fonction cérébrale et accélérer le déclin cognitif. Pourquoi le renouvellement des oligodendrocytes -producteurs de myéline- ralentit avec l’âge : en comparant le génome d'un cerveau de jeune souris à celui d'une souris sénile, les chercheurs identifient un gène spécifique, GPR17, qui est associé à la production de cellules souches précurseurs d'oligodendrocytes. Ce gène est très affecté dans le cerveau vieillissant et la perte de GPR17 entraîne une baisse de capacité de ces précurseurs à remplacer la myéline. Ces recherches montrent que rajeunir nos « précurseurs d'oligodendrocytes » pour reconstituer efficacement la substance blanche perdue avec l’âge constitue une nouvelle voie prometteuse pour cibler la perte de myéline dans le cerveau vieillissant et les maladies démyélinisantes. Article rédigé par Georges Simmonds pour RT Flash AC | | | |
| Les vaisseaux sanguins du cerveau forment un réseau extrêmement complexe, dont le rôle est d’assurer l’alimentation des neurones en oxygène et en nutriments. Activité vasculaire et activité neuronale sont ainsi intimement liées, et nombre de maladies neurologiques ont pour cause des dysfonctionnements vasculaires. Une difficulté pour diagnostiquer et soigner efficacement ces maladies est une connaissance partielle du fonctionnement des petits vaisseaux sanguins, due aux limitations des méthodes d’imagerie cérébro-vasculaire existantes. L’angiographie par scanner à rayons X ou par résonance magnétique combinée à l’injection d’agents de contraste (les deux méthodes les plus couramment utilisées à l’hôpital) discernent les artères cérébrales jusqu’à quelques dixièmes de millimètres de diamètre mais ne sont pas capables de détecter individuellement les plus petits capillaires dont le diamètre ne mesure que quelques microns (millièmes de millimètres !). En outre, ces deux types d’angiographies ne donnent pas accès à l’imagerie dynamique des multiples échelles de ce réseau vasculaire. La solution proposée par le laboratoire Physique pour la médecine (ESPCI Paris –PSL/Inserm/CNRS) promet de combler cette lacune en fournissant les composantes cinématiques des flux sanguins à toutes les échelles du réseau vasculaire (des grosses artères aux petits capillaires), au moyen d’une technologie non-invasive, non-ionisante, accessible au chevet du patient et à relativement bas coût. Les bulles de gaz microscopiques sont alors imagées au moyen d’une sonde échographique appliquée sur la tempe. En déterminant la position de millions de ces microbulles en quelques secondes, les chercheurs parviennent à reconstituer l’anatomie du réseau vasculaire à l’échelle microscopique, tout en accédant à des informations quantitatives sur les composantes dynamiques locales des flux sanguins. Jusqu’ici, aucune modalité d’imagerie médicale non invasive n’avait permis d’atteindre un tel résultat. Cette nouvelle méthode a été baptisée microscopie par localisation ultrasonore (en anglais, ultrasound localisation microscopyou ULM). Si la technique avait été validée dès 2015 sur le petit animal, le défi était de taille dans le cas d’un patient humain adulte. En premier lieu, le signal ultrasonore est perturbé lors de son passage à travers l’os crânien, ce qui dégrade sévèrement la qualité de l’imagerie. Des méthodes pour mesurer puis corriger ces perturbations ont donc été appliquées lors du traitement des signaux pour restaurer une qualité d’image optimale. D’autre part, il a été nécessaire de développer des algorithmes de correction de mouvement, tout mouvement macroscopique du cerveau annihilant la possibilité de localiser une microbulle avec une précision micrométrique. Charlie Demené, maître de conférences à l’ESPCI Paris-PSL, en détaille les points clés : « Cette première chez l’humain est permise, en quelque sorte, par un alignement de planètes avec la mise au point conjointe de plusieurs techniques. Tout d’abord l’imagerie ultrarapide, qui fournit une énorme quantité de données en un temps très court et permet de séparer la signature acoustique de chaque microbulle individuelle. Ensuite, la localisation ultrasonore qui permet de se libérer des limites de résolution inhérentes à la physique des ondes : lorsqu’on image un objet très petit, on obtient une tache floue plus grosse que l’objet lui-même. C’est ce qu’on appelle la limite de résolution spatiale. Mais si cet objet est isolé dans le champ de vue, on peut raisonnablement supposer que sa position exacte est le centre de la tache. Dans notre cas, ce sont les microbulles circulant dans le sang qui jouent le rôle d’objets isolés, et permettent de remonter à la position exacte de chaque vaisseau sanguin. Enfin, observer l’écho de chaque microbulle permet de connaître précisément l’histoire de l’onde provenant de cet objet microscopique, et en particulier de retracer ce qui s’est passé à la traversée du crâne pour en corriger les perturbations ». Forts de ces nouveaux développements, les scientifiques ont pu réaliser la microscopie par localisation ultrasonore chez des patients au centre de neurosciences clinique de l’Université de Genève, en collaboration avec le professeur Fabienne Perren. Chez un patient atteint d’un anévrisme, l’équipe a par exemple pu observer jusqu’aux plus infimes détails des flux sanguins dans la zone de l’anévrisme situé au centre du cerveau. Un outil de choix pour la prise en charge des patients de nouvelles performances d’imagerie vasculaire permettront de mieux comprendre les liens entre vascularisation du cerveau et maladies cérébrales. Visualiser et quantifier des flux sanguins cérébraux, jusqu’ici invisibles directement faute de résolution et de sensibilité suffisantes, pourrait permettre, sur le plan fondamental, d’acquérir de nouvelles connaissances sur les liens entre activité vasculaire et neuronale et, sur le plan médical, d’accélérer la qualité et la précocité du diagnostic des maladies cérébro-vasculaires et de proposer des thérapies plus efficaces. La microscopie par localisation ultrasonore facilitera l’accès diagnostic pour le patient et la mise en œuvre de l’examen médical pour le médecin, en comparaison aux techniques d’imagerie utilisées jusqu’ici : la technologie ultrasonore est moins coûteuse qu’une IRM ou un scanner, moins encombrante et utilisable au chevet du patient. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|