| | | | | | | Edition du 04 Novembre 2022 |
| |
|
| Edito Le train du futur pourrait être la clef de voute des transports mondiaux…
AVANT-PROPOS : N'OUBLIEZ PAS DE FAIRE UN DON A NOTRE ASSOCIATION : SANS VOUS NOUS NE POURRIONS PLUS METTRE RT FLASH EN LIGNE CHAQUE SEMAINE Aujourd'hui, 3 Novembre, le total des dons reçus par l'ADIST s'élève à 6.093 euros. L'abonnement à RT Flash étant gratuit et n'acceptant depuis sa création en 1998 aucune publicité, l'association ADIST a besoin de 1360 euros chaque mois pour assurer sa mise en ligne. Avec 6093 euros, nous aurons les moyens d'assurer la parution de RT Flash jusqu'au 26 Mai 2023. Il reste donc encore un effort important pour atteindre notre but, 15.000 euros, avant le 31 Décembre. A nouveau, il m'est nécessaire de vous dire que notre Association ADIST, qui gère RT Flash est une association d’intérêt général qui fait qu'en respect des articles 200 et 238 du Code Général des Impôts, ses donateurs se feront rembourser 66 % de leur don lors du règlement de leur impôt sur le revenu. Ainsi, à titre d'exemple, une personne faisant un don de 100 euros à l'ADIST constaterait une diminution de 66 euros de ses impôts sur le revenu et la charge réelle de son don ne serait que de 34 euros. Bien Cordialement René Trégouët Sénateur Honoraire Fondateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash Si vous voulez aider RT Flash, Lettre hebdomadaire d'informations scientifiques et technologiques, gratuite et sans publicité depuis 1998, veuillez appuyer sur le lien suivant : Faites un DON pour sauver RT Flash, vous bénéficierez d’une réduction fiscale de 66 % EDITORIAL : Le train du futur pourrait être la clef de voute des transports mondiaux… En juillet dernier, Airbus estimait que la flotte civile mondiale d'avions pourrait doubler d’ici 20 ans, passant de 23 000 à 47 000 appareils. Dans cette hypothèse, et sachant que l’impact réel de l’aviation a été largement sous-estimé, comme le montrent les travaux du chercheur Aurélien Bigo, les appareils civils, si l’on prend en compte l’ensemble des GES qu’ils émettent et l’effet des trainées de givre, pourraient contribuer pour 10 % du réchauffement climatique en 2040. Certes, tous les grands avionneurs intensifient leurs recherches pour développer des modes de propulsion plus propres et moins impactants pour le climat, avions hybrides, électriques ou à hydrogène, notamment. Mais une aviation totalement décarbonée suppose de nombreuses ruptures technologiques majeures et personne ne sait quand ces avions seront disponi bles à un prix compétitif sur le marché. Sans surprise, et quels que soient les modes de calcul, l’avion arrive en tête du classement des transports les plus polluants. À titre d’exemple, le bilan carbone d’un aller-retour Paris-New York est d’environ 1,7 tonne de CO2, soit la totalité des émissions annuelles par Français. D’un point de vue global, le secteur des transports est devenu le deuxième émetteur de CO2 dans le monde (et celui qui enregistre la plus forte progression depuis 20 ans), avec environ 15 gigatonnes en 2021 (60 % pour les passagers et 40 % pour le fret), soit le quart des émissions annuelles totales de CO2. Et, faut-il le rappeler, les transports terrestres représentent à eux seuls les trois quarts des émissions de GES liées à la mobilité. En 2020, le nombre total de véhicules à quatre roues en circulation a dépassé les 1,5 milliard (1,1 milliard de voitures et 400 millions d’utilitaires) et le nombre de voitures particulières pourrait dépasser les deux milliards d’ici 2040. Corrélativement, la consommation mondiale de pétrole, qui avait augmenté de 11 % entre 1970 et 2000, a augmenté de 20 % depuis le début de ce sièc le, pour atteindre les 4,25 milliards de tonnes par an, soit 10 millions de barils par jours… On comprend aisément qu’une telle trajectoire, qu’il s’agisse des transports aériens ou terrestres, n’est plus tenable, si nous voulons éviter une catastrophe climatique majeure, et qu’il va nous falloir réduire d’au moins 80 % notre consommation de pétrole d’ici 2050, ce qui veut dire que la consommation moyenne de pétrole par terrien va devoir passer de 440 litres, aujourd’hui, à 80 litres par an en 2050 (pour une population prévue de dix milliards d’Humains). Cette décroissance drastique de la consommation de pétrole va donc nécessiter à la fois une maîtrise beaucoup plus grande de la demande globale de déplacement, un déplacement massif des modes de transports individuels vers les transports collectifs et une amélioration considérable de l’efficacité énergétique de l’ensemble des moyens de transports. Pour mieux mesurer les enjeux de cette transition historique mondiale que nous allons devoir réaliser en trois décennies, il faut rappeler que le réseau routier mondial compte 36 millions de km (dont environ 350 000 km d’autoroutes et de routes à quatre voies), alors que le réseau ferré mondial ne compte que 1,15 million de km, dont environ 60 000 km de lignes à grande vitesse. Or c’est pourtant bien le train, sous ses différentes formes et déclinaisons technologiques, qui est appelé, en raison de son efficience énergétique sans égal, à devenir le vecteur majeur de la révolution des transports qui s’annonce. La Chine a parfaitement compris que les trains de nouvelle génération, qu’il s’agisse des TGV, des trains à hydrogène, des trains magnétiques ou des monorails urbains, seront au cœur de cette mutation mondiale des transports qui devra conjuguer rapidité, sobriété énergétique, neutralité climatique, sécurité, souplesse et bien sûr compétitivité. Ce pays grand comme les Etats-Unis s’est doté, en seulement 20 ans, du plus grand réseau à grande vitesse du monde, avec 40 000 km fin 2022 et 75 000 km prévus en 2035. En juillet 2021, la Chine a franchi un nouveau pas en inaugurant son propre train à sustentation magnétique, un maglev, qui peut se déplacer à la vitesse de pointe de 620 km/h, un record mondial. Une autre ligne de maglev à 1.000 km/h est en projet, avec à terme l ’ambition de mettre à moins de quatre heures de train magnétique les unes des autres, toutes les mégapoles de cet immense pays. La Chine compte bien également, en visant d'ici 10 ans un coût de construction réduit à 35 millions d'euros du km, devancer son éternel rival, le Japon, qui compte mettre en service en 2028 sa première ligne commerciale MAGLEV, qui devrait relier les 286 km séparant Tokyo de Nagoya en seulement 40 minutes… Mais la Chine souhaite aussi se positionner comme leader mondial dans le marché des transports urbains du futur et, récemment, les ingénieurs chinois ont présenté une autre innovation remarquable, le premier train à sustentation magnétique suspendu. Baptisé Red Rail, ce train ne roule pas sur des rails mais les domine sans aucun contact. Contrairement au Maglev longue distance, la ligne n'est pas équipée d'aimants alimentés par un courant électrique mais d’un nouveau type d’aimants permanents, dopés aux terres rares, dont la Chine possède d’abondantes réserves (Voir Robb Report). Ce train à sustentation magnétique suspendu présente de nombreux avantages, à commencer par sa faible consommation d’énergie. En outre, son développement coûte environ dix fois moins que celui d'un métro traditionnel. Silencieux, il est également peu coûteux à entretenir et peut, par sa conception, surplomber les infrastructures routières existantes, un avantage décisif pour évoluer au sein de mégapoles très denses. Depuis cet été, une ligne expérimentale de 800 mètres de long est en test à Xingguo, une mégapole située dans la province du Jiangxi. Suspendu à dix mètres au-dessus du sol, les rames peuvent transporter jusqu'à 88 passagers à une vitesse de 80 km/h. A terme, le Red Rail sera déployé sur un tronçon de 7,5 kilomètres à 120 km/h, avant d’&ec irc;tre généralisé à l’ensemble des grandes villes chinoises. Par rapport à ses concurrents, le “sky train” est le seul maglev aérien doté d’une technologie révolutionnaire, la suspension à puissance zéro : contrairement aux autres maglev existants qui ont besoin d’une grande puissance électrique pour léviter puis avancer, le sky train peut s’affranchir des frottements et flotter librement car ses aimants uniques sont dopés au néodyme et ne nécessitent qu’une faible puissance pour générer la propulsion du train. Ce train urbain à lévitation magnétique permanente vient compléter une autre remarquable innovation chinoise, appelée, elle aussi, à bouleverser les transports urbains, le Train rapide autonome urbain (ART). Présenté en 2019, ce système de transport est un hybride entre train et bus. Guidé par des rails virtuels composés de capt eurs au sol, ce train peut transporter, en fonction du nombre de rames, jusqu’à 500 personnes à 70km. Il utilise de nouvelles batteries lithium-titane à recharge rapide et son coût d’installation est dix fois inférieur à celui d’un métro et deux à trois inférieur à celui d’un tramway classique. Outre Atlantique, si le projet d’Hyperloop d’Elon Musk – un train circulant dans des tubes à basse pression, capable d’atteindre les 1000 km/ heure, semble pour l’instant au point mort, plombé par des difficultés techniques plus difficiles à surmonter que prévu, ce concept continue à faire l’objet de recherches de la part de plusieurs entreprises privées. C’est par exemple le cas du projet de train confiné du Canadien TransPod, le Fluxjet, conçu pour se déplacer dans des tubes à très basse pression. Ce système de transport à sustentation magnétique vise les 1000 km/ heure. Il se compose de rames de 25 mètres de long, capables d'emporter 54 passagers à très haute vitesse ou 10 tonnes de marchandises. Début août, ce projet est apparu comme suffisamment avancé et crédible pour lever 550 milli ons de dollars sur les marchés, ce qui va permettre à Transpod de commencer la construction de sa première ligne magnétique confinée entre Calgary et Edmonton. Depuis 2017, le Korea Railroad Research Institute (KRRI) développe également son propre projet de train supersonique baptisé "Hyper-tube", qui se veut une déclinaison sud-coréenne de l’Hyperloop. En 2020, le KRRI a réussi à propulser un prototype à taille réduite, dans un tube à très basse pression, à la vitesse de 1019 km/h. Le KRRI envisage son premier test fonctionnel en taille réelle cette année et la Corée du Sud, qui n’entend pas se faire distancer par ses voisins chinois et Japonais, veut lancer son grand réseau Hyper-tube d’ici 2024, ramenant le temps de trajet entre Séoul et Busan de trois heures à 30 minutes. En France, il faut évoquer un projet très intéressant et très original, le "SpaceTrain", fortement soutenu par les élus locaux, mais malheureusement au point mort depuis quelques mois en raison d’un contentieux administratif et fiscal persistant. Développé depuis 2016 par la société Jacques Vaucanson, ce train du futur, inspiré du mythique aérotrain développé par l’ingénieur jean Bertin il y maintenant 50 ans, a pour ambition de renouveler complètement le concept de train sur coussin d’air, en y intégrant des avancées technologiques décisives. Cette navette complètement automatisée se démarque à la fois du TGV et du train magnétique, type Maglev. Elle est propulsée par des moteurs à induction linéaires alimentés par des piles à hydrogène, situées à l ’arrière du train. Grâce à ses coussins d’airs horizontaux et verticaux, cette navette peut atteindre une vitesse moyenne de 540 km/h, avec des pics à 720 km/h. Prévu pour embarquer 140 voyageurs dans sa version commerciale, le SpaceTrain se démarque également de son principal concurrent, le Maglev, par son coût de construction bien plus faible, moins de 10 millions d’euros du km, contre 35 millions pour le Maglev chinois et 50 millions pour le train magnétique japonais et européen (à comparer avec les 25 millions du km du TGV dernière génération). On ne peut que souhaiter que le développement de ce nouveau concept de transport, très novateur et unique au monde, puisse, avec le soutien plus affirmé des pouvoirs publics, reprendre sans tarder en France et ne soit pas récupéré par les Chinois, les Japonais ou les CoréensR 30; Ces projets de trains du futur s’inscrivent dans un contexte européen de décarbonation accélérée de l’économie et des transports. L’Union européenne souhaite en effet doubler le trafic à grande vitesse d'ici 2030, puis le tripler d’ici 2050. Pour tenir ces objectifs, l’Europe veut lancer un projet d’extension cohérent et global, à l’échelle de notre continent, du réseau ferré à grande vitesse, visant notamment à déterminer les axes prioritaires, sachant que 17 des 20 liaisons aériennes les plus empruntées en Europe concernent des distances de moins de 700 km. Sur ces lignes, il est clair que les trains du futur, que j’ai évoqués, peuvent être bien plus compétitifs, tout en étant neutres sur le plan climatique, ce qui n’est pas le cas des vols intra-européens de mo ins de 1000 km, qui génèrent environ 30 millions de tonnes de CO2 par an. En parallèle, l’Europe envisage de taxer les compagnies aériennes qui dépassent leurs objectifs d’émission carbone pour rendre l’avion sur ces courtes distances moins compétitif. On le voit, plus de deux siècles après la première locomotive à vapeur, construite par le génial mais fantasque ingénieur anglais Richard Trevithick en 1804 (également inventeur de la machine à vapeur à haute pression et de la première voiture à vapeur fonctionnelle qui parcourut avec un grand succès les rues de Londres en 1803), le train ne cesse de se réinventer et d’ouvrir de nouvelles perspectives pour le transport durable, rapide et sûr, des hommes et des marchandises. Avant le milieu du siècle, réchauffement climatique oblige, l’Europe devra se doter d’un nouveau système intégré de transports, qui devra se substituer largement aux transports aériens et routiers et combinera sans doute train magnétique à très grande vitesse, pour les liaisons interurbaines, et navettes électriques autonomes modulables et intelligentes urbaines pour les déplacements des passagers, "à la carte", en ville et la livraison finale des marchandises et produits, enjeu économique majeur. Face aux appétits chinois, japonais ou encore américains, qui veulent nous imposer leurs technologies, puis leurs services et leurs normes, notre pays doit absolument réussir à conserver, dans le cadre européen d’une coopération renforcée, son indépendance technologique, industrielle et stratégique dans ce domaine si c apital pour notre avenir du train du futur… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | Des chercheurs de l’Université technique du Danemark à Copenhague ont présenté une nouvelle technologie, utilisant de manière optimale les spectres lumineux, qui s’est montrée capable de transmettre 1,84 pétabit de données par seconde via un câble à fibre optique, soit l’équivalent (en quantité de données) du trafic Internet mondial en une seconde. Pour donner une idée de l’immense quantité de données transmises via cette méthode, quelques comparaisons sont possibles. Par exemple, 1,84 pétabit de données représente suffisamment de bande passante pour télécharger 230 millions de photographies pendant cette période, mais aussi plus de trafic que ce que l’on peut relever, par seconde, sur l’ensemble du réseau Internet. Les responsables de cette prouesse technique sont un certain Asbjørn Arvad Jørgensen, chercheur à l’Université technique du Danemark à Copenhague, et ses collègues. Ils ont utilisé pour cela une puce photonique. Cette technologie consiste à placer des composants optiques sur des puces informatiques. L’idée est de diviser un flux de données en plusieurs milliers de canaux distincts. Ces différents canaux ont été transmis tous en même temps, mais de façon bien séparée, sur une distance de plusieurs kilomètres. C’est cette séparation qui permet de transporter plus de données en une seule fois. Le flux de données a été séparé d’abord en 37 canaux distincts : chaque "paquet" de données a été envoyé dans une âme de fibre optique (le cœur des câbles). Mais l’histoire ne s’arrête pas là : chacun de ces paquets de données a encore été subdivisé 223 fois, pour être associé à des "tranches" individuelles du spectre électromagnétique. La lumière est composée de différentes "longueurs d’onde", qui peuvent être distinguées très clairement les unes des autres. Lorsqu’on les fait circuler dans des dispositifs capables de les distinguer, elles peuvent donc être utilisées comme différents "canaux d’informations". En fait, la fibre optique est basée sur ce concept même : à travers de petits "câbles", les fameuses fibres optiques, elle transporte les différents canaux d’information en un seul rayon de lumière. Pour aller encore au-delà de cette technologie, différents chercheurs se sont penchés sur une autre propriété de la lumière, qui est la "polarisation". Il s’agit en quelque sorte de la "direction" associée aux oscillations des ondes. Ces oscillations peuvent être tournées dans plusieurs directions, et un seul rayon de lumière contient plusieurs polarisations. Ces scientifiques ont pu utiliser ces différentes polarisations comme autant de canaux d’informations. Les scientifiques qui ont travaillé sur la puce photonique ont, pour leur part, utilisé un "peigne de fréquence". « Les peignes de fréquence sont un type particulier de source lumineuse, caractérisés par leur composition spectrale de composantes de fréquence équidistantes ressemblant aux dents d’un peigne », expliquent les scientifiques dans leurs travaux, publiés dans Nature. En utilisant ce "peigne de fréquence" afin de séparer les fréquences de manière optimale, les données ont pu être transmises toutes en même temps sans interférer les unes avec les autres. La puce utilise donc un seul laser en continu, qui est divisé en plusieurs fréquences. Des dispositifs séparés codent les données dans chacun des flux de sortie. À vrai dire, la quantité de données trans mises était même si importante qu’aucun ordinateur n’aurait pu recevoir autant de données d’un seul coup. Les scientifiques ont donc utilisé des "données factices" pour leur expérience, et ont testé la vitesse canal par canal. Article rédigé par Georges Simmonds pour RT Flash University of Oxford | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | La Terre subit actuellement un changement climatique rapide, avec une hausse de la température moyenne globale déjà supérieure à 1°C comparée à la période préindustrielle, donc en à peine cent cinquante ans. Cette hausse est causée par les activités humaines, et notamment la combustion d’énergies fossiles qui émet des gaz à effet de serre, en particulier le dioxyde de carbone (CO2). Ce phénomène est exceptionnel dans l’histoire climatique de la planète : les transitions entre les périodes chaudes et froides ont toujours été, jusqu’ici, lentes et progressives, car les facteurs dominant ces changements sont liés à des variations des paramètres astronomiques (l’inclinaison de la Terre, l’ellipticité de son orbite, etc.) dont les durées caract&eacut e;ristiques se comptent en dizaines de milliers d’années, ou des paramètres géodynamiques, qui agissent sur des échelles de plusieurs millions, voire dizaines de millions d’années. La transition du Paléocène à l’Éocène, il y a 56 millions d’années, fait figure d’exception. Elle est caractérisée par un réchauffement rapide du climat : + 5 à 8°C en moins de 20 000 ans. On parle de maximum thermique Paléocène-Éocène (PETM). Ce réchauffement "brutal" a profondément perturbé la circulation océanique et atmosphérique, ainsi que les écosystèmes, et a entraîné une modification de la faune océanique (extinctions d’espèces d’eaux profondes) et des continents (en influant par exemple sur l’évolution des mammifères). Plusieurs hypothèses avaient déjà été proposées pour expliquer le maximum thermique Paléocène-Éocène, par exemple le rejet dans l’atmosphère de méthane, un puissant gaz à effet de serre, provenant soit de la déstabilisation d’hydrates de méthane présents sous le fond des plateaux continentaux, ou de la décomposition du carbone organique du pergélisol. Mais aucune de ces explications ne semblait correspondre parfaitement aux données disponibles sur la chronologie de l’événement et la quantité de gaz à effet de serre requise. Thomas Gernon, de l’Université de Southampton, et ses collègues viennent de proposer une nouvelle hypothèse pour expliquer l’ampleur du maximum thermique Paléocène-Éocène. Selon eux, le réchauffement rapide aurait été causé par d’importants rejets de dioxyde de carbone d’origine volcanique, liés à un amincissement de la lithosphère continentale dans l’hémisphère Nord. En effet, on retrouve dans l’Atlantique nord (au niveau du Groenland, des îles Féroé ou encore du fossé de Rockall, au large de l’Irlande et de la Grande-Bretagne) les traces d’une activité magmatique continentale intense contemporaine du maximum thermique du Paléocène-Éocène. Cette activité a précédé de peu la déchirure de la croûte continentale qui a conduit à l’ouverture de l’Atlantique nord. Thomas Gernon et ses collègues ont donc cherché à estimer si cette activité volcanique intense aurait été suffisante pour rejeter les quantités de CO2 nécessaires au réchauffement de la transition Paléocène-Éocène. Les chercheurs ont d’abord quantifié le CO2 émis en période normale par le volcanisme de dorsale océanique, et ont montré que cette source était insuffisante pour expliquer la quantité de carbone rejeté dans le système océan-atmosphère pendant le maximum thermique Paléocène-Éocène. Ensuite, en étudiant la composition des roches magmatiques de l’Atlantique nord avant, pendant et après le maximum thermique, ils ont mis en évidence non seulement une intensification de la fusion dans le manteau de la lithosphère continentale à cette époque, mais aussi que les roches ayant fondu possédaient une forte teneur en carbonates, des minéraux riches en carbone. Grâce à des modèles numériques, les géologues ont estimé la quantité de roche fondue et de CO2 libéré qui s’est ajouté au volcanisme d’arrière-plan. Ils ont obtenu un volume supérieur à 10 000 gigatonnes de carbone, seuil requis pour expliquer le maximum thermique Paléocène-Éocène. Cette période d’activité magmatique intense a duré entre 170 000 et 210 000 années, soit autant que le maximum thermique, et aurait connu son pic juste avant le début de celui-ci, expliquant le réchauffement rapide initial. À partir de ces données, les chercheurs ont proposé le scénario suivant : sous l’effet de forces d’extension, la lithosphère continentale qui rassemblait l’Europe et l’Amérique du Nord s’est progressivement amincie puis déchirée, entraînant l’ouverture de l’Atlantique nord. Juste avant la déchirure continentale, à la toute fin du Paléocène, la décompression des roches du manteau lithosphérique riches en carbone sous la zone d’extension a provoqué leur migration vers la surface et leur fusion. Cette fusion a entraîné un magmatisme très intense qui a rejeté de grandes quantités de CO2 dans l’atmosphère et dans les océans (50 mégatonnes de carbone par an, soit environ 15 000 gigatonnes au total sur la période considérée), quant ités suffisantes pour expliquer le maximum thermique Paléocène-Éocène. Selon les chercheurs, cet exemple montre que la géodynamique interne de la planète est susceptible de modifier rapidement et profondément le climat et donc les écosystèmes terrestres. Article rédigé par Georges Simmonds pour RT Flash Pour La Science | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Pfizer vient d'annoncer ses résultats positifs du test de phase 3 pour son vaccin contre la bronchiolite, une affection respiratoire qui tue plus de 100 000 nourrissons par an dans le monde. Ce vaccin s’est révélé efficace à environ 82 % pour prévenir des cas graves dans les trois premiers mois d’un nouveau-né et à environ 69 % dans les six mois suivants. Sur la base de ces résultats, Pfizer prévoit de demander une autorisation pour le vaccin chez les femmes enceintes d’ici la fin de l’année aux Etats-Unis puis dans d’autres pays. La bronchiolite est une maladie respiratoire courante et très contagieuse, surtout chez les nourrissons de 2 à 8 mois, chez qui elle provoque une toux et une respiration difficile. La plupart du temps, la maladie est bénigne. Mais elle peut nécessiter un passage aux urgences, voire une hospitalisation. En temps normal, l’épidémie de bronchiolite démarre entre fin octobre et mi-novembre, atteint un pic en décembre, se termine fin janvier voire fin février. Mais elle a démarré cette année plus tôt qu’habituellement dans de nombreux pays. Appelé Beyfortus, ce nouveau vaccin se distingue des vaccins utilisant des technologies traditionnelles car il s’agit d’un anticorps monoclonal, soit un anticorps développé en laboratoire, qui permet de conférer au nourrisson une immunité dite passive, avec une seule dose. Article rédigé par Georges Simmonds pour RT Flash Pfizer | | | |
| Il y a quatre ans, James Allison et Tasuku Honjo ont découvert que les lymphocytes T exprimaient une protéine appelée PD-1 qui les désactive lorsqu’elle se lie à une autre dite PD-L1, exprimée à la surface des cellules cancéreuses. Ce système de modulation est naturellement présent dans notre organisme afin de rejeter tout corps étranger et pathogène, la PD-1 étant une protéine de mort cellulaire programmée. Cependant et curieusement, elle ne reconnaît pas les cellules tumorales en tant que pathogènes. Dans un phénomène baptisé "évasion tumorale", l’interaction entre PD-1 et PD- L1 confère notamment aux cellules tumorales la capacité de paralyser complètement les lymphocytes T. Ce mécanisme permet alors aux tumeurs de se développer librement sans que l’organisme ne s’en d&eac ute;fende. Les deux prix Nobel ont alors développé des anticorps inhibant PD-1 ou PD-L1, déjà approuvés cliniquement. L’avantage du traitement est qu’il peut cibler une large gamme de cancers et serait beaucoup moins invasif. Il provoque peu d’effets secondaires, par rapport à d’autres solutions telles que la chimiothérapie. Les chances de rémission des patients seraient d’ailleurs plus élevées. Ces inhibiteurs sont actuellement uniquement délivrés sous forme d’anticorps monoclonaux. Or, ils sont coûteux à produire et ne peuvent ainsi être accessibles à tous les patients. De plus, le traitement n’a pas la capacité de traiter entièrement les tumeurs solides, car les anticorps sont trop volumineux pour atteindre les zones les moins exposées, où il n’y a que très peu de vaisseaux sanguins. Les chercheurs de l’Université de Tel-Aviv et de Lisbonne ont alors conçu une famille de molécules inhibitrices synthétiques et moins volumineuses, en se basant notamment sur des modélisations informatiques. Ces molécules amélioreraient considérablement la réponse immunitaire à l’intérieur des masses tumorales compactes. Pour développer cette famille de petites molécules, le groupe de chercheurs a analysé des milliers de structures moléculaires, en utilisant des modèles issus de bases de données de conception de médicaments assistée par ordinateur. « Nous avons réduit la liste des candidates jusqu’à ce que nous atteignions les meilleures structures », explique Sachi-Fainaro. La famille de molécules de synthèse a ensuite été testée sur des modèles animaux, où l’on a préalablement induit des formes de cancers, et qui sont génétiquement modifiés pour produire les mêmes types de lymphocytes T que l’homme. Les chercheurs ont alors découvert qu’elles étaient capables de contrôler la croissance tumorale aussi efficacement que les anticorps monoclonaux. Comme les nouvelles structures sont plus malléables et moins volumineuses, elles ne dépendent pas des vaisseaux sanguins pour être livrées au niveau des cellules tumorales. Elles peuvent donc atteindre les tumeurs en profondeur en infiltrant efficacement les micro-environnements tumoraux. Les nouvelles molécules sont également avantageuses en matière de coûts de production, car elles nécessitent des équipements plus simples que ceux utilisés pour produire les anticorps. À savoir que les anticorps monoclonaux (qui sont des molécules biologiques) seraient produits au coût d’environ 200 000 dollars par an et par patient. De plus, les molécules synthétiques pourraient être produites plus rapidement et administrées par voie orale, sans que le patient se déplace à l’hôpital. Article rédigé par Georges Simmonds pour RT Flash BMJ | | | |
| Selon une vaste étude réalisée par des chercheurs de l’University College de Dublin en Irlande, il serait possible de détecter bien plus tôt les sujets à risque de schizophrénie ou de troubles bipolaires. Ces scientifiques se sont basés sur un registre de données finlandais. Dans ce fichier, ils ont recherché les personnes nées en 1987 et ont suivi leurs trajectoires de santé dans les années suivantes jusqu’à l’âge adulte. Ils se sont précisément intéressés à une donnée : la fréquentation d’un service spécialisé en santé mentale des enfants et des adolescents entre leur naissance et leurs 17 ans. Ensuite, ils ont observé leurs informations médicales jusqu’à 28 ans pour identifier les personnes ayant reçu un diagnostic de bipolarité ou de schizophrénie. Les scientifiques ont constaté que le risque de schizophrénie ou de trouble bipolaire à l'âge de 28 ans était de 1,8 % pour les personnes qui n'avaient pas fréquenté de service de santé mentale pour enfants et adolescents. Pour les personnes s’étant déjà rendues dans ce type de service pendant l’enfance ou l’adolescence, le risque était de 15 %, et de 37 % pour celles ayant été hospitalisées dans ces établissements. Au total, 50 % des personnes qui ont développé ces troubles de santé mentale avaient fréquenté des services spécialisés de santé mentale pour enfants et adolescents dans leur enfance. « Ces résultats mettent en évidence la possibilité d'intervenir beaucoup plus tôt que nous ne le faisons actuellement, même dans l'enfance et l'adolescence », estime le professeur Ian Kelleher, qui a coordonné cette étude. Détecter les personnes à risque plus tôt pourrait permettre de limiter la progression de ces pathologies et leurs conséquences sur la vie quotidienne. Les auteurs rappellent que la bipolarité et la schizophrénie sont associées à des niveaux élevés d'invalidité, et à des coûts personnels et sociétaux élevés. « Nous savons qu'il est crucial d'intervenir le plus tôt possible pour prévenir certains des pires effets de ces maladies », complète le professeur Ian Kelleher. « Mais idéalement, on aimerait pouv oir intervenir avant même le début de la maladie, pour la prévenir carrément ». L’adolescence est une période critique en ce qui concerne la santé mentale. La bipolarité est généralement diagnostiquée au début de l’âge adulte, mais elle peut se manifester dès 15 ans. En ce qui concerne la schizophrénie, « la maladie se révèle généralement au cours de l’adolescence, entre 15 et 25 ans, mais elle débute le plus souvent plus tôt, sous une forme atténuée », explique l’Inserm. « Cette période constitue une phase au cours de laquelle une intervention thérapeutique adaptée peut être particulièrement efficace ». Celle-ci peut reposer sur des traitements médicamenteux, une thérapie cognitive et comportementale, de l’ergothérapie, etc. En France, environ 10.000 nouveaux cas sont diagnostiqué s chaque année. Article rédigé par Georges Simmonds pour RT Flash OSF | | | |
| La photothérapie dynamique est un concept qui a plus de 50 ans, mais aujourd’hui, grâce aux progrès de l’optique et de la physique, cette thérapie ne cesse de s’étendre en cancérologie, que ce soit en dermatologie, ou pour détruire d’autres types tumeurs : cerveau, poumon, ovaires, foie, pancréas. La preuve avec différents travaux évoqués par la centaine de spécialistes français réunis lors de la troisième journée nationale de la PTD, organisée à Toulouse à l'automne 2021 sous l'égide de la Société francophone de photonique médicale. « Le principe de la PTD repose sur une interaction chimique entre trois éléments : un produit photosensibilisant, de l'oxygène et de la lumière », résume Serge Mordon, ancien directeur de l'unité Inserm Onco-ThAI (thérapie laser assistée par l'image pour l'oncologie) basée à Lille. Il est l'un des meilleurs spécialistes en France de cette approche née outre-Atlantique à la fin des années 1970 avec les travaux du cancérologue américain Thomas Dougherty. Les mécanismes d'action de la PTD - toujours en cours d'exploration - semblent liés à l'immunité. Cette technique, initialement testée dans le cancer de l'œsophage et de la prostate et dans la dégénérescence maculaire liée à l'âge, fait aujourd'hui l'objet de près de 500 essais cliniques à travers le monde. En pratique, il s'agit de faire absorber par des cellules cancéreuses un photosensibilisant, une molécule non toxique administrée soit par voie locale (directement appliquée en crème sur la peau), soit par prise orale ou en injection intraveineuse. « La particularité des différents photo sensibilisants est de ne s'activer qu'au moment de l'illumination avec un laser émettant une lumière dont la longueur d'onde est préférentiellement absorbée par la molécule utilisée », précise Serge Mordon. Exemple avec l'application la plus fréquente de la PTD en cas de lésions précancéreuses de la peau, dites kératoses actiniques, souvent localisées au niveau du cuir chevelu chez les hommes chauves, un motif très fréquent de consultation en dermatologie. Une fois le diagnostic établi, tout commence par l'application d'une crème (Metvixia, Ameluz, Levulan…). Au bout de quelques heures, la peau est exposée à la lumière (naturelle ou laser) pour activer le photosensibilisant. Mais pour augmenter l'efficacité et agir encore plus en profondeur, un autre développement est à l'étude : un patch de micro-aiguilles de quelques centaines de microns. Ce projet, conduit par Mathilde Champeau de l'Inserm avec le CEA-Leti, prévoit un dispositif sous-cutané éclairé par des LED. En moins d'une heure, les cellules tumorales seraient détruites. Déjà breveté, le produit pourrait être commercialisé d'ici à cinq ans. L'illumination peut aussi avoir lieu directement au bloc opératoire et en complément de la chirurgie. Un essai clinique pionnier a ainsi démarré en 2017 en réponse au glioblastome, une tumeur cérébrale agressive et infiltrante (20.000 cas par an en Europe, troisième cause de décès par cancer chez les jeunes entre 15 et 35 ans). Depuis le premier patient opéré en 2017, une quinzaine de malades ont été inclus. Six heures avant l'intervention chirurgicale, un photosensibilisant, le Pentalafen, est ingéré par le patient. Une fois au bloc, après ouverture de la boîte crânienne et sous contrôle radiologique, le neurochirurgien utilise son microscope avec une lumière bleue pour mieux guider son geste et retirer la tumeur qui apparaît en rose. Ensuite, un ballonnet doté d'une fibre optique - un dispositif mis au point à Lille - est directement appliqué au niveau de la zone opératoire. Pendant quelques minutes, un autre laser, rouge cette fois, est activé. Les premiers résultats, publiés en 2021, ont démontré que la survie sans progression de la maladie était de dix-sept mois dans le groupe avec PTD contre sept dans celui sans PTD. Mais le cerveau n'est pas le seul organe concerné par cette approche innovante. Différents essais cliniques ont aussi commencé pour faire face au mésothéliome - une tumeur agressive de mauvais pronostic atteignant la plèvre - et aux cancers du foie et de l'ovaire, pour lesquels le risque de persistance de cellules tumorales est très élevé, même après une chirurgie minutieuse. La lumière et le scalpel : un duo de choc face au cancer. Article rédigé par Georges Simmonds pour RT Flash Sciences et Avenir | | | |
| Les dépôts de protéine bêta-amyloïde, caractéristiques de la maladie d’Alzheimer, pourraient ainsi être une réponse de l’organisme à une infection. De même, certains gènes prédisposant à la maladie d’Alzheimer semblent jouer un rôle dans la réponse antivirale. En 2020, une équipe de l’Université Tufts a notamment identifié une possible relation causale entre la maladie d’Alzheimer et le virus de l’herpès simplex de type 1 (noté HSV-1) – le virus responsable de l’herpès buccal et oculaire. Une nouvelle étude suggère que le virus de la varicelle-zona pourrait jouer un rôle similaire à celui du HSV-1. Après une première infection par le virus de l’herpès, celui-ci demeure toute la vie dans l’organisme, en "sommeil" ; il peut donc être réactivé à tout moment, notamment en période de stress ou en cas de fièvre. Cela fait plusieurs années que ce virus est suspecté de jouer un rôle dans la maladie d’Alzheimer. Des chercheurs ont en effet découvert que le HSV-1 est présent dans le cerveau humain chez une forte proportion de personnes âgées. En outre, un modèle tissulaire imitant le cerveau humain infecté par le HSV-1 – en l’absence de tout autre facteur exogène – a montré exactement les mêmes signes que la maladie humaine, trois jours seulement après l’infection : la formation de plaques amyloïdes, une perte neuronale, une neuro-inflammation et une diminution de la fonctionnalité du réseau neuronal. Les chercheurs ont également découvert que 40 gènes associés à la maladie d’Alzheimer étaient surexprimés dans les tissus cérébraux infectés par le HSV-1 (par rapport aux tissus non infectés). En revanche, le traitement de ce modèle cérébral avec le médicament antiviral valaciclovir (indiqué dans le traitement de l’herpès) a entraîné une réduction de la formation de plaques et d’autres marqueurs de la maladie. Ce virus est donc très clairement lié à l’apparition et à la progression de la maladie. Suite à ces découvertes, les chercheurs ont entrepris d’élargir leur étude à d’autres virus du type herpès, pour voir s’ils entraînaient les mêmes dégradations cérébrales. Ils ont donc examiné de près le virus varicelle-zona (ou VZV, pour varicella-zoster virus). Le VZV est très contagieux et se contracte généralement durant l’enfance (sous forme de varicelle). Tout comme le HSV-1, après la primo-infection, il demeure à l’état latent dans l’organisme ; il peut réapparaître à l’âge adulte, sous forme de zona. Lui aussi, lors de sa réactivation, pourrait donc causer des dommages directs dans le cerveau conduisant à la maladie d’Alzheimer. À l’aide de cellules cérébrales cultivées en laboratoire et d’un modèle cérébral 3D, les chercheurs ont examiné si une infection par le VZV provoquait l’accumulation de peptides bêta-amyloïdes et de protéines tau anormalement phosphorylées, ainsi que d’autres caractéristiques de la maladie d’Alzheimer – comme observé dans le cas du virus HSV-1. Mais leurs analyses ont montré qu’il n’en était rien : l’infection des cellules cérébrales par le VZV n’a pas entraîné l’apparition de ces signes typiques. Par conséquent, le VZV ne semble pas être une cause directe de la maladie. Article rédigé par Georges Simmonds pour RT Flash JOA | | | |
| Une équipe de l’Université d'Okayama (Japon), dirigée par le Professeur Yuri Katoo, a découvert que l'acide eicosapentaénoïque (EPA), un acide gras oméga-3, inhibe une importante molécule de signalisation, ce qui réduit la douleur chronique. Ces travaux, publiés dans les Actes de l’Académie des Sciences américaine, suggèrent qu’identifier les cibles moléculaires de cet omega-3 permettrait de développer de nouveaux analgésiques, alternatifs aux opioïdes. L'acide eicosapentaénoïque (EPA) est un nutriment essentiel et un omega-3 de la famille des acides gras polyinsaturés (AGPI). Comme le corps humain ne peut pas synthétiser les AGPI, des compléments alimentaires contenant de l'EPA sont nécessaires pour renforcer certaines fonctions physiologiques normales. Présent en abondance dans des sources naturelles telles que le poisson, l'huile de chanvre et l'huile de lin, l'EPA est connu pour ses activités anti-inflammatoires, neuroprotectrices et cardiovasculaires. De récentes études ont démontré les effets de l'EPA, de réduction de la mortalité après un infarctus du myocarde (crise cardiaque), sur l'amélioration de la résistance à l'insuline, sur la réduction des taux de lipides sanguins et l'inhibition de l'agrégation plaquettaire. Il a également été démontré que les AGPI oméga-3 diminuent les réponses inflammatoires après une infection au COVID-19. L’équipe japonaise menée par Takaaki Miyaji identifie une nouvelle cible moléculaire de l'EPA : « étant donné que l'EPA atténue de manière significative les douleurs inflammatoires et neuropathiques, il existe une forte possibilité qu'il existe une cible moléculaire importante de l'EPA liée à la neuropathie ». Les chercheurs révèlent que l’acide eicosapentaénoïque réduit la douleur en inhibant la libération d'adénosine triphosphate (ATP) médiée par le transporteur de nucléotides vésiculaires. Précisément, l’étude identifie le transporteur de nucléotides vésiculaires comme une nouvelle cible de l'acide eicosapentaénoïque (EPA) et met en évidence le mécanisme sous-jacent à l'effet analgésique de l'EPA. Lors de perturbations neurologiques, métaboliques et immunologiques, la transmission chimique "purinergique", une forme de signalisation extracellulaire médiée par des dérivés de la purine, conduit à la liaison de vecteurs énergétiques comme l'adénosine triphosphate (ATP) aux "purinorécepteurs", ce qui induit et exacerbe les troubles neuropathiques et perception de la douleur inflammatoire. Cette liaison est médiée par un transporteur vésiculaire de nucléotides (VNUT), qui devient ainsi la molécule clé dans l'initiation de la signalisation purinergique. Les chercheurs ont émis l'hypothèse que l'EPA cible le VNUT, bloquant ainsi la transmission chimique purinergique et réduisant la perception de la douleur. Les scientifiques ont pu vérifier ce mécanisme complexe, à la fois in vitro, en utilisant un VNUT d'origine humaine, et in vivo, en utilisant un modèle de souris déficient en VNUT. Cet effet est confirmé uniquement avec l'EPA et ses métabolites, et non avec l'acide docosahexaénoïque, un autre acide gras oméga-3, suggérant ainsi qu’une structure spécifique des acides gras oméga-3 est nécessaire à l'inhibition du VNUT. Ces recherches montrent donc que de faibles concentrations d'EPA inhibent complètement et de manière réversible la libération d'ATP par les neurones, sans inhiber la libération d'autres neurotransmetteurs. Comparé à d'autres médicaments, l'EPA démontre donc un effet analgésique plus élevé avec moins d'effets secondaires. Ces effets analgésiques de l'EPA peuvent être élargis à la prise en charge de la douleur chronique associée à plusieurs autres situations, dont la chimiothérapie et conditions, dont le diabète, les rhumatismes, la goutte ou l'inflammation. De plus, la transmission chimique purinergique est également associée à diverses affections, notamment la maladie d'Alzheimer et la dépression, pour lesquelles l'EPA pourrait être exploré en tant que stratégie thérapeutique. Plus largement, l'EPA et ses métabolites pourraient être mieux exploités dans la gestion de la douleur chronique, en alternative aux opioïdes, et sans leurs effets secondaires. Article rédigé par Georges Simmonds pour RT Flash PNAS | | | |
| La maladie de Huntington est une maladie génétique rare et héréditaire du système nerveux central qui se manifeste par des troubles psychiatriques, cognitifs et moteurs qui s’aggravent progressivement. Elle est due à la mutation du gène codant pour une protéine nommée "huntingtine", essentielle au bon fonctionnement des neurones. La maladie se déclenchant tardivement – habituellement entre les âges de 30 et 50 ans, l’impact de la mutation de la huntingtine sur le neurodéveloppement pré- et postnatal a été jusqu’à présent peu étudié. En 2020, Sandrine Humbert, directrice de recherche Inserm, a codirigé des travaux mettant en évidence des anomalies cérébrales dans des cerveaux d’embryons humains porteurs de la mutation responsable de la maladie de Huntington. Plusieurs fonctions régulées par l’activité neuronale apparaissaient impactées, suggérant une altération de la transmission nerveuse. Forte de ces observations, l’équipe de Sandrine Humbert au Grenoble Institut des Neurosciences (Inserm/Université Grenoble-Alpes) s’est intéressée à la mise en place des circuits neuronaux et aux comportements cognitifs et sensori-moteurs chez des souriceaux modèles de la maladie de Huntington. Les chercheuses et chercheurs ont observé différentes altérations chez les souriceaux Huntington : les neurones pyramidaux de leur cortex cérébral présentaient des défauts morphologiques et de transmission synaptique, associés à des altérations du comportement. Toutefois, après 21 jours de vie, ils retrouvaient une physiologie et une morphologie apparemment similaires à celle des souris saines. Pour autant ces compensations ne fonctionneraient qu’un temps puisqu’à partir de 4 à 5 semaines, les souris Huntington développent certains signes de la maladie. Les scientifiques ont ensuite émis l’hypothèse qu’une restauration des défauts transitoires observés au cours de la première semaine de vie pourrait influencer l’apparition de la maladie à l’âge adulte. Pour vérifier cette supposition, ils ont utilisé une molécule thérapeutique de la classe des ampakines, le CX516, connue pour faciliter la transmission nerveuse. Ce traitement néonatal a permis de restaurer l’activité neuronale et les capacités cognitives et sensori-motrices des souriceaux Huntington, et surtout, il les a empêchés de développer les signes caractéristiques de la maladie à l’âge adulte. Si ces résultats obtenus chez l’animal plaident en faveur d’un traitement précoce des personnes portant le gène de la maladie de Huntington pour modifier l’évolution de la maladie à l’âge adulte, ils invitent également à approfondir la compréhension du développement cérébral dans le contexte de cette pathologie. Ils appellent aussi à découvrir les liens entre les anomalies causées par la maladie et les mécanismes compensatoires mis en place par l’organisme avant l’apparition des symptômes. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Des chercheurs du célèbre MIT de Boston ont mis au point un appareil domestique qui permet de suivre à distance très efficacement la progression de la maladie de Parkinson et la réponse aux médicaments. Ce dispositif a la taille d'un routeur Wi-Fi et recueille des données de manière passive à l'aide de signaux radio de faible intensité qui se reflètent sur le corps du patient lorsqu'il se déplace dans sa maison. Le patient n'a pas besoin de porter d’appareil, ni de modifier son comportement. Les chercheurs ont utilisé ces appareils pour mener une étude à domicile d'un an avec 50 participants. Ils ont montré qu'en utilisant des algorithmes d'apprentissage automatique, un clinicien pouvait suivre la progression de la maladie de Parkinson et la réponse aux médicaments plus efficacement qu'il ne le ferait avec des évaluations périodiques en clinique. Rappelons que la maladie de Parkinson touche déjà 10 millions de personnes dans le monde et est le trouble neurologique qui se développe le plus vite sur la planète... Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| Des chercheurs du MIT de Boston et du Caltech ont présenté une nouvelle technologie d'imagerie, appelée microscopie photoacoustique ultraviolette à balayage de contour 3D en temps réel, ou UV-PAM. Cet outil extraordinaire est capable de repérer en 10 minutes, après enlèvement d'une tumeur des os, (au lieu de plusieurs jours actuellement) la moindre cellule cancéreuse avoisinante, car ces cellules malignes ont une signature spectrale caractéristique et décelable par ce microscope. Cet outil, qui est destiné à remplacer la méthode traditionnelle d'identification des tissus osseux cancéreux, va permettre au chirurgien de réaliser des interventions dix fois plus précises qu'actuellement, ce qui va à la fois augmenter l'efficacité thérapeutique de l'intervention et réduire sensiblement les séquelles pour le patient... Article rédigé par Georges Simmonds pour RT Flash Caltech | | | |
| Le cancer de la prostate peut récidiver après une thérapie de privation hormonale et, à ce jour, il n’existe pas d’option thérapeutique claire pour venir à bout des cellules cancéreuses récurrentes. Cette équipe de cancérologues de l'Université d'Augusta propose "d’achever" le cancer de la prostate résistant avec du fer : le fer génère des niveaux élevés de radicaux libres toxiques, ou ROS, dont les effets incluent des dommages aux lipides essentiels au fonctionnement des cellules cancéreuses. L’auteur principal, le Docteur Chunhong Yan, biologiste moléculaire au Georgia Cancer Centre, et son équipe exploitent précisément un processus appelé ferroptose : « Lorsque la cellule absorbe du fer, elle passe par différents processus, qui génèrent beaucoup de ROS ». Bien qu'il soit habituel que le fer et les ROS interagissent, lorsque les niveaux des deux substances sont élevés, cela endommage les lipides, un composant important des membranes cellulaires. Grâce à ce processus appelé peroxydation lipidique, les lipides, qui sont également des réserves d'énergie importantes pour les cellules et pour la signalisation cellulaire interne, s'agrègent, perdent leur flexibilité et leur efficacité et finalement la cellule meurt, sans d’ailleurs que les dernières étapes soient parfaitement comprises. Ces changements lipidiques sont très destructeurs. Cependant le cancer de la prostate peut être particulièrement résistant y compris aux médicaments conçus pour induire ce type de dommages excessifs causés par le fer. En effet, les cellules cancéreuses sont capables de s’adapter aux niveaux de lipides présents, afin de préserver leur croissance et leur propagation. L’équipe d’Augusta a identifié "une arme secrète", un gène, ATF3, un régulateur du stress cellulaire qui peut rendre les cellules cancéreuses de la prostate plus vulnérables à un nouveau composé, JKE-1674, qui induit la ferroptose. En pratique, le composé parvient à réduire la capacité des cellules cancéreuses de la prostate à ignorer ce stress et favorise ainsi leur destruction. Un autre médicament, le bortézomib, un agent chimiothérapeutique utilisé dans le traitement du myélome multiple, permet d’augmenter l'expression de ATF3, qui augmente à son tour l'expression de HMOX1, une enzyme et un antioxydant connu, ce qui réduit la concentration en fer de l'hémoglobine et le concentre à l'intérieur des cellules, ce qui induit la ferroptose. En culture cellulaire, l'équipe observe qu’une expression accrue d'ATF3 sensibilise les cellules cancéreuses de la prostate humaines à la mort par le fer. De nouvelles études sont d’ores et déjà prévues, qui vont étudier l'induction de la ferroptose "ciblée" chez des souris modèles de cancer de la prostate. En pratique, il s’agira de vérifier que le bortézomib qui booste l'ATF3 induit bien la ferroptose. Article rédigé par Georges Simmonds pour RT Flash EurekAlert | | | |
| Les scientifiques de l’University College London ont recruté 156 travailleurs de santé pour cette étude. Ils ont tous été testés pour la Covid-19, et 35 % étaient positifs. Pour chacun d’eux, les chercheurs ont réalisé une analyse du plasma sanguin, recueilli avant et jusqu’à six semaines après l’infection. Les données obtenues ont été comparées à celles de personnes n’ayant pas été infectées par la maladie. Pour analyser ces échantillons, ils ont utilisé la spectrométrie de masse ciblée, une technique d'analyse des changements des quantités de protéines dans le plasma sanguin. En temps normal, les niveaux de protéines dans le sang restent stables. Les scientifiques ont détecté des niveaux anormalement élevés pour douze protéines sur les 91 étudiées. Grâce à un algorithme, ils ont pu repérer les personnes ayant signalé au moins un symptôme persistant au bout d’un an, de celles n’en ayant pas eu. L'équipe de recherche a découvert qu'au moment de la première infection, des niveaux anormaux de 20 protéines permettaient de prédire le risque de symptômes persistants au bout d’un an. « La plupart de ces protéines étaient liées à des processus anticoagulants et anti-inflammatoires », précisent-ils. Plus les taux étaient anormaux, plus les symptômes étaient graves. « Notre étude montre que même la Covid-19 légère ou asymptomatique perturbe le profil des protéine s dans notre plasma sanguin » résume le docteur Gaby Captur, auteur principal de la recherche. « Cela signifie que même la Covid-19 légère affecte les processus biologiques normaux de manière importante, jusqu'à six semaines après l’infection, voire plus ». À terme, si ce test sanguin montre à nouveau sa pertinence, ils estiment qu’il pourrait être proposé en parallèle d’un test PCR. « En utilisant notre approche, un test qui prédit les formes longues de Covid-19 au moment de l'infection initiale pourrait être déployé rapidement et de manière rentable », poursuit-il. « La méthode d'analyse que nous avons utilisée est facilement disponible dans les hôpitaux et est à haut débit, ce qui signifie qu'elle peut analyser des milliers d'échantillons en un après-midi ». Cela ouvre aussi la voie à des traitements antiviraux, prescrits suffisamment tôt pour réduire les risques de formes longues de la maladie. Article rédigé par Georges Simmonds pour RT Flash EBioMedicine | | | |
| Sans altérer le code génétique de l'ADN, les modifications épigénétiques peuvent changer la façon dont les gènes sont exprimés, affectant la santé et le développement d'un organisme. L'idée autrefois radicale selon laquelle de tels changements dans l'expression des gènes peuvent être hérités s'appuie désormais sur un nombre croissant de preuves, mais les mécanismes impliqués restent mal compris. Une nouvelle étude menée par des chercheurs de l'UC Santa Cruz montre comment un type courant de modification épigénétique peut être transmis par le sperme non seulement des parents à la progéniture, mais également à la génération suivante. C'est ce qu'on appelle "l'héritage épigénétique transgénérationnel", et cela peut expliquer comment la santé et le développement d'une personne pourraient être influencés par les expériences de ses parents et grands-parents. L'étude s'est concentrée sur une modification particulière d'une protéine histone qui modifie la façon dont l'ADN est conditionné dans les chromosomes. Cette marque épigénétique largement étudiée (appelée H3K27me3) est connue pour désactiver ou "réprimer" les gènes affectés et se trouve chez tous les animaux multicellulaires, des humains au ver nématode C. elegans utilisé dans cette étude. « Ces résultats établissent une relation de cause à effet entre les marques d'histones transmises par les spermatozoïdes et l'expression et le développement des gènes chez la progéniture et la petite-progéniture », souligne Susan Strome, professeure de biologie moléculaire, cellulaire et du développement à l'UC Santa Cruz. Les histones sont les principales protéines impliquées dans l'empaquetage de l'ADN dans les chromosomes. Cette étude consistait à retirer sélectivement cette marque d'histone des chromosomes du sperme de C. elegans, qui étaient ensuite utilisés pour féconder des ovules avec des chromosomes entièrement marqués. Dans la progéniture résultante, les chercheurs ont observé des modèles d'expression génique anormaux, avec des gènes sur les chromosomes paternels (hérités du sperme) activés ou "régulés positivement" en l'absence de la marque épigénétique répressive. Cela a conduit les tissus à activer des gènes qu'ils n'exprimeraient pas normalement. Par exemple, le tissu germinal (qui produit des ovules et du sperme) a activé des gènes normalement exprimés dans les neurones. L'analyse des chromosomes dans le tissu germinal de la progéniture a révélé que les gènes régulés positivement manquaient toujours de la marque d'histone répressive, tandis que la marque avait été restaurée sur les gènes qui n'étaient pas régulés positivement. « Dans la lignée germinale de la progéniture, certains gènes ont été activés de manière aberrante et sont restés dans l'état sans marque répressive, tandis que le reste du génome a retrouvé la marque, et ce schéma a été transmis aux descendants »m>, souligne l’étude. Article rédigé par Georges Simmonds pour RT Flash PNAS | | | |
| « Dans cette vaste étude observationnelle, le café moulu, instantané et décaféiné a été associé à des réductions équivalentes de l'incidence des maladies cardiovasculaires et des décès dus aux maladies cardiovasculaires ou à toute autre cause », a déclaré l'auteur de l'étude, le professeur Peter Kistler du Baker Heart and Diabetes Research Institute, à Melbourne, en Australie. Il existe peu d'informations sur l'impact des différentes préparations de café sur la santé cardiaque et la survie. Cette étude a examiné les associations entre les types de café et les arythmies incidentes, les maladies cardiovasculaires et les décès à l'aide des données de la UK Biobank, qui a recruté des adultes âgés de 40 à 69 ans. Les maladies cardiovasculaires comprenaient les maladies coronariennes, l'insuffisance cardiaque congestive et les accidents vasculaires cérébraux ischémiques. L'étude a inclus 449 563 participants exempts d'arythmies ou d'autres maladies cardiovasculaires au départ. L'âge médian était de 58 ans et 55,3 % étaient des femmes. Les participants ont rempli un questionnaire leur demandant combien de tasses de café ils buvaient chaque jour et s'ils buvaient habituellement du café instantané, moulu (comme du cappuccino ou du café filtré) ou décaféiné. Ils ont ensuite été regroupés en six catégories, en fonction de leur consommation de café, ceux qui n’en buvaient pas, ceux qui en buvaient moins d'une par jour, ceux qui en buvaient deux à trois par jour, ceux qui en buvaient quatre à cinq et plus de cinq tasses par jour. Le type de café habituel était instantané chez 198 062 (44,1 %) participants, moulu chez 82 575 (18,4 %) et décaféiné chez 68 416 (15,2 %). Il y avait 100 510 (22,4 %) non-buveurs de café qui servaient de groupe de comparaison. Les buveurs de café ont été comparés aux non-buveurs pour l'incidence des arythmies, des maladies cardiovasculaires et des décès, après ajustement sur l'âge, le sexe, l'origine ethnique, l'obésité, l'hypertension artérielle, le diabète, l'apnée obstructive du sommeil, le statut tabagique et la consommation de thé et d'alcool. Les informations sur les résultats ont été obtenues à partir des dossiers médicaux et des actes de décès. Le suivi médian était de 12,5 ans. Au total, 27 809 (6,2 %) participants sont décédés au cours du suivi. Tous les types de café ont été associés à une réduction des décès, quelle qu'en soit la cause. La plus grande réduction du risque observée avec deux à trois tasses par jour, qui par rapport à l'absence de consommation de café, était associée à une probabilité de décès inférieure de 14 %, 27 % et 11 % pour les préparations décaféinées, moulues et instantanées, respectivement. Une maladie cardiovasculaire a été diagnostiquée chez 43 173 (9,6 %) participants au cours du suivi. Tous les sous-types de café étaient associés à une réduction des maladies cardiovasculaires incidentes. Encore une fois, le risque le plus faible a été observé avec deux à trois tasses par jour, ce qui, par rapport à l'abstinence de café, était associé à une probabilité réduite de 6 %, 20 % et 9 % de maladies cardiovasculaires pour le café décaféiné, moulu et instantané, respectivement. Article rédigé par Georges Simmonds pour RT Flash EJPC | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|