| | Edito Bientôt, nous diagnostiquerons, à domicile, une maladie avant qu'elle ne soit grave
Depuis ses origines, la médecine essaye de soigner, et si possible de prévenir les multiples maladies qui affectent l’homme et elle y parvient de mieux en mieux, comme le montre l’augmentation absolument sans précédent de l’espérance de vie moyenne dans le monde : plus de trente ans de vie gagnés en un siècle ! La médecine parvient aujourd’hui à guérir un grand nombre de maladies, avec une efficacité que nous n'aurions même pas imaginée il y a seulement un demi-siècle. Par contre, elle peine encore à prévenir l’apparition des maladies les plus meurtrières et à les détecter très précocement, ce qui permettrait, notamment dans le cas des cancers et de maladies cardio-vasculaires, ou de pathologies neurodégénératives, d’effectuer un nouveau bond en avant en matière d’efficacité thérapeutique car, on le sait, il est bien plus facile de guérir ou de stabiliser une maladie détectée aux tout premiers stades, avant même que les symptômes n’apparaissent. Certes, les outils de diagnostic, d’analyses biologiques et d’imagerie, ont fait des progrès considérables depuis la fin du siècle dernier, ce qui a contribué de manière importante à la baisse constante de la mortalité réelle par cancer et maladies cardio-vasculaires dans notre pays depuis trente ans - mais le recours à ces outils a rarement un caractère automatique. Il reste le plus souvent lié à l’apparition de symptômes qui laissent suspecter la présence d’une pathologie à traiter. Et pour un certain nombre de maladies graves, les symptômes apparaissent, malheureusement, tardivement et lorsqu’un diagnostic fiable est posé, les chances de guérison du patient sont souvent amoindries car la maladie a déjà beaucoup progressé… Si nous pouvions déceler, avant même que ne se manifestent les premiers symptômes, de manière automatique et transparente, avec des outils fiables et peu coûteux, les principales maladies qui nous menacent, nous pourrions augmenter considérablement les chances de guérison dans de nombreuses pathologies graves, tout en améliorant sensiblement la qualité et le confort de vie des malades, qui pourraient bénéficier de traitements moins lourds et moins longs, pour une plus grande efficacité thérapeutique. Un tel bond en avant scientifique et technologique permettrait également de réduire sensiblement le coût total de nos dépenses de santé qui a été multiplié par 3,5, en France, depuis 1950 et atteint à présent 200 milliards d’euros par an, soit environ 9 % de notre PIB. Les économies ainsi dégagées pourraient être affectées à une meilleure prise en charge de la dépendance, dont le coût collectif va doubler d’ici le milieu du siècle et qui devrait nécessiter rapidement 10 milliards de ressources nouvelles par an. Certains pourraient m’objecter qu’une détection précoce, généralisée et automatique de nombreuses maladies, n’est pas réaliste et relève encore pour longtemps de la science-fiction. Je crois au contraire qu’une telle perspective est envisageable bien plus rapidement qu’on ne l’imagine, si l’on s’appuie sur les remarquables avancées intervenues au cours de ces dernières années. Depuis plusieurs années, 14 laboratoires à travers le monde ont ainsi uni leurs forces pour lancer un vaste programme de recherche sur cette question. Ces travaux ont fait l’objet d’une publication signée par Morad Nakhleh, chercheur à Technion, à Haïfa. Cette étude révèle que ce consortium (qui compte dans ses rangs l’unité Inserm Hypertension artérielle pulmonaire en France) a réussi à créer un nez électronique capable d’identifier 17 maladies à leur simple odeur (Voir ACS Nano). Pour mener à bien leur projet, les chercheurs ont recueilli dans un ballon l’air expiré par 1 404 personnes, touchées par différentes pathologies ou en bonne santé. Ces scientifiques ont ensuite analysé la nature et la concentration des multiples composés chimiques présents dans l’haleine à l’aide de leur nez électronique, doté d’un support conducteur de l’électricité, constitué de nanoparticules. Les molécules volatiles créent une modification du courant électrique dans le conducteur permettant de les identifier grâce à des algorithmes de reconnaissance des odeurs. Au final, ce nez artificiel a pu obtenir des cas des diagnostics justes dans 86 %. La justesse des conclusions varie entre 64 % et 100 % selon la difficulté à distinguer certaines pathologies. Pour affiner les résultats, les chercheurs ont aussi fait appel à différentes techniques comme la chromatographie en phase gazeuse et la spectrométrie de masse. Actuellement, cette équipe de recherche continue à améliorer la sensibilité de ce nez électronique et souhaite pouvoir proposer d’ici cinq ans ce nez électronique à un prix abordable aux médecins et aux hôpitaux. Toujours en 2017, une autre équipe hollandaise a également développé son nez électronique (eNose) qui est une technologie non invasive basée sur l'analyse de schémas de composés volatils expirés et de condensats d'haleine expirés. Le eNose est formé à l'analyse de l'haleine exhalée de patients atteints d'une certaine maladie et de sujets témoins ne présentant pas cette maladie. Cet eNose a déjà montré ses capacités à pouvoir diagnostiquer plusieurs maladies, telles que l'asthme, la tuberculose, certains cancers, ou encore l’épilepsie. En matière de détection et de diagnostic précoces du cancer, des avancées majeures sont également en cours, notamment dans le cancer de la prostate, le cancer le plus fréquent chez l’homme, avec plus de 50 000 nouveaux cas chaque année, pour environ 8 000 décès. Bien que le dosage du PSA (Prostate Specific Antigen) permette d’avoir une indication quant aux risques de cancer, seul le prélèvement de cellules cancéreuses directement sur l’organe (biopsie) permet d’avoir la certitude du diagnostic. Mais jusqu’à présent, les biopsies guidées par imagerie échographique ne permettaient pas de distinguer immédiatement, sans ambiguïté, les cellules tumorales des cellules saines. Pour surmonter cet obstacle, le CEA Tech a présenté fin 2018 une solution innovante de localisation des tumeurs au travers de la mesure de fluorescence résolue en temps. Ce concept consiste à injecter au patient un traceur fluorescent dans le proche infrarouge qui s’accumulera de façon privilégiée dans les tumeurs, puis de localiser ce traceur à l’aide d’une sonde optique connectée à un laser d’excitation pulsé. Grâce à une chaîne de mesure du temps de vol des photons de fluorescence, il est possible de localiser la zone d’émission en profondeur dans les tissus environnants. Avec cette technique de pointe, particuliè ;rement fiable et précise, il devient enfin envisageable de pouvoir détecter et diagnostiquer très rapidement le cancer de la prostate. Une autre équipe américaine dirigée par le Docteur Nishant Agrawal (Université de Chicago) a inventé en 2015 une technique pour détecter les signatures génétiques de tumeurs de la bouche et de la gorge dans le sang et la salive. « Notre test demande à être validé sur un nombre plus important de malades mais, comme il a vraiment une très bonne sensibilité, nous avons l'espoir de le voir commercialisé à bas coût dans moins de cinq ans », souligne de Docteur Agrawal. En novembre dernier, des chercheurs britanniques de l’Université de Cambridge ont présenté un nouveau test de dépistage capable de détecter la présence d’ADN des tumeurs profondes dans le sang. Les premiers essais cliniques ont permis de retrouver les ADN des cellules des tumeurs des organes profonds plus facilement dans le sang en ciblant les brins d’ADN de ces dernières, qui ont la particularité d’être plus courts que les autres ADN circulants normaux. Ce test expérimental utilise de manière ingénieuse cette différence de taille pour repérer ces fragments et les analyser. Dans le cas du cancer colorectal, des voies biliaires, des ovaires, du sein et de la peau, le test sanguin a permis de détecter 94 % des cancers. Pour le cancer du pancréas, du rein et du cerveau, ce taux de reconnaissance atteint déjà les 65 % (Voir Science Translational Medicine). Il y a quelques semaines, des chercheurs du Rochester Institute of Technology (États-Unis) ont mis au point une cuvette de toilettes conçue pour détecter si la personne qui l’utilise présente un risque d'insuffisance cardiaque congestive (ICC). La maladie entraîne un dysfonctionnement où le cœur n'arrive plus à pomper suffisamment de sang pour alimenter le corps (il s'agit d'une maladie chronique). Cette cuvette est équipée de capteurs mesurant la pression sanguine et l'oxygénation, mais aussi d'un cardiofréquencemètre. A chaque passage dans les toilettes, les capteurs font un scan de l’utilisateur et sont capables de détecter une insuffisance cardiaque congestive. L’idée est d'éviter la réadmission des patients qui ont une ICC. En effet, comme le souligne l’un des chercheurs, Nicholas Conn, 25 % des patients atteints d'ICC sont réadmis 30 jours après leur sortie. Concrètement, les cuvettes seraient achetées par les hôpitaux puis données aux patients afin qu'ils se testent à domicile. Et leurs cardiologues recevraient une notification lorsque l'algorithme aurait trouvé un problème. Cette avancée technologique a été testée avec succès et pourrait changer la vie de nombreux patients. Mais d’autres laboratoires dans le monde travaillent également sur de petits systèmes portables que l’on pourra avoir dans sa poche, ou qui seront intégrés aux vêtements, et pourront détecter et mesurer la présence, ainsi que les variations de concentration d’une multitude de biomarqueurs indésirables dans le sang ou la salive, et repérant les maladies à un stade précoce (Voir Nature). En Suisse, des chercheurs du Laboratoire de systèmes bionanophotonique de la Faculté des sciences et techniques de l'ingénieur de l’EPFL ont développé un outil puissant qui s’inscrit dans cette révolution technologique. Il s’agit d’une puce optique miniaturisée qui, couplée à un appareil photo CMOS et à de l’analyse d’image, permet de compter les biomolécules d’un échantillon une à une, mais aussi de déduire leur position précise. Cet outil très prometteur utilise le phénomène physique des métasurfaces. Il s’agit de feuilles de matériaux sur lesquelles on place des millions d’îlots nanométriques, positionnés de façon spécifique. Ces îlots ont la capacité, à une fréquence donnée, de confiner intensément la lumiè ;re en certains points, créant ainsi des « hot spot » ultra-sensibles de détection. Lorsque l’on expose ces surfaces à un flux lumineux et qu’une molécule se trouve dans un « hot spot », elle modifie instantanément la longueur d’onde de la lumière et est ainsi immédiatement détectée. Ces chercheurs travaillent à présent sur une nouvelle version de leur système, où les métasurfaces sont programmées par région, pour résonner à des longueurs d’onde différentes, ce qui rend le dispositif plus simple et moins coûteux à fabriquer. Ces scientifiques suisses sont persuadés que ces capteurs optiques ont un immense potentiel pour aborder les défis de la prochaine génération, en particulier ceux liés à la détection précoce et personnalisée des maladies. Autre exemple de cette révolution en cours, l’Institut Cardiovasculaire Paris Sud (ICPS), à Massy, est la première clinique au monde à utiliser, depuis un an Cardiologs, une technologie qui permet de lire des électrocardiogrammes. « Grâce à ce nouvel outil numérique le médecin passe cinq minutes au lieu d’une demi-heure pour lire un examen », explique Laurent Fiorina, cardiologue spécialisé dans les troubles du rythme cardiaque à l’ICPS et expert médical chez Cardiologs. Cardiologs a été entraîné à reconnaître des patterns dans l’information cardiaque pour permettre une détection rapide des troubles cardiovasculaires. Couplé à un algorithme spécifique, ce système permet d’obtenir un diagnostic rapide et fiable, mais aussi de rendre cet examen plus accessible. « La base de données de cet outil technologique est à plus d’un million d’électrocardiogrammes », souligne Laurent Fiorina. « Cette machine sera donc capable de repérer des pathologies rares mieux qu’un cardiologue et qu’un généraliste ». Cette puissante aide va permettre aux médecins de libérer du temps qu’ils pourront ainsi consacrer aux patients. Autre outil s’appuyant sur le deep learning (apprentissage automatique par modélisation), Arterys. Commercialisé depuis un an environ, ce dispositif innovant est conçu pour aider les médecins à poser un diagnostic précis. En effet, cette IA, entraînée à comprendre le fonctionnement métabolique et à analyser les marqueurs biologiques, est capable de repérer immédiatement si le ventricule droit ou le gauche se contracte bien. Autre avantage décisif : cette technologie est potentiellement utilisable en tout point du Globe. Il suffit d’envoyer les données médicales, anonymisées et cryptées, sur un cloud où le médecin pourra le consulter directement depuis son smartphone ou une tablette. En outre, Arterys peut être déclinée pour plusieurs pathologies, cancer du sein, du foie, du poumon notamment. Arnaud Rosier, cardiologue à Massy, s’intéresse, lui, aux patients ayant un pacemaker, ce dispositif implanté dans le cœur qui envoie des impulsions électriques pour stimuler les muscles cardiaques. « Concrètement, une box récupère les informations et les affiche sur les sites de chaque fabricant », explique ce médecin, cofondateur d’Implicity. Celui-ci précise qu’un tel suivi, personnalisé et en temps réel, serait tout simplement impossible sans recourir aux nouveaux outils numériques. Or, cette télésurveillance a fait ses preuves : la mortalité des patients baisse de 40 %. Concrètement, Implicity propose une plate-forme universelle où sont récupérées les données de tous les fabricants, recoupées avec les données médicales. Ensuite, l’ensemble de ces données sont fil trées et analysées de manière intelligente, ce qui permet d’éviter 90 % des fausses alertes et de signaler uniquement les alertes graves qui doivent faire l’objet d’une prise en charge rapide. Il y a deux ans, une équipe de recherche de la faculté de médecine de l'Université de Stanford et de Berkeley en Californie a présenté un bracelet capteur révolutionnaire qui combine une nouvelle génération de microcapteurs et de microprocesseurs. Ce bracelet, capable d'analyser très rapidement la sueur, pourrait révolutionner les diagnostics médicaux et permettre un traitement plus efficace de pathologies comme la mucoviscidose ou le diabète (Voir les articles de Nature de janvier 2016 et de PNAS de février 2017). Ce capteur analyse les composants moléculaires de la sueur et transmet, via un smartphone, les résultats au médecin-traitant. Ce nouveau capteur portable au poignet stimule les glandes sudoripares avec des micro-processeurs pour obtenir de la sueur en quelques minutes, avant de transmettre le contenu moléculaire, via un téléphone portable, à un serveur qui peut rapidement analyser les résultats. Le capteur peut détecter des ions de chlorure dans la sueur qui génèrent davantage de charge électrique. Plus la teneur de ce sel est élevée, plus la probabilité est grande que la personne souffre de mucoviscidose, précisent les chercheurs. Ce système peut aussi mesurer la teneur en glucose avec le même résultat qu'un test sanguin. Un taux élevé peut indiquer un risque de diabète. D'autres éléments moléculaires pr&eacu te;sents dans la sueur comme le sodium, le potassium et le lactate peuvent également être mesurés. A moyen terme, d’ici 5 ans, ces microcapteurs capables de détecter et de transmettre un grand nombre d’informations sur nos constantes et paramètres biologiques seront directement intégrés dans nos vêtements. Selon le cabinet Juniper Research, le nombre de vêtements intelligents écoulés dans le monde devrait atteindre 7 millions en 2020 et approcher les 30 millions en 2022. Mais à côté de la télésanté via les objets et vêtements connectés, le diagnostic et la télésurveillance médicale passeront également par de nouveaux outils domotiques à présent compacts, fiables et peu onéreux qui feront leur entrée dans nos habitations. Parmi ceux-ci, les toilettes sont appelées à tenir une place centrale. Au Japon, pays en pointe dans ce domaine, la firme Toto, numéro un japonais des sanitaires, propose depuis 2010 des "toilettes intelligentes", qui fonctionnent comme un mini laboratoire médical. Pour une somme d’environ 4500 euros, ces toilettes du futur effectuent à chaque passage des mesures et analyses concernant votre poids, votre tension et les principaux composants chimiques de votre urine. Les informations précieuses ainsi recueillies sont immédiatement transmises automatiquement à vot re médecin et vont alimenter votre dossier médical numérique personnel. En Europe, un groupement de chercheurs de l’Agence spatiale européenne (ESA) et du Massachusetts Institute of Technology (MIT) a travaillé avec des spécialistes de l’assainissement pour concevoir « FitLoo. ». Il s’agit de toilettes high-tech capables d’analyser les excréments humains afin de détecter certaines maladies. Selon le chef de ce projet, Michael Lindenmayer, ces toilettes, qui pourraient être sur le marché dès 2020, combinent de manière innovante de nombreuses technologies dans un seul appareil et peuvent permettre de repérer et diagnostiquer très précocement certaines maladies graves, comme l’hypertension, le diabète ou certains cancers. Cette révolution de la téléprévention et du télédiagnostic numériques n’a bien sûr pas échappé aux géants du secteur, comme Google, Microsoft ou Apple. Selon une étude publiée par Morgan Stanley, Apple pourrait voir son chiffre d’affaires dans ce domaine très porteur passer de 20 à 313 milliards de dollars en 2027. Apple Watch devrait prochainement accueillir un lecteur de glycémie, ainsi qu’un capteur de tension artérielle et de suivi du sommeil. Apple a d’ailleurs récemment annoncé avoir mis un glucomètre associé à un capteur olfactif capable de reconnaître l’odeur caractéristique de la sueur de certains diabétiques. Au rythme où va l’innovation technologique dans ce domaine-clé de la télédétection, de la télésurveillance et de la téléalerte médicales, on peut prévoir que, d’ici à peine dix ans, des systèmes numériques très fiables et très rapides seront non seulement présents dans tous les cabinets médicaux et hôpitaux, mais seront également, dans des versions « allégées », disponibles sur le marché grand public. Ces dispositifs et systèmes numériques ultraminiaturisés et communicants, qui surveilleront de manière très efficace et en permanence notre santé, se fonderont littéralement dans notre environnement et notre vie quotidienne – dans nos vêtements, nos habitations, nos voitures, nos smartphones – et, comme pour l’Internet, nous nous d emanderons comment nous avons pu nous en passer, tellement leurs fonctions nous paraîtront utiles et naturelles. L’ensemble de ces nouveaux outils et services bouleverseront la prise en charge de la maladie mais également du handicap et de la dépendance et permettront l’extension à un niveau jamais atteint de l’hospitalisation et du maintien à domicile des personnes âgées et fragiles. Mais surtout, cette révolution scientifique et technologique nous fera entrer dans l’ère de la médecine préventive, prédictive et proactive, une médecine capable à la fois de prévenir infiniment plus efficacement les grandes pathologies qui nous menacent et de soigner ces maladies avant même que nous ne soyons malades… Face à ce saut scientifique, nous avons le devoir de veiller à ce que la soif de justice sociale et d’équité territoriale exprimée avec force par nos concitoyens soit entendue. C’est pourquoi nous devons parvenir à rebâtir notre pacte social et à imaginer de nouveaux modes de financement qui permettent à tous les Français de bénéficier de ces outils qui vont constituer un formidable progrès, tant sur le plan de la médecine personnalisée que dans le domaine de la gestion collective de la santé et du bien-être. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | Le groupe de conseil Accenture annonce le lancement de sa solution Memory Lane en partenariat avec le fournisseur d’électricité suédois Stockholm Exergi... avant d'autres déploiements partout dans le monde. Nourri à l’intelligence artificielle, cet assistant vocal de nouvelle génération doit permettre de lutter contre l’isolement social. « C’est un outil de dernière génération, qui vient en aide aux personnes isolées » Voilà comment Christian Souche, directeur du centre de recherche et de développement d’Accenture Interactive à Sophia Antipolis (Alpes-Maritimes), perçoit Memory Lane, la nouvelle solution vocale du groupe. Initiée en partenariat avec le fournisseur d’électricité suédois Stockholm Exergi, qui réaffirme à cette occasion sa vocation sociale, la technologie fonctionne grâce aux enceintes connectées et est nourrie à l'intelligence artificielle. « Recourir à la voix présente un double avantage », souligne Christian Souche. « C'est simple d'utilisation pour un public peu habitué aux technologies et cela apporte également un aspect humain, naturel à l'expérience ». Chaque jour, l’assistant vocal Memory Lane pose une nouvelle question à l’usager… Et la technologie va bien au-delà d’écouter. « L’intelligence artificielle intégrée analyse les réponses et demande davantage de détails », explique le directeur de la R&D d'Accenture Interactive. Si la solution vous demande quelles étaient les meilleures vacances de votre vie, elle pourra par exemple enchaîner en vous demandant ce qui vous a plu à l’étranger. Cette fonction, baptisée "Interviewer", correspond dans les faits à un "speech-to-text inversé". Une première mondiale, selon le groupe de conseil, qui permettra dans ce cas précis d’établir un récit à l’échelle d’une vie. Les personnes âgées ayant participé aux premières expérimentations, à Stockholm, ont ainsi reçu une copie d’un petit livre consacré à leur propre histoire… et se sont senties davantage écoutées. Article rédigé par Georges Simmonds pour RT Flash L'Usine Digitale | | | |
| Le MIT souhaite faire progresser plus vite l’intelligence artificielle. L'IA utilise habituellement des réseaux neuronaux dits « profonds », complexes et coûteux à créer. Mais selon le CSAIL, laboratoire de recherche dédiée à l’intelligence artificielle du MIT, de plus petits réseaux peuvent être aussi performants que ceux dits « profonds ». Les chercheurs ont baptisé ce nouveau type de réseaux « Lottery Ticket », par analogie avec le principe de la loterie géante. Le schéma de travail d’un réseau neuronal profond consisterait à acheter tous les billets pour s’assurer de tomber sur les gagnants. L’hypothèse faite avec les réseaux de neurones plus petits consiste à n’acheter que les tickets gagnants. Tout le travail repose donc sur la capacité de l’intelligence artificielle à pouvoir trier les parties utiles des parties inutiles d’un réseau neuronal et de ne garder que celles utiles. Si ces chercheurs parviennent à réaliser ces sous-réseaux, c'est toute l’intelligence artificielle qui pourrait s'en trouver révolutionnée... Article rédigé par Georges Simmonds pour RT Flash MIT | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Cette percée réalisée par des équipes des universités de Münster (Allemagne), d'Oxford et d'Exeter (Royaume-Uni) ouvre la voie à la création d'ordinateurs dont le fonctionnement ressemblera à celui du cerveau humain. Ce réseau synthétique, qui imite les neurones et les synapses, est capable d'« apprendre » l'information et de l'utiliser comme base de calcul. Dans leurs travaux, les chercheurs affirment avoir réussi pour la première fois à fusionner certains matériaux nanostructurés en un seul réseau neurosynaptique. Ils ont ainsi développé une puce de quatre neurones artificiels et de 60 synapses. La structure de cette puce composée de différentes couches est basée sur une technologie appelée multiplexage en longueur d'onde, qui permet à la lumière de voyager rapidement dans différents canaux à l'intérieur du nanocircuit optique. Actuellement, l'intelligence artificielle connaît un essor important : nos téléphones portables peuvent reconnaître des visages ou des langues, et certains algorithmes sont aujourd'hui capables de détecter des tumeurs cancéreuses sur des images avec beaucoup de précision. Avec l’arrivée d’applications toujours plus complexes, cependant, les ordinateurs se heurtent à leurs propres limites. Le Professeur Wolfram Pernice de l’Université Münster et ses collègues expliquent qu’un ordinateur possède traditionnellement des unités de mémoire et des processeurs qui travaillent séparément, ce qui a pour conséquence que toutes les données doivent continuellement être redirigées dans les deux sens. À cet égard, le cerveau humain possède une longueur d'avance sur les ordinateurs, car il traite et entrepose l'information au même endroit dans les synapses, ces connexions entre les neurones du cerveau. Il faut savoir que notre cerveau ne compte pas moins de 86 milliards de neurones et des centaines de milliards de synapses. L’équipe européenne explique que son réseau optique neurosynaptique imite le comportement des neurones et de leurs synapses. En outre, comme ce système fonctionne uniquement avec de la lumière et non avec des électrons traditionnels, il peut traiter les données beaucoup plus rapidement. Les chercheurs doivent maintenant réussir à augmenter le nombre de neurones et de synapses artificiels pour créer des réseaux neuronaux plus profonds. Cette étape essentielle vers la création de cerveaux synthétiques pourrait prendre encore quelques années. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | ^ Haut | |
|
| | | Des chercheurs américains affirment avoir développé une matière plastique facilement recyclable. Dans une étude publiée dans Nature, les scientifiques du laboratoire national Lawrence-Berkeley (États-Unis) assurent que leur matériau, baptisé polydiketoenamine (PDK), conserve l’ensemble de ses qualités même après un grand nombre de recyclages. Les spécialistes sont partis du constat que « la plupart des plastiques n’ont pas été conçus pour être recyclés », explique Peter Christensen, responsable de cette étude. « Mais nous avons découvert une nouvelle façon d’assembler les plastiques qui prend en compte le recyclage d’un point de vue moléculaire », ajoute-t-il. Lorsque le PDK est trempé dans l’acide, il se sépare de ses monomères, ces substances constituées de molécules simples. Les monomères peuvent alors être utilisés à l’infini pour fabriquer de nouveaux objets. Grâce à des manipulations comparables à l’assemblage de Lego, ces éléments donnent la possibilité d’être associés, désolidarisés puis emboîtés de nouveau à de très nombreuses reprises. « Les liaisons immuables des plastiques conventionnels sont remplacées par des liaisons réversibles qui permettent au plastique d’être recyclé plus efficacement », résume Brett Helms, coauteur de l’étude. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Épandre les boues d’épuration directement sous forme d’engrais est interdit en Suisse depuis une douzaine d’années en raison de la quantité croissante de polluants qui s’y trouvent. Les milliers de tonnes annuelles de phosphore qu’elles contiennent partent donc en fumée lors de l’incinération des boues, faute de technologie ad hoc pour le recyclage de ce composé chimique essentiel à de nombreux processus biologiques, dont la photosynthèse. Un dispositif, mis au point au Laboratoire des processus durables et catalytiques de l’EPFL, et développé par la spin-off TreaTech, permet de récupérer ce phosphore dont le marché est estimé à plus de 33 milliards de francs. Il permet également, grâce à un autre procédé, appelé gazéification hydrothermale et imaginé au Paul Scherrer Institut, de produire du biogaz. Le fluide brunâtre contient encore 95 % d’eau. En raison des coûts liés au transport, il est actuellement en partie déshydraté sur place aux dépens de fortes dépenses énergétiques. La matière sèche qui en résulte sera incinérée ailleurs. « Notre système pourrait récupérer la boue dès la sortie de la STEP, sans traitement préalable », note Frédéric Juillard, CEO de la start-tup. Dans le séparateur de minéraux elle sera soumise à une pression et une température élevées (>22.1 MPa et 400 degrés) qui a pour objectif de le faire entrer dans un état « supercritique », c’est-à-dire entre le liquide et le gaz. Ses nouvelles propriétés précipitent les sels grâce à une soudaine chute de la solubilité. Ce procédé a été optimisé afin que le phosphore ainsi que d’autres sels minéraux, se cristallisent et puissent facilement être recueillis. « Il permet un taux de récupération du phosphore supérieur à 90 % », précise le CEO. Ces sels sont ensuite séparés du flux principal en tant que résidus solides. Pour assurer une valorisation de ces boues, certaines stations d’épuration sont d’ores et déjà équipées d’un système de production de biogaz. « Mais avec les biodigesteurs utilisés actuellement, seuls 40 à 50 % de la matière organique peuvent être convertis en biogaz », souligne Gaël Peng, cofondateur et CTO. Le digestat qui en résulte est ensuite déshydraté puis transporté afin d’être incinéré. Les coûts énergétiques et économiques sont donc importants. « La gestion des boues d’une STEP représentent actuellement près de 40 % des coûts opérationnels totaux », poursuit-il. Afin de maximiser le recyclage tout en optimisant le rendement, Frédéric Juillard a donc cherché durant plusieurs mois une technologie permettant d’inclure la production de biogaz à son système. Après avoir passé en revue des recherches du monde entier, il a fini par dénicher la perle rare à moins de 200 kilomètres de l’EPFL : au Paul Scherrer Institut. Un autre réacteur, doté de ruthénium en guise de catalyseur, va convertir près de 100 % de la matière organique en biogaz qui pourra être utilisé pour produire de la chaleur ou de l’électricité, voire utilisé comme biocarburant. L’eau, récoltée en fin de traitement, ne contient plus de composés nocifs et pourra être réinjectée dans le réseau. Finalement, la technologie utilisée permet également un précieux gain de temps puisque vingt minutes suffisent à la transformation alors que les biodigesteurs actuellement utilisés ont besoin d’une trentaine de jours pour assurer la conversion. Cette rapidité engendre de plus un important gain de place et ne laisse aucun déchet. Forte d’excellents résultats obtenus avec son premier prototype, la start-up, soutenue par l’Office fédéral de l’énergie et le Paul Scherrer Institut, construit actuellement un système à grande échelle et prévoit la première installation dans une station d’épuration en 2022. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | L’Institut d’océanographie Scripps, situé à La Jolla en Californie, a annoncé le 11 mai 2019 que la quantité de CO2 dans l’atmosphère avait atteint 415,26 parties par million (ppm). Un nouveau record bien triste qui n’avait jamais été atteint de toute l’histoire de l’humanité, malgré la chute de 39 % recensée au Royaume-Uni en ce début d’année sur les 25 dernières années. Le météorologue Eric Holthaus a déclaré sur Twitter que c’était la première fois que ce seuil de 415 ppm était dépassé de toute l’histoire de l’humanité. Il ne s’agit pas seulement du niveau le plus élevé dans les enregistrements : c’est le plus important seuil atteint depuis l’existence des « humains modernes », souligne-t-il. Ce chiffre est plus qu’effrayant et ce malgré nos nombreux efforts mis en oeuvre suite à cette prise de conscience. À titre d’exemple, une gigantesque centrale est en cours de construction par Carbon Engineering, et serait capable d’absorber le CO2, soit autant que plusieurs millions d’arbres. Reste à savoir si cela suffira pour faire diminuer les émissions de CO2 dans le monde. Ces mesures ont été prises par les capteurs de l’observatoire de Mauna Loa (MLO), situé à Hawaï, et utilisé depuis 1958 pour mesurer la concentration de dioxyde de carbone dans l’atmosphère terrestre. L’observatoire fait partie de la National Oceanic and Atmospheric Administration (NOAA), qui indique que « l’augmentation des gaz à effet de serre a déséquilibré le budget énergétique de la Terre, piégeant de la chaleur supplémentaire et élevant la température moyenne de la Terre ». La proportion croissante de dioxyde de carbone dans l’atmosphère est importante en raison de ses propriétés d’absorption de la chaleur : la terre et la mer absorbent de la chaleur et cette dernière est emprisonnée dans des molécules de dioxyde de carbone. Il faut savoir qu’à partir de 1000 ppm, la chaleur de l’atmosphère augmente, ainsi que les risques pour notre santé tels que les maladies respiratoires ou cardio-vasculaires. La pollution de l’air peut également engendrer du diabète, notamment chez les enfants. Une étude de Jennifer Kim, leader de la recherche : « les premières années d’un enfant sont très importantes pour le développement de divers systèmes corporels qui stimuleront par la suite la croissance du corps » a démontré que le dioxyde de carbone émis par les moteurs diesel pouvait accentuer la prise de poids bien plus rapidement durant l’enfance. L’Organisation météorologique mondiale (OMM) a indiqué qu’en 2010 le taux de CO2 était de 390 ppm contre 280 ppm en 1750. Ce changement serait à l’origine d’une hausse de la température moyenne globale de 0,74°C entre 1906 et 2010. L’OMM affirme que si aucune mesure n’est mise en place, les températures augmenteront de 2° à 6°C avant la fin du 21ème siècle. Selon TechCrunch, ce record de concentration de CO2 dans l’atmosphère a été atteint peu de temps après la publication par l’ONU d’un rapport sur les espèces animales et végétales menacées d’extinction. Vous n’êtes pas sans savoir que le réchauffement a aussi un impact sur la biodiversité dans son ensemble. A ce jour, de nombreuses espèces sont en voie de disparition, imaginez ce que ce serait si les affirmations de l’OMM s’avèreraient vraies. De nombreuses solutions sont mises en place pour lutter contre le réchauffement climatique tel que l’arbre BioUrban 2.0 qui peut générer autant d’oxygène que 368 arbres. D’après l’Organisation mondiale de la santé, ce sont près de 7 millions de personnes qui meurent chaque année à cause la pollution de l’air. Article rédigé par Georges Simmonds pour RT Flash Scripps | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Selon une vaste méta-analyse dirigée par Youngyo Kim (Université de Séoul) et Edward Giovannucci (Ecole médicale d'Harvard) et intégrant plus de quarante études et portant sur 3 852 651 participants, une consommation modérée de café _ pas plus de 5 tasses par jour _ pourrait augmenter l'espérance de vie jusqu'à deux ans. En 2017 déjà, le British Medical Journal révélait que boire trois à quatre tasses de café par jour réduisait les risques de maladies cardiovasculaires. Cela prenait en compte également les risques moindres de cancers, de diabète ou encore de maladie du foie. En revanche, les gros buveurs de café s'exposent à des problèmes de santé et leurs risques de maladie cardiaque peuvent augmenter de 22 %, notamment à cause de l'augmentation de la pression sanguine. Le secret est donc de boire du café avec modération. Cette boisson chaude peut en effet avoir des bienfaits sur notre santé à condition de ne pas en abuser. Article rédigé par Georges Simmonds pour RT Flash EJE | | | |
| C’est une première en France dans le domaine de la transplantation cardiaque. Les équipes de l’Institut Cœur Poumon du CHU de Lille (Nord) innovent à nouveau avec l’utilisation d’un « cœur isolé perfusé » (Organ Care System) pour transporter un cœur sur une longue distance, avant de le greffer sur un patient lillois. Un second patient a bénéficié de cette même technique en mai 2019. Cette innovation assure une meilleure conservation du cœur greffé, et permet de prélever un nouveau type de donneur dit « à cœur arrêté », ouvrant la voie à une possible augmentation du nombre de greffes cardiaques réussies, assure-t-on du côté de l’hôpital. Cette technique est déjà utilisée dans des pays géographiquement étendus comme les États-Unis, l’Australie ou le Kazakhstan. Car concrètement, l’Organ Care System permet de sécuriser le cœur greffé durant un long transport. L’innovation de l’Organ Care System réside dans l’action de perfuser en sang oxygéné le cœur battant du donneur avant la transplantation, et ce durant tout le temps de transport. C’est une alternative à la technique habituelle qui consiste à conserver le cœur en arrêt dans de la glace. « Ce dispositif permet donc de maintenir le cœur dans des conditions de température et d’oxygénation proche des conditions les plus physiologiques », explique encore l’équipe de l’hôpital. Autre avantage du dispositif : l’équipe de prélèvement d’organe a la possibilité d’évaluer la qualité du cœur tout au long du transport. Ainsi, arrivé à Lille, le cœur a pu être utilisé pour la transplantation en toute sécurité après une dernière évaluation et l’opération a pu être réalisée sans la précipitation liée à la contrainte de temps. « Les patients ont ainsi pu bénéficier de suites opératoires simples, et se portent bien ». « Nous avons eu la chance d’accéder à ce dispositif, qui représente une véritable révolution pour le transport des greffons cardiaques. Nous avions été formés à l’utilisation de cette machine, néanmoins le transport de ce cœur battant et la simplicité des suites opératoires pour le patient receveur, ont rendu cet acte émouvant pour toute l’équipe », souffle le docteur Valentin Loobuyck, chef de clinique-assistant en chirurgie cardiaque. L’utilisation de l’Organ Car System ouvre la voie à une possible augmentation du nombre de greffes cardiaques réussies. En effet, la durée de conservation du cœur, en dehors de l’organisme, était jusqu’à présent un facteur de risque d’échec de la transplantation. Avec cette technique, la durée du transport n’a plus le même niveau de risque, et la limite théorique des 4 heures de transport dans la glace se trouve prolongée au-delà de 6 heures. Cette technique permettrait également dans un futur proche de prélever des donneurs dits « à cœur arrêté », augmentant ainsi le nombre de donneurs potentiels comme cela est déjà réalisé dans d’autres pays (Angleterre, Australie et bientôt aux Etats-unis). Article rédigé par Georges Simmonds pour RT Flash Actus | | | |
| L'entreprise espagnole Plain Concepts était présente à la conférence Microsoft Build 2019, qui s'est tenue du 6 au 8 mai, pour parler de ses projets en matière d'intelligence artificielle et de réalité augmentée. Elle y présentait notamment un cas d'usage développé pour Osakidetza, l'institution en charge du système de santé publique de la communauté autonome du Pays basque espagnol. Il s'agit d'une application de réalité augmentée conçue pour aider à la planification des biopsies percutanées pour les lésions pulmonaires. Ces dernières sont moins invasives et plus rapides à effectuer que les biopsies chirurgicales (qui nécessitent d'ouvrir le patient), mais sont aussi moins précises et peuvent requérir plusieurs passages pour récupérer un échantillon adéquat. En effet, le chirurgien se base sur un scanner réalisé avant l'opération mais n'a pas de vision directe de ce qu'il fait lors du prélèvement. Il faut donc vérifier par scanner que l'échantillon a été prélevé dans la bonne zone et, si ce n'est pas le cas, recommencer la procédure. Vient s'ajouter à cela le fait que le patient n'est pas endormi pendant l'opération et qu'il doit retenir son souffle à chaque prélèvement. « L'objectif de ce projet est avant tout d'augmenter le confort du patient », explique Ingrid Babel, General Manager de Plain Concepts aux Etats-Unis. L'application développée par Plain Concepts réduit le nombre de passages nécessaires en permettant au chirurgien de visualiser les images du scanner directement sur le patient avant l'opération. Il utilise pour ce faire un casque HoloLens qui se connecte au système d'archivage et de transmission d'images (PACS) de l'hôpital. L'application récupère les images au format DICOM et forme une image 3D. Cela permet au chirurgien de voir les différentes couches du scan et d'y naviguer librement sur deux angles en simultané. En matière de fluidité, on est entre 30 et 40 images par seconde. A noter que différents types de scans sont possibles : os, organes, système vasculaire... Le chirurgien peut changer les visuels par commande vocale et déplacer ou faire tourner l'image par des gestes. Une fois qu'il sait ce qu'il veut faire, il peut tracer le chemin que doit suivre l’aiguille : point d’entrée puis angle à suivre dans le corps et zones à éviter. Une fois ces éléments définis, l'image est superposée au patient. Quatre ou cinq autocollants sont préalablement appliqués sur le patient et la table d'opération pour permettre au casque de parfaitement caler l'image sur son anatomie. Le chirurgien visualise sa trajectoire à suivre, puis enlève le HoloLens et réalise l'opération. « Le chirurgien n'opère pas avec le casque sur la tête car l'idée n'est pas qu'il suive le tracé sans réfléchir, son expérience et son ressenti priment sur le reste. Mais cela lui permet de mieux planifier ce qu'il va faire », commente Ingrid Babel. La vérification après le prélèvement est également facilitée, puisque le chirurgien n'a qu'à remettre le casque pour vérifier qu'il a bien touché la bonne zone. L'application est actuellement utilisée pour la formation des étudiants, et des essais cliniques sont en court après une preuve de concept réussie pour son déploiement en production lors des interventions. Si les essais sont validés, un premier établissement devrait en être équipé dans les prochains mois. La sortie d'HoloLens 2, qui est plus confortable à porter et dispose d'un plus grand champ de vision, pourrait accélérer les choses. Article rédigé par Georges Simmonds pour RT Flash L'Usine Digitale | | | |
| Certains malades atteints d'un cancer du poumon doivent subir l’ablation d’un lobe du poumon par thoracotomie, opération chirurgicale usuelle, mais risquée, qui nécessite des mois de récupération. Une technique chirurgicale moins invasive et plus sûre existe pourtant et pourrait être généralisée. Dans une vaste étude clinique internationale présentée au 99e congrès de l’American Association for Thoracic Surgery, l’équipe du Docteur Moishe Liberman, chirurgien thoracique et chercheur au Centre de recherche du Centre hospitalier de l’Université de Montréal (CRCHUM), démontre que la lobectomie par thoracoscopie ‒ une chirurgie thoracique assistée par vidéo (CTAV) ‒ combinée avec le scellement de l’artère pulmonaire par ultrasons diminue les risques d’hémorragie, les complications et les douleurs postopératoires. À la différence d’une chirurgie par thoracotomie, où le thorax du patient est incisé sur 25 centimètres et les côtes cassées, la CTAV ne requiert que de petites incisions. La minicaméra vidéo est introduite par l’une des incisions. Dans les deux types d’interventions chirurgicales, il y a des risques d’hémorragie, car les branches des artères pulmonaires sont très minces et fragiles. « Grâce à cet essai clinique mené dans des hôpitaux canadiens, américains et britanniques, nous montrons qu’il est tout à fait possible de sceller en toute sécurité des vaisseaux sanguins de moins de sept millimètres par ultrasons et de maîtriser efficacement d’éventuelles hémorragies au cours d’une CTAV », explique le Docteur Liberman, professeur agrégé de chirurgie à l’Université de Montréal. Actuellement, seuls 15 % des lobectomies effectuées dans le monde le sont par CTAV, notamment en raison des risques hémorragiques réels ou perçus par les chirurgiens. « J’espère vraiment que notre démonstration clinique rassurera les chirurgiens sur la faisabilité technique de cette opération et les incitera à l’adopter. Un grand nombre de patients pourraient en profiter et seraient plus vite sur pied », indique le Docteur Liberman. Après cinq ans de recherches précliniques au CRCHUM, d’essais sur les animaux et d’essais cliniques de phase 1 et 2 établissant la sécurité de l’intervention chirurgicale, l’équipe du Docteur Liberman conclut son important essai clinique de phase 2 lancé en 2016. Elle a pu évaluer l’efficacité de sa nouvelle technique auprès de 150 patients répartis dans huit hôpitaux du Canada, des États-Unis et du Royaume-Uni : 139 d’entre eux ont subi une lobectomie et les 11 autres une segmentectomie (ablation d’une petite partie du poumon). Un total de 424 branches d’artères pulmonaires ont été scellées durant l’étude : 181 avec des agrafeuses chirurgicales, 4 avec des clips endoscopiques et 239 grâce au pistolet HARMONIC ACE® +7 Shears, conçu par l’entreprise Ethicon (Johnson & Johnson). Doté d’une petite pince de trois millimètres de large à son extrémité, ce « pistolet » de haute technologie permet de sceller les vaisseaux sanguins en envoyant des ultrasons par échographie. Article rédigé par Georges Simmonds pour RT Flash Université de Montréal | | | |
| Une thérapie associant la stimulation sensorielle, à la fois auditive et visuelle, peut-elle être efficace contre la maladie d’Alzheimer ? Il faut d’abord savoir que chez les patients souffrant d’Alzheimer, les ondes gamma du cerveau sont altérées. Ces ondes reflètent la synchronisation de l’activité de certains neurones dans une bande de fréquence comprise entre 30 et 80 hertz. Elles semblent essentielles pour l’attention, la perception, la mémoire… D’où l’idée des chercheurs : quels seraient les effets, chez des souris prédisposées à développer la maladie, d’une stimulation sensorielle dans cette bande de fréquence ? Par exemple, une lumière intermittente de 40 hertz – comme la lumière stroboscopique d’une discothèque ? A cette stimulation visuelle, ils ont ensuite couplé une stimulation sonore de même fréquence. Résultats : chez les souris, « lorsque nous avons combiné ces stimulations visuelle et auditive, à raison d’une heure par jour durant une semaine, nous avons observé une réduction spectaculaire du nombre de plaques amyloïdes [un des deux types de lésions du cerveau, caractéristiques de la maladie d’Alzheimer] », résume Li-Huei Tsai, du Massachusetts Institute of Technology (MIT). Ces travaux montrent également que les troubles de la cognition et de la mémoire des rongeurs se sont améliorés. Cette stratégie « a un potentiel thérapeutique énorme dans les maladies du cerveau liées à une inflammation », estime Nancy Kopell, de l’Université de Boston, qui n’a pas participé à ces travaux. Cette nouvelle thérapie agirait en mobilisant des cellules immunitaires propres au cerveau, nommées microglies. Elles peuvent détecter, détruire et digérer les envahisseurs (microbes), voire favoriser la cicatrisation après une lésion. Chez les souris traitées, « les cellules de la microglie s’empilent les unes sur les autres autour des plaques, c’est impressionnant », observe Li-Huei Tsai. Dans ces cellules, les gènes de l’inflammation sont inactivés. Comme si ce traitement permettait à la microglie de mieux combattre l’inflammation, en se gavant des signaux qui déclenchent la formation des lésions. La microglie participe aussi au remodelage des synapses, ces connexions qui permettent aux neurones de se mettre en réseau. Quelles ont été les conséquences cognitives ? Les souris réussissaient bien mieux à retrouver leur chemin dans un labyrinthe et reconnaissaient mieux des objets déjà rencontrés. Etonnamment, ce traitement améliorait aussi les performances de souris âgées non prédisposées à l’Alzheimer – mais pas celles de jeunes souris en bonne santé. En revanche, si les chercheurs attendaient une semaine, après le traitement, pour tester les animaux, ils ne voyaient plus d’amélioration – ce qui suggère que le traitement devrait être maintenu. « La méthodologie de ces recherches est convaincante. Et les résultats sont très étonnants », reconnaît Alain Bessis, directeur de recherche au CNRS et professeur attaché à l’ENS (Paris). « L’équipe est tout à fait crédible et ces résultats aussi ». Reste à présent à reproduire ces bons résultats chez l'homme, ce qui suppose de nouvelles études cliniques sur encore plusieurs années. Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| Une étude réalisée par l'équipe de Catherine Handy Marshall- médecin et professeure à la Johns Hopkins School of Medicine (Baltimore, Etats-Unis), et portant sur 49.143 adultes âgés de 40 à 70 ans pendant plus de sept ans, a montré l'effet très protecteur du sport en matière de cancer. L'objectif était d'en savoir plus sur la relation entre la forme physique et les risques liés au cancer du poumon et au cancer colorectal. L'incidence du cancer a été obtenue en établissant un lien avec le registre du cancer et la mortalité (toutes causes confondues) de l'Indice national de mortalité. Chez les personnes en bonne condition physique, les risques de développer un cancer du poumon et un cancer colorectal ont respectivement diminué de 77 % et de 61 %. Parmi les participants qui ont développé un cancer du poumon, ceux qui avaient la meilleure forme physique présentaient un risque de décès réduit de 44 % au cours du suivi. Les patients atteints de cancer colorectal ont quant à eux bénéficié d'une réduction de risque de mortalité de 89 % grâce à l'exercice physique. « Les tests à l'effort sont couramment effectués par de nombreux patients en collaboration avec leur médecin. Beaucoup de gens pourraient peut-être déjà avoir ces résultats et être informés de l'association entre la forme physique et le risque de cancer, en plus de l'impact de la condition physique pour d'autres affections, telles que les maladies cardiaque » , estime la Docteure Handy Marshall, qui souligne la nécessité d'approfondir les recherches afin de déterminer si l'amélioration de la condition physique peut influencer les taux de risque et de mortalité du cancer. Article rédigé par Georges Simmonds pour RT Flash Quint | | | |
| Une analyse de 51 essais précoces en cancérologie, réalisée par le Professeur Christophe Le Tourneau et son équipe, a permis de montrer que les toxicités graves sont surévaluées de près de 30 %, et que les toxicités moins graves sont surévaluées de près de 65 %. Cela signifie que les doses recommandées des médicaments sont très probablement souvent sous-estimées, ce qui peut conduire, pour un certain nombre de nouvelles molécules, à commercialiser des doses trop faibles et donc potentiellement moins efficaces. Ces résultats ont été publiés dans le très prestigieux journal The New England Journal of Médicine du 8 mai 2019. « Le développement de nouveaux médicaments passe par plusieurs étapes avant d’être commercialisés. Une des étapes les plus importantes est la première administration chez des patients, ce que l’on appelle les essais de phase I “first-in-human”, explique le Professeur Christophe le Tourneau, chef du D3i (Département d’Essais Cliniques Précoces). Au cours des essais de phase I “first-in-human”, la dose du nouveau médicament va être augmentée de façon progressive afin de déterminer quelle est la dose à retenir pour le futur médicament. Un des aspects les plus importants est le profil de toxicité du médicament. En effet, les seules données disponibles avant de démarrer ces essais sont les données de toxicité chez l’animal. Or, ces derniers ne sont pas des modèles parfaits de ce qui peut survenir chez l’homme. On ne peut donc faire autrement que de démarrer chez les patients avec une faible dose puis d’augmenter progressivement cette dernière. Tout au long de ce processus, il faudra être très vigilant quant aux symptômes et anomalies biologiques que les patients peuvent développer, car ils peuvent (ou pas) correspondre à des toxicités induites par le médicament administré. Ces essais nécessitent donc d’être réalisés dans des structures et par des équipes expertes qui doivent obtenir une autorisation de la Haute Autorité de Santé, ce qui est le cas de l’Unité d’Investigation Clinique du Département d’Essais Cliniques Précoces (D3i) dirigée par Professeur Christophe Le Tourneau. Les choses sont d’autant plus compliquées en cancérologie, car les essais de phase I “first-in-hum an” se font chez des personnes atteintes de cancer (ce qui n’est pas le cas dans les autres domaines de la médecine) et qui peuvent avoir des symptômes ou anomalies biologiques. Les symptômes ou anomalies développés par les patients au cours de ces essais de nouveaux médicaments ne sont donc pas nécessairement liés au médicament, mais peuvent être dus à la maladie elle-même ou à d’autres médicaments pris en parallèle, pour soulager les douleurs par exemple. “Il s’agit donc de déterminer avec précision ce que l’on appelle l’imputabilité des symptômes ou anomalies biologiques afin de déterminer s’ils sont liés ou non au médicament à l’étude. Cette évaluation réalisée au quotidien par les médecins du D3i à l’Institut Curie est cruciale. En effet, toute erreur de jugement peut avoir des conséquences graves”, précise le Professeur Le Tourneau. En effet, affirmer que des symptômes ou anomalies biologiques sont liés à la maladie alors qu’ils sont liés au médicament peut conduire à continuer d’augmenter la dose du médicament alors qu’elle est en réalité toxique. À l’inverse, affirmer que des symptômes ou anomalies biologiques sont liés au médicament alors qu’ils sont liés à la maladie peut conduire à recommander une dose sous-optimale du médicament potentiellement moins efficace qu’une dose que l’on aurait pu augmenter. Le Professeur Christophe Le Tourneau a souhaité évaluer dans quelle mesure des erreurs d’imputabilité étaient réalisées. Pour cela, il a repris avec son équipe tous les essais de cancérologie qui ont comparé un nouveau médicament avec un placebo seul (ce qui est éthiquement acceptable s’il n’existe plus d’alternative chez ces patients). Dans les 51 essais analysés, ils ont relevé les toxicités rapportées dans les publications dans les deux bras de traitement (médicament et placebo). Dans ces essais, ni le patient ni le médecin ne savaient si le patient recevait le médicament actif ou le placebo. Ainsi, évaluer les toxicités rapportées dans le bras placebo a permis d’évaluer les erreurs d’imputabilité, puisqu’en théorie les placebos ne sont pas toxiques. Ils en ont conclu que toutes les toxicités sont surévaluées : les toxicités graves sont surévaluées de près de 30 %, les toxicités peu graves sont surévaluées de près de 65 %. Cela signifie que les doses recommandées des médicaments sont très probablement souvent sous-estimées, ce qui peut conduire, pour un certain nombre de médicaments, à commercialiser des médicaments à des doses trop faibles et donc potentiellement moins efficaces. Article rédigé par Georges Simmonds pour RT Flash Caducée | | | |
| Selon les résultats de l’étude de phase 3 PREVENT, le traitement par l’anticorps monoclonal éculizumab réduit très significativement le risque de rechute chez des patients atteints de neuromyélite optique positive à l’aquaporine-4. Près de 98 % des patients traités avec ce médicament, le premier de sa classe, n’avaient pas rechuté à 48 semaines. Ces résultats ont été présentés lors de la réunion annuelle de l'American Academy of Neurology (AAN 2019) à Philadelphie. Pour Sean J Pittock (Mayo Clinic, Rochester), premier auteur de l’étude, ces résultats sont très importants car ils montrent que l'on peut empêcher les attaques qui sont à l’origine du handicap dans cette maladie. C’est aussi la première fois qu’un essai randomisé montre aussi clairement l’efficacité d’un médicament dans cette pathologie. Les résultats à 48 et 144 semaines ont été rapportés, faisant état de respectivement 98 % et 96 % des patients sans rechute dans le bras éculizumab versus 63 % et 4 5% dans le bras placebo. La meilleure prévention des rechutes avec l'éculizumab est retrouvée à la fois chez les quelque 25 % de sujets traités par monothérapie et chez ceux recevant également des agents immunosuppresseurs. Le taux annualisé de rechute pendant la durée de l'essai (principal critère secondaire) est également significativement moindre avec l'éculizumab (0,02 versus 0,35 avec le placebo). Alors que les patients du bras éculizumab ont passé plus de trois fois plus de temps sous traitement que ceux du bras placebo, les taux d'événements indésirables par patients-année étaient moindres dans le bras éculizumab que dans le bras placebo. Selon le Docteur Natalia Rost, neurologue au Massachusetts General Hospital à Boston et présidente du comité scientifique de l’ANN, il s'agit d'un « magnifique exemple de médecine de précision » issu d'un cheminement intellectuel partant de la découverte d'une cible potentielle, passant par la compréhension de la nature immunologique de l'affection, l'identification d'un nouveau mécanisme physiopathologique et aboutissant à la mise au point d'une médicament agissant précisément sur ce mécanisme, ce qui en substance stoppe les ravages de la maladie. Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| Une étude de cohorte finlandaise a montré un lien clair entre les infections bucco-dentaires de l’enfant et l’importance de l’athérosclérose carotidienne à l’âge adulte. Ici, le fait de présenter des signes d'infections buccales, comme des caries et des saignements gingivaux, dans l’enfance, est significativement associée de manière significative à l’épaisseur de l'intima-média (IMT) carotidienne mesurée plus de 27 ans plus tard. Si le lien entre maladies parodontales et pathologies vasculaires est connu, « l’observation d’un tel lien est nouvelle car il n’y avait jamais eu d’études de suivi à la recherche d’un lien entre infections orales de l’enfance et risque de maladies cardiovasculaires » a commenté Pirkko Pussinen (Université d’Helsinki). En 1980, au démarrage de la cohorte, 755 participants, dont 51% de femmes, ont bénéficié d’un examen bucco-dentaire à l'âge de 6, 9 ou 12 ans (moyenne : 8 ans). Le suivi s’est terminé en 2007. Les participants étaient alors âgés de 33, 36, et 39 ans et ont eu une mesure de l’intima-média par doppler, rapportent Pussinen et ses collègues. Au cours de ce suivi de 27ans, les facteurs de risque cardiovasculaires ont été mesurés à différentes périodes. Et une exposition cumulée à ces facteurs de risque a été calculée dans l’enfance et à l’âge adulte. Les signes d’infection et d’inflammation buccales se sont appuyées sur 4 critères : l’évaluation du saignement (perte d’attache de la dent), de la profondeur des poches parodontales, des caries dentaires et des plombages dentaires. Lors de l’évaluation initiale, 5,6% des enfants participant à la cohorte présentaient l’un des quatre marqueurs d’infection buccale, 17,4 % en avaient deux, 38,3 % en avaient trois et 34,1 % présentaient les quatre signes. Seuls 4,5 % des enfants étaient exempts de signes d’infection ou d’inflammation. Il n'y avait pas de différence significative entre les garçons et les filles. La plupart des enfants (688 [91,2 %]) ont dit se brosser les dents quotidiennement, à l’exception d’un petit pourcentage de garçons et de filles (12,2 % vs 5,6 %; P < 0,001). La pression artérielle systolique et diastolique, de même que les valeurs d’IMC, différaient significativement entre les groupes : les participants qui ne présentaient pas de signes d’infections orales ont eu les valeurs les plus basses pendant tout le suivi. Les mêmes tendances ont été observées pour le cholestérol HDL et les concentrations plasmatiques en glucose : ceux qui n’avaient aucun signe d’infection bucco-dentaire présentaient globalement les taux de cholestérol HDL les plus élevés et les concentrations en glucose les plus basses. Les marqueurs de risque cardiovasculaire (pressions systoliques et diastoliques, IMC, glycémie, triglycérides, cholestérol LDL et HDL) ont été évalués à cinq reprises. Il apparaît que le nombre moyen de facteurs de risque augmente avec le nombre d’infections orales à l’âge adulte, passant de 4,9 en l’absence de signes bucco-dentaires à 6,1 pour quatre signes (p = 0,04). La relation est encore plus marquée quand on prend en compte les infections dans l’enfance. Le nombre moyen de facteurs de risque passe de 5,31 en l’absence de signes bucco-dentaires à 7,2 quand les quatre critères sont présents. L’étude de cohorte finlandaise montre donc un lien entre les infections bucco-dentaires de l’enfance et l’importance de l’athérosclérose carotidienne à l’âge adulte. Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| Tout au long de l’évolution, le génome de la plupart des êtres vivants s’est complexifié grâce aux éléments transposables ou « gènes sauteurs », des fragments d’ADN capables de se déplacer ou de se copier d’un endroit à un autre sur les chromosomes. Des chercheurs de l’Inserm, du CNRS, d’Université Côte d’Azur et de l’Université de Montpellier ont pu capturer ces « gènes sauteurs » juste après leur déplacement et ont croisé leurs observations avec des bases de données déjà existantes. Leurs travaux montrent que l’intégration des « gènes sauteurs » chez l’humain ne se ferait pas au hasard mais serait influencée par certaines propriétés du génome. Ces résultats ouvrent ain si de nouvelles perspectives dans l’interprétation des données de séquençage de génome entier. Les éléments transposables, aussi appelés « gènes sauteurs », sont de petits fragments d’ADN capables de se multiplier et de se déplacer dans les chromosomes de la plupart des organismes vivants. Cette prolifération a été tellement intense chez les mammifères et les primates qu’ils constituent plus de la moitié de nos chromosomes ! Bien sûr, ils ne sautent pas tous en même temps, dans toutes nos cellules. Parmi toutes les copies présentes dans notre ADN, seule une petite fraction est toujours active. Toutes les autres sont des vestiges moléculaires qui reflètent des millions d’années d’évolution au cours desquelles les insertions néfastes ont été éliminées et celles bénéfiques conservées. Chez l’humain, les gènes sauteurs les plus actifs sont les rétrotransposons L1. En sautant, ils peuvent altérer ou détruire des gènes et provoquer l’apparition de maladies génétiques comme des hémophilies ou des dystrophies musculaires. Les rétrotransposons L1 sont aussi particulièrement actifs dans certaines formes de cancers et pourraient être impliqués dans le vieillissement cellulaire ou dans certaines maladies mentales. Les rétrotransposons L1 ciblent-ils des régions chromosomiques spécifiques ou s’insèrent-ils au hasard ? Les équipes de Gaël Cristofari et Simona Saccani, directeurs de recherche à l’Inserm au sein de l’Institut de recherche sur le cancer et le vieillissement de Nice – Ircan (Inserm, CNRS, Université Côte d’Azur), et leurs collaborateurs à l’Université de Montpellier, sont parvenus, grâce à une technique de séquençage du génome dite « à haut débit », à capturer ces gènes sauteurs en pleine action juste après qu’ils aient sauté à une nouvelle position. En croisant leurs observations avec des banques de données génomiques et épigénomiques, les chercheurs ont identifié les caractéristiques du génome qui influencent l’intégration des rétrotransposons L1, la plus notable étant la réplication de l’ADN, ainsi que le rôle prépondérant des phénomènes de sélection naturelle après intégration. « Jusqu’à présent, on savait que les rétrotransposons L1 ont tendance à s’accumuler dans certaines régions de nos chromosomes, notamment l’hétérochromatine. Mais on ne savait pas si cela reflète une attraction particulière pour ces régions, ou s’ils sont uniquement tolérés dans ces régions et éliminés ailleurs par sélection naturelle. Lorsqu’on sait où ils sautent et les copies qui sont conservées au cours de l’évolution, on peut découvrir – en négatif – les régions où ils peuvent faire des dommages », explique Gaël Cristofari. Ces résultats permettent de mieux comprendre comment les gènes sauteurs peuvent provoquer des mutations chez l’humain et contribuent à l’évolution de notre patrimoine génétique. Ils pourront être utiles à l’avenir pour interpréter les données de séquençage de génome entier, notamment en médecine personnalisée ou dans les grands programmes de séquençage. Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Les autoroutes du futur pourraient ressembler à d’immenses lignes de tramway. C’est en tout cas ce que laissent présager les premiers tests réalisés par l’Allemagne, à ce sujet. En effet, des autoroutes entières se sont transformées en voies spéciales pour les camions électriques. Entre Francfort et Darmstadt, l’air est pur, les émissions de CO2 appartiennent déjà au passé. Alors que l’année dernière, UPS dévoilait ses camions électriques au design futuriste, l’Allemagne veut se positionner comme un pionnier en matière de circulation électrique. Actuellement, des expérimentations ont lieu sur un tronçon d’autoroute de 5 kilomètres. Comme vous pouvez le voir sur la photo de cette autoroute, des camions hybrides circulent et sont alimentés par des câbles électriques aériens. Ils leur permettent de fonctionner sans utiliser leur moteur thermique. Dans le pays, il s’agit des premiers essais sur des vraies routes. Les précédents tests avaient été effectués sur des terrains militaires spécifiques. Malgré toute sa bonne volonté, l’Allemagne n’est pas précurseur en la matière. En effet, c’est la Suède qui fut le premier pays à initier cette pratique. La toute première autoroute électrique a été lancée dès l’année 2016, dans le pays. Grâce à plusieurs pantographes situés sur leur toit, les camions peuvent capter l’électricité des câbles aériens. Un pantographe est le dispositif articulé qui permet à un tramway, ou en l’occurrence à un camion électrique, de capter le courant par frottement sur une caténaire. Les ingénieurs travaillant sur le projet précisent que malgré les tests en cours, le système n’aura pas d’impact significatif avant plusieurs années. Cinq camions seront en mesure de parcourir le tronçon électrifié chaque jour. Désormais, les transporteurs ont les cartes en main. Ils peuvent décider de basculer leurs flottes sur des véhicules électriques et par conséquent réduire leur empreinte carbone. Article rédigé par Georges Simmonds pour RT Flash Siècle digital | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|