| | | | | | | Edition du 08 Novembre 2019 |
| |
|
| Edito La télémédecine va révolutionner les pratiques médicales
Avant propos : Comme chaque semaine, jusqu'à la fin de l'année, je vous dis où en est notre campagne de dons. Au moment où je finis la rédaction de cet édito (Jeudi Après-midi) nous sommes à 13.531 euros, soit 675 euros de plus en une semaine. Nous nous approchons peu à peu du seuil minimum (15.000 €) et j'ai confiance. Je remercie bien sincèrement les 178 personnes qui ont déjà fait un don, don souvent accompagné d'un mot très sympathique. Si vous voulez aider RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant: Faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale Dans une première mondiale qui fera date, le Docteur Tejas Patel, président et cardiologue interventionniste en chef de l'Apex Heart Institute à Ahmedabad, Gujarat, en Inde, a effectué il y a quelques semaines une série de cinq interventions coronariennes percutanées sur des patients (deux femmes et trois hommes, âgés de 52 à 84 ans) se trouvant à une distance de 20 miles de lui. Cet exploit technique a été réalisé à l'aide d'un robot chirurgical de précision développé par Corindus (Voir The Lancet). Cette première mondiale montre que la télémédecine, longtemps restée confinée dans les laboratoires de recherche, vient de franchir une étape décisive. Il est désormais envisageable, en combinant les capacités des réseaux à très haut débit, de la robotique, de la réalité augmentée et des technologies numériques, de téléporter des experts médicaux dans des endroits éloignés de centres médicaux, leur permettant d'effectuer tous leurs actes à distance, des consultations aux interventions chirurgicales. Commentant son intervention à distance, le Docteur Tejas Patel a déclaré « Je suis honoré d'avoir participé à ce nouveau jalon de l'aventure médicale et suis convaincu que l'application de la télérobotique pour le traitement à distance peut avoir un impact sur un nombre important de vies en donnant accès à des soins spécialisés qui, autrement, ne seraient pas possibles, surtout dans un immense pays, comme l’Inde, encore très rural ». Pendant les procédures à distance, Tejas Patel a utilisé le robot CorPath GRX de Corindus et une connexion Internet câblée, manipulant le robot avec un jeu de manettes et un moniteur vidéo. Rappelons que la première téléchirurgie transatlantique a été réalisée en septembre 2001, lorsque le professeur Jacques Marescaux et son équipe ont pratiqué une cholécystectomie peu invasive sur une patiente de 68 ans de l'Est de la France. Cet exploit transatlantique avait été surnommé "Opération Lindbergh". Mais la téléchirurgie, pour spectaculaire qu’elle soit, ne constitue qu’un des aspects de la télémédecine, qui intègre également bien d’autres possibilités : téléconsultations, télésurveillance, téléconseils notamment. La généralisation de la télésurveillance médicale (au sens large) va permettre, à la fois d’améliorer considérablement la prise en charge des personnes vivant à domicile avec des maladies chroniques, et de prévenir les complications, de manière à éviter les ré-hospitalisations. Ces outils de télésurveillance répondent aux priorités affichées par le gouvernement dans la loi Santé 2022 et le Plan numérique santé pour une meilleure qualité et efficience des soins. La société française Air Liquide Healthcare a déployé en France depuis un an un programme baptisé Chronic Care Connect qui analyse, à l’aide d’algorithmes dédiés, les données en temps réel sur une plate-forme, issues d’un ou plusieurs dispositifs de mesure connectés (balance ou glucomètre) et de questionnaires et un filtre des alertes par des infirmiers formés à cet exercice. Concrètement, chaque patient télésurveillé en cardiologie détient à domicile une balance connectée reliée à une tablette numérique. Le patient se pèse quotidiennement et répond à 8 questions sur les symptômes de sa pathologie. Les données de télésurveillance médicale du patient sont transmises à la plate-forme logicielle et traitées par l’algorithme. Lorsqu’une situation d’alerte est identifiée par rapport aux seuils définis par le médecin, l’infirmière contacte le patient pour vérifier si cette situation n’est pas due à un événement ponctuel ou à un besoin d’ajustement du dispositif médical. Si l’alerte est confirmée, l'infirmière prévient le médecin télésurveillant. Grâce à cette solution de télésurveillance, le médecin pourrait ainsi anticiper les décompensations cardiaques avec pour objectif de réduire les ré-hospitalisations. Une étude en Allemagne effectuée auprès de patients insuffisants cardiaques bénéficiant de ce type de suivi a mis en évidence une augmentation de près de 50 % de la probabilité de survie à un an ! Comme l’indique le Docteur Franck Albert, Chef de Pôle Cardiologie, Diabétologie et Néphrologie, Centre Hospitalier Louis Pasteur de Chartres : « pour les patients équipés de cette solution, on observe plus de 30 % de retour à domicile supplémentaires des patients directement après leur hospitalisation sans passer par des structures de soins intermédiaires. Notre hypothèse est que la télésurveillance nous permet d’accueillir les patients avant que leur état ne s’aggrave, et donc de mieux les traiter tout en facilitant leur sortie ». L’entreprise accompagne plus de 1 000 patients avec sa solution. Et déjà plus de 100 établissements hospitaliers ou médecins libéraux ont franchi le pas de cette nouvelle organisation des parcours de soins qui entre aujourd’hui dans une phase concrète de déploiemen t. Le développement de la télémédecine est également l’une des conditions indispensables à la généralisation de l’hospitalisation à domicile (HAD) qui a concerné en 2018 122 000 patients et 5,6 millions de journées dans l'année (pour un total de 12 millions de journées en hospitalisation classique), ce qui représente une dépense moyenne journalière de seulement 190 euros par patient, au lieu de 700 euros pour une journée à l’hôpital. A Lille, le Docteur Stéphanie Villet, responsable de l’unité des soins palliatifs du Centre Oscar-Lambret (centre de référence contre le cancer), a récemment mis en œuvre un remarquable projet-pilote d’hospitalisation à domicile destiné à améliorer la qualité de vie des patients très fragiles, pris en charge en soins palliatifs. En partenariat avec l’Hospitalisation à domicile (HAD, Santélys), Stéphanie Villet a décidé de mettre en place des consultations de télémédecine en soins palliatifs, une première en France qui a été récompensée par le prix Unicancer de l’innovation. Ce projet concerne une quinzaine de patients lourds qui bénéficient à présent de téléconsultations, à domicile, via une webcam sécurisée (skype pro). Un infirmier de l’HAD se déplace au domicile des malades avec son matériel, pour assurer le bon déroulement de cette cession et le médecin de famille peut être également présent si le patient le souhaite. Les retombées très positives de ce projet ont convaincu le Docteur Villet qu’avec l’évolution de la technologie et de la médecine, les téléconsultations vont progressivement s’étendre à l’ensemble des patients. Mais la télémédecine est également en train, de manière plus large, de bouleverser la prise en charge des malades et personnes âgées dans les régions rurales, souvent caractérisées par deux particularités qui constituent une « double peine » redoutable pour ces territoires, d’une part, une faible densité de population accompagnée d’un habitat dispersé, d’autre part, une faible démographie médicale, accompagnée d’un manque de spécialistes pour les pathologies complexes. Après une dizaine d’années d’expérimentations, l’évolution des technologies, l’arrivée en zones rurales des réseaux optiques à très haut débit et de la 4G, mais également l’évolution décisive du cadre réglementaire et social intervenu fin 2018 et début 2019, ont enfin permis depuis quelques mois une véritable accélération des projets de télémédecine sur l’ensemble de territoire national. En Ardèche, vaste département très rural et accidenté, caractérisé par une population vieillissante, l'équipe de médecins régulateurs du Samu 07, basé au centre hospitalier des Vals d'Ardèche à Privas, a pris l’initiative de développer un ambitieux plan de télémédecine qui se déploie dans les établissements d'hébergement pour personnes âgées dépendantes (Ehpad) du département, afin d'éviter des hospitalisations. Ce projet innovant inscrit dans le cadre du programme "Ardèche terre d'expérimentation", a été présenté début 2018 par la Préfecture, l'ARS et le Conseil départemental. Il vise à répondre à une forte augmentation des besoins en matière d’urgences médicales, puisqu’en 2017 le centre de rég ulation a reçu 3.317 appels des Ehpad, "soit 9 appels par jour en moyenne, notamment la nuit". Ce projet est parti du constat qu’en l’absence d’une description qualitative suffisante de la situation (évaluation du patient différente selon les établissements, difficultés de lecture des paramètres physiologiques), les médecins régulateurs sont souvent amenés à décider d’hospitaliser les résidents, via un transport par ambulance ou Smur, ce qui aggrave la saturation des services et perturbe les patients âgés. Les différents acteurs concernés - Samu 07, Préfecture, ARS, Conseil départemental - se sont donc fédérés pour monter ce projet qui vise à équiper des Ehpad de systèmes de visioconférence, mais également à former les personnels pour qu’ils sachent exploiter toutes les potentialités de ces nouveaux outils. L'ARS, après avoir approuvé le volet médical de ce projet, a soutenu son ingénierie, par la mise à disposition de son opérateur technique, le GCS Sara (groupement de coopération sanitaire Système d’information de santé Auvergne-Rhône-Alpes). L'agence a également décidé d’assurer le financement de la formation de gestes et de soins d'urgence. De son côté, le GCS Sara a développé un outil adapté au contexte local, facile de prise en main, dans un cadre sécurisé et adapté à la gestion des données de santé. Pendant plus d’un an, trois agents du GCS se sont rendus dans les Ehpad pour installer les outils numériques (connexion Internet, tablettes et logiciel de téléconsultation), mais également pour accompagner la prise en main et former les équipes de soignants de jour et de nuit. Cette démarche présente deux avantages, estime le directeur du CH, Joël Bouffies. D'une part, « la visioconférence renforcera l’évaluation du médecin régulateur du Samu et optimisera sa prise de décision pour le juste soin », et, d'autre part, elle offre « à l’ensemble des médecins une nouvelle modalité de pratiquer leur art sur un territoire caractérisé par l’isolement de certaines populations et une démographie médicale déclinante ». Aujourd'hui, une dizaine d’Ehpad ardéchois sont équipés et formés ou sur le point de l’être (Montalivet, Annonay, Vernoux-en-Vivarais, Joyeuse, La Voulte-sur-Rhône, Chambonnas-les-Vans, Coucouron, Issarles, Valgorge, Saint-Martin-de-Valamas et Saint-Sauveur-de-Montagut), l’objectif étant de généraliser ce dispositif aux 82 EHPAD du département. Au niveau national, au rythme où va la progression du nombre hebdomadaire de consultations en télémédecine, le chiffre d'irréversibilité pourrait bien être atteint. La barre des 2200 consultations à distance par semaine a été dépassée à la mi-juillet. Un bond depuis la fin 2018, où 200 actes en moyenne étaient réalisés hebdomadairement. Ces consultations peuvent s'effectuer au domicile du patient s'il dispose d'un appareil équipé d'une caméra et coûtent le même prix qu'une consultation classique. Il est vrai que les choses se sont enfin accélérées depuis un an : depuis le 15 septembre 2018, l'Assurance-maladie et les syndicats représentant les médecins libéraux ont signé un accord sur les « modalités de déploiement de la télémédecine en France ». Cet accord permet la prise en charge par la sécurité sociale des téléconsultations comme n'importe quel rendez-vous chez un médecin traitant, sous certaines conditions. L'Assurance maladie a ainsi compté près de 32 000 remboursements en onze mois. 54 % des actes facturés sont réalisés par les médecins généralistes, suivis par les médecins spécialistes et les centres de santé. Le gouvernement table sur 500 000 actes de télémédecine en 2019 et un million en 2020. Concrètement, l'accord permet au patient de se connecter directement à son médecin ou d'être aidé dans sa démarche par un professionnel de santé (infirmier, pharmacien) via un simple écran d'ordinateur ou un smartphone. La consultation donne lieu à l'établissement d'une feuille de soins envoyée directement à la caisse d'assurance-maladie par le praticien. Enfin, depuis février dernier, le médecin peut demander l'avis d'un confrère spécialisé et cette forme de télé-expertise est prise en charge par l'Assurance-maladie. Ce déblocage d’un important verrou réglementaire était très attendu car actuellement, 22 millions de Français, soit un sur trois, résident dans une commune insuffisamment dotée en médecins généralistes et dans laquelle les citoyens bénéficient de moins de 2,5 consultations par an et par habitant. Dans le même temps, face aux difficultés croissantes d’accès aux soins, le nombre d’admissions aux urgences explose, alors qu’il a était démontré par plusieurs études que 80 % des admissions aux urgences ne nécessitent pas de prise en charge médicale immédiate et pourraient être traitées par voie informatique. Proposer une offre de soin de qualité pour les habitants du monde rural et lutter contre les effets de la désertification médicale sont donc devenus une priorité politique, comme l’illustre la tribune appelant à un effort national accru en faveur de la télémédecine, publiée en mai dernier par 118 élus locaux de tous bords (Voir Le JDD). Reste que, pour pouvoir déployer sur le tout le territoire des solutions performantes de téléconsultation et télémédecine, il faut pouvoir disposer non seulement de professionnels qualifiés en nombre suffisant, mais également de réseaux à très haut débit (qu’ils soient filaires ou non) qui desservent l’ensemble du territoire. Malheureusement, comme l’a rappelé le rapport de la Cour des Comptes, il est peu probable que l’objectif public d’une couverture complète pour 2022 du territoire français en Internet haut et très haut débit fixe puisse être tenu, compte tenu des investissements supplémentaires nécessaires, évalués à 15 milliards d'euros par la Cour des comptes. Dans son rapport, la Cour des Comptes souligne également que moins d’un foyer français sur deux est couvert en très haut débit (au moins 30 mégabits par seconde, ce qui nécessite une connexion à la fibre optique, au câble ou au VDSL2, version très améliorée de l'ADSL ou à la 4G), contre une moyenne européenne de 71 %. La Cour préconise enfin d'accorder plus de place aux technologies alternatives en zone d'initiative publique et de davantage prendre en compte les besoins réels des usagers en introduisant un objectif de haut débit minimal pour tous. S’appuyant sur ce constat et ces recommandations de la Cour des Comptes, la Mission « France Très haut débit » du Sénat a proposé pour sa part, fin 2018, deux mesures fortes : d'une part, la couverture complète ou quasi-complète du territoire en fibre optique jusqu'à l'abonné (100 Mbit/s), et non plus seulement en très haut débit (30 Mbit/s). En effet, le plan France Très haut débit prévoit un objectif de 100 % très haut débit en 2022, mais de 80 % en fibre optique. La Mission sénatoriale rappelle que si le seuil de 80 % devrait être dépassé avant l'échéance, on estime qu'il pourrait tout de même rester quelque 3 millions de locaux non couverts par la fibre optique en 2022. La seconde mesure est le raccordement effectif des locaux éligibles au très haut débit, ce qui implique de déployer les câbles jusque dans les habitations et entreprises. Aujourd’hui, le taux d'abonnements au très haut débit est de seulement 42 % des locaux éligibles en 2018, et de 34 % des locaux éligibles à la fibre optique jusqu'à l'abonné. La Mission sénatoriale propose donc d’aller vers un plan « France Fibre optique 2025 » pour achever le déploiement de la fibre optique jusqu'à l'abonné (FTTH) sur tout le territoire. Elle souhaite également, à juste titre, que les engagements des opérateurs soient plus contraignants. Cette accélération du maillage optique complet de notre pays devrait permettre une généralisation rapide de la télémédecine sur l’ensemble du territoire, et ce d’autant plus qu’elle va être « boostée » par deux autres ruptures technologiques majeures en matière de télécommunications : la 5G et le WiFi-6. S’agissant de la 5G, la France a lancé officiellement en juillet dernier sa procédure d’attribution des fréquences aux opérateurs télécoms, avec comme objectif, un premier déploiement commercial dans quelques grandes villes françaises à la fin de 2020 et la couverture des deux tiers de la population d’ici 2026. Le déploiement de la 5G permettra à terme de transmettre beaucoup plus rapidement de très grandes quantités de données, ce qui fera sauter l’un des principaux obstacles à la télémédecine mobile, notamment en milieu rural. Théoriquement, la 5G autorisera des débits de 20 Gbits en voie descendante et 10 Gbits en voie montante. Mais selon Orange, la 5G permettra, en conditions réelles, de proposer en toutes circonstances un débit garanti allant de 50 à 100 Mb/s, alors qu'en 4G, celui-ci varie entre 5/10 Mb/s. Pour les zones qui ne seront pas couvertes en 5G, les opérateurs auront l’obligation de proposer un service « type 5G » qui devrait permettre de disposer d’un débit au moins quatre fois plus important que celui autorisé par la 4G actuelle. A l’horizon 2030, l’ensemble du territoire sera donc couvert, soit en 5G, soit en « type 5G ». L’autre rupture technologique, non moins importante, concerne l’arrivée prochaine du WI-FI-6, dont le processus de certification mondiale a été lancé il y a quelques semaines. D'ici la fin 2020, plus de 1,6 milliard d'appareils le proposeront, selon la Wi-Fi Alliance. Aujourd'hui, le Wi-Fi (toutes générations confondues) est utilisé dans 13 milliards de produits dans le monde et achemine également plus de la moitié du trafic Internet mondial. Le Wi-Fi-6 permet, contrairement au Wi-Fi 5, de connecter des dizaines d'appareils simultanément et il est également bien plus performant que la 5G pour l’accès à l’Internet courte distance, surtout dans les bâtiments. Le développement accéléré et coordonné de la fibre optique, de la 5G et du Wi-Fi-6 (trois technologies très complémentaires) sur l’ensemble du territoire devrait ainsi permettre une généralisation, au cours de la prochaine décennie, d’une télémédecine de haute qualité, reposant sur la transmission et l’exploitation rapide de grandes quantités de données ; celles-ci proviendront non seulement des professionnels et établissements de santé mais également, et de plus en plus, des myriades d’objet set de capteurs connectés qui équiperont demain nos domiciles et nos vêtements et surveilleront, sans même que nous en ayons conscience, l’ensemble de nos paramètres biologiques et physiologiques. Dernier élément de cet ensemble technologique et médical en train de se constituer, le dossier médical partage -DMP- qui décolle enfin (plus de 7 millions de DMP ouverts à ce jour, contre 2 millions il y a un an) et permettra à l’ensemble des acteurs du système de santé de consulter si nécessaire à distance sur des serveurs sécurisés le dossier médical complet des patients et d’enrichir en retour de manière permanente ce dossier en y ajoutant les données et actes effectués. Nous voyons donc que ces différentes « briques » technologiques vont venir s’emboîter de manière à permettre la transition de la télémédecine vers un concept bien plus large : la télésanté. Les conséquences ce basculement technologique, social et médical seront considérables car il deviendra non seulement possible de soigner très efficacement à distance (qu’il s’agisse de patients en établissement, en centre de téléconsultations ou à domicile) mais également de développer une téléprévention active et personnalisée qui réduira sensiblement les fréquences et temps d’hospitalisation et reculera également le moment d’entrée en Ehpad pour les personnes âgées, en leur permettant de gagner de nombreuses d’ann&eacut e;es d’autonomie et de bonne santé. A ce point de notre réflexion prospective, je voudrais dire que nous devons sortir d’une vision purement comptable et budgétaire des choses, surtout quand nous examinons des domaines aussi complexes et polymorphes que la santé, où il convient de prendre en compte différentes échelles de temps et niveau d'actions. Il faut en effet bien comprendre que les bénéfices humains, sociaux et médicaux (y compris dans le domaine de la prévention des troubles cognitifs et psychiatriques et du suicide chez les seniors isolés) que la collectivité retirera, en proposant à tous nos concitoyens une télésanté de qualité, seront, à terme, bien plus importants, traduits en gains économiques et sociaux, que les dépenses qui auront été consenties pour que notre pays accélère sa transition numérique, tant en matière d& #8217;infrastructures que de services. Souhaitons que nos responsables politiques, tant au niveau local que national, soient capables de s’extraire de la fébrilité de l’instant, et de bien saisir les enjeux majeurs de société qui sont ceux de ce passage de la télémédecine à la télésanté qui va profondément transformer notre société. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | En 2017, après avoir lancé le projet Jacquard, la veste connectée issue du partenariat entre Google et Levi’s voyait le jour. Il restait encore beaucoup de pistes envisageables pour rendre cette veste vraiment attractive. Les deux partenaires présentent donc aujourd’hui un nouveau modèle censé s’adresser à un plus grand nombre. Le produit sortira dans plusieurs pays cette fois, en Australie, en France, en Allemagne et au Japon, en plus des États-Unis, et surprend par son coût amoindri. La veste sera, comme le modèle précédent, capable de se connecter en Bluetooth avec le smartphone de son utilisateur, grâce à un petit capteur placé à l’intérieur de la manche. Il sera donc possible de prendre un appel, lancer Google Assistant, contrôler sa musique et, désormais, déclencher un selfie. L’option « Always together » est maintenue et permettra d’émettre un signe d’alerte en cas d’éloignement avec son téléphone. Les commandes à mettre en place pour effectuer ces actions sont à configurer dans l’application Jacquard comme glisser vers le haut, vers le bas, taper deux fois et couvrir. Le capteur est plus discret, car plus petit que son prédécesseur, plutôt voyant, rendant ainsi la chose plus esthétique. Il peut désormais s’enlever facilement avant de passer la veste au lavage, contrairement au produit précédent, qui par conséquent, pouvait rapidement devenir défectueux. L’article sera disponible en plusieurs coloris et plusieurs tailles, pour un coût de 200 dollars pour la veste en jean, et 250 dollars pour la veste avec doublure. Si les efforts pour rendre la veste plus sympathique à porter, et plus fonctionnelle, les options sont encore limitées précisent certains, qui regrettent de ne pouvoir prendre que des selfies, et de voir attendre 3 secondes pour que la photo se déclenche. Celle-ci doit également être déplacée manuellement vers la galerie personnelle, car pour le moment, elle est stockée par défaut dans l’application Jacquard. En outre, le système peut répertorier les endroits où le propriétaire de la veste s’est rendu, lire les directions de navigation, et donner un sommaire de la journée à son utilisateur. Ce qui n’est pas très étonnant du fait de sa connexion au smartphone, déjà capable de donner toutes ces informations. Pour répondre au manque d’enthousiasme, Paul Dillinger, responsable du pôle innovation chez Levi’s, rappelle que la veste n’a pas été conçue pour être « capable de tout faire ». Article rédigé par Georges Simmonds pour RT Flash CNET | | | |
| C'est une première mondiale : Air France a testé pour la première fois sur l'un de ses vols le LiFi, une nouvelle technologie de transmission des données via la lumière, développée par la société Latécoère. Le 30 octobre dernier, le vol AF6114, qui reliait Paris-Orly à Toulouse-Blagnac, a vu embarquer à son bord des gamers finalistes du "Air France Trackmania Cup" développé par Ubisoft. Leur mission : tester en plein vol le LiFi installé sur 12 sièges de l'appareil. Dans un communiqué commun, relayé par Air-Journal, Air France et Latécoère ont détaillé les avantages de cette nouvelle technologie qui permet "un échange de données multimédias parfaitement stable à très haut débit et très faible latence". Autre atout du LiFi : il permet de réduire le poids de l'avion et par conséquent sa consommation de carburant, grâce à l'absence de câbles de cuivre remplacés par la fibre optique. À terme, la compagnie aérienne espère pouvoir installer cette technologie à bord de tous ses vols commerciaux. Air-Journal précise par ailleurs qu'en plus de pouvoir échanger des données multimédias à une vitesse 100 fois supérieure au WiFi, le LiFi est également hautement sécurisé. Du côté d'Air France, cette première expérience est un franc succès. "Nous sommes très fiers d’être la première compagnie aérienne à faire décoller un avion doté du LiFi et à organiser une compétition de jeu vidéo en vol. Cette première mondiale résulte d'une collaboration entre Latécoère, Ubisoft et les équipes d’Air France. "Je suis convaincu que cette expérimentation ouvre la voie à de nouvelles expériences de divertissement à bord pour nos clients, en particulier de gaming", s'est félicité Antoine Laborde, Responsable Innovation d'Air France. Même enthousiasme du côté de l'équipementier aéronautique Latécoère qui est convaincu "que le LiFi est appelé à révolutionner la connectivité en vol à horizon de 5 ans". Article rédigé par Georges Simmonds pour RT Flash Air Journal | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Des chercheurs de l’Université de Californie ont développé un décodeur qui analyse les signaux du cerveau pour les retranscrire en parole, et pourrait rendre leur voix à ceux qui l’ont perdue. En s’appuyant sur les enregistrements de phrases lues par des cobayes équipés d’électrodes, ils ont déconstruit les mouvements correspondant à des sons : presser les lèvres, coller la langue au palais... Ils ont ensuite créé deux réseaux de neurones en machine learning, le premier pour décoder les signaux cérébraux en mouvements de la bouche et de la gorge, le second pour retranscrire ces mouvements en sons. La reconnaissance des mots synthétisés n’est pas toujours simple. Les personnes chargées de reconnaître les mots prononcés y parvenaient à 69 % lorsqu’elles devaient choisir dans une liste de 25 mots, mais ce résultat tombait à 43 % avec une liste de 50 mots. "Nous avons encore du travail avant de réussir à imiter parfaitement le langage parlé", reconnaît Josh Chartier, l’un des coauteurs de l’article. "Pour autant, le niveau de précision produit ici serait une avancée incroyable dans la communication en temps réel comparé à ce qui est actuellement disponible." Les chercheurs comptent améliorer leur dispositif en augmentant la densité d’électrodes et en utilisant un algorithme de machine learning plus évolué. La prochaine étape, évidente, est de déterminer si une personne ayant perdu la parole peut l’utiliser. Article rédigé par Georges Simmonds pour RT Flash UCSF | | | |
| La NASA développe le projet Shapeshifter qui vise à concevoir un nouveau type de robot polyvalent, capable de se déplacer sur n’importe quel type de terrain et d'explorer, au cours de ce siècle, différentes planètes de notre système solaire, dont Tita, la fascinante lune de Saturne. La naissance du projet Shapeshifter découle de la mission Cassini, dont l'objet est d’analyser Titan, la lune de Saturne. Titan aurait des caractéristiques similaires à celle de la planète Terre, telles que la présence de méthane et d’éthane liquide. Bien que l’agriculture semble désormais possible sur Mars, découvrir les secrets de Titan pourrait apporter de nouvelles informations cruciales pour les scientifiques. Cependant, l’approche de cette lune reste extrêmement compliquée du fait des nombreuses surfaces qu’elle abrite. Titan pourrait comporter des lacs, des volcans ou encore des rivières, l’adaptabilité est donc nécessaire pour examiner ces espaces. Grâce au programme de recherche avancée de la NASA connu sous le nom de NIAC, les scientifiques ont pu travailler sur des robots hors du commun. Pour le moment, le prototype est constitué de deux drones associés qui peuvent ainsi se déplacer ensemble, mais aussi se séparer pour voler. Dans une forme cylindrique, le prototype avance jusqu’à se séparer en cas d’obstacle ou de changement de surface. A terme, les chercheurs souhaitent multiplier le nombre de robots et leur permettre de s’associer en une entité reconfigurable selon les circonstances, ce qui permettrait de sensibles économies d'énergie, ainsi qu'une fiabilité accrue dans un environnement hostile et inconnu, comme celui de la lune Titan. Article rédigé par Georges Simmonds pour RT Flash NASA | | ^ Haut | |
|
| | | Des chercheurs brésiliens ont découvert dans une réserve de la mata atlantica une larve de moustique capable d’émettre de la lumière bleue, une première en Amérique du Sud. Bien que différents insectes et champignons bioluminescents soient connus sur le continent, ceux-ci émettent tous une lumière verte, jaune ou rouge. « Cette larve a été trouvée lors d’une collecte de champignons bioluminescents et a attiré l’attention en émettant de la lumière bleue. Les champignons et les lucioles n’émettant pas de lumière de cette couleur, il ne peut s’agir que d’un nouvel organisme », a déclaré Cassius Stevani, professeur à l’institut de chimie de l’Université de São Paulo (IQ-USP) et coordinateur du travail. Selon Stevani, les individus adultes de l’espèce n’émettent pas de lumière, uniquement les larves qui vivent cachées dans des bûches. Outre l’importance pour la connaissance de la biodiversité, la découverte d’espèces émettrices de lumière bleue, assez rares parmi ces organismes, offre la possibilité de dévoiler un nouveau système de bioluminescence qui pourrait donner lieu à de nouvelles applications analytiques ou biotechnologiques, telles que le marquage de cellules spécifiques ou de gènes dans des études biologiques (des biocapteurs de pollution, par exemple). Cette découverte confirme, s'il en était besoin, la nécessité pour le Brésil de préserver son extraordinaire biodiversité. Article rédigé par Georges Simmonds pour RT Flash Fapesp | | | |
| La sécurisation et la diversification des approvisionnements énergétiques sont pour la Chine un objectif stratégique et géopolitique majeur. C'est pourquoi le géant asiatique fait feu de tout bois, développant simultanément l'énergie nucléaire, l'hydroélectricité, le solaire (y compris spatial) et l'éolien. Mais la Chine n'oublie pas le fabuleux potentiel énergétique que recèlent les mers et océans. Après près de deux décennies de recherche et d’exploration, chercheurs et ingénieurs chinois sont parvenu, en mai dernier, à extraire des échantillons de glace combustible à partir de gisements marins. Elle devient ainsi le second pays, après le Japon, qui a mené la première campagne d’extraction réussie en 2013, à maîtriser cette technologie complexe de récupération des hydrates de méthane sous-marins. La « glace combustible », aussi appelée hydrates de méthane ou clathrates, est formée de molécules de méthane piégées dans une cage de molécules d’eau cristallisées. Issus de la décomposition des matières organiques, les hydrates de méthane se trouvent dans les sédiments marins, souvent au pied des talus continentaux et dans le permafrost des régions arctiques. Les hydrates de méthane sont stables à forte pression et basse température. Un mètre cube d’hydrate de méthane comprend 164 m3 de méthane. Les scientifiques chinois évaluent les réserves d’hydrate de méthane dans les eaux territoriales chinoises à 80 milliards de tonnes équivalent pétrole, ce qui représente une énorme ressource potentielle. Le ministère a déclaré avoir délimité deux gisements d’hydrates de méthane dont un de 123,1 milliards de m3 et un autre de 150 milliards de m3. Jusqu’ici, l’essai d’extraction d’hydrate de méthane dans la zone Shenhu (nord de la mer de Chine méridionale), à environ 320 km au sud-est de Zhuhai dans le Guangdong, s’est bien déroulé avec en moyenne 8350 m3 de méthane de grande pureté extrait chaque jour. Les experts chinois considèrent l'exploitation des hydrates de méthane comme la meilleure alternative au pétrole et au gaz naturel. Cette nouvelle source d'énergie, malgré son coût élevé, pourrait révolutionner l’industrie énergétique mondiale à l'horizon 2030 et la prochaine étape pour l’exploitation de la glace combustible en Chine sera de réduire les coûts d’exploitation et de transport et de diminuer son impact environnemental. Article rédigé par Georges Simmonds pour RT Flash Ecns | | | |
| Dans le domaine en pleine effervescence de la transformation chimique et de la valorisation économique du CO2, la Chine, premier émetteur mondial de CO2, avec environ 10 gigatonnes (un quart des émissions mondiales) compte bien être présente. On le sait, l’électroréduction du CO2 permet de transformer le CO2 en molécules carbonées (hydrocarbures, méthanol, méthane etc.) à travers la formation de liaison carbone-carbone ou carbone-hydrogène en utilisant l’énergie électrique. Ce procédé chimique pose de nombreux problèmes techniques de par les contraintes cinétiques et thermodynamiques, et l’utilisation de métaux nobles pour les catalyseurs. Il peut par ailleurs y avoir une réaction non désirée : la réduction de l’eau (H2O) en dihydrogène (H2) qui entre en compétition avec l’électroréduction du CO2 qui est ici la réaction désirée. Les travaux de recherche publiés par les équipes chinoises portent sur le développement de catalyseurs sans métaux précieux (palladium, argent, or et leurs alliages), leur préférant un métal de transition : le manganèse. Quelques travaux de recherche avaient déjà été publiés sur l’ajout de manganèse, mais les performances catalytiques étaient limitées en comparaison des catalyseurs de la même famille (à savoir carbone dopé avec un métal (fer, nickel) et de l’azote). Ces travaux de recherche s’inscrivent dans l’objectif à moyen et long terme de la Chine de diminuer ses émissions en développant, par exemple, le stockage et l’utilisation du CO2. D’après le Global CCS Institute, la Chine a le plus grand nombre de projets pilotes en construction ou en fonctionnement dans la monde. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Certains faits sont difficiles à croire, tant ils sont contre-intuitifs et vont à l'encontre de l'opinion commune, et pourtant… Selon une récente étude réalisée par la NASA, à partir d'une analyse fine des images satellite de la Terre, la Chine et l’Inde - les pays les plus peuplés du monde - sont en tête de l’augmentation du verdissement terrestre. L’effet provient principalement de programmes ambitieux de plantation d’arbres en Chine et d’une agriculture intensive dans les deux pays. Ranga Myneni de l’Université de Boston et ses collègues ont tout d’abord détecté le phénomène de verdissement dans les données satellitaires à partir du milieu des années 90, mais ils ne savaient pas si l’activité humaine en était la cause principale. Ils ont ensuite entrepris de suivre la superficie totale de la Terre couverte de végétation et son évolution au fil du temps. L’équipe de recherche a constaté que la superficie mondiale de feuilles vertes avait augmenté de 5 % depuis le début des années 2000, une superficie équivalente à celle de toutes les forêts tropicales amazoniennes. Au moins 25 % de ce gain sont venus de Chine. Globalement, un tiers des terres végétalisées de la Terre est en train de verdir, tandis que 5 % d’entre elles brunissent. Les cartes montrent l’augmentation ou la diminution de la végétation verte - mesurée en superficie foliaire moyenne par an - dans différentes régions du monde entre 2000 et 2017. Notez que les cartes ne mesurent pas la verdure globale, ce qui explique pourquoi l'Est de l’Amérique du Nord ne se distingue pas des autres zones forestières. « La Chine et l’Inde représentent un tiers de l’écologisation, mais ne représentent que 9 % de la superficie terrestre de la planète recouverte de végétation », a déclaré l’auteur principal Chi Chen de l’Université de Boston. « C’est une découverte surprenante, compte tenu de la notion générale de dégradation des sols dans les pays peuplés due à la surexploitation ». Cette étude a été rendue possible grâce aux données recueillies pendant deux décennies par les instruments à spectroradiadiomètre d’imagerie à résolution moyenne (MODIS) sur les satellites Terra et Aqua de la NASA. Un avantage de MODIS réside dans la couverture intensive qu’il offre dans l’espace et dans le temps : les capteurs ont capturé jusqu’à quatre fois presque tous les lieux de la planète, chaque jour, au cours des 20 dernières années. « Ces données à long terme nous permettent de creuser plus profondément », a déclaré Rama Nemani, chercheur au centre de recherche Ames de la NASA et co-auteur de l’étude. « Lorsque le verdissement de la Terre a été observé pour la première fois, nous pensions que cela était dû à un climat plus chaud et plus humide et à la fertilisation résultant de l’addition de dioxyde de carbone dans l’atmosphère. Maintenant, avec les données MODIS, nous voyons que les humains contribuent également ». La contribution de la Chine à la tendance mondiale en matière d’écologisation provient en grande partie de ses programmes de conservation et d’extension des forêts (environ 42 % de la contribution d’écologisation). Ces programmes ont été développés dans le but de réduire les effets de l’érosion des sols, de la pollution atmosphérique et du changement climatique. Une autre tranche de 32 % du changement de verdissement en Chine et de 82 % en Inde provient de la culture intensive de cultures vivrières. La superficie des terres utilisées pour la culture en Chine et en Inde n’a guère changé depuis le début des années 2000. Pourtant, les deux pays ont considérablement augmenté leur surface annuelle totale de feuilles vertes et leur production alimentaire afin de nourrir leurs nombreuses populations. Le verdissement agricole a été réalisé grâce à des pratiques culturales multiples, par lesquelles un champ est replanté pour produire une autre récolte plusieurs fois par an. La production de céréales, de légumes, de fruits et autres a augmenté de 35 à 40 pour cent depuis 2000. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| L'Homme n'est pas seul à émettre du dioxyde de carbone (CO2) dans l'atmosphère. La Terre elle-même en relâche depuis ses entrailles, à chaque éruption, crachant dans les airs un cocktail de gaz toxiques à effet de serre. Parmi eux, le CO2, dont l'accumulation en fait aujourd'hui le premier coupable du dérèglement climatique. Aussi puissantes soient-elles, ces émissions naturelles venant de volcans dévastateurs sont pourtant loin, très loin, de rivaliser avec celles des activités humaines. C'est l'une des conclusions d'un nouveau rapport publié récemment par le projet scientifique international Deep Carbon Observatory (DCO), mené depuis une décennie. « Nous avons réévalué les données historiques et surtout tenu compte de nombreuses nouvelles mesures permises par des suivis au sol et par satellites en temps réel », explique le vulcanologue émérite Patrick Allard (IPGP/CNRS). Les 1 500 volcans terrestres inventoriés et ceux sous les océans - encore plus nombreux et très mal connus - représentent au total de 280 à 360 millions de tonnes de CO2 rejetées chaque année dans l'atmosphère. Or les activités humaines, par la combustion d'énergies fossiles, l'usage des terres et les industries, en injectent quant à elles 37 milliards de tonnes (Gt). « Autrement dit, nous sommes cent fois plus pollueurs que tous les volcans, ce qui montre toute la folie de l'humanité », résume le chercheur. « Par le passé, la Terre a déjà connu des oscillations de concentration de ce gaz, mais nos activités provoquent un changement de ce taux, et donc des températures, de 100 à 200 fois plus rapide que la nature n'a jamais fait. On casse la vitesse des cycles naturels de la planète ». Pour parvenir à une telle conclusion, les chercheurs ont étudié, depuis 2012, ce qu'ils appellent le cycle du carbone profond. « C'est un cycle qui est couplé à celui en surface, celui de la végétation et des océans, par l'intermédiaire de la tectonique des plaques », détaille son confrère Pierre Cartigny (IPGP/CNRS). Il influe lui aussi sur le climat, en capturant du CO2 atmosphérique en deux temps : d'abord, la vie océanique (essentiellement le plancton) le piège sous forme de matière organique et de coquilles calcaires qui finissent par se déposer au fond. Ensuite, la tectonique des plaques fait retourner ce carbone sédimenté dans le manteau terrestre. Article rédigé par Georges Simmonds pour RT Flash Deep Carbon Observatory | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une équipe de biologistes, de physiciens et de chimistes (CNRS, Ecole normale supérieure, Institut Jacques Monod, Université de Paris), a développé un remarquable outil moléculaire permettant de mesurer et d'étudier avec une grande précision l’interaction entre une molécule médicamenteuse et sa cible. L’efficacité d’un médicament est fortement liée au temps que la molécule médicamenteuse passe accolée à sa cible ; plus l’interaction est de longue durée, plus la drogue aura de l’effet. Pour mesurer ce temps, les chercheurs se sont servis des propriétés de l’ADN (stable, inerte, facile à fabriquer, et rigide à l’échelle de 50 nanomètres) pour construire une « pincette moléculaire », illustrée ci-dessus. Ils ont ensuite greffé de chaque côté de la pincette des protéines-cibles qui interagiront au travers d’une molécule médicamenteuse. La pincette d’ADN est ensuite accrochée par une extrémité à une lame de verre traitée, et par l’autre extrémité à une microbille magnétique. La position de la bille au-dessus de la lame peut être mesurée en temps réel et par simple microscopie optique avec une précision nanométrique. Si les protéines et la molécule médicamenteuse se trouvent en interaction, alors la pincette est refermée et la bille est proche de la lame ; lorsque les molécules se dissocient, la pincette s’ouvre et la bille s’éloigne de la lame. La durée de l’interaction entre ces molécules peut alors être déterminée avec une très grande précision. L’équipe a pris comme exemple d’étude un médicament, la rapamycine, qui est un immunosuppresseur puissant qui sert cliniquement à traiter un grand nombre de cancers. Il est également possible de greffer une molécule médicamenteuse à un côté de la pincette et une molécule-cible de l’autre côté : c’est l’objectif actuel de l’équipe. De façon plus générale, cette pincette moléculaire s’apparente à un « détecteur universel » applicable à l’étude des interactions entre différents types de molécules et ouvre de nouvelles perspectives dans le développement des médicaments, y compris d’anticorps thérapeutiques. Article rédigé par Georges Simmonds pour RT Flash Ligue contre le cancer | | | |
| Plusieurs études ont montré le rôle des facteurs environnementaux, dont l’alimentation, dans les risques de développer un Alzheimer. Une nouvelle étude réalisée par des chercheurs de l’Arizona State University vient de montrer qu’une supplémentation en choline tout au long de la vie pourrait permettre de lutter contre cette terrible maladie. Il est bien connu que la maladie d'Alzheimer cause des dommages au cerveau bien avant l’apparition des premiers symptômes cliniques. Et une fois ces symptômes identifiés, il est trop tard, la maladie est devenue irréversible. Enfin, les femmes encourent un risque particulièrement accru de développer la maladie d'Alzheimer. Cette étude, réalisée sur des souris femelles, a montré qu'une supplémentation de choline à vie pourrait éloigner le risque d'Alzheimer. La choline est un précurseur de la production de membranes cellulaires et de l'acétylcholine, un neurotransmetteur qui active des récepteurs régulant la réponse immunitaire du système nerveux central (SNC). La dérégulation de ces récepteurs contribue à la pathogenèse de la maladie d’Alzheimer. Les chercheurs ont donc testé si la supplémentation en choline alimentaire tout au long de la vie pouvait permettre de réduire le risque d’Alzheimer ou de déficit cognitif. La choline est un nutriment sûr et facile à administrer et qui est naturellement présent dans certains aliments. La même équipe avait déjà remarqué des avantages cognitifs transgénérationnels de la supplémentation en choline chez la souris exposée in utero. Ici, l’équipe étudie les effets de la choline administrée à l’âge adulte plutôt que chez la souris fœtale. L'étude porte sur des souris femelles modèles de maladie d’Alzheimer. Elle constate que la supplémentation en choline à vie modifie les récepteurs de l'acétylcholine nicotinique alpha7 et du récepteur Sigma-1, ce qui entraîne la réduction de l’activation de la microglie activée. Ces récepteurs régulent la réponse immunitaire du SNC et leur dérégulation contribue à la pathogenèse de la maladie. L’étude confirme que la choline protège le cerveau de la maladie d'Alzheimer en bloquant la production de plaques bêta-amyloïde, et en diminuant l'activation de la microglie. Cette réduction de l’activité de la microglie suggère des moyens de traiter un large éventail de troubles, notamment les lésions cérébrales traumatiques, la sclérose en plaques et la maladie de Parkinson. Une récente étude a d’ailleurs révélé que la choline peut agir comme un agoniste des récepteurs Sigma-1. Ces résultats confirment que la supplémentation en choline tout au long de la vie peut modifier l'expression de ce récepteur Sigma-1, ce qui atténue l'activation de la microglie. Une autre étude récente a montré que l'augmentation du nombre de cas de démence au Royaume-Uni pourrait être associée à un manque de recommandations concernant l’apport de choline par l'alimentation tout au long de la vie. Ainsi, le niveau actuel recommandé de consommation de choline établi pour les femmes adultes est de 425 mg / jour et de 550 mg / jour pour les hommes adultes. Une alimentation supplémentaire en choline pourrait être bénéfique pour prévenir les modifications neuro-pathologiques associées au vieillissement du cerveau. La choline peut être trouvée dans divers aliments : le foie de bœuf, les œufs, le soja, le froment, le porc, le saumon, le brocoli et les noix. Article rédigé par Georges Simmonds pour RT Flash ASU | | | |
| Des chercheurs allemands du DZNE (German Center for Neurodegenerative Diseases) et de l'hôpital Ludwig-Maximilians-Universität (Munich) ont découvert qu'une protéine, appelée TREM2, pourrait exercer une influence très positive sur le cours de la maladie d'Alzheimer : sa présence à des concentrations plus élevées dans le liquide céphalo-rachidien induit, quel que soit le stade de la maladie, un meilleur pronostic. Dans le cerveau, TREM2 est exclusivement produit par la microglie, les cellules immunitaires du cerveau. Ces cellules patrouillent dans le cerveau et le débarrassent des déchets cellulaires et des débris, afin de le maintenir en bonne santé. Dans de précédentes études menées chez la souris, la même équipe avait démontré que TREM2 active la microglie pour détruire sélectivement les agrégats de protéines toxiques typiques de la maladie d'Alzheimer. Des observations qui suggèrent que TREM2 peut protéger le cerveau contre les effets dégénératifs de la maladie. Cette hypothèse restait cependant à confirmer chez l’Homme. En réponse à la question, les chercheurs allemands établissent ici une corrélation entre la concentration de TREM2 dans le liquide céphalorachidien de patients atteints de la maladie d'Alzheimer et la progression de la maladie sur plusieurs années. Cette démonstration est menée auprès de 385 participants au programme Alzheimer's Disease Neuroimaging Initiative (ADNI) qui regroupe les données cliniques de patients et de personnes âgées en bonne santé, examinés régulièrement pendant de très nombreuses années. L'étude permet ainsi d'établir des associations entre certains changements biochimiques et la progression de la maladie. Cette analyse constate que des taux élevés de TREM2 améliorent le pronostic à tous les stades de la maladie ; ces recherches ont également montré que la mémoire de ces patients reste plus stable et la dégradation de l'hippocampe plus lente. La concentration de TREM2 dans le liquide céphalo-rachidien augmente aux premiers stades de la maladie, juste au moment de l’apparition des premiers symptômes, ce qui étaye l'hypothèse selon laquelle la production de TREM2 est une réponse aux dommages au cerveau en cours. « Ces dommages stimulent la microglie qui cherche à protéger le cerveau. Cependant, cette protection ne semble pas suffisante chez les patients atteints de la maladie d'Alzheimer. Ainsi, le développement d’un anticorps thérapeutique qui stimule la fonction TREM2 pourrait permettre d’optimiser cet effet protecteur ». Article rédigé par Georges Simmonds pour RT Flash Science Translational Madicine | | | |
| Des chercheurs de l'Université Augusta (Géorgie) ont montré que l'ARN minuscule, MiR322, offrait une grande protection après une crise cardiaque. Connu pour induire les cellules souches à fabriquer des cellules cardiaques, ce microARN se trouve généralement à un niveau très bas après une crise cardiaque. Ces travaux ouvrent plusieurs options thérapeutiques : utiliser miR322 immédiatement après une crise cardiaque pour réduire les dommages ou trouver le moyen de renforcer sa production naturelle par le corps. Le muscle cardiaque peut continuer sa dégradation même après la restauration du sang après une crise cardiaque. L’aider à survivre et à « se maintenir » pourrait bien passer par ce micro-ARN, suggèrent les chercheurs d’Augusta, qui ont pu montrer sur un modèle animal de lésion ischémique qu’une version synthétique du microARN miR322 peut permettre réduire de 40 % la dégradation du muscle cardiaque. Un minuscule microARN permet de circonscrire les dommages au cœur. MiR322 est déjà documenté pour son rôle clé dans la fabrication de nouvelles cellules cardiaques à partir des cellules souches au cours du développement, mais le problème est que ses niveaux sont extrêmement faibles après une crise cardiaque. Il n’en reste pas moins que lorsque l’équipe étudie, par analyse à haut débit des microARN, de meilleurs moyens de protéger le cœur contre les dommages supplémentaires, miR322 est le premier microARN à se démarquer mais le plus réduit aussi après la restauration du flux sanguin vers le cœur. L’équipe a donc analysé les cellules endothéliales qui tapissent les vaisseaux sanguins et ce faisant, elle a identifié « la cible » de miR322. Pour cela, les chercheurs ont provoqué une occlusion de l'artère coronaire gauche chez la souris pendant environ 45 minutes, puis ont reproduit la reperfusion telle qu’elle se déroule après une crise cardiaque chez les humains, puis ont donné à la souris un traitement, comme chez les humains. Au cours de la période d'ischémie, au moment de la crise cardiaque, les chercheurs observent des niveaux de miR322 considérablement réduits. Ces niveaux réaugmentent après reperfusion, mais chutent à nouveau de manière spectaculaire un jour plus tard. Quand les chercheurs augmentent miR322 via un analogue, ils constatent alors une augmentation des niveaux de nouvelles cellules cardiaques et une réduction drastique d’une enzyme « du suicide cellulaire ». En bref, les dommages causés au cœur sont circonscrits. Si la demi-vie de miR322 n’est que de quelques secondes, ce microARN pourra probablement constituer un traitement immédiatement après une crise cardiaque pour réduire les dommages permanents. Un grand avantage thérapeutique est qu’il est si petit qu’il est facilement absorbé par les cellules cardiaques. Une autre solution serait de trouver un moyen de renforcer la méthode naturelle utilisée par le corps pour augmenter les niveaux de miR322. Article rédigé par Georges Simmonds pour RT Flash JMMC | | | |
| Des chercheurs Inserm et CNRS du Laboratoire Génétique Reproduction et Développement (Université Clermont Auvergne, CNRS, INSERM) ont réalisé une remarquable découverte dans le domaine très fondamental de l'expression des gènes en matière de cancer. Ils ont en effet montré que, contrairement à la théorie dominante, le mécanisme à méthylation de l'ADN dans leurs régions régulatrices pourrait ne pas être l'unique voie, ni forcement la plus importante, conduisant à la dérégulation de certains gènes impliqués dans le déclenchement de certains cancers. Cette étude montre en effet que, dans le cas du gliome (un cancer du cerveau), c'est l'altération d'une autre marque épigénétique, H3K27me3, qui émerge comme étant le défaut majeur des gènes dérégulés. Pour parvenir à cette conclusion, les chercheurs se sont appuyés sur des études moléculaires intégratives menées sur 70 échantillons de gliomes qui ont permis de suivre le destin de près de 15 000 gènes. Les données obtenues relativisent l'importance des défauts de méthylation sur les altérations transcriptionnelles dans les gliomes. En effet, le gain de méthylation se produit principalement sur des gènes qui sont déjà réprimés dans le cerveau sain. A l'inverse, parmi les gènes effectivement réprimés dans les gliomes comparés aux cerveaux sains, près de 75 % le sont indépendamment d'un défaut de méthylation. C'est l'altération d'une autre marque épigénétique, H3K27me3 (méthylation de la lysine27 de l'histone H3), qui émerge ici comme étant le défaut majeur des gènes dérégulés. Cette modification chimique, à la différence de la méthylation, ne cible pas l'ADN mais les protéines (histones) qui forment le nucléosome, structure autour de laquelle s'enroule l'ADN pour former la chromatine. Les résultats obtenus indiquent que la présence de H3K27me3 sur les promoteurs de gènes dans les cellules souches embryonnaires humaines, qui vont donner naissance à l'ensemble des cellules de l'organisme, prédispose ces gènes à être dérégulés dans les cellules cancéreuses. De plus, le niveau d'expression des gènes dans le cerveau sain va influencer le mécanisme par lequel ils seront éventuellement réprimés dans le gliome. Les gènes fortement exprimés sont en effet largement plus susceptibles d'être réprimés par H3K27me3 que par la méthylation de leurs promoteurs. Cette étude conduit donc à revoir notre conception des liens entre altérations épigénétiques et défauts d'expression dans les cancers et met en évidence qu'une altération dans le contrôle de la marque H3K27me3 est la principale cause des défauts d'expression géniques. Article rédigé par Georges Simmonds pour RT Flash NCBI | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|