| | | | | | | Edition du 09 Février 2018 |
| |
|
| Edito Les erreurs médicales, troisième cause de décès dans les pays développés !
Cette semaine, je vais évoquer la grave question des erreurs médicales, dont les conséquences humaines, sociales et économiques sont dramatiquement sous estimées dans notre pays. Ce problème, qui fait rarement la une des médias, constitue cependant un véritable défi de société. En 1999, dans un rapport intitulé « To err is human, building a safer health system » (l’erreur est humaine, construire un système de santé plus sûr), l’Institut de Médecine américaine révélait au public les chiffres de la mortalité résultant d’une erreur médicale. S'appuyant sur les données médicales de l’époque, cette étude estimait que 44 000 à 90 000 personnes mourraient chaque année aux États-Unis en raison d’une erreur médicale, que ce soit à l’hôpital ou dans le cadre de la médecine de ville. A l’époque, la publication de cette évaluation morbide créa un véritable choc au sein du monde médical américain et auprès du grand public. Mais il semble pourtant que ce triste bilan était encore largement sous-estimé, si l’on en croit une étude plus récente publiée en avril 2016. Dans ce vaste travail, des chercheurs américains ont utilisé et analysé des données et études médicales réalisées entre 1999 et 2013. Martin Makary et Michael Daniel, de la Johns Hopkins University School of Medecine de Baltimore, sont ainsi parvenus à une estimation de 251.454 décès par an liés à des erreurs médicales. Encore faut-il préciser qu'ils jugent ce chiffe sous-estimé car celui-ci ne tient pas compte des décès survenus hors cadre hospitalier (Voir Eurekalert). Selon cette étude très sérieuse, il s'agit de la troisième cause de décès aux Etats-Unis. M. Makary précise que le problème n'est pas limité aux Etats-Unis et existe partout dans le monde. "Les gens meurent d'erreurs de diagnostic, de surdoses de médicaments, de soins fragmentés, de problèmes de communications ou de complications évitables", ajoute-t-il. Face à ce constat, les auteurs de l'étude préconisent la mise en œuvre de toute une série de mesures visant à réduire à la fois la fréquence et les conséquences des erreurs médicales. Ils proposent notamment de modifier et de compléter le contenu du certificat de décès, afin d’y inclure les informations précisant si des complications liées aux soins ont pu entraîner le décès du patient. Autre propositi on : le déclenchement systématique d’enquêtes médicales immédiates, dans tous les cas de décès pour lesquels il existe une suspicion d’erreur médicale. Comme le souligne le Professeur Makary, « Pour s’attaquer sérieusement au défi que représentent pour la société les erreurs médicales, il faut commencer par reconnaître la nature et l’ampleur de ce problème à l’aide d’outils scientifiques appropriés ». Or cette étude balaye plusieurs idées reçues, à commencer par celle selon laquelle les erreurs médicales sont principalement dues à des insuffisances de compétences et de connaissances, et sont plutôt le fait d’équipes et de médecins insuffisamment formés ou préparés. Ce travail constate justement l’inverse : les erreurs médicales surviennent essentiellement chez des médecins et infirmiers expérimentés et compétents, et ne sont que peu liées à des erreurs conscientes mais plutôt provoquées par des actes associés aux automatismes de chaque instant, bien plus nombreux et fréquents que les actions conscientes, nécessitant une véritable réflexion. Cette étude rappelle également qu’une erreur médicale peut être liée à un événement unique ou résulter d’un enchaînement « en cascade » d’actions malheureuses qui, prises séparément, n’auraient pas entraîné d’erreur en soi. Parmi ces événements pouvant conduire à l’erreur médicale, on trouve, entre autre, les diagnostics erronés, les problèmes liés aux prescriptions (mauvaise écriture, ou mauvaise lecture de l’ordonnance), le manque de communication au sein d’une équipe, ou encore une insuffisance de personnel médical et infirmier dans le service considéré. S’agissant par exemple des erreurs liées au diagnostic, une étude américaine menée par un expert reconnu, le Docteur Mark Graber du VA Hospital de New York Long Island, a été publiée en 2008 et analyse les différents éléments pouvant conduire à une erreur de diagnostic médical. Selon le Docteur Graber, l’excès de confiance dont font preuve dans leur démarche diagnostique certains praticiens pourrait expliquer nombre d’erreurs médicales. C’est ainsi que le Docteur Graber explique que beaucoup de médecins, dès lors qu’ils ont posé un diagnostic qui semble heuristique face à une pathologie, ne se pose plus la question essentielle : quel autre diagnostic pourrait expliquer les mêmes symptômes ? Aux États-Unis, pour tenter de réduire la problématique des erreurs médicales, un institut a été créé, le AHRQ pour Agency for Healthcare Research and Quality (Agence pour la qualité et la recherche médicale). Cet organisme recense les cas cliniques typiques d’erreurs médicales et formule, à partir de l’analyse de ces situations, des conseils et directives pour les éviter. Et ceux qui pensent que la situation est meilleure en France, du fait de la différence de nature de notre système de santé, sont malheureusement dans l’erreur, comme le montrent plusieurs études convergentes. D’après l’étude ENEIS (Etude Nationale sur les Evénements Indésirables liés aux Soins), sur un total de plus de 400 millions d’actes médicaux réalisés en France, il survient entre 350 000 à 450 000 événements indésirables graves chez les personnes hospitalisées, dont plus d’un tiers serait évitable. De plus, les problèmes causés par les événements indésirables graves liés à la pratique médicale de ville (non hospitalière) entraîneraient une hospitalisation supplémentaire de 175 000 à 200 000 patients par an. Ce travail, malgré ses lacunes, a le mérite d’éclairer un très grave problème de santé publique, dont le coût humain et économique est considérable. Avec environ 13 millions d’hospitalisations en France, le nombre de décès pourrait ainsi, selon cette étude, avoisiner les 50 000, ce qui en ferait la troisième cause de mortalité du pays après les cancers et les maladies cardiovasculaires, mais devant les AVC et les maladies respiratoires… Mais selon le LIEN, une association de défense des patients et des usagers de la santé qui fait depuis des années un remarquable travail de recherche et de recoupement des données sur cette question, ces chiffres seraient encore sous-estimés. Cette association souligne que, selon une étude de l’OMS réalisée dans sept pays développés, dont les Etats-Unis, le Canada, le Royaume-Uni, un patient hospitalisé sur 300 décède d'un accident médical. Or, le LIEN souligne qu’en France, 13 millions de personnes ont été hospitalisées en 2016, ce qui conduit cette association à estimer le nombre de décès par erreurs médicales à 43 000 morts par an. A ce chiffre, déjà considérable, il faut encore rajouter un autre chiffre, souvent oublié, celui des 18 000 décès annuels issu de la médecine de ville, et victimes d'une erreur médicamenteuse (traitements inappropriés, non observés ou mal suivis par les médecins), selon un rapport du Sénat. Il y aurait donc, au total, plus de 60 000 morts provoquées par des erreurs médicales chaque année. Soulignons qu’à ce drame humain, s’ajoute un coût économique pharamineux pour la collectivité, coût qui peut être estimé à environ 150 milliards d’euros par an, un chiffre supérieur à celui du coût estimé des dommages de l’alcool ou du tabac (120 milliards par an pour chacun de ces deux produits selon la Direction générale de la santé) et qui représente les trois-quarts de nos dépenses totales de santé (198,5 milliards en 2016) ou encore plus de 6 % de notre PIB… En France, l’un des meilleurs spécialistes de cette question des erreurs médicales, le Professeur Philippe Juvin, professeur d'anesthésie-réanimation, chef des urgences de l'hôpital Beaujon, souligne que la principale cause d’incidents médicaux serait liée à des erreurs dans l’organisation des services concernés, qu’il s’agisse de problèmes d'étiquetage sur le médicament, de l’omission de bracelet sur le patient, ou encore de la confusion dans les noms ou les dates de naissance. Rejoignant l’analyse du Professeur Graber, le Professeur Juvin souligne également qu’une erreur médicale est presque toujours l’aboutissement d’une cascade de plusieurs faits générateurs dont les effets vont se cumuler. D’où la nécessité de concevoir et de mettre en place des procédures strictes de contr& ocirc;le qui vont permettre, soit de prévenir, soit de réparer immédiatement les conséquences d’un incident, avant que celui-ci, additionné à d’autres carences ou manquements, n’entraîne l’irrémédiable pour le patient. Pourtant, depuis 2002, la loi en France fait obligation au médecin de déclarer toute complication à la famille et transmettre à celle-ci, si elle en fait la demande, la totalité du dossier médical du patient décédé. Mais, dans les faits, la réalité est plus complexe et les déclarations, pour des raisons tenant à la culture médicale et à l’organisation des soins, sont loin d’être systématiques. Alors, comment parvenir à réduire sensiblement les erreurs médicales et leur cortège de conséquences dramatiques ? En actionnant simultanément trois leviers, selon les spécialistes : d’abord, rendre les erreurs mieux traçables, y compris via les certificats de décès, de sorte à pouvoir prévenir au plus tôt leurs effets, ensuite, prévoir les prises en charges médicales d’urgence, permettant de répondre rapidement aux erreurs, et enfin travailler, notamment au sein des hôpitaux, sur l’analyse des retours d’expériences, de manière à ne pas reproduire les mêmes erreurs et pouvoir mettre en place les garde-fous nécessaires. A l’hôpital, 40 % des incidents sont d’origine humaine et 7 fois sur 10 l’erreur est due à la mauvaise application de protocoles connus. Il faut donc non seulement reconnaitre et identifier l’existence de ces nombreux dysfonctionnements, mais bien sûr mettre en place les mesures correctrices appropriées pour les prévenir, ou en atténuer la gravité. Parmi elles, l’apprentissage par la simulation qui vise à obliger tous les professionnels de santé à réviser les procédures complexes, ce qui peut limiter sensiblement les risques d’erreurs. Telle est la mission de la trentaine de centres de simulation médicale qui existent en France. Mais ces centres sont encore loin de couvrir toutes les disciplines médicales. Reste qu’une nouvelle étape novatrice a été franchie fin 2016, avec l’ouverture du premier Medical Training Center (MTC) multidisciplinaire à Rouen. Ce centre de simulation d’acte médical est fondé sur le principe qu’aucun acte médical ne doit être réalisé la première fois sur le patient. «Nous avons voulu couvrir l'ensemble des disciplines et apporter une formation à la fois initiale et permanente aux médecins et personnels paramédicaux » précise le ProfesseurAlain Cribier, mondialement connu pour avoir créé les valves aortiques qui portent son nom et qu'il met en place par cathétérisation, c'est-à-dire implan tées simplement à travers la peau. Ce centre unique en son genre propose une cinquantaine de formations médicales différentes. Grâce à l’exploitation des images vidéo de haute qualité récupérées dans les blocs opératoires, les professionnels et équipes en formation peuvent simuler les mêmes gestes sur des mannequins robotisés, de plus en plus sophistiqués, capables de restituer avec un grand réalisme les réponses d’un véritable patient. Après chaque exercice pratique, ces formations, qui intègrent la dimension essentielle du travail en équipe, font l’objet d’un débriefing très complet. Cette démarche particulièrement rigoureuse s’inspire directement des formations dispensées dans l’aéronautique ou le nucléaire, domaines dans lesquels l’exigence de prévention et de sécurit é a été poussée le plus loin, notamment avec le principe du contrôle par check list et la priorisation des actes à entreprendre. Mais la lutte et la prévention des erreurs médicales passent également par le recours massif aux nouveaux outils numériques, comme les plates-formes communautaires d’assistance au diagnostic. Aux États-Unis, le « Human Diagnosis Project » est une plate-forme d’IA agrégeant et modélisant à l’aide d'une IA "machine learning" les diagnostics d’une communauté de spécialistes (Voir Scientific American). Concrètement, le médecin spécialiste se connecte à l’application ou à la plate-forme en ligne, répond à une série de questions sur le cas de son patient et, si nécessaire, envoie des radiographies à la communauté d& #8217;experts. En moins de 24 heures, Human Dx agrège l’ensemble des réponses et produit un rapport de données grâce à l’IA. La communauté médicale mondiale est également invitée à soumettre des contributions et connaissances cliniques à cette plate-forme qui utilise l'IA pour contextualiser automatiquement les décisions et diagnostics cliniques individuels. L’idée est que ce recours généralisé à l’intelligence collective pourrait permettre d’éviter ou de réduire considérablement le risque d’erreurs de diagnostics, qui constitue lui-même un puissant facteur d’erreurs médicales. On le voit, cette question majeure des erreurs médicales est complexe et doit être envisagée dans toutes ses dimensions, scientifiques mais également sociales, culturelles et institutionnelles. Nous disposons cependant à présent, avec l’arrivée des nouveaux outils numériques, qu’il s’agisse de la réalité virtuelle, de l’IA, des robots d’assistance ou des capteurs et objets connectés, d’une nouvelle panoplie de moyens particulièrement performants dans les domaines de la simulation, de la traçabilité, du contrôle et du retour d’informations concernant le patient. En utilisant de manière intelligente et cohérente l’ensemble de ces nouvelles technologies, dans le cadre d’une réorganisation humaine profonde et concertée des structures et du fonctionnement de notre système de santé, nous pouvons, j’en suis convaincu, si nous en avons la volonté collective, réduire de manière drastique le nombre bien trop élevé de ces erreurs médicales et des souffrances humaines insupportables qui en résultent. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Nanotechnologies et Robotique | |
| | | Un chercheur de l’Inserm, en coopération avec l’Université américaine d’Harvard, a réussi à créer des motifs en 3D d’un niveau de précision jamais atteint, grâce aux quatre bases de l’ADN : A, T, C et G. En pratique, ces chercheurs sont capables de créer des objets nanoscopiques (10-9 m) à partir de 30 000 séquences d’ADN qui vont s’auto assembler et se replier à la manière de briques LEGO. A la clé, la fabrication de nouveaux outils adaptés à la taille de nos cellules. Les nanotechnologies représentent un domaine scientifique en pleine expansion notamment quand il s’agit de créer des matériaux avec des propriétés de plus en plus spécifiques. C’est le cas des nanotubes de carbone, par exemple, qui sont très solides tout en étant légers et dont les conductivités thermique et électrique sont très importantes. Mais, il existe un champ de recherche un peu moins connu : celui des nanotechnologies à base d’ADN. Elles ont pour objectif de modeler la matière vivante afin de pouvoir l’utiliser comme outil thérapeutique à une échelle compatible avec celle de la cellule humaine. Toutefois, cette technologie dite des briques LEGO à ADN, apparue en 2012, se heurtait encore à un obstacle : programmer suffisamment de séquences d’ADN pour créer des objets de plus en plus complexes. Dans ce travail, les chercheurs ont franchi une nouvelle étape, en fabriquant des nano-objets qui s'inspirent de la méthode des briques LEGO, à partir d’un million de bases d’ADN, une taille comparable à celle du génome d’une bactérie, alors que jusqu’à présent, les objets créés étaient composés d’un millier de bases seulement. Pour parvenir à ce remarquable résultat, ces chercheurs ont conçu des "briques" composées chacune de 52 bases d’ADN. Une des propriétés de l’ADN repose sur le fait que les bases nucléiques d’un brin d’ADN (A, T, C ou G) peuvent interagir avec celles d’un autre brin en s’appariant toujours de la même façon. La base A avec la T et la base C avec la G. Comme les Lego, toutes ces unités ont la même forme générale mais l’ordre des 52 bases à l’intérieur détermine quelles sont les briques qui vont pouvoir s’accoler entre elles et à quel niveau. Il suffit ensuite de choisir la forme que l’on veut créer en la dessinant ou en la choisissant dans une base de motifs 3D (cube, ours, lapin, Möbius). Puis, chaque « voxel » du dessin est traduit en brique d’ADN via un programme informatique conçu par les chercheurs et baptisé Nanobricks. « Nanobricks « code » l’ADN en indiquant à l’avance l’ordre des 52 bases de chaque brique qui seront utilisées par la suite. Cette étape détermine la manière dont les 30 000 motifs initiaux vont s’emboiter les uns aux autres pour qu’une seule structure 3D finale ne soit possible, » explique Gaétan Bellot, chercheur à l’Inserm et co-auteur de ces travaux. Une fois ces étapes informatiques passées, les 30 000 séquences sont synthétisées en laboratoire puis mélangées dans un tube. Une première étape de dénaturation est réalisée à une température de 80°C où les 30 000 séquences d’ADN sont complètement déstructurées. Dans une seconde étape, le mélange est refroidi progressivement à 25°C au rythme de 0,5°C/heure, étape à laquelle l’auto assemblage s’effectue. Les molécules se replient spontanément et prennent une forme finale conforme au modèle 3D désiré. Dans cet article, 13 objets différents ont été réalisés par les chercheurs. Pour réussir à faire des objets à partir de 30 000 séquences, il a fallu augmenter la diversité de séquences des briques d’ADN. En explorant différentes tailles de briques, les équipes de recherche ont pu définir une taille de brique optimale (52 bases) qui permet à la fois de conserver une géométrie 3D similaire à une brique LEGO et d’augmenter la diversité de brique unique à 67 millions. Ainsi, avec une plus grande diversité de briques unitaires, le niveau de sophistication des objets est plus important. Les chercheurs ont réussi à créer des objets possédant des cavités. Ce degré de précision est nécessaire pour réussir à concevoir des outils qui s’avèreront utiles et efficaces. « Avec une clé vous allez ouvrir une voiture, avec un outil ADN vous allez, par exemple, pouvoir construire une capsule dans laquelle vous pourrez introduire un médicament. Et si cet objet possède plusieurs cavités, vous allez pouvoir créer une réaction biologique en chaîne en fonction des produits présents dans chaque cavité. En s’inspirant du vivant, cette approche permettra de reproduire à l’échelle du nanomètre des solutions et inventions qui y sont produites après des millions d 217;années d’évolution », explique Gaëtan Bellot. Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
| | | Dans un nombre croissant de domaines industriels, transports, espace, défense, bâtiment, il est nécessaire de disposer de matériaux métalliques à très haute résistance. La résistance et la ductilité – la capacité d’un matériau à se déformer plastiquement sans se rompre – sont des propriétés intéressantes des matériaux métalliques pour des applications plus étendues. Cependant, une trop grande résistance peut conduire à une diminution de la ductilité. Pour résoudre ce problème, une équipe d’ingénieurs en mécanique de Hong-Kong, Pékin et Taïwan, dirigée par Huang Mingxin de l’Université de Hong-Kong, a travaillé sur une nouvelle technique de fabrication d’acier, appelée D&P (Déformée et Cloisonnée). L’acier est le matériel métallique le plus largement utilisé dans l’histoire de l’Humanité. Et le développement d’un acier solide et ductile représente une longue quête depuis le début de l’âge de fer. Pour fabriquer de l’acier, il faut du minerai de fer, du charbon, de la chaux et des ferro-alliages : aluminium, chrome, manganèse, silicium, titane, vanadium, etc. Ces derniers confèrent à l’acier des caractéristiques particulières adaptées à ses divers usages : architecture, ameublement, conditionnements alimentaires, etc. Il est très difficile d’améliorer la ductilité des matériaux métalliques lorsque leur limite élastique est supérieure à 2 gigapascal (GPa) mais ces chercheurs ont relevé ce défi et réussi à atteindre une limite d’élasticité sans précédent de 2,2 GPa, avec un allongement uniforme de 16 %. Cet acier D&P démontre ainsi la meilleure combinaison d’élasticité et d’allongement uniforme jamais testée auparavant. Il contient 10 % de manganèse, 0,47 % de carbone, 2 % d’aluminium et 0,7 % de vanadium. En outre, son coût étant nettement inférieur à celui de l’acier utilisé dans les applications actuelles de l’aérospatial et de la défense, cet acier révolutionnaire peut également être développé en utilisant des procédés industriels conventionnels – laminage à chaud et à froid. Par conséquent, il représente un grand potentiel pour la production industrielle de masse. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| C'est une première en France. Le bailleur social Gironde Habitat et l'opérateur Enedis ont inauguré une installation expérimentale d'autoconsommation collective d'énergie photovoltaïque. Objectif : produire une partie de la consommation d'électricité d'un immeuble de 60 logements à l'aide de panneaux solaires fixés sur le toit. A terme, un dispositif de ce type pourrait permettre de diminuer de 30 % la facture d'électricité des habitants d'un immeuble collectif. Pour l'heure, on en est encore très loin. Mais l'installation présentée conjointement par le bailleur social du département, Gironde Habitat, l'opérateur du réseau d'électricité, Enedis, et l'entreprise spécialisée, Inelia, constitue une première avancée concrète. Cette expérimentation dans la résidence sociale "Les Souffleurs", à Bordeaux Belcier, est le premier dispositif d'autoconsommation collective d'électricité en France. Elle vise à alimenter la consommation des 60 ménages avec l'électricité produite par les 260 m2 de panneaux solaires disposés sur le toit de cet immeuble labellisé BBC construit en 2014. Un principe déjà opérationnel pour les logements individuels mais qui n'a été autorisé et encadré pour les logements collectifs que très récemment par la loi du 24 février 2017. "Cela devrait permettre une baisse des charges estimée entre 50 et 70 euros par an et par ménage", indique Sigrid Monnier, directrice générale de Gironde Habitat. Un montant à comparer à la dépense moyenne d'électricité d'un ménage français qui se situe autour de 800 euros par an dans un logement collectif à chauffage électrique comme c'est le cas dans cette résidence. L'opérateur public joue également le rôle de tiers de confiance entre tous les ménages adhérents pour s'assurer, en quasi temps réel, que la clef de répartition définie collectivement pour répartir l'énergie produite est bien respectée. Dans cette résidence, Gironde Habitat devrait privilégier une répartition des gains en fonction de la surface du logement plutôt que du montant de la consommation pour éviter tout effet inflationniste. Mais pour l'instant, le dispositif inauguré le 1er décembre ne permettra d'alimenter en électricité solaire que les parties communes afin de s'assurer de la fiabilité du système et de son efficacité au printemps et surtout à l'été prochain. Ce n'est donc qu'au second semestre 2018 que les 60 ménages pourront se lancer dans l'autoconsommation collective, sous réserve qu'ils adhèrent au dispositif et au partage des données... et que l'installation produise suffisamment d'énergie. Au-delà de la seule consommation des logements, Enedis invite aussi à se projeter sur l'avenir de nos villes. "Il faut penser aux réseaux d'énergie liés à la ville intelligente, la smart city, et aux flottes de véhicules électriques par exemple. Les dispositifs d'autoconsommation sont une partie de la réponse", souligne Philippe Monloubou. Article rédigé par Georges Simmonds pour RT Flash La Tribune | | ^ Haut | |
|
| | | Des chercheurs de la Rice University de Houston, au Texas (USA) ont pu mesurer la quantité d’une forme rare de molécule d’azote dans notre atmosphère. Leurs résultats suggèrent qu’elle serait plus abondante que prévu et qu'elle pourrait également constituer un bon marqueur indiquant le degré de probabilité d'une vie sur d’autres planètes. Alors que l’oxygène de notre atmosphère reçoit souvent toute la gloire, près de 80 % de chacune de nos respirations se composent d’azote ancien. La plupart des atomes de ces molécules ont une masse atomique de 14, mais moins d’un pour cent de ces atomes se retrouvent emballés avec un neutron supplémentaire, les transformant en un isotope appelé 15N. Il arrive parfois que deux de ces isotopes se combinent en une molécule d’azote gazeux, ce qui nous donne 15N15N. Ces molécules, les chercheurs connaissaient leur existence, mais, jusqu’à récemment, aucun instrument n’avait été capable de les mesurer avec précision. Jusqu’à présent les chercheurs s’appuyaient sur un spectromètre de masse, un appareil qui trie les molécules en fonction du rapport de leur masse à leur charge. Le problème, c’est qu’une substance chimique atmosphérique similaire appelée oxyde nitrique (NO), qui présente une masse atomique de 30, venait brouiller les résultats. La différence entre les deux produits chimiques n’est en effet que de deux millièmes de la masse d’un neutron. Cet oxyde nitrique, un polluant commun, ne constitue certes qu’une infime partie de l’atmosphère, mais il suffit, de par sa masse atomique, à submerger toute lecture de molécules 15N15N. Un nouvel instrument de pointe est en revanche en train de changer la donne, celui-ci étant aujourd’hui capable de déceler la différence entre ces deux molécules. S’appuyant dessus pour faire des mesures, une équipe de géochimistes menée par Edward Young, de l’Université de Californie à Los Angeles (UCLA), a récemment découvert qu’il y avait finalement dans l’atmosphère terrestre un peu plus de cette forme lourde d’azote que prévu. L’atmosphère de la Terre contient environ 2 % de plus de 15N15N que ce qui peut être expliqué par des processus géochimiques se produisant près de la surface de la Terre. Selon l’étude, cette molécule serait une signature unique à notre planète. Par conséquent, une étude des planètes avec des signatures d’azote similaires pourrait nous aider à identifier des planètes telluriques capables de supporter la vie organique. Article rédigé par Georges Simmonds pour RT Flash Science Advances | | | |
| Des astronomes ont découvert, au centre d'une galaxie lointaine, un trou noir qui pèse 800 millions de masses solaires. Situé à 13,1 milliards d'années-lumière de la Terre, ce géant baptisé J1342+0928 est le plus lointain jamais observé par l'humanité. C'est donc le plus ancien que l'on connaît, puisque la lumière du quasar, c'est-à-dire la matière extrêmement lumineuse qui gravite autour du trou noir, a mis 13 milliards d'années à parvenir jusqu'à la Terre. Les astronomes ont pu observer ce "trou noir fossile" tel qu'il était 690 millions d'années seulement après le Big Bang. Paradoxalement, cette époque de transparence s'appelle "l'âge sombre". La lumière n'apparaît effectivement que des centaines de millions d'années plus tard, quand les premières étoiles, les premiers quasars et les premières galaxies, se forment. Leur rayonnement "réionise" les gaz neutres et forme peu à peu des bulles de gaz ionisé. "C'est le début de la Réionisation, la dernière transition majeure de l'Univers et l'une des frontières actuelles de l'astrophysique", indique l'astrophysicien qui a piloté l'étude, Eduardo Bañados, sur le site de son Université, Carnegie Mellon. Cette période aurait commencé environ 400 millions d'années après le Big Bang et duré 600 millions d'années. C'est là que notre J1342+0928 entre en jeu. En analysant la lumière du quasar, qui date de 690 millions d'années après le Big Bang, soit en plein milieu de l'ère de Réionisation, les scientifiques ont pu déterminer qu'une grande partie de l'espace autour du trou noir était composée d'hydrogène neutre. Ce qui signifie que la Réionisation était récente. Elle aurait donc débuté plus tard que ce que l'on pensait. Mais ce n'est pas le seul élément troublant à propos de J1342+0928. Malgré son "jeune âge", ce trou noir avait une masse 800 millions de fois plus grande que notre Soleil. Or il ne devrait pas être aussi gros, aussi tôt dans l'histoire de l'Univers. « Qu'il soit devenu aussi massif en moins de 690 millions d'années pose un véritable défi aux théories sur la croissance des trous noirs supermassifs, » souligne Eduardo Bañados. Pour bien comprendre, il faut se pencher sur les deux principales hypothèses autour des trous noirs supermassifs. La première avance qu'ils sont issus de l'effondrement gravitationnel des premières étoiles et que leur masse initiale était relativement "faible", autour de 10 fois celle de notre Soleil. Ils auraient ensuite grossi, au fur et à mesure qu'ils fusionnaient avec d'autres trous noirs ou aspiraient des étoiles et des planètes. Sauf que ce processus, théoriquement très long, explique difficilement l'existence de J1342+0928, fort de 800 millions de masses solaires, 690 millions d'années seulement après le Big Bang. L'autre hypothèse est celle de l'apparition d'une première génération de trous noirs supermassifs de plusieurs dizaines, voire centaines de milliers de masses solaires, qui pourraient être issus de l'effondrement de titanesques nuages de gaz. Ce qui explique l'existence, aujourd'hui, de trous noirs de plusieurs milliards de masses solaire (comme NGC1277 ou SDSS J0100+2802), mais aussi celle, à l'époque, de J1342+0928. Sa présence, alors que l'Univers était si jeune, "renforce le modèle selon lequel les premiers trous noirs avaient une masse initiale de plus de 10 000 masses solaires", confirment les chercheurs dans leur étude. Apparus quand l'Univers était encore très jeune, ces monstres auraient alors catalysé la formation des premières galaxies, comme indiquait à L'Express Jean-Pierre Luminet, astrophysicien et directeur de recherche au CNRS. Ce qui pourrait expliquer une dernière bizarrerie concernant ce lointain trou noir. En observant la lumière émise par J1342+0928, ou plutôt son quasar, les astronomes ont déduit que "la galaxie qui l'entourait, malgré son très jeune âge -moins 690 millions d'années - avait déjà dû produire énormément de poussières d'éléments lourds. Ce qui veut dire qu'elle avait déjà vu naître une grande quantité d'étoiles". Or, selon les théories actuelles, cette galaxie n'aurait pas dû être si développée aussi tôt dans l'histoire de l'Univers. Sauf, éventuellement, avec le scénario évoqué par Jean-Pierre Luminet. Quoi qu'il arrive, "les modèles théoriques vont devoir expliquer comment une galaxie a pu créer autant d'étoiles en aussi peu de temps", insiste Bram Venemans. Article rédigé par Georges Simmonds pour RT Flash L'Express | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des chercheurs du Massachusetts Institute of Technology (MIT) ont présenté une méthode qui pourrait permettre à plusieurs familles d'antibiotiques d'être plus efficaces contre plusieurs germes pathogènes, en épuisant la persistance et la concentration bactériennes, notamment dans le cas d'infections courantes à Escherichia coli et Staphylococcus aureus résistant à la méthicilline (SARM). On connaît l’émergence des antibiorésistances, la menace de Santé publique que cela représente, alors que le nombre de nouveaux antibiotiques en développement diminue. Cette équipe du MIT, qui travaille donc à tenter d’accroître l'efficacité des antibiotiques existants, a découvert un moyen de rendre les bactéries plus vulnérables aux quinolones (dont ciprofloxacine) en surmontant leur limite d’efficacité liée à la concentration bactérienne. Dans cette étude, les chercheurs ont essayé non de surmonter une résistance liée à des défenses génétiques mais à une tolérance bactérienne. En effet, en concentration élevée, les bactéries entrent dans un état physiologique qui leur permet d'échapper à l'action du médicament. Cette même équipe avait déjà montré qu’il était possible d’augmenter la capacité des antibiotiques aminoglycosides à tuer les bactéries tolérantes en délivrant un type de sucre avec le médicament. Le sucre stimule le métabolisme de la bactérie, ce qui rend l’antibiotique plus efficace pour causer des dommages à l’ADN des microbes. Cependant, les aminoglycosides peuvent entraîner de sérieux effets secondaires et leur utilisation est donc plus restreinte. Cette recherche explore donc la légitimité d’une approche similaire pour vaincre la tolérance aux quinolones, une classe d'antibiotiques utilisée plus largement que les aminosides. Les quinolones agissent en interférant avec les enzymes bactériennes appelées topoisomérases, qui aident à la réplication et à la réparation de l'ADN. Mais avec les quinolones, il s’avère qu’il ne suffit pas d'ajouter du sucre ; les scientifiques montrent qu’il faut également ajouter un type de molécule connue sous le nom d'accepteur d'électron. Ces molécules jouent en effet un rôle essentiel dans la respiration cellulaire, le processus que les bactéries utilisent pour extraire l'énergie du sucre. Dans les cellules, l'accepteur d'électron est habituellement l'oxygène, mais d'autres molécules, y compris le fumarate, un composé organique acide qui est utilisé comme additif alimentaire, peuvent également être utilisées. L’idée centrale reste de stimuler la respiration bactérienne et d’augmenter la production d'espèces réactives de l'oxygène pendant le traitement antibiotique, pour une meilleure éradication des pathogènes bactériens, en particulier ceux ayant une faible activité métabolique. Les essais menés ici sur des colonies bactériennes de densité élevée montrent que la libération de quinolones, de glucose et de fumarate, forme une combinaison capable d’éliminer plusieurs types de bactéries, dont Pseudomonas aeruginosa, Staphylococcus aureus et Mycobacterium smegmatis. Cette nouvelle approche pourrait permettre de booster des antibiotiques existants à large spectre de manière à accroître leur efficacité face aux infections bactériennes de forte densité. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| La maladie de Huntington est une maladie neurodégénérative et héréditaire qui touche environ 6 000 personnes par an en France et se traduit par une dégénérescence neurologique provoquant d’importants troubles moteurs et cognitifs et entraînant, à terme, une perte d’autonomie. Mais une équipe de recherche de l'University College de Londres (UCL) a montré qu'une substance expérimentale, injectée directement dans la moelle épinière, pouvait, chez certains patients, réduire le taux d'huntingtine anormale dans le cerveau. Cette découverte, si elle est confirmée par d'autres études cliniques, pourrait constituer l'une des plus importantes avancées dans le domaine du traitement des maladies neurodégénératives de ces cinquante dernières années. Le traitement, qui vise à rendre « silencieux » le gène qui provoque la production d'huntingtine, a été expérimenté pour la première fois sur 46 patients britanniques, allemands et canadiens qui ont bénéficié d'une injection de quatre doses de IONIS-HTTRx au niveau du cerveau et de la moelle épinière. La procédure a été conduite au sein du centre Leonard Wolfson de neurologie expérimentale de l'Hôpital National de neurochirurgie de Londres. Cette première expérimentation sur l'humain a démontré que le médicament était sans danger et bien toléré dans l'ensemble par les patients. De plus, le taux de protéine huntingtine anormale dans le cerveau avait été réduit de manière critique selon les mesures effectuées à la suite de l'opération ! Chercheurs et médecins restent cependant prudents : ils ont encore besoin de vérifier sur le long terme si cette baisse de la huntingtine va avoir un impact sur le développement de la maladie. Sarah Tabrizi, directrice de recherche ayant supervisé les travaux, a déclaré que les résultats obtenus étaient "d'une importance incommensurable pour les patients et leurs familles", ajoutant, "Pour la toute première fois, nous avons le potentiel, l'espoir, d'une thérapie qui puisse un jour ralentir ou prévenir la maladie de Huntington". Article rédigé par Georges Simmonds pour RT Flash UCL | | | |
| Des chercheurs du Centre de recherches en cancérologie de Toulouse (Laboratoire Métabolisme du cholestérol et innovations thérapeutiques) ont récemment fait une découverte qui pourrait révolutionner les traitements de certains cancers du sein. Selon eux, dans certains types de cancer du sein réfractaires aux traitements actuels, un dérivé du cholestérol serait capable de bloquer la progression des tumeurs. Chaque année en France, ce sont plus de 54 000 nouveaux cas de cancers du sein qui sont diagnostiqués. Il est d’ailleurs le cancer le plus fréquent chez la femme à ce jour. Cette découverte, c’est un dérivé du cholestérol aux propriétés antitumorales, la dendrogénine A (DDA). Elle en effet capable de bloquer la prolifération des cellules tumorales, notamment chez les cancers appelés « triples négatifs » (environ 15 à 20 % des cancers), qui touchent en particulier les jeunes femmes et pour lesquels les traitements classiques ne donnent pas de résultats. Présent dans les cellules saines, ce dérivé du cholestérol se transformait jusque-là dans les cellules cancéreuses en une nouvelle molécule appelée OCDO, qui favorise la prolifération des cellules tumorales. Il fallait alors comprendre ce qui favorisait cette transformation et les chercheurs ont découvert qu’une enzyme en est à l’origine. "Nous avons vu comment nous pouvions bloquer, par différentes stratégies, la production d’OCDO qui favorise la progression tumorale", précise l'étude. "Cela ouvre des perspectives thérapeutiques dans les cancers où il y en a en grande quantité, comme les cancers du sein “triples négatifs” et pour lesquels aujourd’hui il n’y a pas de traitement ciblé", déclare le chimiste Marc Poirot, un des membres de l’équipe de recherche à l’origine de cette découverte. L’identification et le mécanisme étant démontrés, il est désormais possible de passer aux essais cliniques, qui devraient avoir lieu dans les deux années à venir avec des équipes médicales de l’Institut universitaire du cancer. Article rédigé par Georges Simmonds pour RT Flash Science Post | | | |
| Avec environ sept démences sur dix, la maladie d’Alzheimer, connue depuis 1909, est la forme de démence et de neurodégénérescence la plus répandue dans le monde. L’une des caractéristiques majeures de cette redoutable pathologie est l’accumulation de plaques toxiques dans le cerveau, formées par l’agrégation anormale dans les neurones d’une protéine appelée béta-amyloïde. A ce jour encore incurable, la maladie d’Alzheimer constitue une charge très lourde pour les systèmes publics de santé. La plupart des traitements actuels mettent l’accent sur la réduction de la formation de plaques amyloïdes, mais ces approches s’avèrent peu concluantes. De ce fait, les scientifiques cherchent aujourd’hui des stratégies de traitements alternatifs, parmi lesquelles celle de considérer la maladie d’Alzheimer en tant que maladie métabolique. Dans le prolongement de cette idée, le laboratoire de Johan Auwerx à l’EPFL s’est penché sur les mitochondries, de véritables centrales énergétiques qui se trouvent dans chaque cellule, et sont donc au cœur du métabolisme cellulaire. En prenant comme modèles d’études des vers et des souris, ils ont découvert qu’une stimulation des défenses des mitochondries contre une forme particulière de stress des protéines conduisait à une réduction de la formation de plaques amyloïdes. Durant le vieillissement normal ou lors de maladies associées au vieillissement telles qu’Alzheimer, les cellules sont sans cesse confrontées à une augmentation de lésions et doivent donc constamment se battre pour protéger et remplacer des mitochondries dysfonctionnelles. Les mitochondries fournissent de l’énergie aux cellules du cerveau ; chez un patient souffrant de la maladie d’Alzheimer, si elles ne sont pas protégées, cela favorise des lésions au niveau du cerveau, donnant ainsi lieu, au cours des années, aux symptômes caractéristiques de la maladie dont la perte de mémoire. Les scientifiques ont identifié deux mécanismes qui contrôlent la qualité des mitochondries. D’une part la « mitochondrial unfolded protein response » (UPRmt), une réaction qui protège les mitochondries du stress cellulaire. D’autre part, la mitophagie, un processus responsable du recyclage des mitochondries défectueuses. Ces deux mécanismes sont essentiels pour retarder ou prévenir trop de lésions mitochondriales chez un malade. Alors que nous savons depuis quelque temps que les mitochondries sont dysfonctionnelles dans le cerveau de patients souffrant de la maladie d’Alzheimer, ceci constitue la première preuve que ces organelles tentent bel et bien de combattre la maladie en stimulant des voies de contrôle de qualité. « Ces voies de défense et de recyclage des mitochondries sont essentielles et existent chez tous les organismes, du ver C. elegans jusqu’aux êtres humains, » dit Vincenzo Sorrentino, auteur principal de l’article. « C’est pourquoi nous avons décidé de les activer de manière pharmacologique. » L’équipe a commencé par mettre à l’essai des composés – tels que l’antibiotique doxycycline ou la vitamine nicotinamide riboside (NR) – capables d’enclencher les systèmes de défense UPRmt et mitophagiques chez le ver (C. elegans), un organisme modèle pour les travaux sur la maladie d’Alzheimer. Lors de comparaison avec des vers non traités, les scientifiques ont remarqué que la santé, l’activité et la longévité des vers exposés aux médicaments avaient augmenté de manière remarquable. La formation des plaques s’est aussi considérablement réduite chez les animaux traités. Plus important encore, les chercheurs ont observé des améliorations similaires en enclenchant les mêmes voies de défense mitochondriales au sein de cellules neuronales humaines cultivées. Ces résultats encourageants les ont alors incités à tester la nicotinamide chez la souris, autre organisme modèle pour la maladie d’Alzheimer. Tout comme pour C. elegans, la fonction mitochondriale chez la souris s’est améliorée de manière significative et les scientifiques ont pu observer une réduction du nombre de plaques amyloïdes. Mais surtout, ils ont relevé une surprenante normalisation de la fonction cognitive des souris – ce qui, d’un point de vue clinique, a des implications extrêmement importantes. Cette nouvelle approche thérapeutique pourrait ralentir la progression de la neurodégénérescence dans la maladie d’Alzheimer, et peut-être même la progression d’autres affections telles que la maladie de Parkinson – caractérisée elle aussi par de très grandes anomalies mitochondriales et métaboliques. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des scientifiques de l'Université technique de Munich (TUM) ont montré que des inhibiteurs de kinases, des enzymes clés qui contrôlent un certain nombre de fonctions cellulaires, comme leur croissance, révèlent une efficacité insoupçonnée contre le cancer. L’examen de 243 d’entre eux, approuvés ou en cours d’essais cliniques, a en effet montré qu'ils recelaient un vaste potentiel thérapeutique contre de nombreuses formes de cancer, en particulier pour les patients à profils génétiques rares. La thérapie ciblée a révolutionné le traitement de certains cancers et les inhibiteurs de kinases, qui sont particulièrement efficaces dans le traitement de certains types de cancer du sang et du poumon, participent aux progrès de cette prise en charge de précision. Le génome humain comporte en effet environ 500 kinases différentes. Dans les cellules cancéreuses, ces enzymes sont souvent hyperactives et les mécanismes de régulation normaux cessent de fonctionner. Les kinases sont ainsi impliquées dans la multiplication incontrôlable des cellules tumorales. Les inhibiteurs de kinases peuvent donc ralentir avec succès la croissance tumorale dans certains types de cancer. Plus de 350 inhibiteurs de kinases sont actuellement en essais cliniques, dont 37 déjà approuvés. Cependant, dans de nombreux cas, leur mode d'action précis n'est pas connu. En précisant les cibles fonctionnelles précises dans les cellules cancéreuses de ces inhibiteurs, ils permettent d’élargir le spectre d’efficacité d’un certain nombre d’entre eux. Leur approche unique, avec la spectrométrie de masse, a permis de préciser les voies de signalisation cellulaire spécifiquement ciblées par chaque inhibiteur. Les chercheurs ont également analysé l'interaction de 243 inhibiteurs testés avec des centaines de kinases dans des conditions quasi physiologiques. Il en ressort une cartographie des kinases humaines et de leurs voies biologiques d’activité : à partir de là, de nouvelles voies d’efficacité jusque-là inconnues sont découvertes : ainsi la kinase MELK, identifiée comme un biomarqueur de mauvais pronostic dans certains types de cancer du poumon pourrait être bloquée par certains des inhibiteurs testés. Autre exemple, le cabozantinib, un inhibiteur de la kinase, actuellement utilisé pour traiter le cancer de la thyroïde, s’avère également efficace contre une kinase impliquée dans le développement de la leucémie myéloïde aiguë. Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| Une étude conduite par l’AP-HP, Assistance publique-Hôpitaux de Paris, a montré pour la première fois que des individus asymptomatiques risquent de développer une dégénérescence fronto-temporale (DFT) ou une sclérose latérale amyotrophique (SLA), lorsqu'ils sont porteurs de la mutation c9orf72, présentent des altérations cognitives, anatomiques et structurelles très précoces, avant l'âge de 40 ans. Les dégénérescences fronto-temporales (DFT) et la sclérose latérale amyotrophique (SLA) sont des maladies neurodégénératives pouvant avoir une cause génétique commune, dont la plus fréquente est une mutation du gène c9orf72. Certains développements précliniques ciblant ce gène offrent des perspectives thérapeutiques encourageantes. Afin de pouvoir tester l’efficacité de ces thérapeutiques potentielles, l’identification de marqueurs pour détecter l’apparition des lésions au stade précoce et suivre l’évolution de la maladie est indispensable. En effet, il est maintenant établi que les maladies neurodégénératives causent des modifications biologiques et morphologiques plusieurs années avant l’apparition des premiers symptômes de la maladie. Ces stades pré-symptomatiques représentent probablement la meilleure fenêtre d’intervention thérapeutique pour stopper le processus neurodégénératif avant qu’il ne cause des dommages irréversibles au niveau du cerveau. L’objectif de ce travail est donc d’identifier des marqueurs du début du processus lésionnel, de la conversion clinique, c’est-à-dire de l’apparition des premiers symptômes cliniques et de la progression de la maladie. Cette étude multimodale a été réalisée à l’hôpital de la Pitié-Salpêtrière, AP-HP, sur une large cohorte de 80 personnes asymptomatiques porteuses de la mutation c9orf72, donc à risque de développer une DFT ou une SLA dans quelques années. Ces personnes ont été suivies pendant 36 mois (analyses neuropsychologiques, structurelles et micro-structurelles de la substance blanche du cerveau, du métabolisme cérébral, examens biologiques et cliniques) afin d’identifier des marqueurs cliniques, biologiques, de neuroimagerie, de métabolisme cérébral… Les résultats de cette étude ont montré pour la première fois des altérations cognitives et structurelles très précoces chez des sujets de moins de 40 ans, qui sont détectables en moyenne 25 ans avant le début des symptômes. Des troubles praxiques (difficultés dans la réalisation de certains gestes) apparaissent de façon précoce. Ce ne sont pas des symptômes classiques des DFT, et l’une des hypothèses est qu’ils pourraient être dus à une modification précoce du développement de certaines régions cérébrales, peut-être liée à la mutation. De façon intéressante, des altérations de la substance blanche du cerveau, détectées précocement par l’IRM, prédominent dans les régions frontales et temporales, les régions cibles de la maladie, et pourraient donc constituer l’un des meilleurs biomarqueurs de la maladie. La mise en évidence de biomarqueurs à des stades très précoces est un premier pas vers le développement d’outils nécessaires à l’évaluation de nouveaux traitements. En effet, afin de prévenir l’apparition de la maladie, il est nécessaire d’administrer des médicaments aux stades présymptomatiques et donc de développer des outils qui permettent de savoir quand commencer le traitement et de mesurer son efficacité. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Expérimentée pour la première fois en 2012 par les biologistes Emmanuelle Charpentier et Jennifer Doudna, CRISPR-Cas9 est une technologie révolutionnaire qui permet de modifier le génome humain ou animal en coupant de façon précise des parties défectueuses de l'ADN grâce à des "ciseaux moléculaires". Une version modifiée de cette technique, qui consiste à activer sélectivement des gènes pour doper l'activité génétique, vient d'être mise au point, indiquent des chercheurs. Non seulement cette approche élimine le risque de modifier des gènes par erreur -un problème majeur-, mais elle ouvre potentiellement la voie à l'utilisation de la technique Crispr pour traiter des maladies humaines dévastatrices. « Bien que de nombreuses études ont démontré que Crispr-Cas9 peut être utilisé comme un puissant outil génétique, il y a des inquiétudes grandissantes concernant des mutations non-voulues générées par cette technologie », explique Juan Carlos Izpisua Belmonte, professeur à l'Institut Salk, le principal auteur de la recherche. « Nous avons pu surmonter ce problème », assure-t-il. Et les premières expériences, réalisées sur des rongeurs, sont très prometteuses. Les chercheurs ont d'abord utilisé des souris chez lesquelles ils ont provoqué une pathologie rénale grave, un diabète de type 1 et une forme de dystrophie musculaire. Puis, dans chacun de ces cas, ils ont utilisé la nouvelle méthode Crispr-Cas9 pour doper l'expression d'un ou de plusieurs gènes spécifiques susceptibles d'éliminer les symptômes de ces pathologies. Dans le cas de la pathologie rénale, les scientifiques ont activé deux gènes connus pour jouer un rôle dans la fonction rénale et ont non seulement constaté une augmentation des niveaux de protéines liées à ces gènes, mais également une amélioration du fonctionnement de ces organes. Pour le diabète, ils ont activé des gènes pouvant générer des cellules productrices d'insuline, ce qui a entraîné une baisse de la glycémie chez les souris diabétiques. Quant aux souris atteintes de dystrophie musculaire, les chercheurs ont stimulé l'activité de gènes ayant précédemment montré qu'ils pouvaient inverser les symptômes de cette maladie. Un de ces gènes en particulier ne peut pas être aisément acheminé par des virus, voie traditionnelle des thérapies génétiques. « Nous sommes très satisfaits des résultats obtenus chez ces souris qui ont montré qu'en induisant l'activation de certains gènes on peut en même temps constater des changements physiologiques », explique Fumiyuki Hatanaka, un scientifique de l'Institut Salk, un des principaux co-auteurs de l'étude. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| On le sait, un sommeil durablement perturbé ou insuffisant n'est pas bon pour notre cerveau. Des chercheurs de l'Université d'Aarhus ont découvert que les patients atteints de troubles du sommeil paradoxal manquent de dopamine et présentent une forme d'inflammation du cerveau qui les rend plus à risque de développer la maladie de Parkinson ou la démence, avec l’âge. Cette découverte d’une inflammation dans la zone des cellules nerveuses productrices de dopamine permet une meilleure compréhension des stades précoces de la maladie. La maladie de Parkinson est déclenchée par la chute des niveaux de dopamine et la perte progressive des neurones dopaminergiques dans le cerveau. Le trouble du sommeil paradoxal ou sommeil REM (rapid-eye-movement) est caractérisé par des perturbations dans le stade où ont lieu les rêves. Alors que les personnes en bonne santé sont détendues et dorment pendant cette phase du sommeil, les personnes souffrant de ce trouble « vivent » leurs rêves et peuvent donc pendant leur sommeil, s’agiter, donner des coups de pied et crier. L’équipe danoise a étudié l'état des cellules nerveuses productrices de dopamine et des cellules qui participent au système immunitaire du cerveau chez 20 patients souffrant de troubles du sommeil paradoxal (REM) vs 19 témoins en bonne santé. Leur analyse montre que les patients souffrant de ce trouble du sommeil présentent une inflammation du cerveau dans la zone des neurones dopaminergiques, ce qui augmente leur risque de développer la maladie de Parkinson ou la démence en raison d’un manque de dopamine dans le cerveau. Ce sont donc de nouvelles connaissances sur les premiers stades de développement de la maladie. L'objectif serait de pouvoir identifier parmi les patients atteints du trouble du sommeil paradoxal ceux qui vont développer plus tard la maladie de Parkinson. Article rédigé par Georges Simmonds pour RT Flash The Lancet | | | |
| Des chercheurs du Généthon, le laboratoire de l'AFM-Téléthon, de l'Inserm (unité mixte Inserm/Université de Nantes/CHU de Nantes) et de l'Université de Londres, ont expérimenté une thérapie innovante qui a permis de restaurer la force musculaire de chiens atteints de la myopathie de Duchenne et de stabiliser leurs symptômes, une première encourageante dans la perspective d'un traitement chez l'humain. La myopathie de Duchenne est une maladie génétique rare et évolutive qui touche l'ensemble des muscles de l'organisme. C'est la plus fréquente des maladies neuro-musculaires de l'enfant. Elle concerne environ une naissance sur 3.500 et touche quasi exclusivement les garçons, dont l'espérance de vie ne dépasse pas en moyenne les 30 ans. Elle est causée par la déficience d'un gène qui bloque la fabrication de la dystrophine, une protéine indispensable au fonctionnement des muscles. Ces recherches ont permis de produire un médicament de thérapie génique basé sur une version raccourcie du gène de la dystrophine. Ce gène a la caractéristique d'être l'un des plus grands du génome humain, ce qui rend impossible l'utilisation d'une thérapie génique classique. Ce médicament a été testé chez 12 chiens naturellement atteints de la myopathie de Duchenne. Il leur a été injecté par voie intraveineuse. "Les chercheurs ont constaté une restauration significative de la fonction musculaire avec une stabilisation des symptômes cliniques observée pendant plus de 2 ans après l'injection du médicament", précise l'étude qui ajoute qu'aucun traitement immunosuppresseur n'a été administré au préalable et aucun effet secondaire n'a été observé. "Cette étude préclinique permet d'envisager le développement d'un essai clinique chez les patients. C'est la première fois que l'on parvient à traiter le corps entier d'un animal de grande taille avec cette protéine", a commenté l'auteur principal de cette étude, Caroline Le Guiner du CHU de Nantes. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Avec l’âge, on observe souvent une diminution progressive du volume cérébral et du métabolisme du glucose, ce qui entraîne un déclin des fonctions cognitives. Ces changements physiologiques peuvent être exacerbés par le stress et une mauvaise qualité du sommeil. Ces deux derniers paramètres sont considérés comme des facteurs de risque de la maladie d’Alzheimer. Agir sur le stress et le sommeil pourrait donc faire partie de la panoplie d’outils utiles pour retarder le plus possible l’apparition de la maladie. C’est ainsi qu’une étude pilote menée par des chercheurs Inserm de Caen et Lyon a exploré la possibilité que la méditation puisse décaler de quelques années l’âge auquel les changements cérébraux favorables au développement d’Alzheimer apparaissaient. Pour cela, ils ont étudié le fonctionnement du cerveau de 6 personnes pratiquant la méditation. « Les "experts" ayant participé à l’étude sont âgés de 65 ans en moyenne et ont entre 15 000 et 30 000 heures de méditation derrière eux. Nous les avons sélectionnés car ils pratiquent la méditation selon différents courants traditionnels bouddhistes ce qui nous permet d’avoir un panel représentatif », explique Gaël Chételat, chercheuse Inserm et première auteure de ces travaux. Puis les chercheurs ont comparé le fonctionnement de leur cerveau à celui de 67 témoins non-méditants eux aussi âgés en moyenne de 65 ans. Un groupe plus large de 186 personnes âgées de 20 à 87 ans a également été inclus pour évaluer les effets classiques du vieillissement sur le cerveau et mieux comprendre les effets particuliers de la méditation. Toutes les personnes ayant participé à cette étude ont été soumises à des examens neurologiques par IRM et TEP au sein de la plate-forme d’imagerie biomédicale Cyceron à Caen. Des différences significatives ont été mises en évidence au niveau du volume de la matière grise et du métabolisme du glucose. Dans le détail, les résultats d’examens montrent que le cortex frontal et cingulaire et l’insula des personnes pratiquant la méditation étaient plus volumineux et/ou avaient un métabolisme plus élevé que celui des témoins, et ce, même lorsque les différences de niveau d’éducation ou de style de vie étaient prises en compte. « Les régions cérébrales détectées avec un plus grand volume ou métabolisme chez les personnes pratiquant la méditation sont spécifiquement celles qui déclinent le plus avec l’âge », explique Gaël Chételat. Les effets de l’âge évalués dans cette même étude chez les personnes non-méditantes âgées de 20 à 87 ans se concentraient effectivement sur certaines régions bien particulières – les mêmes que celles qui étaient préservées chez les méditants âgés. Ces premiers résultats suggèrent que la méditation pourrait réduire les effets néfastes de ces facteurs sur le cerveau et avoir un effet positif sur le vieillissement cérébral, possiblement en permettant une réduction du stress, de l’anxiété, des émotions négatives et des problèmes de sommeil qui ont tendance à s’accentuer avec l’âge. Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|