| | | | | | | Edition du 24 Novembre 2017 |
| |
|
| Edito La stimulation électromagnétique du cerveau : une révolution !
Cette semaine je reviens sur une innovation, peut-être devrais-je dire une révolution, que nous avons déjà évoquée à plusieurs reprises dans RT Flash et qui est en train de confirmer son immense potentiel scientifique et thérapeutique : la stimulation électrique et magnétique contrôlée du cerveau. Expérimentée dans différents hôpitaux et laboratoires depuis plus de 40 ans, cette technique - ou plus exactement cet ensemble de techniques consistant à stimuler certaines régions précises du cerveau à l’aide de certaines fréquences électriques ou magnétiques - est brusquement devenue médiatique en 2014, année où le neurochirurgien français Alim-Louis Benabid a reçu le prestigieux prix Lasker, avec son collègue, le neurologue américain Mahlon DeLong, pour leur mise au point de la technique dite de « stimulation cérébrale profonde » (SCP). Ce procédé neurochirurgical avait été appliqué pour la première fois sur un patient atteint de la maladie de Parkinson en 1993 au CHU de Grenoble par le professeur Benabid. Le principe de cette intervention vise à moduler, grâce à un courant électrique à haute fréquence, l’activité des circuits neuronaux dont le fonctionnement se voit altéré par la maladie. Concrètement, les neurochirurgiens implantent directement dans le cerveau de fines électrodes qui délivrent un courant électrique continu à des structures cérébrales profondes, par exemple les noyaux gris centraux pour les malades parkinsoniens. Ce dispositif qui relie le stimulateur aux électrodes est implanté sous la peau et passe sous le cuir chevelu, puis descend jusqu’au thorax ou l’abdomen, en fonction du site choisi pour implanter le stimulateur. Le système peut être commandé et réglé à distance à travers la peau, ce qui permet aux médecins de modifier rapidement et simplement les différents paramètres de cette stimulation électrique. La technique spécifique de la stimulation cérébrale profonde (SCP) à haute fréquence mise au point, après plus de 20 ans de recherche, par le Professeur Benabib, consiste à installer de manière permanente une électrode dans le cerveau du patient. Cette dernière délivre un courant électrique d’une intensité contrôlée de 130Hz vers des régions ciblées du thalamus. Elle a déjà permis d’améliorer la vie de 150.000 personnes à travers le monde. Cette technique de la SCP a d’abord été appliquée avec succès au traitement des manifestations de la maladie de Parkinson, puis à d’autres pathologies du mouvement. Puis, au fil des années, les chercheurs ont constaté qu’en variant à la fois les sites d’implantation des électrodes et l’intensité et la fréquence des courants utilisés, il était possible d’obtenir des effets thérapeutiques pour d’autres pathologies, comme la dépression sévère aux troubles obsessionnels compulsifs (TOC) ou à la maladie de Gilles de la Tourette. En 2014, l’équipe INSERM du Docteur Luc Mallet a ainsi montré, en stimulant par un courant électrique les neurones du ganglion de la base, fortement impliqués dans la planification et l’exécution des mouvements, qu'avec la SCP il était possible se soulager sensiblement les symptômes de 70 % des patients souffrant de troubles obsessionnels compulsifs (TOC) résistant aux traitements médicamenteux. En mai dernier, une autre étude réalisée en double aveugle contre placebo et menée par des chercheurs de l’Hôpital Universitaire de Fribourg, de l'Université de Bonn (Allemagne) et de l'Université John Hopkins de Baltimore (Etats-Unis), a montré que la SCP ciblée sur le faisceau antérieur du cerveau médian (slMFB) permettait également d’obtenir une amélioration très significative sur de longues périodes (au moins 4 ans) dans la prise en charge de plus de la moitié des sujets atteints de dépression résistantes aux traitements classiques (Voir Brain Stimulation). Depuis une dizaine d’années, la stimulation cérébrale profonde et la stimulation magnétique transcrânienne (SMT) ne cessent d’étendre leurs indications thérapeutiques. En 2006, une équipe médico-chirurgicale de Toronto a par exemple découvert fortuitement les effets cognitifs bénéfiques de la stimulation cérébrale profonde chez un patient souffrant d'obésité morbide. A leur grande surprise, les chercheurs ont en effet observé que si cette technique ne permettait pas, à l'époque, de réduire l’appétit et le poids du patient, elle avait en revanche entraîné une amélioration significative et tout à fait inattendue des fonctions mnésiques et cognitives. Dans ces essais cliniques, les électrodes étaient implantées à proximité d’une structure cér ébrale particulière, le fornix, qui est la voie de sortie de l'hippocampe et joue un rôle majeur dans les processus de mémorisation. D’après les chercheurs, ce serait justement cette stimulation du fornix qui aurait involontairement provoqué une amélioration de la mémoire et de l’apprentissage. S’inspirant de ces recherches, les Professeurs Fontaine et Robert, coordonnateur du Centre mémoire de ressources et de recherche (CMRR) du CHU de Nice, ont entrepris en 2016 une étude pilote qui vise à mieux évaluer chez l’animal le potentiel thérapeutique de ces techniques de pointe pour lutter contre la maladie d’Alzheimer. Cette étude va essayer d’évaluer l’effet de cette stimulation électrique sur la formation des plaques amyloïdes caractéristiques de cette maladie et tentera également de vérifier si cette technique a un effet sur la néo-neurogénèse, c'est-à-dire la formation de nouveaux neurones au niveau de l'hippocampe. Tout en restant très prudent, le Professeur Fontaine souligne qu’il a déjà opéré une patiente, dont la maladie d'Alzheimer s'est stabilisée grâce à la stimulation profonde. Il précise que les IRM ont même montré une amélioration visible de son métabolisme cérébral… A l'hôpital de Besançon, la stimulation cérébrale superficielle est expérimentée depuis quelques années contre la maladie d’Alzheimer, avec des résultats plutôt encourageants. Dix séances de 30 minutes chacune sont proposées aux patients inclus dans ce projet de recherche. Une évaluation est réalisée un mois plus tard. Le Professeur Haffen détaille : «Nous obtenons des résultats positifs dans trois tests qui mesurent la mémoire visuelle, la mémoire verbale antérograde et l'efficience cognitive. Les aidants rapportent, en outre, un retentissement au quotidien sur la qualité de vie ». Il faut également évoquer de récentes recherches britanniques menées par des chercheurs du réputé King's College of London. Ceux-ci ont réussi à diminuer de 31 % les crises alimentaires compulsives de patients boulimiques en stimulant à l'aide d' électrodes les zones de leur cerveau liés au système de récompense (Voir PLOS). Les 39 patients suivis dans le cadre de cette expérience ont bénéficié d'une séance tous les deux jours. Pendant la durée de cet essai, ils devaient répondre à des questionnaires portant sur leur niveau de restriction alimentaire. D'après les résultats, les crises ont été réduites de 31 %, alors que le groupe placebo n'a connu aucune amélioration. Cette méthode de stimulation cérébrale pourrait améliorer sensiblement la prise en charge de ces troubles difficiles à traiter et les chercheurs envisagent même la possibilité de concevoir à terme des appareils portatifs qui pourraient être utilisés par les patients eux-mêmes à leur domicile. En juillet 2017, ces chercheurs du King's College London ont cette fois tenté d’évaluer l’efficacité de la SCP chez des patients schizophrènes, souffrant de troubles cognitifs. Dans ces expérimentations, les chercheurs ont eu recours à la technologie d'électrostimulation TCDCS ("trans-crânial direct current stimulation" ou "stimulation transcrânienne par courant continu "), qui consiste à envoyer un courant électrique via deux électrodes fixées sur le cuir chevelu dans le cerveau, à cibler le cortex préfrontal gauche, siège de différentes fonctions cognitives, notamment le langage, la mémoire de travail, le raisonnement, et plus généralement les fonctions exécutives. Les premiers résultats montrent que les patients, après plusieurs stimulations de 30 minutes, ont vu, au bout de 24 heures, leurs performances cogni tives et mnésiques s’améliorer. L’année dernière, des chercheurs de l'Université de Pennsylvanie ont voulu voir dans quelle zone du cerveau exactement se produit la compréhension globale du sens d'une phrase. Ces scientifiques ont utilisé la stimulation transcrânienne à courant direct (TDCS) et ils ont ainsi pu montrer, sur une cohorte de 18 volontaires en bonne santé, que cette compréhension se fait au niveau du Gyrus angulaire, une petite région cérébrale qui intègre les informations linguistiques délivrées par les mots d'une phrase pour donner un sens global à celle-ci. Les résultats et informations recueillis à l’issue de ces expérimentations ont clairement montré que la stimulation du gyrus gauche augmentait significativement la rapidité de réponse dans les cas où la paire de mots avait une cohérence. Ces travaux tendent à confirmer que le gyrus gauche semble très impliqué dans la tâche cognitive précise consistant à donner un sens global à un assemblage de mots, dans la mesure où ce dernier revêt un certain sens. Mais cette technique de stimulation transcrânienne à courant direct n'est pas seulement un nouvel outil précieux de recherche fondamentale sur les processus cognitifs ; elle pourrait également, selon ces travaux, être utilisée pour tenter d’améliorer certains déficits cognitifs ou même d’augmenter les capacités cognitives de sujets en bonne santé. Ces travaux portant sur la possibilité d’améliorer par ces techniques de stimulation cérébrales les facultés cognitives en l’absence de toute pathologie ont par ailleurs été confirmés par une récente étude américaine d’une équipe de l’Université de Boston, réalisée sur 30 sujets en bonne santé. Ces recherches sont venues confirmer le potentiel des différentes formes de stimulation cérébrale pour améliorer certaines facultés cognitives chez des sujets en bonne santé. Selon ces recherches, en synchronisant des oscillations spécifiques du cerveau, il serait possible d’améliorer la fonction exécutive, de limiter les erreurs et d’accroître les capacités cognitives pour certaines tâches. Cette étude ouvre donc la voie vers l’objectif controvers&eac ute; du « cerveau augmenté » (Voir PNAS). Ces étonnants résultats ont été obtenus grâce à l’utilisation d’une forme particulière de stimulation transcrânienne utilisant un courant alternatif. Cette technique, baptisée HD-tACS, a permis aux chercheurs de stimuler simultanément deux zones, via des électrodes placées sur le cuir chevelu d'un participant. Les chercheurs ont alors observé que l'amélioration de la synchronisation des ondes cérébrales semblait accroître les capacités d’apprentissage et de maîtrise de soi. A contrario, lorsque les chercheurs désynchronisaient les ondes cérébrales dans ces 2 régions, il s’en suivait une diminution des capacités cognitives. Bien que ces résultats demandent à être confirmés par d’autres études plus vastes, ils ouvrent non seulement une toute nouvelle voie thérapeutique pour de nombreux troubles psychiatriques et neurologiques mais laissent entrevoir la possibilité d’améliorer le fonctionnement, pour certaines tâches cognitives et dans certaines situations, de cerveaux en bonne santé. Mais la stimulation magnétique transcrânienne est également en train de s’imposer dans un autre domaine en pleine mutation : celui du traitement des douleurs chroniques et rebelles. Utilisée à large échelle dans plusieurs hôpitaux parisiens depuis 2014, cette technique a permis d’obtenir de remarquables résultats dans la prise en charge de douleurs résistantes aux traitements classiques, notamment chez des patients souffrant de fibromyalgie. Forts de ce succès, médecins et chercheurs ont lancé une vaste étude au niveau national pour évaluer l’efficacité thérapeutique de la SMT dans d’autres types de douleurs réfractaires aux traitements médicamenteux, comme certaines douleurs neuropathiques. A la lumière de ces différentes recherches, on voit donc que ces outils de stimulation électrique ou magnétique du cerveau ouvrent d’impressionnantes perspectives dans trois domaines scientifiques : le premier concerne l’utilisation de ces nouveaux outils pour faire progresser la connaissance fondamentale des mécanismes complexes par lesquels notre cerveau analyse son environnement, apprend, mémorise des informations et élabore des stratégies d’actions. Le deuxième concerne l’utilisation directement thérapeutique de ces outils, avec un succès grandissant, pour soulager, et parfois guérir certains troubles du comportement ou certaines pathologies neurodégénératives graves. Quant au troisième domaine d’action il consiste à utiliser ces outils puissants pour tenter d’améliorer les capacités cognitives et sensorie lles d’un sujet en bonne santé. Si les deux premiers objectifs ne sont pas contestables, il n’en va évidemment pas de même pour le dernier qui pose incontestablement de réelles questions éthiques, politiques et philosophiques. Est-il en effet souhaitable, sans aucune justification thérapeutique, de vouloir utiliser les potentialités de ces techniques pour généraliser le fantasme d’un cerveau « augmenté », sachant que le recours à ces stimulations électromagnétiques pourrait avoir, dans certains cas, des effets irréversibles sur notre cerveau et pourrait, de surcroît, entraîner des conséquences indésirables et imprévisibles de nombreuses années après leur utilisation… On le voit, si cette extraordinaire avancée scientifique que représente la stimulation électrique et magnétique du cerveau doit être saluée et explorée comme il se doit, pour pouvoir traiter demain plus efficacement de nombreux troubles ou pathologies du cerveau, il convient de faire preuve de la plus grande prudence et d’ouvrir une réflexion de fond sur ce que j’ai appelé, il y a déjà de nombreuses années, la « neuroéthique », une démarche qui concerne les limites à ne pas franchir pour ne pas altérer, sous prétexte « d’améliorer » nos facultés intellectuelles, la personnalité , la singularité et peut-être même le libre-arbitre de l’homme. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Information et Communication | |
| | | ONCODESIGN, groupe biopharmaceutique spécialisé en médecine de précision, et UNICANCER viennent de présenter leur projet commun, OncoSNIPE, qui a pour objectif le développement et la mise en œuvre d’approches d’intelligence artificielle contre le cancer. Ce projet combine l’apprentissage statistique et l’enrichissement sémantique qui doivent permettre l’identification et la caractérisation de patients résistant aux traitements anti-cancéreux. Son but est d'orienter et d'accélérer la recherche et le développement de solutions thérapeutiques spécifiques à travers l’identification de nouvelles cibles. En intégrant le projet, UNICANCER qui réunit les 20 Centres de Lutte Contre le Cancer de France (CLCC), ConSoRe, sera considérablement enrichi par les partenaires d’OncoSNIPE : anonymisation des dossiers patients, intégration des données omiques issues de l’essai clinique, identification des patients similaires, création d’un lien avec la plate-forme de médecine de précision tranSMART, et enfin identification des populations de patients résistants ou insensibles aux traitements anti-cancéreux. « L’objectif est d’améliorer la modélisation des problématiques de résistances aux traitements anticancéreux par une contextualisation des données cliniques, d’imagerie et par l’enrichissement de métadonnées pertinentes issues des dossiers patients, » indique Philippe Genne, Fondateur et PDG d’Oncodesign. Le but de ce projet est qu'Oncodesign apprenne progessivement à identifier de nouvelles cibles pour traiter la résistance aux traitements. Le projet va débuter par la mise en place d’un essai clinique longitudinal, impliquant 600 patients dans trois indications représentatives des mécanismes de résistances et insensibilités en oncologie : le cancer du poumon, le cancer du sein et le cancer du pancréas. Cet essai étudiera notamment les profils moléculaires associés à la non réponse aux traitements chez les patients atteints de ces cancers. Ce projet, d’une durée de 4 ans, regroupe les compétences de 4 partenaires industriels aux expertises et cœurs de métiers complémentaires et synergiques : Expert System (Modène, Italie), Sword (Lyon), Acobiom (Montpellier) et Oncodesign (Dijon) et 4 institutions académiques : UNICANCER, les Hôpitaux Universitaires de Strasbourg, le Centre George François Leclerc (Dijon) et l’Institut Paoli Calmettes (Marseille). Article rédigé par Georges Simmonds pour RT Flash Zone Bourse | | | |
| Connaissez-vous le redoutable "dilemme du tramway" : il vous suffit d'imaginer qu'un train roule à grande vitesse. Dans quelques secondes, ce train va arriver à une jonction et pourra alors, en fonction de votre seul choix, partir vers la voie de droite ou celle de gauche. Mais sur les rails de droite, un jeune homme est coincé, alors que sur ceux de gauche, cinq hommes sont attachés. Quel choix allez-vous faire ? Depuis un an, une équipe de chercheurs du MIT a lancé un curieux site appelé Moral Machine qui reprend ce dilemme pour tenter de définir un cadre moral d'action des systèmes d’intelligence artificielle. Sur ce site, les participants sont invités à voter pour savoir si une voiture autonome doit écraser les passants de droite, ceux de gauche ou, parfois, sacrifier les personnes se trouvant dans la voiture. A ce jour, près de 18 millions de votes ont été enregistrés sur les différents questionnaires, pour 1,3 million de votants. La quantité de données a fourni des idées aux deux chercheurs, Iyad Rahwan, chercheur au MIT à l’origine de Moral Machine, et Ariel Procaccia, professeur assistant en science informatique à l’Université Carnagie Mellon. Ils ont décidé de créer une IA fondée sur les réponses à Moral Machine. Les deux chercheurs expliquent comment ils ont créé leur intelligence artificielle capable d’évaluer et de prendre des décisions, selon les choix de la communauté de Moral Machine (Voir article Arxiv). "Nous ne disons pas que le système est prêt à être utilisé en conditions réelles mais notre algorithme démontre que le recours à un processus de décision démocratique peut aider dans les grandes problématiques éthiques qui existent sur la conception de l’IA". Les choix que fait l’IA des deux chercheurs sont donc conformes à ceux des internautes. Elles reflètent donc les choix humains. Entre écraser un criminel et une personne normale, l’IA choisit constamment le criminel. Et entre sacrifier une personne au lieu de deux, elle choisira toujours de sacrifier la personne seule. Article rédigé par Georges Simmonds pour RT Flash Mashable | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Mohammad Mahoor, professeur à l'école d'ingénierie informatique de l'Université de Denver, a conçu un robot destiné à aider les malades d'ALheimer. Equipé à la fois de la reconnaissance vocale et de la reconnaissance faciale, ce robot est actuellment expérimenté dans différents établissements de soins et maisons de retraite de Denver pour observer les réactions des malades. Ryan est un robot conçu sur le mode empathique et interactif ; il est capable de répondre à certaines questions des malades et peut égalment les aider à entretenir leurs mémoire et facultés cognitives altérées. Mohammad Mahoor précise que son robot tient également compte des changments de voix et d'expressions faciales de ses interlocuteurs dans ses réponses et peut lui-même afficher la tristesse ou la joie sur son visage. Bien entendu, au-delà des échanges affectifs que Ryan peut avoir avec les malades, ce robot est également programmé pour rappeler à son propriétaire l'heure de ses médicaments, de ses rendez-vous et de ses repas ; il peut également prévenir les proches ou le médecin, en cas de besoin. Article rédigé par Georges Simmonds pour RT Flash 9 news | | | |
| Pour la première fois, des chercheurs français ont réussi à lire par simple spectrométrie de masse plusieurs octets d'information stockés à l'échelle moléculaire sur des polymères synthétiques. Ces travaux menés conjointement par l'Institut Charles Sadron (CNRS) de Strasbourg et l'Institut de chimie radicalaire (CNRS/Aix Marseille Université) représentent un record du monde en termes de séquence moléculaire analysable via cette méthode de routine. Elle ouvre la voie au stockage de données à une échelle cent fois plus petite que celle des disques durs actuels. Pour parvenir à ce résultat, les chercheurs ont eu recours à des molécules synthétiques, plus faciles à manipuler et à lire que les molécules naturelles comme l'ADN. Pour ce faire, la structure moléculaire de ces polymères a été spécifiquement optimisée pour le séquençage par spectrométrie de masse. Deux types de monomères contenant un groupement phosphate ont été assemblés, chacun représentant un 0 ou un 1. Tous les 8 monomères, un séparateur moléculaire a été introduit. La macromolécule ainsi créée contient autant d'octets d'information qu'il y a de groupes de 8 monomères. Afin de lire cette information, une première étape de spectrométrie de masse permet de briser sélectivement les liaisons fragiles des séparateurs, divisant ainsi les octets. Une seconde étape de fragmentation permet de casser les groupements phosphates et ainsi de séquencer chaque octet. L'équipe de chimistes a ainsi réussi à créer des polymères pouvant stocker jusqu'à 8 octets, codant par exemple le mot "Séquence" en langage ASCII - qui associe à chaque octet une lettre ou un signe de ponctuation. En parvenant à lire ce mot par spectrométrie de masse, ils signent un nouveau record en termes de longueur de molécule décodée par cette méthode. En combinant un temps de lecture court et des méthodes d'écriture robotisées déjà existantes, ces travaux ouvrent une voie vers le stockage de plusieurs kilooctets de données sur des polymères synthétiques, soit le poids numérique d'une page de texte, ou l'espace de stockage des premières générations de disquette. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Le géant du bricolage Leroy Merlin vient de présenter, à l'occasion du salon Conext de Lille, son prototype de robot inventaire. Le dispositif figure parmi les 16 projets présentés par le Picom (Pôle de compétitivité des industries du commerce). Tous sont issus du programme New Shopping Experience qui associe systématiquement une entreprise porteuse d'une solution technologique, une enseigne (et parfois un laboratoire) autour d'un cas d'usage bien particulier. Le robot présenté a été développé par MCQ-Scan et l'Ecole polytechnique de Lille. Leur collaboration a permis de mettre au point un prototype de robot autonome capable de réaliser de la captation et du traitement d'images. Une interface permet de programmer le chemin du robot à travers le magasin. Celui-ci se déplace dans toutes les directions et se repère grâce à un Lidar. La même interface permet d'activer ses caméras. Les images enregistrées sont ensuite transmises sur des serveurs et analysées par les algorithmes de la société MCQ-Scan. "Le robot va analyser les rayons des surfaces de vente et on va récupérer cette information pour la comparer à celle du catalogue afin d'identifier des anomalies, comme une erreur de prix, une absence de prix, un produit manquant ou mal placé", explique Christophe Eechaute de la PME lilloise. Ces informations peuvent être visualisées sur une sorte de tableau de bord en ligne ou être directement envoyées sous la forme d'alerte sur le smartphone d'un conseiller de vente. Les images collectées peuvent aussi être compilées dans un "store view" pour les équipes de la centrale. "Si un produit se vend très bien dans un magasin mais beaucoup moins bien dans un autre situé à 20 km, cela peut s'expliquer par un souci de marchandising. Les équipes pourront alors analyser ce problème et donner des conseils au personnel du magasin", imagine Christophe Eechaute. Article rédigé par Georges Simmonds pour RT Flash L'Usine Digitale | | ^ Haut | |
|
| | | Après "Wattway", la "route solaire", lancée par Colas (filiale routière de Bouygues), il y a deux ans, Eurovia, la filiale routière de Vinci, vient de présenter son "Power Road", une route à énergie positive. Mais Wattway et Power Road ne sont pas comparables. L'une produit de l'électricité, tandis que Power Road produit de la chaleur et ce, sans modifier l'aspect de surface, qui reste ce que les professionnels appellent un « enrobé » (en langage courant le bitume ou l'asphalte). Le principe de Power Road, marque déposée par Eurovia, n'est pas sans rappeler les sols chauffants. Des tubes en serpentin sont noyés dans le bitume. Un fluide circule en circuit fermé dans ces tubes pour récupérer la chaleur de l'asphalte chauffé par le soleil. Cette chaleur "peut par exemple être utilisée pour le chauffage et l'eau chaude des bâtiments avoisinants", illustre Pierre Anjolras. Lorsque l'installation est couplée à de la géothermie, ce même fluide peut aussi, à l'inverse, chauffer la route en hiver pour la déneiger ou éviter le verglas. "Le savoir-faire est dans la formulation de l'enrobé, qui est un brevet d'Eurovia", explique le président. Le système conçu repose sur un circuit de tubes dans lesquels circule un fluide, raccordé à une source de chaleur en géothermie. Cette "route à gestion de chaleur" a été testée pour la première fois en 2013 pour sa fonction déneigement. Un autre test a été lancé en juillet 2017 sur 500 m2 d'accès au parking poids lourds du péage de Saint-Arnoult-en-Yvelines (78) sur l'autoroute A10, gérée par Cofiroute (groupe Vinci). La zone test inclut un bâtiment de Cofiroute que Power Road, couplé à une pompe à chaleur, doit contribuer à chauffer. Power Road a été installé en août, au lycée Xavier Marmier, pour que 3.500 m2 de chaussée d'accès au parking s'autodéneigent et ne givrent pas. Pour cela, Power Road sera raccordé au réseau de chaleur local. Eurovia précise que sa technologie ne rallonge que de 15 % le temps de réalisation d'une route neuve ou en réfection. Reste que le coût deux fois plus élevé de cette "route thermique", par rapport aux chaussées actuelles, risque d'en réserver l'usage à des contextes locaux et des utilisations particulières. Article rédigé par Georges Simmonds pour RT Flash Eurovia | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Il arrive parfois que certaines découvertes scientifiques en viennent à révèler la profonde harmonie des lois de la nature et à en exprimer les dimensions presque poétiques. C'est le cas pour cette magnifique étude réalisée conjointement par des chercheurs du groupe de recherche interdisciplinaire de Centrale Marseille, de l’Inra, d’AgroParisTech, du CNRS, et de l'Université d’Aix-Marseille. Les scientifiques ont utilisé les dernières connaissances sur les réponses des plantes à la lumière et au vent pour construire un modèle de développement d’arbre. Ils ont modélisé des arbres virtuels capables d’intercepter la lumière, de répartir les produits de la photosynthèse entre organes, d’initier des branches, mais aussi de produire des graines qui germent après être tombées. Le modèle ainsi construit intègre également la localisation des nouvelles branches qui bourgeonnent en fonction de la lumière reçue et la croissance en diamètre des branches est pilotée par la perception des déformations au vent, un phénomène appelé thigmomorphogénèse qui contrôle, pour une grande part, la production de bois sous nos climats. Le modèle incorpore enfin des connaissances en météorologie et en biomécanique afin de simuler la casse au vent lors de tempêtes. Les chercheurs ont ensuite fait tourner pendant des milliers d'heures leur programme informatique, baptisé MechaTree, ce qui leur a permis d'observer l'équivalent de 200 000 ans d'évolution d'une forêt virtuelle. Le résultant est saisissant : cette modélisation sans précédent montre en effet que les lois qui régissent la sélection et la forme des arbres sont intimement liées au vent et la lumière. Plus précisément, la transparence du feuillage et la compétition pour la lumière sont les premiers déterminants de la dimension fractale de l’arbre. De son côté, la réponse au vent, la thigmomorphogénèse, contrôle l’évolution du diamètre des branches. Selon les chercheurs, d’autres facteurs ont pu jouer dans la sélection naturelle, comme le transport hydraulique de sève. Il est même probable qu’en fonction de l’environnement où ont évolué les espèces, c’est la conduction de la sève ou la résistance au vent qui a exercé la plus grande pression sélective. Cette étude a cependant démontré que c'est bien le couple lumière-vent qui joue un rôle crucial dans la forme des arbres. L'étude conclut que "Cette découverte change la donne en écologie forestière mais elle change aussi nos représentations de ce qu’est un arbre". En effet, comment ne pas être frappé par la beauté et la subtilité des ces liens qui unissent les domaines physiques et biologiques et relient l'inerte et le vivant… Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des chercheurs du CEA, de l'INSERM, des Universités Paris-Sud et Paris-Descartes et du CNRS ont réussi à développer un modèle animal parfait pour expérimenter de nouveaux traitements contre la maladie d'Alzheimer. Ces scientifiques, regroupés au sein du laboratoire MIRCen (Molecular imaging research center), une installation de recherche préclinique développée par le CEA et l'INSERM et installée à Fontenay-aux-Roses, sont parvenus à forcer, chez le rat, la production de précurseurs de protéines bêta amyloïdes humaines (APP) et leur clivage successifs en βCTF, puis en Aβ40 et Aβ42. Ils ont ainsi reproduit pour la première fois la totalité de la physiopathologie de la maladie d'Alzheimer dans un modèle animal. Les chercheurs souhaitent se servir de cet outil pour étudier la phase silencieuse de la maladie qui dure jusqu'à 20 ans avant l'apparition des symptômes. Ce modèle de rat constitue aussi un outil de choix pour tester de nouvelles molécules et surtout développer, dans un avenir proche, des tests diagnostiques et pronostiques de la maladie. Dans leur nouveau modèle de rat, les chercheurs de Fontenay-aux-Roses ont constaté qu'en ne modifiant que l'expression de ces protéines à l’origine des plaques bêta amyloïdes, ils observaient une hyperphosphorylation de la protéine Tau, plusieurs mois avant la formation de plaques bêta amyloïdes et d'enchevêtrements neurofibrillaires. "Ces données nous confirment la relation causale entre la production de protéine bêta amyloïde et la pathologie liée à la protéine Tau", affirme Jérôme Braudeau. "Dans notre système, on commence à voir apparaître un déclin cognitif à partir du moment où les deux composantes, Tau et bêta amyloïdes, sont engagées". Leurs observations soutiennent aussi l'hypothèse des 4 étapes de la maladie : dérégulation de la voie amyloïdogénique, puis augmentation de la protéine Aβ42 soluble dans le liquide céphalorachidien, suivie d'une suractivation transitoire des récepteurs extra-synaptiques glutamatergiques. Les dernières étapes sont la tauopathie, les troubles de la mémoire et du comportement et enfin l'apparition de plaques séniles, et d'angiopathie amyloïde. Article rédigé par Georges Simmonds pour RT Flash Cerebral Cortex | | | |
| On le sait, nos habitudes alimentaires ont un impact majeur sur notre santé. L'étude PESA (Progression of Early Subclinical Atherosclerosis) a essayé d'étudier le lien entre les habitudes alimentaires en matière de petit-déjeuner d'une cohorte de 4 082 employés de la Banque Santander de Madrid. Ce travail dirigé par Irina Uzhova, du Centre Espagnol pour la Recherche Cardio-Vasculaire de Madrid, a analysé les risques d'athérosclérose dans trois groupes distincts : le premier prenait tous les jours un petit-déjeuner hautement calorique, contribuant à plus de 20 % de la ration calorique quotidienne, le second prenait un petit-déjeuner faiblement calorique, contribuant à moins de 20 % de la ration calorique quotidienne et enfin, le troisième ne prenait pas de petit-déjeuner. Le résultat, confirmé sur la base d'examens sanguins et par imagerie est sans appel, le groupe qui ne prenait pas du tout de petit-déjeuner multipliait par 2,5 le risque d’athérosclérose ; quant au groupe qui prenait un petit déjeuner très léger, il voyait son risque d’athérosclérose multiplié par 1,5 indépendamment des autres facteurs de risque cardio-vasculaires identifiés. Article rédigé par Georges Simmonds pour RT Flash JACC | | | |
| L’adrénoleucodystrophie (ADL) est une maladie rare due à des mutations du gène ABCD1 localisé sur le chromosome X. Ce gène code pour la protéine ALD, protéine du peroxysome, de la famille des transporteurs ABC. Le défaut du transporteur est à l’origine d’une accumulation d’acides gras à très longue chaîne dans le plasma et tous les tissus, une démyélinisation progressive du système nerveux central et périphérique et une insuffisance surrénale. Cette mutation génétique provoque in fine une altération croissante des fonctions neurologiques et le décès du patient. Le seul traitement jusqu’à présent était l’allogreffe de cellules souches hématopoïétiques, efficace quand elle est réalisée au stade débutant de la neuro-dégénérescence. Elle se heurte toutefois à la difficulté de trouver des donneurs parfaitement compatibles et aux complications liées à la transplantation (infections, rejet de greffe, ou maladie du greffon contre l’hôte). Des essais de thérapie géniques ont été entrepris il y a quelques années et leurs premiers résultats enregistrés sur 17 enfants atteints d’ALD à un stade précoce sont très encourageants. Les enfants ont bénéficié d’une greffe autologue de cellules souches « transfectées » avec un vecteur de type lentivirus (Lenti-D), porteur du gène ABCD1. Les résultats à 29 mois montrent que cette thérapie génique peut être considérée comme efficace chez 15 des 17 enfants (88 %). L’objectif principal de l’étude, la survie sans invalidité majeure à 24 mois, est atteint pour 15 de ces patients, sans aucun rejet de greffe ni maladie du greffon. Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| Selon une étude allemande réalisée par des chercheurs de l'Université de Radboud, l'ensemble des populations d'insectes volants, essentiels aux écosystèmes, a diminué de plus de 75 % en près de trente ans en Allemagne sans que les scientifiques ne parviennent à en déterminer la cause avec certitude. Les chercheurs, qui ont mené leur étude dans des zones protégées en Allemagne depuis 1989, suspectent les pesticides agricoles d'être responsables de cette hécatombe préoccupante. Selon leurs conclusions, ce fort déclin a été observé quels que soient les changements météorologiques, l'utilisation des sols ou les caractéristiques de l'habitat. Les entomologistes ont avancé que des facteurs à grande échelle devaient être impliqués, nécessitant des recherches supplémentaires pour les identifier. Ils ont également plaidé pour une évaluation géographique de ce déclin et de son impact potentiel sur l'écosystème. Les insectes volants jouent en effet un rôle crucial dans la pollinisation de 80 % des plantes sauvages et dans l'alimentation de 60 % des espèces d'oiseaux. De précédentes études avaient révélé un déclin inquiétant de la diversité et de la population de certaines espèces, comme les abeilles et les papillons, en Europe et en Amérique du Nord mais pas de la biomasse des insectes ailés sur une longue période. Ces entomologistes ont recueilli des données pendant vingt-sept ans dans 63 réserves naturelles disséminées sur le territoire allemand. Ils ont pesé la masse totale des insectes qu'ils piégeaient et ont déterminé qu'elle avait diminué de 76 % en moyenne, et même de 82 % au milieu de l'été. "La diminution de la biomasse des insectes ailés est suspectée depuis longtemps mais s'est avérée être plus sévère qu'on ne le pensait", a relevé Caspar Hallmann, entomologiste à l'Université Radboud, aux Pays-Bas. Selon cette étude, ce constat alarmant est probablement représentatif de la situation dans une grande partie de l'Europe et ailleurs dans le monde où des réserves naturelles sont au milieu de terres agricoles. Ces chercheurs espèrent que leurs conclusions vont servir de signal d'alarme et entraîner rapidement des études supplémentaires pour déterminer l'origine de cette disparition rapide des insectes volants et pour la combattre. Article rédigé par Georges Simmonds pour RT Flash Radboud University | | | |
| La FDA, l'agence américaine des produits alimentaires et des médicaments, a approuvé la mise sur le marché de la deuxième thérapie génique dans le monde, le Yescarta, pour traiter des lymphomes non hodgkiniens agressifs, une tumeur du système lymphatique. Cette nouvelle classe de traitement consiste à modifier génétiquement le système immunitaire d'un malade pour qu'il puisse combattre les cellules cancéreuses. La FDA avait déjà autorisé la première thérapie anti-cancéreuse génique en août, le Kymriah, des laboratoires Novartis, pour traiter une forme très agressive de leucémie chez des enfants et de jeunes adultes. Le Yescarta a été autorisé par la FDA pour des adultes atteints d'une forme agressive de lymphome non-Hodgkinien qui n'ont pas répondu à une série de deux traitements de chimiothérapie. Quelque 3.500 personnes par an pourraient répondre à ce critère aux Etats-Unis. Cette immunothérapie consiste à prélever des cellules immunitaires du patient pour les modifier génétiquement en laboratoire et les cultiver avant de les réinjecter dans une seule dose. L'étude clinique dont les résultats ont conduit la FDA à approuver le Yescarta a porté sur 111 patients dans 22 hôpitaux dont 101 ont été traités avec cette thérapie génique. Initialement, 54 % de ce groupe ont eu une rémission complète et 28 % partielle. Six mois après le traitement, 80 % des 101 malades traités étaient encore en vie. Après une période médiane de suivi de 8,7 mois, 39 % du groupe restaient sans aucun signe de cancer, une proportion nettement plus grande qu'avec des traitements anti-cancéreux conventionnels comme la chimiothérapie. Article rédigé par Georges Simmonds pour RT Flash FDA | | | |
| Quels sont les effets précis de la méditation de pleine conscience sur le cerveau ? Et quel type de méditation est le plus efficace pour lutter contre le stress ? Pour tenter de répondre à ces questions, une équipe de recherche allemande dirigée par Sofie L. Valk et Boris C. Bernhardt, de l'Institut Max Planck de Leipzig, a réalisé une étude portant sur 450 personnes âgées de 20 à 55 ans. Celles-ci ont été réparties en deux groupes et ont participé à un entraînement de la méditation de pleine conscience. Cet exercice était divisé en trois modules de trois mois, à raison d’un cours par semaine et d’une pratique de 30 minutes par jour, six jours par semaine. Le premier module était axé sur une pratique de la méditation classique qui vise à réduire le stress en se concentrant sur sa respiration et les sensations du corps. Le deuxième module a permis de travailler sur les capacités socioaffectives propres à chacun, dont la gratitude et la gestion des émotions difficiles. Les volontaires ont pratiqué ces exercices par paires, pour échanger leurs expériences affectives tout en entraînant leur écoute empathique. Enfin, le troisième module a permis aux participants à l’étude de travailler sur leurs capacités sociocognitives, soit la prise de perspective sur soi-même et sur les autres, également pratiquée à deux. Cett étude a monté que, selon la technique d'entraînement mental pratiquée, des structures cérébrales spécifiques et des marqueurs comportementaux associés ont été modifiés de façon significative. La réponse au stress était également différente, en fonction du type de méditation pratiquée. Le deuxième module aurait permis de réduire la production de l’hormone du stress de 51 %. L'étude précise que "Malgré ces différences sur le plan de la réponse physiologique à un stress social, chacun des modules de trois mois réduisait la perception subjective du stress en général". Article rédigé par Georges Simmonds pour RT Flash Science Advances | | | |
| Des chercheurs français pensent avoir découvert une cause anatomique potentielle de la dyslexie. Celle-ci résiderait dans le fonctionnement de minuscules récepteurs des yeux de ceux qui sont touchés par ce trouble de la lecture. Chez les personnes qui ne sont pas atteintes de dyslexie, ces récepteurs de la lumière n'ont pas la même forme d'un œil à l'autre : ils sont asymétriques. Le cerveau choisit donc le signal envoyé par l'un des deux yeux pour créer l'image que voit la personne. Mais ces travaux ont montré que, chez les dyslexiques en revanche, cette zone de l'œil (les "centroïdes de la tache de Maxwell") est symétrique dans les deux yeux. C'est justement cette symétrie qui serait une source de confusion pour le cerveau en créant des "images-miroirs" entre lesquelles il est incapable de choisir. M. Ropars et son collègue Albert Le Floch sont parvenus à ces conclusions en comparant deux groupes de 30 étudiants, l'un composé de dyslexiques et l'autre de non dyslexiques. "L'existence des délais entre l'image primaire et l'image miroir dans les hémisphères opposés (de l'ordre de 10 millisecondes) nous a permis de mettre au point une méthode, à l'aide d'une lampe stroboscopique, pour effacer l'image miroir qui gêne tant les dyslexiques" précise M. Ropars. La dyslexie toucherait quelque 700 millions de personnes dans le monde. Article rédigé par Georges Simmonds pour RT Flash RSPB | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Le groupe français Safran vient de tester un premier démonstrateur d’open-rotor, un moteur d’avion non caréné avec une double hélice contrarotative dont la mise en service est prévue pour après 2030. Le démonstrateur d’open-rotor que Safran teste en ce moment à Istres, sur un banc d’essai à l’air libre construit spécialement, va consommer 15 % de moins que le meilleur moteur actuel, le Leap fabriqué par CFM (société co-détenue par Safran et General Electric). Ce démonstrateur a été développé dans le cadre du programme européen de recherche Clean Sky 2, avec un financement de 65 millions d’euros, sur un total de 200 millions d’euros. La rupture technologique offerte par l’open-rotor provient d’une augmentation très forte du taux de dilution, ou by-pass ratio (le rapport entre le volume d’air passant à l’intérieur du moteur et l’air qui passe à l’extérieur). Avec l’open-rotor, il passe à 30 litres pour 1 contre 11 avec le Leap. L’absence de carénage permet d’augmenter la taille des fans donc le by-pass ratio. Plus le by-pass ratio est élevé et meilleure est l’efficacité énergétique du moteur. Le démonstrateur est équipé de deux hélices contrarotatives dont les aubes sont en composite carbone tissé 3D, comme celles du Leap. Grâce à des essais en soufflerie réalisés en 2013 à l’Onera, le défi du bruit, qui est l’un des principaux problème des open-rotor, a pu être relevé en optimisant la forme des pales des deux fans. Selon les ingénieurs de Safran, le démonstrateur atteint un niveau de bruit comparable à celui du Leap, ce qui le qualifierait pour équiper un avion actuel en respectant les normes les plus sévères. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|