| | Edito Gènes et Hérédité : nouvelle approche de la dynamique et de l’évolution du vivant
En avril 1953, le généticien américain James Watson et son collègue britannique Francis Crick (décédé en 2004) rentraient dans l‘histoire en publiant dans la revue Nature une étude révélant la structure en double hélice de l’ADN humain. Cette découverte fondamentale leur vaudra le prix Nobel en 1962. Presque 50 ans jour pour jour après cette publication, le projet international de décodage du Génome Humain (Human Genome Project), publiait, au terme de 15 ans de recherche, en avril 2003, la première carte complète à 99 % du génome humain, riche de ses 3 milliards de paires de base. L’année suivante, en 2004, une nouvelle étape fut franchie avec le séquençage complet du génome humain qui s’appuie sur la compilation de séquences d’ADN de plusieurs personnes distinctes (en b onne santé). En 1990, l’américain Steven Rosenberg tentera un premier essai de thérapie génique chez l’homme, un essai se fondant sur l’injection de lymphocytes T génétiquement modifiés chez des patients atteints de cancer. Il fallut attendre 2000, pour voir le premier succès d’une thérapie génique : le traitement des enfants atteints du déficit immunitaire combiné sévère (lié au chromosome X) par Alain Fischer, Marina Cavazzana et Salima Hacein-Bey-Abina. En 2012, la biologiste française Emmanuelle Charpentier et sa collègue américaine Jennifer Doudna inventèrent l’outil d’édition génétique CRISPR, (Clustered Regularly Interspaced Short Palindromic Repeats ou Courtes répétitions palindromiques groupées et régulièrement espacées en français) qui permet d’éteindre ou d’activer à volonté un gène et de modifier ainsi le génome de n'importe quel organisme, en coupant de manière très précise une séquence dans un génome. Mais, parallèlement à ces extraordinaires progrès dans la connaissance et le rôle des gènes et du génome en matière de biologie et d’évolution des êtres vivants, une autre discipline scientifique n’a cessé de se développer et est venue à la fois compléter et complexifier le scénario dominant de la prédominance du génome dans la construction du vivant, il s’agit de l’épigénétique. Cette discipline, aujourd’hui en plein essor, est pourtant apparue dès les années 1940, avec les travaux du biologiste et embryologiste Conrad Hal Waddington, étudiant les relations entre les gènes et l’environnement, puis les recherches du célèbre couple de biologistes Edward et Pamela Lewis qui mirent en évidence les premiers facteurs de régulation épigénétique, c hez la mouche drosophile. On sait aujourd’hui que plusieurs mécanismes, liés à notre comportement et notre mode de vie, notamment les méthylations de l’ADN et les modifications des histones (protéines autour desquelles s’enroule l’ADN pour former la chromatine) sont capables d’inhiber, ou au contraire d’activer un gène, sans toutefois changer la séquence de l’ADN elle-même. Les multiples changements qui interviennent dans notre environnement peuvent donc moduler ou modifier, de manière temporaire ou définitive, l’expression de nos gènes, ce qui a évidemment des effets majeurs sur notre santé et notre durée de vie. En France, les remarquables travaux menés par l’équipe d’Andrew Saurin à l’Institut de biologie du développement de Marseille, ont permis de révéler, il y a trois ans, un nouveau mécanisme de contrôle global de l’expression génique. Ces chercheurs ont notamment montré que certaines protéines étaient en mesure d’empêcher l’action de la polymérase en agissant sur des régions particulières de l’ADN situées à proximité des gènes indispensables à la transcription de l’ADN en ARN, le messager chargé d’appliquer les instructions de l’ADN. Selon ces recherches, cette forme de régulation de l’expression génétique concernerait les deux tiers des 20 à 22 000 gènes (selon les dernières estimations revues à la baisse) que compterai t notre génome… Reste que, dans le modèle génétique actuel, l’ADN est toujours considéré comme le support principal de l’hérédité et de l’information. Mais cette conception, déjà sérieusement ébranlée et élargie par les avancées de l’épigénétique, vient d’être remise en cause de manière encore plus profonde par le Professeur Antony Jose, qui enseigne à l’Université du Maryland. Pour cet éminent scientifique, l’ADN ne représenterait en réalité qu’une partie minime des instructions nécessaires à la transmission héréditaire, et la majorité de ces instructions seraient en fait contenues dans l’organisation moléculaire cellulaire, en perpétuelle réorganisation (Voir The Royal Society). S’appuyant sur plus de 20 ans de recherches, le Professeur Jose propose un nouveau cadre théorique qui intègre l’ADN et les gènes dans un ensemble bien plus vaste et complexe d’interactions et de « dialogues » biologiques. « L’ADN ne peut plus être considéré comme le “modèle” de la vie. Il s’agit au mieux d’une liste d’ingrédients qui se chevauchent et sont potentiellement mélangés et utilisés différemment, par différentes cellules à différents moments », souligne le Professeur Jose, qui prend souvent l’exemple de la couleur des yeux. Pour déterminer cette caractéristique, il existe un gène dans chaque cellule du corps, mais le processus qui produit la protéine déterminant la couleur des yeux n’a lieu que pendant une phase part iculière du développement et seulement dans les cellules qui constituent la partie colorée des yeux. Ce mécanisme montre donc que les informations qui déterminent cette caractéristique biologique ne sont pas stockées dans l’ADN, bien qu’ils fassent néanmoins partie de l’hérédité. Pour le Professeur Jose, il faut concevoir l’hérédité comme un système d’information complexe et en réseau, qui organise le « dialogue » d’une myriade de molécules régulatrices, participant au bon à fonctionnement de la machinerie cellulaire et produisant, à différents niveaux d’organisation, les informations portant l’hérédité. Selon ce nouveau cadre théorique, Jose propose de définir l’hérédité comme la résultante de trois composants, que Jose propose d’appeler les entités, les capteurs et les propriétés. Dans ce nouveau modèle, les entités - qui représentent les éléments structurels - seraient constituées par le génome et toutes les molécules d’une cellule nécessaires à la construction d’un organisme. Ces entités, bien qu’elles puissent se modifier dans le temps, auraient la propriété fondamentale de pouvoir se recréer avec leur structure, et leurs interactions d’origine au début de chaque génération. Dans cette approche, c’est tout le processus de développement, de l’œuf fécondé à l’organisme complexe, qui devient en quelque sorte l’expression de l'hérédité. Celle-ci ne repose donc plus sur une base d’instructions fixées une fois pour toute, à l’origine, mais est gouvernée par un réseau d’informations dont les &eacut e;léments sont toutes les molécules qui participent au fonctionnement de la cellule. Ce nouveau cadre théorique permet de mieux comprendre comment les instructions non codées dans l'ADN mais inhérentes à la structure et aux interactions des molécules au sein des cellules, peuvent être conservées et transmises d'une génération à l'autre. « Nous avons gravement sous-estimé un aspect fondamental de l'hérédité, à savoir que l'arrangement des molécules est similaire d'une génération à l'autre», précise le Professeur Jose. Cette nouvelle conception plus large de la génétique et du génome modifie profondément l’approche biologique des maladies héréditaires qui affectent les individus et se concentre généralement sur l’étude des différences génétiques, chimiques ou physiques. Cette nouvelle vision de l’hérédité suggère que les chercheurs devraient rechercher des différences non génétiques dans les cellules des individus atteints de maladies héréditaires, telles que l'arrangement des molécules et leurs interactions. Cette nouvelle vision permet également de mieux comprendre l’importance, encore sous-estimée, de l’épigénétique : les organismes évolueraient dans le cadre d’une évolution constituée par les changements continuels dans les interactions entre molécules, sans modifications de leur séquence d'ADN. Il faudrait donc dépasser l’opposition entre génétique et épigénétique et considérer l’hérédité et l’évolution des organismes vivants dans le cadre d’une dynamique moléculaire entre facteurs génétiques, épigénétiques, cellulaires et métaboliques. Plusieurs études récentes viennent conforter cette hypothèse audacieuse. Par exemple, une étude de 2018, portant sur les effets biologiques de la famine qui a affecté les Pays-Bas au cours de l'hiver 1944-1945, sous l'occupation allemande, a fait grand bruit en montrant l’importance de cette hérédité épigénétique. Ces travaux ont montré que les femmes en fin de grossesse à cette période, ont donné naissance, sous l’effet de la malnutrition, à des bébés plus petits que la moyenne et ayant plus de risque, adultes, d'être atteints de diabète ou d'obésité (voir Science Advances), ce qui semble logique. Mais, de manière beaucoup plus surprenante, ces chercheurs ont découvert que les petits-enfants issus de cette p remière génération touchée par la malnutrition étaient eux-mêmes bien plus fréquemment atteints de diabète, et mourraient plus jeunes que la moyenne, bien que leurs parents aient toujours eu une alimentation suffisante et variée. Ces chercheurs ont alors remarqué que les personnes ayant subi cette famine présentaient un blocage au niveau de plusieurs gènes impliqués dans le métabolisme et le contrôle de la glycémie. Selon cette étude, il est probable, mais cela devra être confirmé par d’autres travaux, que la famine vécue pendant la jeunesse des sujets étudiés ait modifié l’expression de certains gènes pour les réorienter vers une meilleure aptitude à stocker de l’énergie. En 2013, une autre équipe de recherche a eu l’idée d’apprendre à des souris à craindre l'odeur de l'acétophénone (l’odeur d’amande). Lorsque ces souris étaient exposées à cette odeur, elles recevaient une décharge électrique. Là encore, ces scientifiques ont constaté que les descendants de ces souris, jusqu'à la troisième génération, restaient stressés en présence d'acétophénone, bien qu'elles n'y aient jamais été exposées…. En 2019, une autre équipe américaine de l’université Washington de St. Louis, a rendu obèses des souris, en les contraignant à un régime riche en graisse et en sucre. Les scientifiques ont alors observé l’apparition de déficiences cardiaques chez leurs descendants, alors que les parents ne présentaient pas ces déficiences. Mais le plus étonnant, c’est que ces insuffisances cardiaques étaient encore présentes sur les trois générations suivantes, qui avaient pourtant une alimentation normale et n’étaient pas obèses (Voir AJP). Ces recherches ont montré de manière convaincante que l’obésité et le diabète avaient des effets sur l’épigénome, c’est-à-dire l’ensemble des modifications faites au génome pour adapter son expression à l’environnement, sans que le gène lui-même ne soit altéré. Ces travaux ont également montré que ces facteurs épigénétiques peuvent se retrouver dans les cellules germinales (les ovocytes et les spermatozoïdes) des parents, et se transmettre à la génération suivante. Bien que le mécanisme exact de cette transmission épigénétique ne soit pas encore bien compris, ces travaux confirment la réalité et la puissance des facteurs épigénétiques sur plusieurs générations, aussi bien sur les pathologies organiques que sur les troubles psychologiques. Des études menées chez la souris ont en effet montré que des traumatismes psychologiques pouvaient entraîner des troubles du comportement chez les souriceaux deux générations plus tard. Ces récentes et passionnantes découvertes dans le domaine de l’épigénétique ont des conséquences scientifiques, mais également épistémologiques et philosophiques considérables. Elles nous conduisent en effet, comme le montre fort bien Joël de Rosnay, dans son essai, « La symphonie du vivant », à dépasser, d’une part, le vieux clivage entre inné et acquis, et, d’autre part, l’opposition, longtemps irréductible entre l’approche transformiste de Lamarck (1800) et la théorie de l’évolution de Darwin (1859). Sur cette question, Isabelle Mansuy, professeure en cognition moléculaire à l'université de Zurich, souligne, par exemple, que « La vision que l'on avait de l'hérédité, reposant uniquement sur les gènes, était tout simplement fausse, et nous devons à présent admettre que la théorie de Lamarck est plausible car la transmission de l'influence de l'environnement sur plusieurs générations est indéniable ». Sans nier la spécificité et l’importance de la composante génétique du vivant, nous savons à présent que nous ne sommes pas prisonniers de nos gènes, et qu’il existe au cœur de la vie, une dynamique de construction individuelle et d’évolution collective complexe qui intègre la génétique, l’organisme et l’environnement, et laisse une large place à l’indétermination, ainsi qu’aux facteurs sociaux et culturels. Cette nouvelle approche de la dynamique et de l’évolution du vivant n’a pas seulement des conséquences théoriques majeures mais ouvre également d’immenses perspectives thérapeutiques pour concevoir et développer demain de nouveaux traitements susceptibles de prévenir les effets du vieillissement ou de vaincre des pathologies redoutablement complexes et multifactorielles, comme le cancer, les maladies neurodégénératives ou certains troubles graves du comportement. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | Des chercheurs de la Carnegie Mellon University (CMU) et spécialisés en épidémiologie ont présenté le 20 avril 2020 une carte des Etats-Unis recensant le pourcentage de personnes avec des symptômes du Covid-19. Il suffit de cliquer sur un Etat pour que le chiffre s'affiche. Par exemple, dans l'Oregon 2,29 % des habitants ont des symptômes. L'objectif est de suivre en temps réel la propagation du virus et d'identifier les régions les plus touchées. Pour réaliser cette carte, les scientifiques de cette université de Pennsylvanie ont collaboré avec Facebook et Google. Les deux entreprises technologiques ont proposé sur leur plate-forme des questionnaires auto-administrés dont l'objectif est d'évaluer la présence de manifestations du virus (fièvre, toux, douleur thoracique...). N'importe quel utilisateur majeur américain de Facebook peut cliquer sur un lien présent sur son fil d'actualité. La CMU précise avoir reçu un million de réponses par semaine du côté des utilisateurs du réseau social et 600 000 pour Google via son outil "Google Opinion Rewards". Depuis le 22 avril 2020, la possibilité de répondre à un questionnaire via Facebook a été étendu au monde entier mais cette fois-ci, c'est l'université du Maryland qui supervise l'étude. Les scientifiques ont dû croiser les données de Facebook et de Google avec d'autres informations pour créer la carte la plus précise. En effet, les deux entreprises technologies fournissent des résultats qui ne reposent que sur les déclarations des internautes, qui peuvent se tromper. Cela n'empêche pas l'équipe de scientifiques de se féliciter de ce partenariat. Ils estiment même que la carte n'aurait pas pu aboutir sans leur aide. "Je suis très content des résultats des sondages Facebook et Google (…), ils ont tous deux dépassé mes attentes", a déclaré Ryan Tibshirani, l'un des deux chercheurs à la tête de l'équipe en charge du projet. Dans une tribune publiée dans le Washington Post, Mark Zuckerberg s'est également réjoui des résultats du partenariat. Le patron de Facebook en profite également pour rappeler que les données médicales des participants sont correctement protégées. "Seuls les chercheurs de Carnegie Mellon voient les réponses individuelles au questionnaire - et Facebook ne voit que les données agrégées", promet-il. A l'origine de cette initiative, se trouve le Centre pour le contrôle et la prévention des maladies (Center for Disease Control and Prevention). L'agence publique a demandé aux scientifiques de la Carnegie Mellon University d'étendre ses recherches sur la grippe au Covid-19. Article rédigé par Georges Simmonds pour RT Flash Usine Digitale | | ^ Haut | |
|
| | | Les professeurs Rajeshwar Dayal Tyagi et Patrick Drogui, chercheurs à l’Institut national de la recherche scientifique (INRS), ont développé une nouvelle approche de production du biodiesel qui utilise des microbes avec des boues d’épuration et un sous-produit du biocarburant. Le biodiesel offre plusieurs avantages pour l’environnement, mais l’utilisation d’huile végétale ou animale soulève le dilemme « nourriture contre carburant », l’utilisation des terres agricoles à des fins de biocarburants au détriment de la production alimentaire. Des usines se sont tournées vers le biodiésel microbien pour lequel des microorganismes produisent l’huile nécessaire à partir de glucose. Ce processus conventionnel est assez dispendieux avec 6,78 $ par litre ($/L) de biodiesel produit. Les professeurs Tyagi et Drogui ont réussi à réduire le coût de production à 0,72 $/L en développant un procédé novateur. Leurs travaux sur l’évaluation des coûts, de l’énergie et des émissions de gaz à effet de serre (GES) ont fait l’objet d’une publication au mois de février dans la revue Bioresource Technology. Le procédé utilise des boues d’épuration et du glycérol, un sous-produit du biodiesel. La transformation des boues permet de réduire les émissions de GES. «On évite de jeter les boues dans les sites d’enfouissement où elles dégagent du méthane. Lorsqu’elles sont réutilisées pour produire du biodiésel, le carbone est majoritairement transformé sous forme de lipides par les microorganismes», souligne le professeur Tyagi. Le processus permet aussi de réutiliser le glycérol sans avoir à le purifier. Dans la première étape de fermentation, les microorganismes se nourrissent de glycérol et de boues d’épuration. Ils accumulent ainsi de l’huile dans leur corps sous forme de lipides. Pour séparer les cellules du mélange et en extraire les lipides, les deux chercheurs de l’INRS utilisent un bioflocculant, des polymères écologiques sécrétés par des organismes. Ils s’affranchissent ainsi des centrifugeuses et des produits chimiques. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | | |
| Des chercheurs de l’Université de Californie à Irvine ont conçu des nanolattices en plaques de conception architecturale (des structures de carbone de taille nanométrique) possédant un rapport résistance/densité plus élevé que celui du diamant. Un nanolattice est un matériau poreux synthétique composé d’éléments de taille nanométrique qui sont modelés en une structure de réseau ordonnée, comme un cadre spatial. Les nanolattices sont les plus petites structures de treillis artificielles et une classe de métamatériaux qui tirent leurs propriétés à la fois de leur géométrie (définition générale des métamatériaux) et de la petite taille de leurs éléments. Par conséquent, ils peuvent posséder des propriétés efficaces qui ne se trouvent pas dans la nature et peuvent ne pas être obtenues avec des réseaux à plus grande échelle de même géométrie. Dans une étude récente, les scientifiques rapportent avoir réussi à conceptualiser et à fabriquer le matériau, qui se compose de plaques à cellules fermées et étroitement connectées (au lieu des faisceaux cylindriques communs dans de telles structures, du moins au cours des dernières décennies). « Les conceptions précédentes basées sur des faisceaux, bien que d’un grand intérêt, n’avaient pas été aussi efficaces en matière de propriétés mécaniques. Cette nouvelle classe de nanolattices en plaques que nous avons créée est considérablement plus dure et plus rigide que les meilleurs nanoréseaux de faisceau », a déclaré l’auteur correspondant, Jens Bauer, chercheur en génie mécanique et aérospatial à l’UCI. Selon l’étude, il a été démontré que la nouvelle conception améliore les performances moyennes des architectures à base de poutres cylindriques jusqu’à 639 % en résistance et 522 % en rigidité. Avec des parois d’une épaisseur d’environ 160 nanomètres, cette structure nanocellulaire à base de plaques a été conçue par des chercheurs de l’UCI et d’autres institutions. Il s’agit de la toute première vérification expérimentale que de tels arrangements atteignent les limites théoriques de résistance et de rigidité dans les matériaux poreux. Les chercheurs ont vérifié leurs résultats à l’aide d’un microscope électronique à balayage, ainsi que par le biais d’autres technologies fournies par l’Irvine Materials Research Institute. « D’autres chercheurs avaient déjà prédit que les nanolattices disposés selon une conception à base de plaques seraient incroyablement solides », a déclaré l’auteur principal, Cameron Croo k, étudiant diplômé de l’UCI en science et ingénierie des matériaux. « Mais la difficulté de fabriquer des structures de cette manière signifiait que la théorie n’avait jamais été prouvée, jusqu’à ce que nous ayons réussi à le faire », a-t-il ajouté. Bauer a déclaré que la réussite de l’équipe reposait sur un processus complexe d’impression laser 3D appelé écriture laser directe par polymérisation à deux photons (de l’anglais « two-photon polymerization direct laser writing »). Lors de ce processus, un laser est focalisé à l’intérieur d’une gouttelette d’une résine liquide sensible à la lumière ultraviolette, et suite à cela, le matériau devient un polymère solide où les molécules sont simultanément frappées par deux photons. En balayant le laser ou en déplaçant la scène en trois dimensions, la technique permet de générer des arrangements périodiques de cellules, chacune composée d’assemblages de plaques fines de 160 nanomètres. Selon Bauer, le résultat final est un r éseau en forme de cube de carbone vitreux, qui possède la plus haute résistance que les scientifiques n’aient jamais cru possible pour un tel matériau poreux. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Les puces électroniques actuelles intègrent plus de dix milliards de transistors et dégagent de plus en plus de chaleur du fait de la résistance que les électrons subissent lorsqu'ils circulent au sein des matériaux conducteurs. Pour contourner cet obstacle, les chercheurs tentent, depuis des années, d'associer électrons et photons, car les photons n'ayant pas de masse, ils ne provoquent pas cet échauffement. Mais pour utiliser ainsi la lumière, il faut d'abord disposer d'une source de type laser intégré. Or le silicium, le principal matériau semi-conducteur des puces informatiques, s'est révélé particulièrement inefficace en la matière. C'est pourquoi les chercheurs se sont tournés vers des semi-conducteurs plus complexes, de type arséniure de gallium ou phosphorure d'indium. Mais ils sont chers et difficiles à intégrer dans les puces au silicium existantes. Les physiciens savent depuis longtemps que, théoriquement, une structure hexagonale de silicium et de germanium présenterait ce que les physiciens appellent un gap direct. Un gap permettant à ce type de matériau d'émettre de la lumière. Et c'est ainsi que les chercheurs de l'Université de technologie d'Eindhoven ont travaillé à la mise au point d'un tel matériau. À partir de nanofils d'un autre matériau, ils sont d'abord parvenus à forcer du silicium pur à adopter une structure hexagonale. Sur ce modèle, ils ont ensuite construit une coque d'un alliage silicium-germanium. Malheureusement, celle-ci s'est montrée incapable d'émettre de la lumière. Jusqu'à ce que les chercheurs en augmentent la qualité en réduisant le nombre d'impuretés et de défauts cristallins. Et enfin, le miracle a eu lieu : le nouvel alliage émet désormais de la lumière de manière très efficace. À partir de là, les chercheurs pensent être en mesure de développer un laser à base de silicium dans le courant de l'année 2020. De quoi intégrer des fonctionnalités optiques à l'électronique. Article rédigé par Georges Simmonds pour RT Flash Phys.org | | | |
| Le vice-président de General Motors Doug Parks a annoncé qu’une nouvelle génération de batterie, développée en coopération avec le groupe coréen LG Chem, était en préparation. Cette nouvelle technologie, baptisée Ultium, devrait équiper les 22 nouveaux modèles électriques que GM compte mettre sur le marché d'ici 2022. Ce nouveau type de batterie permettrait de parcourir 1 million de miles soit 1,6 million de kilomètres avant de devoir être remplacée. Cette batterie devrait permettre de parcourir plus de 600 km avec une pleine charge. Il s'agit, selon GM, d'une rupture technologique majeure qui permet enfin de réduire de 70 % l'utilisation du cobalt, un minerai coûteux et difficilement recyclable, présent en grande quantité dans les batteries actuelles. Comme Tesla, General Motors souhaite donc remplacer ses batteries reposant sur un cocktail NCM (Nickel-Cobalt-Manganèse) par un cocktail NCMA (Nickel-Cobalt-Manganèse-Aluminium), l’aluminium permettant de réduire considérablement les quantités de cobalt nécessaire. Ces nouvelles batteries seront produites dans une usine située à Lordstown (Ohio, US) via une joint-venture entre GM et LG Chem. Le remplacement du cobalt par l’aluminium permettra aux constructeurs de faire tomber les coûts de production des batteries en dessous des 100 dollars le KWh, et de proposer plus rapidement que prévu aux consommateurs des véhicules électriques moins chers et plus durables que les voitures thermiques, à performances comparables. Pour GM, l'enjeu économique est considérable, car il s'agit de ne pas se laisser distancer sur cet énorme marché potentiel par Tesla, qui a annoncé une technologique de batterie comparable. Selon la dernière étude Bloomberg, les voitures électriques pourraient en effet représenter 28 % des ventes mondiales en 2028 et 58 % à l'horizon 2040, soit 56 millions de véhicules électriques vendus par an… Article rédigé par Georges Simmonds pour RT Flash GM | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une équipe de biologistes du Massachusetts Institute of Technology (MIT) a mis au point un remarquable dispositif qui permet de contrôler à distance la libération d'hormones par la glande surrénale, à l'aide de nanoparticules magnétiques. Cette approche ouvre de nouvelles voies pour traiter ces troubles liés aux hormones. On sait que des niveaux anormaux d'hormones de stress comme l'adrénaline et le cortisol sont liés à toute une variété de troubles mentaux dont la dépression et le trouble de stress post-traumatique (SSPT). Les chercheurs du MIT ont donc regardé s’il était possible de traiter ces troubles en modulant la fonction des organes périphériques, plutôt qu’en intervenant de manière plus invasive dans le système nerveux central. L’équipe a développé des nanoparticules magnétiques qui peuvent être injectées dans la glande surrénale et qui, lorsqu’elles sont exposées à un champ magnétique faible, chauffent légèrement, activant des canaux sensibles à la chaleur qui déclenchent la libération d'hormones. En substance, la technique permet de stimuler un organe « profond » dans le corps mais de manière minimalement invasive. Le laboratoire de l’auteur principal, Polina Anikeeva, professeur au MIT de science et génie des matériaux, a déjà conçu plusieurs nouveaux nanomatériaux magnétiques, y compris des particules qui peuvent libérer des médicaments à des moments précis dans des sites spécifiques du corps. Ces recherches visent donc à pouvoir traiter certains troubles neurologiques « de la périphérie », en modulant des voies locales plutôt que les circuits globaux du système nerveux central. Afin de pouvoir moduler la libération d'hormones, les chercheurs ont ciblé des canaux ioniques qui contrôlent le flux de calcium dans les cellules surrénales. Ces canaux ioniques peuvent être activés par une variété de stimuli, y compris la chaleur. Lorsque le calcium s'écoule par les canaux ouverts dans les cellules surrénales, les cellules commencent à pomper les hormones. Il s’agit donc de moduler l'afflux de calcium dans les cellules surrénales. Pour stimuler ces canaux thermosensibles, qui se produisent naturellement dans les cellules surrénales, les chercheurs ont conçu des nanoparticules en magnétite, un type d'oxyde de fer qui forme de minuscules cristaux magnétiques d'1/5.000 de l'épaisseur d'un cheveu humain. Les scientifiques on montré chez le rat qu’injectées directement dans les glandes surrénales, ces particules y restent pendant au moins 6 mois. Lorsque les rats sont exposés à un champ magnétique faible, les particules se réchauffent de 6°C environ, ce qui suffit à déclencher l'ouverture des canaux calciques sans endommager les tissus environnants. Le canal thermosensible ici ciblé, connu sous le nom de TRPV1, est présent dans de nombreux neurones sensoriels dans tout le corps, y compris les récepteurs de la douleur. La stimulation de TRPV1 déclenche une poussée hormonale qui double les niveaux de cortisol et augmente de 25 % les niveaux de noradrénaline. Ces 2 effets entraînent une augmentation mesurable du rythme cardiaque des animaux. Cette nouvelle technologie de libération d'hormones pourrait permettre de traiter le SSPT et d'autres troubles de manière beaucoup moins invasive que les implants cérébraux, par exemple, qui stimulent électriquement la libération d'hormones. La technique pourrait trouver une autre application dans le traitement de la douleur car, dans les récepteurs de la douleur, se trouvent également des canaux ioniques sensibles à la chaleur. Article rédigé par Georges Simmonds pour RT Flash Science Advances | | | |
| Les personnes atteintes de lésions médullaires ou de maladies du système nerveux peuvent perdre la capacité d'effectuer des tâches du quotidien, telles que marcher, manger ou conduire. Néanmoins leur cerveau conçoit toujours la perspective de l’action, mais la lésion les empêche de la réaliser. De très grands progrès ont été accomplis dans le développement de systèmes d'interface neuronale capables de traduire les signaux cérébraux en actions. Cependant, ces systèmes restent lourds et nécessitent des réajustements continus même pour l’accomplissement de tâches simples. Ces travaux marquent une nouvelle étape dans la conception de ces interfaces, une nouvelle capacité qui va contribuer à améliorer la vie des patients qui utilisent ces prothèses intelligentes. L’équipe d’ingénieurs de l'Université de Pittsburgh et de l'Université Carnegie Mellon étudie le fonctionnement du cerveau lors de l'apprentissage et travaille à améliorer ces technologies d'interface. Elle se concentre en particulier sur le lien neural entre l’intention et la réalisation d’une action. Lors d’une précédente recherche, l’équipe décryptait comment le cerveau évolue avec l'apprentissage de nouvelles compétences par l’interface cerveau-ordinateur : lorsqu’un sujet forme une intention motrice, cela provoque des schémas d'activité à travers les électrodes qui enregistrent l'activité neuronale. Ces données alimentent des algorithmes qui évoquent des mouvements sur un écran d'ordinateur. Les sujets sont ensuite capables de moduler leurs schémas d'activité neuronale de manière à évoquer les mouvements souhaités. Dans cette nouvelle recherche, l'équipe a conçu, et testé chez l’animal, une technologie par laquelle l'interface se réajuste continuellement en arrière-plan pour garantir que le système est toujours prêt à l'action. En synthèse, le système apprend aussi au fur et à mesure de l’évolution du cerveau avec l’apprentissage. Le système devient ainsi capable de se stabiliser en fonction de l’évolution du cerveau et d'intégrer les intentions du sujet, de manière à pouvoir passer à l'action au moment le plus propice. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Selon une vaste étude épidémiologique réalisée sous la direction du Professeur Carlo La Vecchia (MD), de l'Université de Milan, le taux de mortalité par cancer de la prostate en Europe devrait diminuer en 2020 de presque 10 % depuis 2015 grâce à un diagnostic plus précoce. « Cela peut avoir un impact significatif sur la mortalité par cancer de la prostate même en l'absence de guérison, car une proportion d'hommes âgés peut survivre assez longtemps pour mourir d'autres causes. Le test de l'antigène spécifique de la prostate, le PSA, peut également jouer un rôle, mais il est difficile de le quantifier à l'heure actuelle ». Le cancer de la prostate est le cancer le plus fréquent chez l'homme. Au Royaume-Uni, environ un homme sur huit contractera la maladie au cours de sa vie. Alors que les taux de mortalité par cancer de la prostate diminuent, le nombre d'hommes décédant de la maladie devrait cependant augmenter à mesure que la population vieillissante continue de croître. En 2015, 74998 hommes sont morts de la maladie dans l'UE, contre 78800 prévus en 2020. Et au Royaume-Uni seulement, 11 827 hommes sont décédés en 2015, contre 12 000 qui devraient mourir du cancer de la prostate cette année. Commentant la recherche, le Docteur Matthew Hobbs, directeur adjoint de la recherche chez Prostate Cancer UK, qui n'a pas participé à l'analyse, a déclaré : « Nous savons que la recherche effectuée au cours des 20 dernières années a permis d'améliorer le diagnostic et le traitement du cancer de la prostate. Parallèlement, les chiffres montrent que les taux de mortalité chez les femmes dans l'UE pour les cancers du poumon et du pancréas augmentent, avec une augmentation prévue de 6 % dans le cancer du poumon et de 1,2 % dans le cancer du pancréas entre 2015 et 2020 ». Article rédigé par Georges Simmonds pour RT Flash NMN | | | |
| Des scientifiques italiens de l'Institut de recherche pharmacologique de Milan ont confirmé que l’aspirine réduisait le risque de certains types de cancer dans le système digestif, y compris ceux du foie et du pancréas, qui sont particulièrement fatals. Ils ont analysé 113 articles scientifiques sur le cancer. Ils se sont particulièrement concentrés sur ceux dans le système digestif : intestin, estomac, foie, vésicule biliaire, pancréas, etc. Ils ont observé que la prise régulière d’un ou deux comprimés d’aspirine était associée à une réduction significative des cancers étudiés. Les probabilités de développer un cancer de l’intestin se réduisent ainsi de 27 %. Le chiffre passe à 33 % pour l’œsophage, à 36 % pour l’estomac, et à 22 % pour le pancréas. Concernant le cancer colorectal, plus la dose d’aspirine est élevée, plus le risque de cancer se réduit. En effet, une moyenne de 100, 325 et 500 milligrammes par jour engendre une réduction de respectivement 10, 35 et 50 %. La durée de la prise de ce médicament influe également sur cette tendance. L'étude rappelle cependant qu'une surdose d’aspirine peut engendrer des saignements dans l’estomac et d’autres organes. La prise d’aspirine ne doit se faire qu’après consultation d’un médecin. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Des chercheurs du CNRS ont mis en évidence la capacité d’une cyanobactérie, encore appelée algue bleue en raison de sa couleur, à piéger certains isotopes radioactifs même en présence d’une d’eau riche en calcium. A l’origine de leurs travaux, une propriété de certaines de ces bactéries, capables de minéraliser le calcium pour former du carbonate de calcium solide. Plus largement, toute la famille des alcalino-terreux peut potentiellement être transformée en granules carbonatés car leurs éléments chimiques présentent des propriétés quasi-identiques. C’est-à-dire, en plus du calcium : le baryum, le strontium et le radium. Or, le strontium-90 et le radium-226 sont deux isotopes radioactifs. « Nous avons réussi à isoler de son milieu la bactérie Gloeomargarita lithophora puis à la cultiver en laboratoire », explique Karim Benzerara, chercheur au CNRS à l’Institut de minéralogie, physique des matériaux et cosmochimie (IMPMC). « Nous avons découvert qu’elle est capable de concentrer, à l’intérieur de ses cellules, des éléments plus lourds que le calcium comme le radium et le strontium. Même lorsque la solution contient une concentration un million de fois plus élevée en calcium qu’en strontium et radium, cette bactérie incorpore préférentiellement ces deux derniers éléments ». Une découverte importante puisque les dispositifs actuels pour piéger ces éléments radioactifs saturent rapidement et deviennent inefficaces en pr&eac ute;sence d’une trop forte concentration en calcium. L’équipe de chercheurs révèle que 99 % des radionucléides sont piégés par les cellules de cette cyanobactérie Gloeomargarita lithophora et sont ainsi biominéralisés dans des granules carbonatés. Inversement, lorsqu’elle est absente ou que d’autres espèces de cyanobactéries sont ajoutées, la quasi-totalité des radionucléides reste dans la solution. Autre résultat significatif : la bactérie continue son processus de stockage alors même que des isotopes radioactifs s’accumulent à l’intérieur de ses cellules. « Sa capacité à fonctionner ne s’altère pas », souligne le chercheur. « Elle ne paraît pas stressée et l’ensemble de son organisme semble préservé ». Ces travaux pourraient aboutir par la mise en œuvre d’un nouveau procédé de dépollution des eaux contaminées en strontium et en radium radioactifs. La recherche doit tout de même se poursuivre afin de mieux comprendre le mécanisme de cette bactérie qui vit dans les lacs et les étangs. « Parmi nos interrogations, nous souhaitons connaître la teneur maximale en éléments radioactifs qu’elle est capable d’assimiler, en combien de temps et à quelle température », ajoute Karim Benzerara. Une fois les isotopes piégés, la méthode pour réduire leur radioactivité reste la même que celle actuellement pratiquée. Il est nécessaire de stocker à l’écart cette matière inerte radioactive durant de très longues années. « La bactérie présente l’avantage de concentrer davantage ces éléments et donc de nécessiter un volume de stockage moins important qu’habituellement », analyse le chercheur. Compter au moins 300 ans pour voir décroître de 99,9 % la radioactivité du strontium-90 et au minimum 16 000 ans pour le radium-226. Le premier est issu de la fission nucléaire et peut être libéré accidentellement dans la nature par des centrales nucléaires comme lors des catastrophes de Tchernobyl et de Fukushima. Même à des concentrations très faibles, il est dangereux car il s’accumule dans les organismes en se fixant préférentiellement sur les os. Le second est un isotope naturellement présent dans la nature, principalement dans les roches et les sols. Il peut se retrouver à des niveaux de concentration élevés dans les eaux de surface à proximité des mines d’uranium. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs américains du centre de recherche Scripps (Californie) ont découvert un anticorps appelé CR3022, produit par un patient en réponse au SRAS, qui se lie également au nouveau coronavirus SARS-CoV-2 responsable de la pneumonie COVID-19. En cartographiant l’interaction de cet anticorps avec le nouveau coronavirus, ces travaux d’une équipe de scientifiques du Scripps Research mettent en lumière la vulnérabilité du nouveau coronavirus et l’espoir d’autres anticorps peut-être « plus efficaces » à le neutraliser. La connaissance de sites conservés -ici entre SARS-Cov et SARS-CoV-2- va être utile pour concevoir un vaccin et/ou des médicaments contre le SRAS-CoV-2 mais également contre d'autres coronavirus, dont « ceux qui pourraient émerger à l'avenir », explique l’auteur principal, Ian Wilson, directeur du département de biologie au Scripps Research. L’objectif ultime est d'obtenir des informations structurelles sur les anticorps et leurs sites de liaison, et de les utiliser pour concevoir un vaccin contre le SRAS-CoV-2 : si le degré élevé de similitude entre SARS-CoV et SARS-Cov-2 implique que le site en question a une fonction importante qui serait perdue si le virus mutait de manière significative, cette fonction du site reste mystérieuse. L'analyse de l’équipe du Scripps révèle que le site de liaison des anticorps est relativement éloigné de la partie du virus qui saisit les récepteurs des protéines de surface cellulaire en préparation de la pénétration des cellules dans nos poumons. Cela suggère que, au moins pour le SRAS-CoV, CR3002 neutralise la capacité du virus à infecter les cellules d'une manière indirecte. « Nous constatons », écrivent les scientifiques, « que cette région est généralement cachée à l'intérieur du virus, et n'est exposée que lorsque cette partie du virus change de structure, comme ce serait le cas dans les infections naturelles. Ainsi, l'anticorps semble se lier beaucoup moins étroitement au SRAS-CoV-2 qu'il ne le fait au virus du SRAS, et ne peut pas neutraliser directement le SARS-CoV -2 ». Ces travaux suggèrent en effet que le site de liaison de cet anticorps sur le SRAS-CoV-2 est un site de vulnérabilité, et que les anticorps pouvant s’y lier plus étroitement réussiraient vraisemblablement à neutraliser le virus. La découverte de ce site est donc importante. Car de tels anticorps neutralisants pourraient être utilisés pour traiter des patients infectés à COVID-19 et apporter aussi une protection temporaire contre le virus à des personnes non infectées, comme les professionnels de santé par exemple. Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| Des chercheurs suédois de l'Université de Lund sont parvenus à réparer le cerveau de rats victimes d'AVC. Un AVC est dû à l’obstruction ou à la rupture d’un vaisseau sanguin situé dans le cerveau. Les cellules nerveuses ne sont plus alimentées en oxygène et en éléments nutritifs, et décèdent petit à petit dans la zone touchée. Selon l’endroit où se produit l’AVC et son étendue, les conséquences seront plus ou moins importantes : chaque partie du cerveau est associée à une fonction. L’AVC peut ainsi avoir des conséquences sur la mobilité de la main, sur la parole ou encore la vue. S’il est étendu, il conduit à une paralysie de la moitié du corps, s’il est localisé, il bloque en partie ou en totalité une fonction, comme la mobilité du bras, la parole, la vue, etc. Chez le rat, un AVC a des conséquences similaires. Les scientifiques de l’Université de Lund ont précédemment constaté qu’il était possible de transplanter des cellules souches humaines dans le cerveau de rats victimes d’AVC. Dans cette nouvelle recherche, ils ont découvert que ces cellules peuvent recréer des connexions rompues dans le cerveau. Les chercheurs ont utilisé la technique des cellules souches pluripotentes induites : elle permet de reprogrammer génétiquement des cellules pour leur donner une autre fonction. Des cellules cutanées humaines ont été reprogrammées en cellules nerveuses, puis implantées dans le cerveau de rats ayant subi un AVC. « Six mois après la transplantation, nous avons constaté que ces nouvelles cellules ont réparé les dégâts causés par l’AVC sur le cerveau des rats », conclut Zaal Kokaia, auteur de l’étude. Les rats ont pu retrouver leur mobilité et les sensations associées au toucher. « Nous avons vu que les fibres des cellules transplantées ont poussé de l’autre côté du cerveau, celui où nous n’avions transplanté aucune cellule, et que des connexions ont été créées », ajoute le chercheur, lui-même surpris par ces résultats. Il espère pouvoir développer cette technique pour un jour peut-être, pouvoir l’employer chez l’homme. « Même s’il y a un long chemin à parcourir avant de pouvoir réussir », temp&egr ave;re-t-il. Article rédigé par Georges Simmonds pour RT Flash PNAS | | | |
| Une équipe dirigée par un chercheur de l’Institut Pasteur a effectué une modélisation à partir des données hospitalières françaises et de celles issues du bateau de croisière Diamond Princess. Après qu’un cas de COVID-19 ait été diagnostiqué parmi ses passagers, l’ensemble de ceux-ci a été testé pendant la mise en quarantaine du navire, en février 2020. Les résultats de la modélisation indiquent que 3,6 % [2,1-5,6] des personnes contaminées sont hospitalisées, allant de 0,2 % chez les femmes de moins de 20 ans à 45,9 % chez les hommes de plus de 80 ans. Une fois hospitalisés, 19,0 % des patients sont dirigés en soins intensifs. Le taux de décès est de 18,1 % parmi les patients hospitalisés. Le taux de décès parmi l’ensemble des personnes contaminées s’élève à 0,7 %, allant de 0,001 % chez celles de moins de 20 ans à 10,1 % chez celles de plus de 80 ans. Les auteurs soulignent qu’il est comparable à ce qui a été rapporté dans d’autres études. Ils retrouvent également la prépondérance masculine en termes de risque d’être hospitalisé (RR 1,15), d’être admis en soins intensifs (RR 1,61) et de décès à l’hôpital (RR 1,47). Ils ont identifié deux sous-populations parmi les malades décédés : 15 % meurent rapidement (délai moyen 0,67 jours après admission) et 85 % après un délai de 13,2 jours en moyenne. Cette répartition est sensiblement la même quel que soit le groupe d’âge. Plusieurs interprétations sont possibles : délai du recours au système de soins, comorbidités, terrain génétique. Les chercheurs estiment que le 11 mai, 2,8 millions de Français ont été contaminés, soit 4,4 % de la population française, un taux largement insuffisant pour assurer une immunité de groupe. Cette proportion s’élève à 9,1 % dans le Grand Est et 9,9 % en Île-de-France. Les nouvelles contaminations auront lieu pour 58 % d’entre elles dans ces deux régions. Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| Parmi les AVC survenus dans le cadre d’une infection COVID-19, le Professeur Bertrand Lapergue, chef de service de Neurologie de l’hôpital Foch à Suresnes, a relevé plusieurs cas d’AVC graves survenus en France ayant particulièrement retenu son attention du fait de leur caractère inhabituel. Il s’agissait de patients assez jeunes (42 à 66 ans), mais ayant des facteurs de risques cardiovasculaires comme un surpoids, une hypertension ou un diabète, ce qui incite à la prudence en cette période de déconfinement. Ces AVC étaient associés à l’atteinte des gros vaisseaux et se manifestaient le plus souvent par une aphasie et une hémiplégie droite survenant entre 7 et 12 jours après l’apparition du tableau classique de COVID-19. Deux caractéristiques ont en particulier surpris le neurologue : d’une part, les patients étaient très inflammatoires sur le plan de la biologie, ce qui est très inhabituel en cas d’AVC, et d’autre part, ils avaient fréquemment à l’imagerie une occlusion en tandem, c’est-à-dire à la fois intracrânienne et de la carotide, ou de gros caillots dans les artères à destinée cérébrale, « Une charge thrombotique tout à fait exceptionnelle en dehors des cas d’infection sévère ! » s’est exclamé le neurologue. Certains patients reformaient même un thrombus après thrombectomie. Dans certains cas, une plaque d’athérome sous-jacente a pu être observée à l’imagerie, ce qui soulève la possibilité d’une décompensation au cour s de l’infection par le SARS-Cov-2. Des cas d’AVC extrêmement sévères au plan clinique ont également ont été rapportés dans la littérature, comme ceux décrits à New York et publiés dans le New England Journal of Medicine. Là aussi, ces patients étaient jeunes (33 à 49 ans) mais dyslipidémiques, hypertendus et avaient de grosses charges thrombotiques. La présence d’un athérome sous-jacent semblait être un trait assez constant de ces AVC sévères associés au COVID-19. Tout récemment, le préprint d’une étude observationnelle chinoise monocentrique a rapporté les données de 221 patients consécutifs hospitalisés à l’hôpital Union de Wuhan pour un COVID-19. Sur cette série, 5 % d’infarctus cérébraux ont été enregistrés, mais peu d’hémorragies, ce qui correspond à ce qui est observé en France. Les patients concernés avaient des facteurs de risque vasculaire et les plus âgés avaient un COVID-19 plus sévère et un état inflammatoire plus marqué (CRP, D-Dim). « Oui clairement », a affirmé le neurologue. En Île-de-France, les cas d’AVC les plus sévères survenus chez les patients COVID-19 étaient souvent associés à un terrain athéromateux. Les cas chez les sujets jeunes restent rares en dehors de ceux précédemment décrits avec un syndrome inflammatoire important. De façon générale, le COVID-19 augmente le risque d’AVC parce que les patients semblent avoir un état d’hypercoagulabilité avec en conséquence une tendance à faire des caillots. Surtout, l’infection augmente la gravité des AVC « parce qu’ils arrivent avec retard à l’hôpital par peur d’y venir en cette période d’épidémie, et aussi parce que le pronostic est nécessairement plus sombre lorsque l’AVC survient chez des p atients en réanimation dans un contexte d’insuffisance respiratoire ou de défaillance multivicérale,» a-t-il expliqué. Ces observations indiquant que les patients COVID-19 sont plus à risque d’AVC ont été retrouvées dans la littérature. Sur une cohorte de 184 patients en unité de soins intensifs avec un COVID-19 confirmé et enrôlés au sein de 3 hôpitaux hollandais, les affections thrombotiques (en particulier les embolies pulmonaires, représentant plus de 80 % de ces événements) étaient présentes dans près d’un tiers des cas (31 %) et ont largement impacté le pronostic des patients COVID-19 en réanimation. Les traitements anticoagulants ont même dû être renforcés pour prévenir ce type de complication. L’âge et la présence d’une CIVD (coagulopathie intravasculaire disséminée) avaient un poids pronostique très important. L’étude de 13 cas français montre aussi que la gravité des AVC est augmentée par l’infection : les patients ont tendance à reformer un caillot après thrombectomie (38 % des cas), ce qui assombrit nécessairement le pronostic. Article rédigé par Georges Simmonds pour RT Flash Univadis | | | |
| Des chercheurs américains de l’Université de Princeton ont formé l'hypothèse que la propagation silencieuse et asymptomatique de COVID-19 pourrait être une stratégie évolutive réussie du coronavirus SARS-CoV-2. Selon eux, une transmission asymptomatique pourrait apporter certains avantages au pathogène. Comme les organismes plus complexes, les virus peuvent évoluer par sélection naturelle. De nouvelles variantes sont générées par mutation et si ces changements favorisent la transmission des agents pathogènes, alors cette souche du virus aura toutes les chances de se propager. Ainsi, les espèces dont les stratégies contribuent à leur transmission et leur réplication survivent, tandis que les espèces dont les stratégies ne favorisent pas la transmission (comme tuer l'hôte avant que le virus ne puisse se répliquer ou se transmettre) finissent par disparaître. L'évolution virale implique un compromis entre l'augmentation du taux de transmission et le maintien de l'hôte comme base de transmission. Les espèces qui gèrent ce compromis plus efficacement que d'autres vont survivre et supplanter les autres espèces. Cette pandémie de COVID-19 montre qu'une infection silencieuse présente certains avantages à court terme. Cela rend les stratégies de contrôle – telles que l'identification, la quarantaine et le suivi des contacts – difficiles à mettre en œuvre. Les personnes infectées asymptomatiques ont tendance à vivre leur vie et à poursuivre les contacts avec de nombreux hôtes vulnérables. Ainsi, le virus peut circuler en toute impunité. En revanche, un cas symptomatique aura tendance à s’isoler, rompant pratiquement spontanément la chaîne de transmission. Article rédigé par Georges Simmonds pour RT Flash PNAS | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|